[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20150061716A - Apparatus and method for analyzing advertising effects - Google Patents

Apparatus and method for analyzing advertising effects Download PDF

Info

Publication number
KR20150061716A
KR20150061716A KR1020130145655A KR20130145655A KR20150061716A KR 20150061716 A KR20150061716 A KR 20150061716A KR 1020130145655 A KR1020130145655 A KR 1020130145655A KR 20130145655 A KR20130145655 A KR 20130145655A KR 20150061716 A KR20150061716 A KR 20150061716A
Authority
KR
South Korea
Prior art keywords
viewer
information
advertisement
received
unit
Prior art date
Application number
KR1020130145655A
Other languages
Korean (ko)
Inventor
박용문
이한규
정영호
홍진우
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020130145655A priority Critical patent/KR20150061716A/en
Publication of KR20150061716A publication Critical patent/KR20150061716A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Multimedia (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

A device to analyze an advertising effect according to the present invention comprises: a viewer recognition unit which identifies a viewer by searching registered viewer information corresponding to a facial code by facial direction from a viewer image received, and detects watching behavior information of a viewer, identified based on the identified, registered viewer information and a facial code value by facial direction; and an advertising effect analysis unit which analyzes a degree of immersion of the viewer based on the detected watching behavior information, and generates an advertising effect analysis report based on the analyzed degree of immersion. The present invention can further include an information collection unit which generates a viewer video by filming the viewer, and receives viewer registration information from the viewer.

Description

광고효과 분석 장치 및 분석 방법{APPARATUS AND METHOD FOR ANALYZING ADVERTISING EFFECTS}[0001] APPARATUS AND METHOD FOR ANALYZING ADVERTISING EFFECTS [0002]

본 발명은 광고 효과 분석 및 제공에 관한 것으로, 보다 상세하게는 방송 서비스 환경에서 제공되는 방송광고의 효과를 측정하기 위한 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an advertisement effect analysis and provision method, and more particularly, to an apparatus and a method for measuring an effect of a broadcast advertisement provided in a broadcast service environment.

기존 대형 광고주의 광고는 광고주나 광고대행사의 광고 경험에 의한 효과측정 결과에 의존하여 광고가 집행되어 왔다. 따라서, 중소형 광고주 또는 개인 광고주의 경우는 광고의 범위가 제한적일 수밖에 없기 때문에 광고 행위에 참여가 어려울 뿐만 아니라 정확한 광고 효과 측정이 어려웠다. 또한, 기존 인터넷 상의 온라인 광고처럼 통일된 표준이 없고, 광고 효과측정 수단이 미흡하여 매체 간에 비교가 어려운 문제가 있다. 종래의 광고 효과측정 기술은 시청율과 광고 노출량 및 도달률 등 광고 집행 실적에 따라 광고 기획이 이루어지고, 인지도가 높은 배우나 상품 제조사의 인지도 등에 의존하여 광고 정책을 수립하기 때문에 정확한 광고 효과 측정이 어려운 실정이다.Existing large advertisers 'advertisements have been advertised depending on the results of advertiser or ad agency' s experience. Therefore, in the case of small advertisers or individual advertisers, it is difficult to participate in advertising activities because it has a limited range of advertisements, and it is difficult to measure accurate advertisement effects. In addition, there is no uniform standard like the existing online advertising on the Internet, and there is a problem in that it is difficult to compare the mediums because the means for measuring the advertising effect is insufficient. Conventional advertising effect measurement technology is difficult to accurately measure the advertising effect because advertisement planning is performed according to the performance of the advertisement execution such as the audience rating, the ad exposure amount and reaching rate, and the advertisement policy is established depending on the recognition of the highly- to be.

사용자에게 일반적인 방송 콘텐츠를 제공하던 방송 서비스 환경에서 서로 성격이 다른 플랫폼의 방송 서비스간 융합을 시도한 하이브리드 방송 서비스 환경과 같은 뉴미디어 환경으로 발전하고 있다. 뉴미디어 환경에서 기업의 광고 전략 수립을 위해 정량적인 효과분석 결과를 제시함으로써 효율적이고 저렴한 비용으로 특정 광고 메시지를 특수한 계층에게 전달하는 맞춤형 광고를 제공하기 위한 필요성이 대두되고 있다. A new media environment such as a hybrid broadcast service environment in which fusion of broadcast services of platforms having different characteristics are attempted in a broadcast service environment in which general broadcast contents are provided to users is being developed. In order to establish a corporate advertising strategy in a new media environment, it is necessary to provide a customized advertisement that delivers a specific advertisement message to a specific class at an effective and low cost by presenting a quantitative effect analysis result.

대한민국 공개특허 제10-2005-0041496호는 각종 미디어에서 실시되는 광고가 실제로 사람들에게 노출되는 횟수 및 시간을 정량적으로 산출하여 선정된 광고 내용으로 광고를 실시하고, 이에 관련한 데이터를 서버로 송출하여 서버에서 광고 미디어를 제어할 수 있도록 광고 효과의 정량적 산출 및 광고 제어 시스템에 대해 개시되어 있다. 이와 같이, 종래의 일반적인 광고 효과 측정 방법은 광고 노출 시간이나 광고 노출 수와 같은 정량적 데이터에 기반하여 광고 효과를 분석 및 측정하여 왔다.Korean Patent Laid-Open Publication No. 10-2005-0041496 quantitatively calculates the number of times and times that an advertisement performed in various media is actually exposed to people, performs advertisement with the selected advertisement contents, transmits data related thereto to the server, And an advertisement control system for quantitatively calculating the advertising effect so as to control the advertisement media in the advertisement control system. As described above, the conventional general advertisement effect measuring method has analyzed and measured the advertisement effect based on the quantitative data such as the advertisement exposure time or the advertisement exposure number.

대한민국 공개특허 제10-2005-0041496호Korean Patent Publication No. 10-2005-0041496

본 발명이 해결하고자 하는 과제는 광고 목표 대비 객관적이고 정량적 측정 데이터를 근거로 한 체계적인 광고 효과분석 데이터 관리 및 결과 제시가 가능하며, 광고를 기획할 때 광고 효과 분석 결과를 바탕으로 광고주의 목표가 반영될 수 있도록 시청자 행태인식 정보를 기반으로 광고 효과 분석을 할 수 있는 장치 및 방법을 제공하는 것이다.The problem to be solved by the present invention is to systematically analyze the advertising effect data based on the objective and quantitative measurement data compared to the advertising objective and to present the result, and when the advertisement is planned, the goal of the advertiser is reflected The present invention provides an apparatus and method for analyzing an advertisement effect based on viewer behavior identification information.

본 발명에 따른 광고효과 분석 장치는 수신된 시청자 영상으로부터 검출된 얼굴 방향별 얼굴 코드값에 대응하는 등록된 시청자 정보를 검색하여 시청자를 식별하며, 식별된 등록된 시청자 정보 및 얼굴 방향별 얼굴 코드값에 기초하여 식별된 시청자의 시청행태 정보를 검출하는 시청자 인식부 및 검출된 시청행태 정보에 기초하여 시청자의 몰입도를 분석하고, 분석된 몰입도에 기초하여 광고효과 분석 보고서를 생성하는 광고효과 분석부를 포함하며, 시청자를 촬영하여 시청자 영상을 생성하고, 시청자로부터 시청자 등록 정보를 수신하는 정보 수집부를 더 포함할 수 있다. 시청자 인식부는 수신된 시청자 영상으로부터 검출된 얼굴 방향별 얼굴 코드값 및 수신된 시청자 등록 정보를 매칭하여 시청자를 등록하여 상기 등록된 시청자 정보를 생성한다. 그리고, 시청행태 정보는 시청자의 눈 개폐 상태에 대한 정보를 포함하며, 시청자가 시청중인 방송/광고 콘텐츠에 대한 정보 및 방송 채널에 대한 정보를 더 포함할 수 있다.The advertisement effect analyzing apparatus according to the present invention searches for registered viewer information corresponding to the face code value per face direction detected from the received viewer image to identify the viewer, and displays the registered registered viewer information and the face code A viewer recognition unit for detecting the viewer behavior information of the identified viewer based on the viewing behavior information, and analyzing the viewer's immersion level based on the detected viewing behavior information and analyzing the advertisement effect to generate the advertisement effect analysis report based on the analyzed immersion level And may further include an information collecting unit that captures a viewer to generate a viewer image, and receives viewer registration information from the viewer. The viewer recognizing unit matches the face code of each face direction detected from the received viewer image and the received viewer registration information, registers the viewer, and generates the registered viewer information. The viewing behavior information includes information on the eye opening / closing state of the viewer, and may further include information on the broadcasting / advertisement contents being viewed by the viewer and information on the broadcasting channel.

광고효과 분석부는 수신된 시청행태 정보에 포함된 시청자의 눈 개폐 상태를 통해 시청자의 몰입도를 판단하거나, 수신된 시청행태 정보에 포함된 방송 채널에 대한 정보를 통해 시청자가 시청중인 방송 채널의 변경 여부를 통해 시청자의 몰입도를 판단할 수 있다. 그리고, 광고효과 분석부는 별도의 광고기획 관리자로부터 수신된 콘텐츠 정보, 고객 정보 및 광고기획 분류 정보를 포함하는 광고 관련 정보 및 시청행태 정보에 기초하여 광고효과 분석 보고서를 생성할 수 있다. 광고효과 분석 보고서는 가구별 시청이력 보고서, 광고별 집행실적 보고서, 1차원 광고집행 실적 보고서 및 2차원 광고집행 실적 보고서를 포함할 수 있다. 또한, 광고효과 분석 보고서는 광고 히트수(Hit Number), 시청가구수, 광고효과 측정 도달범위(Reach), 도달횟수(Freq) 및 광고효과 측정(Growth Rating Point, GRP)을 포함할 수 있다.The advertisement effect analyzing unit may determine the degree of involvement of the viewer through the eye opening / closing state of the viewer included in the received viewing behavior information, or may change the broadcast channel being watched by the viewer through the information about the broadcast channel included in the received viewing / It is possible to judge the degree of the viewer's immersion. The advertisement effect analysis unit may generate the advertisement effect analysis report based on the advertisement related information including the content information, the customer information, and the advertisement planning classification information received from the separate advertisement planning manager and the viewing behavior information. The advertising effectiveness analysis report can include a household history report, an ad performance report by ad, a one-dimensional advertisement performance report, and a two-dimensional advertisement execution report. In addition, the advertisement effect analysis report may include an advertisement hit number, a number of viewing households, an advertisement effect reaching range, a reaching frequency Freq, and a growth rating point (GRP).

본 발명에 따른 광고효과 분석 방법은 먼저, 수신된 시청자 영상으로부터 얼굴 방향별 얼굴 코드값을 검출하고, 검출된 얼굴 방향별 얼굴 코드값에 대응하는 등록된 시청자 정보를 검색하여 시청자를 식별한다. 시청자가 식별되면, 식별된 등록된 시청자 정보 및 얼굴 방향별 얼굴 코드값에 기초하여 식별된 시청자의 시청행태 정보를 검출하고, 검출된 시청행태 정보에 기초하여 시청자의 몰입도를 분석한다. 그리고, 분석된 몰입도에 기초하여 광고효과 분석 보고서를 생성한다. 그리고, 추가적으로 시청자를 촬영하여 시청자 영상을 생성하고, 시청자로부터 시청자 등록 정보를 수신하고, 수신된 시청자 등록 정보 및 시청자 영상에 기초하여 시청자를 등록할 수 있다. The advertisement effect analysis method according to the present invention first detects a face code value according to a face direction from a received viewer image and identifies a viewer by searching registered viewer information corresponding to the detected face code value. When the viewer is identified, the viewer behavior information of the viewer identified based on the identified registered viewer information and the face code for each face direction is detected, and the viewer's degree of immersion is analyzed based on the detected viewing behavior information. Then, an advertisement effect analysis report is generated based on the analyzed degree of engagement. Further, a viewer image can be additionally captured by capturing a viewer, viewer registration information can be received from the viewer, and the viewer can be registered based on the received viewer registration information and viewer image.

검출된 시청행태 정보에 기초하여 상기 시청자의 몰입도를 분석하는 단계는 수신된 시청행태 정보에 포함된 시청자의 눈 개폐 상태를 통해 시청자의 눈이 소정의 횟수 이상 개폐되는 경우 시청자가 몰입하는 것으로 추정하여 몰입도를 판단한다. 또는 검출된 시청행태 정보에 기초하여 시청자의 몰입도를 분석하는 단계는 수신된 시청행태 정보에 포함된 방송 채널에 대한 정보를 통해 시청자가 시청중인 방송 채널의 변경 여부를 통해 방송 채널이 변경되지 않는 경우 시청자가 몰입하는 것으로 추정하여 몰입도를 판단한다. 또 다른 방법으로는 두 방법을 병행하여 수신된 시청행태 정보를 통해 상기 방송 채널이 변경되는지 여부를 판단하고, 방송 채널이 변경되지 않는 것으로 판단되면, 수신된 시청행태 정보에 포함된 눈 개폐 상태를 통해 상기 시청자가 눈을 개폐하는지 여부를 판단한다. 만약 시청자의 눈이 개폐되는 것으로 판단되면, 시청자의 눈이 소정의 횟수 이상 개폐되는지 여부를 판단하여 시청자의 몰입도를 판단할 수 있다.Analyzing the immersion degree of the viewer based on the detected viewing behavior information may include estimating that the viewer is immersed when the eyes of the viewer are opened or closed more than a predetermined number of times through the eye opening / closing state of the viewer included in the received viewing / To determine the degree of immersion. Or analyzing the viewer's immersion level based on the detected viewing behavior information, the broadcasting channel is not changed through the information on the broadcasting channel included in the received viewing / The viewer is judged to be immersed and the immersion level is judged. Alternatively, it is determined whether the broadcast channel is changed through the received viewing behavior information in parallel with the two methods. If it is determined that the broadcast channel is not changed, the eye open / close state included in the received viewing / Whether the viewer opens or closes his / her eyes. If it is determined that the viewer's eyes are opened or closed, it is determined whether or not the viewer's eyes are opened or closed more than a predetermined number of times, and the viewer's immersion degree can be determined.

본 발명에 따른 광고효과 분석 장치 및 분석 방법은 개별 시청자의 몰입도를 고려하여 광고효과를 분석하기 때문에, 보다 효과적이고 정확하게 광고효과를 측정할 수 있다. 이를 통해, 소비자의 라이프 스타일 변화 및 소비자 주변의 다양한 기기와 매체 플랫폼 등장과 같은 환경 변화에 있어서 광고 효과 측정 측면에서 능동적으로 대처할 수 있으며, 시청자의 시청행태 인식을 기반으로 개인별 맞춤형 광고 효과 분석이 가능하게 된다. 또한, 광고 목표 대비 객관적이고 정량적인 측정 데이터를 근거로 한 체계적인 광고 효과 분석, 데이터 관리 및 결과 제시가 가능하게 된다.The apparatus and method for analyzing the advertisement effect according to the present invention can more effectively and accurately measure the advertisement effect because the advertisement effect is analyzed considering the degree of immersion of the individual viewer. Through this, it is possible to actively cope with changes in lifestyle of consumers and environment changes such as appearance of various devices and media platforms around consumers, and to analyze customized advertising effects based on viewer's perception of viewing behavior . In addition, it is possible to systematically analyze advertising effects, manage data, and present results based on objective and quantitative measurement data compared to advertising goals.

도 1은 본 발명에 따른 광고효과 분석 장치의 일 실시예를 나타내는 구성도이다.
도 2는 본 발명의 일 실시예에 따른 광고효과 분석 장치의 시청자 인식부(200)를 나타내는 상세도이다.
도 3은 본 발명의 일 실시예에 따른 광고효과 분석 장치의 광고효과 분석부를 나타내는 상세도이다.
도 4는 본 발명의 일 실시예에 따른 광고효과 분석 장치의 광고효과 분석 과정을 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 광고효과 분석 장치의 시청자 등록 과정을 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 광고효과 분석 방법을 나타내는 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 광고효과 분석 방법의 몰입도 검출 과정의 일 실시예를 나타내는 도면이다.
1 is a block diagram showing an embodiment of an advertising effect analyzing apparatus according to the present invention.
2 is a detailed view showing a viewer recognition unit 200 of the advertisement effect analysis apparatus according to an embodiment of the present invention.
3 is a detailed view illustrating an advertisement effect analyzing unit of the advertisement effect analyzing apparatus according to an embodiment of the present invention.
4 is a diagram illustrating a process of analyzing an advertisement effect of the advertisement effect analyzing apparatus according to an embodiment of the present invention.
5 is a diagram illustrating a viewer registration process of the advertisement effect analysis apparatus according to an embodiment of the present invention.
6 is a flowchart illustrating an advertisement effect analysis method according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating an exemplary embodiment of a method for detecting an immersion of an advertisement effect analysis method according to an exemplary embodiment of the present invention. Referring to FIG.

이하, 본 발명의 실시예를 첨부된 도면들을 참조하여 상세하게 설명한다. 본 명세서에서 사용되는 용어 및 단어들은 실시예에서의 기능을 고려하여 선택된 용어들로서, 그 용어의 의미는 발명의 의도 또는 관례 등에 따라 달라질 수 있다. 따라서 후술하는 실시예에서 사용된 용어는, 본 명세서에 구체적으로 정의된 경우에는 그 정의에 따르며, 구체적인 정의가 없는 경우는 당업자들이 일반적으로 인식하는 의미로 해석되어야 할 것이다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The terms and words used in the present specification are selected in consideration of the functions in the embodiments, and the meaning of the terms may vary depending on the intention or custom of the invention. Therefore, the terms used in the following embodiments are defined according to their definitions when they are specifically defined in this specification, and unless otherwise specified, they should be construed in a sense generally recognized by those skilled in the art.

본 발명에 따른 광고효과 분석 장치 및 측정 방법은 실시간 방송광고 및 VoD(Video On Demand) 광고에 대한 시청행태 정보 기반의 효과측정 시스템을 구성하기 위한 발명이다. 본 발명에 따른 광고효과 분석 장치 및 측정 방법을 통해 광고주나 대행사 등의 광고 유통 참여자들이 시청률 및 광고효과 지표로 산출되는 광고 효과의 측정 결과를 제공할 수 있다. 본 발명을 통해 스마트 미디어 환경과 뉴미디어에 대응하는 시청자 정보와 방송/광고 콘텐츠의 시청행태 측정 정보 등을 이용하여 객관적인 지표에 의해 광고의 효과를 측정하고 제시함으로써 새로운 광고집행 전략을 수립할 수 있으며, 상품이나 서비스의 매출 증대라는 광고의 기본 목적을 달성할 수 있는 최적의 방법을 위한 의미 있는 정보 제공이 가능하다.The apparatus and method for analyzing an advertisement effect according to the present invention is an invention for constituting a system for measuring an effect based on a viewing behavior information for a real-time broadcast advertisement and a video on demand (VoD) advertisement. The advertisement distribution agent and the measurement method of the present invention can provide the measurement result of the advertisement effect calculated by the audience share rate and the advertisement effectiveness index by the advertisement distribution participants such as the advertiser or the agency. Through the present invention, it is possible to establish a new advertisement execution strategy by measuring and presenting the effect of advertising by objective indicators using viewer information corresponding to the smart media environment and new media and viewing / listening behavior measurement information of broadcasting / advertisement contents, It is possible to provide meaningful information for an optimal method of achieving the basic purpose of advertisement, namely, increase in sales of goods or services.

도 1은 본 발명에 따른 광고효과 분석 장치의 일 실시예를 나타내는 구성도이다.1 is a block diagram showing an embodiment of an advertising effect analyzing apparatus according to the present invention.

도 1을 참조하면, 본 발명에 따른 광고효과 분석 장치(10)는 정보 수집부(100), 시청자 인식부(200) 및 광고효과 분석부(300)를 포함한다.Referring to FIG. 1, the advertisement effect analyzing apparatus 10 according to the present invention includes an information collecting unit 100, a viewer recognizing unit 200, and an advertisement effect analyzing unit 300.

정보 수집부(100)는 시청자 등록 정보 및 시청자 영상을 시청자 인식부(200)로 전달한다. 시청자 등록 정보는 시청자의 연령 및 성별을 포함하는 개인 식별 정보를 포함할 수 있으며, 개별 등록 정보 정보, 관심 분야, 취향, 거주 지역, 국적 및 직업을 포함하는 부가 정보를 포함할 수 있다. 정보 수집부(100)는 단말을 제어하기 위한 리모트 콘트롤러(Remote Controller) 또는 기타 다양한 입력 인터페이스 장치를 통해 시청자로부터 시청자 등록 정보를 입력받거나, 사전에 저장된 정보 중에서 해당 시청자에 대응하는 시청자 등록정보를 검색 또는 선택하여 시청자 인식부(200)로 전달할 수 있다. 시청자 등록 정보는 방송/광고 콘텐츠를 제공받는 시청자를 광고효과 분석 장치에 등록하기 위해 필요한 정보로서, 새로운 시청자를 등록할 경우에 정보 수집부(100)가 수집하여 시청자 인식부(200)로 전달한다. 만약, 이전에 등록된 시청자인 경우 정보 수집부(100)는 시청자 등록 정보를 수집하는 과정을 생략하고, 시청자 영상만을 시청자 인식부(200)로 전달할 수 있다.The information collecting unit 100 transmits the viewer registration information and the viewer image to the viewer recognizing unit 200. The viewer registration information may include the individual identification information including the age and sex of the viewer, and may include additional registration information, interest information, taste, residence area, nationality, and occupation. The information collecting unit 100 may receive viewer registration information from a viewer through a remote controller or various other input interface devices for controlling the terminal or may search viewer registration information corresponding to the viewer among the previously stored information Or may select and transmit it to the viewer identification unit 200. The viewer registration information is information necessary for registering a viewer who receives broadcast / advertisement contents in the advertisement effect analyzing apparatus, and when the new viewer is registered, the information collecting unit 100 collects and transmits the collected information to the viewer recognizing unit 200 . If the viewer is a previously registered viewer, the information collecting unit 100 may omit the process of collecting the viewer registration information, and may transmit only the viewer image to the viewer recognizing unit 200.

정보 수집부(100)는 영상 촬영장치를 이용하여 시청자를 촬영하여 시청자 영상을 생성하여 시청자 인식부(200)로 전달한다. 시청자 영상을 생성하기 위한 영상 촬영장치는 일반적으로 사용되는 카메라와 같은 대부분의 영상 촬영장치를 포함할 수 있다. 정보 수집부(100)는 내부에 영상 촬영장치를 구비한 단말장치 형태로 구현되거나, 별도의 영상 촬영장치를 연결한 단말장치 형태로 구현될 수 있다. 그리고, 정보 수집부(100)는 방송/광고 콘텐츠를 직접 제공하는 셋톱박스, 모바일 단말 및 PC 등과 같은 형태로 구현될 수 있으며, 방송/광고 콘텐츠를 제공할 수 있는 장치와 별도의 장치로 구성될 수 있다. 또한, 정보 수집부(100)는 시청자가 현재 시청중인 방송/광고 콘텐츠 및 방송 채널에 대한 정보를 지속적으로 갱신하여 시청자 인식부(200)로 전달한다.The information collecting unit 100 photographs a viewer using the image photographing apparatus, generates a viewer image, and transmits the image to the viewer recognizing unit 200. [ The image capturing apparatus for generating a viewer image may include most image capturing apparatuses such as a commonly used camera. The information collecting unit 100 may be implemented in the form of a terminal equipped with a video photographing device or a terminal device connected to a separate video photographing device. The information collecting unit 100 may be implemented in the form of a set-top box, a mobile terminal, a personal computer (PC), or the like, which directly provides broadcast / advertisement contents. . In addition, the information collecting unit 100 continuously updates the information on the broadcast / advertisement contents and the broadcast channel that the viewer is currently watching, and transmits the updated information to the viewer recognizing unit 200.

시청자 인식부(200)는 정보 수집부(100)로부터 시청자 등록 정보 및 시청자 영상을 수신받는다. 정보 수집부(100)로부터 시청자 등록 정보 및 시청자 영상이 함께 수신되면, 시청자 인식부(200)는 얼굴코드를 검출하기 위해 수신된 시청자 영상에 대해 캘리브레이션(Calibration) 과정을 통해 시청자 영상에서 얼굴 영역을 검출하여 시청자 얼굴을 인식한다. 수신된 시청자 영상에서 시청자 얼굴이 인식되면, 시청자 인식부(200)는 인식된 시청자 얼굴과 수신된 시청자 등록 정보를 매칭하여 해당 시청자를 등록한다.The viewer identification unit 200 receives the viewer registration information and the viewer image from the information collection unit 100. When the viewer registration information and the viewer image are received together from the information collection unit 100, the viewer recognition unit 200 performs a calibration process on the received viewer image to detect the face code, And recognizes the viewer's face. When the viewer's face is recognized in the received viewer image, the viewer recognition unit 200 matches the recognized viewer's face with the received viewer registration information and registers the viewer.

시청자 인식부(200)는 정보 수집부(100)로부터 시청자 영상이 수신되면, 수신된 시청자 영상에서 얼굴 영역을 검출하여 시청자 얼굴을 인식한다. 그리고, 시청자 인식부(200)는 인식된 시청자 얼굴과 기 등록된 시청자와 비교하여 시청자를 식별한다. 시청자가 식별되면, 시청자 인식부(200)는 인식된 시청자 얼굴을 분석하여 시청행태를 검출한다. 시청자 인식부(200)는 시청자의 눈의 깜빡임 상태를 나타내는 눈 개폐 정보 또는 눈 시선 방향에 대한 정보를 포함하는 시청행태를 검출할 수 있다. 시청자 인식부(200)는 이러한 검출 방법뿐만 아니라, 다양한 방법을 통해 시청행태를 검출할 수 있다. 시청자 인식부(200)는 수신된 시청자 영상으로부터 시청행태가 검출되면, 시청행태 정보를 광고효과 분석부(300)로 전달한다. 시청자 인식부(200)에서 광고효과 분석부(300)로 전달되는 시청행태 정보는 영상 인식을 통한 시청자의 시청행태뿐만 아니라, 현재 시청자에 대한 정보 및 현재 시청중인 방송/광고 콘텐츠에 대한 정보를 포함할 수 있다. 시청자 인식부(200)는 도 2에서 추가적으로 설명하도록 한다.When the viewer image is received from the information collection unit 100, the viewer recognition unit 200 detects the face region in the received viewer image to recognize the viewer's face. Then, the viewer recognition unit 200 identifies the viewer by comparing the recognized viewer's face with the pre-registered viewer. When the viewer is identified, the viewer recognition unit 200 analyzes the recognized viewer's face to detect the viewing behavior. The viewer recognizing unit 200 can detect the viewing behavior including the eye opening / closing information indicating the blinking state of the viewer's eyes or the information about the eye viewing direction. The viewer recognition unit 200 can detect the viewing behavior through various methods as well as such a detection method. The viewer recognition unit 200 transmits the viewing behavior information to the advertisement effect analysis unit 300 when a viewing behavior is detected from the received viewer image. The viewing behavior information transmitted from the viewer recognition unit 200 to the advertisement effect analysis unit 300 includes not only the viewer's viewing behavior through image recognition but also information about the current viewer and information about the broadcast / can do. The viewer recognition unit 200 will be described further in Fig.

광고효과 분석부(300)는 시청자 인식부(200)로부터 수신된 시청행태 정보를 수집한다. 그리고, 광고효과 분석부(300)는 수신된 시청행태 정보에 기초하여 시청률 지표 및 광고효과 측정지표를 생성한다. 그리고, 광고효과 분석부(300)는 생성된 시청률 지표 및 광고효과 측정지표를 포함하는 광고효과 분석 보고서를 광고주(20)로 전달한다. 광고주(20)는 단지 실제 광고를 주문하는 광고활동을 하는 주체자만을 포함하는 것은 아니며, 광고활동과 관련된 광고대행사, 광고 유통 참여자 및 미디어랩(Media Representative)을 포함하는 광고 관련 모든 업체/종사자 및 광고효과 분석 보고서를 활용할 수 있는 대상 전부를 포함할 수 있다. 광고효과 분석부(300)는 후술하는 도 3에서 추가적으로 설명하도록 한다. 본 발명에 따른 광고효과 분석 장치(10)를 구성하는 정보 수집부(100), 시청자 인식부(200) 및 광고효과 분석부(300)가 도 1에 묘사된 바와 같이 하나의 장치로서 결합된 형태로 구성될 수 있을 뿐만 아니라, 정보 수집부(100), 시청자 인식부(200) 및 광고효과 분석부(300)가 유선/무선 네트워크를 통해 서로 원격으로 연결되어 구성될 수 있다. 예를 들어, 정보 수집부(100), 시청자 인식부(200) 및 광고효과 분석부(300) 모두가 시청자의 가정 내에 위치하는 형태로 구성될 수 있으며, 정보 수집부(100)는 시청자의 가정 내에 위치하고 시청자 인식부(200) 및 광고효과 분석부(300)는 별도의 서버로 구현 또는 광고주(20) 측에 위치하도록 구성될 수 있다. 또한, 정보 수집부(100), 시청자 인식부(200) 및 광고효과 분석부(300)가 응용프로그램(Application) 형태로 단말장치에 구현될 수 있다.The advertisement effect analyzing unit 300 collects the viewing behavior information received from the viewer recognizing unit 200. The advertisement effect analyzer 300 generates an audience rating index and an advertisement effectiveness index based on the received viewing behavior information. The advertisement effect analysis unit 300 delivers the advertisement effect analysis report including the generated audience rating index and the advertisement effect measurement index to the advertiser 20. The advertiser 20 does not only include the subject who performs the advertising activity that orders the actual advertisement, but also includes all the advertisement related businesses / employees including the advertisement agency related to the advertisement activity, the advertisement distribution member and the media representative (Media Representative) It may include all of the subjects that can utilize the Effectiveness Analysis Report. The advertisement effect analyzing unit 300 will be further described in FIG. 3 which will be described later. 1, the information collecting unit 100, the viewer recognizing unit 200, and the advertisement effect analyzing unit 300 constituting the advertisement effect analyzing apparatus 10 according to the present invention are combined as a single apparatus And the information collecting unit 100, the viewer recognizing unit 200, and the advertisement effect analyzing unit 300 may be remotely connected to each other through a wired / wireless network. For example, the information collecting unit 100, the viewer recognizing unit 200, and the advertisement effect analyzing unit 300 may all be located in the home of the viewer. And the viewer recognition unit 200 and the advertisement effect analysis unit 300 may be implemented as separate servers or located on the advertiser 20 side. In addition, the information collecting unit 100, the viewer recognizing unit 200, and the advertisement effect analyzing unit 300 may be implemented in a terminal device in the form of an application program.

도 2는 본 발명의 일 실시예에 따른 광고효과 분석 장치의 시청자 인식부(200)를 나타내는 상세도이다.2 is a detailed view showing a viewer recognition unit 200 of the advertisement effect analysis apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 광고효과 분석 장치의 시청자 인식부(200)는 시청자 관리부(210), 얼굴 검출부(220), 시청자 등록부(230) 및 시청행태 검출부(240)를 포함한다.2, the viewer recognition unit 200 of the advertisement effect analysis apparatus according to an embodiment of the present invention includes a viewer management unit 210, a face detection unit 220, a viewer registration unit 230, and a viewing behavior detection unit 240. [ .

시청자 관리부(210)는 등록된 시청자 정보를 저장 및 관리한다. 등록된 시청자 정보는 수신된 사용자 등록 정보와 인식된 시청자 얼굴을 시청자 등록부(230)에서 매칭시켜 생성된 정보로서, 이후 인식된 시청자 얼굴을 통해 사용자를 식별하는데 이용된다. 시청자 관리부(210)는 시청자 등록부(230)의 요청에 따라 대응하는 등록된 시청자 정보를 전달한다.The viewer management unit 210 stores and manages the registered viewer information. The registered viewer information is information generated by matching the received user registration information with the recognized viewer's face in the viewer registration unit 230 and is used to identify the user through the recognized viewer's face. The viewer management unit 210 delivers the corresponding registered viewer information at the request of the viewer registration unit 230. [

얼굴 검출부(220)는 수신된 시청자 영상에서 얼굴 영역을 검출한다. 얼굴 검출부(220)는 수신된 시청자 영상을 프레임별로 분석하여 시청자의 얼굴 영역을 검출할 수 있다. 얼굴 검출부(220)가 시청자 영상에서 얼굴 영역을 검출하는 과정은 얼굴 색깔, 외곽선 및 눈/코/입과 같은 특정 구성요소 등을 통해 검출할 수 있으며, 얼굴 영역을 검출하는 과정은 특정 과정으로 한정되는 것은 아니며, 얼굴 영역은 다양한 영상 처리 기술을 통해 검출될 수 있다. 얼굴 검출부(220)는 검출된 얼굴 영역을 캘리브레이션을 통해 얼굴 방향별로 얼굴 코드값을 생성한다. 얼굴 검출부(220)는 얼굴 방향별로 생성된 얼굴 코드값을 시청자 등록부(230)로 전달한다. The face detection unit 220 detects a face area in the received viewer image. The face detection unit 220 can detect the face region of the viewer by analyzing the received viewer image by frame. The process of detecting the face area in the viewer image by the face detection unit 220 can be detected through a specific component such as face color, outline and eye / nose / mouth, and the process of detecting the face area is limited to a specific process And the face region can be detected through various image processing techniques. The face detection unit 220 generates a face code value for each face direction through the calibration of the detected face region. The face detection unit 220 transmits the face code value generated for each face direction to the viewer registration unit 230.

시청자 등록부(230)는 시청자 등록 정보와 얼굴 코드값이 수신되면, 수신된 시청자 등록 정보 및 수신된 얼굴 코드값을 매칭하여 시청자를 등록하고, 등록된 시청자 정보를 시청자 관리부(210)에 저장한다. 수신된 시청자 등록 정보 및 수신된 얼굴 코드값을 통해 시청자 관리부(210)에 등록된 시청자 정보는 다른 얼굴 코드값이 수신될 때, 해당 시청자를 식별하기 위한 정보로 활용된다.When the viewer registration information and the face code value are received, the viewer registration unit 230 registers the viewer by matching the received viewer registration information and the received face code value, and stores the registered viewer information in the viewer management unit 210. [ The viewer information registered in the viewer management unit 210 through the received viewer registration information and the received face code value is used as information for identifying the viewer when another face code value is received.

그리고, 시청자 등록부(230)는 얼굴 코드값이 수신되면, 수신된 얼굴 코드값에 대응하는 등록된 시청자 정보를 시청자 관리부(210)에서 검색한다. 시청자 관리부(210)에 저장된 다수의 등록된 시청자 정보 중에서 수신된 얼굴 코드값에 대응하는 등록된 시청자 정보가 존재하면 이를 비교하여 해당 시청자를 식별할 수 있다. 이를 통해, 시청자 인식부(200)는 현재 광고/방송 콘텐츠를 제공받는 시청자가 누구인지를 식별하고, 시청자 등록 정보를 통해 해당 시청자에 관한 다양한 정보를 획득하여 광고효과를 분석하는 과정에서 활용이 가능하다. 해당 시청자에 대한 식별이 완료되면, 시청자 등록부(230)는 식별된 시청자에 대한 등록된 시청자 정보 및 방향별 얼굴 코드값을 시청행태 검출부(240)로 전달한다.When the face code value is received, the viewer registration unit 230 searches the viewer management unit 210 for the registered viewer information corresponding to the received face code value. If the registered viewer information corresponding to the received face code value exists among a plurality of registered viewer information stored in the viewer management unit 210, the corresponding viewer can be identified by comparing the registered viewer information. Accordingly, the viewer recognition unit 200 identifies who is currently receiving the advertisement / broadcast contents, acquires various information related to the viewer through the viewer registration information, and analyzes the advertisement effect. Do. When the identification of the viewer is completed, the viewer registration unit 230 transmits the viewer information registered for the identified viewer and the face code value per direction to the viewing behavior detector 240.

시청자 등록부(230)로부터 식별된 시청자에 대한 등록된 시청자 정보 및 방향별 얼굴 코드값이 수신되면, 시청행태 검출부(240)는 등록된 시청자 정보에 포함된 시청자 등록 정보 및 수신된 방향별 얼굴 코드값에 기초하여 시청행태를 검출한다. 시청자 등록부(230)는 시청자의 눈의 주시 방향, 시청자의 얼굴 표정 및 시청자 얼굴의 움직임을 포함하는 과정을 검출 방법을 통해 시청행태를 검출할 수 있다. 다만, 상술한 시청자 등록부(230)의 시청행태 검출 과정은 하나의 실시예일뿐, 상술한 방법으로 한정되는 것은 아니며, 얼굴 인식으로부터 대상의 반응을 인식/검출할 수 있는 다양한 방법을 포함할 수 있다. 시청자 인식부(200)는 수신된 시청자 영상으로부터 시청행태가 검출되면, 시청행태 정보를 광고효과 분석부(300)로 전달한다.When the viewer information registered for the viewer and the face code for each direction identified by the viewer registration unit 230 are received, the viewing behavior detector 240 compares the viewer registration information included in the registered viewer information and the received face code value On the basis of the viewing behavior. The viewer registration unit 230 can detect a viewing behavior through a detection method including a watching direction of a viewer's eyes, a facial expression of a viewer, and a motion of a viewer's face. However, the above-described process of detecting the viewing behavior of the viewer registration unit 230 is only one embodiment, and the present invention is not limited to the above-described method, and may include various methods of recognizing / detecting the reaction of the object from the face recognition . The viewer recognition unit 200 transmits the viewing behavior information to the advertisement effect analysis unit 300 when a viewing behavior is detected from the received viewer image.

도 3은 본 발명의 일 실시예에 따른 광고효과 분석 장치의 광고효과 분석부를 나타내는 상세도이다.3 is a detailed view illustrating an advertisement effect analyzing unit of the advertisement effect analyzing apparatus according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 광고효과 분석 장치의 광고효과 분석부(300)는 데이터 수집부(310) 및 광고효과 분석부(330)를 포함한다.Referring to FIG. 3, the advertisement effect analyzing unit 300 of the advertisement effect analyzing apparatus according to an embodiment of the present invention includes a data collecting unit 310 and an advertisement effect analyzing unit 330.

데이터 수집부(310)는 시청자 인식부로부터 시청행태 정보를 수신한다. 데이터 수집부(310)가 시청자 인식부로부터 시청행태 정보를 수신하기 위한 데이터 수신 프로토콜은 범용성을 위해 HTTP를 지원하는 것이 바람직할 수 있다. 그리고, 데이터 수집부(310)에서 수신하는 시청행태 정보의 데이터 포맷은 TEXT, XML 및 JSON을 다중으로 지원할 수 있다. 그리고, 데이터 수집부(310)는 응답속도 및 안정성을 위하여 수신된 시청행태 정보를 파싱(Parsing)하여 메시지 큐(Message Queue)로 저장 처리한다. 그리고, 메시지 큐로 저장된 시청행태 데이터를 데이터 분석부(330)로 전달한다. The data collection unit 310 receives the viewing behavior information from the viewer recognition unit. It may be preferable that the data reception protocol for the data collection unit 310 to receive the viewing behavior information from the viewer recognition unit supports HTTP for general purpose. The data format of the viewing behavior information received by the data collection unit 310 may support TEXT, XML, and JSON. Then, the data collection unit 310 parses the received viewing behavior information for a response speed and stability, and stores the parsed viewing behavior information in a message queue. And transmits the viewing behavior data stored in the message queue to the data analysis unit 330.

광고효과 분석부(330)는 데이터 분석부(331), 데이터 연동부(332), 데이터 관리부(333), 서비스부(334)를 포함한다.The advertisement effect analyzing unit 330 includes a data analyzing unit 331, a data interlocking unit 332, a data managing unit 333, and a service unit 334.

데이터 분석부(331)는 데이터 수집부(310)로부터 수신된 시청행태 데이터를 분석하여 시청자의 몰입 여부를 통해 몰입 결과 정보를 생성한다. 데이터 분석부(331)는 시청시간, 시청자수, 시청자 식별정보, 채널 변경 정보 및 눈 개폐 상태에 대한 정보를 포함하는 시청행태 데이터를 데이터 수집부(310)로부터 수신한다. 눈 개폐 여부는 일정 주기로 입력될 수 있으며, 시청자 변동 여부 및 채널 변경 여부는 변동이 발행할 경우에 갱신(Update)하도록 한다.The data analyzing unit 331 analyzes the viewing behavior data received from the data collecting unit 310 and generates the immersion result information through the immersion of the viewer. The data analyzing unit 331 receives the viewing behavior data including the viewing time, the number of viewers, the viewer identification information, the channel changing information, and the eye opening / closing status from the data collecting unit 310. [ Whether or not the eyes are opened or closed can be inputted at a predetermined cycle, and whether the viewer is changed or not is changed when the change is issued.

데이터 분석부(331)는 수신된 시청행태 데이터를 통해 현재 시청중인 방송/광고 콘텐츠가 인식되면, 1단계로 채널 변경 여부를 판단한다. 만약, 광고 콘텐츠가 방송되는 광고 시간대에 채널 변경이 감지되면, 데이터 분석부(331)는 시청자가 현재 몰입하지 않은 상태로 간주하고 현재 채널 정보를 갱신한다. 1단계에서 광고 시간대에 채널 변경이 감지되지 않으면, 데이터 분석부(331)는 2단계 몰입 상태를 측정하기 위해 수신된 시청행태 데이터에 포함된 눈 개폐 상태에 대한 정보에 기초하여 시청자의 몰입 여부를 판단한다. 데이터 분석부(331)는 2단계 몰입 상태 측정 과정에서, 시청자의 눈 개폐 신호가 소정의 횟수 이상 감지되지 않을 경우 시청자의 눈이 감겨있는 상태로 추정하여 현재 몰입하지 않고 있는 것으로 간주할 수 있다. 만약, 눈 개폐 상태가 지속적으로 감지된다면, 데이터 분석부(331)는 시청자가 현재 몰입하고 있는 것으로 판단할 수 있다. 또한, 데이터 분석부(331)는 몰입 여부로 판단된 결과를 시청시간을 기준으로 3개의 등급으로 구분하여 몰입 등급을 관리할 수 있다. 데이터 분석부(331)는 시청행태 데이터에 기초하여 시청자의 몰입 여부를 판단한 몰입 결과 정보를 데이터 관리부(333)에 전달하여 데이터베이스화하여 저장한다.If the broadcast / advertisement contents currently being viewed are recognized through the received viewing behavior data, the data analysis unit 331 determines whether the channel is changed in the first step. If the channel change is detected in the advertisement time slot in which the advertisement contents are broadcasted, the data analysis unit 331 regards the viewer as a state in which the viewer is not currently immersed and updates the current channel information. If the channel change is not detected in the advertisement time slot in step 1, the data analysis unit 331 determines whether or not the viewer is immersed on the basis of the information on the eye open / close state included in the received audience behavior data to measure the second- . The data analyzing unit 331 can estimate that the eye of the viewer is in a rolled state when the eye open / close signal of the viewer is not detected more than a predetermined number in the second-stage immersive state measuring process, and regard it as not being in the current state. If the eye open / closed state is continuously detected, the data analysis unit 331 can determine that the viewer is currently engaged. Also, the data analysis unit 331 can manage the immersion level by dividing the result determined as immersive into three grades based on the viewing time. The data analyzing unit 331 transfers the immersion result information that determines whether or not the viewer is immersed to the data managing unit 333 based on the viewing behavior data, and stores the data in a database.

데이터 연동부(332)는 광고기획 관리자(30)와 연동을 통해 효과측정 데이터 분석의 기초 데이터를 동기화할 수 있다. 광고기획 관리자는 광고 기획관리 혹은 매체 헤드엔드(Headend)를 포함하는 광고 관련 정보를 제공하는 업체 또는 서버로서, 콘텐츠 정보, 고객 정보 및 광고기획분류 정보를 포함하는 광고 관련 정보를 데이터 연동부(332)와 연동한다. 데이터 연동부(332)의 데이터 동기화는 데이터 수집부(310)로부터 수신된 시청행태 데이터를 수신처리하고 그 결과를 리턴한다. 데이터 연동부(332)는 광고기획 관리자(30)와 연동한 광고 관련 정보를 데이터 관리부(333)로 전달한다.The data interlocking unit 332 can synchronize the basic data of the effect measurement data analysis in cooperation with the advertisement planning manager 30. [ The advertisement planning manager is a company or server that provides advertisement related information including an advertisement planning management or a media headend and transmits advertisement related information including content information, customer information, and advertisement planning classification information to the data linking unit 332 ). The data synchronization of the data interlocking unit 332 receives and processes the viewing behavior data received from the data collecting unit 310 and returns the result. The data interlocking unit 332 transmits the advertisement related information linked with the advertisement planning manager 30 to the data management unit 333. [

데이터 관리부(333)는 데이터 분석부(331)로부터 수신된 몰입 결과 정보 및 데이터 연동부(332)로부터 전달된 광고 관련 정보를 데이터베이스화한다. 그리고, 데이터 관리부(333)는 구비된 데이터베이스관리시스템(Database Management System, DBMS)에 저장한다. 데이터 관리부(333)는 수신된 몰입 결과 정보 및 수신된 광고 관련 정보에 기초하여 일별/광고별 또는 광고 효과지표 별로 상세한 분석을 진행하여 세분화된 분석 정보를 데이터베이스화한다. The data management unit 333 converts the immersion result information received from the data analysis unit 331 and the advertisement related information transmitted from the data interlock unit 332 into a database. The data management unit 333 stores the data in a database management system (DBMS). The data management unit 333 performs a detailed analysis by day / advertisement or advertisement effect index based on the received immersion result information and the received advertisement related information to convert the subdivided analysis information into a database.

서비스부(334)는 데이터 관리부(333)에 저장된 세분화된 분석 정보에 기초하여 광고효과 분석 보고서를 생성하여 광고주(20)에게 전달한다. 서비스부(334)는 리포팅(Reporting) 처리를 통해 데이터 관리부(333)에서 전달된 세분화된 분석 정보를 가공하여 생성된 광고효과 분석 보고서를 웹서비스의 객체 간 통신 규약인 SOAP(Simple Object Access Protocol) 서비스로 구현하여 광고주(20)에게 전달할 수 있다. 광고효과 분석 보고서는 가구별 시청이력 보고서, 광고별 집행실적 보고서, 1차원 광고집행 실적 보고서 및 2차원 광고집행 실적 보고서를 포함할 수 있다. The service unit 334 generates an advertisement effect analysis report based on the subdivided analysis information stored in the data management unit 333 and transmits the advertisement effect analysis report to the advertiser 20. The service unit 334 processes the segmented analysis information transmitted from the data management unit 333 through a reporting process and transmits the generated advertisement effect analysis report to the SOAP (Simple Object Access Protocol) Service to be transmitted to the advertiser 20. The advertising effectiveness analysis report can include a household history report, an ad performance report by ad, a one-dimensional advertisement performance report, and a two-dimensional advertisement execution report.

광고별 집행실적 보고서는 광고 별 효과분석에 대한 정보로서, 총괄 광고집행 보고서, 채널별 광고집행 보고서 및 장르별 광고집행 보고서를 포함할 수 있으며, 총괄 집계표, 프로그램 별 집계표, 장르별 집계표를 제공할 수 있다. 그리고, 광고별 집행실적 보고서는 광고 히트수(Hit Number), 시청가구수, 광고효과 측정 도달범위(Reach), 도달횟수(Freq) 및 광고효과 측정(Growth Rating Point, GRP)를 제공할 수 있다. 이와 같은 광고별 집행실적 보고서는 총괄 데이터, 카테고리 별 데이터, 지역별 데이터, 주중/주말 데이터, 일자별 데이터 및 광고효과 측정 도달범위 별로 제공될 수 있다. 1차원 광고집행 실적 보고서는 특정한 광고 별로 광고 히트수를 보고서 형식으로 제공한다. 2차원 광고집행 실적 보고서는 특정 광고 또는 여러 광고에 대해 1차원 항목을 교차하여 보고서 형식으로 제공한다. The executive performance report by advertisement is information about the analysis of each advertisement effect, and it can include a general advertisement execution report, an advertisement execution report by channel, and an advertisement execution report by genre, and can provide a general summary table, a program summary table, . The executive performance report by advertisement may provide the hit number, the number of households, the reach of the advertisement effect measurement, the frequency of arrival (Freq), and the growth rating point (GRP). These ad performance reports can be provided by aggregate data, by category, by region, by weekday / weekly data, by date, and by ad effectiveness measurement reach. The 1D ad performance report provides the number of ad hits per report for a particular ad. The two-dimensional ad execution report provides cross-format, one-dimensional item reporting for specific ads or multiple ads.

도 4는 본 발명의 일 실시예에 따른 광고효과 분석 장치의 광고효과 분석 과정을 나타내는 도면이다.4 is a diagram illustrating a process of analyzing an advertisement effect of the advertisement effect analyzing apparatus according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 광고효과 분석 장치(10)의 광고효과 분석 과정은, 정보 수집부(100)는 시청자 식별 및 광고효과 분석을 위해 영상촬영 장치를 이용하여 시청자를 촬영한다(401). 시청자 영상을 생성하기 위한 영상 촬영장치는 일반적으로 사용되는 카메라와 같은 대부분의 영상 촬영장치를 포함할 수 있다. 정보 수집부(100)는 내부에 영상 촬영장치를 구비한 단말장치 형태로 구현되거나, 별도의 영상 촬영장치를 연결한 단말장치 형태로 구현될 수 있다. 그리고, 정보 수집부(100)는 방송/광고 콘텐츠를 직접 제공하는 셋톱박스, 모바일 단말 및 PC 등과 같은 형태로 구현될 수 있으며, 방송/광고 콘텐츠를 제공하는 장치와 별도의 장치로 구성될 수 있다. 정보 수집부(100)는 촬영된 시청자 영상을 시청자 인식부(200)로 전달한다(402).Referring to FIG. 4, the advertisement effect analysis process of the advertisement effect analysis apparatus 10 according to an embodiment of the present invention includes an information collecting unit 100, (401). The image capturing apparatus for generating a viewer image may include most image capturing apparatuses such as a commonly used camera. The information collecting unit 100 may be implemented in the form of a terminal equipped with a video photographing device or a terminal device connected to a separate video photographing device. The information collecting unit 100 may be implemented in the form of a set-top box, a mobile terminal, a personal computer (PC), or the like, which directly provides broadcast / advertisement contents, . The information collecting unit 100 transmits the photographed viewer image to the viewer recognizing unit 200 (402).

정보 수집부(100)로부터 시청자 영상을 수신한 시청자 인식부(200)는 수신된 시청자 영상에서 얼굴 영역을 검출한다(403). 시청자 인식부(200)는 수신된 시청자 영상을 프레임별로 분석하여 시청자의 얼굴 영역을 검출할 수 있다. 시청자 인식부(200)가 시청자 영상에서 얼굴 영역을 검출하는 과정은 얼굴 색깔, 외곽선 및 눈/코/입과 같은 특정 구성요소 등을 통해 검출할 수 있으며, 얼굴 영역을 검출하는 과정은 특정 과정으로 한정되는 것은 아니며, 얼굴 영역은 다양한 영상 처리 기술을 통해 검출될 수 있다. 시청자 인식부(200)는 검출된 얼굴 영역을 캘리브레이션을 통해 얼굴 방향별로 얼굴 코드값을 생성한다.The viewer recognition unit 200 receiving the viewer image from the information collection unit 100 detects the face region in the received viewer image (403). The viewer recognition unit 200 can detect the face region of the viewer by analyzing the received viewer image by frame. The process of detecting the face region in the viewer image by the viewer recognizing unit 200 can be detected through a specific component such as face color, outline and eye / nose / mouth, and the process of detecting the face region is a specific process The face region can be detected through various image processing techniques. The viewer recognition unit 200 generates a face code value for each face direction through calibration of the detected face region.

수신된 시청자 영상에서 시청자의 얼굴을 검출하여 얼굴 코드값이 생성되면, 시청자 인식부(200)는 얼굴 코드값에 대응하는 등록된 시청자 정보를 기 등록된 시청자 정보에서 검색하여 시청자를 인식 및 식별한다(404). 시청자 인식부(200)는 기 저장된 다수의 등록된 시청자 정보 중에서 수신된 얼굴 코드값에 대응하는 등록된 시청자 정보가 존재하면 이를 비교하여 해당 시청자를 식별할 수 있다. 이를 통해, 시청자 인식부(200)는 현재 광고/방송 콘텐츠를 제공받는 시청자가 누구인지를 식별하고, 시청자 등록 정보를 통해 해당 시청자에 관한 다양한 정보를 획득하여 광고효과를 분석하는 과정에서 활용이 가능하다. If the face code value is generated by detecting the face of the viewer in the received viewer image, the viewer recognition unit 200 searches registered viewer information corresponding to the face code value from the previously registered viewer information to recognize and identify the viewer (404). The viewer recognizing unit 200 can compare the registered viewer information corresponding to the received face code value among a plurality of stored registered viewer information to identify the viewer. Accordingly, the viewer recognition unit 200 identifies who is currently receiving the advertisement / broadcast contents, acquires various information related to the viewer through the viewer registration information, and analyzes the advertisement effect. Do.

수신된 얼굴 코드값에 기초하여 시청자 인식 및 식별이 되면, 시청자 인식부(200)는 시청자 등록 정보 및 수신된 방향별 얼굴 코드값에 기초하여 시청행태를 검출한다(405). 시청자 인식부(200)는 시청자의 눈의 개폐 상태, 시청자의 눈의 주시 방향, 시청자의 얼굴 표정 및 시청자 얼굴의 움직임을 포함하는 내용을 얼굴 코드값으로부터 검출할 수 있다. 다만, 상술한 시청자 인식부(200)의 시청행태 검출 과정은 하나의 실시예일뿐, 상술한 방법으로 한정되는 것은 아니며, 얼굴 인식으로부터 대상의 반응을 인식/검출할 수 있는 다양한 방법을 포함할 수 있다. 시청행태를 검출하여 시청행태 정보가 생성되면, 시청자 인식부(200)는 생성된 시청행태 정보를 광고효과 분석부(300)로 전달한다(406). When the viewer is recognized and identified based on the received face code value, the viewer recognition unit 200 detects the viewing behavior based on the viewer registration information and the received face code value for each direction (405). The viewer recognition unit 200 can detect contents including the open / closed state of the eyes of the viewer, the watching direction of the viewer's eyes, the facial expression of the viewer, and the motion of the viewer's face from the face code value. However, the above-described method of detecting the viewer's behavior of the viewer recognition unit 200 is only one embodiment, and the present invention is not limited to the above-described method, and may include various methods of recognizing / have. When the viewing behavior is detected and viewing behavior information is generated, the viewer recognizing unit 200 delivers the generated viewing behavior information to the advertisement effect analyzing unit 300 (406).

광고효과 분석부(300)는 시청행태 정보를 수집한다(407). 광고효과 분석부(300)가 시청자 인식부(200)로부터 시청행태 정보를 수신하기 위한 데이터 수신 프로토콜은 범용성을 위해 HTTP를 지원하는 것이 바람직할 수 있다. 그리고, 광고효과 분석부(300)에서 수신하는 시청행태 정보의 데이터 포맷은 TEXT, XML 및 JSON을 다중으로 지원할 수 있으며, 응답속도 및 안정성을 위하여 수신된 시청행태 정보를 파싱(Parsing)하여 메시지 큐(Message Queue)로 저장 처리한다. The advertisement effect analyzing unit 300 collects viewing behavior information (407). It may be preferable that the data reception protocol for the advertisement effect analysis unit 300 to receive the viewing behavior information from the viewer recognition unit 200 supports HTTP for general purpose. The data format of the viewing behavior information received by the advertisement effect analysis unit 300 can support TEXT, XML, and JSON in a multiplex manner. The received viewing behavior information is parsed for response speed and stability, (Message Queue).

시청자 인식부(200)로부터 시청행태 정보가 수신되면, 광고효과 분석부(300)는 수신된 시청행태 정보를 분석한다(408). 먼저, 광고효과 분석부(300)는 수신된 시청행태 정보를 분석하여 시청자의 몰입 여부를 통해 몰입 결과 정보를 생성한다. 광고효과 분석부(300)는 시청시간, 시청자수, 시청자 식별정보, 채널 변경 정보 및 눈 개폐 상태에 대한 정보를 포함하는 시청행태 데이터를 시청자 인식부(200)로부터 수신한다. 눈 개폐 여부는 일정 주기로 입력될 수 있으며, 시청자 변동 여부 및 채널 변경 여부는 변동이 발행할 경우에 갱신하도록 한다. 광고효과 분석부(300)는 수신된 시청행태 데이터를 통해 현재 시청중인 방송/광고 콘텐츠가 인식되면, 1단계로 채널 변경 여부를 판단한다. 만약, 광고 콘텐츠가 방송되는 광고 시간대에 채널 변경이 감지되면, 광고효과 분석부(300)는 시청자가 현재 몰입하지 않은 상태로 간주하고 현재 채널 정보를 갱신한다. 1단계에서 광고 시간대에 채널 변경이 감지되지 않으면, 광고효과 분석부(300)는 2단계 몰입 상태를 측정하기 위해 수신된 시청행태 데이터에 포함된 눈 개폐 상태에 대한 정보에 기초하여 시청자의 몰입 여부를 판단한다. 광고효과 분석부(300)는 2단계 몰입 상태 측정 과정에서, 시청자의 눈 개폐 신호가 소정의 횟수 이상 감지되지 않을 경우 시청자의 눈이 감겨있는 상태로 추정하여 현재 몰입하지 않고 있는 것으로 간주할 수 있다. 만약, 눈 개폐 상태가 지속적으로 감지된다면, 광고효과 분석부(300)는 시청자가 현재 몰입하고 있는 것으로 판단할 수 있다. 또한, 광고효과 분석부(300)는 몰입 여부로 판단된 결과를 시청시간을 기준으로 3개의 등급으로 구분하여 몰입 등급을 관리할 수 있다.When the viewing behavior information is received from the viewer recognition unit 200, the advertisement effect analysis unit 300 analyzes the received viewing behavior information (408). First, the advertisement effect analyzing unit 300 analyzes the received viewing behavior information and generates the immersion result information through the immersion of the viewer. The advertisement effect analyzing unit 300 receives the viewing behavior data including the viewing time, the number of viewers, the viewer identification information, the channel change information, and the eye opening / closing status from the viewer recognizing unit 200. Whether or not the eyes are opened or closed can be inputted at regular intervals, and whether the viewer is changed or not is changed when the change is issued. The advertisement effect analyzing unit 300 determines whether the channel is changed in the first step when the broadcast / advertisement content currently being viewed is recognized through the received viewing / listening behavior data. If the channel change is detected in the advertisement time slot in which the advertisement content is broadcasted, the advertisement effect analysis unit 300 regards the channel as a state in which the viewer is not currently immersed and updates the current channel information. If the channel change is not detected in the advertisement time zone in step 1, the advertisement effect analysis unit 300 determines whether the viewer is immersed or not based on the information on the eye opening / closing state included in the received viewing / . The advertisement effect analyzing unit 300 can estimate that the eye of the viewer is in a rolled state when the eye open / close signal of the viewer is not detected more than a predetermined number in the second-level immersion state measuring process, . If the eye open / closed state is continuously detected, the advertisement effect analyzing unit 300 can determine that the viewer is currently engaged. In addition, the advertisement effect analyzing unit 300 can manage the immersion grade by dividing the result determined as the immersion into three grades based on the viewing time.

추가적으로, 광고효과 분석부(300)는 별도의 광고기획 관리자로부터 효과측정 데이터 분석의 기초 데이터로 활용할 수 있는 콘텐츠 정보, 고객 정보 및 광고기획분류 정보를 포함하는 광고 관련 정보를 동기화하여 시청행태 정보 분석에 활용할 수 있다. 또한, 광고효과 분석부(300)는 몰입 결과 정보 및 수신된 광고 관련 정보를 데이터베이스화한다. 그리고, 데이터 관리부(333)는 구비된 데이터베이스관리시스템(Database Management System, DBMS)에 저장한다. In addition, the advertisement effect analysis unit 300 synchronizes the advertisement-related information including the content information, the customer information, and the advertisement planning classification information that can be utilized as basic data of the effect measurement data analysis from the separate advertisement planning manager, . In addition, the advertisement effect analyzing unit 300 converts the immersion result information and the received advertisement related information into a database. The data management unit 333 stores the data in a database management system (DBMS).

다음으로, 광고효과 분석부(300)는 시청행태 정보에 따른 몰입 결과 정보 및 수신된 광고 관련 정보에 기초하여 일별/광고별 또는 광고 효과지표 별로 상세한 분석을 진행하여 광고효과 분석 보고서를 생성한다(409). 그리고, 광고효과 분석부(300)는 세분화된 분석 정보에 기초하여 생성된 광고효과 분석 보고서를 광고주(20)에게 전달한다. 광고효과 분석부(300)는 리포팅(Reporting) 처리를 통해 세분화된 분석 정보를 가공하여 생성된 광고효과 분석 보고서를 웹서비스의 객체 간 통신 규약인 SOAP(Simple Object Access Protocol) 서비스로 구현하여 광고주에게 전달할 수 있다(410). Next, the advertisement effect analyzing unit 300 performs a detailed analysis according to the daily / advertisement or the advertisement effect index based on the flow result information according to the viewing behavior information and the received advertisement related information to generate an advertisement effect analysis report 409). Then, the advertisement effect analyzing unit 300 delivers the advertisement effect analysis report generated based on the segmented analysis information to the advertiser 20. The advertisement effect analyzing unit 300 implements the advertisement effect analysis report generated by processing the detailed analysis information through the reporting process, as a SOAP (Simple Object Access Protocol) service, which is an inter-object communication protocol of the web service, (410).

광고효과 분석 보고서는 가구별 시청이력 보고서, 광고별 집행실적 보고서, 1차원 광고집행 실적 보고서 및 2차원 광고집행 실적 보고서를 포함할 수 있다. 광고별 집행실적 보고서는 광고 별 효과분석에 대한 정보로서, 총괄 광고집행 보고서, 채널별 광고집행 보고서 및 장르별 광고집행 보고서를 포함할 수 있으며, 총괄 집계표, 프로그램 별 집계표, 장르별 집계표를 제공할 수 있다. 그리고, 광고별 집행실적 보고서는 광고 히트수(Hit Number), 시청가구수, 광고효과 측정 도달범위(Reach), 도달횟수(Freq) 및 광고효과 측정(Growth Rating Point, GRP)를 제공할 수 있다. 이와 같은 광고별 집행실적 보고서는 총괄 데이터, 카테고리 별 데이터, 지역별 데이터, 주중/주말 데이터, 일자별 데이터 및 광고효과 측정 도달범위 별로 제공될 수 있다. 1치원 광고집행 실적 보고서는 특정한 광고 별로 광고 히트수를 보고서 형식으로 제공한다. 2차원 광고집행 실적 보고서는 특정 광고 또는 여러 광고에 대해 1차원 항목을 교차하여 보고서 형식으로 제공한다. The advertising effectiveness analysis report can include a household history report, an ad performance report by ad, a one-dimensional advertisement performance report, and a two-dimensional advertisement execution report. The executive performance report by advertisement is information about the analysis of each advertisement effect, and it can include a general advertisement execution report, an advertisement execution report by channel, and an advertisement execution report by genre, and can provide a general summary table, a program summary table, . The executive performance report by advertisement may provide the hit number, the number of households, the reach of the advertisement effect measurement, the frequency of arrival (Freq), and the growth rating point (GRP). These ad performance reports can be provided by aggregate data, by category, by region, by weekday / weekly data, by date, and by ad effectiveness measurement reach. 1 The Chief Ad Execution Performance Report provides the number of hits for each specific ad in report format. The two-dimensional ad execution report provides cross-format, one-dimensional item reporting for specific ads or multiple ads.

도 5는 본 발명의 일 실시예에 따른 광고효과 분석 장치의 시청자 등록 과정을 나타내는 도면이다.5 is a diagram illustrating a viewer registration process of the advertisement effect analysis apparatus according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 광고효과 분석 장치(10)의 시청자 등록 과정은 먼저, 정보 수집부(100)는 시청자 식별 및 광고효과 분석을 위해 영상촬영 장치를 이용하여 시청자를 촬영한다(501). 시청자 영상을 생성하기 위한 영상 촬영장치는 일반적으로 사용되는 카메라와 같은 대부분의 영상 촬영장치를 포함할 수 있다. 정보 수집부(100)는 내부에 영상 촬영장치를 구비한 단말장치 형태로 구현되거나, 별도의 영상 촬영장치를 연결한 단말장치 형태로 구현될 수 있다. 그리고, 정보 수집부(100)는 방송/광고 콘텐츠를 직접 제공하는 셋톱박스, 모바일 단말 및 PC 등과 같은 형태로 구현될 수 있으며, 방송/광고 콘텐츠를 제공하는 장치와 별도의 장치로 구성될 수 있다. Referring to FIG. 5, the viewer registration process of the advertisement effect analyzing apparatus 10 according to an embodiment of the present invention includes firstly, the information collecting unit 100 uses a video photographing device to identify a viewer, (501). The image capturing apparatus for generating a viewer image may include most image capturing apparatuses such as a commonly used camera. The information collecting unit 100 may be implemented in the form of a terminal equipped with a video photographing device or a terminal device connected to a separate video photographing device. The information collecting unit 100 may be implemented in the form of a set-top box, a mobile terminal, a personal computer (PC), or the like, which directly provides broadcast / advertisement contents, .

다음으로, 정보 수집부(100)는 시청자로부터 시청자 등록 정보를 수신한다(502). 시청자 등록 정보는 시청자의 연령 및 성별을 포함하는 개인 식별 정보를 포함할 수 있으며, 개별 등록 정보 정보, 관심 분야, 취향, 거주 지역, 국적 및 직업을 포함하는 부가 정보를 포함할 수 있다. 정보 수집부(100)는 단말을 제어하기 위한 리모트 콘트롤러나 기타 다양한 입력 인터페이스 장치를 통해 시청자로부터 시청자 등록 정보를 입력받는다. 시청자 등록 정보는 방송/광고 콘텐츠를 제공받는 시청자를 광고효과 분석 장치에 등록하기 위해 필요한 정보이다. 시청자 등록 정보는 새로운 시청자를 등록할 경우에 정보 수집부(100)가 수집하여 시청자 인식부(200)로 전달한다. 정보 수집부(100)는 생성된 시청자 영상 및 수신된 시청자 등록 정보를 시청자 인식부(200)로 전달한다(503).Next, the information collecting unit 100 receives the viewer registration information from the viewer (502). The viewer registration information may include the individual identification information including the age and sex of the viewer, and may include additional registration information, interest information, taste, residence area, nationality, and occupation. The information collecting unit 100 receives viewer registration information from a viewer through a remote controller or various other input interface devices for controlling the terminal. The viewer registration information is information necessary for registering a viewer who receives the broadcast / advertisement contents in the advertisement effect analyzing apparatus. The viewer registration information is collected by the information collection unit 100 and transmitted to the viewer recognition unit 200 when a new viewer is registered. The information collection unit 100 transmits the generated viewer image and the received viewer registration information to the viewer recognition unit 200 (503).

정보 수집부(100)로부터 시청자 영상 및 시청자 등록 정보가 수신되면, 시청자 인식부(200)는 수신된 시청자 영상에서 얼굴 영역을 검출한다(504). 시청자 인식부(200)는 수신된 시청자 영상을 프레임별로 분석하여 시청자의 얼굴 영역을 검출할 수 있다. 시청자 인식부(200)가 시청자 영상에서 얼굴 영역을 검출하는 과정은 얼굴 색깔, 외곽선 및 눈/코/입과 같은 특정 구성요소 등을 통해 검출할 수 있으며, 얼굴 영역을 검출하는 과정은 특정 과정으로 한정되는 것은 아니며, 얼굴 영역은 다양한 영상 처리 기술을 통해 검출될 수 있다. 시청자 인식부(200)는 검출된 얼굴 영역을 캘리브레이션을 통해 얼굴 방향별로 얼굴 코드값을 생성한다. When the viewer image and the viewer registration information are received from the information collection unit 100, the viewer recognition unit 200 detects the face area in the received viewer image (504). The viewer recognition unit 200 can detect the face region of the viewer by analyzing the received viewer image by frame. The process of detecting the face region in the viewer image by the viewer recognizing unit 200 can be detected through a specific component such as face color, outline and eye / nose / mouth, and the process of detecting the face region is a specific process The face region can be detected through various image processing techniques. The viewer recognition unit 200 generates a face code value for each face direction through calibration of the detected face region.

수신된 시청자 영상에서 얼굴 코드값이 검출되면, 시청자 인식부(200)는 수신된 시청자 등록 정보와 검출된 얼굴 코드값을 매칭하여 시청자를 등록한다(505). 시청자 인식부(200)는 시청자 등록 정보와 얼굴 코드값이 수신되면, 수신된 시청자 등록 정보 및 수신된 얼굴 코드값을 매칭하여 시청자를 등록하고, 등록된 시청자 정보를 저장한다. 시청자 인식부(200)는 시청자 등록 과정을 통해 새로운 시청자를 저장함으로써, 이후 해당 시청자가 방송/광고 콘텐츠를 시청할 때, 해당 시청자를 촬영하여 생성된 시청자 영상에서 검출된 얼굴 코드값과 대응하는 등록된 시청자를 검색하여, 해당 시청자를 식별할 수 있다.When the face code value is detected in the received viewer image, the viewer recognition unit 200 registers the viewer by matching the received face registration value with the detected face code value (505). When the viewer registration information and the face code value are received, the viewer recognition unit 200 registers the viewer with matching the received viewer registration information and the received face code value, and stores the registered viewer information. The viewer recognition unit 200 stores a new viewer through the viewer registration process, and when the viewer views the broadcast / advertisement content, the viewer recognition unit 200 records the viewer code, The viewer can be searched to identify the viewer.

도 6은 본 발명의 일 실시예에 따른 광고효과 분석 방법을 나타내는 흐름도이다.6 is a flowchart illustrating an advertisement effect analysis method according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 광고효과 분석 방법을 위한 전처리 단계로서 먼저, 해당 시청자를 등록한다(S601). 방송/광고 콘텐츠를 제공받는 시청자가 새로운 시청자인 경우, 먼저 해당 시청자를 새로 등록한다. 광고효과 분석 방법을 위한 새로운 시청자를 등록하는 방법은 시청자를 촬영하여 시청자 영상을 생성하고, 시청자로부터 시청자 등록 정보를 수신한다. 시청자 등록 정보는 시청자의 연령 및 성별을 포함하는 개인 식별 정보를 포함할 수 있으며, 개별 등록 정보 정보, 관심 분야, 취향, 거주 지역, 국적 및 직업을 포함하는 부가 정보를 포함할 수 있다. 생성된 시청자 영상에서 해당 시청자의 얼굴을 검출하고, 검출된 시청자의 얼굴과 수신된 시청자 등록정보를 매칭하여 해당 시청자를 등록한다. Referring to FIG. 6, in step S601, a preprocessing step for analyzing an advertising effect according to an exemplary embodiment of the present invention is performed. If the viewer receiving the broadcast / advertisement content is a new viewer, the new viewer is first registered. A method of registering a new viewer for an advertising effect analysis method comprises capturing a viewer to generate a viewer image, and receiving viewer registration information from the viewer. The viewer registration information may include the individual identification information including the age and sex of the viewer, and may include additional registration information, interest information, taste, residence area, nationality, and occupation. The face of the viewer is detected from the generated viewer image, and the face of the detected viewer is matched with the received viewer registration information to register the viewer.

다음으로, 광고효과 분석을 위해 방송/광고 콘텐츠를 제공받는 시청자를 촬영한다(S602). 본 발명에 따른 광고효과 분석 방법은 시청자의 몰입도를 고려하여 광고효과를 분석한다. 따라서, 먼저, 시청자를 영상촬영장치를 통해 촬영하여 시청자 영상을 생성한다. 시청자 영상을 생성하기 위한 영상 촬영장치는 일반적으로 사용되는 카메라와 같은 대부분의 영상 촬영장치를 포함할 수 있으며, 내부에 영상 촬영장치를 구비한 단말장치 형태로 구현되거나, 별도의 영상 촬영장치를 연결한 단말장치 형태로 구현될 수 있다. Next, in order to analyze the advertisement effect, a viewer who receives broadcast / advertisement contents is photographed (S602). The advertisement effect analysis method according to the present invention analyzes the advertisement effect in consideration of the viewer's immersion degree. Therefore, first, the viewer is photographed through the image photographing apparatus to generate the viewer image. The image capturing apparatus for generating a viewer image may include most image capturing apparatuses such as a commonly used camera, or may be implemented in the form of a terminal apparatus having a capturing apparatus therein, or a separate image capturing apparatus may be connected And can be implemented in the form of a terminal device.

시청자를 촬영하여 시청자 영상이 생성되면, 생성된 시청자 영상으로부터 시청자 얼굴을 검출한다(S603). 시청자의 얼굴 영역은 수신된 시청자 영상을 프레임별로 분석하여 검출될 수 있다. 시청자 영상으로부터 얼굴 영역을 검출하는 과정은 얼굴 색깔, 외곽선 및 눈/코/입과 같은 특정 구성요소 등을 통해 검출할 수 있다. 얼굴 영역을 검출하는 과정은 특정 과정으로 한정되는 것은 아니며, 얼굴 영역은 다양한 영상 처리 기술을 통해 검출될 수 있다. 검출된 얼굴 영역을 캘리브레이션을 통해 얼굴 방향별로 얼굴 코드값을 생성한다.When a viewer is photographed to generate a viewer image, the viewer's face is detected from the generated viewer image (S603). The face region of the viewer can be detected by analyzing the received viewer image frame by frame. The process of detecting a face area from a viewer image can be detected through a specific component such as face color, outline, and eye / nose / mouth. The process of detecting the face region is not limited to a specific process, and the face region can be detected through various image processing techniques. A face code value is generated for each face direction through calibration of the detected face region.

얼굴 검출을 통해 얼굴 방향별로 얼굴 코드값이 생성되면, 얼굴 코드값에 대응하는 등록된 시청자 정보를 기 등록된 시청자 정보에서 검색하여 시청자를 인식 및 식별한다(S604). 생성된 얼굴 코드값에 대응하는 등록된 시청자 정보가 기 저장된 다수의 등록된 시청자 정보 중에 존재하면, 이를 비교하여 해당 시청자를 식별할 수 있다. 이를 통해, 현재 광고/방송 콘텐츠를 제공받는 시청자가 누구인지를 식별하고, 시청자 등록 정보를 통해 해당 시청자에 관한 다양한 정보를 획득하여 광고효과를 분석하는 과정에서 활용할 수 있다. If the face code value is generated for each face direction by face detection, the registered viewer information corresponding to the face code value is searched in the previously registered viewer information to recognize and identify the viewer (S604). If the registered viewer information corresponding to the generated face code value is present among a plurality of previously registered viewer information, the viewer can be identified by comparing the registered viewer information. Through this, it is possible to identify who is currently receiving the advertisement / broadcast contents, and obtain various information related to the viewer through the viewer registration information, thereby analyzing the advertisement effect.

수신된 얼굴 코드값에 기초하여 시청자 인식 및 식별이 되면, 방향별 얼굴 코드값에 기초하여 시청행태를 검출한다. 방향별 얼굴 코드값으로부터 시청자의 눈 영역을 통해 시청자의 눈의 개폐 상태 여부를 포함하는 시청행태를 검출한다(S605). 얼굴 코드값을 통해 시청자의 눈의 개폐 상태 여부를 확인하여 눈의 개폐 상태에 대한 정보를 포함하는 시청행태 정보를 생성한다. 그리고, 시청행태 정보를 분석한다(S606). 시청행태 정보를 분석하는 과정은 시청행태 정보에 포함된 시청자의 눈 개폐 여부를 통해 먼저 시청중인 광고에 대한 시청자의 몰입도를 판단한다. 몰입도를 판단하는 과정은 크게 두 가지 단계로 구분할 수 있다. 1단계로 채널 변경 여부를 판단한다. 만약, 광고 콘텐츠가 방송되는 광고 시간대에 채널 변경이 감지되면, 시청자가 현재 몰입하지 않은 상태로 간주하고 현재 채널 정보를 갱신한다. 1단계에서 광고 시간대에 채널 변경이 감지되지 않으면, 2단계로 몰입 상태를 측정하기 위해 수신된 시청행태 데이터에 포함된 눈 개폐 상태에 대한 정보에 기초하여 시청자의 몰입 여부를 판단한다. 시청자의 눈 개폐 신호가 소정의 횟수 이상 감지되지 않을 경우 시청자의 눈이 감겨있는 상태로 추정하여 현재 몰입하지 않고 있는 것으로 간주할 수 있다. 만약, 눈 개폐 상태가 지속적으로 감지된다면, 시청자가 현재 방송중인 광고 콘텐츠에 몰입하고 있는 것으로 판단할 수 있다. 그리고, 시청자의 눈 개폐 상태를 보다 세분화하여 등급을 분류할 수 있다. 시청자의 몰입도를 판단하는 구체적인 실시예는 후술하는 도 7에서 설명하도록 한다.When the viewer is recognized and identified based on the received face code value, the viewing behavior is detected based on the face code value per direction. (Step S605). In step S605, a viewing behavior including whether the viewer's eyes are open or closed is detected from the face code value of the viewer through the eye area of the viewer. It is determined whether the eyes of the viewer are open or closed through the face code value, and the viewing behavior information including information on the open / closed state of the eyes is generated. Then, the viewing behavior information is analyzed (S606). The process of analyzing the viewing behavior information determines the degree of the viewer's immersion for the advertisement being viewed first through whether the viewer's eyes included in the viewing behavior information are opened or closed. The process of determining the immersion level can be divided into two stages. It is determined in step 1 whether or not the channel is changed. If the channel change is detected in the advertisement time slot in which the advertisement content is broadcast, the viewer regards the current channel as not being immersed and updates the current channel information. If the channel change is not detected in the advertisement time slot in step 1, it is determined whether or not the viewer is immersed in the second step based on the information on the eye open / close state included in the received audience behavior data to measure the immersive state. If the eye open / close signal of the viewer is not detected more than the predetermined number of times, it can be assumed that the eye of the viewer is wrapped and considered not to be in the current state of immersion. If the eye open / closed state is continuously detected, it can be determined that the viewer is immersed in the advertisement content currently being broadcasted. Then, the eye opening / closing state of the viewer can be further subdivided and classified. A concrete embodiment for determining the degree of immersion of the viewer will be described in Fig. 7 which will be described later.

시청자의 몰입도가 판단되면, 분석 결과에 기초하여 광고효과 분석 보고서를 생성한다(S607). 시청행태 정보 분석을 통해 시청자의 몰입도가 판단되면, 몰입 여부에 기초하여 해당 광고 콘텐츠에 대한 해당 시청자의 광고 효과를 분석할 수 있다. 그리고, 광고 효과를 분석하는 과정에서 별도의 광고기획 관리자로부터 콘텐츠 정보, 고객 정보 및 광고기획분류 정보를 포함하는 광고관련정보를 전달받아 광고 효과 분석에 활용할 수 있다. 광고효과 분석 보고서는 일별/광고별 또는 광고 효과지표 별로 상세한 분석을 진행하여 생성될 수 있다. 광고효과 분석 보고서는 가구별 시청이력 보고서, 광고별 집행실적 보고서, 1차원 광고집행 실적 보고서 및 2차원 광고집행 실적 보고서를 포함할 수 있다. 광고별 집행실적 보고서는 광고 별 효과분석에 대한 정보로서, 총괄 광고집행 보고서, 채널별 광고집행 보고서 및 장르별 광고집행 보고서를 포함할 수 있으며, 총괄 집계표, 프로그램 별 집계표, 장르별 집계표를 제공할 수 있다. 그리고, 광고별 집행실적 보고서는 광고 히트수(Hit Number), 시청가구수, 광고효과 측정 도달범위(Reach), 도달횟수(Freq) 및 광고효과 측정(Growth Rating Point, GRP)를 제공할 수 있다. 이와 같은 광고별 집행실적 보고서는 총괄 데이터, 카테고리 별 데이터, 지역별 데이터, 주중/주말 데이터, 일자별 데이터 및 광고효과 측정 도달범위 별로 제공될 수 있다. 1치원 광고집행 실적 보고서는 특정한 광고 별로 광고 히트수를 보고서 형식으로 제공한다. 2차원 광고집행 실적 보고서는 특정 광고 또는 여러 광고에 대해 1차원 항목을 교차하여 보고서 형식으로 제공한다. 생성된 광고효과 분석 보고서는 광고주에게 전달되어, 광고효과를 보다 정확하게 분석하고 광고 효과를 높이기 위한 광고 전략을 수립하는데 중요한 정보로 활용될 수 있다.If the viewer's immersion level is determined, an advertisement effect analysis report is generated based on the analysis result (S607). When the immersion degree of the viewer is determined through the viewing behavior analysis, the advertisement effect of the viewer can be analyzed based on the immersion. In the process of analyzing the advertisement effect, the advertisement related information including the content information, the customer information, and the advertisement planning classification information may be received from the separate advertisement planning manager and used for analyzing the advertisement effect. The advertisement effect analysis report can be generated by performing detailed analysis by day / advertisement or advertisement effect index. The advertising effectiveness analysis report can include a household history report, an ad performance report by ad, a one-dimensional advertisement performance report, and a two-dimensional advertisement execution report. The executive performance report by advertisement is information about the analysis of each advertisement effect, and it can include a general advertisement execution report, an advertisement execution report by channel, and an advertisement execution report by genre, and can provide a general summary table, a program summary table, . The executive performance report by advertisement may provide the hit number, the number of households, the reach of the advertisement effect measurement, the frequency of arrival (Freq), and the growth rating point (GRP). These ad performance reports can be provided by aggregate data, by category, by region, by weekday / weekly data, by date, and by ad effectiveness measurement reach. 1 The Chief Ad Execution Performance Report provides the number of hits for each specific ad in report format. The two-dimensional ad execution report provides cross-format, one-dimensional item reporting for specific ads or multiple ads. The generated advertisement analysis report is transmitted to the advertiser, which can be used as an important information for analyzing the advertising effect more accurately and establishing an advertising strategy for enhancing the advertisement effect.

도 7은 본 발명의 일 실시예에 따른 광고효과 분석 방법의 몰입도 검출 과정의 일 실시예를 나타내는 도면이다.FIG. 7 is a flowchart illustrating an exemplary embodiment of a method for detecting an immersion of an advertisement effect analysis method according to an exemplary embodiment of the present invention. Referring to FIG.

도 7을 참조하면, 광고효과 분석 방법의 몰입도 검출 과정은 먼저, 촬영된 시청자 영상을 통해 지속적으로 시청자를 인식(S701)하고, 인식된 시청자에 변동 사항이 있는지를 판단한다(S702). 본 발명에서는 영상촬영장치를 통해 시청자를 촬영하여 시청자를 식별 및 인식할 수 있다. 인식되는 시청자는 한 명의 시청자로 고정될 수도 있으나, 하나의 시청자가 다른 시청자로 변경되거나, 시청자가 수시로 추가될 수 있으며, 둘 이상의 시청자 중에서 어느 하나 이상의 시청자가 자리를 이탈할 수 있다. 따라서, 시청자를 지속적으로 인식하여, 인식된 시청자에 변동 사항이 있는지 여부를 판단한다. 만약 인식된 시청자에 변동이 있다면, 변동된 시청자를 인식하여 인식된 시청자를 갱신하고, S701 단계를 다시 수행한다.Referring to FIG. 7, the immersion degree detection process of the advertisement effect analysis method firstly recognizes the viewer through the captured viewer image (S701) and determines whether there is a change in the recognized viewer (S702). In the present invention, the viewer can be identified and recognized by photographing the viewer through the image photographing apparatus. The recognized viewers may be fixed to one viewer, but one viewer may be changed to another viewer, a viewer may be added from time to time, and one or more viewers of two or more viewers may leave the room. Therefore, the viewer is continuously recognized and it is determined whether or not the recognized viewer has a change. If there is a change in the recognized viewer, the changed viewer is recognized and the recognized viewer is updated, and the step S701 is performed again.

만약, 인식된 시청자에 변동이 없다고 판단되면, 현재 시청자가 제공받는 방송/광고 콘텐츠를 감지한다(S703). 방송/광고 콘텐츠 감지를 통해 현재 방송중인 방송 또는 광고 콘텐츠의 종류 및 방송 시작 시간을 확인할 수 있다. 방송/광고 콘텐츠가 감지되면, 현재 시청중인 채널의 변경 여부를 판단한다(S704). 인식된 시청자는 시청중인 채널을 지속적으로 유지하기도 하지만, 시청 도중 다른 채널로 변경하기도 한다. 특히, 현재 시청중인 방송 또는 광고 콘텐츠에 흥미가 없다면, 다른 채널로 변경할 가능성이 높다. 따라서, 인식된 시청자가 시청중인 채널을 변경한다면, 인식된 시청자가 현재 방송중인 콘텐츠에 몰입하지 않은 비몰입 상태로 판단한다(S705). 인식된 시청자가 비몰입 상태라고 판단되면, S703 단계를 다시 수행하여, 변경된 채널의 방송/광고 콘텐츠를 감지한다(S703).If it is determined that there is no change in the recognized viewer, the viewer currently senses the broadcast / advertisement content provided by the viewer (S703). Through the detection of broadcast / advertisement contents, it is possible to check the type of broadcast or advertisement contents currently being broadcast and the broadcast start time. If the broadcast / advertisement content is detected, it is determined whether the currently viewed channel has been changed (S704). Recognized viewers may continue to view the channel they are watching, but may even switch to another channel while watching. In particular, if you are not interested in the broadcast or advertisement content you are watching, you are likely to change to another channel. Therefore, if the recognized viewer changes the channel being viewed, it is determined that the recognized viewer is in a non-immersive state in which the viewer is not immersed in the currently broadcasted content (S705). If it is determined that the recognized viewer is in a non-immersive state, step S703 is performed again to detect broadcast / advertisement contents of the changed channel (S703).

만약, 인식된 시청자가 채널을 변경하지 않는다면, 시청행태 정보를 분석하여 인식된 시청자의 눈 개폐 상태를 판단한다(S706). 인식된 시청자의 눈 개폐 상태는 시청자가 방송/광고 콘텐츠를 시청하면서, 눈을 깜빡이는지 여부를 나타낸다. 만약, 시청자가 눈을 깜빡이지 않는다면, 인식된 시청자는 잠을 자거나, 방송/광고에 흥미를 잃고 다른 행동을 하는 것으로 판단할 수 있다. 따라서, 인식된 시청자의 눈 개폐 상태가 눈을 감은 상태라면, 인식된 시청자를 비몰입 상태로 판단하여, 지속적으로 눈 개폐 상태를 관찰 및 판단한다(S707).If the recognized viewer does not change the channel, the viewing behavior information is analyzed to determine the eye opening / closing state of the recognized viewer (S706). The recognized eye open / closed state of the viewer indicates whether the viewer blinks while watching the broadcast / advertisement contents. If the viewer does not blink, the recognized viewer may decide to sleep, lose interest in the broadcast / advertisement, and perform other actions. Therefore, if the recognized eye open / close state of the viewer is closed, the recognized viewer is judged as a non-immersive state, and the eye open / closed state is continuously observed and determined (S707).

반면에, S706 단계에서 인식된 시청자의 눈 개폐 상태가 지속적으로 눈을 깜빡이는 것으로 판단되면, 인식된 시청자의 눈 개폐 상태가 기 설정된 소정의 기준을 만족하는지 여부를 판단한다(S708). 만약, 인식된 시청자의 눈 개폐 상태가 기 설정된 소정의 횟수보다 적게 깜빡인다면, 인식된 시청자의 눈이 감겨있는 것으로 추정하여, 인식된 시청자가 비몰입 상태라고 가정할 수 있다(S707). 만약, S706 단계에서 눈 개폐 상태가 확인되고, S708 단계에서 기 설정된 소정의 기준을 만족한다면, 인식된 시청자를 몰입 상태로 판단할 수 있다(S709). 이와 같은 과정을 통해 시청자의 몰입 여부를 판단함으로써, 시청자가 단순히 방송 채널을 틀어놓은 것인지, 아니면 방송중인 콘텐츠에 흥미를 가지고 몰입하고 있는지를 확인할 수 있기 때문에, 광고효과를 보다 정확하게 분석할 수 있다. 예를 들어, S704, S706 및 S708 단계 각각의 판단 결과에 따라 시청자의 몰입도를 세분화하여 서로 다른 몰입도 점수를 부과한다면, 보다 세부적인 광고효과 분석이 가능하다.
On the other hand, if it is determined in step S706 that the eye open / closed state of the viewer continuously blinks, it is determined whether the eye open / closed state of the recognized viewer satisfies predetermined predetermined criteria (S708). If the recognized eye open / closed state of the viewer blinks less than the predetermined number of times, it can be assumed that the recognized viewer's eye is wrapped and the recognized viewer can assume that the viewer is in a non-immersive state (S707). If the eye open / close state is confirmed in step S706 and the predetermined criteria set in step S708 is satisfied, the recognized viewer can be determined as the immersive state (S709). By determining whether or not the viewer is immersed through such a process, it is possible to confirm whether the viewer simply operates the broadcasting channel or is intrigued with the broadcasting contents, so that the advertising effect can be more accurately analyzed. For example, according to the results of the determination in steps S704, S706, and S708, if the viewer's degree of engagement is subdivided and different scores are applied, more detailed advertisement effect analysis is possible.

상술한 내용을 포함하는 본 발명은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체 또는 정보저장매체에 저장되고, 컴퓨터에 의하여 판독되고 실행함으로써 본 발명의 방법을 구현할 수 있다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.
The present invention including the above-described contents can be written in a computer program. And the code and code segment constituting the program can be easily deduced by a computer programmer of the field. In addition, the created program can be stored in a computer-readable recording medium or an information storage medium, and can be read and executed by a computer to implement the method of the present invention. And the recording medium includes all types of recording media readable by a computer.

이상 바람직한 실시예를 들어 본 발명을 상세하게 설명하였으나, 본 발명은 전술한 실시예에 한정되지 않고, 본 발명의 기술적 사상의 범위 내에서 당분야에서 통상의 지식을 가진자에 의하여 여러 가지 변형이 가능하다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It is possible.

10: 광고효과 분석 장치
100: 정보 수집부
200: 시청자 인식부
210: 시청자 관리부
220: 얼굴 검출부
230: 시청자 등록부
240: 시청행태 검출부
300: 광고효과 분석부
310: 데이터 수집부
330: 광고효과 분석부
331: 데이터 분석부
332: 데이터 연동부
333: 데이터 관리부
334: 서비스부
20: 광고주
30: 광고기획 관리자
10: Advertising effect analysis device
100: Information collecting section
200: viewer recognition unit
210:
220:
230: Viewer Registration
240: Viewing Behavior Detection Unit
300: advertisement effect analysis unit
310: Data collecting unit
330: Advertisement Effect Analysis Unit
331: Data analysis section
332:
333:
334: Service Department
20: Advertiser
30: Advertising Planning Manager

Claims (19)

수신된 시청자 영상으로부터 검출된 얼굴 방향별 얼굴 코드값에 대응하는 등록된 시청자 정보를 검색하여 시청자를 식별하며, 식별된 상기 등록된 시청자 정보 및 상기 얼굴 방향별 얼굴 코드값에 기초하여 상기 식별된 시청자의 시청행태 정보를 검출하는 시청자 인식부; 및
상기 검출된 시청행태 정보에 기초하여 상기 시청자의 몰입도를 분석하고, 상기 분석된 몰입도에 기초하여 광고효과 분석 보고서를 생성하는 광고효과 분석부;
를 포함하는 것을 특징으로 하는 광고효과 분석 장치.
Searching registered viewer information corresponding to a face code value for each face direction detected from the received viewer image to identify the viewer, and based on the registered viewer information and the facial direction face code value, A viewer recognizing unit for detecting viewing behavior information of the viewer; And
An advertisement effect analyzer for analyzing the viewer's immersion level based on the detected viewing behavior information and generating an advertisement effect analysis report based on the analyzed immersion level;
Wherein the advertising effect analyzing apparatus comprises:
제 1항에 있어서,
상기 시청자를 촬영하여 상기 시청자 영상을 생성하고, 상기 시청자로부터 시청자 등록 정보를 수신하는 정보 수집부;
를 더 포함하는 것을 특징으로 하는 광고효과 분석 장치.
The method according to claim 1,
An information collecting unit for photographing the viewer to generate the viewer image and receiving viewer registration information from the viewer;
Further comprising: means for analyzing the advertising effect.
제 1항에 있어서,
상기 시청자 인식부는,
수신된 시청자 영상으로부터 검출된 얼굴 방향별 얼굴 코드값 및 수신된 시청자 등록 정보를 매칭하여 상기 시청자를 등록하여 상기 등록된 시청자 정보를 생성하는 것을 특징으로 하는 광고효과 분석 장치.
The method according to claim 1,
The viewer-
And the registered viewer information is generated by registering the viewer by matching the face code of each face direction detected from the received viewer image and the received viewer registration information.
제 1항에 있어서,
상기 시청행태 정보는 상기 시청자의 눈 개폐 상태에 대한 정보를 포함하며, 상기 시청자가 시청중인 방송/광고 콘텐츠에 대한 정보 및 방송 채널에 대한 정보를 더 포함하는 것을 특징으로 하는 광고효과 분석 장치.
The method according to claim 1,
Wherein the viewing behavior information includes information on an eye opening / closing state of the viewer, and further includes information on a broadcast / advertisement content viewed by the viewer and information on a broadcast channel.
제 1항에 있어서,
상기 광고효과 분석부는,
상기 수신된 시청행태 정보에 포함된 상기 시청자의 눈 개폐 상태를 통해 상기 시청자의 몰입도를 판단하는 것을 특징으로 하는 광고효과 분석 장치.
The method according to claim 1,
The advertisement effect analyzing unit,
Wherein the degree of involvement of the viewer is determined through an eye opening / closing state of the viewer included in the received viewing behavior information.
제 1항에 있어서,
상기 광고효과 분석부는,
상기 수신된 시청행태 정보에 포함된 방송 채널에 대한 정보를 통해 상기 시청자가 시청중인 방송 채널의 변경 여부를 통해 상기 시청자의 몰입도를 판단하는 것을 특징으로 하는 광고효과 분석 장치.
The method according to claim 1,
The advertisement effect analyzing unit,
Wherein the viewer is determined through the information on the broadcast channel included in the received viewing behavior information whether the viewer is changing the broadcast channel being watched by the viewer.
제 1항에 있어서,
상기 광고효과 분석부는,
별도의 광고기획 관리자로부터 수신된 콘텐츠 정보, 고객 정보 및 광고기획 분류 정보를 포함하는 광고 관련 정보 및 상기 시청행태 정보에 기초하여 상기 광고효과 분석 보고서를 생성하는 것을 특징으로 하는 광고효과 분석 장치.
The method according to claim 1,
The advertisement effect analyzing unit,
And generates the advertisement effect analysis report based on the advertisement related information including content information, customer information, and advertisement planning classification information received from a separate advertisement planning manager and the viewing behavior information.
제 7항에 있어서,
상기 광고효과 분석 보고서는 가구별 시청이력 보고서, 광고별 집행실적 보고서, 1차원 광고집행 실적 보고서 및 2차원 광고집행 실적 보고서중 적어도 어느 하나를 포함하는 것을 특징으로 하는 광고효과 분석 장치.
8. The method of claim 7,
Wherein the advertisement effect analysis report includes at least one of a viewing history report for each household, an execution performance report for each advertisement, a one-dimensional advertisement execution report, and a two-dimensional advertisement execution report.
제 7항에 있어서,
상기 광고효과 분석 보고서는 광고 히트수(Hit Number), 시청가구수, 광고효과 측정 도달범위(Reach), 도달횟수(Freq) 및 광고효과 측정(Growth Rating Point, GRP) 중에서 적어도 어느 하나를 포함하는 것을 특징으로 하는 광고효과 분석 장치.
8. The method of claim 7,
The advertisement effect analysis report may include at least one of a hit number, a number of viewable households, a reach measurement reach amount, a reach frequency Freq, and a growth rating point (GRP) Wherein said advertising effect analyzing device comprises:
수신된 시청자 영상으로부터 얼굴 방향별 얼굴 코드값을 검출하는 단계;
상기 검출된 얼굴 방향별 얼굴 코드값에 대응하는 등록된 시청자 정보를 검색하여 시청자를 식별하는 단계;
식별된 상기 등록된 시청자 정보 및 상기 얼굴 방향별 얼굴 코드값에 기초하여 상기 식별된 시청자의 시청행태 정보를 검출하는 단계;
상기 검출된 시청행태 정보에 기초하여 상기 시청자의 몰입도를 판단하는 단계; 및
상기 분석된 몰입도에 기초하여 광고효과 분석 보고서를 생성하는 단계;
를 포함하는 것을 특징으로 하는 광고효과 분석 방법.
Detecting a face code value for each face direction from the received viewer image;
Searching for registered viewer information corresponding to the detected face code for each face direction to identify a viewer;
Detecting viewing behavior information of the identified viewer based on the registered registered viewer information and the facial direction face code value;
Determining an immersion degree of the viewer based on the detected viewing behavior information; And
Generating an advertisement effect analysis report based on the analyzed degree of engagement;
And analyzing the advertising effect.
제 10항에 있어서,
상기 시청자를 촬영하여 상기 시청자 영상을 생성하고, 상기 시청자로부터 시청자 등록 정보를 수신하는 단계; 및
상기 시청자 영상 및 상기 시청자 등록 정보를 매칭하여 상기 시청자를 등록하는 단계;
를 더 포함하는 것을 특징으로 하는 광고효과 분석 방법.
11. The method of claim 10,
Capturing the viewer to generate the viewer image, and receiving viewer registration information from the viewer; And
Registering the viewer by matching the viewer image and the viewer registration information;
Further comprising the steps of:
제 10항에 있어서,
상기 수신된 시청자 영상으로부터 검출된 얼굴 방향별 얼굴 코드값 및 수신된 시청자 등록 정보를 매칭하여 상기 시청자를 등록하여 상기 등록된 시청자 정보를 생성하는 단계;
를 더 포함하는 것을 특징으로 하는 광고효과 분석 방법.
11. The method of claim 10,
Generating registered viewer information by registering the viewer with matching the face code of each face direction detected from the received viewer image and the received viewer registration information;
Further comprising the steps of:
제 10항에 있어서,
상기 시청행태 정보는 상기 시청자의 눈 개폐 상태에 대한 정보를 포함하며, 상기 시청자가 시청중인 방송/광고 콘텐츠에 대한 정보 및 방송 채널에 대한 정보를 더 포함하는 것을 특징으로 하는 광고효과 분석 방법.
11. The method of claim 10,
Wherein the viewing behavior information includes information on an eye opening / closing state of the viewer, and further includes information on a broadcast / advertisement content and a broadcast channel that the viewer is viewing.
제 10항에 있어서,
상기 검출된 시청행태 정보에 기초하여 상기 시청자의 몰입도를 판단하는 단계는,
상기 수신된 시청행태 정보에 포함된 상기 시청자의 눈 개폐 상태를 통해 상기 시청자의 눈이 소정의 횟수 이상 개폐되는 경우 상기 시청자가 몰입하는 것으로 추정하여 몰입도를 판단하는 것을 특징으로 하는 광고효과 분석 방법.
11. The method of claim 10,
Wherein the step of determining the degree of immersion of the viewer based on the detected viewing behavior information comprises:
Wherein the viewer determines the degree of immersion by estimating that the viewer is immersed when the eyes of the viewer are opened or closed more than a predetermined number of times through the eyes open / closed state of the viewer included in the received viewing behavior information .
제 10항에 있어서,
상기 검출된 시청행태 정보에 기초하여 상기 시청자의 몰입도를 판단하는 단계는,
상기 수신된 시청행태 정보에 포함된 방송 채널에 대한 정보를 통해 상기 시청자가 시청중인 방송 채널의 변경 여부를 통해 상기 방송 채널이 변경되지 않는 경우 상기 시청자가 몰입하는 것으로 추정하여 몰입도를 판단하는 것을 특징으로 하는 광고효과 분석 방법.
11. The method of claim 10,
Wherein the step of determining the degree of immersion of the viewer based on the detected viewing behavior information comprises:
And determining the degree of immersion by estimating that the viewer is immersed if the broadcast channel is not changed through information on the broadcast channel included in the received viewing behavior information through whether the broadcast channel being viewed by the viewer is changed A method for analyzing advertising effects.
제 10항에 있어서,
상기 검출된 시청행태 정보에 기초하여 상기 시청자의 몰입도를 판단하는 단계는,
상기 수신된 시청행태 정보를 통해 상기 방송 채널이 변경되는지 여부를 판단하는 단계;
상기 방송 채널이 변경되지 않는 것으로 판단되면, 상기 수신된 시청행태 정보에 포함된 눈 개폐 상태를 통해 상기 시청자가 눈을 개폐하는지 여부를 판단하는 단계; 및
상기 시청자의 눈이 개폐되는 것으로 판단되면, 상기 시청자의 눈이 소정의 횟수 이상 개폐하는지 여부를 판단하는 단계;
를 포함하는 것을 특징으로 하는 광고효과 분석 방법.
11. The method of claim 10,
Wherein the step of determining the degree of immersion of the viewer based on the detected viewing behavior information comprises:
Determining whether the broadcast channel is changed through the received viewing behavior information;
Determining whether the viewer opens or closes an eye through an eye opening / closing state included in the received viewing / listening behavior information if it is determined that the broadcast channel is not changed; And
Determining whether the eyes of the viewer are opened or closed more than a predetermined number of times when it is determined that the eyes of the viewer are opened or closed;
And analyzing the advertising effect.
제 10항에 있어서,
상기 분석된 몰입도에 기초하여 광고효과 분석 보고서를 생성하는 단계는,
별도의 광고기획 관리자로부터 수신된 콘텐츠 정보, 고객 정보 및 광고기획 분류 정보를 포함하는 광고 관련 정보 및 상기 시청행태 정보에 기초하여 상기 광고효과 분석 보고서를 생성하는 것을 특징으로 하는 광고효과 분석 방법.
11. The method of claim 10,
Wherein the generating the advertisement effect analysis report based on the analyzed degree of engagement comprises:
Wherein the advertisement effect analysis report is generated based on the advertisement related information including content information, customer information, and advertisement planning classification information received from a separate advertisement planning manager and the viewing behavior information.
제 17항에 있어서,
상기 광고효과 분석 보고서는 가구별 시청이력 보고서, 광고별 집행실적 보고서, 1차원 광고집행 실적 보고서 및 2차원 광고집행 실적 보고서 중에서 적어도 어느 하나를 포함하는 것을 특징으로 하는 광고효과 분석 방법.
18. The method of claim 17,
Wherein the advertisement effect analysis report includes at least one of a viewing history report for each household, an execution performance report for each advertisement, a one-dimensional advertisement execution report, and a two-dimensional advertisement execution report.
제 17항에 있어서,
상기 광고효과 분석 보고서는 광고 히트수(Hit Number), 시청가구수, 광고효과 측정 도달범위(Reach), 도달횟수(Freq) 및 광고효과 측정(Growth Rating Point, GRP) 중에서 적어도 어느 하나를 포함하는 것을 특징으로 하는 광고효과 분석 방법.
18. The method of claim 17,
The advertisement effect analysis report may include at least one of a hit number, a number of viewable households, a reach measurement reach amount, a reach frequency Freq, and a growth rating point (GRP) A method for analyzing advertising effects.
KR1020130145655A 2013-11-27 2013-11-27 Apparatus and method for analyzing advertising effects KR20150061716A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130145655A KR20150061716A (en) 2013-11-27 2013-11-27 Apparatus and method for analyzing advertising effects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130145655A KR20150061716A (en) 2013-11-27 2013-11-27 Apparatus and method for analyzing advertising effects

Publications (1)

Publication Number Publication Date
KR20150061716A true KR20150061716A (en) 2015-06-05

Family

ID=53499684

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130145655A KR20150061716A (en) 2013-11-27 2013-11-27 Apparatus and method for analyzing advertising effects

Country Status (1)

Country Link
KR (1) KR20150061716A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108256900A (en) * 2017-12-29 2018-07-06 佛山市幻云科技有限公司 Advertisement broadcast method, device and system
CN110825225A (en) * 2019-10-30 2020-02-21 深圳市掌众信息技术有限公司 Advertisement display method and system
KR102220074B1 (en) * 2020-10-06 2021-02-25 주식회사 이노피아테크 Method and Apparatus for Generating of Data for Providing Real-View Immersion Determination Service based on Image Recognition

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108256900A (en) * 2017-12-29 2018-07-06 佛山市幻云科技有限公司 Advertisement broadcast method, device and system
CN110825225A (en) * 2019-10-30 2020-02-21 深圳市掌众信息技术有限公司 Advertisement display method and system
CN110825225B (en) * 2019-10-30 2023-11-28 深圳市掌众信息技术有限公司 Advertisement display method and system
KR102220074B1 (en) * 2020-10-06 2021-02-25 주식회사 이노피아테크 Method and Apparatus for Generating of Data for Providing Real-View Immersion Determination Service based on Image Recognition
US11321961B2 (en) 2020-10-06 2022-05-03 Innopia Technologies, Inc. Data generation method and apparatus for providing real-viewing immersion determination service based on image recognition

Similar Documents

Publication Publication Date Title
US20210326931A1 (en) Digital advertising system
US10321173B2 (en) Determining user engagement with media content based on separate device usage
US20170091822A1 (en) Electronic digital display screen having a content scheduler operable via a cloud based content management system
WO2019149005A1 (en) Offline interactive advertisement system
AU2013204946B2 (en) Methods and apparatus to measure audience engagement with media
US20090217315A1 (en) Method and system for audience measurement and targeting media
JP2016184410A (en) Ordering method and processing method
CN102439620A (en) Determination of relative validity of media content item
US9301019B1 (en) Media correlation by feature matching
WO2008138144A1 (en) Method and system for audience measurement and targeting media
US20140351836A1 (en) Content providing program, content providing method, and content providing apparatus
KR20190116830A (en) Method for providing commercial cost calculating service based on bigdata of commercial viewer and number of viewer object
CN104871196A (en) A media system with a server and distributed player devices at different geographical locations
KR20150061716A (en) Apparatus and method for analyzing advertising effects
JP2020166790A (en) Marketing support system
US11354704B2 (en) Systems and methods for delivering content to mobile devices
US10587922B2 (en) System and method for providing viewership measurement of a particular location for digital-out-of-home media networks
KR20200092630A (en) Method for providing cleaning academy service turning authenticated sanitary worker out using systematized and formalized education
JP2020166791A (en) Advertisement distribution system
JP2020166787A (en) Advertisement distribution system
JP2020166784A (en) Television program evaluation system
JP2020166789A (en) Advertisement distribution system
JP2020166788A (en) Advertisement distribution system
JP2020167639A (en) Television program evaluation system

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid