[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005142975A - Audience reaction information collection system and its method, user terminal and audience reaction information providing apparatus used in the audience reaction information collection system, and audience reaction information creation program used to obtain the user terminal and the audience reaction information providing apparatus - Google Patents

Audience reaction information collection system and its method, user terminal and audience reaction information providing apparatus used in the audience reaction information collection system, and audience reaction information creation program used to obtain the user terminal and the audience reaction information providing apparatus Download PDF

Info

Publication number
JP2005142975A
JP2005142975A JP2003379243A JP2003379243A JP2005142975A JP 2005142975 A JP2005142975 A JP 2005142975A JP 2003379243 A JP2003379243 A JP 2003379243A JP 2003379243 A JP2003379243 A JP 2003379243A JP 2005142975 A JP2005142975 A JP 2005142975A
Authority
JP
Japan
Prior art keywords
viewer
data
content
information
viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003379243A
Other languages
Japanese (ja)
Other versions
JP4335642B2 (en
Inventor
Norifumi Katabuchi
典史 片渕
Tetsuya Yamamoto
哲也 山本
Yoshito Nanjo
義人 南條
Tsutomu Yabuuchi
勉 籔内
Kenichiro Shimokura
健一朗 下倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003379243A priority Critical patent/JP4335642B2/en
Publication of JP2005142975A publication Critical patent/JP2005142975A/en
Application granted granted Critical
Publication of JP4335642B2 publication Critical patent/JP4335642B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce the load of work such as entry by an audience himself/ herself, and to provide a technique for automatically summing up the quality-of-view of contents in an ordinary viewing style. <P>SOLUTION: In a sensing apparatus, audience sensing data or audience recognition data resulting from recognizing the sensing data are collected to collect audience reaction data indicating the reaction of the audience with respect to reproduced contents. On the other hand, when viewing data are collected with respect to reproduced contents including screen operation history information in a user terminal, the user terminal or the information providing apparatus temporally synchronizes and integrates the collected audience reaction data and the collected viewing data. Further, the information providing apparatus generates quality-of-view data indicating the qualitative reaction of the audience to the reproduced contents on the basis of the integrated data, and viewing meta-data are created for distributing the generated quality-of-view data. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、視聴率やアクセスログだけではわからない「コンテンツ(テレビ番組など)がどのように見られているのか」という視聴の「質」を測定して提供する視聴者反応情報収集システム及びその方法と、その視聴者反応情報収集システムで用いられるユーザ端末と、その視聴者反応情報収集システムで用いられる視聴者反応情報提供装置と、そのユーザ端末の実現に用いられる視聴者反応情報作成用プログラムと、その視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラムとに関する。   The present invention relates to a viewer reaction information collection system and method for measuring and providing “quality” of viewing “how content (such as a TV program) is viewed” that cannot be understood only by the audience rating and access log, and the method thereof A user terminal used in the viewer reaction information collecting system, a viewer reaction information providing device used in the viewer reaction information collecting system, and a program for creating viewer reaction information used in realizing the user terminal, Further, the present invention relates to a program for creating viewer response information used for realizing the viewer response information providing apparatus.

これまでも、番組やコンテンツを定量的に評価する(価値を測る)指標として、視聴の「量」を表す「率」だけでなく、視聴の質(以下、視聴質とよぶ)に関しても何らかの評価尺度が必要であることが叫ばれてきた。各放送事業者やコンテンツ配信事業者が広告効果を把握し、広告主に説明するためにも、今後視聴質がますます重要な指標となると考えられる。   Until now, as an index to quantitatively evaluate programs and content (measure the value), not only the “rate” that represents the “amount” of viewing but also the quality of viewing (hereinafter referred to as “viewing quality”) It has been screamed that a scale is necessary. In order for each broadcaster and content distributor to understand the effectiveness of the advertisement and explain it to the advertiser, the viewing quality is expected to become an increasingly important index in the future.

また、2003年12月には三大都市圏で地上波デジタル放送が開始される予定で、多チャンネル化による視聴可能なチャンネル数が数百の単位に増加する。にもかかわらず、1日約3時間という限られた視聴時間のなかで、視聴者が見たい番組を数百チャンネルから選択するのは非常に困難である。こうした番組選択の負担を軽減する番組ナビゲーションサービスや番組自動推薦サービスの提供に向けて、これまで軽視されてきた「視聴者がどのようにテレビ番組を見ているのか」に焦点をあてる必要がある。   In addition, terrestrial digital broadcasting is scheduled to start in December 2003 in the three major metropolitan areas, and the number of channels that can be viewed will increase to several hundred units due to the increase in the number of channels. Nevertheless, it is very difficult for the viewer to select from hundreds of channels for a limited viewing time of about 3 hours a day. In order to provide program navigation services and automatic program recommendation services that reduce the burden of program selection, it is necessary to focus on "how viewers watch TV programs" that have been neglected so far. .

本発明は、コンテンツの視聴質調査の方法に関するもので、特に視聴者の行動、リアクションに着目することによって、実際に人がテレビ番組やデジタルコンテンツを見ているかどうかの実視聴判定、および実際に人がどの程度興味/関心をもって見ているかの注目度推定を可能とする。   The present invention relates to a method of surveying content audience quality. In particular, by focusing attention on the behavior and reaction of viewers, it is possible to determine whether or not a person is actually watching a TV program or digital content, and It is possible to estimate the degree of interest of how much people are interested / interested.

本発明におけるコンテンツは、テレビ放送番組、インターネット上のデジタルコンテンツ、広告、またはそれらの組み合わせをさす。さらに、例えばICタグ(RFIDタグ、LEDタグ)などを利用した視聴者人数の推定および視聴者の個人特定を高速かつ高精度に実現するものである。   The content in the present invention refers to a television broadcast program, digital content on the Internet, an advertisement, or a combination thereof. Furthermore, for example, the estimation of the number of viewers using an IC tag (RFID tag, LED tag) or the like and personal identification of the viewer are realized at high speed and with high accuracy.

従来の視聴率測定技術の一つとして、赤外線映像を用いて、視聴者人数の把握もしくは視聴者個人の特定を行う装置がある(例えば、特許文献1参照)。   As one of the conventional audience rating measurement techniques, there is an apparatus for grasping the number of viewers or specifying individual viewers using infrared video (see, for example, Patent Document 1).

この装置は、赤外線ビデオカメラを用いて人の瞳孔検出を行うことにより、視聴者人数および実際に人がテレビジョンを見ているかどうかの判定を可能にする。さらに瞳孔の位置情報を用いて、ビデオカメラ映像出力信号における顔の2次元的な位置、大きさが一定な映像を得ることにより、かかる顔の映像より視聴者個人を高速かつ容易に特定する装置である。   This device enables the determination of the number of viewers and whether a person is actually watching television by performing human pupil detection using an infrared video camera. Furthermore, by using the position information of the pupil to obtain an image having a constant two-dimensional position and size of the face in the video camera image output signal, it is possible to quickly and easily identify an individual viewer from the image of the face. It is.

一方、1997年4月にスタートしたインターネットを使ったテレビ番組に関する調査を行うWebサイト「テレビ番組視聴質調査 リサーチQ」がある(例えば、非特許文献1参照)。   On the other hand, there is a web site “TV Program Audience Quality Survey Research Q” that conducts surveys on TV programs using the Internet, which started in April 1997 (see Non-Patent Document 1, for example).

このサイトは、視聴率だけではわからない視聴質を調査し、その結果を番組制作・編成に生かすことを目的とし、テレビ朝日編成部と慶應義塾大学環境情報学部熊坂研究室とで共同で開発・運営されている。なお、会員登録した利用者はアンケートに答えてQポイントをためると、抽選でプレゼントがもらえるインセンティブも用意されている。
特許第2947289 号公報「テレビジョン視聴率測定装置」 「テレビ番組視聴質調査 リサーチQ」,インターネット<URL:http://www.rq-tv.com>)2003.8.25 検索
This site was developed and operated in collaboration with the TV Asahi Organization Department and the Keio University Faculty of Environment and Information Sciences Kumazaka Lab. Has been. In addition, there is an incentive for users who have registered as members to collect presents by lottery by answering a questionnaire and collecting Q points.
Japanese Patent No. 2947289 “TV Television Rating System” "TV Program Audience Quality Research Q", Internet <URL: http://www.rq-tv.com>) 2003.8.25

ところが、視聴率を測定する従来の技術では、本発明の目的とするコンテンツ視聴質の調査まではカバーできない。例えば、テレビの電源が入っていながら視聴者がテレビを見ていないといった状況を把握することにより、いわゆる視聴率の精度向上を可能とする。しかしながら、視聴質はとれない。   However, the conventional technique for measuring the audience rating cannot cover the content audience quality survey aimed at by the present invention. For example, it is possible to improve the accuracy of the so-called audience rating by grasping the situation where the viewer is not watching the television while the television is turned on. However, audience quality is not good.

一方、上述した「リサーチQ」では、アンケート内容、質問項目によるが、それなりの視聴質を調査することができると考えられる。しかしながら、PCを起動し、インターネットに接続し、それからWebサイト上でアンケートに回答する手間、あるいは携帯電話専用のWebサイトにアクセスし、コメント文を入力する煩わしさを考えると、利用者の負担が少ないとは言いがたい。   On the other hand, in the above-mentioned “Research Q”, depending on the contents of the questionnaire and the question items, it is considered that the audience quality can be investigated. However, considering the hassle of starting up a PC, connecting to the Internet, then answering a questionnaire on the Web site, or accessing a mobile phone-only Web site and entering a comment, It is hard to say that there are few.

本発明は、上述の点に鑑み、従来技術の問題点を解決し、視聴者自身による記入やWeb上での回答といった作業負荷を軽減し、通常の視聴形態におけるコンテンツの視聴質の自動集計を可能とする新たなコンテンツの視聴質調査技術の提供を目的とする。   In view of the above-mentioned points, the present invention solves the problems of the prior art, reduces the work load such as entry by the viewer himself / herself and answers on the web, and automatically calculates the audience quality of the content in the normal viewing mode. The purpose is to provide a new content audience quality survey technology.

〔1〕ユーザ端末で、視聴反応データと視聴データとを統合する構成
上述の目的を達成するために、本発明の視聴者反応情報収集システムは、(イ)視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置と、(ロ)コンテンツを再生するとともに、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集し、さらに、センシング装置から視聴者反応データを入手して、その収集した視聴データとその入手した視聴者反応データとを時間同期させて統合するユーザ端末と、(ハ)ユーザ端末から統合データを入手して、その入手した統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する視聴者反応情報提供装置とを備える。
[1] Configuration in which viewing response data and viewing data are integrated in a user terminal In order to achieve the above-described object, a viewer response information collecting system of the present invention includes (a) sensing data about a viewer and A sensing device that collects viewer response data indicating viewer response to the playback content by collecting either or both of the viewer recognition data obtained by the recognition processing; ) Playing back content, collecting viewing data on the playback content including screen operation history information, obtaining viewer response data from the sensing device, and collecting the collected viewing data and the obtained viewer response User terminal that integrates data in time synchronization and (c) Integrated data obtained from the user terminal and the obtained integrated data A viewer response information providing device for generating audience quality data indicating a viewer's qualitative reaction to the playback content and creating viewing metadata for distribution of the generated audience quality data, Is provided.

〔1−1〕この構成に従う場合のユーザ端末の構成
この構成に従う場合、ユーザ端末は、(イ)コンテンツ提供装置から送信されてくる視聴要求のコンテンツを再生する手段と、(ロ)コンテンツ提供装置から送信されてくる再生コンテンツのメタデータを入手する手段と、(ハ)視聴者による画面操作の情報を入手して保存手段に保存させることで画面操作履歴の情報を収集する手段と、(ニ)センシング装置から、視聴者反応データを入手する手段と、(ホ)その収集した画面操作履歴の情報とその入手した視聴者反応データとを時間同期させて統合するとともに、それに再生コンテンツのメタデータを統合する手段と、(ヘ)その統合データを視聴者反応情報提供装置に送信する手段とを備えるように構成する。
[1-1] Configuration of user terminal in accordance with this configuration In accordance with this configuration, the user terminal (a) means for reproducing the content requested by the viewing request transmitted from the content providing device, and (b) the content providing device. (C) means for acquiring screen operation history information by obtaining screen operation information obtained by the viewer and storing it in the storage means; ) A means for obtaining viewer response data from the sensing device, and (e) integrating the collected screen operation history information and the obtained viewer response data in a time-synchronized manner, and reproducing content metadata. And (f) means for transmitting the integrated data to the viewer response information providing apparatus.

以上の各処理手段はコンピュータプログラムによっても実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供したり、ネットワークを介して提供することができる。   Each of the processing means described above can also be realized by a computer program, and this computer program can be provided by being recorded on a recording medium such as a semiconductor memory or via a network.

〔1−2〕この構成に従う場合の視聴者反応情報提供装置の構成
この構成に従う場合、視聴者反応情報提供装置は、(イ)ユーザ端末から、統合データを入手する手段と、(ロ)その入手した統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成する手段と、(ハ)その生成した視聴質データの流通用の視聴メタデータを作成する手段と、(ニ)その作成した視聴メタデータを要求元に送信する手段とを備えるように構成する。
[1-2] Configuration of Viewer Response Information Providing Device According to This Configuration When this configuration is followed, the viewer response information providing device includes: (b) means for obtaining integrated data from the user terminal; Based on the obtained integrated data, means for generating audience quality data indicating the viewer's qualitative reaction to the playback content, and (c) creating viewing metadata for distribution of the generated audience quality data And (d) means for transmitting the created viewing metadata to the request source.

以上の各処理手段はコンピュータプログラムによっても実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供したり、ネットワークを介して提供することができる。   Each of the above processing means can also be realized by a computer program, and this computer program can be provided by being recorded in a recording medium such as a semiconductor memory or via a network.

〔2〕視聴者反応情報提供装置で、視聴反応データと視聴データとを統合する構成
上述の目的を達成するために、本発明の視聴者反応情報収集システムは、(イ)視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置と、(ロ)コンテンツを再生するとともに、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集するユーザ端末と、(ハ)ユーザ端末から視聴データを入手するとともに、センシング装置から視聴者反応データを入手して、その入手した視聴データとその入手した視聴者反応データとを時間同期させて統合し、その統合したデータに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する視聴者反応情報提供装置とを備える。
[2] Configuration for Integrating Viewing Response Data and Viewing Data in Viewer Response Information Providing Device In order to achieve the above-described object, the viewer response information collecting system of the present invention provides (a) sensing for a viewer. Sensing device for collecting viewer response data indicating viewer's response to playback content by collecting either or both of data and recognition data of viewer obtained by recognizing the data And (b) a user terminal that reproduces the content and collects viewing data regarding the reproduced content including information on the screen operation history, and (c) obtains the viewing data from the user terminal and receives a viewer response from the sensing device. The data is obtained, and the obtained viewing data and the obtained audience reaction data are integrated in time synchronization. Viewer response information is provided to generate audience quality data indicating the viewer's qualitative reaction to the playback content based on the recorded data and to create viewing metadata for distribution of the generated audience quality data Device.

〔2−1〕この構成に従う場合のユーザ端末の構成
この構成に従う場合、ユーザ端末は、(イ)コンテンツ提供装置から送信されてくる視聴要求のコンテンツを再生する手段と、(ロ)コンテンツ提供装置から送信されてくる再生コンテンツのメタデータを入手する手段と、(ハ)視聴者による画面操作の情報を入手して保存手段に保存させることで画面操作履歴の情報を収集する手段と、(ニ)その収集した画面操作履歴の情報とその入手した再生コンテンツのメタデータとを加工することで視聴データを作成する手段と、(ホ)その作成した視聴データを視聴者反応情報提供装置に送信する手段とを備えるように構成する。
[2-1] Configuration of user terminal in accordance with this configuration In the case of following this configuration, the user terminal (a) means for reproducing the content requested for viewing transmitted from the content providing device, and (b) the content providing device. (C) means for acquiring screen operation history information by obtaining screen operation information obtained by the viewer and storing it in the storage means; ) Means for creating viewing data by processing the collected screen operation history information and the metadata of the obtained reproduction content; and (e) transmitting the created viewing data to the viewer response information providing apparatus. And means.

以上の各処理手段はコンピュータプログラムによっても実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供したり、ネットワークを介して提供することができる。   Each of the above processing means can also be realized by a computer program, and this computer program can be provided by being recorded in a recording medium such as a semiconductor memory or via a network.

〔2−2〕この構成に従う場合の視聴者反応情報提供装置の構成
この構成に従う場合、視聴者反応情報提供装置は、(イ)センシング装置から、視聴者反応データを入手する手段と、(ロ)ユーザ端末から、視聴データを入手する手段と、(ハ)その入手した視聴者反応データとその入手した視聴データとを時間同期させて統合する手段と、(ニ)その統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成する手段と、(ホ)その生成した視聴質データの流通用の視聴メタデータを作成する手段と、(ヘ)その作成した視聴メタデータを要求元に送信する手段とを備えるように構成する。
[2-2] Configuration of Viewer Response Information Providing Device in Case of Following this Configuration In the case of following this configuration, the viewer response information providing device includes: (b) means for obtaining viewer response data from the sensing device; ) Means for obtaining viewing data from the user terminal, (c) means for integrating the obtained audience response data and the obtained viewing data in time synchronization, and (d) based on the integrated data, Means for generating audience quality data indicating a viewer's qualitative reaction to the playback content; (e) means for creating viewing metadata for distribution of the generated audience quality data; And a means for transmitting the created viewing metadata to the request source.

以上の各処理手段はコンピュータプログラムによっても実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供したり、ネットワークを介して提供することができる。   Each of the above processing means can also be realized by a computer program, and this computer program can be provided by being recorded in a recording medium such as a semiconductor memory or via a network.

〔3〕このように構成される本発明の処理について
このように構成される本発明の視聴者反応情報収集システムでは、センシング装置で、視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集し、一方、ユーザ端末で、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集すると、ユーザ端末あるいは視聴者反応情報提供装置で、その収集した視聴者反応データとその収集した視聴データとを時間同期させて統合する。そして、視聴者反応情報提供装置で、その統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する。
[3] About the process of the present invention configured as described above In the viewer response information collecting system of the present invention configured as described above, the sensing device obtains the sensing data about the viewer and the recognition process thereof with the sensing device. By collecting either or both of the recognition data of the viewers that are displayed, viewer response data indicating the viewer's response to the playback content is collected. On the other hand, information on the screen operation history is collected at the user terminal. When the viewing data on the playback content including is collected, the collected viewer response data and the collected viewing data are integrated in time synchronization by the user terminal or the viewer response information providing apparatus. Then, the viewer response information providing device generates audience quality data indicating the viewer's qualitative response to the playback content based on the integrated data, and distributes the generated audience quality data for distribution. Create viewing metadata.

このようにして、本発明によれば、「コンテンツ(テレビ番組など)がどのように見られているのか」という視聴の「質」を、視聴者に負荷をかけることなく測定して提供することができるようになる。   In this way, according to the present invention, it is possible to measure and provide “quality” of viewing “how content (such as a TV program) is viewed” without placing a burden on the viewer. Will be able to.

〔4〕本発明の具体的な構成について
次に、本発明の具体的な構成について説明する。
[4] Specific Configuration of the Present Invention Next, a specific configuration of the present invention will be described.

本発明は、具体的には、コンテンツ提供装置とセンシング装置とユーザ端末と推定蓄積装置(視聴者反応情報提供装置に相当するもの)とで構成される視聴者反応情報収集システムに適用される。   Specifically, the present invention is applied to a viewer response information collecting system including a content providing device, a sensing device, a user terminal, and an estimation storage device (corresponding to a viewer response information providing device).

〔4−1〕コンテンツ提供装置の構成
コンテンツ提供装置は、放送局やインターネットサービスプロバイダやコンテンツ配信事業者などにより構築されて、コンテンツを格納するコンテンツ格納手段と、視聴可能なコンテンツリストを生成するコンテンツリスト生成手段と、生成したコンテンツリストをユーザ端末に送信する送信手段と、ユーザ端末から送信されてくるコンテンツのリクエスト情報を受信する受信手段と、受信したリクエスト情報に応じたコンテンツを選択するコンテンツ選択手段と、選択したコンテンツをユーザ端末に送信する送信手段と、コンテンツに関する情報を記述したメタデータを生成するコンテンツメタデータ生成手段と、生成したコンテンツメタデータをユーザ端末に送信する送信手段とを備える。
[4-1] Configuration of Content Providing Device The content providing device is constructed by a broadcasting station, an Internet service provider, a content distributor, or the like, and stores content storing means for storing content and content for generating a viewable content list. List generating means, transmitting means for transmitting the generated content list to the user terminal, receiving means for receiving the request information of the content transmitted from the user terminal, and content selection for selecting the content according to the received request information Means, transmitting means for transmitting the selected content to the user terminal, content metadata generating means for generating metadata describing information relating to the content, and transmitting means for transmitting the generated content metadata to the user terminal. .

〔4−2〕センシング装置の構成
センシング装置は、コンテンツを視聴している人間の反応をセンシングする手段と、センシングしたデータを処理する認識手段と、センシングしたデータや認識結果のデータを送信する送信手段とを備える。
[4-2] Configuration of Sensing Device The sensing device transmits means for sensing the response of a person viewing content, a recognition means for processing the sensed data, and sensing data and recognition result data. Means.

〔4−3〕ユーザ端末の構成
ユーザ端末は、コンテンツ提供装置から送信されてくるコンテンツリストを受信する受信手段と、受信したコンテンツリストを出力するコンテンツリスト表示手段と、視聴コンテンツを取得するためのリクエスト情報を送信するリクエスト送信手段と、リクエストしたコンテンツを受信するコンテンツ受信手段と、受信したコンテンツをバッファリングする記録手段と、受信したコンテンツを再生する再生手段と、コンテンツ提供装置から送信されてくるコンテンツメタデータを受信する受信手段と、受信したコンテンツメタデータを格納するコンテンツメタデータ格納手段と、受信したコンテンツを受信したコンテンツメタデータとあわせて画面に表示する表示手段と、ユーザによる画面操作やユーザにより入力される心理状態の情報やコンテンツ評価の情報を入力する入力手段と、ユーザの操作する画面操作履歴の情報を格納する画面操作履歴格納部と、センシング装置から送信されてくるセンシングデータや認識データを受信する受信手段と、入力した画面操作履歴の情報やユーザの心理状態の情報やコンテンツ評価の情報と、受信したセンシングデータや認識データとを時間同期をとって統合するデータ統合手段と、その統合データを推定蓄積装置に送信する送信手段とを備える。
[4-3] Configuration of User Terminal The user terminal receives a content list transmitted from the content providing apparatus, a content list display unit that outputs the received content list, and a viewing content. Request transmission means for transmitting request information, content reception means for receiving requested content, recording means for buffering received content, reproduction means for playing back received content, and content providing apparatus Receiving means for receiving content metadata, content metadata storing means for storing received content metadata, display means for displaying received content together with received content metadata, screen operation by a user, Entered by user Input means for inputting psychological state information and content evaluation information, screen operation history storage unit for storing screen operation history information operated by the user, and sensing data and recognition data transmitted from the sensing device A data integration means for integrating the input screen operation history information, the user psychological state information, the content evaluation information, and the received sensing data and recognition data with time synchronization, and Transmitting means for transmitting the integrated data to the estimation storage device.

ここでは、ユーザ端末が、画面操作履歴の情報などの視聴データと、センシング装置から送信されてくるコンテンツ視聴者の反応を示す視聴者反応データとを統合するという構成を採っているが、推定蓄積装置で統合するようにしてもよい。   Here, the user terminal adopts a configuration in which viewing data such as screen operation history information and viewer response data indicating the response of the content viewer transmitted from the sensing device are integrated. You may make it integrate with an apparatus.

〔4−4〕推定蓄積装置の構成
推定蓄積装置は、ユーザ端末から送信されてくるコンテンツの統合データを受信する受信手段と、受信した統合データからコンテンツの視聴質データを推定して生成する生成手段と、生成した視聴質データを格納する視聴質データ格納手段と、生成した視聴質データからその視聴質データの流通用の視聴メタデータを抽出する加工手段と、新規の視聴メタデータを追加する更新手段と、視聴メタデータを送信する送信手段とを備える。
[4-4] Configuration of Estimating and Accumulating Device The estimating and accumulating device is a receiving unit that receives integrated data of content transmitted from a user terminal, and a generation that estimates and generates audience quality data of content from the received integrated data. Means, storing audience quality data for storing generated audience quality data, processing means for extracting audience metadata for distribution of audience quality data from the generated audience quality data, and adding new audience metadata Update means and transmission means for transmitting viewing metadata.

〔4−5〕さらに具体的な構成
このように構成される本発明の視聴者反応情報収集システムでは、再生コンテンツに対する視聴者の実視聴時間の情報、再生コンテンツに対する視聴者の注目度の時間遷移の情報、再生コンテンツに対する視聴者の感情・気分の情報、再生コンテンツに対する視聴者の視聴前後における感情・気分の変化の情報、視聴者の入力した再生コンテンツに対する心理状態の情報、視聴者の入力した再生コンテンツに対するコンテンツ評価の情報の少なくとも1つを含むことがある。
[4-5] More Specific Configuration In the viewer reaction information collection system of the present invention configured as described above, information on the viewer's actual viewing time with respect to the playback content and time transition of the viewer's attention level with respect to the playback content Information on viewers' emotions and moods for playback content, information on changes in emotions and moods before and after viewing viewers on playback content, psychological information on playback content input by viewers, viewer input It may include at least one piece of content evaluation information for the playback content.

また、画面操作履歴の情報などの視聴データと、センシング装置から送信されてくるコンテンツ視聴者の反応を示す視聴者反応データとを、逐次的につき合わせる形で時間同期をとって統合することにより、着目するコンテンツに対する視聴者反応をリアルタイムに解析することができる。   In addition, by integrating viewing data such as screen operation history information and viewer response data indicating the response of the content viewer transmitted from the sensing device in a time-synchronized manner, Viewer response to the content of interest can be analyzed in real time.

また、コンテンツが記録媒体に録画されたテレビ番組などであっても、コンテンツ視聴開始時刻と先頭からの再生時間、および推定蓄積装置に保存された統合データのタイムスタンプに基づき時間同期をとることによって、コンテンツに対する視聴者反応を事後解析することができる。   Also, even if the content is a TV program recorded on a recording medium, by synchronizing the time based on the content viewing start time, the playback time from the beginning, and the time stamp of the integrated data stored in the estimation storage device , The audience reaction to the content can be analyzed after the fact.

また、視聴者反応として視聴者自身の感情、気分を用いることとし、センシング装置により視聴者の表情、視線、瞬き、体温(皮膚温度)、血圧、心拍数、発汗の少なくとも1つ以上をセンシングすることにより、視聴者自身の感情、気分を推定する。   In addition, the viewer's own emotion and mood are used as the viewer's reaction, and the sensing device senses at least one of the viewer's facial expression, line of sight, blink, body temperature (skin temperature), blood pressure, heart rate, and sweating. Thus, the viewer's own feelings and mood are estimated.

また、視聴者反応として視聴者自身の感情、気分を用いることとし、視聴者からの入力に従って、喜怒哀楽などの視聴者自身の感情、気分を推定する。   Also, the viewer's own emotions and moods are used as the viewer's reaction, and the viewer's own emotions and moods such as emotions are estimated according to the input from the viewers.

また、個人情報を格納する手段と個人情報を送信する手段とを備えた個人情報管理装置を用意して、ユーザ端末あるいは推定蓄積装置は、その個人情報管理装置にアクセスすることで、視聴者の個人情報を入手することがある。   Also, a personal information management device comprising means for storing personal information and means for transmitting personal information is prepared, and the user terminal or the estimation storage device accesses the personal information management device, so that the viewer's Personal information may be obtained.

本発明では、上述した技術手段を採用することにより、実際にテレビ番組やコンテンツを見ているかどうかの実視聴自動判定を可能とする。さらに、視聴時における視聴者のリアクションをセンシングし認識することによって、通常の視聴形態におけるテレビ番組やコンテンツに対しての視聴者の注目度の推定、気分・感情の推定を実現する。   In the present invention, by employing the above-described technical means, it is possible to automatically determine whether or not the user is actually watching a television program or content. Furthermore, by sensing and recognizing the viewer's reaction at the time of viewing, the viewer's attention level and the mood / emotion estimation for the TV program or content in the normal viewing mode are realized.

以下に、添付の図面を用いて本発明の構造と動作について詳細に説明する。   Hereinafter, the structure and operation of the present invention will be described in detail with reference to the accompanying drawings.

ここで、以下の説明は、本発明の理解を助けるものであって、本発明の特許請求の範囲を制限するものではない。例えば、以降の説明では主として赤外線発光照明装置を使用した場合の記述であるが、それに限定するものではない。可視光、紫外光を用いても同様な効果が得られる。また、コンテンツはテレビ放送番組に限られるものではなく、インターネット上のデジタルコンテンツや広告なども含まれる。   Here, the following description is intended to assist the understanding of the present invention, and does not limit the scope of the claims of the present invention. For example, in the following description, the description is mainly for the case where an infrared light emitting illumination device is used, but the present invention is not limited thereto. Similar effects can be obtained by using visible light and ultraviolet light. Further, the content is not limited to a television broadcast program, and includes digital content and advertisements on the Internet.

本発明の実施の形態では、テレビ番組や映像コンテンツ視聴時における一般視聴者のリアクション情報を収集蓄積することがポイントの一つである。ところが、一般に自宅などでくつろいでいるときのカメラ映像やマイク音声を収集されることに対して大きな心理的抵抗があるため、何らかの動機づけがない限り、視聴者(サービス利用者)からそれらの利用許可を得ることは困難である。   In the embodiment of the present invention, one of the points is to collect and accumulate reaction information of general viewers when watching TV programs and video contents. However, since there is a great psychological resistance to the collection of camera images and microphone sound when generally relaxing at home, the viewer (service user) uses them unless there is any motivation. It is difficult to get permission.

後述する本発明の第1の実施形態では、視聴時におけるカメラ映像やマイク音声といった個人情報を流通させる対価としての利益(以下、「インセンティブ」)を一般視聴者に与えることを大きな特徴とする。   The first embodiment of the present invention, which will be described later, is greatly characterized in that a general viewer is provided with a profit (hereinafter, “incentive”) as consideration for distributing personal information such as camera video and microphone sound during viewing.

例えば、“「ファイバーティービー」インターネット<URL:http://www.pointage.ne.jp/fibertv.html>)2003.8.25 検索”によれば、映画・音楽・アニメーション・スポーツ・バラエティなどのビデオコンテンツをオンデマンドで配信するエンターテインメントコンテンツ専門チャネル「ファイバーティービー」がある。   For example, according to the “Fiber TI Internet” <URL: http://www.pointage.ne.jp/fibertv.html>) 2003.8.25 search, video content such as movies, music, animation, sports, variety, etc. Entertainment content channel “Fibre TB” that delivers on-demand.

この「ファイバーティービー」は、会員制有料サービスで、会員登録した利用者は家庭内テレビにセットトップボックス(STB)をつないで、インターネットや電力系CATV経由で受信したコンテンツを視聴する。利用者のインセンティブとして、広告や有料番組を見れば「ビュー」と呼ばれるポイントを獲得する。この獲得ポイントをためれば、有料コンテンツを無料視聴できるといった特典を享受できる仕組みとなっている。   This “fiber tee-by” is a membership-based pay service, and a user who has registered as a member connects a home TV with a set-top box (STB) to view content received via the Internet or a power system CATV. As an incentive for users, points called “views” are earned if advertisements or paid programs are viewed. If you earn this earned point, you can enjoy the privilege that you can watch paid content for free.

インセンティブの例としては、有料コンテンツの無料視聴クーポン、あるいは後日商品と交換したり、衛星放送やCATVサービスの月額利用料支払いに充当したりすることが可能なポイントとする方法が考えられる。また、定期的な抽選によるプレゼント進呈、キャッシュバックであってもかまわない。こうした利用者へのインセンティブが威力を発揮し、後述する「テレビ番組/コンテンツの視聴質フィードバックサービス」、「独居高齢者/単身世帯主の自動安否確認サービス」のビジネスモデルが成立する。   As an example of the incentive, there can be considered a method of making a point that can be exchanged for a free viewing coupon for paid content or a product for a later date, or used for payment of a monthly usage fee for satellite broadcasting or CATV service. It may also be presents by regular lottery or cash back. Such incentives for users are effective, and the business models of “TV program / content audience quality feedback service” and “automatic safety confirmation service for elderly living alone / single householder”, which will be described later, are established.

図1は、本発明によるコンテンツに対する視聴者反応情報の収集システムの一般的な構成例を説明する図である。   FIG. 1 is a diagram for explaining a general configuration example of a system for collecting audience reaction information for content according to the present invention.

図中、10はコンテンツ提供装置、11はコンテンツサーバ、12はコンテンツメタデータDBサーバ、20はユーザ端末、21はセンシング装置、30は推定蓄積装置、41は視聴質DBサーバ、42はユーザDBサーバ、43は課金決済サーバである。50は通信網であって、コンテンツ提供装置10、コンテンツサーバ11、コンテンツメタデータDBサーバ12、ユーザ端末20、センシング装置21、推定蓄積装置30、視聴質DBサーバ41、ユーザDBサーバ42、課金決済サーバ43を相互に接続するものである。通信網50の実現手段は、有線、無線を問わない。   In the figure, 10 is a content providing device, 11 is a content server, 12 is a content metadata DB server, 20 is a user terminal, 21 is a sensing device, 30 is an estimation storage device, 41 is an audience quality DB server, and 42 is a user DB server. 43 are billing settlement servers. A communication network 50 includes a content providing device 10, a content server 11, a content metadata DB server 12, a user terminal 20, a sensing device 21, an estimation storage device 30, an audience quality DB server 41, a user DB server 42, and a billing settlement. Servers 43 are connected to each other. The means for realizing the communication network 50 may be wired or wireless.

図2および図3は、本発明によるコンテンツに対する視聴者反応情報の収集システムの代表的な動作例を説明するブロック図である。   2 and 3 are block diagrams illustrating a typical operation example of the system for collecting viewer response information on content according to the present invention.

両者の差異は、コンテンツの視聴データとコンテンツに対する視聴者反応のセンシングデータおよび認識データとの時刻同期をユーザ端末20でとるか、推定蓄積装置30でとるかの違いである。すなわち、図2が前記時刻同期をユーザ端末20側でとる場合に相当し、図3が前記時刻同期を推定蓄積装置30側でとる場合に相当する。   The difference between the two is whether the time synchronization between the content viewing data and the sensing data and recognition data of the viewer response to the content is taken by the user terminal 20 or the estimation storage device 30. That is, FIG. 2 corresponds to the case where the time synchronization is taken on the user terminal 20 side, and FIG. 3 corresponds to the case where the time synchronization is taken on the estimation storage device 30 side.

図4および図5は、本発明におけるコンテンツ提供装置10、ユーザ端末20、センシング装置21、推定蓄積装置30の動作を説明する処理フロー図である。ここで、図4が前記時刻同期をユーザ端末20側でとる場合に相当し、図5が前記時刻同期を推定蓄積装置30側でとる場合に相当する。   4 and 5 are process flow diagrams for explaining the operations of the content providing device 10, the user terminal 20, the sensing device 21, and the estimation storage device 30 according to the present invention. Here, FIG. 4 corresponds to the case where the time synchronization is taken on the user terminal 20 side, and FIG. 5 corresponds to the case where the time synchronization is taken on the estimation storage device 30 side.

当然ながら、後述する2つのサービス応用例「テレビ番組/コンテンツの視聴質フィードバックサービス」、「独居高齢者/単身世帯主の自動安否確認サービス」にかかわらず、本発明の基本的な処理フローは共通となっている。   Naturally, the basic processing flow of the present invention is common regardless of the two service application examples described below, “TV program / content audience quality feedback service” and “automatic safety confirmation service for single elderly / single householder”. It has become.

図2および図3において、コンテンツ提供装置10は、コンテンツ格納部101、コンテンツリスト生成部102、コンテンツリスト送信部103、リクエスト受信部104、コンテンツ選択部105、コンテンツ送信部106、コンテンツメタデータ生成部107、コンテンツメタデータ送信部108から構成される。   2 and 3, the content providing apparatus 10 includes a content storage unit 101, a content list generation unit 102, a content list transmission unit 103, a request reception unit 104, a content selection unit 105, a content transmission unit 106, and a content metadata generation unit. 107, a content metadata transmission unit 108.

ユーザ端末20は、コンテンツリスト受信部2001、コンテンツリスト表示部2002、リクエスト送信部2003、コンテンツ受信部2004、コンテンツ記録部2005、コンテンツ再生部2006、画面表示部2007、コンテンツメタデータ受信部2008、コンテンツメタデータ格納部2009、認識データ受信部2010、データ統合部2011、入力部2012、画面操作履歴格納部2013、統合データ送信部2014から構成される。   The user terminal 20 includes a content list reception unit 2001, a content list display unit 2002, a request transmission unit 2003, a content reception unit 2004, a content recording unit 2005, a content reproduction unit 2006, a screen display unit 2007, a content metadata reception unit 2008, a content A metadata storage unit 2009, a recognition data receiving unit 2010, a data integration unit 2011, an input unit 2012, a screen operation history storage unit 2013, and an integrated data transmission unit 2014 are configured.

ここで、図3では、認識データ受信部2010、データ統合部2011および統合データ送信部2014がなく、その代わりに、視聴データ加工部2015および視聴データ送信部2016が追加されている。   Here, in FIG. 3, the recognition data receiving unit 2010, the data integration unit 2011, and the integrated data transmission unit 2014 are not provided, and a viewing data processing unit 2015 and a viewing data transmission unit 2016 are added instead.

コンテンツ提供装置10において、コンテンツサーバ11から取り出された利用可能な全コンテンツは一旦コンテンツ格納部101に保存される。コンテンツリスト生成部102で、サービス利用者ごとに視聴可能な映像コンテンツを識別し、コンテンツリストを作成する。当該コンテンツリストがコンテンツリスト送信部103を通じて、ユーザ端末20に送信される。   In the content providing apparatus 10, all usable contents extracted from the content server 11 are temporarily stored in the content storage unit 101. The content list generator 102 identifies video content that can be viewed for each service user, and creates a content list. The content list is transmitted to the user terminal 20 through the content list transmission unit 103.

これを受けて、ユーザ端末20において、コンテンツリスト受信部2001が前記コンテンツリストを受信し、コンテンツリスト表示部2002で端末画面に表示される。前記サービス利用者がコンテンツリスト画面を見ながら、特定のコンテンツを選択すると、そのコンテンツに対応するメタデータ(以降、コンテンツメタデータとよぶ)からリクエストコンテンツの所在、すなわちコンテンツURLが抽出される。リクエスト送信部2003は、前記リクエストコンテンツのURLを解析し、コンテンツIDなどコンテンツ取得に必要な情報をコンテンツ提供装置10に送信する。   In response, in the user terminal 20, the content list receiving unit 2001 receives the content list, and the content list display unit 2002 displays the content list on the terminal screen. When the service user selects a specific content while looking at the content list screen, the location of the requested content, that is, the content URL is extracted from the metadata corresponding to the content (hereinafter referred to as content metadata). The request transmission unit 2003 analyzes the URL of the request content and transmits information necessary for content acquisition, such as a content ID, to the content providing apparatus 10.

これを受けて、コンテンツ提供装置10において、リクエスト受信部104はユーザ端末20からのコンテンツリクエスト情報を受信し、コンテンツ選択部105に送る。コンテンツ選択部105は前記リクエストコンテンツをコンテンツ格納部101から呼び出し、コンテンツ送信部106が前記リクエストコンテンツの送信準備を行う。   In response to this, in the content providing apparatus 10, the request reception unit 104 receives the content request information from the user terminal 20 and sends it to the content selection unit 105. The content selection unit 105 calls the request content from the content storage unit 101, and the content transmission unit 106 prepares for transmission of the request content.

それと同時に、コンテンツメタデータ生成部107によって、前記リクエストコンテンツのメタデータが、タイトル、サブタイトル、制作者、著作権者、放送時間/再生時間、ジャンル、出演者名、(コンテンツURL)などを格納したコンテンツメタデータDBサーバ12から自動作成され、前記リクエストコンテンツのメタデータがコンテンツメタデータ送信部108に渡される。   At the same time, the content metadata generation unit 107 stores the request content metadata such as title, subtitle, producer, copyright holder, broadcast time / playback time, genre, performer name, (content URL), and the like. It is automatically created from the content metadata DB server 12, and the metadata of the requested content is passed to the content metadata transmission unit 108.

続いて、コンテンツ送信部106、コンテンツメタデータ送信部108によって、前記リクエストコンテンツおよびそのコンテンツメタデータ情報がユーザ端末20に送信される。   Subsequently, the request content and the content metadata information thereof are transmitted to the user terminal 20 by the content transmission unit 106 and the content metadata transmission unit 108.

これを受けて、ユーザ端末20において、前記リクエストコンテンツはコンテンツ受信部2004によって受信され、再生のためコンテンツ記録部2005に一時的に記録される。その後、コンテンツ再生部2006によって前記サービス利用者のリクエストしたコンテンツが画面上で再生される。   In response to this, in the user terminal 20, the request content is received by the content receiving unit 2004 and temporarily recorded in the content recording unit 2005 for reproduction. Thereafter, the content requested by the service user is reproduced on the screen by the content reproduction unit 2006.

一方、前記リクエストコンテンツとともに送信された前記リクエストコンテンツのメタデータは、コンテンツメタデータ受信部2008によって受信され、当該メタデータ情報はコンテンツメタデータ格納部2009に格納される。タイトル、制作者、時間などの前記コンテンツメタデータ情報の一部は画面表示部2007に送られ、端末画面に表示される。   On the other hand, the metadata of the request content transmitted together with the request content is received by the content metadata receiving unit 2008, and the metadata information is stored in the content metadata storage unit 2009. Part of the content metadata information such as the title, creator, and time is sent to the screen display unit 2007 and displayed on the terminal screen.

図2および図3において、センシング装置21は、センシング部2101、認識部2102、認識データ送信部2103から構成される。   2 and 3, the sensing device 21 includes a sensing unit 2101, a recognition unit 2102, and a recognition data transmission unit 2103.

本発明では、赤外線ビデオカメラ、頭部モーションセンサ、マイク、RF−IDタグ/リーダといった非侵襲型センサを用いて、視聴時における人物の表情、視線パターン(注視方向)、目の瞳孔直径、瞬き、顔部の向き、笑い声、体温、心拍数、利用者識別IDなどの情報をセンシングし、収集する。   In the present invention, using a noninvasive sensor such as an infrared video camera, a head motion sensor, a microphone, or an RF-ID tag / reader, the facial expression of the person at the time of viewing, the line-of-sight pattern (gaze direction), the pupil diameter of the eye, and blinking Sensing and collecting information such as face orientation, laughter, body temperature, heart rate, and user identification ID.

ビデオカメラを用いた人物の表情認識に関しては、抽出された入力画像(静止画)の特徴ベクトルを喜怒哀楽などのカテゴリ別に量子化し、各カテゴリの表情を高精度に認識する手段について、例えば、特許2839855 号公報に、「顔の表情認識装置」が記載、開示されている。また、不特定多数の人物の顔動画像から、その表情を認識する手段については、例えば、特許2962549 号公報に、「顔動画像からの表情認識方法」が記載、開示されている。   As for facial expression recognition of a person using a video camera, a means for quantizing the feature vector of the extracted input image (still image) for each category such as emotions and recognizing the facial expression of each category with high accuracy, for example, Japanese Patent No. 2839855 discloses and discloses a “facial expression recognition device”. As a means for recognizing facial expressions from facial moving images of a large number of unspecified persons, for example, Japanese Patent No. 2962549 describes and discloses a “expression recognition method from facial moving images”.

また、赤外線ビデオカメラを用いた注視方向、片目の瞳孔直径の測定に関しては、利用者になるべく負担をかけずに、かつ、特別な器具を装着することなく注視方向を測定可能とする手段について、例えば、特開2003-079577 に、「視線測定装置及びその方法と、視線測定プログラム及びそのプログラムを記録した記録媒体」が記載、開示されている。   In addition, with regard to the gaze direction using an infrared video camera and the measurement of the pupil diameter of one eye, with regard to means for enabling the gaze direction to be measured without burdening the user as much as possible and without wearing a special instrument, For example, Japanese Patent Laid-Open No. 2003-079577 describes and discloses “line-of-sight measurement device and method, line-of-sight measurement program and recording medium recording the program”.

また、マイクを用いた笑い声の検知に関しては、笑い声区間を自動的に、しかも少ない演算量とメモリサイズで抽出することができる音声処理装置と、動画像から笑い動作区間を自動的に抽出する手段とについて、例えば、特開2002-006874 に、「音声処理装置、動画像処理装置、音声・動画像処理装置及び音声・動画像処理プログラムを記録した記録媒体」が記載、開示されている。   For detecting laughter using a microphone, a voice processing device that can automatically extract a laughter section with a small amount of computation and a memory size, and means for automatically extracting a laughter section from a moving image For example, Japanese Patent Laid-Open No. 2002-006874 describes and discloses “a sound processing device, a moving image processing device, a sound / moving image processing device, and a recording medium on which a sound / moving image processing program is recorded”.

また、顔の向きは、市販の3Dモーションセンサ、例えばMDP−A309(NECトーキン製)などを頭部に装着すれば、容易にセンシングできる。体温は市販の体温計を用いて、心拍数は、市販の心拍計を胸部に装着して測定する。あるいは、市販の脈拍センサ(例えばパソリカTP−HB4)を耳たぶに装着して測定した脈拍数で代用してもよい。利用者識別IDは、市販のRF−IDタグとリーダとを用いて取得すればよい。   Further, the orientation of the face can be easily sensed by attaching a commercially available 3D motion sensor such as MDP-A309 (manufactured by NEC TOKIN) to the head. The body temperature is measured using a commercially available thermometer, and the heart rate is measured by wearing a commercially available heart rate monitor on the chest. Or you may substitute with the pulse rate measured by mounting | wearing a earlobe with a commercially available pulse sensor (for example, Pasorica TP-HB4). The user identification ID may be obtained using a commercially available RF-ID tag and a reader.

認識部2102は、前記特許文献に記載される手段などを用いて、視聴時における人物の顔に表れる表情、視線パターン(注視方向)、目の瞳孔直径、瞬き、笑い声を認識する。このようにして取得されたセンシングデータおよび認識データは、認識データ送信部2103によって、図2の構成に従う場合には、センシング装置21からユーザ端末20に送信される。   The recognizing unit 2102 recognizes facial expressions, gaze patterns (gaze direction), pupil diameter of eyes, blinks, and laughter that appear on a person's face during viewing using the means described in the above-mentioned patent document. The sensing data and the recognition data acquired in this way are transmitted from the sensing device 21 to the user terminal 20 by the recognition data transmission unit 2103 when the configuration shown in FIG.

これを受けて、ユーザ端末20において、前記センシングデータおよび認識データは、認識データ受信部2010によって受信され、データ統合部2011に送られる。   In response, in the user terminal 20, the sensing data and recognition data are received by the recognition data receiving unit 2010 and sent to the data integration unit 2011.

このデータ統合部2011は、時間同期をとることにより、当該センシングデータおよび認識データと、画面操作履歴格納部2013に保存されているサービス利用者の画面操作履歴データと、コンテンツメタデータ格納部2009に格納されているコンテンツメタデータとを、前記リクエストコンテンツについての統合データ(視聴と認識についての統合データ)として統合する。なお、前述の画面操作履歴データについては、入力部2012を通じてサービス利用者が入力した画面操作の全履歴が格納されている。   The data integration unit 2011 synchronizes the sensing data and the recognition data, the service user screen operation history data stored in the screen operation history storage unit 2013, and the content metadata storage unit 2009. The stored content metadata is integrated as integrated data for the requested content (integrated data for viewing and recognition). Note that the screen operation history data described above stores the entire screen operation history input by the service user through the input unit 2012.

ここで、データ統合部2011は、入力部2012がユーザの入力する心理状態の情報やコンテンツ評価の情報を受け取る場合には、それらのデータについても統合することになる。   Here, when the input unit 2012 receives psychological state information and content evaluation information input by the user, the data integration unit 2011 also integrates the data.

このとき生成される統合データは、サービス利用者の画面操作履歴データに従って、どういうコンテンツがどのような形態(例えば、チャネルが頻繁に切り替えられた中で選択されていたというような形態)で選択されて視聴されたのかを示すとともに、センシングデータおよび認識データに従って、そのとき視聴者がどのような反応を示したのかについて示すことになる。   The integrated data generated at this time is selected according to the screen operation history data of the service user and what content is selected in what form (for example, the form in which the channel was frequently switched). It is shown how the viewer responded at that time according to the sensing data and the recognition data.

最終的に時間同期のとれた統合データは、図2の構成に従う場合には、統合データ送信部2014によって、ある一定周期で推定蓄積装置30に送信される。   The integrated data finally synchronized in time is transmitted to the estimation storage device 30 by the integrated data transmission unit 2014 at a certain period when the configuration shown in FIG. 2 is followed.

図2において、推定蓄積装置30は、統合データ受信部301、視聴質推定生成部302、視聴質データ格納部303、視聴質データ送信部304、視聴メタデータ加工部305、視聴メタデータ更新部306、視聴メタデータ格納部307、視聴メタデータ送信部308から構成される。   In FIG. 2, the estimation storage device 30 includes an integrated data reception unit 301, an audience quality estimation generation unit 302, an audience quality data storage unit 303, an audience quality data transmission unit 304, an audience metadata processing unit 305, and an audience metadata update unit 306. A viewing metadata storage unit 307 and a viewing metadata transmission unit 308.

ここで、図3では、統合データ受信部301が備えられないとともに、前記302〜308の他に、視聴データ受信部310、認識データ受信部311およびデータ統合部312が追加されている。   Here, in FIG. 3, the integrated data receiving unit 301 is not provided, and the viewing data receiving unit 310, the recognition data receiving unit 311, and the data integrating unit 312 are added in addition to the above 302 to 308.

図2あるいは図4においては、前記リクエストコンテンツの統合データは、推定蓄積装置30の統合データ受信部301によって受信され、視聴質推定生成部302では後述する視聴質データを推定し、生成する。   In FIG. 2 or 4, the integrated data of the request content is received by the integrated data receiving unit 301 of the estimation storage device 30, and the audience quality estimation generating unit 302 estimates and generates audience quality data described later.

一方、図3あるいは図5においては、推定蓄積装置30の認識データ受信部311が、センシング装置21から送信された視聴者反応のセンシングデータおよび認識データを受信し、推定蓄積装置30の視聴データ受信部310が、ユーザ端末20から送信された主としてコンテンツメタデータやコンテンツ視聴時間、利用者の画面操作履歴データを加工した視聴データを受信する。   On the other hand, in FIG. 3 or FIG. 5, the recognition data receiving unit 311 of the estimation storage device 30 receives the viewer response sensing data and recognition data transmitted from the sensing device 21, and receives the viewing data reception of the estimation storage device 30. The unit 310 receives the viewing data obtained by processing the content metadata, the content viewing time, and the user's screen operation history data transmitted from the user terminal 20.

そして、推定蓄積装置30のデータ統合部312は、一定周期で、前記リクエストコンテンツに対する前記視聴者反応のセンシングデータおよび認識データと前記視聴データとを時間同期をとって統合し、それらを視聴質推定生成部302に渡す。視聴質推定生成部302では後述する視聴質データを推定し、生成する。   Then, the data integration unit 312 of the estimation storage apparatus 30 integrates the sensing data and the recognition data of the viewer response to the request content and the viewing data in a time-synchronized manner, and estimates the audience quality. The data is passed to the generation unit 302. Audience quality estimation generation section 302 estimates and generates audience quality data described later.

本発明における視聴質データは、(1)視聴コンテンツに対する実視聴時間、(2)注目度の時間遷移、(3)シーンごとの感情や視聴後の気分を指す。   Audience quality data in the present invention refers to (1) actual viewing time for viewing content, (2) time transition of attention, (3) emotion for each scene and mood after viewing.

これらの視聴質データの推定処理の具体的な処理手順について、図6に基づいて説明する。   A specific processing procedure of the audience quality data estimation processing will be described with reference to FIG.

(1)に関しては、前記センシングデータおよび認識データに含まれる顔部の向き、あるいは視線位置、あるいは両方が所定の範囲内にあるかを判定し、その結果に基づく2値の時系列データをそれぞれ生成して、それに基づいて視聴コンテンツに対する実視聴時間を算出する。   Regarding (1), it is determined whether the face direction or the line-of-sight position, or both, included in the sensing data and the recognition data are within a predetermined range, and binary time-series data based on the results are respectively determined. Based on this, the actual viewing time for the viewing content is calculated.

例えば、コンテンツを再生している表示機器の画面範囲内に視線位置がある時間を視聴コンテンツに対する実視聴時間とした場合、表示機器の画面範囲を前記所定の範囲とし、その範囲内にあると判定された時間を計数することにより、視聴コンテンツに対する実視聴時間を算出することができる。   For example, when the time when the line-of-sight position is within the screen range of the display device that is reproducing the content is set as the actual viewing time for the viewing content, the screen range of the display device is determined as the predetermined range and determined to be within that range The actual viewing time for the viewing content can be calculated by counting the time spent.

このようにして算出される視聴コンテンツに対する実視聴時間は視聴の質を示すものであり、有効な視聴質データの1つである。   The actual viewing time for the viewing content calculated in this way indicates viewing quality, and is one of effective viewing quality data.

(2)に関しては、図6の処理601に示すように、時刻tにおける注目度y(t)を、時刻tにおけるn種類の視聴者の反応データxi (t) と、n個の重み係数ai と、時刻t−1の注目度y(t−1)と、1個の比例係数bとを用いて、
y(t)=a1 1 (t) +a2 2 (t) +・・+an n (t) +by(t−1)
というように重み付き線形和で近似的に表し、当該注目度y(t)の値の時系列データを生成する。ただし、初期時刻における注目度の初期値y(0)は0と定義する。
Regarding (2), as shown in the process 601 in FIG. 6, the attention level y (t) at time t is determined from the reaction data x i (t) of n types of viewers at time t and n weighting factors. Using a i , attention level y (t−1) at time t−1, and one proportional coefficient b,
y (t) = a 1 x 1 (t) + a 2 x 2 (t) + ·· + a n x n (t) + by (t-1)
As described above, it is expressed approximately by a weighted linear sum, and time series data of the value of the degree of attention y (t) is generated. However, the initial value y (0) of the attention level at the initial time is defined as 0.

ここで、視聴者の反応データxi (t) は、あらかじめ収集したサンプル母集団の最小値と最大値、あるいは標本平均と標本分散の値を用いて、所定の範囲内の数値となるように正規化処理を行う。 Here, the viewer's reaction data x i (t) is set to a numerical value within a predetermined range by using the minimum and maximum values of the sample population collected in advance or the sample mean and sample variance values. Perform normalization.

視聴者の反応データxi (t) とは、統合データの元となったデータから選択されるものであって、視聴者反応のセンシングデータおよび認識データの中から設定されたり、視聴者の画面操作履歴データに基づいて設定されることになる。 The viewer response data x i (t) is selected from the data that is the source of the integrated data, and is set from the sensing data and the recognition data of the viewer response, or the viewer's screen It is set based on the operation history data.

例えば、x1 (t) として片目の瞳孔直径を設定し、x2 (t) として心拍数を設定し、x3 (t) として画面操作(TVリモコン操作)の頻度を設定する。この場合、瞳孔が広がったり、心拍数が増えるのはコンテンツを注視している生理的現象と考えられるので、a1,2 に正の重み係数をセットし、一方、頻繁にTVリモコンを操作して視聴コンテンツを切り替える現象はコンテンツに注目してないと考えられるので、a3 に負の重み係数をセットすることで、視聴者が注目している程大きな値を示す注目度y(t)を定義できることになる。 For example, to set the pupil diameter of the eye as x 1 (t), to set the heart rate as x 2 (t), sets the frequency of x 3 (t) as a screen operation (TV remote control). In this case, or spread the pupil, since the heart rate increases is considered physiological phenomena gazing at the content, sets a positive weighting factor a 1, a 2, whereas, frequently operate the TV remote control Therefore, the phenomenon of switching the viewing content is considered not to pay attention to the content. Therefore, by setting a negative weighting factor to a 3 , the degree of attention y (t) indicating a larger value as the viewer is paying attention Can be defined.

このようにして算出される注目度の時間遷移は視聴の質を示すものであり、有効な視聴質データの1つである。   The temporal transition of the attention level calculated in this way indicates viewing quality, and is one of effective audience quality data.

(3)に関しては、図6の処理602〜処理605に示すように、まず、ある時間区間における表情の発生頻度が最大のものをその時間範囲の感情として「喜」、「怒」、「哀」の3値でコード化する。コード化された感情の時系列データを、それぞれの時間区間をシーンと対応づけることによって、シーンごとの感情とする。   With regard to (3), as shown in processing 602 to processing 605 in FIG. 6, first, those having the highest facial expression frequency in a certain time interval are expressed as “joy”, “anger”, “sorrow” as emotions in that time range. ". The time series data of the encoded emotion is used as an emotion for each scene by associating each time interval with the scene.

次に、感情の時系列データを用いてコンテンツに対する気分を決定したり、コンテンツの視聴前後での気分の変化を決定する。気分の値は持続時間が最大の感情の値に対し、当該持続時間が所定の閾値を超えるか否かで「快」、「不快」、「不定」の3値にコード化する。例えば、持続時間が最大の感情の値が「喜」あるいは「哀」、かつ所定の閾値を超える場合は気分を「快」とし、持続時間が最大の感情の値が「怒」、かつ所定の閾値を超える場合は、気分を「不快」とし、それ以外は「不定」とする。   Next, the mood for the content is determined using emotion time-series data, or the mood change before and after viewing the content is determined. The mood value is coded into three values of “pleasant”, “unpleasant”, and “indefinite” depending on whether the duration exceeds a predetermined threshold with respect to the emotion value having the maximum duration. For example, if the emotion value with the longest duration is “joy” or “sorrow” and exceeds a predetermined threshold, the mood is “pleasant”, the emotion value with the maximum duration is “anger”, and If the threshold is exceeded, the mood is “uncomfortable”, otherwise “undefined”.

このようにして推定されたシーンごとの感情やコンテンツに対する気分やコンテンツの視聴前後の気分の変化は視聴の質を示すものであり、有効な視聴質データの1つである。   The emotions and the mood for the content estimated in this way and the change in the mood before and after viewing the content indicate the quality of the viewing and are one of effective audience quality data.

こうして推定された前記リクエストコンテンツについての視聴質データは視聴質データ格納部303に格納され、視聴メタデータ加工部305によってメタデータ流通に適したフォーマットに加工される。前記リクエストコンテンツについて、前記サービス利用者以外のサービス利用者の視聴質データが新しく推定蓄積装置30に送信されてきた場合には、視聴メタデータ更新部306によって追加更新され、視聴メタデータ格納部307に格納されることになる。   The audience quality data for the request content thus estimated is stored in the audience quality data storage unit 303 and processed by the viewing metadata processing unit 305 into a format suitable for metadata distribution. When the audience quality data of a service user other than the service user is newly transmitted to the estimation storage device 30 with respect to the request content, it is additionally updated by the viewing metadata update unit 306, and the viewing metadata storage unit 307 is updated. Will be stored.

図7に、視聴メタデータ加工部305によって加工された視聴メタデータのフォーマットの一例を示す。この例では、視聴メタデータはXMLベースで記述されており、推定蓄積装置30における一元管理やネットワーク上のメタデータ流通との技術的親和性が高いものとなっている。   FIG. 7 shows an example of the format of viewing metadata processed by the viewing metadata processing unit 305. In this example, the viewing metadata is described on an XML basis, and has high technical compatibility with the unified management in the estimation storage device 30 and the metadata distribution on the network.

最後に、視聴質データ送信部304、視聴メタデータ送信部308は、クライアントやブラウザからの視聴質データの送信要求、視聴メタデータの送信要求にそれぞれ応答する。   Finally, the audience quality data transmission unit 304 and the viewing metadata transmission unit 308 respond to an audience quality data transmission request and an audience metadata transmission request from a client or a browser, respectively.

図8に、視聴質データのうちの実視聴時間計測機能の表示画面の一例を図示する。また、図9に、視聴質データのうちの注目度推定機能の表示画面例の一例を図示する。   FIG. 8 illustrates an example of a display screen of the actual viewing time measurement function in the audience quality data. FIG. 9 illustrates an example of a display screen example of the attention level estimation function in audience quality data.

この図9の画面では、視聴コンテンツとそれに対する注目度の時系列データグラフ間の時刻同期がとれていることがポイントである。すなわち、注目度グラフのスライダを動かすことにより、ユーザがコンテンツのどのシーンで注目度が高いかを、一目で把握することを可能としている。   In the screen of FIG. 9, the point is that the time synchronization between the viewing content and the time series data graph of the degree of attention to the viewing content is achieved. That is, by moving the slider of the attention level graph, it is possible for the user to grasp at a glance which scene of the content the attention level is high.

以上の説明では説明しなかったが、視聴者が誰であるのかを識別できる場合には、その識別結果をキーにして個人情報を管理するデータベースにアクセスすることで、視聴者の個人情報を得て、それを視聴質データや視聴メタデータに付加する形で送信するようにしてもよい。このようにすると、どういう視聴者がコンテンツにどのように反応したのかを知ることができるようになる。   Although not explained in the above description, when the viewer can be identified, the personal information of the viewer is obtained by accessing a database that manages personal information using the identification result as a key. Then, it may be transmitted in the form of being added to audience quality data or viewing metadata. In this way, it becomes possible to know what kind of viewers have reacted to the content.

〔I〕本発明にかかる第1の実施形態
次に、本発明にかかる第1の実施形態「テレビ番組/コンテンツの視聴質フィードバックサービス」について説明する。
[I] First Embodiment of the Present Invention Next, a first embodiment “TV program / content audience quality feedback service” according to the present invention will be described.

当該サービスは、従来できていなかったコンテンツの視聴質情報をエンドユーザ側の生の意見としてコンテンツ制作事業者にフィードバックすることにより、良質なコンテンツ制作を実現するビジネスモデルである。   This service is a business model that realizes high-quality content production by feeding back content audience quality information, which has not been possible in the past, to the content producer as a raw opinion on the end user side.

本実施形態において、テレビ番組/コンテンツ制作事業者は、制作番組/コンテンツに対する一般視聴者のリアクションに基づく注目度や心理状態、気分といった視聴質に関するデータを入手できる。その視聴質フィードバックを以降の番組やコンテンツ制作に活かすことで、競合他社との差異化をはかることが可能となる。   In the present embodiment, a television program / content producer can obtain data relating to audience quality such as the degree of attention, psychological state, and mood based on the general viewer's reaction to the produced program / content. The audience quality feedback can be used in subsequent programs and content production to differentiate from competitors.

具体的には、ユーザ端末20側の時間同期および統合処理によって、推定蓄積装置30内で、着目するコンテンツのメタデータ、ならびにセンシング装置21から送信された当該コンテンツの様々な視聴者反応に関するセンシングデータ・認識データが蓄積、一元管理されている。そのため、タイムスタンプを検索キーとして、いつでも当該コンテンツの実視聴時間や注目度の時間遷移といったデータを閲覧したり、さらに所望のシーン別に視聴者リアクションを解析したりすることが実現できる。   Specifically, by the time synchronization and integration processing on the user terminal 20 side, the metadata of the content of interest in the estimation storage device 30 and the sensing data relating to various audience reactions of the content transmitted from the sensing device 21・ Recognition data is stored and centrally managed. Therefore, it is possible to view data such as the actual viewing time of the content and the time transition of the attention level at any time using the time stamp as a search key, and further analyze the viewer reaction for each desired scene.

なお、市販のHDDレコーダやDVDレコーダなどの記録媒体に録画されたテレビ番組であっても、推定蓄積装置30で蓄積されているセンシング装置21から送信された着目コンテンツの様々な視聴者反応のセンシングデータ・認識データのタイムスタンプ、ならびにコンテンツ視聴開始時刻とコンテンツ先頭からの再生時間を合わせれば視聴メタデータの時間同期性が保たれる。よって、当該コンテンツに対する様々な視聴者反応をオフラインで事後解析することが可能となる。   It should be noted that even for a TV program recorded on a recording medium such as a commercially available HDD recorder or DVD recorder, sensing of various viewer responses of the content of interest transmitted from the sensing device 21 stored in the estimation storage device 30 The time synchronism of the viewing metadata can be maintained by combining the time stamp of the data / recognition data and the content viewing start time and the playback time from the top of the content. Therefore, it is possible to perform post-analysis of various viewer responses to the content offline.

さらに、広告主は前記視聴質データに基づいて、広告宣伝の効果を客観的に把握することができる。一方、一般視聴者は、顔画像や話し声(独り言)のデータを提供する対価として、ポイントをためて換金したり、有料コンテンツを無料で視聴したりするメリットを享受できる。   Furthermore, the advertiser can objectively grasp the effect of the advertisement based on the audience quality data. On the other hand, general viewers can enjoy the benefits of earning points and paying for paid content or viewing paid content for free as consideration for providing facial image and speech (single speech) data.

〔II〕本発明にかかる第2の実施形態
次に、本発明にかかる第2の実施形態「独居高齢者/単身世帯主の自動安否確認サービス」について説明する。
[II] Second Embodiment According to the Present Invention Next, a second embodiment “automatic safety confirmation service for single elderly / single householder” according to the present invention will be described.

当該サービスは、通常ほとんどの世帯にテレビが少なくとも1台あることに着目し、テレビ番組の視聴質情報を独居高齢者や単身赴任中の家族の安否情報として提供し、遠隔地に住む家族や親類の安心感、そして一種のつながり感の醸成をねらったビジネスモデルである。   The service focuses on the fact that most households usually have at least one TV, and provides TV program audience quality information as safety information for singles living alone or family members who are living alone. This is a business model that aims to create a sense of security and a sense of connection.

独居高齢者または遠隔地に離れて暮らす単身世帯主を見守るケースにおいて、例えば、後述する遠隔地に離れて暮らす家族の間で使われることを想定して開発されたシステムの端末である「Family Planter」端末がある。この「Family Planter」端末については、特開2003-141052 (「人の存在・状態情報の相互通信端末、人の存在・状態情報の相互通信方法、相互通信プログラムおよびそのプログラムを記録した記録媒体」)に詳しく記載されている。   “Family Planter” is a system terminal developed in the case of being used by elderly people living alone or single-person householders who live remotely in remote areas, for example, among family members who live remotely in remote areas to be described later. "There is a terminal. Regarding this “Family Planter” terminal, Japanese Unexamined Patent Application Publication No. 2003-141052 (“Intercommunication terminal for human presence / state information, mutual communication method for human presence / state information, mutual communication program, and recording medium recording the program” ) Is described in detail.

「Family Planter」端末には、各種センサが組み込まれ、このセンサが検出したセンサ情報は、ネットワークを介して相手端末へ送られる。前記センサ情報を受信した相手端末では、前記受信したセンサ情報に応じて、モータを回転し、また、LEDを発光することによって、センサ情報に対応して表示する。また、「Family Planter」端末には、タッチセンサを備え、その端末に接触すると、この接触に応じて、相手端末で音が発生し、明示的な情報を伝達することができる。   Various sensors are incorporated in the “Family Planter” terminal, and sensor information detected by the sensor is sent to the partner terminal via the network. In the counterpart terminal that has received the sensor information, the motor terminal is rotated according to the received sensor information, and the LED is caused to emit light to display the sensor information. Further, the “Family Planter” terminal is provided with a touch sensor, and when the terminal is touched, sound is generated at the partner terminal in response to the touch, and explicit information can be transmitted.

このように「Family Planter」端末は、利用者の存在・状態情報を、主にセンサによって獲得し、相手端末に送っている。   In this way, the “Family Planter” terminal acquires the presence / state information of the user mainly by the sensor and sends it to the partner terminal.

第2の実施形態では、本発明がこの「Family Planter」端末の機能の一部を代替えするイメージである。以降、単身赴任の家庭を例にとって、詳細に説明する。   In the second embodiment, the present invention is an image replacing a part of the function of the “Family Planter” terminal. In the following, a detailed description will be given by taking a single employee as an example.

第2の実施形態では、基本的な構成として、独居高齢者や単身赴任中の世帯主の家族に対して、テレビ番組の視聴質情報を安否情報として提供することにより、「独居高齢者/単身世帯主の自動安否確認サービス」を実現する。   In the second embodiment, as a basic configuration, by providing television program audience quality information as safety information to a single person living alone or a family head of a single householder, a single person living alone / single person Realize “Automatic safety confirmation service for householders”.

さらに、第2の実施形態では、この基本的な構成に加えて、以下に説明するような処理を行うことができるようになることで、より確実な「独居高齢者/単身世帯主の自動安否確認サービス」を実現することができるようになる。   Furthermore, in the second embodiment, in addition to this basic configuration, the processing as described below can be performed, so that more reliable “automatic safety of single elderly / single householder” Confirmation service "can be realized.

単身赴任先の家に世帯主(利用者)が帰ると、その部屋に設置されているRF−IDリーダ端末がRF−IDタグによって当該世帯主を検知し、帰宅のメッセージが遠く離れた自宅の端末に送られ、画面に表示される。サービス利用者の家族がこの表示に気づくことによって、相手の存在を感じることができ、つながり感を醸成することが期待される。また、テレビの電源を入れることによって、利用者の存在感も離れて暮らす家族に伝えることができる。   When the head of the household (user) returns to the home of the single person, the RF-ID reader terminal installed in the room detects the head of the household using the RF-ID tag, and the message of returning home is far away. It is sent to the terminal and displayed on the screen. It is expected that the service user's family will be able to feel the presence of the other party by noticing this display and foster a sense of connection. In addition, by turning on the TV, it is possible to convey the presence of the user to the family living away.

なお、サービス利用者が、通信綱50を介して、ユーザ端末20に接続することを望む場合、サービス利用者側の端末で利用可能な存在・状態情報の種類を、ユーザ端末20から獲得する。このときに、利用者の認証が行われる。   When the service user desires to connect to the user terminal 20 via the communication line 50, the type of presence / state information that can be used at the terminal on the service user side is acquired from the user terminal 20. At this time, user authentication is performed.

この利用者の認証によって、接続要求を出した利用者と接続を要求された利用者との間における社会的な親密度に応じて、利用することができる存在・状態情報を変えることができる。このように、社会的な親密度に応じて、利用することができる存在・状態情報を変えることによって、存在・状態情報の送信におけるプライバシの問題をある程度、解決することもできる。   By this user authentication, the presence / state information that can be used can be changed according to the social familiarity between the user who issued the connection request and the user who is requested to connect. In this way, the privacy problem in the transmission of the presence / state information can be solved to some extent by changing the presence / state information that can be used according to the social familiarity.

例えば、遠隔地に住む家族であれば、赤外線・超音波センサ、カメラ、マイク、全ての存在・状態情報を利用することができるとする。一方、地方自治体による独居高齢者の介護サービスなど、仕事上でのみ関係する利用者に対しては、RF−IDタグや赤外線センサから得られる存在・状態情報のみを利用することができるなど、存在・状態情報を選択的に提供してもよい。   For example, it is assumed that a family living in a remote place can use infrared / ultrasonic sensors, cameras, microphones, and all presence / state information. On the other hand, for users who are concerned only at work, such as nursing care services for elderly people living alone by local governments, there is only the presence / state information obtained from RF-ID tags and infrared sensors. -Status information may be selectively provided.

次に、離れて暮らす人、家族の存在・状態情報の表現形式の例について説明する。   Next, an example of an expression format for information on the presence / state information of a person who lives away from the family will be described.

利用者が何らかのアクションをおこしたり、利用者の存在・状態に何らかの変化がおきたりすると、前記アクション、前記変化を時系列イベントとして記録し、推定蓄積装置30に格納する。これらのイベント群によって、人の存在・状態情報を表現する。   When the user takes some action or changes in the presence / state of the user, the action and the change are recorded as a time series event and stored in the estimation storage device 30. The presence / state information of a person is expressed by these event groups.

また、遠隔地にいる相手の状態、安否を知らせる表現形式として、テキスト文字以外に、例えば「色」や「音」によって表現することも可能である。   In addition to text characters, for example, “color” or “sound” can be used as an expression format for notifying the state and safety of the remote party.

例えば、「色」を使った簡単な例は、センシング装置21に3種類のセンサが存在し、かつ利用可能であれば、これらのセンサの出力信号をそれぞれ、色の3要素:赤(Red)、緑(Green)、青(Blue)の値にAD変換し提示する例が考えられる。   For example, in a simple example using “color”, if there are three types of sensors in the sensing device 21 and they are available, the output signals of these sensors are respectively expressed as three elements of color: red (Red). An example of AD and conversion to green, blue, and blue values is possible.

一方、「音」を使った簡単な例は、あらかじめ登録した電話番号(自宅)へ自動発信し、呼び出し音を3回だけ鳴らしたり、遠く離れた家族のPC画面にあらかじめ登録したWAVファイルを自動再生したりすることができる。   On the other hand, a simple example using "sound" is to automatically call a pre-registered phone number (home) and make a ringing tone only three times, or automatically download a WAV file registered in advance on a PC screen of a distant family Or play it.

このようにして、本発明にかかる第2の実施形態「独居高齢者/単身世帯主の自動安否確認サービス」によれば、テレビ番組(コンテンツ)制作事業者は、制作番組(コンテンツ)に対する一般視聴者のリアクションに基づく注目度や心理状態、気分といった視聴質に関するデータを入手できる。そして、その視聴質フィードバックを以降の番組(コンテンツ)制作に活かすことで、競合他社との差異化をはかることが可能となる。   In this way, according to the second embodiment “automatic safety confirmation service for the elderly living alone / single householder” according to the present invention, the TV program (content) producer can view the produced program (content) in general. Data related to audience quality such as attention, psychological state, and mood based on the person's reaction. Then, the audience quality feedback can be used for subsequent program (content) production to differentiate from competitors.

これに加えて、独居高齢者や単身世帯の家族・親類は、前記視聴質データに基づいて、前記独居高齢者や単身赴任中の家族の安否を確認対象の本人に意識させることなく確認できるので、ネットワークによるさりげない見守りが実現できる。一方、独居高齢者/単身世帯主は、顔画像や話し声(独り言)のデータを提供する対価として、ポイントをためて換金したり、有料コンテンツを無料で視聴したりするメリットを享受できる。   In addition to this, the elderly living alone or a family member / relative of a single household can check the safety of the elderly living alone or a family who is currently on their own without being aware of the person to be confirmed based on the audience quality data. A casual watch over the network can be realized. On the other hand, the elderly living alone / single-person householder can enjoy the benefits of collecting points or paying for viewing paid content free of charge for providing facial images and spoken voice (single speech) data.

以上説明したように、本発明のコンテンツに対する視聴者反応情報の収集システムは、3Dモーションセンサによる顔の向き、赤外線ビデオカメラによる人の視線パターン、瞳孔直径、顔に表れる表情、笑い声といったマルチモーダルの情報を統合することで、視聴者自身による記入やWeb上での回答といった作業負荷を軽減し、通常の視聴形態における視聴質データの自動集計を実現する。それと同時に、RF−IDタグ読み取りによる視聴者個人の特定をも高速かつ容易に実現できる、などの効果が期待できる。   As described above, the viewer response information collection system for content according to the present invention is a multimodal system such as face orientation by 3D motion sensor, human eye gaze pattern by infrared video camera, pupil diameter, facial expression, laughter. By integrating the information, the workload such as entry by the viewer himself / herself and answering on the web is reduced, and automatic audience quality data in the normal viewing mode is realized. At the same time, it can be expected that an individual viewer can be identified quickly and easily by reading the RF-ID tag.

また、ユーザ端末20や推定蓄積装置30での時間同期および統合処理によって、推定蓄積装置30内で、着目するコンテンツのメタデータ、ならびにセンシング装置21から送信された当該コンテンツに対しての様々な視聴者反応に関するセンシングデータ・認識データが視聴メタデータ情報として蓄積、一元管理されている。したがって、タイムスタンプを検索キーとして、いつでも所望のシーン別に視聴者リアクションを解析したりすることができる。   In addition, by the time synchronization and integration processing in the user terminal 20 and the estimation storage device 30, various viewing of the metadata of the content of interest and the content transmitted from the sensing device 21 in the estimation storage device 30. Sensing data / recognition data related to person reactions are accumulated and managed as viewing metadata information. Therefore, it is possible to analyze the viewer reaction for each desired scene at any time using the time stamp as a search key.

さらに、HDDやDVDなどの記録媒体に録画されたテレビ番組であっても、推定蓄積装置30側の時間同期および統合処理によって、センシング装置21から送信された着目コンテンツの様々な視聴者反応に関するセンシングデータ・認識データにはタイムスタンプが付与されている。ゆえに、前記タイムスタンプとコンテンツ視聴開始時刻・コンテンツ先頭からの再生時間とをつき合わせることによって、着目コンテンツに対する様々な視聴者反応を事後解析することが可能となる。   Furthermore, even for a TV program recorded on a recording medium such as an HDD or a DVD, sensing of various viewer responses of the content of interest transmitted from the sensing device 21 by time synchronization and integration processing on the estimation storage device 30 side. The data / recognition data is given a time stamp. Therefore, by combining the time stamp with the content viewing start time and the playback time from the top of the content, it becomes possible to perform post-analysis of various viewer responses to the content of interest.

そして、本発明を視聴質フィードバックサービスに応用すれば、テレビ番組/コンテンツ制作事業者は視聴質情報を活かした番組/コンテンツ制作を行うことができ、自社の収益強化につながる。   If the present invention is applied to an audience quality feedback service, a television program / content producer can produce programs / contents utilizing audience quality information, which leads to an increase in profits of the company.

そして、本発明を遠隔居住者の自動安否確認サービスに応用すれば、視聴質情報の取得を通じて、限りなく自然な形態で安否を確認したり、前記居住者本人に意識させることなく見守ったりすることが可能となる。つまりネットワークを介して、人の存在や元気に暮らしている、健康であるといった状態という非明示的な情報を、相手先に意識させることなく、生活環境に溶け込んだ形態で、自分の端末と相手端末との間で常時やり取りすることによって安否を確認し、利用者間のつながり感を醸成することができるという効果を奏する。   If the present invention is applied to a remote resident's automatic safety confirmation service, through the acquisition of audience quality information, the safety can be confirmed in an infinitely natural form or watched without the resident himself being conscious. Is possible. In other words, through the network, your terminal and partner in a form that blends into the living environment without making the other party aware of the information such as the presence of people, living well, or being healthy. There is an effect that it is possible to confirm safety by constantly exchanging with the terminal and to foster a sense of connection between users.

本発明のコンテンツに対する視聴者反応情報の収集システムの一般的な構成例を説明する図である。It is a figure explaining the general structural example of the collection system of the audience reaction information with respect to the content of this invention. 本発明のコンテンツに対する視聴者反応情報の収集システムの代表的な動作例を説明するブロック図である。It is a block diagram explaining the typical operation example of the collection system of the audience reaction information with respect to the content of this invention. 本発明のコンテンツに対する視聴者反応情報の収集システムの代表的な動作例を説明するブロック図である。It is a block diagram explaining the typical operation example of the collection system of the audience reaction information with respect to the content of this invention. 本発明におけるコンテンツ提供装置、ユーザ端末、センシング装置、推定蓄積装置の動作を説明する処理フロー図である。It is a processing flowchart explaining operation | movement of the content provision apparatus in this invention, a user terminal, a sensing apparatus, and an estimation storage apparatus. 本発明におけるコンテンツ提供装置、ユーザ端末、センシング装置、推定蓄積装置の動作を説明する処理フロー図である。It is a processing flowchart explaining operation | movement of the content provision apparatus in this invention, a user terminal, a sensing apparatus, and an estimation storage apparatus. 本発明の視聴質推定生成部の動作を説明するブロック図である。It is a block diagram explaining operation | movement of the audience quality estimation production | generation part of this invention. 視聴メタデータ情報の一例を示した図である。It is the figure which showed an example of viewing-and-listening metadata information. 実視聴時間計測機能の表示画面の一例を示した図である。It is the figure which showed an example of the display screen of a real viewing-and-listening time measurement function. 注目度推定機能の表示画面の一例を示した図である。It is the figure which showed an example of the display screen of an attention degree estimation function.

符号の説明Explanation of symbols

10 コンテンツ提供装置
11 コンテンツサーバ
12 コンテンツメタデータDBサーバ
20 ユーザ端末
21 センシング装置
30 推定蓄積装置
41 視聴質DBサーバ
42 ユーザDBサーバ
43 課金決済サーバ
DESCRIPTION OF SYMBOLS 10 Content provision apparatus 11 Content server 12 Content metadata DB server 20 User terminal 21 Sensing apparatus 30 Estimating storage apparatus 41 Audience quality DB server 42 User DB server 43 Charge settlement server

Claims (15)

再生されるコンテンツに対しての視聴者反応の情報を収集する視聴者反応情報収集システムであって、
視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置と、
コンテンツを再生するとともに、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集し、さらに、前記センシング装置から前記視聴者反応データを入手して、その収集した視聴データとその入手した視聴者反応データとを時間同期させて統合するユーザ端末と、
前記ユーザ端末から前記統合データを入手して、その入手した統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する視聴者反応情報提供装置とを備えることを、
特徴とする視聴者反応情報収集システム。
A viewer response information collecting system that collects viewer response information for content to be played back,
Viewer response data indicating the viewer's response to the playback content by collecting one or both of sensing data about the viewer and recognition data about the viewer obtained by performing recognition processing on the viewer. A sensing device that collects
While reproducing the content, collecting viewing data regarding the reproduced content including information on the screen operation history, and further obtaining the viewer response data from the sensing device, and collecting the collected viewing data and the obtained viewer A user terminal that integrates reaction data in time synchronization;
Obtaining the integrated data from the user terminal, generating audience quality data indicating a qualitative reaction of the viewer to the playback content based on the obtained integrated data, and generating the audience quality data A viewer response information providing device for creating viewing metadata for distribution of
A characteristic audience response information collection system.
再生されるコンテンツに対しての視聴者反応の情報を収集する視聴者反応情報収集システムであって、
視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置と、
コンテンツを再生するとともに、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集するユーザ端末と、
前記ユーザ端末から前記視聴データを入手するとともに、前記センシング装置から前記視聴者反応データを入手して、その入手した視聴データとその入手した視聴者反応データとを時間同期させて統合し、その統合したデータに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する視聴者反応情報提供装置とを備えることを、
特徴とする視聴者反応情報収集システム。
A viewer response information collecting system that collects viewer response information for content to be played back,
Viewer response data indicating the viewer's response to the playback content by collecting one or both of sensing data about the viewer and recognition data about the viewer obtained by performing recognition processing on the viewer. A sensing device that collects
A user terminal that reproduces the content and collects viewing data about the reproduced content including information on the screen operation history;
The viewing data is obtained from the user terminal, the viewer response data is obtained from the sensing device, and the obtained viewing data and the obtained viewer response data are integrated in time synchronization. Viewer response information is provided to generate audience quality data that indicates the viewer's qualitative reaction to the playback content based on the recorded data and to create viewing metadata for distribution of the generated audience quality data Comprising a device,
A characteristic audience response information collection system.
再生されるコンテンツに対しての視聴者反応の情報を収集する視聴者反応情報収集方法であって、
視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集する過程と、
画面操作履歴の情報を含む再生コンテンツについての視聴データを収集する過程と、
前記視聴者反応データと前記視聴データとを時間同期させて統合する過程と、
前記統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する過程とを備えることを、
特徴とする視聴者反応情報収集方法。
A viewer response information collection method for collecting viewer response information for content to be played back,
Viewer response data indicating the viewer's response to the playback content by collecting one or both of sensing data about the viewer and recognition data about the viewer obtained by performing recognition processing on the viewer. The process of collecting
A process of collecting viewing data about playback content including information on screen operation history,
Integrating the viewer response data and the viewing data in time synchronization;
Generating audience quality data indicating a qualitative reaction of the viewer to the playback content based on the integrated data, and creating viewing metadata for distribution of the generated audience quality data. That
A feature of audience response information collection method.
請求項3に記載の視聴者反応情報収集方法において、
前記作成する過程では、再生コンテンツに対する視聴者の実視聴時間の情報、再生コンテンツに対する視聴者の注目度の時間遷移の情報、再生コンテンツに対する視聴者の感情・気分の情報、再生コンテンツに対する視聴者の視聴前後における感情・気分の変化の情報、視聴者の入力した再生コンテンツに対する心理状態の情報、視聴者の入力した再生コンテンツに対するコンテンツ評価の情報のうち、少なくともいずれか1つを含む視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成することを、
特徴とする視聴者反応情報収集方法。
In the viewer reaction information collection method according to claim 3,
In the process of creating, the viewer's actual viewing time information for the playback content, the viewer's attention level transition information for the playback content, the viewer's emotion / mood information for the playback content, and the viewer's attention to the playback content Audience quality data including at least one of emotion / mood change information before and after viewing, information on psychological state with respect to playback content input by the viewer, and content evaluation information with respect to playback content input by the viewer. Generating and creating viewing metadata for distribution of the generated audience quality data,
A feature of audience response information collection method.
請求項3又は4に記載の視聴者反応情報収集方法において、
前記統合する過程では、前記視聴メタデータのリアルタイム作成を実現すべく、双方のデータを逐次的につき合わせる形で、前記視聴者反応データと前記視聴データとを時間同期させて統合することを、
特徴とする視聴者反応情報収集方法。
In the viewer reaction information collection method of Claim 3 or 4,
In the integration process, in order to realize real-time creation of the viewing metadata, integrating the viewer response data and the viewing data in a time-synchronized manner in the form of sequentially combining both data,
A feature of audience response information collection method.
請求項3又は4に記載の視聴者反応情報収集方法において、
前記統合する過程では、前記視聴メタデータの事後作成を実現すべく、前記視聴者反応データが収集された際に割り付けられたタイムスタンプと、前記視聴データが収集された際に割り付けられたタイムスタンプとを使って、前記視聴者反応データと前記視聴データとを時間同期させて統合することを、
特徴とする視聴者反応情報収集方法。
In the viewer reaction information collection method of Claim 3 or 4,
In the integrating step, a time stamp assigned when the viewer response data is collected and a time stamp assigned when the viewing data is collected in order to realize post-creation of the viewing metadata. And integrating the viewer response data and the viewing data in time synchronization with each other,
A feature of audience response information collection method.
請求項3ないし6のいずれか1項に記載の視聴者反応情報収集方法において、
前記視聴者反応データを収集する過程では、視聴者の感情・気分を示す情報を収集すべく、前記視聴者反応データとして、視聴者の表情、視線、瞬き、体温、血圧、心拍数、発汗のうち、少なくともいずれか1つを収集することを、
特徴とする視聴者反応情報収集方法。
In the viewer reaction information collection method according to any one of claims 3 to 6,
In the process of collecting the viewer response data, in order to collect information indicating the viewer's emotion and mood, the viewer response data includes the viewer's facial expression, line of sight, blink, body temperature, blood pressure, heart rate, sweating. Collecting at least one of them,
A feature of audience response information collection method.
請求項3ないし6のいずれか1項に記載の視聴者反応情報収集方法において、
前記視聴データを収集する過程では、視聴者の感情・気分を示す情報を収集すべく、前記視聴データの1つとして、前記ユーザ端末の備える入力装置から、視聴者の感情・気分を示す情報を収集することを、
特徴とする視聴者反応情報収集方法。
In the viewer reaction information collection method according to any one of claims 3 to 6,
In the process of collecting the viewing data, in order to collect information indicating the viewer's emotion / mood, information indicating the viewer's emotion / mood is input from the input device of the user terminal as one of the viewing data. To collect,
A feature of audience response information collection method.
請求項3ないし8のいずれか1項に記載の視聴者反応情報収集方法において、
個人情報を管理する装置から、前記視聴メタデータの作成元となった再生コンテンツを視聴する視聴者の個人情報を取得する過程を備えることを、
特徴とする視聴者反応情報収集方法。
In the viewer reaction information collection method according to any one of claims 3 to 8,
Including a process of acquiring personal information of a viewer who views the playback content that is the creation source of the viewing metadata from an apparatus that manages personal information.
A feature of audience response information collection method.
再生されるコンテンツに対しての視聴者反応の情報を収集する視聴者反応情報収集システムで用いられるユーザ端末であって、
コンテンツ提供装置から送信されてくる視聴要求のコンテンツを再生する手段と、
前記コンテンツ提供装置から送信されてくる再生コンテンツのメタデータを入手する手段と、
視聴者による画面操作の情報を入手して保存手段に保存させることで画面操作履歴の情報を収集する手段と、
視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置から、該視聴者反応データを入手する手段と、
前記画面操作履歴の情報と前記視聴者反応データとを時間同期させて統合するとともに、それに前記メタデータを統合する手段と、
前記統合データを、コンテンツに対しての視聴者反応の情報を提供する視聴者反応情報提供装置に送信する手段とを備えることを、
特徴とする視聴者反応情報収集システムで用いられるユーザ端末。
A user terminal used in a viewer response information collection system that collects viewer response information for content to be played back,
Means for reproducing the content of the viewing request transmitted from the content providing device;
Means for obtaining metadata of playback content transmitted from the content providing device;
Means for collecting screen operation history information by obtaining screen operation information by a viewer and storing it in a storage means;
Viewer response data indicating the viewer's response to the playback content by collecting one or both of sensing data about the viewer and recognition data about the viewer obtained by performing recognition processing on the viewer. Means for obtaining the viewer response data from a sensing device that collects
Means for integrating the screen operation history information and the viewer response data in time synchronization, and integrating the metadata to it;
Means for transmitting the integrated data to a viewer response information providing device that provides information on viewer response to content.
A user terminal used in a characteristic audience reaction information collecting system.
再生されるコンテンツに対しての視聴者反応の情報を収集する視聴者反応情報収集システムで用いられる視聴者反応情報提供装置であって、
コンテンツを再生するユーザ端末から、画面操作履歴の情報と視聴者の反応を示す視聴者反応データとを時間同期させて統合するとともに、それに再生コンテンツのメタデータを統合することにより生成された統合データを入手する手段と、
前記統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成する手段と、
前記視聴質データの流通用の視聴メタデータを作成する手段と、
前記視聴メタデータを要求元に送信する手段とを備えることを、
特徴とする視聴者反応情報収集システムで用いられる視聴者反応情報提供装置。
A viewer response information providing apparatus used in a viewer response information collecting system for collecting information of a viewer response to reproduced content,
Integrated data generated by integrating screen operation history information and viewer response data indicating the viewer's response in time synchronization from the user terminal that plays back the content, and by integrating the metadata of the playback content into it A means of obtaining
Means for generating audience quality data indicating a qualitative reaction of the viewer to the playback content based on the integrated data;
Means for creating viewing metadata for distribution of the audience quality data;
Means for transmitting the viewing metadata to a request source,
A viewer response information providing apparatus used in a characteristic viewer response information collecting system.
再生されるコンテンツに対しての視聴者反応の情報を収集する視聴者反応情報収集システムで用いられるユーザ端末であって、
コンテンツ提供装置から送信されてくる視聴要求のコンテンツを再生する手段と、
前記コンテンツ提供装置から送信されてくる再生コンテンツのメタデータを入手する手段と、
視聴者による画面操作の情報を入手して保存手段に保存させることで画面操作履歴の情報を収集する手段と、
前記画面操作履歴の情報と前記メタデータとを加工することで視聴データを作成する手段と、
前記視聴データを、コンテンツに対しての視聴者反応の情報を提供する視聴者反応情報提供装置に送信する手段とを備えることを、
特徴とする視聴者反応情報収集システムで用いられるユーザ端末。
A user terminal used in a viewer response information collection system that collects viewer response information for content to be played back,
Means for reproducing the content of the viewing request transmitted from the content providing device;
Means for obtaining metadata of playback content transmitted from the content providing device;
Means for collecting screen operation history information by obtaining screen operation information by a viewer and storing it in a storage means;
Means for creating viewing data by processing the information of the screen operation history and the metadata;
Means for transmitting the viewing data to a viewer response information providing device that provides viewer response information to the content,
A user terminal used in a characteristic audience reaction information collecting system.
再生されるコンテンツに対しての視聴者反応の情報を収集する視聴者反応情報収集システムで用いられる視聴者反応情報提供装置であって、
視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置から、該視聴者反応データを入手する手段と、
コンテンツを再生するユーザ端末から、画面操作履歴の情報と再生コンテンツのメタデータとを加工することにより生成された視聴データを入手する手段と、
前記視聴者反応データと前記視聴データとを時間同期させて統合する手段と、
前記統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成する手段と、
前記視聴質データの流通用の視聴メタデータを作成する手段と、
前記視聴メタデータを要求元に送信する手段とを備えることを、
特徴とする視聴者反応情報収集システムで用いられる視聴者反応情報提供装置。
A viewer response information providing apparatus used in a viewer response information collection system for collecting information of a viewer response to content to be played back,
Viewer response data indicating the viewer's response to the playback content by collecting one or both of sensing data about the viewer and recognition data about the viewer obtained by performing recognition processing on the viewer. Means for obtaining the viewer response data from a sensing device that collects
Means for obtaining viewing data generated by processing screen operation history information and reproduction content metadata from a user terminal that reproduces content;
Means for synchronizing the viewer response data and the viewing data in time synchronization;
Means for generating audience quality data indicating a qualitative reaction of the viewer to the playback content based on the integrated data;
Means for creating viewing metadata for distribution of the audience quality data;
Means for transmitting the viewing metadata to a request source,
A viewer response information providing apparatus used in a characteristic viewer response information collecting system.
請求項10又は12に記載のユーザ端末の実現に用いられる処理をコンピュータに実行させるための視聴者反応情報作成用プログラム。 A program for creating viewer reaction information for causing a computer to execute processing used to realize the user terminal according to claim 10. 請求項11又は13に記載の視聴者反応情報提供装置の実現に用いられる処理をコンピュータに実行させるための視聴者反応情報作成用プログラム。 A program for creating viewer response information for causing a computer to execute processing used to realize the viewer response information providing apparatus according to claim 11.
JP2003379243A 2003-11-10 2003-11-10 Viewer reaction information collecting method, user terminal and viewer reaction information providing device used in the viewer reaction information collecting system, and program for creating viewer reaction information used for realizing the user terminal / viewer reaction information providing device Expired - Fee Related JP4335642B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003379243A JP4335642B2 (en) 2003-11-10 2003-11-10 Viewer reaction information collecting method, user terminal and viewer reaction information providing device used in the viewer reaction information collecting system, and program for creating viewer reaction information used for realizing the user terminal / viewer reaction information providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003379243A JP4335642B2 (en) 2003-11-10 2003-11-10 Viewer reaction information collecting method, user terminal and viewer reaction information providing device used in the viewer reaction information collecting system, and program for creating viewer reaction information used for realizing the user terminal / viewer reaction information providing device

Publications (2)

Publication Number Publication Date
JP2005142975A true JP2005142975A (en) 2005-06-02
JP4335642B2 JP4335642B2 (en) 2009-09-30

Family

ID=34689356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003379243A Expired - Fee Related JP4335642B2 (en) 2003-11-10 2003-11-10 Viewer reaction information collecting method, user terminal and viewer reaction information providing device used in the viewer reaction information collecting system, and program for creating viewer reaction information used for realizing the user terminal / viewer reaction information providing device

Country Status (1)

Country Link
JP (1) JP4335642B2 (en)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254145A (en) * 2005-03-11 2006-09-21 Mmn:Kk Audience concentration degree measuring method of tv program
WO2007013312A1 (en) * 2005-07-28 2007-02-01 The University Of Tokyo Viewer information measurement system and matching system using the same
JP2007034664A (en) * 2005-07-27 2007-02-08 Sony Corp Emotion estimation device and method, recording medium and program
JP2007110438A (en) * 2005-10-13 2007-04-26 Tokyo Fm Broadcasting Co Ltd Digital radio broadcast wave receiving control system and server apparatus thereof
JP2007142578A (en) * 2005-11-15 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> Sensation communication device and sensation communication method
JP2008009501A (en) * 2006-06-27 2008-01-17 Olympus Corp Charging method
JP2008046801A (en) * 2006-08-14 2008-02-28 Advanced Telecommunication Research Institute International Interest trend information output device, interest trend information output method and program
WO2008102533A1 (en) * 2007-02-20 2008-08-28 Panasonic Corporation View quality judging device, view quality judging method, view quality judging program, and recording medium
WO2008111164A1 (en) * 2007-03-13 2008-09-18 Mitsubishi Electric Corporation System for providing information in cage of elevator
JP2009140010A (en) * 2007-12-03 2009-06-25 Sony Corp Information processing device, information processing terminal, information processing method, and program
JP2009176197A (en) * 2008-01-28 2009-08-06 Fuji Xerox Co Ltd Browsing degree discrimination system
JP2009267445A (en) * 2008-04-21 2009-11-12 Toshiba Corp Preference information managing device, and preference information managing method
JP2010094493A (en) * 2008-09-22 2010-04-30 Koichi Kikuchi System for deciding viewer's feeling on viewing scene
JP2010520553A (en) * 2007-03-07 2010-06-10 エムセンス コーポレイション Method and system for utilizing bioresponse consistency as a measure of media performance
JP2011129997A (en) * 2009-12-15 2011-06-30 Victor Co Of Japan Ltd User information processing program, reproducing program, user information processor, reproducing device, user information processing method, and reproducing method
JP2011139441A (en) * 2009-12-03 2011-07-14 Panasonic Corp Viewing terminal device, viewing statistics apparatus, viewing statistics processing system, and viewing statistics processing method
WO2012020861A1 (en) * 2010-08-12 2012-02-16 엘지전자 주식회사 Image display device, image display system, and method for analyzing the emotional state of a user
KR101116373B1 (en) * 2008-10-31 2012-03-19 한국과학기술원 Sharing System of Emotion Data and Method Sharing Emotion Data
JP2012510752A (en) * 2008-11-28 2012-05-10 サムスン エレクトロニクス カンパニー リミテッド Content consumption method and apparatus using metadata
JP2012522470A (en) * 2009-03-30 2012-09-20 インナースコープ リサーチ, インコーポレイテッド Method and system for predicting viewer behavior
JP2012244362A (en) * 2011-05-18 2012-12-10 Nippon Hoso Kyokai <Nhk> Receiver and program
WO2013106352A1 (en) * 2012-01-10 2013-07-18 Microsoft Corporation Consumption of content with reactions of an individual
JP2013153349A (en) * 2012-01-25 2013-08-08 Nippon Hoso Kyokai <Nhk> Viewing state recognition apparatus and viewing state recognition program
JP2013183373A (en) * 2012-03-02 2013-09-12 Nippon Telegr & Teleph Corp <Ntt> Device and method for estimating degree of interest and program
US8600969B2 (en) 2010-11-12 2013-12-03 Electronics And Telecommunications Research Institute User interest pattern modeling server and method for modeling user interest pattern
JP2014504460A (en) * 2010-09-30 2014-02-20 アフェクティヴァ,インコーポレイテッド Emotion data measurement for web-enabled applications
JP2014042235A (en) * 2012-07-24 2014-03-06 Takashi Hirabayashi Audience rating survey system, facial expression information generation device, and facial expression information generation program
JP2015087782A (en) * 2013-10-28 2015-05-07 日本放送協会 Viewing state estimation device and program of the same
KR101535432B1 (en) * 2013-09-13 2015-07-13 엔에이치엔엔터테인먼트 주식회사 Contents valuation system and contents valuating method using the system
US9301015B2 (en) 2011-08-04 2016-03-29 Ebay Inc. User commentary systems and methods
JP2018064246A (en) * 2016-10-14 2018-04-19 学校法人立命館 Information recording device, time identification device, time identification system, and time identification method
JP2018093350A (en) * 2016-12-01 2018-06-14 有限会社曽根地所 Attention degree evaluation system
JP2018182761A (en) * 2015-04-24 2018-11-15 マーシブ テクノロジーズ,インコーポレイティド System and method for interactive and real-time visualization of distributed media
JP2019036326A (en) * 2018-10-05 2019-03-07 株式会社ニコン Electronic apparatus
KR101974130B1 (en) * 2018-02-02 2019-04-30 동서대학교 산학협력단 Realtime Responsive Contents Providing System Using Emotional Information of Audience
US10798438B2 (en) 2011-12-09 2020-10-06 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
WO2020240976A1 (en) * 2019-05-27 2020-12-03 ソニー株式会社 Artificial intelligence information processing device and artificial intelligence information processing method
JP6934233B1 (en) * 2020-09-07 2021-09-15 株式会社Shift Programs, information processing equipment, and methods
WO2022059451A1 (en) * 2020-09-16 2022-03-24 早紀 辻 Donation device, donation method, and donation program
US11983309B2 (en) 2018-03-22 2024-05-14 Japan Science And Technology Agency Device and method to acquire timing of blink motion performed by a dialogue device
WO2024150696A1 (en) * 2023-01-12 2024-07-18 ソニーグループ株式会社 Information processing apparatus
JP7552605B2 (en) 2019-09-24 2024-09-18 ソニーグループ株式会社 Information processing device, information processing system, information processing method, and program

Cited By (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254145A (en) * 2005-03-11 2006-09-21 Mmn:Kk Audience concentration degree measuring method of tv program
JP4536558B2 (en) * 2005-03-11 2010-09-01 株式会社エム・エム・エヌ TV program audience quality measurement method
JP2007034664A (en) * 2005-07-27 2007-02-08 Sony Corp Emotion estimation device and method, recording medium and program
WO2007013312A1 (en) * 2005-07-28 2007-02-01 The University Of Tokyo Viewer information measurement system and matching system using the same
JP2007110438A (en) * 2005-10-13 2007-04-26 Tokyo Fm Broadcasting Co Ltd Digital radio broadcast wave receiving control system and server apparatus thereof
JP2007142578A (en) * 2005-11-15 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> Sensation communication device and sensation communication method
JP4568211B2 (en) * 2005-11-15 2010-10-27 日本電信電話株式会社 Sensory communication device and sensory communication method
JP2008009501A (en) * 2006-06-27 2008-01-17 Olympus Corp Charging method
JP2008046801A (en) * 2006-08-14 2008-02-28 Advanced Telecommunication Research Institute International Interest trend information output device, interest trend information output method and program
JP2008205861A (en) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd Viewing and listening quality determining apparatus, viewing and listening quality determining method, viewing and listening quality determining program, and storage medium
WO2008102533A1 (en) * 2007-02-20 2008-08-28 Panasonic Corporation View quality judging device, view quality judging method, view quality judging program, and recording medium
JP2010520553A (en) * 2007-03-07 2010-06-10 エムセンス コーポレイション Method and system for utilizing bioresponse consistency as a measure of media performance
WO2008111164A1 (en) * 2007-03-13 2008-09-18 Mitsubishi Electric Corporation System for providing information in cage of elevator
JP2009140010A (en) * 2007-12-03 2009-06-25 Sony Corp Information processing device, information processing terminal, information processing method, and program
US8694495B2 (en) 2007-12-03 2014-04-08 Sony Corporation Information processing device, information processing terminal, information processing method, and program
US9342576B2 (en) 2007-12-03 2016-05-17 Sony Corporation Information processing device, information processing terminal, information processing method, and program
JP4538756B2 (en) * 2007-12-03 2010-09-08 ソニー株式会社 Information processing apparatus, information processing terminal, information processing method, and program
JP2009176197A (en) * 2008-01-28 2009-08-06 Fuji Xerox Co Ltd Browsing degree discrimination system
JP2009267445A (en) * 2008-04-21 2009-11-12 Toshiba Corp Preference information managing device, and preference information managing method
JP2010094493A (en) * 2008-09-22 2010-04-30 Koichi Kikuchi System for deciding viewer's feeling on viewing scene
KR101116373B1 (en) * 2008-10-31 2012-03-19 한국과학기술원 Sharing System of Emotion Data and Method Sharing Emotion Data
JP2012510752A (en) * 2008-11-28 2012-05-10 サムスン エレクトロニクス カンパニー リミテッド Content consumption method and apparatus using metadata
JP2012522470A (en) * 2009-03-30 2012-09-20 インナースコープ リサーチ, インコーポレイテッド Method and system for predicting viewer behavior
JP2011139441A (en) * 2009-12-03 2011-07-14 Panasonic Corp Viewing terminal device, viewing statistics apparatus, viewing statistics processing system, and viewing statistics processing method
US8510156B2 (en) 2009-12-03 2013-08-13 Panasonic Corporation Viewing terminal apparatus, viewing statistics-gathering apparatus, viewing statistics-processing system, and viewing statistics-processing method
JP2011129997A (en) * 2009-12-15 2011-06-30 Victor Co Of Japan Ltd User information processing program, reproducing program, user information processor, reproducing device, user information processing method, and reproducing method
WO2012020861A1 (en) * 2010-08-12 2012-02-16 엘지전자 주식회사 Image display device, image display system, and method for analyzing the emotional state of a user
US9099019B2 (en) 2010-08-12 2015-08-04 Lg Electronics Inc. Image display device, image display system, and method for analyzing the emotional state of a user
JP2014504460A (en) * 2010-09-30 2014-02-20 アフェクティヴァ,インコーポレイテッド Emotion data measurement for web-enabled applications
US8600969B2 (en) 2010-11-12 2013-12-03 Electronics And Telecommunications Research Institute User interest pattern modeling server and method for modeling user interest pattern
JP2012244362A (en) * 2011-05-18 2012-12-10 Nippon Hoso Kyokai <Nhk> Receiver and program
US11438665B2 (en) 2011-08-04 2022-09-06 Ebay Inc. User commentary systems and methods
US11765433B2 (en) 2011-08-04 2023-09-19 Ebay Inc. User commentary systems and methods
US9967629B2 (en) 2011-08-04 2018-05-08 Ebay Inc. User commentary systems and methods
KR101755956B1 (en) * 2011-08-04 2017-07-07 이베이 인크. User commentary systems and methods
US10827226B2 (en) 2011-08-04 2020-11-03 Ebay Inc. User commentary systems and methods
US9301015B2 (en) 2011-08-04 2016-03-29 Ebay Inc. User commentary systems and methods
US9584866B2 (en) 2011-08-04 2017-02-28 Ebay Inc. User commentary systems and methods
KR101624060B1 (en) * 2011-08-04 2016-05-24 이베이 인크. User commentary systems and methods
US9532110B2 (en) 2011-08-04 2016-12-27 Ebay Inc. User commentary systems and methods
US10798438B2 (en) 2011-12-09 2020-10-06 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
JP2015510308A (en) * 2012-01-10 2015-04-02 マイクロソフト コーポレーション Consumption of content with personal reaction
US10045077B2 (en) 2012-01-10 2018-08-07 Microsoft Technology Licensing, Llc Consumption of content with reactions of an individual
WO2013106352A1 (en) * 2012-01-10 2013-07-18 Microsoft Corporation Consumption of content with reactions of an individual
US9571879B2 (en) 2012-01-10 2017-02-14 Microsoft Technology Licensing, Llc Consumption of content with reactions of an individual
JP2013153349A (en) * 2012-01-25 2013-08-08 Nippon Hoso Kyokai <Nhk> Viewing state recognition apparatus and viewing state recognition program
JP2013183373A (en) * 2012-03-02 2013-09-12 Nippon Telegr & Teleph Corp <Ntt> Device and method for estimating degree of interest and program
JP2014042235A (en) * 2012-07-24 2014-03-06 Takashi Hirabayashi Audience rating survey system, facial expression information generation device, and facial expression information generation program
KR101535432B1 (en) * 2013-09-13 2015-07-13 엔에이치엔엔터테인먼트 주식회사 Contents valuation system and contents valuating method using the system
JP2015087782A (en) * 2013-10-28 2015-05-07 日本放送協会 Viewing state estimation device and program of the same
JP2018182761A (en) * 2015-04-24 2018-11-15 マーシブ テクノロジーズ,インコーポレイティド System and method for interactive and real-time visualization of distributed media
US10404763B2 (en) 2015-04-24 2019-09-03 Mersive Technologies, Inc. System and method for interactive and real-time visualization of distributed media
JP7030316B2 (en) 2016-10-14 2022-03-07 学校法人立命館 Information recording device, time identification device, time identification system, and time identification method
JP2018064246A (en) * 2016-10-14 2018-04-19 学校法人立命館 Information recording device, time identification device, time identification system, and time identification method
JP2018093350A (en) * 2016-12-01 2018-06-14 有限会社曽根地所 Attention degree evaluation system
KR101974130B1 (en) * 2018-02-02 2019-04-30 동서대학교 산학협력단 Realtime Responsive Contents Providing System Using Emotional Information of Audience
US11983309B2 (en) 2018-03-22 2024-05-14 Japan Science And Technology Agency Device and method to acquire timing of blink motion performed by a dialogue device
JP2019036326A (en) * 2018-10-05 2019-03-07 株式会社ニコン Electronic apparatus
WO2020240976A1 (en) * 2019-05-27 2020-12-03 ソニー株式会社 Artificial intelligence information processing device and artificial intelligence information processing method
JP7552605B2 (en) 2019-09-24 2024-09-18 ソニーグループ株式会社 Information processing device, information processing system, information processing method, and program
JP6934233B1 (en) * 2020-09-07 2021-09-15 株式会社Shift Programs, information processing equipment, and methods
JP2022044429A (en) * 2020-09-07 2022-03-17 株式会社Shift Program, information processing device, and method
WO2022059451A1 (en) * 2020-09-16 2022-03-24 早紀 辻 Donation device, donation method, and donation program
WO2024150696A1 (en) * 2023-01-12 2024-07-18 ソニーグループ株式会社 Information processing apparatus

Also Published As

Publication number Publication date
JP4335642B2 (en) 2009-09-30

Similar Documents

Publication Publication Date Title
JP4335642B2 (en) Viewer reaction information collecting method, user terminal and viewer reaction information providing device used in the viewer reaction information collecting system, and program for creating viewer reaction information used for realizing the user terminal / viewer reaction information providing device
KR100913865B1 (en) Apparatus and method for collecting user evaluation regarding contents
US20210382929A1 (en) Multimedia content tags
US9706235B2 (en) Time varying evaluation of multimedia content
CN1586078B (en) System and method for evaluating audience response to broadcasting program
JP4538756B2 (en) Information processing apparatus, information processing terminal, information processing method, and program
JP5756456B2 (en) Method and system for predicting viewer behavior
US7889073B2 (en) Laugh detector and system and method for tracking an emotional response to a media presentation
JP5546632B2 (en) Method and mechanism for analyzing multimedia content
US9270918B2 (en) Method of recommending broadcasting contents and recommending apparatus therefor
JP7440020B2 (en) Information processing method, terminal device, information processing device, and information processing system
US20200252407A1 (en) Methods and systems for establishing communication with users based on biometric data
JP2012524458A (en) Method and system for measuring user experience related to interactive activities
US20140337868A1 (en) Audience-aware advertising
US20140137144A1 (en) System and method for measuring and analyzing audience reactions to video
US20110046502A1 (en) Distributed neuro-response data collection and analysis
JP2014511620A (en) Emotion based video recommendation
KR20100039706A (en) Method for providing dynamic contents service using analysis of user&#39;s response and apparatus thereof
JP2003527003A (en) Television system
CN105898487A (en) Interaction method and device for intelligent robot
US20150317465A1 (en) Methods and systems for enabling media guidance application operations based on biometric data
JP6767808B2 (en) Viewing user log storage system, viewing user log storage server, and viewing user log storage method
CN104364731A (en) Content/advertising profiling
JP6675736B2 (en) Video and audio management device and screening system for displaying video and audio
JP2020167669A (en) Video voice management device for screening video and voice and screening system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090528

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090623

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090625

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120703

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130703

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees