JP2005142975A - Audience reaction information collection system and its method, user terminal and audience reaction information providing apparatus used in the audience reaction information collection system, and audience reaction information creation program used to obtain the user terminal and the audience reaction information providing apparatus - Google Patents
Audience reaction information collection system and its method, user terminal and audience reaction information providing apparatus used in the audience reaction information collection system, and audience reaction information creation program used to obtain the user terminal and the audience reaction information providing apparatus Download PDFInfo
- Publication number
- JP2005142975A JP2005142975A JP2003379243A JP2003379243A JP2005142975A JP 2005142975 A JP2005142975 A JP 2005142975A JP 2003379243 A JP2003379243 A JP 2003379243A JP 2003379243 A JP2003379243 A JP 2003379243A JP 2005142975 A JP2005142975 A JP 2005142975A
- Authority
- JP
- Japan
- Prior art keywords
- viewer
- data
- content
- information
- viewing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、視聴率やアクセスログだけではわからない「コンテンツ(テレビ番組など)がどのように見られているのか」という視聴の「質」を測定して提供する視聴者反応情報収集システム及びその方法と、その視聴者反応情報収集システムで用いられるユーザ端末と、その視聴者反応情報収集システムで用いられる視聴者反応情報提供装置と、そのユーザ端末の実現に用いられる視聴者反応情報作成用プログラムと、その視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラムとに関する。 The present invention relates to a viewer reaction information collection system and method for measuring and providing “quality” of viewing “how content (such as a TV program) is viewed” that cannot be understood only by the audience rating and access log, and the method thereof A user terminal used in the viewer reaction information collecting system, a viewer reaction information providing device used in the viewer reaction information collecting system, and a program for creating viewer reaction information used in realizing the user terminal, Further, the present invention relates to a program for creating viewer response information used for realizing the viewer response information providing apparatus.
これまでも、番組やコンテンツを定量的に評価する(価値を測る)指標として、視聴の「量」を表す「率」だけでなく、視聴の質(以下、視聴質とよぶ)に関しても何らかの評価尺度が必要であることが叫ばれてきた。各放送事業者やコンテンツ配信事業者が広告効果を把握し、広告主に説明するためにも、今後視聴質がますます重要な指標となると考えられる。 Until now, as an index to quantitatively evaluate programs and content (measure the value), not only the “rate” that represents the “amount” of viewing but also the quality of viewing (hereinafter referred to as “viewing quality”) It has been screamed that a scale is necessary. In order for each broadcaster and content distributor to understand the effectiveness of the advertisement and explain it to the advertiser, the viewing quality is expected to become an increasingly important index in the future.
また、2003年12月には三大都市圏で地上波デジタル放送が開始される予定で、多チャンネル化による視聴可能なチャンネル数が数百の単位に増加する。にもかかわらず、1日約3時間という限られた視聴時間のなかで、視聴者が見たい番組を数百チャンネルから選択するのは非常に困難である。こうした番組選択の負担を軽減する番組ナビゲーションサービスや番組自動推薦サービスの提供に向けて、これまで軽視されてきた「視聴者がどのようにテレビ番組を見ているのか」に焦点をあてる必要がある。 In addition, terrestrial digital broadcasting is scheduled to start in December 2003 in the three major metropolitan areas, and the number of channels that can be viewed will increase to several hundred units due to the increase in the number of channels. Nevertheless, it is very difficult for the viewer to select from hundreds of channels for a limited viewing time of about 3 hours a day. In order to provide program navigation services and automatic program recommendation services that reduce the burden of program selection, it is necessary to focus on "how viewers watch TV programs" that have been neglected so far. .
本発明は、コンテンツの視聴質調査の方法に関するもので、特に視聴者の行動、リアクションに着目することによって、実際に人がテレビ番組やデジタルコンテンツを見ているかどうかの実視聴判定、および実際に人がどの程度興味/関心をもって見ているかの注目度推定を可能とする。 The present invention relates to a method of surveying content audience quality. In particular, by focusing attention on the behavior and reaction of viewers, it is possible to determine whether or not a person is actually watching a TV program or digital content, and It is possible to estimate the degree of interest of how much people are interested / interested.
本発明におけるコンテンツは、テレビ放送番組、インターネット上のデジタルコンテンツ、広告、またはそれらの組み合わせをさす。さらに、例えばICタグ(RFIDタグ、LEDタグ)などを利用した視聴者人数の推定および視聴者の個人特定を高速かつ高精度に実現するものである。 The content in the present invention refers to a television broadcast program, digital content on the Internet, an advertisement, or a combination thereof. Furthermore, for example, the estimation of the number of viewers using an IC tag (RFID tag, LED tag) or the like and personal identification of the viewer are realized at high speed and with high accuracy.
従来の視聴率測定技術の一つとして、赤外線映像を用いて、視聴者人数の把握もしくは視聴者個人の特定を行う装置がある(例えば、特許文献1参照)。 As one of the conventional audience rating measurement techniques, there is an apparatus for grasping the number of viewers or specifying individual viewers using infrared video (see, for example, Patent Document 1).
この装置は、赤外線ビデオカメラを用いて人の瞳孔検出を行うことにより、視聴者人数および実際に人がテレビジョンを見ているかどうかの判定を可能にする。さらに瞳孔の位置情報を用いて、ビデオカメラ映像出力信号における顔の2次元的な位置、大きさが一定な映像を得ることにより、かかる顔の映像より視聴者個人を高速かつ容易に特定する装置である。 This device enables the determination of the number of viewers and whether a person is actually watching television by performing human pupil detection using an infrared video camera. Furthermore, by using the position information of the pupil to obtain an image having a constant two-dimensional position and size of the face in the video camera image output signal, it is possible to quickly and easily identify an individual viewer from the image of the face. It is.
一方、1997年4月にスタートしたインターネットを使ったテレビ番組に関する調査を行うWebサイト「テレビ番組視聴質調査 リサーチQ」がある(例えば、非特許文献1参照)。
On the other hand, there is a web site “TV Program Audience Quality Survey Research Q” that conducts surveys on TV programs using the Internet, which started in April 1997 (see Non-Patent
このサイトは、視聴率だけではわからない視聴質を調査し、その結果を番組制作・編成に生かすことを目的とし、テレビ朝日編成部と慶應義塾大学環境情報学部熊坂研究室とで共同で開発・運営されている。なお、会員登録した利用者はアンケートに答えてQポイントをためると、抽選でプレゼントがもらえるインセンティブも用意されている。
ところが、視聴率を測定する従来の技術では、本発明の目的とするコンテンツ視聴質の調査まではカバーできない。例えば、テレビの電源が入っていながら視聴者がテレビを見ていないといった状況を把握することにより、いわゆる視聴率の精度向上を可能とする。しかしながら、視聴質はとれない。 However, the conventional technique for measuring the audience rating cannot cover the content audience quality survey aimed at by the present invention. For example, it is possible to improve the accuracy of the so-called audience rating by grasping the situation where the viewer is not watching the television while the television is turned on. However, audience quality is not good.
一方、上述した「リサーチQ」では、アンケート内容、質問項目によるが、それなりの視聴質を調査することができると考えられる。しかしながら、PCを起動し、インターネットに接続し、それからWebサイト上でアンケートに回答する手間、あるいは携帯電話専用のWebサイトにアクセスし、コメント文を入力する煩わしさを考えると、利用者の負担が少ないとは言いがたい。 On the other hand, in the above-mentioned “Research Q”, depending on the contents of the questionnaire and the question items, it is considered that the audience quality can be investigated. However, considering the hassle of starting up a PC, connecting to the Internet, then answering a questionnaire on the Web site, or accessing a mobile phone-only Web site and entering a comment, It is hard to say that there are few.
本発明は、上述の点に鑑み、従来技術の問題点を解決し、視聴者自身による記入やWeb上での回答といった作業負荷を軽減し、通常の視聴形態におけるコンテンツの視聴質の自動集計を可能とする新たなコンテンツの視聴質調査技術の提供を目的とする。 In view of the above-mentioned points, the present invention solves the problems of the prior art, reduces the work load such as entry by the viewer himself / herself and answers on the web, and automatically calculates the audience quality of the content in the normal viewing mode. The purpose is to provide a new content audience quality survey technology.
〔1〕ユーザ端末で、視聴反応データと視聴データとを統合する構成
上述の目的を達成するために、本発明の視聴者反応情報収集システムは、(イ)視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置と、(ロ)コンテンツを再生するとともに、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集し、さらに、センシング装置から視聴者反応データを入手して、その収集した視聴データとその入手した視聴者反応データとを時間同期させて統合するユーザ端末と、(ハ)ユーザ端末から統合データを入手して、その入手した統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する視聴者反応情報提供装置とを備える。
[1] Configuration in which viewing response data and viewing data are integrated in a user terminal In order to achieve the above-described object, a viewer response information collecting system of the present invention includes (a) sensing data about a viewer and A sensing device that collects viewer response data indicating viewer response to the playback content by collecting either or both of the viewer recognition data obtained by the recognition processing; ) Playing back content, collecting viewing data on the playback content including screen operation history information, obtaining viewer response data from the sensing device, and collecting the collected viewing data and the obtained viewer response User terminal that integrates data in time synchronization and (c) Integrated data obtained from the user terminal and the obtained integrated data A viewer response information providing device for generating audience quality data indicating a viewer's qualitative reaction to the playback content and creating viewing metadata for distribution of the generated audience quality data, Is provided.
〔1−1〕この構成に従う場合のユーザ端末の構成
この構成に従う場合、ユーザ端末は、(イ)コンテンツ提供装置から送信されてくる視聴要求のコンテンツを再生する手段と、(ロ)コンテンツ提供装置から送信されてくる再生コンテンツのメタデータを入手する手段と、(ハ)視聴者による画面操作の情報を入手して保存手段に保存させることで画面操作履歴の情報を収集する手段と、(ニ)センシング装置から、視聴者反応データを入手する手段と、(ホ)その収集した画面操作履歴の情報とその入手した視聴者反応データとを時間同期させて統合するとともに、それに再生コンテンツのメタデータを統合する手段と、(ヘ)その統合データを視聴者反応情報提供装置に送信する手段とを備えるように構成する。
[1-1] Configuration of user terminal in accordance with this configuration In accordance with this configuration, the user terminal (a) means for reproducing the content requested by the viewing request transmitted from the content providing device, and (b) the content providing device. (C) means for acquiring screen operation history information by obtaining screen operation information obtained by the viewer and storing it in the storage means; ) A means for obtaining viewer response data from the sensing device, and (e) integrating the collected screen operation history information and the obtained viewer response data in a time-synchronized manner, and reproducing content metadata. And (f) means for transmitting the integrated data to the viewer response information providing apparatus.
以上の各処理手段はコンピュータプログラムによっても実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供したり、ネットワークを介して提供することができる。 Each of the processing means described above can also be realized by a computer program, and this computer program can be provided by being recorded on a recording medium such as a semiconductor memory or via a network.
〔1−2〕この構成に従う場合の視聴者反応情報提供装置の構成
この構成に従う場合、視聴者反応情報提供装置は、(イ)ユーザ端末から、統合データを入手する手段と、(ロ)その入手した統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成する手段と、(ハ)その生成した視聴質データの流通用の視聴メタデータを作成する手段と、(ニ)その作成した視聴メタデータを要求元に送信する手段とを備えるように構成する。
[1-2] Configuration of Viewer Response Information Providing Device According to This Configuration When this configuration is followed, the viewer response information providing device includes: (b) means for obtaining integrated data from the user terminal; Based on the obtained integrated data, means for generating audience quality data indicating the viewer's qualitative reaction to the playback content, and (c) creating viewing metadata for distribution of the generated audience quality data And (d) means for transmitting the created viewing metadata to the request source.
以上の各処理手段はコンピュータプログラムによっても実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供したり、ネットワークを介して提供することができる。 Each of the above processing means can also be realized by a computer program, and this computer program can be provided by being recorded in a recording medium such as a semiconductor memory or via a network.
〔2〕視聴者反応情報提供装置で、視聴反応データと視聴データとを統合する構成
上述の目的を達成するために、本発明の視聴者反応情報収集システムは、(イ)視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置と、(ロ)コンテンツを再生するとともに、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集するユーザ端末と、(ハ)ユーザ端末から視聴データを入手するとともに、センシング装置から視聴者反応データを入手して、その入手した視聴データとその入手した視聴者反応データとを時間同期させて統合し、その統合したデータに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する視聴者反応情報提供装置とを備える。
[2] Configuration for Integrating Viewing Response Data and Viewing Data in Viewer Response Information Providing Device In order to achieve the above-described object, the viewer response information collecting system of the present invention provides (a) sensing for a viewer. Sensing device for collecting viewer response data indicating viewer's response to playback content by collecting either or both of data and recognition data of viewer obtained by recognizing the data And (b) a user terminal that reproduces the content and collects viewing data regarding the reproduced content including information on the screen operation history, and (c) obtains the viewing data from the user terminal and receives a viewer response from the sensing device. The data is obtained, and the obtained viewing data and the obtained audience reaction data are integrated in time synchronization. Viewer response information is provided to generate audience quality data indicating the viewer's qualitative reaction to the playback content based on the recorded data and to create viewing metadata for distribution of the generated audience quality data Device.
〔2−1〕この構成に従う場合のユーザ端末の構成
この構成に従う場合、ユーザ端末は、(イ)コンテンツ提供装置から送信されてくる視聴要求のコンテンツを再生する手段と、(ロ)コンテンツ提供装置から送信されてくる再生コンテンツのメタデータを入手する手段と、(ハ)視聴者による画面操作の情報を入手して保存手段に保存させることで画面操作履歴の情報を収集する手段と、(ニ)その収集した画面操作履歴の情報とその入手した再生コンテンツのメタデータとを加工することで視聴データを作成する手段と、(ホ)その作成した視聴データを視聴者反応情報提供装置に送信する手段とを備えるように構成する。
[2-1] Configuration of user terminal in accordance with this configuration In the case of following this configuration, the user terminal (a) means for reproducing the content requested for viewing transmitted from the content providing device, and (b) the content providing device. (C) means for acquiring screen operation history information by obtaining screen operation information obtained by the viewer and storing it in the storage means; ) Means for creating viewing data by processing the collected screen operation history information and the metadata of the obtained reproduction content; and (e) transmitting the created viewing data to the viewer response information providing apparatus. And means.
以上の各処理手段はコンピュータプログラムによっても実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供したり、ネットワークを介して提供することができる。 Each of the above processing means can also be realized by a computer program, and this computer program can be provided by being recorded in a recording medium such as a semiconductor memory or via a network.
〔2−2〕この構成に従う場合の視聴者反応情報提供装置の構成
この構成に従う場合、視聴者反応情報提供装置は、(イ)センシング装置から、視聴者反応データを入手する手段と、(ロ)ユーザ端末から、視聴データを入手する手段と、(ハ)その入手した視聴者反応データとその入手した視聴データとを時間同期させて統合する手段と、(ニ)その統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成する手段と、(ホ)その生成した視聴質データの流通用の視聴メタデータを作成する手段と、(ヘ)その作成した視聴メタデータを要求元に送信する手段とを備えるように構成する。
[2-2] Configuration of Viewer Response Information Providing Device in Case of Following this Configuration In the case of following this configuration, the viewer response information providing device includes: (b) means for obtaining viewer response data from the sensing device; ) Means for obtaining viewing data from the user terminal, (c) means for integrating the obtained audience response data and the obtained viewing data in time synchronization, and (d) based on the integrated data, Means for generating audience quality data indicating a viewer's qualitative reaction to the playback content; (e) means for creating viewing metadata for distribution of the generated audience quality data; And a means for transmitting the created viewing metadata to the request source.
以上の各処理手段はコンピュータプログラムによっても実現できるものであり、このコンピュータプログラムは、半導体メモリなどの記録媒体に記録して提供したり、ネットワークを介して提供することができる。 Each of the above processing means can also be realized by a computer program, and this computer program can be provided by being recorded in a recording medium such as a semiconductor memory or via a network.
〔3〕このように構成される本発明の処理について
このように構成される本発明の視聴者反応情報収集システムでは、センシング装置で、視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集し、一方、ユーザ端末で、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集すると、ユーザ端末あるいは視聴者反応情報提供装置で、その収集した視聴者反応データとその収集した視聴データとを時間同期させて統合する。そして、視聴者反応情報提供装置で、その統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する。
[3] About the process of the present invention configured as described above In the viewer response information collecting system of the present invention configured as described above, the sensing device obtains the sensing data about the viewer and the recognition process thereof with the sensing device. By collecting either or both of the recognition data of the viewers that are displayed, viewer response data indicating the viewer's response to the playback content is collected. On the other hand, information on the screen operation history is collected at the user terminal. When the viewing data on the playback content including is collected, the collected viewer response data and the collected viewing data are integrated in time synchronization by the user terminal or the viewer response information providing apparatus. Then, the viewer response information providing device generates audience quality data indicating the viewer's qualitative response to the playback content based on the integrated data, and distributes the generated audience quality data for distribution. Create viewing metadata.
このようにして、本発明によれば、「コンテンツ(テレビ番組など)がどのように見られているのか」という視聴の「質」を、視聴者に負荷をかけることなく測定して提供することができるようになる。 In this way, according to the present invention, it is possible to measure and provide “quality” of viewing “how content (such as a TV program) is viewed” without placing a burden on the viewer. Will be able to.
〔4〕本発明の具体的な構成について
次に、本発明の具体的な構成について説明する。
[4] Specific Configuration of the Present Invention Next, a specific configuration of the present invention will be described.
本発明は、具体的には、コンテンツ提供装置とセンシング装置とユーザ端末と推定蓄積装置(視聴者反応情報提供装置に相当するもの)とで構成される視聴者反応情報収集システムに適用される。 Specifically, the present invention is applied to a viewer response information collecting system including a content providing device, a sensing device, a user terminal, and an estimation storage device (corresponding to a viewer response information providing device).
〔4−1〕コンテンツ提供装置の構成
コンテンツ提供装置は、放送局やインターネットサービスプロバイダやコンテンツ配信事業者などにより構築されて、コンテンツを格納するコンテンツ格納手段と、視聴可能なコンテンツリストを生成するコンテンツリスト生成手段と、生成したコンテンツリストをユーザ端末に送信する送信手段と、ユーザ端末から送信されてくるコンテンツのリクエスト情報を受信する受信手段と、受信したリクエスト情報に応じたコンテンツを選択するコンテンツ選択手段と、選択したコンテンツをユーザ端末に送信する送信手段と、コンテンツに関する情報を記述したメタデータを生成するコンテンツメタデータ生成手段と、生成したコンテンツメタデータをユーザ端末に送信する送信手段とを備える。
[4-1] Configuration of Content Providing Device The content providing device is constructed by a broadcasting station, an Internet service provider, a content distributor, or the like, and stores content storing means for storing content and content for generating a viewable content list. List generating means, transmitting means for transmitting the generated content list to the user terminal, receiving means for receiving the request information of the content transmitted from the user terminal, and content selection for selecting the content according to the received request information Means, transmitting means for transmitting the selected content to the user terminal, content metadata generating means for generating metadata describing information relating to the content, and transmitting means for transmitting the generated content metadata to the user terminal. .
〔4−2〕センシング装置の構成
センシング装置は、コンテンツを視聴している人間の反応をセンシングする手段と、センシングしたデータを処理する認識手段と、センシングしたデータや認識結果のデータを送信する送信手段とを備える。
[4-2] Configuration of Sensing Device The sensing device transmits means for sensing the response of a person viewing content, a recognition means for processing the sensed data, and sensing data and recognition result data. Means.
〔4−3〕ユーザ端末の構成
ユーザ端末は、コンテンツ提供装置から送信されてくるコンテンツリストを受信する受信手段と、受信したコンテンツリストを出力するコンテンツリスト表示手段と、視聴コンテンツを取得するためのリクエスト情報を送信するリクエスト送信手段と、リクエストしたコンテンツを受信するコンテンツ受信手段と、受信したコンテンツをバッファリングする記録手段と、受信したコンテンツを再生する再生手段と、コンテンツ提供装置から送信されてくるコンテンツメタデータを受信する受信手段と、受信したコンテンツメタデータを格納するコンテンツメタデータ格納手段と、受信したコンテンツを受信したコンテンツメタデータとあわせて画面に表示する表示手段と、ユーザによる画面操作やユーザにより入力される心理状態の情報やコンテンツ評価の情報を入力する入力手段と、ユーザの操作する画面操作履歴の情報を格納する画面操作履歴格納部と、センシング装置から送信されてくるセンシングデータや認識データを受信する受信手段と、入力した画面操作履歴の情報やユーザの心理状態の情報やコンテンツ評価の情報と、受信したセンシングデータや認識データとを時間同期をとって統合するデータ統合手段と、その統合データを推定蓄積装置に送信する送信手段とを備える。
[4-3] Configuration of User Terminal The user terminal receives a content list transmitted from the content providing apparatus, a content list display unit that outputs the received content list, and a viewing content. Request transmission means for transmitting request information, content reception means for receiving requested content, recording means for buffering received content, reproduction means for playing back received content, and content providing apparatus Receiving means for receiving content metadata, content metadata storing means for storing received content metadata, display means for displaying received content together with received content metadata, screen operation by a user, Entered by user Input means for inputting psychological state information and content evaluation information, screen operation history storage unit for storing screen operation history information operated by the user, and sensing data and recognition data transmitted from the sensing device A data integration means for integrating the input screen operation history information, the user psychological state information, the content evaluation information, and the received sensing data and recognition data with time synchronization, and Transmitting means for transmitting the integrated data to the estimation storage device.
ここでは、ユーザ端末が、画面操作履歴の情報などの視聴データと、センシング装置から送信されてくるコンテンツ視聴者の反応を示す視聴者反応データとを統合するという構成を採っているが、推定蓄積装置で統合するようにしてもよい。 Here, the user terminal adopts a configuration in which viewing data such as screen operation history information and viewer response data indicating the response of the content viewer transmitted from the sensing device are integrated. You may make it integrate with an apparatus.
〔4−4〕推定蓄積装置の構成
推定蓄積装置は、ユーザ端末から送信されてくるコンテンツの統合データを受信する受信手段と、受信した統合データからコンテンツの視聴質データを推定して生成する生成手段と、生成した視聴質データを格納する視聴質データ格納手段と、生成した視聴質データからその視聴質データの流通用の視聴メタデータを抽出する加工手段と、新規の視聴メタデータを追加する更新手段と、視聴メタデータを送信する送信手段とを備える。
[4-4] Configuration of Estimating and Accumulating Device The estimating and accumulating device is a receiving unit that receives integrated data of content transmitted from a user terminal, and a generation that estimates and generates audience quality data of content from the received integrated data. Means, storing audience quality data for storing generated audience quality data, processing means for extracting audience metadata for distribution of audience quality data from the generated audience quality data, and adding new audience metadata Update means and transmission means for transmitting viewing metadata.
〔4−5〕さらに具体的な構成
このように構成される本発明の視聴者反応情報収集システムでは、再生コンテンツに対する視聴者の実視聴時間の情報、再生コンテンツに対する視聴者の注目度の時間遷移の情報、再生コンテンツに対する視聴者の感情・気分の情報、再生コンテンツに対する視聴者の視聴前後における感情・気分の変化の情報、視聴者の入力した再生コンテンツに対する心理状態の情報、視聴者の入力した再生コンテンツに対するコンテンツ評価の情報の少なくとも1つを含むことがある。
[4-5] More Specific Configuration In the viewer reaction information collection system of the present invention configured as described above, information on the viewer's actual viewing time with respect to the playback content and time transition of the viewer's attention level with respect to the playback content Information on viewers' emotions and moods for playback content, information on changes in emotions and moods before and after viewing viewers on playback content, psychological information on playback content input by viewers, viewer input It may include at least one piece of content evaluation information for the playback content.
また、画面操作履歴の情報などの視聴データと、センシング装置から送信されてくるコンテンツ視聴者の反応を示す視聴者反応データとを、逐次的につき合わせる形で時間同期をとって統合することにより、着目するコンテンツに対する視聴者反応をリアルタイムに解析することができる。 In addition, by integrating viewing data such as screen operation history information and viewer response data indicating the response of the content viewer transmitted from the sensing device in a time-synchronized manner, Viewer response to the content of interest can be analyzed in real time.
また、コンテンツが記録媒体に録画されたテレビ番組などであっても、コンテンツ視聴開始時刻と先頭からの再生時間、および推定蓄積装置に保存された統合データのタイムスタンプに基づき時間同期をとることによって、コンテンツに対する視聴者反応を事後解析することができる。 Also, even if the content is a TV program recorded on a recording medium, by synchronizing the time based on the content viewing start time, the playback time from the beginning, and the time stamp of the integrated data stored in the estimation storage device , The audience reaction to the content can be analyzed after the fact.
また、視聴者反応として視聴者自身の感情、気分を用いることとし、センシング装置により視聴者の表情、視線、瞬き、体温(皮膚温度)、血圧、心拍数、発汗の少なくとも1つ以上をセンシングすることにより、視聴者自身の感情、気分を推定する。 In addition, the viewer's own emotion and mood are used as the viewer's reaction, and the sensing device senses at least one of the viewer's facial expression, line of sight, blink, body temperature (skin temperature), blood pressure, heart rate, and sweating. Thus, the viewer's own feelings and mood are estimated.
また、視聴者反応として視聴者自身の感情、気分を用いることとし、視聴者からの入力に従って、喜怒哀楽などの視聴者自身の感情、気分を推定する。 Also, the viewer's own emotions and moods are used as the viewer's reaction, and the viewer's own emotions and moods such as emotions are estimated according to the input from the viewers.
また、個人情報を格納する手段と個人情報を送信する手段とを備えた個人情報管理装置を用意して、ユーザ端末あるいは推定蓄積装置は、その個人情報管理装置にアクセスすることで、視聴者の個人情報を入手することがある。 Also, a personal information management device comprising means for storing personal information and means for transmitting personal information is prepared, and the user terminal or the estimation storage device accesses the personal information management device, so that the viewer's Personal information may be obtained.
本発明では、上述した技術手段を採用することにより、実際にテレビ番組やコンテンツを見ているかどうかの実視聴自動判定を可能とする。さらに、視聴時における視聴者のリアクションをセンシングし認識することによって、通常の視聴形態におけるテレビ番組やコンテンツに対しての視聴者の注目度の推定、気分・感情の推定を実現する。 In the present invention, by employing the above-described technical means, it is possible to automatically determine whether or not the user is actually watching a television program or content. Furthermore, by sensing and recognizing the viewer's reaction at the time of viewing, the viewer's attention level and the mood / emotion estimation for the TV program or content in the normal viewing mode are realized.
以下に、添付の図面を用いて本発明の構造と動作について詳細に説明する。 Hereinafter, the structure and operation of the present invention will be described in detail with reference to the accompanying drawings.
ここで、以下の説明は、本発明の理解を助けるものであって、本発明の特許請求の範囲を制限するものではない。例えば、以降の説明では主として赤外線発光照明装置を使用した場合の記述であるが、それに限定するものではない。可視光、紫外光を用いても同様な効果が得られる。また、コンテンツはテレビ放送番組に限られるものではなく、インターネット上のデジタルコンテンツや広告なども含まれる。 Here, the following description is intended to assist the understanding of the present invention, and does not limit the scope of the claims of the present invention. For example, in the following description, the description is mainly for the case where an infrared light emitting illumination device is used, but the present invention is not limited thereto. Similar effects can be obtained by using visible light and ultraviolet light. Further, the content is not limited to a television broadcast program, and includes digital content and advertisements on the Internet.
本発明の実施の形態では、テレビ番組や映像コンテンツ視聴時における一般視聴者のリアクション情報を収集蓄積することがポイントの一つである。ところが、一般に自宅などでくつろいでいるときのカメラ映像やマイク音声を収集されることに対して大きな心理的抵抗があるため、何らかの動機づけがない限り、視聴者(サービス利用者)からそれらの利用許可を得ることは困難である。 In the embodiment of the present invention, one of the points is to collect and accumulate reaction information of general viewers when watching TV programs and video contents. However, since there is a great psychological resistance to the collection of camera images and microphone sound when generally relaxing at home, the viewer (service user) uses them unless there is any motivation. It is difficult to get permission.
後述する本発明の第1の実施形態では、視聴時におけるカメラ映像やマイク音声といった個人情報を流通させる対価としての利益(以下、「インセンティブ」)を一般視聴者に与えることを大きな特徴とする。 The first embodiment of the present invention, which will be described later, is greatly characterized in that a general viewer is provided with a profit (hereinafter, “incentive”) as consideration for distributing personal information such as camera video and microphone sound during viewing.
例えば、“「ファイバーティービー」インターネット<URL:http://www.pointage.ne.jp/fibertv.html>)2003.8.25 検索”によれば、映画・音楽・アニメーション・スポーツ・バラエティなどのビデオコンテンツをオンデマンドで配信するエンターテインメントコンテンツ専門チャネル「ファイバーティービー」がある。 For example, according to the “Fiber TI Internet” <URL: http://www.pointage.ne.jp/fibertv.html>) 2003.8.25 search, video content such as movies, music, animation, sports, variety, etc. Entertainment content channel “Fibre TB” that delivers on-demand.
この「ファイバーティービー」は、会員制有料サービスで、会員登録した利用者は家庭内テレビにセットトップボックス(STB)をつないで、インターネットや電力系CATV経由で受信したコンテンツを視聴する。利用者のインセンティブとして、広告や有料番組を見れば「ビュー」と呼ばれるポイントを獲得する。この獲得ポイントをためれば、有料コンテンツを無料視聴できるといった特典を享受できる仕組みとなっている。 This “fiber tee-by” is a membership-based pay service, and a user who has registered as a member connects a home TV with a set-top box (STB) to view content received via the Internet or a power system CATV. As an incentive for users, points called “views” are earned if advertisements or paid programs are viewed. If you earn this earned point, you can enjoy the privilege that you can watch paid content for free.
インセンティブの例としては、有料コンテンツの無料視聴クーポン、あるいは後日商品と交換したり、衛星放送やCATVサービスの月額利用料支払いに充当したりすることが可能なポイントとする方法が考えられる。また、定期的な抽選によるプレゼント進呈、キャッシュバックであってもかまわない。こうした利用者へのインセンティブが威力を発揮し、後述する「テレビ番組/コンテンツの視聴質フィードバックサービス」、「独居高齢者/単身世帯主の自動安否確認サービス」のビジネスモデルが成立する。 As an example of the incentive, there can be considered a method of making a point that can be exchanged for a free viewing coupon for paid content or a product for a later date, or used for payment of a monthly usage fee for satellite broadcasting or CATV service. It may also be presents by regular lottery or cash back. Such incentives for users are effective, and the business models of “TV program / content audience quality feedback service” and “automatic safety confirmation service for elderly living alone / single householder”, which will be described later, are established.
図1は、本発明によるコンテンツに対する視聴者反応情報の収集システムの一般的な構成例を説明する図である。 FIG. 1 is a diagram for explaining a general configuration example of a system for collecting audience reaction information for content according to the present invention.
図中、10はコンテンツ提供装置、11はコンテンツサーバ、12はコンテンツメタデータDBサーバ、20はユーザ端末、21はセンシング装置、30は推定蓄積装置、41は視聴質DBサーバ、42はユーザDBサーバ、43は課金決済サーバである。50は通信網であって、コンテンツ提供装置10、コンテンツサーバ11、コンテンツメタデータDBサーバ12、ユーザ端末20、センシング装置21、推定蓄積装置30、視聴質DBサーバ41、ユーザDBサーバ42、課金決済サーバ43を相互に接続するものである。通信網50の実現手段は、有線、無線を問わない。
In the figure, 10 is a content providing device, 11 is a content server, 12 is a content metadata DB server, 20 is a user terminal, 21 is a sensing device, 30 is an estimation storage device, 41 is an audience quality DB server, and 42 is a user DB server. 43 are billing settlement servers. A communication network 50 includes a content providing device 10, a content server 11, a content metadata DB server 12, a
図2および図3は、本発明によるコンテンツに対する視聴者反応情報の収集システムの代表的な動作例を説明するブロック図である。 2 and 3 are block diagrams illustrating a typical operation example of the system for collecting viewer response information on content according to the present invention.
両者の差異は、コンテンツの視聴データとコンテンツに対する視聴者反応のセンシングデータおよび認識データとの時刻同期をユーザ端末20でとるか、推定蓄積装置30でとるかの違いである。すなわち、図2が前記時刻同期をユーザ端末20側でとる場合に相当し、図3が前記時刻同期を推定蓄積装置30側でとる場合に相当する。
The difference between the two is whether the time synchronization between the content viewing data and the sensing data and recognition data of the viewer response to the content is taken by the
図4および図5は、本発明におけるコンテンツ提供装置10、ユーザ端末20、センシング装置21、推定蓄積装置30の動作を説明する処理フロー図である。ここで、図4が前記時刻同期をユーザ端末20側でとる場合に相当し、図5が前記時刻同期を推定蓄積装置30側でとる場合に相当する。
4 and 5 are process flow diagrams for explaining the operations of the content providing device 10, the
当然ながら、後述する2つのサービス応用例「テレビ番組/コンテンツの視聴質フィードバックサービス」、「独居高齢者/単身世帯主の自動安否確認サービス」にかかわらず、本発明の基本的な処理フローは共通となっている。 Naturally, the basic processing flow of the present invention is common regardless of the two service application examples described below, “TV program / content audience quality feedback service” and “automatic safety confirmation service for single elderly / single householder”. It has become.
図2および図3において、コンテンツ提供装置10は、コンテンツ格納部101、コンテンツリスト生成部102、コンテンツリスト送信部103、リクエスト受信部104、コンテンツ選択部105、コンテンツ送信部106、コンテンツメタデータ生成部107、コンテンツメタデータ送信部108から構成される。
2 and 3, the content providing apparatus 10 includes a
ユーザ端末20は、コンテンツリスト受信部2001、コンテンツリスト表示部2002、リクエスト送信部2003、コンテンツ受信部2004、コンテンツ記録部2005、コンテンツ再生部2006、画面表示部2007、コンテンツメタデータ受信部2008、コンテンツメタデータ格納部2009、認識データ受信部2010、データ統合部2011、入力部2012、画面操作履歴格納部2013、統合データ送信部2014から構成される。
The
ここで、図3では、認識データ受信部2010、データ統合部2011および統合データ送信部2014がなく、その代わりに、視聴データ加工部2015および視聴データ送信部2016が追加されている。
Here, in FIG. 3, the recognition
コンテンツ提供装置10において、コンテンツサーバ11から取り出された利用可能な全コンテンツは一旦コンテンツ格納部101に保存される。コンテンツリスト生成部102で、サービス利用者ごとに視聴可能な映像コンテンツを識別し、コンテンツリストを作成する。当該コンテンツリストがコンテンツリスト送信部103を通じて、ユーザ端末20に送信される。
In the content providing apparatus 10, all usable contents extracted from the content server 11 are temporarily stored in the
これを受けて、ユーザ端末20において、コンテンツリスト受信部2001が前記コンテンツリストを受信し、コンテンツリスト表示部2002で端末画面に表示される。前記サービス利用者がコンテンツリスト画面を見ながら、特定のコンテンツを選択すると、そのコンテンツに対応するメタデータ(以降、コンテンツメタデータとよぶ)からリクエストコンテンツの所在、すなわちコンテンツURLが抽出される。リクエスト送信部2003は、前記リクエストコンテンツのURLを解析し、コンテンツIDなどコンテンツ取得に必要な情報をコンテンツ提供装置10に送信する。
In response, in the
これを受けて、コンテンツ提供装置10において、リクエスト受信部104はユーザ端末20からのコンテンツリクエスト情報を受信し、コンテンツ選択部105に送る。コンテンツ選択部105は前記リクエストコンテンツをコンテンツ格納部101から呼び出し、コンテンツ送信部106が前記リクエストコンテンツの送信準備を行う。
In response to this, in the content providing apparatus 10, the
それと同時に、コンテンツメタデータ生成部107によって、前記リクエストコンテンツのメタデータが、タイトル、サブタイトル、制作者、著作権者、放送時間/再生時間、ジャンル、出演者名、(コンテンツURL)などを格納したコンテンツメタデータDBサーバ12から自動作成され、前記リクエストコンテンツのメタデータがコンテンツメタデータ送信部108に渡される。
At the same time, the content
続いて、コンテンツ送信部106、コンテンツメタデータ送信部108によって、前記リクエストコンテンツおよびそのコンテンツメタデータ情報がユーザ端末20に送信される。
Subsequently, the request content and the content metadata information thereof are transmitted to the
これを受けて、ユーザ端末20において、前記リクエストコンテンツはコンテンツ受信部2004によって受信され、再生のためコンテンツ記録部2005に一時的に記録される。その後、コンテンツ再生部2006によって前記サービス利用者のリクエストしたコンテンツが画面上で再生される。
In response to this, in the
一方、前記リクエストコンテンツとともに送信された前記リクエストコンテンツのメタデータは、コンテンツメタデータ受信部2008によって受信され、当該メタデータ情報はコンテンツメタデータ格納部2009に格納される。タイトル、制作者、時間などの前記コンテンツメタデータ情報の一部は画面表示部2007に送られ、端末画面に表示される。
On the other hand, the metadata of the request content transmitted together with the request content is received by the content
図2および図3において、センシング装置21は、センシング部2101、認識部2102、認識データ送信部2103から構成される。
2 and 3, the sensing device 21 includes a
本発明では、赤外線ビデオカメラ、頭部モーションセンサ、マイク、RF−IDタグ/リーダといった非侵襲型センサを用いて、視聴時における人物の表情、視線パターン(注視方向)、目の瞳孔直径、瞬き、顔部の向き、笑い声、体温、心拍数、利用者識別IDなどの情報をセンシングし、収集する。 In the present invention, using a noninvasive sensor such as an infrared video camera, a head motion sensor, a microphone, or an RF-ID tag / reader, the facial expression of the person at the time of viewing, the line-of-sight pattern (gaze direction), the pupil diameter of the eye, and blinking Sensing and collecting information such as face orientation, laughter, body temperature, heart rate, and user identification ID.
ビデオカメラを用いた人物の表情認識に関しては、抽出された入力画像(静止画)の特徴ベクトルを喜怒哀楽などのカテゴリ別に量子化し、各カテゴリの表情を高精度に認識する手段について、例えば、特許2839855 号公報に、「顔の表情認識装置」が記載、開示されている。また、不特定多数の人物の顔動画像から、その表情を認識する手段については、例えば、特許2962549 号公報に、「顔動画像からの表情認識方法」が記載、開示されている。 As for facial expression recognition of a person using a video camera, a means for quantizing the feature vector of the extracted input image (still image) for each category such as emotions and recognizing the facial expression of each category with high accuracy, for example, Japanese Patent No. 2839855 discloses and discloses a “facial expression recognition device”. As a means for recognizing facial expressions from facial moving images of a large number of unspecified persons, for example, Japanese Patent No. 2962549 describes and discloses a “expression recognition method from facial moving images”.
また、赤外線ビデオカメラを用いた注視方向、片目の瞳孔直径の測定に関しては、利用者になるべく負担をかけずに、かつ、特別な器具を装着することなく注視方向を測定可能とする手段について、例えば、特開2003-079577 に、「視線測定装置及びその方法と、視線測定プログラム及びそのプログラムを記録した記録媒体」が記載、開示されている。 In addition, with regard to the gaze direction using an infrared video camera and the measurement of the pupil diameter of one eye, with regard to means for enabling the gaze direction to be measured without burdening the user as much as possible and without wearing a special instrument, For example, Japanese Patent Laid-Open No. 2003-079577 describes and discloses “line-of-sight measurement device and method, line-of-sight measurement program and recording medium recording the program”.
また、マイクを用いた笑い声の検知に関しては、笑い声区間を自動的に、しかも少ない演算量とメモリサイズで抽出することができる音声処理装置と、動画像から笑い動作区間を自動的に抽出する手段とについて、例えば、特開2002-006874 に、「音声処理装置、動画像処理装置、音声・動画像処理装置及び音声・動画像処理プログラムを記録した記録媒体」が記載、開示されている。 For detecting laughter using a microphone, a voice processing device that can automatically extract a laughter section with a small amount of computation and a memory size, and means for automatically extracting a laughter section from a moving image For example, Japanese Patent Laid-Open No. 2002-006874 describes and discloses “a sound processing device, a moving image processing device, a sound / moving image processing device, and a recording medium on which a sound / moving image processing program is recorded”.
また、顔の向きは、市販の3Dモーションセンサ、例えばMDP−A309(NECトーキン製)などを頭部に装着すれば、容易にセンシングできる。体温は市販の体温計を用いて、心拍数は、市販の心拍計を胸部に装着して測定する。あるいは、市販の脈拍センサ(例えばパソリカTP−HB4)を耳たぶに装着して測定した脈拍数で代用してもよい。利用者識別IDは、市販のRF−IDタグとリーダとを用いて取得すればよい。 Further, the orientation of the face can be easily sensed by attaching a commercially available 3D motion sensor such as MDP-A309 (manufactured by NEC TOKIN) to the head. The body temperature is measured using a commercially available thermometer, and the heart rate is measured by wearing a commercially available heart rate monitor on the chest. Or you may substitute with the pulse rate measured by mounting | wearing a earlobe with a commercially available pulse sensor (for example, Pasorica TP-HB4). The user identification ID may be obtained using a commercially available RF-ID tag and a reader.
認識部2102は、前記特許文献に記載される手段などを用いて、視聴時における人物の顔に表れる表情、視線パターン(注視方向)、目の瞳孔直径、瞬き、笑い声を認識する。このようにして取得されたセンシングデータおよび認識データは、認識データ送信部2103によって、図2の構成に従う場合には、センシング装置21からユーザ端末20に送信される。
The recognizing
これを受けて、ユーザ端末20において、前記センシングデータおよび認識データは、認識データ受信部2010によって受信され、データ統合部2011に送られる。
In response, in the
このデータ統合部2011は、時間同期をとることにより、当該センシングデータおよび認識データと、画面操作履歴格納部2013に保存されているサービス利用者の画面操作履歴データと、コンテンツメタデータ格納部2009に格納されているコンテンツメタデータとを、前記リクエストコンテンツについての統合データ(視聴と認識についての統合データ)として統合する。なお、前述の画面操作履歴データについては、入力部2012を通じてサービス利用者が入力した画面操作の全履歴が格納されている。
The
ここで、データ統合部2011は、入力部2012がユーザの入力する心理状態の情報やコンテンツ評価の情報を受け取る場合には、それらのデータについても統合することになる。
Here, when the
このとき生成される統合データは、サービス利用者の画面操作履歴データに従って、どういうコンテンツがどのような形態(例えば、チャネルが頻繁に切り替えられた中で選択されていたというような形態)で選択されて視聴されたのかを示すとともに、センシングデータおよび認識データに従って、そのとき視聴者がどのような反応を示したのかについて示すことになる。 The integrated data generated at this time is selected according to the screen operation history data of the service user and what content is selected in what form (for example, the form in which the channel was frequently switched). It is shown how the viewer responded at that time according to the sensing data and the recognition data.
最終的に時間同期のとれた統合データは、図2の構成に従う場合には、統合データ送信部2014によって、ある一定周期で推定蓄積装置30に送信される。
The integrated data finally synchronized in time is transmitted to the estimation storage device 30 by the integrated
図2において、推定蓄積装置30は、統合データ受信部301、視聴質推定生成部302、視聴質データ格納部303、視聴質データ送信部304、視聴メタデータ加工部305、視聴メタデータ更新部306、視聴メタデータ格納部307、視聴メタデータ送信部308から構成される。
In FIG. 2, the estimation storage device 30 includes an integrated
ここで、図3では、統合データ受信部301が備えられないとともに、前記302〜308の他に、視聴データ受信部310、認識データ受信部311およびデータ統合部312が追加されている。
Here, in FIG. 3, the integrated
図2あるいは図4においては、前記リクエストコンテンツの統合データは、推定蓄積装置30の統合データ受信部301によって受信され、視聴質推定生成部302では後述する視聴質データを推定し、生成する。
In FIG. 2 or 4, the integrated data of the request content is received by the integrated
一方、図3あるいは図5においては、推定蓄積装置30の認識データ受信部311が、センシング装置21から送信された視聴者反応のセンシングデータおよび認識データを受信し、推定蓄積装置30の視聴データ受信部310が、ユーザ端末20から送信された主としてコンテンツメタデータやコンテンツ視聴時間、利用者の画面操作履歴データを加工した視聴データを受信する。
On the other hand, in FIG. 3 or FIG. 5, the recognition
そして、推定蓄積装置30のデータ統合部312は、一定周期で、前記リクエストコンテンツに対する前記視聴者反応のセンシングデータおよび認識データと前記視聴データとを時間同期をとって統合し、それらを視聴質推定生成部302に渡す。視聴質推定生成部302では後述する視聴質データを推定し、生成する。
Then, the
本発明における視聴質データは、(1)視聴コンテンツに対する実視聴時間、(2)注目度の時間遷移、(3)シーンごとの感情や視聴後の気分を指す。 Audience quality data in the present invention refers to (1) actual viewing time for viewing content, (2) time transition of attention, (3) emotion for each scene and mood after viewing.
これらの視聴質データの推定処理の具体的な処理手順について、図6に基づいて説明する。 A specific processing procedure of the audience quality data estimation processing will be described with reference to FIG.
(1)に関しては、前記センシングデータおよび認識データに含まれる顔部の向き、あるいは視線位置、あるいは両方が所定の範囲内にあるかを判定し、その結果に基づく2値の時系列データをそれぞれ生成して、それに基づいて視聴コンテンツに対する実視聴時間を算出する。 Regarding (1), it is determined whether the face direction or the line-of-sight position, or both, included in the sensing data and the recognition data are within a predetermined range, and binary time-series data based on the results are respectively determined. Based on this, the actual viewing time for the viewing content is calculated.
例えば、コンテンツを再生している表示機器の画面範囲内に視線位置がある時間を視聴コンテンツに対する実視聴時間とした場合、表示機器の画面範囲を前記所定の範囲とし、その範囲内にあると判定された時間を計数することにより、視聴コンテンツに対する実視聴時間を算出することができる。 For example, when the time when the line-of-sight position is within the screen range of the display device that is reproducing the content is set as the actual viewing time for the viewing content, the screen range of the display device is determined as the predetermined range and determined to be within that range The actual viewing time for the viewing content can be calculated by counting the time spent.
このようにして算出される視聴コンテンツに対する実視聴時間は視聴の質を示すものであり、有効な視聴質データの1つである。 The actual viewing time for the viewing content calculated in this way indicates viewing quality, and is one of effective viewing quality data.
(2)に関しては、図6の処理601に示すように、時刻tにおける注目度y(t)を、時刻tにおけるn種類の視聴者の反応データxi (t) と、n個の重み係数ai と、時刻t−1の注目度y(t−1)と、1個の比例係数bとを用いて、
y(t)=a1 x1 (t) +a2 x2 (t) +・・+an xn (t) +by(t−1)
というように重み付き線形和で近似的に表し、当該注目度y(t)の値の時系列データを生成する。ただし、初期時刻における注目度の初期値y(0)は0と定義する。
Regarding (2), as shown in the
y (t) = a 1 x 1 (t) + a 2 x 2 (t) + ·· + a n x n (t) + by (t-1)
As described above, it is expressed approximately by a weighted linear sum, and time series data of the value of the degree of attention y (t) is generated. However, the initial value y (0) of the attention level at the initial time is defined as 0.
ここで、視聴者の反応データxi (t) は、あらかじめ収集したサンプル母集団の最小値と最大値、あるいは標本平均と標本分散の値を用いて、所定の範囲内の数値となるように正規化処理を行う。 Here, the viewer's reaction data x i (t) is set to a numerical value within a predetermined range by using the minimum and maximum values of the sample population collected in advance or the sample mean and sample variance values. Perform normalization.
視聴者の反応データxi (t) とは、統合データの元となったデータから選択されるものであって、視聴者反応のセンシングデータおよび認識データの中から設定されたり、視聴者の画面操作履歴データに基づいて設定されることになる。 The viewer response data x i (t) is selected from the data that is the source of the integrated data, and is set from the sensing data and the recognition data of the viewer response, or the viewer's screen It is set based on the operation history data.
例えば、x1 (t) として片目の瞳孔直径を設定し、x2 (t) として心拍数を設定し、x3 (t) として画面操作(TVリモコン操作)の頻度を設定する。この場合、瞳孔が広がったり、心拍数が増えるのはコンテンツを注視している生理的現象と考えられるので、a1,a2 に正の重み係数をセットし、一方、頻繁にTVリモコンを操作して視聴コンテンツを切り替える現象はコンテンツに注目してないと考えられるので、a3 に負の重み係数をセットすることで、視聴者が注目している程大きな値を示す注目度y(t)を定義できることになる。 For example, to set the pupil diameter of the eye as x 1 (t), to set the heart rate as x 2 (t), sets the frequency of x 3 (t) as a screen operation (TV remote control). In this case, or spread the pupil, since the heart rate increases is considered physiological phenomena gazing at the content, sets a positive weighting factor a 1, a 2, whereas, frequently operate the TV remote control Therefore, the phenomenon of switching the viewing content is considered not to pay attention to the content. Therefore, by setting a negative weighting factor to a 3 , the degree of attention y (t) indicating a larger value as the viewer is paying attention Can be defined.
このようにして算出される注目度の時間遷移は視聴の質を示すものであり、有効な視聴質データの1つである。 The temporal transition of the attention level calculated in this way indicates viewing quality, and is one of effective audience quality data.
(3)に関しては、図6の処理602〜処理605に示すように、まず、ある時間区間における表情の発生頻度が最大のものをその時間範囲の感情として「喜」、「怒」、「哀」の3値でコード化する。コード化された感情の時系列データを、それぞれの時間区間をシーンと対応づけることによって、シーンごとの感情とする。
With regard to (3), as shown in
次に、感情の時系列データを用いてコンテンツに対する気分を決定したり、コンテンツの視聴前後での気分の変化を決定する。気分の値は持続時間が最大の感情の値に対し、当該持続時間が所定の閾値を超えるか否かで「快」、「不快」、「不定」の3値にコード化する。例えば、持続時間が最大の感情の値が「喜」あるいは「哀」、かつ所定の閾値を超える場合は気分を「快」とし、持続時間が最大の感情の値が「怒」、かつ所定の閾値を超える場合は、気分を「不快」とし、それ以外は「不定」とする。 Next, the mood for the content is determined using emotion time-series data, or the mood change before and after viewing the content is determined. The mood value is coded into three values of “pleasant”, “unpleasant”, and “indefinite” depending on whether the duration exceeds a predetermined threshold with respect to the emotion value having the maximum duration. For example, if the emotion value with the longest duration is “joy” or “sorrow” and exceeds a predetermined threshold, the mood is “pleasant”, the emotion value with the maximum duration is “anger”, and If the threshold is exceeded, the mood is “uncomfortable”, otherwise “undefined”.
このようにして推定されたシーンごとの感情やコンテンツに対する気分やコンテンツの視聴前後の気分の変化は視聴の質を示すものであり、有効な視聴質データの1つである。 The emotions and the mood for the content estimated in this way and the change in the mood before and after viewing the content indicate the quality of the viewing and are one of effective audience quality data.
こうして推定された前記リクエストコンテンツについての視聴質データは視聴質データ格納部303に格納され、視聴メタデータ加工部305によってメタデータ流通に適したフォーマットに加工される。前記リクエストコンテンツについて、前記サービス利用者以外のサービス利用者の視聴質データが新しく推定蓄積装置30に送信されてきた場合には、視聴メタデータ更新部306によって追加更新され、視聴メタデータ格納部307に格納されることになる。
The audience quality data for the request content thus estimated is stored in the audience quality
図7に、視聴メタデータ加工部305によって加工された視聴メタデータのフォーマットの一例を示す。この例では、視聴メタデータはXMLベースで記述されており、推定蓄積装置30における一元管理やネットワーク上のメタデータ流通との技術的親和性が高いものとなっている。
FIG. 7 shows an example of the format of viewing metadata processed by the viewing
最後に、視聴質データ送信部304、視聴メタデータ送信部308は、クライアントやブラウザからの視聴質データの送信要求、視聴メタデータの送信要求にそれぞれ応答する。
Finally, the audience quality
図8に、視聴質データのうちの実視聴時間計測機能の表示画面の一例を図示する。また、図9に、視聴質データのうちの注目度推定機能の表示画面例の一例を図示する。 FIG. 8 illustrates an example of a display screen of the actual viewing time measurement function in the audience quality data. FIG. 9 illustrates an example of a display screen example of the attention level estimation function in audience quality data.
この図9の画面では、視聴コンテンツとそれに対する注目度の時系列データグラフ間の時刻同期がとれていることがポイントである。すなわち、注目度グラフのスライダを動かすことにより、ユーザがコンテンツのどのシーンで注目度が高いかを、一目で把握することを可能としている。 In the screen of FIG. 9, the point is that the time synchronization between the viewing content and the time series data graph of the degree of attention to the viewing content is achieved. That is, by moving the slider of the attention level graph, it is possible for the user to grasp at a glance which scene of the content the attention level is high.
以上の説明では説明しなかったが、視聴者が誰であるのかを識別できる場合には、その識別結果をキーにして個人情報を管理するデータベースにアクセスすることで、視聴者の個人情報を得て、それを視聴質データや視聴メタデータに付加する形で送信するようにしてもよい。このようにすると、どういう視聴者がコンテンツにどのように反応したのかを知ることができるようになる。 Although not explained in the above description, when the viewer can be identified, the personal information of the viewer is obtained by accessing a database that manages personal information using the identification result as a key. Then, it may be transmitted in the form of being added to audience quality data or viewing metadata. In this way, it becomes possible to know what kind of viewers have reacted to the content.
〔I〕本発明にかかる第1の実施形態
次に、本発明にかかる第1の実施形態「テレビ番組/コンテンツの視聴質フィードバックサービス」について説明する。
[I] First Embodiment of the Present Invention Next, a first embodiment “TV program / content audience quality feedback service” according to the present invention will be described.
当該サービスは、従来できていなかったコンテンツの視聴質情報をエンドユーザ側の生の意見としてコンテンツ制作事業者にフィードバックすることにより、良質なコンテンツ制作を実現するビジネスモデルである。 This service is a business model that realizes high-quality content production by feeding back content audience quality information, which has not been possible in the past, to the content producer as a raw opinion on the end user side.
本実施形態において、テレビ番組/コンテンツ制作事業者は、制作番組/コンテンツに対する一般視聴者のリアクションに基づく注目度や心理状態、気分といった視聴質に関するデータを入手できる。その視聴質フィードバックを以降の番組やコンテンツ制作に活かすことで、競合他社との差異化をはかることが可能となる。 In the present embodiment, a television program / content producer can obtain data relating to audience quality such as the degree of attention, psychological state, and mood based on the general viewer's reaction to the produced program / content. The audience quality feedback can be used in subsequent programs and content production to differentiate from competitors.
具体的には、ユーザ端末20側の時間同期および統合処理によって、推定蓄積装置30内で、着目するコンテンツのメタデータ、ならびにセンシング装置21から送信された当該コンテンツの様々な視聴者反応に関するセンシングデータ・認識データが蓄積、一元管理されている。そのため、タイムスタンプを検索キーとして、いつでも当該コンテンツの実視聴時間や注目度の時間遷移といったデータを閲覧したり、さらに所望のシーン別に視聴者リアクションを解析したりすることが実現できる。
Specifically, by the time synchronization and integration processing on the
なお、市販のHDDレコーダやDVDレコーダなどの記録媒体に録画されたテレビ番組であっても、推定蓄積装置30で蓄積されているセンシング装置21から送信された着目コンテンツの様々な視聴者反応のセンシングデータ・認識データのタイムスタンプ、ならびにコンテンツ視聴開始時刻とコンテンツ先頭からの再生時間を合わせれば視聴メタデータの時間同期性が保たれる。よって、当該コンテンツに対する様々な視聴者反応をオフラインで事後解析することが可能となる。 It should be noted that even for a TV program recorded on a recording medium such as a commercially available HDD recorder or DVD recorder, sensing of various viewer responses of the content of interest transmitted from the sensing device 21 stored in the estimation storage device 30 The time synchronism of the viewing metadata can be maintained by combining the time stamp of the data / recognition data and the content viewing start time and the playback time from the top of the content. Therefore, it is possible to perform post-analysis of various viewer responses to the content offline.
さらに、広告主は前記視聴質データに基づいて、広告宣伝の効果を客観的に把握することができる。一方、一般視聴者は、顔画像や話し声(独り言)のデータを提供する対価として、ポイントをためて換金したり、有料コンテンツを無料で視聴したりするメリットを享受できる。 Furthermore, the advertiser can objectively grasp the effect of the advertisement based on the audience quality data. On the other hand, general viewers can enjoy the benefits of earning points and paying for paid content or viewing paid content for free as consideration for providing facial image and speech (single speech) data.
〔II〕本発明にかかる第2の実施形態
次に、本発明にかかる第2の実施形態「独居高齢者/単身世帯主の自動安否確認サービス」について説明する。
[II] Second Embodiment According to the Present Invention Next, a second embodiment “automatic safety confirmation service for single elderly / single householder” according to the present invention will be described.
当該サービスは、通常ほとんどの世帯にテレビが少なくとも1台あることに着目し、テレビ番組の視聴質情報を独居高齢者や単身赴任中の家族の安否情報として提供し、遠隔地に住む家族や親類の安心感、そして一種のつながり感の醸成をねらったビジネスモデルである。 The service focuses on the fact that most households usually have at least one TV, and provides TV program audience quality information as safety information for singles living alone or family members who are living alone. This is a business model that aims to create a sense of security and a sense of connection.
独居高齢者または遠隔地に離れて暮らす単身世帯主を見守るケースにおいて、例えば、後述する遠隔地に離れて暮らす家族の間で使われることを想定して開発されたシステムの端末である「Family Planter」端末がある。この「Family Planter」端末については、特開2003-141052 (「人の存在・状態情報の相互通信端末、人の存在・状態情報の相互通信方法、相互通信プログラムおよびそのプログラムを記録した記録媒体」)に詳しく記載されている。 “Family Planter” is a system terminal developed in the case of being used by elderly people living alone or single-person householders who live remotely in remote areas, for example, among family members who live remotely in remote areas to be described later. "There is a terminal. Regarding this “Family Planter” terminal, Japanese Unexamined Patent Application Publication No. 2003-141052 (“Intercommunication terminal for human presence / state information, mutual communication method for human presence / state information, mutual communication program, and recording medium recording the program” ) Is described in detail.
「Family Planter」端末には、各種センサが組み込まれ、このセンサが検出したセンサ情報は、ネットワークを介して相手端末へ送られる。前記センサ情報を受信した相手端末では、前記受信したセンサ情報に応じて、モータを回転し、また、LEDを発光することによって、センサ情報に対応して表示する。また、「Family Planter」端末には、タッチセンサを備え、その端末に接触すると、この接触に応じて、相手端末で音が発生し、明示的な情報を伝達することができる。 Various sensors are incorporated in the “Family Planter” terminal, and sensor information detected by the sensor is sent to the partner terminal via the network. In the counterpart terminal that has received the sensor information, the motor terminal is rotated according to the received sensor information, and the LED is caused to emit light to display the sensor information. Further, the “Family Planter” terminal is provided with a touch sensor, and when the terminal is touched, sound is generated at the partner terminal in response to the touch, and explicit information can be transmitted.
このように「Family Planter」端末は、利用者の存在・状態情報を、主にセンサによって獲得し、相手端末に送っている。 In this way, the “Family Planter” terminal acquires the presence / state information of the user mainly by the sensor and sends it to the partner terminal.
第2の実施形態では、本発明がこの「Family Planter」端末の機能の一部を代替えするイメージである。以降、単身赴任の家庭を例にとって、詳細に説明する。 In the second embodiment, the present invention is an image replacing a part of the function of the “Family Planter” terminal. In the following, a detailed description will be given by taking a single employee as an example.
第2の実施形態では、基本的な構成として、独居高齢者や単身赴任中の世帯主の家族に対して、テレビ番組の視聴質情報を安否情報として提供することにより、「独居高齢者/単身世帯主の自動安否確認サービス」を実現する。 In the second embodiment, as a basic configuration, by providing television program audience quality information as safety information to a single person living alone or a family head of a single householder, a single person living alone / single person Realize “Automatic safety confirmation service for householders”.
さらに、第2の実施形態では、この基本的な構成に加えて、以下に説明するような処理を行うことができるようになることで、より確実な「独居高齢者/単身世帯主の自動安否確認サービス」を実現することができるようになる。 Furthermore, in the second embodiment, in addition to this basic configuration, the processing as described below can be performed, so that more reliable “automatic safety of single elderly / single householder” Confirmation service "can be realized.
単身赴任先の家に世帯主(利用者)が帰ると、その部屋に設置されているRF−IDリーダ端末がRF−IDタグによって当該世帯主を検知し、帰宅のメッセージが遠く離れた自宅の端末に送られ、画面に表示される。サービス利用者の家族がこの表示に気づくことによって、相手の存在を感じることができ、つながり感を醸成することが期待される。また、テレビの電源を入れることによって、利用者の存在感も離れて暮らす家族に伝えることができる。 When the head of the household (user) returns to the home of the single person, the RF-ID reader terminal installed in the room detects the head of the household using the RF-ID tag, and the message of returning home is far away. It is sent to the terminal and displayed on the screen. It is expected that the service user's family will be able to feel the presence of the other party by noticing this display and foster a sense of connection. In addition, by turning on the TV, it is possible to convey the presence of the user to the family living away.
なお、サービス利用者が、通信綱50を介して、ユーザ端末20に接続することを望む場合、サービス利用者側の端末で利用可能な存在・状態情報の種類を、ユーザ端末20から獲得する。このときに、利用者の認証が行われる。
When the service user desires to connect to the
この利用者の認証によって、接続要求を出した利用者と接続を要求された利用者との間における社会的な親密度に応じて、利用することができる存在・状態情報を変えることができる。このように、社会的な親密度に応じて、利用することができる存在・状態情報を変えることによって、存在・状態情報の送信におけるプライバシの問題をある程度、解決することもできる。 By this user authentication, the presence / state information that can be used can be changed according to the social familiarity between the user who issued the connection request and the user who is requested to connect. In this way, the privacy problem in the transmission of the presence / state information can be solved to some extent by changing the presence / state information that can be used according to the social familiarity.
例えば、遠隔地に住む家族であれば、赤外線・超音波センサ、カメラ、マイク、全ての存在・状態情報を利用することができるとする。一方、地方自治体による独居高齢者の介護サービスなど、仕事上でのみ関係する利用者に対しては、RF−IDタグや赤外線センサから得られる存在・状態情報のみを利用することができるなど、存在・状態情報を選択的に提供してもよい。 For example, it is assumed that a family living in a remote place can use infrared / ultrasonic sensors, cameras, microphones, and all presence / state information. On the other hand, for users who are concerned only at work, such as nursing care services for elderly people living alone by local governments, there is only the presence / state information obtained from RF-ID tags and infrared sensors. -Status information may be selectively provided.
次に、離れて暮らす人、家族の存在・状態情報の表現形式の例について説明する。 Next, an example of an expression format for information on the presence / state information of a person who lives away from the family will be described.
利用者が何らかのアクションをおこしたり、利用者の存在・状態に何らかの変化がおきたりすると、前記アクション、前記変化を時系列イベントとして記録し、推定蓄積装置30に格納する。これらのイベント群によって、人の存在・状態情報を表現する。 When the user takes some action or changes in the presence / state of the user, the action and the change are recorded as a time series event and stored in the estimation storage device 30. The presence / state information of a person is expressed by these event groups.
また、遠隔地にいる相手の状態、安否を知らせる表現形式として、テキスト文字以外に、例えば「色」や「音」によって表現することも可能である。 In addition to text characters, for example, “color” or “sound” can be used as an expression format for notifying the state and safety of the remote party.
例えば、「色」を使った簡単な例は、センシング装置21に3種類のセンサが存在し、かつ利用可能であれば、これらのセンサの出力信号をそれぞれ、色の3要素:赤(Red)、緑(Green)、青(Blue)の値にAD変換し提示する例が考えられる。 For example, in a simple example using “color”, if there are three types of sensors in the sensing device 21 and they are available, the output signals of these sensors are respectively expressed as three elements of color: red (Red). An example of AD and conversion to green, blue, and blue values is possible.
一方、「音」を使った簡単な例は、あらかじめ登録した電話番号(自宅)へ自動発信し、呼び出し音を3回だけ鳴らしたり、遠く離れた家族のPC画面にあらかじめ登録したWAVファイルを自動再生したりすることができる。 On the other hand, a simple example using "sound" is to automatically call a pre-registered phone number (home) and make a ringing tone only three times, or automatically download a WAV file registered in advance on a PC screen of a distant family Or play it.
このようにして、本発明にかかる第2の実施形態「独居高齢者/単身世帯主の自動安否確認サービス」によれば、テレビ番組(コンテンツ)制作事業者は、制作番組(コンテンツ)に対する一般視聴者のリアクションに基づく注目度や心理状態、気分といった視聴質に関するデータを入手できる。そして、その視聴質フィードバックを以降の番組(コンテンツ)制作に活かすことで、競合他社との差異化をはかることが可能となる。 In this way, according to the second embodiment “automatic safety confirmation service for the elderly living alone / single householder” according to the present invention, the TV program (content) producer can view the produced program (content) in general. Data related to audience quality such as attention, psychological state, and mood based on the person's reaction. Then, the audience quality feedback can be used for subsequent program (content) production to differentiate from competitors.
これに加えて、独居高齢者や単身世帯の家族・親類は、前記視聴質データに基づいて、前記独居高齢者や単身赴任中の家族の安否を確認対象の本人に意識させることなく確認できるので、ネットワークによるさりげない見守りが実現できる。一方、独居高齢者/単身世帯主は、顔画像や話し声(独り言)のデータを提供する対価として、ポイントをためて換金したり、有料コンテンツを無料で視聴したりするメリットを享受できる。 In addition to this, the elderly living alone or a family member / relative of a single household can check the safety of the elderly living alone or a family who is currently on their own without being aware of the person to be confirmed based on the audience quality data. A casual watch over the network can be realized. On the other hand, the elderly living alone / single-person householder can enjoy the benefits of collecting points or paying for viewing paid content free of charge for providing facial images and spoken voice (single speech) data.
以上説明したように、本発明のコンテンツに対する視聴者反応情報の収集システムは、3Dモーションセンサによる顔の向き、赤外線ビデオカメラによる人の視線パターン、瞳孔直径、顔に表れる表情、笑い声といったマルチモーダルの情報を統合することで、視聴者自身による記入やWeb上での回答といった作業負荷を軽減し、通常の視聴形態における視聴質データの自動集計を実現する。それと同時に、RF−IDタグ読み取りによる視聴者個人の特定をも高速かつ容易に実現できる、などの効果が期待できる。 As described above, the viewer response information collection system for content according to the present invention is a multimodal system such as face orientation by 3D motion sensor, human eye gaze pattern by infrared video camera, pupil diameter, facial expression, laughter. By integrating the information, the workload such as entry by the viewer himself / herself and answering on the web is reduced, and automatic audience quality data in the normal viewing mode is realized. At the same time, it can be expected that an individual viewer can be identified quickly and easily by reading the RF-ID tag.
また、ユーザ端末20や推定蓄積装置30での時間同期および統合処理によって、推定蓄積装置30内で、着目するコンテンツのメタデータ、ならびにセンシング装置21から送信された当該コンテンツに対しての様々な視聴者反応に関するセンシングデータ・認識データが視聴メタデータ情報として蓄積、一元管理されている。したがって、タイムスタンプを検索キーとして、いつでも所望のシーン別に視聴者リアクションを解析したりすることができる。
In addition, by the time synchronization and integration processing in the
さらに、HDDやDVDなどの記録媒体に録画されたテレビ番組であっても、推定蓄積装置30側の時間同期および統合処理によって、センシング装置21から送信された着目コンテンツの様々な視聴者反応に関するセンシングデータ・認識データにはタイムスタンプが付与されている。ゆえに、前記タイムスタンプとコンテンツ視聴開始時刻・コンテンツ先頭からの再生時間とをつき合わせることによって、着目コンテンツに対する様々な視聴者反応を事後解析することが可能となる。 Furthermore, even for a TV program recorded on a recording medium such as an HDD or a DVD, sensing of various viewer responses of the content of interest transmitted from the sensing device 21 by time synchronization and integration processing on the estimation storage device 30 side. The data / recognition data is given a time stamp. Therefore, by combining the time stamp with the content viewing start time and the playback time from the top of the content, it becomes possible to perform post-analysis of various viewer responses to the content of interest.
そして、本発明を視聴質フィードバックサービスに応用すれば、テレビ番組/コンテンツ制作事業者は視聴質情報を活かした番組/コンテンツ制作を行うことができ、自社の収益強化につながる。 If the present invention is applied to an audience quality feedback service, a television program / content producer can produce programs / contents utilizing audience quality information, which leads to an increase in profits of the company.
そして、本発明を遠隔居住者の自動安否確認サービスに応用すれば、視聴質情報の取得を通じて、限りなく自然な形態で安否を確認したり、前記居住者本人に意識させることなく見守ったりすることが可能となる。つまりネットワークを介して、人の存在や元気に暮らしている、健康であるといった状態という非明示的な情報を、相手先に意識させることなく、生活環境に溶け込んだ形態で、自分の端末と相手端末との間で常時やり取りすることによって安否を確認し、利用者間のつながり感を醸成することができるという効果を奏する。 If the present invention is applied to a remote resident's automatic safety confirmation service, through the acquisition of audience quality information, the safety can be confirmed in an infinitely natural form or watched without the resident himself being conscious. Is possible. In other words, through the network, your terminal and partner in a form that blends into the living environment without making the other party aware of the information such as the presence of people, living well, or being healthy. There is an effect that it is possible to confirm safety by constantly exchanging with the terminal and to foster a sense of connection between users.
10 コンテンツ提供装置
11 コンテンツサーバ
12 コンテンツメタデータDBサーバ
20 ユーザ端末
21 センシング装置
30 推定蓄積装置
41 視聴質DBサーバ
42 ユーザDBサーバ
43 課金決済サーバ
DESCRIPTION OF SYMBOLS 10 Content provision apparatus 11 Content server 12 Content
Claims (15)
視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置と、
コンテンツを再生するとともに、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集し、さらに、前記センシング装置から前記視聴者反応データを入手して、その収集した視聴データとその入手した視聴者反応データとを時間同期させて統合するユーザ端末と、
前記ユーザ端末から前記統合データを入手して、その入手した統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する視聴者反応情報提供装置とを備えることを、
特徴とする視聴者反応情報収集システム。 A viewer response information collecting system that collects viewer response information for content to be played back,
Viewer response data indicating the viewer's response to the playback content by collecting one or both of sensing data about the viewer and recognition data about the viewer obtained by performing recognition processing on the viewer. A sensing device that collects
While reproducing the content, collecting viewing data regarding the reproduced content including information on the screen operation history, and further obtaining the viewer response data from the sensing device, and collecting the collected viewing data and the obtained viewer A user terminal that integrates reaction data in time synchronization;
Obtaining the integrated data from the user terminal, generating audience quality data indicating a qualitative reaction of the viewer to the playback content based on the obtained integrated data, and generating the audience quality data A viewer response information providing device for creating viewing metadata for distribution of
A characteristic audience response information collection system.
視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置と、
コンテンツを再生するとともに、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集するユーザ端末と、
前記ユーザ端末から前記視聴データを入手するとともに、前記センシング装置から前記視聴者反応データを入手して、その入手した視聴データとその入手した視聴者反応データとを時間同期させて統合し、その統合したデータに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する視聴者反応情報提供装置とを備えることを、
特徴とする視聴者反応情報収集システム。 A viewer response information collecting system that collects viewer response information for content to be played back,
Viewer response data indicating the viewer's response to the playback content by collecting one or both of sensing data about the viewer and recognition data about the viewer obtained by performing recognition processing on the viewer. A sensing device that collects
A user terminal that reproduces the content and collects viewing data about the reproduced content including information on the screen operation history;
The viewing data is obtained from the user terminal, the viewer response data is obtained from the sensing device, and the obtained viewing data and the obtained viewer response data are integrated in time synchronization. Viewer response information is provided to generate audience quality data that indicates the viewer's qualitative reaction to the playback content based on the recorded data and to create viewing metadata for distribution of the generated audience quality data Comprising a device,
A characteristic audience response information collection system.
視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集する過程と、
画面操作履歴の情報を含む再生コンテンツについての視聴データを収集する過程と、
前記視聴者反応データと前記視聴データとを時間同期させて統合する過程と、
前記統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成する過程とを備えることを、
特徴とする視聴者反応情報収集方法。 A viewer response information collection method for collecting viewer response information for content to be played back,
Viewer response data indicating the viewer's response to the playback content by collecting one or both of sensing data about the viewer and recognition data about the viewer obtained by performing recognition processing on the viewer. The process of collecting
A process of collecting viewing data about playback content including information on screen operation history,
Integrating the viewer response data and the viewing data in time synchronization;
Generating audience quality data indicating a qualitative reaction of the viewer to the playback content based on the integrated data, and creating viewing metadata for distribution of the generated audience quality data. That
A feature of audience response information collection method.
前記作成する過程では、再生コンテンツに対する視聴者の実視聴時間の情報、再生コンテンツに対する視聴者の注目度の時間遷移の情報、再生コンテンツに対する視聴者の感情・気分の情報、再生コンテンツに対する視聴者の視聴前後における感情・気分の変化の情報、視聴者の入力した再生コンテンツに対する心理状態の情報、視聴者の入力した再生コンテンツに対するコンテンツ評価の情報のうち、少なくともいずれか1つを含む視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成することを、
特徴とする視聴者反応情報収集方法。 In the viewer reaction information collection method according to claim 3,
In the process of creating, the viewer's actual viewing time information for the playback content, the viewer's attention level transition information for the playback content, the viewer's emotion / mood information for the playback content, and the viewer's attention to the playback content Audience quality data including at least one of emotion / mood change information before and after viewing, information on psychological state with respect to playback content input by the viewer, and content evaluation information with respect to playback content input by the viewer. Generating and creating viewing metadata for distribution of the generated audience quality data,
A feature of audience response information collection method.
前記統合する過程では、前記視聴メタデータのリアルタイム作成を実現すべく、双方のデータを逐次的につき合わせる形で、前記視聴者反応データと前記視聴データとを時間同期させて統合することを、
特徴とする視聴者反応情報収集方法。 In the viewer reaction information collection method of Claim 3 or 4,
In the integration process, in order to realize real-time creation of the viewing metadata, integrating the viewer response data and the viewing data in a time-synchronized manner in the form of sequentially combining both data,
A feature of audience response information collection method.
前記統合する過程では、前記視聴メタデータの事後作成を実現すべく、前記視聴者反応データが収集された際に割り付けられたタイムスタンプと、前記視聴データが収集された際に割り付けられたタイムスタンプとを使って、前記視聴者反応データと前記視聴データとを時間同期させて統合することを、
特徴とする視聴者反応情報収集方法。 In the viewer reaction information collection method of Claim 3 or 4,
In the integrating step, a time stamp assigned when the viewer response data is collected and a time stamp assigned when the viewing data is collected in order to realize post-creation of the viewing metadata. And integrating the viewer response data and the viewing data in time synchronization with each other,
A feature of audience response information collection method.
前記視聴者反応データを収集する過程では、視聴者の感情・気分を示す情報を収集すべく、前記視聴者反応データとして、視聴者の表情、視線、瞬き、体温、血圧、心拍数、発汗のうち、少なくともいずれか1つを収集することを、
特徴とする視聴者反応情報収集方法。 In the viewer reaction information collection method according to any one of claims 3 to 6,
In the process of collecting the viewer response data, in order to collect information indicating the viewer's emotion and mood, the viewer response data includes the viewer's facial expression, line of sight, blink, body temperature, blood pressure, heart rate, sweating. Collecting at least one of them,
A feature of audience response information collection method.
前記視聴データを収集する過程では、視聴者の感情・気分を示す情報を収集すべく、前記視聴データの1つとして、前記ユーザ端末の備える入力装置から、視聴者の感情・気分を示す情報を収集することを、
特徴とする視聴者反応情報収集方法。 In the viewer reaction information collection method according to any one of claims 3 to 6,
In the process of collecting the viewing data, in order to collect information indicating the viewer's emotion / mood, information indicating the viewer's emotion / mood is input from the input device of the user terminal as one of the viewing data. To collect,
A feature of audience response information collection method.
個人情報を管理する装置から、前記視聴メタデータの作成元となった再生コンテンツを視聴する視聴者の個人情報を取得する過程を備えることを、
特徴とする視聴者反応情報収集方法。 In the viewer reaction information collection method according to any one of claims 3 to 8,
Including a process of acquiring personal information of a viewer who views the playback content that is the creation source of the viewing metadata from an apparatus that manages personal information.
A feature of audience response information collection method.
コンテンツ提供装置から送信されてくる視聴要求のコンテンツを再生する手段と、
前記コンテンツ提供装置から送信されてくる再生コンテンツのメタデータを入手する手段と、
視聴者による画面操作の情報を入手して保存手段に保存させることで画面操作履歴の情報を収集する手段と、
視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置から、該視聴者反応データを入手する手段と、
前記画面操作履歴の情報と前記視聴者反応データとを時間同期させて統合するとともに、それに前記メタデータを統合する手段と、
前記統合データを、コンテンツに対しての視聴者反応の情報を提供する視聴者反応情報提供装置に送信する手段とを備えることを、
特徴とする視聴者反応情報収集システムで用いられるユーザ端末。 A user terminal used in a viewer response information collection system that collects viewer response information for content to be played back,
Means for reproducing the content of the viewing request transmitted from the content providing device;
Means for obtaining metadata of playback content transmitted from the content providing device;
Means for collecting screen operation history information by obtaining screen operation information by a viewer and storing it in a storage means;
Viewer response data indicating the viewer's response to the playback content by collecting one or both of sensing data about the viewer and recognition data about the viewer obtained by performing recognition processing on the viewer. Means for obtaining the viewer response data from a sensing device that collects
Means for integrating the screen operation history information and the viewer response data in time synchronization, and integrating the metadata to it;
Means for transmitting the integrated data to a viewer response information providing device that provides information on viewer response to content.
A user terminal used in a characteristic audience reaction information collecting system.
コンテンツを再生するユーザ端末から、画面操作履歴の情報と視聴者の反応を示す視聴者反応データとを時間同期させて統合するとともに、それに再生コンテンツのメタデータを統合することにより生成された統合データを入手する手段と、
前記統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成する手段と、
前記視聴質データの流通用の視聴メタデータを作成する手段と、
前記視聴メタデータを要求元に送信する手段とを備えることを、
特徴とする視聴者反応情報収集システムで用いられる視聴者反応情報提供装置。 A viewer response information providing apparatus used in a viewer response information collecting system for collecting information of a viewer response to reproduced content,
Integrated data generated by integrating screen operation history information and viewer response data indicating the viewer's response in time synchronization from the user terminal that plays back the content, and by integrating the metadata of the playback content into it A means of obtaining
Means for generating audience quality data indicating a qualitative reaction of the viewer to the playback content based on the integrated data;
Means for creating viewing metadata for distribution of the audience quality data;
Means for transmitting the viewing metadata to a request source,
A viewer response information providing apparatus used in a characteristic viewer response information collecting system.
コンテンツ提供装置から送信されてくる視聴要求のコンテンツを再生する手段と、
前記コンテンツ提供装置から送信されてくる再生コンテンツのメタデータを入手する手段と、
視聴者による画面操作の情報を入手して保存手段に保存させることで画面操作履歴の情報を収集する手段と、
前記画面操作履歴の情報と前記メタデータとを加工することで視聴データを作成する手段と、
前記視聴データを、コンテンツに対しての視聴者反応の情報を提供する視聴者反応情報提供装置に送信する手段とを備えることを、
特徴とする視聴者反応情報収集システムで用いられるユーザ端末。 A user terminal used in a viewer response information collection system that collects viewer response information for content to be played back,
Means for reproducing the content of the viewing request transmitted from the content providing device;
Means for obtaining metadata of playback content transmitted from the content providing device;
Means for collecting screen operation history information by obtaining screen operation information by a viewer and storing it in a storage means;
Means for creating viewing data by processing the information of the screen operation history and the metadata;
Means for transmitting the viewing data to a viewer response information providing device that provides viewer response information to the content,
A user terminal used in a characteristic audience reaction information collecting system.
視聴者についてのセンシングデータとそれを認識処理することで得られる視聴者についての認識データのいずれか一方又は双方を収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するセンシング装置から、該視聴者反応データを入手する手段と、
コンテンツを再生するユーザ端末から、画面操作履歴の情報と再生コンテンツのメタデータとを加工することにより生成された視聴データを入手する手段と、
前記視聴者反応データと前記視聴データとを時間同期させて統合する手段と、
前記統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成する手段と、
前記視聴質データの流通用の視聴メタデータを作成する手段と、
前記視聴メタデータを要求元に送信する手段とを備えることを、
特徴とする視聴者反応情報収集システムで用いられる視聴者反応情報提供装置。 A viewer response information providing apparatus used in a viewer response information collection system for collecting information of a viewer response to content to be played back,
Viewer response data indicating the viewer's response to the playback content by collecting one or both of sensing data about the viewer and recognition data about the viewer obtained by performing recognition processing on the viewer. Means for obtaining the viewer response data from a sensing device that collects
Means for obtaining viewing data generated by processing screen operation history information and reproduction content metadata from a user terminal that reproduces content;
Means for synchronizing the viewer response data and the viewing data in time synchronization;
Means for generating audience quality data indicating a qualitative reaction of the viewer to the playback content based on the integrated data;
Means for creating viewing metadata for distribution of the audience quality data;
Means for transmitting the viewing metadata to a request source,
A viewer response information providing apparatus used in a characteristic viewer response information collecting system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003379243A JP4335642B2 (en) | 2003-11-10 | 2003-11-10 | Viewer reaction information collecting method, user terminal and viewer reaction information providing device used in the viewer reaction information collecting system, and program for creating viewer reaction information used for realizing the user terminal / viewer reaction information providing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003379243A JP4335642B2 (en) | 2003-11-10 | 2003-11-10 | Viewer reaction information collecting method, user terminal and viewer reaction information providing device used in the viewer reaction information collecting system, and program for creating viewer reaction information used for realizing the user terminal / viewer reaction information providing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005142975A true JP2005142975A (en) | 2005-06-02 |
JP4335642B2 JP4335642B2 (en) | 2009-09-30 |
Family
ID=34689356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003379243A Expired - Fee Related JP4335642B2 (en) | 2003-11-10 | 2003-11-10 | Viewer reaction information collecting method, user terminal and viewer reaction information providing device used in the viewer reaction information collecting system, and program for creating viewer reaction information used for realizing the user terminal / viewer reaction information providing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4335642B2 (en) |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006254145A (en) * | 2005-03-11 | 2006-09-21 | Mmn:Kk | Audience concentration degree measuring method of tv program |
WO2007013312A1 (en) * | 2005-07-28 | 2007-02-01 | The University Of Tokyo | Viewer information measurement system and matching system using the same |
JP2007034664A (en) * | 2005-07-27 | 2007-02-08 | Sony Corp | Emotion estimation device and method, recording medium and program |
JP2007110438A (en) * | 2005-10-13 | 2007-04-26 | Tokyo Fm Broadcasting Co Ltd | Digital radio broadcast wave receiving control system and server apparatus thereof |
JP2007142578A (en) * | 2005-11-15 | 2007-06-07 | Nippon Telegr & Teleph Corp <Ntt> | Sensation communication device and sensation communication method |
JP2008009501A (en) * | 2006-06-27 | 2008-01-17 | Olympus Corp | Charging method |
JP2008046801A (en) * | 2006-08-14 | 2008-02-28 | Advanced Telecommunication Research Institute International | Interest trend information output device, interest trend information output method and program |
WO2008102533A1 (en) * | 2007-02-20 | 2008-08-28 | Panasonic Corporation | View quality judging device, view quality judging method, view quality judging program, and recording medium |
WO2008111164A1 (en) * | 2007-03-13 | 2008-09-18 | Mitsubishi Electric Corporation | System for providing information in cage of elevator |
JP2009140010A (en) * | 2007-12-03 | 2009-06-25 | Sony Corp | Information processing device, information processing terminal, information processing method, and program |
JP2009176197A (en) * | 2008-01-28 | 2009-08-06 | Fuji Xerox Co Ltd | Browsing degree discrimination system |
JP2009267445A (en) * | 2008-04-21 | 2009-11-12 | Toshiba Corp | Preference information managing device, and preference information managing method |
JP2010094493A (en) * | 2008-09-22 | 2010-04-30 | Koichi Kikuchi | System for deciding viewer's feeling on viewing scene |
JP2010520553A (en) * | 2007-03-07 | 2010-06-10 | エムセンス コーポレイション | Method and system for utilizing bioresponse consistency as a measure of media performance |
JP2011129997A (en) * | 2009-12-15 | 2011-06-30 | Victor Co Of Japan Ltd | User information processing program, reproducing program, user information processor, reproducing device, user information processing method, and reproducing method |
JP2011139441A (en) * | 2009-12-03 | 2011-07-14 | Panasonic Corp | Viewing terminal device, viewing statistics apparatus, viewing statistics processing system, and viewing statistics processing method |
WO2012020861A1 (en) * | 2010-08-12 | 2012-02-16 | 엘지전자 주식회사 | Image display device, image display system, and method for analyzing the emotional state of a user |
KR101116373B1 (en) * | 2008-10-31 | 2012-03-19 | 한국과학기술원 | Sharing System of Emotion Data and Method Sharing Emotion Data |
JP2012510752A (en) * | 2008-11-28 | 2012-05-10 | サムスン エレクトロニクス カンパニー リミテッド | Content consumption method and apparatus using metadata |
JP2012522470A (en) * | 2009-03-30 | 2012-09-20 | インナースコープ リサーチ, インコーポレイテッド | Method and system for predicting viewer behavior |
JP2012244362A (en) * | 2011-05-18 | 2012-12-10 | Nippon Hoso Kyokai <Nhk> | Receiver and program |
WO2013106352A1 (en) * | 2012-01-10 | 2013-07-18 | Microsoft Corporation | Consumption of content with reactions of an individual |
JP2013153349A (en) * | 2012-01-25 | 2013-08-08 | Nippon Hoso Kyokai <Nhk> | Viewing state recognition apparatus and viewing state recognition program |
JP2013183373A (en) * | 2012-03-02 | 2013-09-12 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for estimating degree of interest and program |
US8600969B2 (en) | 2010-11-12 | 2013-12-03 | Electronics And Telecommunications Research Institute | User interest pattern modeling server and method for modeling user interest pattern |
JP2014504460A (en) * | 2010-09-30 | 2014-02-20 | アフェクティヴァ,インコーポレイテッド | Emotion data measurement for web-enabled applications |
JP2014042235A (en) * | 2012-07-24 | 2014-03-06 | Takashi Hirabayashi | Audience rating survey system, facial expression information generation device, and facial expression information generation program |
JP2015087782A (en) * | 2013-10-28 | 2015-05-07 | 日本放送協会 | Viewing state estimation device and program of the same |
KR101535432B1 (en) * | 2013-09-13 | 2015-07-13 | 엔에이치엔엔터테인먼트 주식회사 | Contents valuation system and contents valuating method using the system |
US9301015B2 (en) | 2011-08-04 | 2016-03-29 | Ebay Inc. | User commentary systems and methods |
JP2018064246A (en) * | 2016-10-14 | 2018-04-19 | 学校法人立命館 | Information recording device, time identification device, time identification system, and time identification method |
JP2018093350A (en) * | 2016-12-01 | 2018-06-14 | 有限会社曽根地所 | Attention degree evaluation system |
JP2018182761A (en) * | 2015-04-24 | 2018-11-15 | マーシブ テクノロジーズ,インコーポレイティド | System and method for interactive and real-time visualization of distributed media |
JP2019036326A (en) * | 2018-10-05 | 2019-03-07 | 株式会社ニコン | Electronic apparatus |
KR101974130B1 (en) * | 2018-02-02 | 2019-04-30 | 동서대학교 산학협력단 | Realtime Responsive Contents Providing System Using Emotional Information of Audience |
US10798438B2 (en) | 2011-12-09 | 2020-10-06 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
WO2020240976A1 (en) * | 2019-05-27 | 2020-12-03 | ソニー株式会社 | Artificial intelligence information processing device and artificial intelligence information processing method |
JP6934233B1 (en) * | 2020-09-07 | 2021-09-15 | 株式会社Shift | Programs, information processing equipment, and methods |
WO2022059451A1 (en) * | 2020-09-16 | 2022-03-24 | 早紀 辻 | Donation device, donation method, and donation program |
US11983309B2 (en) | 2018-03-22 | 2024-05-14 | Japan Science And Technology Agency | Device and method to acquire timing of blink motion performed by a dialogue device |
WO2024150696A1 (en) * | 2023-01-12 | 2024-07-18 | ソニーグループ株式会社 | Information processing apparatus |
JP7552605B2 (en) | 2019-09-24 | 2024-09-18 | ソニーグループ株式会社 | Information processing device, information processing system, information processing method, and program |
-
2003
- 2003-11-10 JP JP2003379243A patent/JP4335642B2/en not_active Expired - Fee Related
Cited By (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006254145A (en) * | 2005-03-11 | 2006-09-21 | Mmn:Kk | Audience concentration degree measuring method of tv program |
JP4536558B2 (en) * | 2005-03-11 | 2010-09-01 | 株式会社エム・エム・エヌ | TV program audience quality measurement method |
JP2007034664A (en) * | 2005-07-27 | 2007-02-08 | Sony Corp | Emotion estimation device and method, recording medium and program |
WO2007013312A1 (en) * | 2005-07-28 | 2007-02-01 | The University Of Tokyo | Viewer information measurement system and matching system using the same |
JP2007110438A (en) * | 2005-10-13 | 2007-04-26 | Tokyo Fm Broadcasting Co Ltd | Digital radio broadcast wave receiving control system and server apparatus thereof |
JP2007142578A (en) * | 2005-11-15 | 2007-06-07 | Nippon Telegr & Teleph Corp <Ntt> | Sensation communication device and sensation communication method |
JP4568211B2 (en) * | 2005-11-15 | 2010-10-27 | 日本電信電話株式会社 | Sensory communication device and sensory communication method |
JP2008009501A (en) * | 2006-06-27 | 2008-01-17 | Olympus Corp | Charging method |
JP2008046801A (en) * | 2006-08-14 | 2008-02-28 | Advanced Telecommunication Research Institute International | Interest trend information output device, interest trend information output method and program |
JP2008205861A (en) * | 2007-02-20 | 2008-09-04 | Matsushita Electric Ind Co Ltd | Viewing and listening quality determining apparatus, viewing and listening quality determining method, viewing and listening quality determining program, and storage medium |
WO2008102533A1 (en) * | 2007-02-20 | 2008-08-28 | Panasonic Corporation | View quality judging device, view quality judging method, view quality judging program, and recording medium |
JP2010520553A (en) * | 2007-03-07 | 2010-06-10 | エムセンス コーポレイション | Method and system for utilizing bioresponse consistency as a measure of media performance |
WO2008111164A1 (en) * | 2007-03-13 | 2008-09-18 | Mitsubishi Electric Corporation | System for providing information in cage of elevator |
JP2009140010A (en) * | 2007-12-03 | 2009-06-25 | Sony Corp | Information processing device, information processing terminal, information processing method, and program |
US8694495B2 (en) | 2007-12-03 | 2014-04-08 | Sony Corporation | Information processing device, information processing terminal, information processing method, and program |
US9342576B2 (en) | 2007-12-03 | 2016-05-17 | Sony Corporation | Information processing device, information processing terminal, information processing method, and program |
JP4538756B2 (en) * | 2007-12-03 | 2010-09-08 | ソニー株式会社 | Information processing apparatus, information processing terminal, information processing method, and program |
JP2009176197A (en) * | 2008-01-28 | 2009-08-06 | Fuji Xerox Co Ltd | Browsing degree discrimination system |
JP2009267445A (en) * | 2008-04-21 | 2009-11-12 | Toshiba Corp | Preference information managing device, and preference information managing method |
JP2010094493A (en) * | 2008-09-22 | 2010-04-30 | Koichi Kikuchi | System for deciding viewer's feeling on viewing scene |
KR101116373B1 (en) * | 2008-10-31 | 2012-03-19 | 한국과학기술원 | Sharing System of Emotion Data and Method Sharing Emotion Data |
JP2012510752A (en) * | 2008-11-28 | 2012-05-10 | サムスン エレクトロニクス カンパニー リミテッド | Content consumption method and apparatus using metadata |
JP2012522470A (en) * | 2009-03-30 | 2012-09-20 | インナースコープ リサーチ, インコーポレイテッド | Method and system for predicting viewer behavior |
JP2011139441A (en) * | 2009-12-03 | 2011-07-14 | Panasonic Corp | Viewing terminal device, viewing statistics apparatus, viewing statistics processing system, and viewing statistics processing method |
US8510156B2 (en) | 2009-12-03 | 2013-08-13 | Panasonic Corporation | Viewing terminal apparatus, viewing statistics-gathering apparatus, viewing statistics-processing system, and viewing statistics-processing method |
JP2011129997A (en) * | 2009-12-15 | 2011-06-30 | Victor Co Of Japan Ltd | User information processing program, reproducing program, user information processor, reproducing device, user information processing method, and reproducing method |
WO2012020861A1 (en) * | 2010-08-12 | 2012-02-16 | 엘지전자 주식회사 | Image display device, image display system, and method for analyzing the emotional state of a user |
US9099019B2 (en) | 2010-08-12 | 2015-08-04 | Lg Electronics Inc. | Image display device, image display system, and method for analyzing the emotional state of a user |
JP2014504460A (en) * | 2010-09-30 | 2014-02-20 | アフェクティヴァ,インコーポレイテッド | Emotion data measurement for web-enabled applications |
US8600969B2 (en) | 2010-11-12 | 2013-12-03 | Electronics And Telecommunications Research Institute | User interest pattern modeling server and method for modeling user interest pattern |
JP2012244362A (en) * | 2011-05-18 | 2012-12-10 | Nippon Hoso Kyokai <Nhk> | Receiver and program |
US11438665B2 (en) | 2011-08-04 | 2022-09-06 | Ebay Inc. | User commentary systems and methods |
US11765433B2 (en) | 2011-08-04 | 2023-09-19 | Ebay Inc. | User commentary systems and methods |
US9967629B2 (en) | 2011-08-04 | 2018-05-08 | Ebay Inc. | User commentary systems and methods |
KR101755956B1 (en) * | 2011-08-04 | 2017-07-07 | 이베이 인크. | User commentary systems and methods |
US10827226B2 (en) | 2011-08-04 | 2020-11-03 | Ebay Inc. | User commentary systems and methods |
US9301015B2 (en) | 2011-08-04 | 2016-03-29 | Ebay Inc. | User commentary systems and methods |
US9584866B2 (en) | 2011-08-04 | 2017-02-28 | Ebay Inc. | User commentary systems and methods |
KR101624060B1 (en) * | 2011-08-04 | 2016-05-24 | 이베이 인크. | User commentary systems and methods |
US9532110B2 (en) | 2011-08-04 | 2016-12-27 | Ebay Inc. | User commentary systems and methods |
US10798438B2 (en) | 2011-12-09 | 2020-10-06 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
JP2015510308A (en) * | 2012-01-10 | 2015-04-02 | マイクロソフト コーポレーション | Consumption of content with personal reaction |
US10045077B2 (en) | 2012-01-10 | 2018-08-07 | Microsoft Technology Licensing, Llc | Consumption of content with reactions of an individual |
WO2013106352A1 (en) * | 2012-01-10 | 2013-07-18 | Microsoft Corporation | Consumption of content with reactions of an individual |
US9571879B2 (en) | 2012-01-10 | 2017-02-14 | Microsoft Technology Licensing, Llc | Consumption of content with reactions of an individual |
JP2013153349A (en) * | 2012-01-25 | 2013-08-08 | Nippon Hoso Kyokai <Nhk> | Viewing state recognition apparatus and viewing state recognition program |
JP2013183373A (en) * | 2012-03-02 | 2013-09-12 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for estimating degree of interest and program |
JP2014042235A (en) * | 2012-07-24 | 2014-03-06 | Takashi Hirabayashi | Audience rating survey system, facial expression information generation device, and facial expression information generation program |
KR101535432B1 (en) * | 2013-09-13 | 2015-07-13 | 엔에이치엔엔터테인먼트 주식회사 | Contents valuation system and contents valuating method using the system |
JP2015087782A (en) * | 2013-10-28 | 2015-05-07 | 日本放送協会 | Viewing state estimation device and program of the same |
JP2018182761A (en) * | 2015-04-24 | 2018-11-15 | マーシブ テクノロジーズ,インコーポレイティド | System and method for interactive and real-time visualization of distributed media |
US10404763B2 (en) | 2015-04-24 | 2019-09-03 | Mersive Technologies, Inc. | System and method for interactive and real-time visualization of distributed media |
JP7030316B2 (en) | 2016-10-14 | 2022-03-07 | 学校法人立命館 | Information recording device, time identification device, time identification system, and time identification method |
JP2018064246A (en) * | 2016-10-14 | 2018-04-19 | 学校法人立命館 | Information recording device, time identification device, time identification system, and time identification method |
JP2018093350A (en) * | 2016-12-01 | 2018-06-14 | 有限会社曽根地所 | Attention degree evaluation system |
KR101974130B1 (en) * | 2018-02-02 | 2019-04-30 | 동서대학교 산학협력단 | Realtime Responsive Contents Providing System Using Emotional Information of Audience |
US11983309B2 (en) | 2018-03-22 | 2024-05-14 | Japan Science And Technology Agency | Device and method to acquire timing of blink motion performed by a dialogue device |
JP2019036326A (en) * | 2018-10-05 | 2019-03-07 | 株式会社ニコン | Electronic apparatus |
WO2020240976A1 (en) * | 2019-05-27 | 2020-12-03 | ソニー株式会社 | Artificial intelligence information processing device and artificial intelligence information processing method |
JP7552605B2 (en) | 2019-09-24 | 2024-09-18 | ソニーグループ株式会社 | Information processing device, information processing system, information processing method, and program |
JP6934233B1 (en) * | 2020-09-07 | 2021-09-15 | 株式会社Shift | Programs, information processing equipment, and methods |
JP2022044429A (en) * | 2020-09-07 | 2022-03-17 | 株式会社Shift | Program, information processing device, and method |
WO2022059451A1 (en) * | 2020-09-16 | 2022-03-24 | 早紀 辻 | Donation device, donation method, and donation program |
WO2024150696A1 (en) * | 2023-01-12 | 2024-07-18 | ソニーグループ株式会社 | Information processing apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP4335642B2 (en) | 2009-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4335642B2 (en) | Viewer reaction information collecting method, user terminal and viewer reaction information providing device used in the viewer reaction information collecting system, and program for creating viewer reaction information used for realizing the user terminal / viewer reaction information providing device | |
KR100913865B1 (en) | Apparatus and method for collecting user evaluation regarding contents | |
US20210382929A1 (en) | Multimedia content tags | |
US9706235B2 (en) | Time varying evaluation of multimedia content | |
CN1586078B (en) | System and method for evaluating audience response to broadcasting program | |
JP4538756B2 (en) | Information processing apparatus, information processing terminal, information processing method, and program | |
JP5756456B2 (en) | Method and system for predicting viewer behavior | |
US7889073B2 (en) | Laugh detector and system and method for tracking an emotional response to a media presentation | |
JP5546632B2 (en) | Method and mechanism for analyzing multimedia content | |
US9270918B2 (en) | Method of recommending broadcasting contents and recommending apparatus therefor | |
JP7440020B2 (en) | Information processing method, terminal device, information processing device, and information processing system | |
US20200252407A1 (en) | Methods and systems for establishing communication with users based on biometric data | |
JP2012524458A (en) | Method and system for measuring user experience related to interactive activities | |
US20140337868A1 (en) | Audience-aware advertising | |
US20140137144A1 (en) | System and method for measuring and analyzing audience reactions to video | |
US20110046502A1 (en) | Distributed neuro-response data collection and analysis | |
JP2014511620A (en) | Emotion based video recommendation | |
KR20100039706A (en) | Method for providing dynamic contents service using analysis of user's response and apparatus thereof | |
JP2003527003A (en) | Television system | |
CN105898487A (en) | Interaction method and device for intelligent robot | |
US20150317465A1 (en) | Methods and systems for enabling media guidance application operations based on biometric data | |
JP6767808B2 (en) | Viewing user log storage system, viewing user log storage server, and viewing user log storage method | |
CN104364731A (en) | Content/advertising profiling | |
JP6675736B2 (en) | Video and audio management device and screening system for displaying video and audio | |
JP2020167669A (en) | Video voice management device for screening video and voice and screening system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060410 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090331 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090528 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20090528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090623 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090625 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120703 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130703 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |