JP7202935B2 - Attention level calculation device, attention level calculation method, and attention level calculation program - Google Patents
Attention level calculation device, attention level calculation method, and attention level calculation program Download PDFInfo
- Publication number
- JP7202935B2 JP7202935B2 JP2019049036A JP2019049036A JP7202935B2 JP 7202935 B2 JP7202935 B2 JP 7202935B2 JP 2019049036 A JP2019049036 A JP 2019049036A JP 2019049036 A JP2019049036 A JP 2019049036A JP 7202935 B2 JP7202935 B2 JP 7202935B2
- Authority
- JP
- Japan
- Prior art keywords
- guest
- data
- attention
- exhibition
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 title claims description 95
- 230000000007 visual effect Effects 0.000 claims description 60
- 239000000284 extract Substances 0.000 claims description 19
- 230000004044 response Effects 0.000 claims description 2
- 230000006399 behavior Effects 0.000 description 96
- 238000013500 data storage Methods 0.000 description 36
- 230000015654 memory Effects 0.000 description 30
- 238000000034 method Methods 0.000 description 24
- 238000005192 partition Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 210000003128 head Anatomy 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 229930014626 natural product Natural products 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、映像視聴者の注目度を算出する技術に関する。 The present invention relates to a technique for calculating the degree of attention of a video viewer.
従来、ユーザを中心に360度周囲を視聴可能な全天球映像のライブストリーミングが可能なカメラが知られている。全天球映像のライブストリーミングは、例えばいわゆるテレイジグジスタンスなどの様々な分野での活用が期待されている。 Conventionally, a camera capable of live streaming of omnidirectional video that allows the user to view the surroundings in 360 degrees is known. Live streaming of omnidirectional video is expected to be utilized in various fields such as so-called telexistence.
従来、複数のユーザがAR(Augmented Reality)体験を共有可能な機能が知られている。特許文献1には複数のユーザがMR(Mixed Reality)映像を共有して共同作業を行うことのできるシステムについて開示されている。 Conventionally, a function is known that allows multiple users to share an AR (Augmented Reality) experience. Patent Literature 1 discloses a system in which a plurality of users can share MR (Mixed Reality) images and perform collaborative work.
また、特許文献2には、HMD(Head Mounted Display)の現実空間における位置および向きから、当該HMDを装着しているユーザの視線および視線の先にある当該ユーザの着目点を特定することが開示されている。 Further, Patent Literature 2 discloses that the line of sight of the user wearing the HMD and the point of interest of the user beyond the line of sight are specified from the position and orientation of the HMD (Head Mounted Display) in the real space. It is
さらに、特許文献3には、提示された画像間の注目度を被験者の瞳の収縮などに基づいて計測すること、この注目度をニューラルネット等の微視的なモデル情報として学習させ、このモデル情報に基づいて、所定の属性の閲覧者用のマーケティング用コンテンツを作成することが記載されている。 Furthermore, in Patent Document 3, the degree of attention between presented images is measured based on the contraction of the subject's pupil, etc., and this degree of attention is learned as microscopic model information such as a neural network, and this model Based on the information, creating marketing content for viewers of predetermined attributes is described.
本発明は、ホストによって撮影された映像を共有するゲストの注目度を算出することを目的とする。 An object of the present invention is to calculate the degree of attention of a guest who shares a video shot by a host.
本発明の第1の態様に係る注目度算出装置は、取得部と、特定部と、算出部とを含む。取得部は、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づくゲストの視聴行動データを取得する。特定部は、視聴行動データに基づいて、展示会における複数の展示対象のうちゲストの注目した対象を特定する。算出部は、ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように複数の展示対象の注目度を算出する。 A attention level calculation device according to a first aspect of the present invention includes an acquisition unit, a specification unit, and a calculation unit. The acquisition unit acquires the viewing behavior data of the guest based on the input acquired by the terminal of the guest sharing the video data of the exhibition captured by the host. The specifying unit specifies, based on the viewing behavior data, an object of interest of the guest among the plurality of exhibition objects at the exhibition. The calculation unit calculates the attention levels of the plurality of display objects so that the attention level of the display object specified as the target of the guest's attention is relatively increased.
第1の態様に係る注目度算出装置は、展示会に仮想的に参加するゲストからの展示対象への注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。 Since the attention degree calculation device according to the first aspect calculates the attention degree of the exhibition target from the guests who virtually participate in the exhibition, it is an approach different from the questionnaire to the actual participants of the exhibition. , data related to interest in the exhibition subject can be collected.
第1の態様に係る注目度算出装置において、映像データは、パノラマ映像を表してよい。視聴行動データは、映像データの第1の再生時刻におけるゲストの視野方向を示す視野方向データと、第1の再生時刻を示す再生時刻データとを含んでよい。特定部は、映像データから再生時刻データおよび視野方向データに基づいて第1の再生時刻におけるゲストの視野画像を抽出し、視野画像の被写体から第1の再生時刻にゲストが注目した対象を特定してよい。この注目度算出装置によれば、再生時刻に関連付けられた視野方向データを利用して当該再生時刻におけるゲストの視野画像を抽出し、この視野画像の被写体からゲストが注目した対象を特定することができる。なお、一般的に、視野方向データはキャプチャ画像などの画像データよりも小容量であるから、この注目度算出装置によれば、注目度の算出に関わるメモリの使用量、およびデータ通信量を節約できる可能性がある。 In the attention level calculation device according to the first aspect, the image data may represent a panoramic image. The viewing behavior data may include viewing direction data indicating the viewing direction of the guest at the first playback time of the video data, and playback time data indicating the first playback time. The identification unit extracts the visual field image of the guest at the first reproduction time from the video data based on the reproduction time data and the visual field direction data, and identifies the object of the guest's attention at the first reproduction time from the subject of the visual field image. you can According to this attention level calculation device, it is possible to extract the visual field image of the guest at the reproduction time using the visual field direction data associated with the reproduction time, and specify the object that the guest paid attention to from the subject of the visual field image. can. In addition, since the visual field direction data is generally smaller in capacity than the image data such as the captured image, according to this attention degree calculation device, the amount of memory used and the amount of data communication related to the attention degree calculation can be saved. It is possible.
第1の態様に係る注目度算出装置において、映像データは、パノラマ映像を表してよい。視聴行動データは、ゲストの端末が映像データをキャプチャした時に対応する映像データの第1の再生時刻を示す再生時刻データと、第1の再生時刻におけるゲストの視野方向を示す視野方向データとを含んでよい。特定部は、映像データから再生時刻データおよび視野方向データに基づいて第1の再生時刻におけるゲストの視野画像を抽出し、視野画像の被写体から第1の再生時刻にゲストが注目した対象を特定してよい。この注目度算出装置によれば、ゲストがキャプチャ操作を行った時の再生時刻に関連付けられた視野方向データを利用して当該再生時刻における当該ゲストの視野画像を抽出し、この視野画像の被写体から当該ゲストが注目した対象を特定することができる。ゲストがキャプチャ操作を行った時の当該ゲストの視野画像には当該ゲストが注目した対象が含まれる可能性が高いと推定できるので、この注目度算出装置によれば、信頼性の高い注目度を算出することができる。なお、一般的に、視野方向データはキャプチャ画像などの画像データよりも小容量であるから、この注目度算出装置によれば、注目度の算出に関わるメモリの使用量、およびデータ通信量を節約できる可能性がある。 In the attention level calculation device according to the first aspect, the image data may represent a panoramic image. The viewing behavior data includes playback time data indicating a first playback time of the video data corresponding to when the guest's terminal captured the video data, and view direction data indicating the viewing direction of the guest at the first playback time. OK. The identification unit extracts the visual field image of the guest at the first reproduction time from the video data based on the reproduction time data and the visual field direction data, and identifies the object of the guest's attention at the first reproduction time from the subject of the visual field image. you can According to this attention level calculation device, the visual field image of the guest at the reproduction time is extracted by using the visual field direction data associated with the reproduction time when the guest performed the capture operation, and the subject of the visual field image is extracted. It is possible to specify the object that the guest has paid attention to. Since it can be estimated that there is a high possibility that the object that the guest has paid attention to is included in the visual field image of the guest when the guest performs the capture operation, according to this attention degree calculation device, it is possible to obtain a highly reliable degree of attention. can be calculated. In addition, since the visual field direction data is generally smaller in capacity than the image data such as the captured image, according to this attention degree calculation device, the amount of memory used and the amount of data communication related to the attention degree calculation can be saved. It is possible.
第1の態様に係る注目度算出装置において、視聴行動データは、ゲストの端末によってキャプチャ操作に応じて生成された映像データのキャプチャ画像と、キャプチャ操作がなされた時に対応する映像データの第1の再生時刻を示す再生時刻データとを含んでよい。特定部は、キャプチャ画像の被写体から第1の再生時刻にゲストが注目した対象を特定してよい。この注目度算出装置によれば、ゲストによるキャプチャ画像の被写体から当該ゲストが注目した対象を特定することができる。かかるキャプチャ画像にはゲストが注目した対象が含まれる可能性が高いと推定できるので、この注目度算出装置によれば、信頼性の高い注目度を算出することができる。 In the attention level calculation device according to the first aspect, the viewing behavior data includes a captured image of video data generated by a guest's terminal in response to a capture operation, and a first image of video data corresponding to when the capture operation was performed. and playback time data indicating the playback time. The specifying unit may specify the object that the guest paid attention to at the first reproduction time from the objects of the captured image. According to this attention level calculation device, it is possible to identify the target of the guest's attention from the subject of the image captured by the guest. Since it can be estimated that such a captured image is likely to include an object that the guest paid attention to, according to this attention degree calculation device, it is possible to calculate a highly reliable degree of attention.
第1の態様に係る注目度算出装置において、視聴行動データは、映像データの第1の再生時刻においてゲストの端末において映像データの表す映像に重畳して表示されたGUI(Graphical User Interface)部品のうちゲストによって選択された第1のGUI部品を示すGUI選択データと、第1の再生時刻を示す再生時刻データとを含んでよい。特定部は、映像データから少なくとも再生時刻データに基づいてゲストの視野画像を抽出し、視野画像の被写体からGUI選択データに基づいて第1の再生時刻においてゲストの注目した対象を特定してよい。この注目度算出装置によれば、ゲストの視野画像を少なくとも再生時刻データに基づいて抽出し、この視野画像の被写体からゲストが注目した対象をGUI選択データに基づいて特定することができる。GUI選択データは、ゲストが能動的に選択したGUI部品を示しており、選択されたGUI部品から視野画像に含まれる展示対象の一部または全部について、ゲストが本当に興味・関心を抱いているのか、それとも早く別の展示対象を見たいと考えているのか、を推定することができる。すなわち、このように、GUI選択データを考慮してゲストが注目した対象を特定することで、信頼性の高い注目度を算出することができる。 In the attention level calculation device according to the first aspect, the viewing behavior data is a GUI (Graphical User Interface) part superimposed and displayed on the video represented by the video data on the terminal of the guest at the first reproduction time of the video data. It may include GUI selection data indicating the first GUI component selected by the guest, and playback time data indicating the first playback time. The identification unit may extract the visual field image of the guest from the video data based on at least the reproduction time data, and identify the target of the guest's attention at the first reproduction time based on the GUI selection data from the subject of the visual field image. According to this degree-of-attention calculation device, it is possible to extract the visual field image of the guest based on at least the reproduction time data, and to specify the target of the guest's attention from the subjects of the visual field image based on the GUI selection data. The GUI selection data indicates the GUI parts actively selected by the guest, and whether or not the guest is really interested in some or all of the exhibition objects included in the visual field image from the selected GUI parts. , or whether they want to see another exhibit as soon as possible. In other words, by specifying the target that the guest paid attention to in consideration of the GUI selection data in this way, it is possible to calculate the degree of attention with high reliability.
第1の態様に係る注目度算出装置において、視聴行動データは、映像データの第1の再生時刻におけるゲストの視野方向を示す視野方向データと、第1の再生時刻を示す再生時刻データとを含んでよい。特定部は、第1の再生時刻におけるホストの位置と映像データの基準アングルとを示す基準位置姿勢データおよび視野方向データに基づいて第1の再生時刻におけるゲストの視野範囲を決定し、決定した視野範囲と複数の展示対象の各々を展示対象の位置に関連付けるマップデータとに基づいて第1の再生時刻においてゲストの注目した対象を特定してよい。 In the attention level calculation device according to the first aspect, the viewing behavior data includes viewing direction data indicating the viewing direction of the guest at the first playback time of the video data, and playback time data indicating the first playback time. OK. The specifying unit determines the visual field range of the guest at the first reproduction time based on the reference position/orientation data and the viewing direction data indicating the position of the host and the reference angle of the video data at the first reproduction time, and determines the determined visual field. The object of interest of the guest at the first playback time may be identified based on the range and map data that associates each of the plurality of objects on display with the position of the object on display.
この注目度算出装置によれば、再生時刻に関連付けられた視野方向データと、同じ再生時刻に関連付けられた基準位置姿勢データとを利用して当該再生時刻におけるゲストの視野範囲を決定し、この視野範囲とマップデータとに基づいてゲストが注目した対象を特定することができる。なお、一般的に、基準位置姿勢データおよびマップデータは映像データよりも小容量であるから、この注目度算出装置によれば、注目度の算出に関わるメモリの使用量を節約できる可能性がある。 According to this attention level calculation device, the visual field direction data associated with the reproduction time and the reference position/orientation data associated with the same reproduction time are used to determine the visual field range of the guest at the reproduction time. The target of the guest's attention can be identified based on the range and the map data. Note that since the reference position/orientation data and the map data are generally smaller in capacity than the video data, this attention level calculation device may save memory usage related to attention level calculation. .
第1の態様に係る注目度算出装置において、映像データは、パノラマ映像を表してよい。視聴行動データは、ゲストの端末が映像データをキャプチャした時に対応する映像データの第1の再生時刻を示す再生時刻データと、第1の再生時刻におけるゲストの視野方向を示す視野方向データとを含んでよい。特定部は、第1の再生時刻におけるホストの位置と映像データの基準アングルとを示す基準位置姿勢データおよび視野方向データに基づいて第1の再生時刻におけるゲストの視野範囲を決定し、決定した視野範囲と複数の展示対象の各々を展示対象の位置に関連付けるマップデータとに基づいて第1の再生時刻においてゲストの注目した対象を特定してよい。 In the attention level calculation device according to the first aspect, the image data may represent a panoramic image. The viewing behavior data includes playback time data indicating a first playback time of the video data corresponding to when the guest's terminal captured the video data, and view direction data indicating the viewing direction of the guest at the first playback time. OK. The specifying unit determines the visual field range of the guest at the first reproduction time based on the reference position/orientation data and the viewing direction data indicating the position of the host and the reference angle of the video data at the first reproduction time, and determines the determined visual field. The object of interest of the guest at the first playback time may be identified based on the range and map data that associates each of the plurality of objects on display with the position of the object on display.
この注目度算出装置によれば、ゲストがキャプチャ操作を行った時の再生時刻に関連付けられた視野方向データと、同じ再生時刻に関連付けられた基準位置姿勢データとを利用して当該再生時刻におけるゲストの視野範囲を決定し、この視野範囲とマップデータとに基づいてゲストが注目した対象を特定することができる。ゲストがキャプチャ操作を行った時の当該ゲストの視野範囲には当該ゲストが注目した対象が含まれる可能性が高いと推定できるので、この注目度算出装置によれば、信頼性の高い注目度を算出することができる。なお、一般的に、基準位置姿勢データおよびマップデータは映像データよりも小容量であるから、この注目度算出装置によれば、注目度の算出に関わるメモリの使用量を節約できる可能性がある。 According to this attention degree calculation device, by using the viewing direction data associated with the playback time when the guest performed the capture operation and the reference position/orientation data associated with the same playback time, the guest at the playback time is captured. , and based on this visual field range and the map data, the object focused on by the guest can be identified. Since it can be estimated that there is a high possibility that the target focused on by the guest is included in the visual field range of the guest when the guest performs the capture operation, according to this attention level calculation device, it is possible to obtain a highly reliable level of attention. can be calculated. Note that since the reference position/orientation data and the map data are generally smaller in capacity than the video data, this attention level calculation device may save memory usage related to attention level calculation. .
第1の態様に係る注目度算出装置において、算出部は、ゲストの注目した対象として特定された展示対象の注目度がゲストによる展示対象への注目の持続時間の長さに応じて増加するように複数の展示対象の注目度を算出してよい。この注目度算出装置によれば、ゲストが展示対象を注視する時間が長いほど当該展示対象の注目度が増加するので、僅かな時間ゲストの目に留まったに過ぎない展示対象と、ゲストの目を長時間奪った展示対象とを正当に区別して注目度を算出することができる。 In the attention degree calculation device according to the first aspect, the calculation unit causes the degree of attention of the exhibition object specified as the object to which the guest has paid attention to increase according to the duration of the attention of the guest to the exhibition object. You may calculate the degree of attention of a plurality of display objects. According to this attention level calculation device, the longer the time that a guest gazes at an exhibition object, the more the attention degree of the exhibition object increases. It is possible to calculate the degree of attention by properly distinguishing the exhibition object that has been deprived of the for a long time.
本発明の第2の態様に係る注目度算出方法は、コンピュータが、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づくゲストの視聴行動データを取得することと、コンピュータが、視聴行動データに基づいて、展示会における複数の展示対象のうちゲストの注目した対象を特定することと、コンピュータが、ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように複数の展示対象の注目度を算出することとを具備する。 A method for calculating the degree of attention according to a second aspect of the present invention comprises: obtaining, by a computer, guest viewing behavior data based on an input obtained at a terminal of a guest sharing video data of an exhibition captured by a host; , a computer identifying an object of interest of a guest among a plurality of exhibition objects in an exhibition based on viewing behavior data; and calculating attention levels of the plurality of display objects so as to increase exponentially.
この注目度算出方法は、展示会に仮想的に参加するゲストからの展示対象への注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。 This method of calculating the degree of attention to the exhibition target from the guests who virtually participate in the exhibition calculates the degree of attention to the exhibition target. Data related to interests can be collected.
本発明の第3の態様に係る注目度算出プログラムは、コンピュータを、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づくゲストの視聴行動データを取得する手段、視聴行動データに基づいて、展示会における複数の展示対象のうちゲストの注目した対象を特定する手段、ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように複数の展示対象の注目度を算出する手段として機能させる。 A program for calculating the degree of attention according to a third aspect of the present invention comprises means for acquiring viewing behavior data of a guest based on an input acquired at a terminal of a guest who shares video data of an exhibition captured by a host by a computer, Means for identifying, based on the viewing behavior data, the target of the guest's attention among the plurality of exhibition targets at the exhibition; It functions as a means for calculating the degree of attention of the display object.
この注目度算出プログラムは、展示会に仮想的に参加するゲストからの展示対象への注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。 This attention level calculation program calculates the degree of attention to the exhibition target from guests who virtually participate in the exhibition. Data related to interests can be collected.
本発明によれば、ホストによって撮影された映像を共有するゲストの注目度を算出することができる。 According to the present invention, it is possible to calculate the degree of attention of a guest who shares a video shot by a host.
以下、図面を参照しながら実施形態の説明を述べる。なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号を付し、重複する説明については基本的に省略する。例えば、複数の同一または類似の要素が存在する場合に、各要素を区別せずに説明するために共通の符号を用いることがあるし、各要素を区別して説明するために当該共通の符号に加えて枝番号を用いることもある。 An embodiment will be described below with reference to the drawings. Elements that are the same as or similar to elements that have already been explained are denoted by the same or similar reference numerals, and overlapping explanations are basically omitted. For example, when there are a plurality of identical or similar elements, common reference numerals may be used to describe each element without distinction, and the common reference numerals may be used to distinguish and describe each element. In addition, branch numbers are sometimes used.
(実施形態)
実施形態に係る注目度算出サーバは、ゲストの端末(以降、ゲスト端末と称する)が、ホストの端末(以降、ホスト端末と称する)によって撮影、投稿された映像データを映像配信サーバを介して共有する映像共有システムに組み込むことができる。図1に、実施形態に係る注目度算出サーバ40を含む映像共有システムを例示する。
(embodiment)
In the attention degree calculation server according to the embodiment, a guest terminal (hereinafter referred to as a guest terminal) shares video data captured and posted by a host terminal (hereinafter referred to as a host terminal) via a video distribution server. can be incorporated into a video sharing system that FIG. 1 illustrates a video sharing system including an attention
図1の映像共有システムは、ホスト端末10と、映像配信サーバ20と、ゲスト端末30-1,30-2,・・・と、注目度算出サーバ40とを含む。図1の映像配信サーバ20は、ホスト端末10、ゲスト端末30、および注目度算出サーバ40の一部または全部と、例えばインターネットなどのネットワーク経由で接続されており、互いにデータを送受信し得る。また、注目度算出サーバ40は、ホスト端末10,映像配信サーバ20、およびゲスト端末30の一部または全部とネットワーク経由で接続されており、互いにデータを送受信し得る。
The video sharing system of FIG. 1 includes a
ホスト端末10、映像配信サーバ20およびゲスト端末30は、以下に説明するように、映像共有サービスを授受するための基本的な機能を有する。なお、以降の説明では、図1の映像共有システムがライブ映像を共有すること、すなわちライブストリーミング、を仮定するが、ライブ映像に限らずホストが予め作成した映像を共有する場合にも後述する注目度の算出は可能である。故に、実施形態は、ライブ映像に限らず映像一般に適用が可能である。また、映像は、ホストによる展示会の撮影を前提とする。すなわち、ゲストは、ホストが展示会を撮影した映像データを共有することになる。ここで、展示会とは、典型的には業界向け見本市であるが、これに限らず、人工物(例えば、製品、作品、建造物、(仮想)オブジェクト、など)、天然物(風景、人間を含む生物、気象)、人物による歌唱、ダンス、演奏、スポーツ、などの実演、またはこれらの組み合わせなどの展示対象を鑑賞可能な場を広く意味し得る。具体的には、展示会として、コンサート、演劇、スポーツ大会、などが含まれ得る。
The
ホスト端末10は、逐次、例えば当該ホスト端末10に接続されたカメラ/マイクロフォンによって生成されたライブ映像/音声データをエンコードし、エンコード済み(映像またはマルチメディア)データを映像配信サーバ20へ送信(アップロード)する。ここで、カメラは、全天球もしくは半天球の360度カメラまたはその他のパノラマカメラであってもよいし、通常の単眼カメラであってもよい。
The
ホスト端末10は、コンピュータなどの電子デバイス、例えば、モバイル端末(例えば、スマートフォン、タブレット、ラップトップ、など)、PC(Personal Computer)、などであってもよいし、通信機能を有するVR(Virtual Reality)/AR/MR端末、例えばHMDであってもよいが、これらに限られない。なお、ホスト端末10としてHMDのような頭部装着型のデバイスを使用する場合には、単眼型または透過型のデバイスを採用することで、ホストの視界をある程度確保することができる。
The
映像配信サーバ20は、ホスト端末10からエンコード済みデータを受信し、これに対して、例えば、再エンコード、などの加工を必要に応じて行う。映像配信サーバ20は、(加工後の)エンコード済みデータをゲスト端末30へ配信する。
The
ゲスト端末30は、映像配信サーバ20からエンコード済みデータを受信し、これをデコードし、ライブ映像(音声を含み得る)を再生する。なお、360度映像を含むパノラマ映像を再生する場合に、ゲスト端末30は、例えば、ゲストの頭部および/または視線の方向、または当該ゲスト端末30の方向を検出し、これに基づいて再生する映像の視点を切り替えてもよい。同様に、パノラマ映像を再生する場合に、ゲスト端末30は、例えば、ゲストによる視点切り替えのための操作、例えば、フリック、ストローク、タッチ、タップ、スワイプ、ドラグ、クリック、などを検出し、これに基づいて再生する映像の視点を切り替えてもよい。
The
ゲスト端末30は、典型的には、没入感に優れたHMDなどのVR/AR/MR端末などの表示デバイスと、この制御装置、例えば、モバイル端末、PC、ゲーム機、などの組み合わせであってよい。なお、表示デバイスおよびその制御装置は、分離型である必要はなく一体化されていてもよい。
The
ゲストは、遠隔地に居るホストによって撮影され、ゲスト端末30によって再生される映像を通じて、あたかも展示会に参加しているかのような体験をすることができる。そして、実施形態に係る注目度算出サーバ40は、映像再生時にゲスト端末30において取得された入力に基づくゲストの視聴行動データを収集し、この視聴行動データに基づいて、展示会における複数の展示対象のうちゲストの注目した対象を特定する。さらに、注目度算出サーバ40は、このゲストの注目した対象に基づいて、これらの展示対象の注目度を算出する。
The guest can have an experience as if he/she is participating in the exhibition through the video imaged by the host in the remote place and reproduced by the
このように注目度算出サーバ40は、展示会に仮想的に参加するゲストからの注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。なお、この注目度は、従来のアンケートの分析結果などと組み合わせて、またはこれに代えて、様々な利活用が期待できる。例えば、注目度は、展示会に出展する企業などの出展主体または展示会の主催者などへフィードバック情報を提供する、ゲストまたは他の(潜在)需要者へのマーケティングを支援する、ゲストが最も撮影を望んでいるであろう展示対象(撮影対象)の撮影をホストに要求する、などのために利活用され得る。一例として、複数の人物による歌唱などを鑑賞するコンサートにおいて、ゲストの注目度に基づいてこれらの人物のランキングを作成したり、ゲスト個人が興味・関心を強く惹かれた人物を当該ゲストの注目度に基づいて特定したりすることもできる。また、かかる注目度の利活用の一例として、ゲスト個人が興味・関心を強く惹かれた人物からのメッセージを当該ゲストへ送付することもあり得る。
In this way, the attention
なお、図1において示される各装置の数は、例示に過ぎない。例えば、ゲスト端末30の数は、時々刻々と変化するので、0となることがあり得るし、数百、数千となることもあり得る。また、図1の映像共有システムは、複数のライブ映像を並列的に配信することができるので、ホスト端末10の数も2以上となり得る。
It should be noted that the number of each device shown in FIG. 1 is merely an example. For example, the number of
以下、ゲスト端末30の構成について詳しく説明する。ゲスト端末30は、図2に例示されるように、通信I/F 100と、プロセッサ110と、メモリ120と、出力装置130と、入力装置140とを含む。
The configuration of the
通信I/F 100は、ネットワーク経由で、外部装置、例えば、映像配信サーバ20、注目度算出サーバ40、などと通信をするためのモジュールであって、例えば、送受信のための信号処理回路、アンテナ、LAN(Local Area Network)端子などを含み得る。通信I/Fは、例えば移動通信などの広域通信用のモジュール、無線/有線LAN用のモジュール、Bluetooth(登録商標)用のモジュール、などであり得る。
The communication I/
プロセッサ110は、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、またはその他の汎用または専用のプロセッサなどであってもよい。プロセッサ110は、例えば、入出力制御、通信制御、画像/音声処理、後述する視聴行動データの生成、などを行う。
メモリ120は、プロセッサ110が各処理を実現するために当該プロセッサ110によって実行されるプログラムおよび当該プロセッサ110によって使用されるデータ、例えば、入力データ、映像データ、視聴行動データ、などを一時的に格納する。メモリ120は、かかるプログラム/データが展開されるワークエリアを有するRAM(Random Access Memory)を含み得る。
出力装置130は、例えば、プロセッサによって再生された映像を出力する表示デバイス、プロセッサによって再生された音声を出力するスピーカ、などを含み得る。出力装置130は、HMDの要素の一部または全部であってもよい。
The
入力装置140は、例えば、センサ、タッチスクリーン、マイクロフォン、キーボード、マウス、などの一部または全部を含み得る。
ここで、センサは、例えば、加速度センサ、ジャイロスコープ、磁気センサ、などの動きセンサを含み得る。動きセンサによって検出されたセンサデータは、ゲストの頭部および/またはゲスト端末30の方向(例えば3軸の傾き)の推定に利用することができる。具体的には、パノラマ映像の再生時には、このセンサデータに基づいて、ゲストの頭部および/またはゲスト端末30の3次元的な回転角であるYaw角、Roll角、およびPitch角が推定され、これに応じてゲスト端末30に表示される映像の視点が制御され得る。
Here, the sensors may include, for example, motion sensors such as accelerometers, gyroscopes, magnetic sensors, and the like. Sensor data detected by the motion sensor can be used to estimate the guest's head and/or the orientation (eg, 3-axis tilt) of the
また、センサは、いわゆるアイトラッキングデバイスを含み得る。アイトラッキングデバイスは、ゲストの眼球の動きを捉え、ゲストの視線方向を表す入力データを生成する。かかる入力データもまた、ゲスト端末30に表示される映像の視点の制御に利用され得る。
Sensors may also include so-called eye-tracking devices. The eye tracking device captures the movement of the guest's eyeballs and generates input data representing the guest's gaze direction. Such input data can also be used to control the viewpoint of the video displayed on the
プロセッサ110は、メモリ120に保存されたプログラムを実行することで、図2の受信データ取得部111、デコーダ112、映像出力部113、入力データ取得部114、視聴行動データ生成部115、および視聴行動報告部116として機能し得る。また、メモリ120は、図2の映像データ記憶部121、視聴行動データ記憶部122、および入力データ記憶部123を含み得る。
通信I/F 100は、外部装置から種々のデータをネットワーク経由で受信する受信部101と、外部装置へ種々のデータをネットワーク経由で送信する送信部102とを含む。受信部101は、映像配信サーバ20から前述のエンコード済みデータを受信し、これを受信データ取得部111へ送る。また、送信部102は、視聴行動報告部116から視聴行動データを受け取り、これを注目度算出サーバ40へ送信する。
Communication I/
受信データ取得部111は、受信部101から受信データを取得し、これをメモリ120に書き込む。一例として、受信データ取得部111は、受信部101からエンコード済みデータを取得し、これを映像データ記憶部121に書き込む。
The received
映像データ記憶部121は、受信データ取得部111によって取得されたエンコード済みデータを保存する。このエンコード済みデータは、少なくともエンコード済み映像データを含み、さらにエンコード済み音声データを含み得る。映像データ記憶部121に保存されたエンコード済み映像データは、プロセッサ110の種々の機能部、例えばデコーダ112によって読み出され得る。
The video
デコーダ112は、映像データ記憶部121からエンコード済み映像データを映像データ記憶部121から読み出す。デコーダ112は、エンコード済み映像データを適切なコーデックに従ってデコードして映像データを再生する。なお、デコーダ112は、ビデオデコーダに加えて音声デコーダを含んでいてもよい。デコーダ112は、再生した映像データを映像出力部113へ送る。また、デコーダ112は、図2においてプロセッサ110の機能の一部であるかのように描かれているが、専用の回路であってもよい。
The
映像出力部113は、デコーダ112から映像データを適時に、すなわち当該映像データに対応する出力タイミングの到来前に、受け取り、これを出力装置130へ送る。なお、映像出力部113は、映像データに限らず音声データの出力を制御してもよい。
The
映像データがパノラマ映像を表す場合には、映像出力部113は、再生する映像の視点を制御してもよい。例えば、映像出力部113は、入力データ記憶部123に保存されているゲストの頭部および/または視線の方向、またはゲスト端末30の姿勢を表す入力データ、および/またはゲストによる視点切り替えのための操作を表す入力データに基づいて、再生する映像の視点を決定し得る。そして、映像出力部113は、決定した視点に応じた映像データを、デコーダ112からの映像データに基づいて生成し、これを出力装置130へ送ってもよい。
If the video data represents a panoramic video, the
また、映像出力部113は、映像データに必要に応じてGUI(Graphical User Interface)部品、および/または後述されるパーティションを明示するための表示(例えば、パーティションの境界線および/またはパーティションのラベル)を付加してから出力装置130へ送ってもよい。
In addition, the
出力装置130は、映像出力部113から映像データを受け取り、これを表示する。なお、出力装置130は、映像データの表示に加えて、音声データを出力してもよい。
The
入力装置140は、ゲスト端末30における入力に基づいて入力データを発生し、これを入力データ取得部114へ送る。ここで、入力データは、例えば、ゲストの頭部および/または視線の方向、またはゲスト端末30の方向を表すデータ、ゲストによるゲスト端末30の表示映像に対する操作(例えば、キャプチャ操作、視点切り替えのための操作、映像に重畳されたGUI部品を選択する操作、映像のパーティションを選択する操作)を表すデータ、などの一部または全部と、かかるデータの生成時に対応する映像データの再生時刻を示す再生時刻データとを含み得る。
The
なお、ゲスト端末30は、オプションとしてキャプチャ機能を実装し得る。ゲスト端末30がキャプチャ機能を実装する場合には、プロセッサ110が、例えばキャプチャ操作を表す入力データに応じて、出力装置130に含まれる表示デバイスに表示されている映像をキャプチャしてキャプチャ画像を生成するキャプチャ部(図示しない)として機能し得る。
Note that the
入力データ取得部114は、入力装置140から種々の入力データを受け取り、これを入力データ記憶部123に書き込む。
The input
入力データ記憶部123は、入力データ取得部114によって取得された入力データを保存する。入力データ記憶部123に保存された入力データは、プロセッサ110の種々の機能部、例えば、視聴行動データ生成部115によって読み出される。
The input
視聴行動データ生成部115は、入力データ記憶部123から入力データを読み出し、これに基づいてゲストの映像視聴時の意識的なまたは無意識の行動を表す視聴行動データを生成する。視聴行動データ生成部115は、生成した視聴行動データを視聴行動データ記憶部122に書き込む。
The viewing behavior
具体的には、映像データがパノラマ映像、すなわち視点の切り替えが可能な映像である場合に、視聴行動データ生成部115は、ある時点におけるゲストの視野方向を表す視野方向データと、当該時点に対応する映像データの再生時刻を示す再生時刻データとを含む視聴行動データを生成してもよい。ここで、ある時点とは、例えば予め定められたタイミングであってもよいし、例えばゲストがキャプチャ操作などの所定の入力を行ったタイミングであってもよい。
Specifically, when the video data is a panoramic video, that is, a video in which the viewpoint can be switched, the viewing behavior
視聴行動データ生成部115は、例えば入力データに含まれ得る、ゲストの頭部および/または視線の方向、またはゲスト端末30の方向を表すデータに基づいて視野方向データを生成し得る。一例として、視聴行動データ生成部115は、ゲストの視野を図4に例示されるように、ホストの視野を基準として正面方向(F)、右方向(R)、左方向(L)および後方(B)の4つの視野領域に分割し、ゲストの頭部および/または視線の方向、またはゲスト端末30の方向がいずれの視野領域に該当するかを判定し、判定した視野領域を表すインデックスを視野方向データとして生成してもよい。なお、図4は例示に過ぎず、ゲストの視野は3以下の視野領域に分割されてもよいし、5以上の視野領域に分割されてもよい。また、視野領域は、映像の視点切り替えの単位と一致していてもよいししなくてもよい。
The viewing behavior
後述するように、これら視野方向データおよび再生時刻データと、映像データとを組み合わせれば、再生時刻データの示す再生時刻におけるゲストの視野画像をある程度再現することができる。この視野画像には、ゲストの注目した対象が含まれている可能性がある。例えば図5に例示される視野画像は、被写体として、ブース301、展示物301-1,301-2,301-3,ブース302、および展示物302-1を含んでいるが、ゲストがこれらの一部または全部に興味・関心がある可能性がある。 As will be described later, by combining the viewing direction data, the playback time data, and the video data, it is possible to reproduce the guest's view image at the playback time indicated by the playback time data to some extent. This field-of-view image may include the subject of the guest's attention. For example, the field-of-view image illustrated in FIG. You may be interested in some or all of them.
また、映像データがパノラマ映像、または通常の映像、すなわち視点切り替えが不可能な映像、である場合に、視聴行動データ生成部115は、ゲストによるキャプチャ操作に応じて生成されたキャプチャ画像と、このキャプチャ操作のなされた時に対応する映像データの再生時刻を示す再生時刻データとを含む視聴行動データを生成してもよい。キャプチャ画像は、データ容量が視野方向データに比べて大きい反面、キャプチャ操作がなされた時のゲストの視野画像そのものであるので、視野画像を再現する処理が不要であるうえにかかる処理に起因する視野の誤差も生じないという利点がある。また、ゲストが能動的にキャプチャ操作を行って保存したキャプチャ画像には、当該ゲストの注目した対象が含まれている可能性が高いと推定できる。
Further, when the video data is a panoramic video or a normal video, that is, a video in which viewpoint switching is impossible, the viewing behavior
なお、映像は、例えば図6に示されるように、複数のパーティションに区切って表示されてもよい。図6の例では、映像は3つのパーティションL(左)、C(中央)、およびR(右)に区切られている。ゲストがいずれかのパーティションを選択する操作を行ったとすると、そのパーティションには、当該ゲストの注目した対象が含まれている可能性が高いと推定できる。例えば、図6の例では、ゲストがパーティションLを選択すれば当該ゲストは展示物301-1および/またはブース301に興味・関心があると推定できるし、ゲストがパーティションCを選択すれば当該ゲストは展示物301-2,展示物301-2および/またはブース301に興味・関心があると推定できるし、ゲストがパーティションRを選択すれば当該ゲストは展示物302-1および/またはブース302に興味・関心があると推定できる。ただし、図6は例示に過ぎず、映像は2以下のパーティションに区切られてもよいし、4以上のパーティションに区切られてもよい。また、例えば、物体認識技術などを利用して、物体毎に対応するパーティションが定められてもよい。
Note that the video may be divided into a plurality of partitions and displayed, as shown in FIG. 6, for example. In the example of FIG. 6, the video is partitioned into three partitions L (left), C (middle) and R (right). If the guest performs an operation to select one of the partitions, it can be inferred that there is a high possibility that the target of interest of the guest is included in that partition. For example, in the example of FIG. 6, if the guest selects partition L, it can be estimated that the guest is interested in exhibit 301-1 and/or
そこで、視聴行動データ生成部115は、ゲストによるパーティションの選択がなされた時の視野方向データおよび/またはキャプチャ画像と、選択されたパーティションを示すパーティション選択データと、パーティションの選択がなされた時に対応する映像データの再生時刻を示す再生時刻データとを含む視聴行動データを生成してもよい。
Therefore, the viewing behavior
さらに、映像には、例えば図7に示されるように、GUI部品が重畳して表示され得る。図7のGUI部品401を選択したゲストは、現在表示されている映像の被写体であるブース301、および展示物301-1,301-2,301-3の少なくとも一部に興味・関心があると推定できる。他方、図7のGUI部品402を選択したゲストは、現在表示されている映像の被写体であるブース301、および展示物301-1,301-2,301-3の少なくとも一部に興味・関心がないか、他のブースおよび/または展示物に興味・関心があると推定できる。
Furthermore, as shown in FIG. 7, for example, GUI parts can be superimposed and displayed on the video. A guest who has selected the
そこで、視聴行動データ生成部115は、映像に重畳して表示されたGUI部品のうちゲストに選択されたものを示すGUI選択データと、かかる選択のなされた時に対応する映像データの再生時刻を示す再生時刻データとを含む視聴行動データを生成してもよい。なお、映像データがパノラマ映像である場合には、ゲストの視野画像を再現可能とするために、視聴行動データ生成部115は、GUI部品が選択された時の視野方向データおよび/またはキャプチャ画像を視聴行動データに含める必要がある。
Therefore, the viewing behavior
視聴行動データ記憶部122は、視聴行動データ生成部115によって生成された視聴行動データを保存する。視聴行動データ記憶部122に保存された視聴行動データは、プロセッサ110の種々の機能部、例えば、視聴行動報告部116によって読み出される。
The viewing behavior
視聴行動報告部116は、視聴行動データ記憶部122から視聴行動データを読み出し、これを注目度算出サーバ40に報告する。具体的には、視聴行動報告部116は、視聴行動データを送信部102へ送り、送信部102はこの視聴行動データをネットワーク経由で注目度算出サーバ40へ送信する。
The viewing
次に、注目度算出サーバ40の構成について詳しく説明する。注目度算出サーバ40は、図3に例示されるように、通信I/F 200と、プロセッサ210と、メモリ220とを含む。
Next, the configuration of the attention
通信I/F 200は、ネットワーク経由で、外部装置、例えば、ホスト端末10、映像配信サーバ20、ゲスト端末30、などと通信をするためのモジュールであって、例えば、送受信のための信号処理回路、光コネクタなどを含み得る。通信I/F 200は、例え光通信モジュール、などであり得る。
The communication I/
プロセッサ210は、汎用または専用のプロセッサなどであってもよい。プロセッサ210は、例えば、入出力制御、通信制御、後述される注目対象の特定および注目度の算出、などを行う。
メモリ220は、プロセッサ210が各処理を実現するために当該プロセッサ210によって実行されるプログラムおよび当該プロセッサ210によって使用されるデータ、例えば、視聴行動データ、注目対象データ、注目度、などを一時的に格納する。さらに、メモリ220は、視聴行動データに関連付けられるゲストの視野画像を再現するために、映像データを格納し、および/または後述される基準位置姿勢データおよびマップデータを格納し得る。メモリ220は、かかるプログラム/データが展開されるワークエリアを有するRAMを含み得る。
The
プロセッサ210は、メモリ220に保存されたプログラムを実行することで、図3の受信データ取得部211、注目対象特定部212、注目度算出部213、および注目度報告部214として機能し得る。また、メモリ220は、図3の視聴行動データ記憶部221、注目度記憶部222および注目対象データ記憶部223を含み得る。
By executing the programs stored in
通信I/F 200は、外部装置から種々のデータをネットワーク経由で受信する受信部201と、外部装置へ種々のデータをネットワーク経由で送信する送信部202とを含む。受信部201は、ゲスト端末30から視聴行動データを受信し、これを受信データ取得部211へ送る。受信部201は、ホスト端末10および/または映像配信サーバ20から(エンコード済み)映像データおよび/または基準位置姿勢データを受信し、これを受信データ取得部211へ送り得る。ここで、基準位置姿勢データは、所与の時刻におけるホストの位置と映像データの基準アングルとを示す。また、送信部202は、注目度報告部214から注目度を受け取り、これを例えば図示されない注目度利活用サーバへ送信する。
Communication I/
ここで、注目度利活用サーバは、注目度算出サーバ40から注目度をネットワーク経由で受信し、これを利活用する。具体的には、注目度利活用サーバは、注目度に基づいて作成したフィードバック情報を展示会の出展主体または展示会の主催者などへ提供したり、ゲストまたは他の(潜在)需要者へのマーケティングを注目度に基づいて支援したり、撮影対象を注目度に基づいて決定して当該撮影対象の撮影をホストに要求したりする。
Here, the attention degree utilization server receives the attention degree from the attention
受信データ取得部211は、受信部201から受信データを取得し、これをメモリ220に書き込む。一例として、受信データ取得部211は、受信部201から視聴行動データを取得し、これを視聴行動データ記憶部221に書き込む。また、受信データ取得部211は、受信部201から(エンコード済み)映像データおよび/または基準位置姿勢データを取得し、これをメモリ120に書き込み得る。
The received
視聴行動データ記憶部221は、受信データ取得部211によって取得された視聴行動データを保存する。視聴行動データ記憶部221に保存された視聴行動データは、プロセッサ210の種々の機能部、例えば注目対象特定部212によって読み出され得る。
The viewing behavior
なお、視聴行動データは、ホストおよびゲストの区別なく集積されてもよいし、ホストまたはゲストを区別して集積されてもよい。すなわち、あるホスト端末10によって発信される映像の視聴時に生成された視聴行動データと、別のホスト端末10によって発信される映像の視聴時に視聴行動データとは区別されてもよい。この場合に、視聴行動データは、どのホスト端末10をソースとする映像の視聴時に当該視聴行動データが生成されたかを表すホスト識別子を含み得る。また、あるゲストのゲスト端末30により生成された視聴行動データと、別のゲストのゲスト端末30により生成された視聴行動データとは区別されてもよい。この場合に、視聴行動データは、どのゲスト端末30により当該視聴行動データが生成されたかを表すゲスト識別子を含み得る。
The viewing behavior data may be accumulated without distinguishing between the host and the guest, or may be accumulated by distinguishing between the host and the guest. That is, the viewing behavior data generated when viewing a video transmitted by a
注目対象特定部212は、視聴行動データ記憶部221から視聴行動データを読み出し、メモリ220から展示会における複数の展示対象の参照データを読み出す。ここで、参照データは、例えば、展示対象の外観(展示対象および/またはその属する出展主体のロゴおよび/または商標、展示対象としての人物の顔、などの部分的な外観を含み得る)、展示対象に付与されたコード(例えば、一次元コード、二次元コード、など)、展示対象に関連付けられるテキスト(例えば、名称、愛称、識別番号、説明文など)、展示対象の位置、などを示し得る。なお、複数の展示対象の位置を示す参照データは、マップデータと呼ぶこともできる。注目対象特定部212は、視聴行動データおよび参照データに基づいて、当該視聴行動データに含まれる再生時刻データの示す映像データの再生時刻において、ゲストが注目した対象を特定する。そして、注目対象特定部212は、例えば、この再生時刻データと、特定した対象を識別する展示対象識別子とを含む注目対象データを生成し、これを注目対象データ記憶部223に書き込む。
The object-of-
なお、視聴行動データが前述のホスト識別子および/またはゲスト識別子を含む場合には、注目対象データもまたこれを含んでもよい。また、ホスト識別子および/またはゲスト識別子は、それぞれ1つまたは複数の属性、例えば、性別、年代、嗜好、スキル、などを識別する属性識別子に変換されてもよい。なお、ホスト識別子および/またはゲスト識別子から属性識別子への変換ルールは、例えば図1の映像共有システムのユーザ情報を管理するサーバによって作成され、注目度算出サーバ40がこれを取得してもよい。例えば、あるゲスト識別子が「男性」、「30代」、「アーリーアダプター」、「専門家」などの属性を識別する属性識別子に変換され、注目対象データに含められてもよい。 It should be noted that if the viewing behavior data includes the aforementioned host identifier and/or guest identifier, the interest data may also include this. Also, the host identifier and/or guest identifier may each be translated into attribute identifiers that identify one or more attributes, such as gender, age, preferences, skills, and the like. Note that the rules for converting host identifiers and/or guest identifiers into attribute identifiers may be created by, for example, a server that manages user information in the video sharing system of FIG. For example, a guest identifier may be converted to attribute identifiers that identify attributes such as "male", "30's", "early adopter", "expert", and included in the data of interest.
具体的には、注目対象特定部212は、以下に列挙するように様々な技法により、ゲストが注目した対象を特定することができる。
Specifically, the target-of-
(1)視聴行動データが前述の視野方向データおよび再生時刻データを含み、メモリ220には(パノラマ映像を表す)映像データが保存されているとする。この場合に、注目対象特定部212は、再生時刻データおよび視野方向データに基づいて、映像データから当該再生時刻データの示す再生時刻におけるゲストの視野画像を抽出する。例えば、注目対象特定部212は、映像データのうち再生時刻データの示す再生時刻に対応する1枚のパノラマ画像を抽出し、さらにこのパノラマ画像から視野方向データの示す視野方向に対応する1視点分の画像をゲストの視野画像として抽出し得る。
(1) Suppose that the viewing behavior data includes the viewing direction data and the playback time data described above, and video data (representing a panoramic video) is stored in the
そして、注目対象特定部212は、この視野画像の被写体から、再生時刻データの示す再生時刻においてゲストが注目した対象を特定する。具体的には、注目対象特定部212は、被写体の外観を参照データに含まれる複数の展示対象の外観と比較したり、被写体に含まれるテキスト領域またはコード領域を抽出し、抽出した領域を参照データに含まれる複数の展示対象に関連付けられるテキストまたは展示対象に付与されたコードと比較したりすることで、視野画像に含まれる被写体が複数の展示対象のいずれかに該当するか否かを判定できる。
Then, the target-of-
(2)視聴行動データが前述のキャプチャ画像および再生時刻データを含んでいるとする。この場合に、注目対象特定部212は、このキャプチャ画像の被写体から、再生時刻データの示す再生時刻においてゲストが注目した対象を特定する。具体的には、注目対象特定部212は、上記(1)と同様の技法により、キャプチャ画像に含まれる被写体が複数の展示対象のいずれかに該当するか否かを判定できる。
(2) Assume that the viewing behavior data includes the aforementioned captured image and playback time data. In this case, the target-of-
(3)視聴行動データが前述のGUI選択データおよび再生時刻データを含んでいるとする。なお、視聴行動データがキャプチャ画像をさらに含んでいる場合、またはメモリ220に(通常の映像を表す)映像データが保存されている場合には、注目対象特定部212は、このキャプチャ画像、または映像データのうち再生時刻データの示す再生時刻に対応する1枚の画像、をゲストの視野画像として扱うことができる。他方、視聴行動データが視野方向データをさらに含んでいて、かつメモリ220に(パノラマ映像を表す)映像データが保存されている場合には、注目対象特定部212は、上記(1)と同様の技法により、ゲストの視野画像を抽出できる。
(3) Assume that the viewing behavior data includes the aforementioned GUI selection data and reproduction time data. Note that when the viewing behavior data further includes a captured image, or when video data (representing a normal video) is stored in the
そして、注目対象特定部212は、この視野画像の被写体から上記(1)と同様の技法により複数の展示対象のいずれかに該当するものを抽出し、抽出した展示対象をさらにGUI選択データに基づいて絞り込むことで、再生時刻データの示す再生時刻においてゲストが注目した対象を特定する。例えば、GUI選択データが「右の展示物」のようなGUI部品が選択されたことを示す場合には、注目対象特定部212は、視野画像において右側に位置する展示物をゲストが注目した対象として特定し得る。また、GUI選択データが例えば図7のGUI部品401が選択されたことを示す場合には、注目対象特定部212は、視野画像に含まれる展示対象をゲストが注目した対象として特定し得る。他方、GUI選択データが例えば図7のGUI部品402が選択されたことを示す場合には、注目対象特定部212は、視野画像に含まれる展示対象をゲストが注目した対象から除外し得る。
Then, the object-of-
(4)視聴行動データが前述のパーティション選択データおよび再生時刻データを含んでいるとする。なお、視聴行動データがキャプチャ画像をさらに含んでいる場合、またはメモリ220に(通常の映像を表す)映像データが保存されている場合には、注目対象特定部212は、このキャプチャ画像、または映像データのうち再生時刻データの示す再生時刻に対応する1枚の画像、をゲストの視野画像として扱うことができる。他方、視聴行動データが視野方向データをさらに含んでいて、かつメモリ220に(パノラマ映像を表す)映像データが保存されている場合には、注目対象特定部212は、上記(1)と同様の技法により、ゲストの視野画像を抽出できる。
(4) Assume that the viewing behavior data includes the partition selection data and playback time data described above. Note that when the viewing behavior data further includes a captured image, or when video data (representing a normal video) is stored in the
そして、注目対象特定部212は、この視野画像をパーティション選択データに基づいてさらに絞り込む。例えば、パーティション選択データが例えば図6のパーティションLが選択されたことを示す場合には、注目対象特定部212は、視野画像からこのパーティションLに該当する部分をトリミングし得る。そして、注目対象特定部212は、上記(1)と同様の技法により、この絞り込み後の視野画像に含まれる被写体が複数の展示対象のいずれかに該当するか否かを判定できる。
Then, the target-of-
(5)視聴行動データが前述の視野方向データおよび再生時刻データを含み、メモリ220にはマップデータおよび基準位置姿勢データが保存されているとする。注目対象特定部212は、再生時刻データ、基準位置姿勢データに基づいて、再生時刻データの示す再生時刻におけるホストの位置と映像データの基準アングルとを決定する。さらに、注目対象特定部212は、決定した映像データの基準アングルを、視野方向データの示す視野方向に応じて回転させて、再生時刻データの示す再生時刻におけるゲストの視野範囲を推定する。マップデータは、展示会における複数の展示対象をその位置に関連付ける。そして、注目対象特定部212は、推定したゲストの視野範囲内に展示されている展示対象を、再生時刻データの示す再生時刻においてゲストが注目した対象として特定する。具体的には、図8に例示されるように、注目対象特定部212は、ホストの位置501を中心にゲストの視野範囲502を推定し、この視野範囲502の内に展示されているブースA01、および/または当該ブースA01内の展示物を、ゲストが注目した対象として特定し得る。
(5) Assume that the viewing behavior data includes the viewing direction data and playback time data described above, and that the
上記(5)の技法によれば、上記(1),(3)~(4)のようなメモリ220に大容量の映像データを保存する必要のある技法に比べて、メモリ220の使用量を節約できる可能性がある。加えて、上記(5)の技法によれば、同じ展示会に参加する他のホストの映像に関わる注目度の算出時にも同じマップデータを利用することで、メモリ220の使用量をさらに節約できる。或いは、上記(1),(3)~(4)の技法において、注目度算出サーバ40が、ホスト端末10または映像配信サーバ20に映像データのうち再生時刻データの示す再生時刻に対応する画像を要求するようにしてもよい。
According to the technique of (5) above, the usage of the
注目対象データ記憶部223は、注目対象特定部212によって生成された注目対象データを保存する。注目対象データ記憶部223に保存された注目対象データは、プロセッサ210の種々の機能部、例えば注目度算出部213によって読み出される。なお、注目対象データは、例えば、再生時刻、ゲスト識別子、ホスト識別子、および/または属性識別子をキーとして含んでいてもよく、所望のキーにマッチするものを選択的に読み出し可能であってもよい。
The attention target
注目度算出部213は、注目対象データ記憶部223から注目対象データを読み出し、これに基づいて複数の展示対象の注目度を算出する。そして、注目度算出部213は、算出した注目度を注目度記憶部222に書き込む。
The attention
注目度算出部213は、注目対象データの示す対象の注目度が相対的に増加するように複数の展示対象の注目度を算出し得る。具体的には、注目度算出部213は、あるゲストについて得られた注目対象データの示す対象の注目度が、当該ゲストによる当該対象への注目の持続時間の長さに応じて増加するように複数の展示対象の注目度を算出してもよい。例えば、注目度算出部213は、複数の再生時刻に亘って、展示対象毎に、注目対象データにおける当該展示対象の出現数を集計し、この集計結果に基づいて当該展示対象の注目度を算出する。また、注目度算出部213は、あるゲストについて得られた一連の注目対象データの示すある対象への注目の持続時間が閾値未満である場合に、当該一連の注目対象データを破棄してもよい。換言すれば、注目度算出部213は、あるゲストについて得られた一連の注目対象データの示すある対象への注目の持続時間が閾値を超える場合に、当該一連の注目対象データに基づいて注目度を算出してもよい。
The attention
注目度算出部213は、ゲスト別/属性別に注目度を算出してもよい。すなわち、注目度算出部213は、あるゲスト識別子/属性識別子を含む注目対象データを注目対象データ記憶部223から読み出し、展示対象毎に、読み出した注目対象データにおける当該展示対象の出現数を複数の再生時刻に亘って集計し、この集計結果に基づいて当該ゲスト識別子の示すゲスト/属性識別子の示す属性値を持つゲストの当該展示対象の注目度を算出してもよい。
The attention
また、注目度算出部213は、ホスト別に注目度を算出してもよい。すなわち、注目度算出部213は、あるホスト識別子を含む注目対象データを注目対象データ記憶部223から読み出し、展示対象毎に、読み出した注目対象データにおける当該展示対象の出現数を複数の再生時刻に亘って集計し、この集計結果に基づいて当該ホスト識別子の示すホストによる撮影映像を視聴するゲストの当該展示対象の注目度を算出してもよい。
Also, the attention
さらに、注目度算出部213は、展示会における総合的な注目度を算出してもよい。すなわち、注目度算出部213は、全ての注目対象データを注目対象データ記憶部223から読み出し、展示対象毎に、読み出した注目対象データにおける当該展示対象の出現数を複数の再生時刻に亘って集計し、この集計結果に基づいて当該展示会に仮想的に参加する全ゲストの当該展示対象の注目度を算出してもよい。
Furthermore, the attention
注目度記憶部222は、注目度算出部213によって算出された注目度を保存する。注目度記憶部222に保存された注目度は、プロセッサ210の種々の機能部、例えば注目度報告部214によって読み出される。なお、注目度は、例えば、所望の再生時刻、ゲスト識別子、ホスト識別子、および/または属性識別子をキーとして含んでいてもよく、所望のキーにマッチするものを選択的に読み出し可能であってもよい。
The attention
注目度報告部214は、注目度記憶部222から注目度を読み出し、これを例えば図示されない注目度利活用サーバに報告する。具体的には、注目度報告部214は、注目度を送信部202へ送り、送信部202はこの注目度をネットワーク経由で注目度利活用サーバへ送信する。
The attention
以下、図9を用いて、注目度算出サーバ40の動作例を説明する。図9の動作はステップS601から開始する。
ステップS601において、受信部201は、ゲスト端末30から視聴行動データを受信するのを待ち受ける。受信部201が、視聴行動データを受信すると処理はステップS602へ進む。他方、受信部201が視聴行動データを受信する前に、注目度の算出タイミングが到来すると処理はステップS606へと進む(ステップS605)。
An operation example of the attention
In step S<b>601 , the receiving
ここで、注目度の算出タイミングは任意に定められ得る。例えば展示会の開催中にリアルタイムに注目度を算出する場合には、例えば、1分おき、10分おき、1時間おき、などで注目度の算出タイミングが定められてもよい。或いは、例えば展示会の半日分、または1日分の日程の終了後、または展示会の全日程の終了後に、注目度の算出タイミングが定められてもよい。 Here, the attention degree calculation timing can be determined arbitrarily. For example, when the attention level is calculated in real time during an exhibition, the attention level calculation timing may be determined, for example, every minute, every 10 minutes, every hour, or the like. Alternatively, the attention level calculation timing may be set after the end of a half-day or one-day schedule of the exhibition, or after the end of the entire schedule of the exhibition, for example.
ステップS602において、受信データ取得部211は、受信部201によって受信された視聴行動データを取得し、これを視聴行動データ記憶部221に書き込む。次に、注目対象特定部212は、ステップS602において取得された視聴行動データに基づいて、当該視聴行動データに含まれる再生時刻データの示す再生時刻にゲストが注目した対象を特定し、注目対象データを生成する(ステップS603)。
In step S<b>602 , the received
なお、ステップS602およびステップS603は、必ずしも連続的に行われる必要はなく、例えばステップS602が複数回実行される毎に、または所定の周期で、ステップS603が実行されてもよい。この場合に、ステップS602の後に、処理は、ステップS603の代わりに、ステップS601に戻ってもよいし、ステップS605へ進んでもよい。 Note that steps S602 and S603 do not necessarily have to be performed continuously, and step S603 may be performed, for example, each time step S602 is performed a plurality of times or at predetermined intervals. In this case, after step S602, the process may return to step S601 instead of step S603, or may proceed to step S605.
注目対象特定部212は、ステップS603において生成した注目対象データを注目対象データ記憶部223に書き込み(ステップS604)、処理はステップS605へと進む。なお、ステップS604の後に、処理はステップS605の代わりにステップS601に戻ってもよい。
The
ステップS606において、注目度算出部213は、ステップS604において注目対象データ記憶部223に保存された注目対象データに基づいて、複数の展示対象の注目度を算出し、注目度記憶部222に保存する。
In step S<b>606 , the attention
そして、注目度報告部214は、ステップS606において算出された注目度を、例えば図示されない注目度利活用サーバに報告し(ステップS607)、図9の動作は終了する。
Then, the attention
なお、ステップS606およびステップS607は、必ずしも連続的に行われる必要はなく、例えばステップS606が複数回実行される毎に、または所定の周期で、ステップS607が実行されてもよい。この場合に、ステップS606の後に、処理は、ステップS607の代わりに、ステップS601に戻ってもよいし、ステップS605に戻ってもよい。 Note that steps S606 and S607 do not necessarily have to be performed continuously, and step S607 may be performed, for example, each time step S606 is performed a plurality of times or at a predetermined cycle. In this case, after step S606, the process may return to step S601 instead of step S607, or may return to step S605.
以上説明したように、実施形態に係る注目度算出サーバは、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づく視聴行動データを取得し、これに基づいて展示会における複数の展示対象のうちゲストの注目した対象を特定する。そして、この注目度算出サーバは、ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように複数の展示対象の注目度を算出する。故に、この注目度算出サーバは、展示会に仮想的に参加するゲストからの展示対象への注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。 As described above, the attention degree calculation server according to the embodiment acquires viewing behavior data based on the input acquired in the terminal of the guest sharing the video data of the exhibition shot by the host, Identify the target of the guest's attention among the multiple display targets at the exhibition. Then, this attention level calculation server calculates the attention levels of the plurality of exhibition objects so that the attention degree of the exhibition object specified as the object of the guest's attention is relatively increased. Therefore, since this attention level calculation server calculates the degree of attention to the exhibition target from the guests who virtually participate in the exhibition, it is possible to use an approach different from a questionnaire to the actual participants of the exhibition. It is possible to collect data related to interest in
(変形例)
実施形態の説明では、注目度算出サーバが注目度を算出することとしたが、ゲスト端末または他のコンピュータなどが注目度を算出してもよい。注目度算出サーバ、ゲスト端末、などの注目度を算出する装置を注目度算出装置と呼ぶことができる。また、注目度の算出と、注目対象の特定とは異なる装置によって行われてもよい。
(Modification)
In the description of the embodiment, the attention level calculation server calculates the attention level, but the attention level may be calculated by a guest terminal, another computer, or the like. A device that calculates the degree of attention, such as an attention degree calculation server and a guest terminal, can be called an attention degree calculation device. Also, the calculation of the degree of attention and the identification of the target of interest may be performed by different devices.
上述の実施形態は、本発明の概念の理解を助けるための具体例を示しているに過ぎず、本発明の範囲を限定することを意図されていない。実施形態は、本発明の要旨を逸脱しない範囲で、様々な構成要素の付加、削除または転換をすることができる。 The above-described embodiments merely show specific examples to aid understanding of the concept of the present invention, and are not intended to limit the scope of the present invention. Embodiments can add, delete, or convert various components without departing from the gist of the present invention.
上述の実施形態では、いくつかの機能部を説明したが、これらは各機能部の実装の一例に過ぎない。例えば、1つの装置に実装されると説明された複数の機能部が複数の別々の装置に亘って実装されることもあり得るし、逆に複数の別々の装置に亘って実装されると説明された機能部が1つの装置に実装されることもあり得る。 Although some functional units have been described in the above-described embodiments, these are only examples of implementation of each functional unit. For example, a plurality of functional units described as being implemented in one device may be implemented across a plurality of separate devices, and conversely, may be implemented across a plurality of separate devices. It is also conceivable that the functional units described may be implemented in a single device.
上記各実施形態において説明された種々の機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。 Various functional units described in the above embodiments may be realized by using circuits. A circuit may be a dedicated circuit that implements a specific function, or it may be a general-purpose circuit such as a processor.
上記各実施形態の処理の少なくとも一部は、例えば汎用のコンピュータに搭載されたプロセッサを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD-ROM、CD-R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。 At least part of the processing of each of the above-described embodiments can also be realized by using a processor installed in a general-purpose computer as basic hardware. A program that implements the above process may be provided by being stored in a computer-readable recording medium. The program is stored in the recording medium as an installable format file or an executable format file. Recording media include magnetic disks, optical disks (CD-ROM, CD-R, DVD, etc.), magneto-optical disks (MO, etc.), semiconductor memories, and the like. Any recording medium may be used as long as it can store the program and is readable by a computer. Alternatively, the program that implements the above processing may be stored on a computer (server) connected to a network such as the Internet, and downloaded to the computer (client) via the network.
10・・・ホスト端末
20・・・映像配信サーバ
30,30-1,30-2・・・ゲスト端末
40・・・注目度算出サーバ
100,200・・・通信I/F
101,201・・・受信部
102,202・・・送信部
110,210・・・プロセッサ
111,211・・・受信データ取得部
112・・・デコーダ
113・・・映像出力部
114・・・入力データ取得部
115・・・視聴行動データ生成部
116・・・視聴行動報告部
120,220・・・メモリ
121・・・映像データ記憶部
122,221・・・視聴行動データ記憶部
123・・・入力データ記憶部
130・・・出力装置
140・・・入力装置
212・・・注目対象特定部
213・・・注目度算出部
214・・・注目度報告部
222・・・注目度記憶部
223・・・注目対象データ記憶部
301,302・・・ブース
301-1,301-2,301-3,302-1・・・展示物
401,402・・・GUI部品
501・・・ホストの位置
502・・・ゲストの視野範囲
DESCRIPTION OF
101, 201... Receiving
Claims (11)
前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定する特定部と、
前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出する算出部と
を具備し、
前記視聴行動データは、前記映像データの第1の再生時刻において前記映像データの表す映像に重畳して表示されたGUI(Graphical User Interface)部品のうち前記ゲストによって選択された第1のGUI部品を示すGUI選択データと、前記第1の再生時刻を示す再生時刻データとを含み、
前記特定部は、前記映像データから少なくとも前記再生時刻データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記GUI選択データに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、
注目度算出装置。 an acquisition unit that acquires the viewing behavior data of the guest based on the input acquired in the terminal of the guest sharing the video data of the exhibition captured by the host;
an identification unit that identifies, based on the viewing behavior data, an object of interest of the guest among a plurality of exhibition objects in the exhibition;
a calculation unit that calculates the degree of attention of the plurality of exhibition objects so that the degree of attention of the exhibition object specified as the object of attention of the guest increases relatively,
The viewing behavior data includes a first GUI component selected by the guest from GUI (Graphical User Interface) components superimposed and displayed on the video represented by the video data at the first playback time of the video data. and playback time data indicating the first playback time,
The specifying unit extracts the visual field image of the guest at the first reproduction time from at least the reproduction time data from the video data, and extracts the first visual field image from the subject of the visual field image based on the GUI selection data. Identifying the target of the guest's attention at the playback time;
Attention degree calculation device.
前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定する特定部と、an identification unit that identifies, based on the viewing behavior data, an object of interest of the guest among a plurality of exhibition objects in the exhibition;
前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出する算出部とa calculation unit configured to calculate the degree of attention of the plurality of exhibition objects so that the degree of attention of the exhibition object specified as the object of interest of the guest increases relatively;
を具備し、and
前記映像データは、パノラマ映像を表し、The video data represents a panoramic video,
前記視聴行動データは、前記映像データの第1の再生時刻における前記ゲストの視野方向を示す視野方向データと、前記第1の再生時刻を示す再生時刻データとを含み、The viewing behavior data includes viewing direction data indicating the viewing direction of the guest at the first playback time of the video data, and playback time data indicating the first playback time,
前記特定部は、前記第1の再生時刻における前記ホストの位置と前記映像データの基準アングルとを示す基準位置姿勢データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野範囲を決定し、決定した前記視野範囲と前記複数の展示対象の各々を当該展示対象の位置に関連付けるマップデータとに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、The specifying unit is configured to perform a visual field range of the guest at the first reproduction time based on reference position/orientation data indicating a position of the host and a reference angle of the video data at the first reproduction time and the viewing direction data. is determined, and based on the determined viewing range and map data that associates each of the plurality of exhibition objects with the position of the exhibition object, the object that the guest paid attention to at the first reproduction time is specified.
注目度算出装置。Attention degree calculation device.
前記視聴行動データは、前記映像データの第1の再生時刻における前記ゲストの視野方向を示す視野方向データと、前記第1の再生時刻を示す再生時刻データとを含み、
前記特定部は、前記映像データから前記再生時刻データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記第1の再生時刻に前記ゲストが注目した対象を特定する、
請求項1に記載の注目度算出装置。 The video data represents a panoramic video,
The viewing behavior data includes viewing direction data indicating the viewing direction of the guest at the first playback time of the video data, and playback time data indicating the first playback time,
The specifying unit extracts the visual field image of the guest at the first reproduction time from the video data based on the reproduction time data and the visual field direction data, and extracts the visual field image of the guest at the first reproduction time from the subject of the visual field image. identifying an object of attention of the guest;
The attention level calculation device according to claim 1 .
前記視聴行動データは、前記ゲストの端末が前記映像データをキャプチャした時に対応する前記映像データの第1の再生時刻を示す再生時刻データと、前記第1の再生時刻における前記ゲストの視野方向を示す視野方向データとを含み、
前記特定部は、前記映像データから前記再生時刻データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記第1の再生時刻に前記ゲストが注目した対象を特定する、
請求項1に記載の注目度算出装置。 The video data represents a panoramic video,
The viewing behavior data includes playback time data indicating a first playback time of the video data corresponding to when the video data was captured by the terminal of the guest, and viewing direction of the guest at the first playback time. line of sight data;
The specifying unit extracts the visual field image of the guest at the first reproduction time from the video data based on the reproduction time data and the visual field direction data, and extracts the visual field image of the guest at the first reproduction time from the subject of the visual field image. identifying an object of attention of the guest;
The attention level calculation device according to claim 1 .
前記特定部は、前記キャプチャ画像の被写体から前記第1の再生時刻に前記ゲストが注目した対象を特定する、
請求項1に記載の注目度算出装置。 The viewing behavior data includes a captured image of the video data generated in response to the capture operation by the terminal of the guest, and playback time data indicating a first playback time of the video data corresponding to when the capture operation was performed. and
The identifying unit identifies an object that the guest paid attention to at the first reproduction time from the subjects of the captured image.
The attention level calculation device according to claim 1 .
前記視聴行動データは、前記ゲストの端末が前記映像データをキャプチャした時に対応する前記映像データの第1の再生時刻を示す再生時刻データと、前記第1の再生時刻における前記ゲストの視野方向を示す視野方向データとを含み、
前記特定部は、前記第1の再生時刻における前記ホストの位置と前記映像データの基準アングルとを示す基準位置姿勢データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野範囲を決定し、決定した前記視野範囲と前記複数の展示対象の各々を当該展示対象の位置に関連付けるマップデータとに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、
請求項1に記載の注目度算出装置。 The video data represents a panoramic video,
The viewing behavior data includes playback time data indicating a first playback time of the video data corresponding to when the video data was captured by the terminal of the guest, and viewing direction of the guest at the first playback time. line of sight data;
The specifying unit is configured to perform a visual field range of the guest at the first reproduction time based on reference position/orientation data indicating a position of the host at the first reproduction time and a reference angle of the video data and the viewing direction data. is determined, and based on the determined viewing range and map data that associates each of the plurality of exhibition objects with the position of the exhibition object, the object that the guest paid attention to at the first reproduction time is specified.
The attention level calculation device according to claim 1 .
コンピュータが、前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定することと、
コンピュータが、前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出することと
を具備し、
前記視聴行動データは、前記映像データの第1の再生時刻において前記映像データの表す映像に重畳して表示されたGUI(Graphical User Interface)部品のうち前記ゲストによって選択された第1のGUI部品を示すGUI選択データと、前記第1の再生時刻を示す再生時刻データとを含み、
前記特定することは、前記映像データから少なくとも前記再生時刻データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記GUI選択データに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、
注目度算出方法。 a computer acquiring the viewing behavior data of the guest based on the input acquired at the terminal of the guest sharing the video data of the exhibition captured by the host;
a computer identifying, based on the viewing behavior data, an object of interest of the guest among a plurality of exhibition objects at the exhibition;
A computer calculates the degree of attention of the plurality of exhibition objects so that the degree of attention of the exhibition object identified as the object of attention of the guest increases relatively,
The viewing behavior data includes a first GUI component selected by the guest from GUI (Graphical User Interface) components superimposed and displayed on the video represented by the video data at the first playback time of the video data. and playback time data indicating the first playback time,
The specifying includes extracting the visual field image of the guest at the first reproduction time from the video data based on at least the reproduction time data, and extracting the visual field image of the guest at the first reproduction time from the video data based on the GUI selection data. Identifying the target of the guest's attention at the playback time of
Attention calculation method.
コンピュータが、前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定することと、a computer identifying, based on the viewing behavior data, an object of interest of the guest among a plurality of exhibition objects at the exhibition;
コンピュータが、前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出することとcalculating, by a computer, the degree of attention of the plurality of exhibition objects so that the degree of attention of the exhibition object identified as the object of attention of the guest increases relatively;
を具備し、and
前記映像データは、パノラマ映像を表し、The video data represents a panoramic video,
前記視聴行動データは、前記映像データの第1の再生時刻における前記ゲストの視野方向を示す視野方向データと、前記第1の再生時刻を示す再生時刻データとを含み、The viewing behavior data includes viewing direction data indicating the viewing direction of the guest at the first playback time of the video data, and playback time data indicating the first playback time,
前記特定することは、前記第1の再生時刻における前記ホストの位置と前記映像データの基準アングルとを示す基準位置姿勢データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野範囲を決定し、決定した前記視野範囲と前記複数の展示対象の各々を当該展示対象の位置に関連付けるマップデータとに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、The step of specifying the visual field of the guest at the first reproduction time based on reference position/orientation data indicating the position of the host at the first reproduction time and the reference angle of the video data and the viewing direction data. determining a range, and identifying the target of the guest's attention at the first reproduction time based on the determined viewing range and map data that associates each of the plurality of display targets with the position of the display target;
注目度算出方法。Attention calculation method.
ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づく前記ゲストの視聴行動データを取得する手段、
前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定する手段、
前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出する手段
として機能させ、
前記視聴行動データは、前記映像データの第1の再生時刻において前記映像データの表す映像に重畳して表示されたGUI(Graphical User Interface)部品のうち前記ゲストによって選択された第1のGUI部品を示すGUI選択データと、前記第1の再生時刻を示す再生時刻データとを含み、
前記特定する手段は、前記映像データから少なくとも前記再生時刻データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記GUI選択データに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、
注目度算出プログラム。 the computer,
Means for acquiring the viewing behavior data of the guest based on the input acquired at the terminal of the guest sharing the video data of the exhibition shot by the host;
means for identifying, based on the viewing behavior data, an object of interest of the guest among a plurality of exhibition objects at the exhibition;
Functioning as a means for calculating the degree of attention of the plurality of exhibition objects so that the degree of attention of the exhibition object specified as the object of attention of the guest increases relatively ,
The viewing behavior data includes a first GUI component selected by the guest from GUI (Graphical User Interface) components superimposed and displayed on the video represented by the video data at the first playback time of the video data. and playback time data indicating the first playback time,
The identifying means extracts the visual field image of the guest at the first reproduction time from the video data based on at least the reproduction time data, and extracts the visual field image of the guest at the first reproduction time from the video data based on the GUI selection data. Identifying the target of the guest's attention at the playback time of
Attention calculation program.
ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づく前記ゲストの視聴行動データを取得する手段、Means for acquiring the viewing behavior data of the guest based on the input acquired at the terminal of the guest sharing the video data of the exhibition shot by the host;
前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定する手段、means for identifying, based on the viewing behavior data, an object of interest of the guest among a plurality of exhibition objects at the exhibition;
前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出する手段Means for calculating the degree of attention of the plurality of exhibition objects so as to relatively increase the degree of attention of the exhibition object specified as the object of attention of the guest
として機能させ、function as
前記映像データは、パノラマ映像を表し、The video data represents a panoramic video,
前記視聴行動データは、前記映像データの第1の再生時刻における前記ゲストの視野方向を示す視野方向データと、前記第1の再生時刻を示す再生時刻データとを含み、The viewing behavior data includes viewing direction data indicating the viewing direction of the guest at the first playback time of the video data, and playback time data indicating the first playback time,
前記特定する手段は、前記第1の再生時刻における前記ホストの位置と前記映像データの基準アングルとを示す基準位置姿勢データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野範囲を決定し、決定した前記視野範囲と前記複数の展示対象の各々を当該展示対象の位置に関連付けるマップデータとに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、The identifying means is configured to perform a visual field of the guest at the first reproduction time based on reference position/orientation data indicating a position of the host at the first reproduction time and a reference angle of the video data and the viewing direction data. determining a range, and identifying the target of the guest's attention at the first reproduction time based on the determined viewing range and map data that associates each of the plurality of display targets with the position of the display target;
注目度算出プログラム。Attention calculation program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019049036A JP7202935B2 (en) | 2019-03-15 | 2019-03-15 | Attention level calculation device, attention level calculation method, and attention level calculation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019049036A JP7202935B2 (en) | 2019-03-15 | 2019-03-15 | Attention level calculation device, attention level calculation method, and attention level calculation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020150519A JP2020150519A (en) | 2020-09-17 |
JP7202935B2 true JP7202935B2 (en) | 2023-01-12 |
Family
ID=72429990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019049036A Active JP7202935B2 (en) | 2019-03-15 | 2019-03-15 | Attention level calculation device, attention level calculation method, and attention level calculation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7202935B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113506132B (en) * | 2021-07-06 | 2023-08-01 | 树蛙信息科技(南京)有限公司 | Method and device for determining offline attention |
CN114173206B (en) * | 2021-12-10 | 2023-06-06 | 陕西师范大学 | Low-complexity viewpoint prediction method integrating user interests and behavior characteristics |
CN114511229A (en) * | 2022-02-14 | 2022-05-17 | 河南汇银丰投资管理有限公司 | Exhibition information watching system and method in virtual reality environment |
CN116704012B (en) * | 2023-06-13 | 2023-12-22 | 北京万物镜像数据服务有限公司 | Method, device and equipment for determining spatial heat of target element |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001325346A (en) | 2000-05-16 | 2001-11-22 | Kogeisha Co Ltd | Web exhibition and computer for holding it |
JP2009294735A (en) | 2008-06-03 | 2009-12-17 | Nobunori Sano | Interest survey device |
JP2016167699A (en) | 2015-03-09 | 2016-09-15 | 日本電信電話株式会社 | Video distribution method, video distribution device and video distribution program |
JP2017091210A (en) | 2015-11-10 | 2017-05-25 | 富士通株式会社 | Sight line retention degree calculation system, sight line retention degree calculation method, and sight line retention degree calculation program |
-
2019
- 2019-03-15 JP JP2019049036A patent/JP7202935B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001325346A (en) | 2000-05-16 | 2001-11-22 | Kogeisha Co Ltd | Web exhibition and computer for holding it |
JP2009294735A (en) | 2008-06-03 | 2009-12-17 | Nobunori Sano | Interest survey device |
JP2016167699A (en) | 2015-03-09 | 2016-09-15 | 日本電信電話株式会社 | Video distribution method, video distribution device and video distribution program |
JP2017091210A (en) | 2015-11-10 | 2017-05-25 | 富士通株式会社 | Sight line retention degree calculation system, sight line retention degree calculation method, and sight line retention degree calculation program |
Also Published As
Publication number | Publication date |
---|---|
JP2020150519A (en) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7135141B2 (en) | Information processing system, information processing method, and information processing program | |
US9851793B1 (en) | Virtual reality system including social graph | |
JP7202935B2 (en) | Attention level calculation device, attention level calculation method, and attention level calculation program | |
US10089785B2 (en) | Real-time immersive mediated reality experiences | |
JP6558587B2 (en) | Information processing apparatus, display apparatus, information processing method, program, and information processing system | |
US8990842B2 (en) | Presenting content and augmenting a broadcast | |
TWI752502B (en) | Method for realizing lens splitting effect, electronic equipment and computer readable storage medium thereof | |
US11748870B2 (en) | Video quality measurement for virtual cameras in volumetric immersive media | |
CN118557975A (en) | Method, system and storage medium for customized participation in electronic competition | |
US10701426B1 (en) | Virtual reality system including social graph | |
CN107633441A (en) | Commodity in track identification video image and the method and apparatus for showing merchandise news | |
US20230281832A1 (en) | Digital representation of multi-sensor data stream | |
US20120120201A1 (en) | Method of integrating ad hoc camera networks in interactive mesh systems | |
CN101563698A (en) | Personalizing a video | |
JP7200935B2 (en) | Image processing device and method, file generation device and method, and program | |
WO2018135334A1 (en) | Information processing device and information processing method, and computer program | |
WO2020017354A1 (en) | Information processing device, information processing method, and program | |
KR20190031220A (en) | System and method for providing virtual reality content | |
JP6609078B1 (en) | Content distribution system, content distribution method, and content distribution program | |
JP7210340B2 (en) | Attention Level Utilization Apparatus, Attention Level Utilization Method, and Attention Level Utilization Program | |
US20180075634A1 (en) | System and Method of Generating an Interactive Data Layer on Video Content | |
US20150375109A1 (en) | Method of Integrating Ad Hoc Camera Networks in Interactive Mesh Systems | |
JP7344084B2 (en) | Content distribution system, content distribution method, and content distribution program | |
Caporusso et al. | Analysis of the Relationship Between Content and Interaction in the Usability Design of 360 o Videos | |
JP7522265B2 (en) | Information processing device and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210628 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7202935 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |