[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7202935B2 - Attention level calculation device, attention level calculation method, and attention level calculation program - Google Patents

Attention level calculation device, attention level calculation method, and attention level calculation program Download PDF

Info

Publication number
JP7202935B2
JP7202935B2 JP2019049036A JP2019049036A JP7202935B2 JP 7202935 B2 JP7202935 B2 JP 7202935B2 JP 2019049036 A JP2019049036 A JP 2019049036A JP 2019049036 A JP2019049036 A JP 2019049036A JP 7202935 B2 JP7202935 B2 JP 7202935B2
Authority
JP
Japan
Prior art keywords
guest
data
attention
exhibition
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019049036A
Other languages
Japanese (ja)
Other versions
JP2020150519A (en
Inventor
裕美 金児
宏成 高橋
圭子 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2019049036A priority Critical patent/JP7202935B2/en
Publication of JP2020150519A publication Critical patent/JP2020150519A/en
Application granted granted Critical
Publication of JP7202935B2 publication Critical patent/JP7202935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、映像視聴者の注目度を算出する技術に関する。 The present invention relates to a technique for calculating the degree of attention of a video viewer.

従来、ユーザを中心に360度周囲を視聴可能な全天球映像のライブストリーミングが可能なカメラが知られている。全天球映像のライブストリーミングは、例えばいわゆるテレイジグジスタンスなどの様々な分野での活用が期待されている。 Conventionally, a camera capable of live streaming of omnidirectional video that allows the user to view the surroundings in 360 degrees is known. Live streaming of omnidirectional video is expected to be utilized in various fields such as so-called telexistence.

従来、複数のユーザがAR(Augmented Reality)体験を共有可能な機能が知られている。特許文献1には複数のユーザがMR(Mixed Reality)映像を共有して共同作業を行うことのできるシステムについて開示されている。 Conventionally, a function is known that allows multiple users to share an AR (Augmented Reality) experience. Patent Literature 1 discloses a system in which a plurality of users can share MR (Mixed Reality) images and perform collaborative work.

また、特許文献2には、HMD(Head Mounted Display)の現実空間における位置および向きから、当該HMDを装着しているユーザの視線および視線の先にある当該ユーザの着目点を特定することが開示されている。 Further, Patent Literature 2 discloses that the line of sight of the user wearing the HMD and the point of interest of the user beyond the line of sight are specified from the position and orientation of the HMD (Head Mounted Display) in the real space. It is

さらに、特許文献3には、提示された画像間の注目度を被験者の瞳の収縮などに基づいて計測すること、この注目度をニューラルネット等の微視的なモデル情報として学習させ、このモデル情報に基づいて、所定の属性の閲覧者用のマーケティング用コンテンツを作成することが記載されている。 Furthermore, in Patent Document 3, the degree of attention between presented images is measured based on the contraction of the subject's pupil, etc., and this degree of attention is learned as microscopic model information such as a neural network, and this model Based on the information, creating marketing content for viewers of predetermined attributes is described.

特開2006-293604号公報JP 2006-293604 A 特開2017-33299号公報JP 2017-33299 A 特開2011-118558号公報JP 2011-118558 A

本発明は、ホストによって撮影された映像を共有するゲストの注目度を算出することを目的とする。 An object of the present invention is to calculate the degree of attention of a guest who shares a video shot by a host.

本発明の第1の態様に係る注目度算出装置は、取得部と、特定部と、算出部とを含む。取得部は、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づくゲストの視聴行動データを取得する。特定部は、視聴行動データに基づいて、展示会における複数の展示対象のうちゲストの注目した対象を特定する。算出部は、ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように複数の展示対象の注目度を算出する。 A attention level calculation device according to a first aspect of the present invention includes an acquisition unit, a specification unit, and a calculation unit. The acquisition unit acquires the viewing behavior data of the guest based on the input acquired by the terminal of the guest sharing the video data of the exhibition captured by the host. The specifying unit specifies, based on the viewing behavior data, an object of interest of the guest among the plurality of exhibition objects at the exhibition. The calculation unit calculates the attention levels of the plurality of display objects so that the attention level of the display object specified as the target of the guest's attention is relatively increased.

第1の態様に係る注目度算出装置は、展示会に仮想的に参加するゲストからの展示対象への注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。 Since the attention degree calculation device according to the first aspect calculates the attention degree of the exhibition target from the guests who virtually participate in the exhibition, it is an approach different from the questionnaire to the actual participants of the exhibition. , data related to interest in the exhibition subject can be collected.

第1の態様に係る注目度算出装置において、映像データは、パノラマ映像を表してよい。視聴行動データは、映像データの第1の再生時刻におけるゲストの視野方向を示す視野方向データと、第1の再生時刻を示す再生時刻データとを含んでよい。特定部は、映像データから再生時刻データおよび視野方向データに基づいて第1の再生時刻におけるゲストの視野画像を抽出し、視野画像の被写体から第1の再生時刻にゲストが注目した対象を特定してよい。この注目度算出装置によれば、再生時刻に関連付けられた視野方向データを利用して当該再生時刻におけるゲストの視野画像を抽出し、この視野画像の被写体からゲストが注目した対象を特定することができる。なお、一般的に、視野方向データはキャプチャ画像などの画像データよりも小容量であるから、この注目度算出装置によれば、注目度の算出に関わるメモリの使用量、およびデータ通信量を節約できる可能性がある。 In the attention level calculation device according to the first aspect, the image data may represent a panoramic image. The viewing behavior data may include viewing direction data indicating the viewing direction of the guest at the first playback time of the video data, and playback time data indicating the first playback time. The identification unit extracts the visual field image of the guest at the first reproduction time from the video data based on the reproduction time data and the visual field direction data, and identifies the object of the guest's attention at the first reproduction time from the subject of the visual field image. you can According to this attention level calculation device, it is possible to extract the visual field image of the guest at the reproduction time using the visual field direction data associated with the reproduction time, and specify the object that the guest paid attention to from the subject of the visual field image. can. In addition, since the visual field direction data is generally smaller in capacity than the image data such as the captured image, according to this attention degree calculation device, the amount of memory used and the amount of data communication related to the attention degree calculation can be saved. It is possible.

第1の態様に係る注目度算出装置において、映像データは、パノラマ映像を表してよい。視聴行動データは、ゲストの端末が映像データをキャプチャした時に対応する映像データの第1の再生時刻を示す再生時刻データと、第1の再生時刻におけるゲストの視野方向を示す視野方向データとを含んでよい。特定部は、映像データから再生時刻データおよび視野方向データに基づいて第1の再生時刻におけるゲストの視野画像を抽出し、視野画像の被写体から第1の再生時刻にゲストが注目した対象を特定してよい。この注目度算出装置によれば、ゲストがキャプチャ操作を行った時の再生時刻に関連付けられた視野方向データを利用して当該再生時刻における当該ゲストの視野画像を抽出し、この視野画像の被写体から当該ゲストが注目した対象を特定することができる。ゲストがキャプチャ操作を行った時の当該ゲストの視野画像には当該ゲストが注目した対象が含まれる可能性が高いと推定できるので、この注目度算出装置によれば、信頼性の高い注目度を算出することができる。なお、一般的に、視野方向データはキャプチャ画像などの画像データよりも小容量であるから、この注目度算出装置によれば、注目度の算出に関わるメモリの使用量、およびデータ通信量を節約できる可能性がある。 In the attention level calculation device according to the first aspect, the image data may represent a panoramic image. The viewing behavior data includes playback time data indicating a first playback time of the video data corresponding to when the guest's terminal captured the video data, and view direction data indicating the viewing direction of the guest at the first playback time. OK. The identification unit extracts the visual field image of the guest at the first reproduction time from the video data based on the reproduction time data and the visual field direction data, and identifies the object of the guest's attention at the first reproduction time from the subject of the visual field image. you can According to this attention level calculation device, the visual field image of the guest at the reproduction time is extracted by using the visual field direction data associated with the reproduction time when the guest performed the capture operation, and the subject of the visual field image is extracted. It is possible to specify the object that the guest has paid attention to. Since it can be estimated that there is a high possibility that the object that the guest has paid attention to is included in the visual field image of the guest when the guest performs the capture operation, according to this attention degree calculation device, it is possible to obtain a highly reliable degree of attention. can be calculated. In addition, since the visual field direction data is generally smaller in capacity than the image data such as the captured image, according to this attention degree calculation device, the amount of memory used and the amount of data communication related to the attention degree calculation can be saved. It is possible.

第1の態様に係る注目度算出装置において、視聴行動データは、ゲストの端末によってキャプチャ操作に応じて生成された映像データのキャプチャ画像と、キャプチャ操作がなされた時に対応する映像データの第1の再生時刻を示す再生時刻データとを含んでよい。特定部は、キャプチャ画像の被写体から第1の再生時刻にゲストが注目した対象を特定してよい。この注目度算出装置によれば、ゲストによるキャプチャ画像の被写体から当該ゲストが注目した対象を特定することができる。かかるキャプチャ画像にはゲストが注目した対象が含まれる可能性が高いと推定できるので、この注目度算出装置によれば、信頼性の高い注目度を算出することができる。 In the attention level calculation device according to the first aspect, the viewing behavior data includes a captured image of video data generated by a guest's terminal in response to a capture operation, and a first image of video data corresponding to when the capture operation was performed. and playback time data indicating the playback time. The specifying unit may specify the object that the guest paid attention to at the first reproduction time from the objects of the captured image. According to this attention level calculation device, it is possible to identify the target of the guest's attention from the subject of the image captured by the guest. Since it can be estimated that such a captured image is likely to include an object that the guest paid attention to, according to this attention degree calculation device, it is possible to calculate a highly reliable degree of attention.

第1の態様に係る注目度算出装置において、視聴行動データは、映像データの第1の再生時刻においてゲストの端末において映像データの表す映像に重畳して表示されたGUI(Graphical User Interface)部品のうちゲストによって選択された第1のGUI部品を示すGUI選択データと、第1の再生時刻を示す再生時刻データとを含んでよい。特定部は、映像データから少なくとも再生時刻データに基づいてゲストの視野画像を抽出し、視野画像の被写体からGUI選択データに基づいて第1の再生時刻においてゲストの注目した対象を特定してよい。この注目度算出装置によれば、ゲストの視野画像を少なくとも再生時刻データに基づいて抽出し、この視野画像の被写体からゲストが注目した対象をGUI選択データに基づいて特定することができる。GUI選択データは、ゲストが能動的に選択したGUI部品を示しており、選択されたGUI部品から視野画像に含まれる展示対象の一部または全部について、ゲストが本当に興味・関心を抱いているのか、それとも早く別の展示対象を見たいと考えているのか、を推定することができる。すなわち、このように、GUI選択データを考慮してゲストが注目した対象を特定することで、信頼性の高い注目度を算出することができる。 In the attention level calculation device according to the first aspect, the viewing behavior data is a GUI (Graphical User Interface) part superimposed and displayed on the video represented by the video data on the terminal of the guest at the first reproduction time of the video data. It may include GUI selection data indicating the first GUI component selected by the guest, and playback time data indicating the first playback time. The identification unit may extract the visual field image of the guest from the video data based on at least the reproduction time data, and identify the target of the guest's attention at the first reproduction time based on the GUI selection data from the subject of the visual field image. According to this degree-of-attention calculation device, it is possible to extract the visual field image of the guest based on at least the reproduction time data, and to specify the target of the guest's attention from the subjects of the visual field image based on the GUI selection data. The GUI selection data indicates the GUI parts actively selected by the guest, and whether or not the guest is really interested in some or all of the exhibition objects included in the visual field image from the selected GUI parts. , or whether they want to see another exhibit as soon as possible. In other words, by specifying the target that the guest paid attention to in consideration of the GUI selection data in this way, it is possible to calculate the degree of attention with high reliability.

第1の態様に係る注目度算出装置において、視聴行動データは、映像データの第1の再生時刻におけるゲストの視野方向を示す視野方向データと、第1の再生時刻を示す再生時刻データとを含んでよい。特定部は、第1の再生時刻におけるホストの位置と映像データの基準アングルとを示す基準位置姿勢データおよび視野方向データに基づいて第1の再生時刻におけるゲストの視野範囲を決定し、決定した視野範囲と複数の展示対象の各々を展示対象の位置に関連付けるマップデータとに基づいて第1の再生時刻においてゲストの注目した対象を特定してよい。 In the attention level calculation device according to the first aspect, the viewing behavior data includes viewing direction data indicating the viewing direction of the guest at the first playback time of the video data, and playback time data indicating the first playback time. OK. The specifying unit determines the visual field range of the guest at the first reproduction time based on the reference position/orientation data and the viewing direction data indicating the position of the host and the reference angle of the video data at the first reproduction time, and determines the determined visual field. The object of interest of the guest at the first playback time may be identified based on the range and map data that associates each of the plurality of objects on display with the position of the object on display.

この注目度算出装置によれば、再生時刻に関連付けられた視野方向データと、同じ再生時刻に関連付けられた基準位置姿勢データとを利用して当該再生時刻におけるゲストの視野範囲を決定し、この視野範囲とマップデータとに基づいてゲストが注目した対象を特定することができる。なお、一般的に、基準位置姿勢データおよびマップデータは映像データよりも小容量であるから、この注目度算出装置によれば、注目度の算出に関わるメモリの使用量を節約できる可能性がある。 According to this attention level calculation device, the visual field direction data associated with the reproduction time and the reference position/orientation data associated with the same reproduction time are used to determine the visual field range of the guest at the reproduction time. The target of the guest's attention can be identified based on the range and the map data. Note that since the reference position/orientation data and the map data are generally smaller in capacity than the video data, this attention level calculation device may save memory usage related to attention level calculation. .

第1の態様に係る注目度算出装置において、映像データは、パノラマ映像を表してよい。視聴行動データは、ゲストの端末が映像データをキャプチャした時に対応する映像データの第1の再生時刻を示す再生時刻データと、第1の再生時刻におけるゲストの視野方向を示す視野方向データとを含んでよい。特定部は、第1の再生時刻におけるホストの位置と映像データの基準アングルとを示す基準位置姿勢データおよび視野方向データに基づいて第1の再生時刻におけるゲストの視野範囲を決定し、決定した視野範囲と複数の展示対象の各々を展示対象の位置に関連付けるマップデータとに基づいて第1の再生時刻においてゲストの注目した対象を特定してよい。 In the attention level calculation device according to the first aspect, the image data may represent a panoramic image. The viewing behavior data includes playback time data indicating a first playback time of the video data corresponding to when the guest's terminal captured the video data, and view direction data indicating the viewing direction of the guest at the first playback time. OK. The specifying unit determines the visual field range of the guest at the first reproduction time based on the reference position/orientation data and the viewing direction data indicating the position of the host and the reference angle of the video data at the first reproduction time, and determines the determined visual field. The object of interest of the guest at the first playback time may be identified based on the range and map data that associates each of the plurality of objects on display with the position of the object on display.

この注目度算出装置によれば、ゲストがキャプチャ操作を行った時の再生時刻に関連付けられた視野方向データと、同じ再生時刻に関連付けられた基準位置姿勢データとを利用して当該再生時刻におけるゲストの視野範囲を決定し、この視野範囲とマップデータとに基づいてゲストが注目した対象を特定することができる。ゲストがキャプチャ操作を行った時の当該ゲストの視野範囲には当該ゲストが注目した対象が含まれる可能性が高いと推定できるので、この注目度算出装置によれば、信頼性の高い注目度を算出することができる。なお、一般的に、基準位置姿勢データおよびマップデータは映像データよりも小容量であるから、この注目度算出装置によれば、注目度の算出に関わるメモリの使用量を節約できる可能性がある。 According to this attention degree calculation device, by using the viewing direction data associated with the playback time when the guest performed the capture operation and the reference position/orientation data associated with the same playback time, the guest at the playback time is captured. , and based on this visual field range and the map data, the object focused on by the guest can be identified. Since it can be estimated that there is a high possibility that the target focused on by the guest is included in the visual field range of the guest when the guest performs the capture operation, according to this attention level calculation device, it is possible to obtain a highly reliable level of attention. can be calculated. Note that since the reference position/orientation data and the map data are generally smaller in capacity than the video data, this attention level calculation device may save memory usage related to attention level calculation. .

第1の態様に係る注目度算出装置において、算出部は、ゲストの注目した対象として特定された展示対象の注目度がゲストによる展示対象への注目の持続時間の長さに応じて増加するように複数の展示対象の注目度を算出してよい。この注目度算出装置によれば、ゲストが展示対象を注視する時間が長いほど当該展示対象の注目度が増加するので、僅かな時間ゲストの目に留まったに過ぎない展示対象と、ゲストの目を長時間奪った展示対象とを正当に区別して注目度を算出することができる。 In the attention degree calculation device according to the first aspect, the calculation unit causes the degree of attention of the exhibition object specified as the object to which the guest has paid attention to increase according to the duration of the attention of the guest to the exhibition object. You may calculate the degree of attention of a plurality of display objects. According to this attention level calculation device, the longer the time that a guest gazes at an exhibition object, the more the attention degree of the exhibition object increases. It is possible to calculate the degree of attention by properly distinguishing the exhibition object that has been deprived of the for a long time.

本発明の第2の態様に係る注目度算出方法は、コンピュータが、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づくゲストの視聴行動データを取得することと、コンピュータが、視聴行動データに基づいて、展示会における複数の展示対象のうちゲストの注目した対象を特定することと、コンピュータが、ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように複数の展示対象の注目度を算出することとを具備する。 A method for calculating the degree of attention according to a second aspect of the present invention comprises: obtaining, by a computer, guest viewing behavior data based on an input obtained at a terminal of a guest sharing video data of an exhibition captured by a host; , a computer identifying an object of interest of a guest among a plurality of exhibition objects in an exhibition based on viewing behavior data; and calculating attention levels of the plurality of display objects so as to increase exponentially.

この注目度算出方法は、展示会に仮想的に参加するゲストからの展示対象への注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。 This method of calculating the degree of attention to the exhibition target from the guests who virtually participate in the exhibition calculates the degree of attention to the exhibition target. Data related to interests can be collected.

本発明の第3の態様に係る注目度算出プログラムは、コンピュータを、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づくゲストの視聴行動データを取得する手段、視聴行動データに基づいて、展示会における複数の展示対象のうちゲストの注目した対象を特定する手段、ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように複数の展示対象の注目度を算出する手段として機能させる。 A program for calculating the degree of attention according to a third aspect of the present invention comprises means for acquiring viewing behavior data of a guest based on an input acquired at a terminal of a guest who shares video data of an exhibition captured by a host by a computer, Means for identifying, based on the viewing behavior data, the target of the guest's attention among the plurality of exhibition targets at the exhibition; It functions as a means for calculating the degree of attention of the display object.

この注目度算出プログラムは、展示会に仮想的に参加するゲストからの展示対象への注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。 This attention level calculation program calculates the degree of attention to the exhibition target from guests who virtually participate in the exhibition. Data related to interests can be collected.

本発明によれば、ホストによって撮影された映像を共有するゲストの注目度を算出することができる。 According to the present invention, it is possible to calculate the degree of attention of a guest who shares a video shot by a host.

実施形態に係る注目度算出サーバを含む映像共有システムを例示するブロック図。1 is a block diagram illustrating a video sharing system including an attention level calculation server according to an embodiment; FIG. 図1中のゲスト端末を例示するブロック図。2 is a block diagram illustrating a guest terminal in FIG. 1; FIG. 実施形態に係る注目度算出サーバを例示するブロック図。4 is a block diagram illustrating an attention level calculation server according to the embodiment; FIG. ゲストの視野の説明図。An explanatory view of a guest's field of view. ゲストの視野画像を例示する図。The figure which illustrates a guest's field-of-view image. 映像のパーティションの説明図。Explanatory drawing of the partition of a picture. 映像に重畳して表示されるGUI部品を例示する図。FIG. 4 is a diagram illustrating GUI components displayed superimposed on a video; マップデータを用いた注目度算出の説明図。Explanatory drawing of attention degree calculation using map data. 図3の注目度算出サーバの動作を例示するフローチャート。4 is a flowchart illustrating the operation of the attention level calculation server of FIG. 3;

以下、図面を参照しながら実施形態の説明を述べる。なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号を付し、重複する説明については基本的に省略する。例えば、複数の同一または類似の要素が存在する場合に、各要素を区別せずに説明するために共通の符号を用いることがあるし、各要素を区別して説明するために当該共通の符号に加えて枝番号を用いることもある。 An embodiment will be described below with reference to the drawings. Elements that are the same as or similar to elements that have already been explained are denoted by the same or similar reference numerals, and overlapping explanations are basically omitted. For example, when there are a plurality of identical or similar elements, common reference numerals may be used to describe each element without distinction, and the common reference numerals may be used to distinguish and describe each element. In addition, branch numbers are sometimes used.

(実施形態)
実施形態に係る注目度算出サーバは、ゲストの端末(以降、ゲスト端末と称する)が、ホストの端末(以降、ホスト端末と称する)によって撮影、投稿された映像データを映像配信サーバを介して共有する映像共有システムに組み込むことができる。図1に、実施形態に係る注目度算出サーバ40を含む映像共有システムを例示する。
(embodiment)
In the attention degree calculation server according to the embodiment, a guest terminal (hereinafter referred to as a guest terminal) shares video data captured and posted by a host terminal (hereinafter referred to as a host terminal) via a video distribution server. can be incorporated into a video sharing system that FIG. 1 illustrates a video sharing system including an attention level calculation server 40 according to the embodiment.

図1の映像共有システムは、ホスト端末10と、映像配信サーバ20と、ゲスト端末30-1,30-2,・・・と、注目度算出サーバ40とを含む。図1の映像配信サーバ20は、ホスト端末10、ゲスト端末30、および注目度算出サーバ40の一部または全部と、例えばインターネットなどのネットワーク経由で接続されており、互いにデータを送受信し得る。また、注目度算出サーバ40は、ホスト端末10,映像配信サーバ20、およびゲスト端末30の一部または全部とネットワーク経由で接続されており、互いにデータを送受信し得る。 The video sharing system of FIG. 1 includes a host terminal 10, a video distribution server 20, guest terminals 30-1, 30-2, . The video distribution server 20 in FIG. 1 is connected to some or all of the host terminal 10, the guest terminal 30, and the attention level calculation server 40 via a network such as the Internet, and can exchange data with each other. Also, the attention level calculation server 40 is connected to some or all of the host terminal 10, the video distribution server 20, and the guest terminals 30 via a network, and can exchange data with each other.

ホスト端末10、映像配信サーバ20およびゲスト端末30は、以下に説明するように、映像共有サービスを授受するための基本的な機能を有する。なお、以降の説明では、図1の映像共有システムがライブ映像を共有すること、すなわちライブストリーミング、を仮定するが、ライブ映像に限らずホストが予め作成した映像を共有する場合にも後述する注目度の算出は可能である。故に、実施形態は、ライブ映像に限らず映像一般に適用が可能である。また、映像は、ホストによる展示会の撮影を前提とする。すなわち、ゲストは、ホストが展示会を撮影した映像データを共有することになる。ここで、展示会とは、典型的には業界向け見本市であるが、これに限らず、人工物(例えば、製品、作品、建造物、(仮想)オブジェクト、など)、天然物(風景、人間を含む生物、気象)、人物による歌唱、ダンス、演奏、スポーツ、などの実演、またはこれらの組み合わせなどの展示対象を鑑賞可能な場を広く意味し得る。具体的には、展示会として、コンサート、演劇、スポーツ大会、などが含まれ得る。 The host terminal 10, video distribution server 20, and guest terminal 30 have basic functions for exchanging video sharing services, as described below. In the following description, it is assumed that the video sharing system in FIG. 1 shares live video, that is, live streaming. It is possible to calculate degrees. Therefore, the embodiment can be applied not only to live video but also to video in general. In addition, it is assumed that the images are shot by the host at the exhibition. In other words, the guests share the video data of the exhibition captured by the host. Here, the exhibition is typically a trade fair for industry, but is not limited to this, artificial objects (for example, products, works, buildings, (virtual) objects, etc.), natural products (landscapes, human (including creatures, weather), performances of singing, dancing, playing, sports, etc. by people, or a combination of these. Specifically, exhibitions can include concerts, plays, sporting events, and the like.

ホスト端末10は、逐次、例えば当該ホスト端末10に接続されたカメラ/マイクロフォンによって生成されたライブ映像/音声データをエンコードし、エンコード済み(映像またはマルチメディア)データを映像配信サーバ20へ送信(アップロード)する。ここで、カメラは、全天球もしくは半天球の360度カメラまたはその他のパノラマカメラであってもよいし、通常の単眼カメラであってもよい。 The host terminal 10 sequentially encodes live video/audio data generated by, for example, a camera/microphone connected to the host terminal 10, and transmits (uploads) the encoded (video or multimedia) data to the video distribution server 20. )do. Here, the camera may be an omnidirectional or semispherical 360-degree camera or other panorama camera, or may be an ordinary monocular camera.

ホスト端末10は、コンピュータなどの電子デバイス、例えば、モバイル端末(例えば、スマートフォン、タブレット、ラップトップ、など)、PC(Personal Computer)、などであってもよいし、通信機能を有するVR(Virtual Reality)/AR/MR端末、例えばHMDであってもよいが、これらに限られない。なお、ホスト端末10としてHMDのような頭部装着型のデバイスを使用する場合には、単眼型または透過型のデバイスを採用することで、ホストの視界をある程度確保することができる。 The host terminal 10 may be an electronic device such as a computer, for example, a mobile terminal (for example, a smartphone, a tablet, a laptop, etc.), a PC (Personal Computer), or the like, or may be a VR (Virtual Reality) having a communication function. )/AR/MR terminals such as, but not limited to, HMDs. When a head-mounted device such as an HMD is used as the host terminal 10, a monocular or transmissive device can be used to secure the host's field of view to some extent.

映像配信サーバ20は、ホスト端末10からエンコード済みデータを受信し、これに対して、例えば、再エンコード、などの加工を必要に応じて行う。映像配信サーバ20は、(加工後の)エンコード済みデータをゲスト端末30へ配信する。 The video distribution server 20 receives the encoded data from the host terminal 10 and processes the data, such as re-encoding, as necessary. The video distribution server 20 distributes the (processed) encoded data to the guest terminal 30 .

ゲスト端末30は、映像配信サーバ20からエンコード済みデータを受信し、これをデコードし、ライブ映像(音声を含み得る)を再生する。なお、360度映像を含むパノラマ映像を再生する場合に、ゲスト端末30は、例えば、ゲストの頭部および/または視線の方向、または当該ゲスト端末30の方向を検出し、これに基づいて再生する映像の視点を切り替えてもよい。同様に、パノラマ映像を再生する場合に、ゲスト端末30は、例えば、ゲストによる視点切り替えのための操作、例えば、フリック、ストローク、タッチ、タップ、スワイプ、ドラグ、クリック、などを検出し、これに基づいて再生する映像の視点を切り替えてもよい。 The guest terminal 30 receives encoded data from the video distribution server 20, decodes it, and reproduces live video (which may include audio). It should be noted that, when reproducing a panoramic video including a 360-degree video, the guest terminal 30 detects, for example, the direction of the guest's head and/or line of sight, or the direction of the guest terminal 30, and reproduces based on this. The viewpoint of the video may be switched. Similarly, when reproducing a panoramic video, the guest terminal 30 detects, for example, an operation for switching viewpoints by the guest, such as a flick, stroke, touch, tap, swipe, drag, click, etc. You may switch the viewpoint of the image|video reproduced based on.

ゲスト端末30は、典型的には、没入感に優れたHMDなどのVR/AR/MR端末などの表示デバイスと、この制御装置、例えば、モバイル端末、PC、ゲーム機、などの組み合わせであってよい。なお、表示デバイスおよびその制御装置は、分離型である必要はなく一体化されていてもよい。 The guest terminal 30 is typically a combination of a display device such as a VR/AR/MR terminal such as an HMD with excellent immersive feeling, and a control device thereof such as a mobile terminal, a PC, a game machine, or the like. good. It should be noted that the display device and its control device need not be separated and may be integrated.

ゲストは、遠隔地に居るホストによって撮影され、ゲスト端末30によって再生される映像を通じて、あたかも展示会に参加しているかのような体験をすることができる。そして、実施形態に係る注目度算出サーバ40は、映像再生時にゲスト端末30において取得された入力に基づくゲストの視聴行動データを収集し、この視聴行動データに基づいて、展示会における複数の展示対象のうちゲストの注目した対象を特定する。さらに、注目度算出サーバ40は、このゲストの注目した対象に基づいて、これらの展示対象の注目度を算出する。 The guest can have an experience as if he/she is participating in the exhibition through the video imaged by the host in the remote place and reproduced by the guest terminal 30. - 特許庁Then, the attention degree calculation server 40 according to the embodiment collects the guest's viewing behavior data based on the input acquired by the guest terminal 30 during video reproduction, and based on this viewing behavior data, the plurality of exhibition objects in the exhibition is collected. Identify the target of the guest's attention. Further, the attention degree calculation server 40 calculates the degree of attention of these exhibition objects based on the object that the guest paid attention to.

このように注目度算出サーバ40は、展示会に仮想的に参加するゲストからの注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。なお、この注目度は、従来のアンケートの分析結果などと組み合わせて、またはこれに代えて、様々な利活用が期待できる。例えば、注目度は、展示会に出展する企業などの出展主体または展示会の主催者などへフィードバック情報を提供する、ゲストまたは他の(潜在)需要者へのマーケティングを支援する、ゲストが最も撮影を望んでいるであろう展示対象(撮影対象)の撮影をホストに要求する、などのために利活用され得る。一例として、複数の人物による歌唱などを鑑賞するコンサートにおいて、ゲストの注目度に基づいてこれらの人物のランキングを作成したり、ゲスト個人が興味・関心を強く惹かれた人物を当該ゲストの注目度に基づいて特定したりすることもできる。また、かかる注目度の利活用の一例として、ゲスト個人が興味・関心を強く惹かれた人物からのメッセージを当該ゲストへ送付することもあり得る。 In this way, the attention level calculation server 40 calculates the attention level of the guests who virtually participate in the exhibition. • Can collect data related to interests. It should be noted that this degree of attention can be expected to be utilized in various ways in combination with, for example, analysis results of conventional questionnaires, or in place of this. For example, the degree of attention is the most It can be utilized for, for example, requesting the host to photograph an exhibition object (object to be photographed) that the host may desire. For example, at a concert where people appreciate singing by multiple people, ranking these people based on the degree of attention of the guests, or ranking the people whose interests are strongly attracted to individual guests can also be identified based on In addition, as an example of utilization of such degree of attention, an individual guest may send a message from a person whose interest is strongly attracted to the guest.

なお、図1において示される各装置の数は、例示に過ぎない。例えば、ゲスト端末30の数は、時々刻々と変化するので、0となることがあり得るし、数百、数千となることもあり得る。また、図1の映像共有システムは、複数のライブ映像を並列的に配信することができるので、ホスト端末10の数も2以上となり得る。 It should be noted that the number of each device shown in FIG. 1 is merely an example. For example, the number of guest terminals 30 changes from moment to moment, so it can be 0, or it can be hundreds or thousands. Moreover, since the video sharing system of FIG. 1 can distribute a plurality of live videos in parallel, the number of host terminals 10 can be two or more.

以下、ゲスト端末30の構成について詳しく説明する。ゲスト端末30は、図2に例示されるように、通信I/F 100と、プロセッサ110と、メモリ120と、出力装置130と、入力装置140とを含む。 The configuration of the guest terminal 30 will be described in detail below. The guest terminal 30 includes a communication I/F 100, a processor 110, a memory 120, an output device 130, and an input device 140, as illustrated in FIG.

通信I/F 100は、ネットワーク経由で、外部装置、例えば、映像配信サーバ20、注目度算出サーバ40、などと通信をするためのモジュールであって、例えば、送受信のための信号処理回路、アンテナ、LAN(Local Area Network)端子などを含み得る。通信I/Fは、例えば移動通信などの広域通信用のモジュール、無線/有線LAN用のモジュール、Bluetooth(登録商標)用のモジュール、などであり得る。 The communication I/F 100 is a module for communicating with external devices such as the video distribution server 20 and the attention level calculation server 40 via a network. , a LAN (Local Area Network) terminal, and the like. The communication I/F can be, for example, a module for wide area communication such as mobile communication, a module for wireless/wired LAN, a module for Bluetooth (registered trademark), or the like.

プロセッサ110は、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、またはその他の汎用または専用のプロセッサなどであってもよい。プロセッサ110は、例えば、入出力制御、通信制御、画像/音声処理、後述する視聴行動データの生成、などを行う。 Processor 110 is typically a CPU (Central Processing Unit) and/or GPU (Graphics Processing Unit), but may also be a microcomputer, FPGA (Field Programmable Gate Array), DSP (Digital Signal Processor), or other general-purpose or dedicated processor. processor or the like. The processor 110 performs, for example, input/output control, communication control, image/audio processing, generation of viewing behavior data to be described later, and the like.

メモリ120は、プロセッサ110が各処理を実現するために当該プロセッサ110によって実行されるプログラムおよび当該プロセッサ110によって使用されるデータ、例えば、入力データ、映像データ、視聴行動データ、などを一時的に格納する。メモリ120は、かかるプログラム/データが展開されるワークエリアを有するRAM(Random Access Memory)を含み得る。 Memory 120 temporarily stores programs executed by processor 110 and data used by processor 110, such as input data, video data, viewing behavior data, etc., for processor 110 to implement each process. do. The memory 120 can include a RAM (Random Access Memory) having a work area in which such programs/data are developed.

出力装置130は、例えば、プロセッサによって再生された映像を出力する表示デバイス、プロセッサによって再生された音声を出力するスピーカ、などを含み得る。出力装置130は、HMDの要素の一部または全部であってもよい。 The output device 130 may include, for example, a display device that outputs video reproduced by the processor, a speaker that outputs audio reproduced by the processor, and the like. Output device 130 may be some or all of the elements of the HMD.

入力装置140は、例えば、センサ、タッチスクリーン、マイクロフォン、キーボード、マウス、などの一部または全部を含み得る。 Input device 140 may include, for example, some or all of a sensor, touch screen, microphone, keyboard, mouse, and the like.

ここで、センサは、例えば、加速度センサ、ジャイロスコープ、磁気センサ、などの動きセンサを含み得る。動きセンサによって検出されたセンサデータは、ゲストの頭部および/またはゲスト端末30の方向(例えば3軸の傾き)の推定に利用することができる。具体的には、パノラマ映像の再生時には、このセンサデータに基づいて、ゲストの頭部および/またはゲスト端末30の3次元的な回転角であるYaw角、Roll角、およびPitch角が推定され、これに応じてゲスト端末30に表示される映像の視点が制御され得る。 Here, the sensors may include, for example, motion sensors such as accelerometers, gyroscopes, magnetic sensors, and the like. Sensor data detected by the motion sensor can be used to estimate the guest's head and/or the orientation (eg, 3-axis tilt) of the guest terminal 30 . Specifically, at the time of playback of the panoramic video, the Yaw angle, Roll angle, and Pitch angle, which are the three-dimensional rotation angles of the guest's head and/or the guest terminal 30, are estimated based on this sensor data, Accordingly, the viewpoint of the video displayed on the guest terminal 30 can be controlled.

また、センサは、いわゆるアイトラッキングデバイスを含み得る。アイトラッキングデバイスは、ゲストの眼球の動きを捉え、ゲストの視線方向を表す入力データを生成する。かかる入力データもまた、ゲスト端末30に表示される映像の視点の制御に利用され得る。 Sensors may also include so-called eye-tracking devices. The eye tracking device captures the movement of the guest's eyeballs and generates input data representing the guest's gaze direction. Such input data can also be used to control the viewpoint of the video displayed on the guest terminal 30 .

プロセッサ110は、メモリ120に保存されたプログラムを実行することで、図2の受信データ取得部111、デコーダ112、映像出力部113、入力データ取得部114、視聴行動データ生成部115、および視聴行動報告部116として機能し得る。また、メモリ120は、図2の映像データ記憶部121、視聴行動データ記憶部122、および入力データ記憶部123を含み得る。 Processor 110 executes a program stored in memory 120 to obtain received data acquisition unit 111, decoder 112, video output unit 113, input data acquisition unit 114, viewing behavior data generation unit 115, and viewing behavior data generation unit 115 shown in FIG. It can function as the reporting unit 116 . Also, the memory 120 may include the video data storage unit 121, the viewing behavior data storage unit 122, and the input data storage unit 123 of FIG.

通信I/F 100は、外部装置から種々のデータをネットワーク経由で受信する受信部101と、外部装置へ種々のデータをネットワーク経由で送信する送信部102とを含む。受信部101は、映像配信サーバ20から前述のエンコード済みデータを受信し、これを受信データ取得部111へ送る。また、送信部102は、視聴行動報告部116から視聴行動データを受け取り、これを注目度算出サーバ40へ送信する。 Communication I/F 100 includes a receiving unit 101 that receives various data from an external device via the network, and a transmitting unit 102 that transmits various data to the external device via the network. The receiving unit 101 receives the above-described encoded data from the video distribution server 20 and sends it to the received data acquisition unit 111 . The transmitting unit 102 also receives the viewing behavior data from the viewing behavior reporting unit 116 and transmits it to the attention level calculation server 40 .

受信データ取得部111は、受信部101から受信データを取得し、これをメモリ120に書き込む。一例として、受信データ取得部111は、受信部101からエンコード済みデータを取得し、これを映像データ記憶部121に書き込む。 The received data acquisition unit 111 acquires received data from the receiving unit 101 and writes it to the memory 120 . As an example, the reception data acquisition unit 111 acquires encoded data from the reception unit 101 and writes it to the video data storage unit 121 .

映像データ記憶部121は、受信データ取得部111によって取得されたエンコード済みデータを保存する。このエンコード済みデータは、少なくともエンコード済み映像データを含み、さらにエンコード済み音声データを含み得る。映像データ記憶部121に保存されたエンコード済み映像データは、プロセッサ110の種々の機能部、例えばデコーダ112によって読み出され得る。 The video data storage unit 121 stores the encoded data acquired by the received data acquisition unit 111 . This encoded data includes at least encoded video data and may include encoded audio data. The encoded video data stored in the video data storage unit 121 can be read by various functional units of the processor 110 , such as the decoder 112 .

デコーダ112は、映像データ記憶部121からエンコード済み映像データを映像データ記憶部121から読み出す。デコーダ112は、エンコード済み映像データを適切なコーデックに従ってデコードして映像データを再生する。なお、デコーダ112は、ビデオデコーダに加えて音声デコーダを含んでいてもよい。デコーダ112は、再生した映像データを映像出力部113へ送る。また、デコーダ112は、図2においてプロセッサ110の機能の一部であるかのように描かれているが、専用の回路であってもよい。 The decoder 112 reads the encoded video data from the video data storage unit 121 . Decoder 112 decodes the encoded video data according to an appropriate codec to reproduce the video data. Note that the decoder 112 may include an audio decoder in addition to the video decoder. The decoder 112 sends the reproduced video data to the video output unit 113 . Also, although decoder 112 is depicted in FIG. 2 as being part of the functionality of processor 110, it may be a dedicated circuit.

映像出力部113は、デコーダ112から映像データを適時に、すなわち当該映像データに対応する出力タイミングの到来前に、受け取り、これを出力装置130へ送る。なお、映像出力部113は、映像データに限らず音声データの出力を制御してもよい。 The video output unit 113 receives the video data from the decoder 112 timely, that is, before the output timing corresponding to the video data arrives, and sends it to the output device 130 . Note that the video output unit 113 may control the output of not only video data but also audio data.

映像データがパノラマ映像を表す場合には、映像出力部113は、再生する映像の視点を制御してもよい。例えば、映像出力部113は、入力データ記憶部123に保存されているゲストの頭部および/または視線の方向、またはゲスト端末30の姿勢を表す入力データ、および/またはゲストによる視点切り替えのための操作を表す入力データに基づいて、再生する映像の視点を決定し得る。そして、映像出力部113は、決定した視点に応じた映像データを、デコーダ112からの映像データに基づいて生成し、これを出力装置130へ送ってもよい。 If the video data represents a panoramic video, the video output unit 113 may control the viewpoint of the reproduced video. For example, the video output unit 113 outputs input data representing the direction of the guest's head and/or line of sight stored in the input data storage unit 123, or the posture of the guest terminal 30, and/or the input data for switching the viewpoint by the guest. The viewpoint of the video to be played may be determined based on the input data representing the manipulation. Then, the video output unit 113 may generate video data corresponding to the determined viewpoint based on the video data from the decoder 112 and send it to the output device 130 .

また、映像出力部113は、映像データに必要に応じてGUI(Graphical User Interface)部品、および/または後述されるパーティションを明示するための表示(例えば、パーティションの境界線および/またはパーティションのラベル)を付加してから出力装置130へ送ってもよい。 In addition, the video output unit 113 adds GUI (Graphical User Interface) parts and/or displays for clearly indicating partitions (for example, partition boundaries and/or partition labels) to the video data as necessary. may be added before being sent to the output device 130 .

出力装置130は、映像出力部113から映像データを受け取り、これを表示する。なお、出力装置130は、映像データの表示に加えて、音声データを出力してもよい。 The output device 130 receives video data from the video output unit 113 and displays it. Note that the output device 130 may output audio data in addition to displaying video data.

入力装置140は、ゲスト端末30における入力に基づいて入力データを発生し、これを入力データ取得部114へ送る。ここで、入力データは、例えば、ゲストの頭部および/または視線の方向、またはゲスト端末30の方向を表すデータ、ゲストによるゲスト端末30の表示映像に対する操作(例えば、キャプチャ操作、視点切り替えのための操作、映像に重畳されたGUI部品を選択する操作、映像のパーティションを選択する操作)を表すデータ、などの一部または全部と、かかるデータの生成時に対応する映像データの再生時刻を示す再生時刻データとを含み得る。 The input device 140 generates input data based on the input at the guest terminal 30 and sends it to the input data acquisition section 114 . Here, the input data is, for example, data representing the direction of the guest's head and/or line of sight, or the direction of the guest terminal 30, and the guest's operation on the displayed image of the guest terminal 30 (for example, capture operation, viewpoint switching, etc.). operation, operation to select a GUI component superimposed on the video, operation to select a partition of the video, etc.), and playback indicating the playback time of the video data corresponding to the generation of such data. time data.

なお、ゲスト端末30は、オプションとしてキャプチャ機能を実装し得る。ゲスト端末30がキャプチャ機能を実装する場合には、プロセッサ110が、例えばキャプチャ操作を表す入力データに応じて、出力装置130に含まれる表示デバイスに表示されている映像をキャプチャしてキャプチャ画像を生成するキャプチャ部(図示しない)として機能し得る。 Note that the guest terminal 30 may optionally implement a capture function. When the guest terminal 30 implements a capture function, the processor 110 captures an image displayed on a display device included in the output device 130 according to input data representing, for example, a capture operation, and generates a capture image. It can function as a capture unit (not shown) for

入力データ取得部114は、入力装置140から種々の入力データを受け取り、これを入力データ記憶部123に書き込む。 The input data acquisition unit 114 receives various input data from the input device 140 and writes them to the input data storage unit 123 .

入力データ記憶部123は、入力データ取得部114によって取得された入力データを保存する。入力データ記憶部123に保存された入力データは、プロセッサ110の種々の機能部、例えば、視聴行動データ生成部115によって読み出される。 The input data storage unit 123 stores the input data acquired by the input data acquisition unit 114 . The input data stored in the input data storage unit 123 are read by various functional units of the processor 110 , such as the viewing behavior data generation unit 115 .

視聴行動データ生成部115は、入力データ記憶部123から入力データを読み出し、これに基づいてゲストの映像視聴時の意識的なまたは無意識の行動を表す視聴行動データを生成する。視聴行動データ生成部115は、生成した視聴行動データを視聴行動データ記憶部122に書き込む。 The viewing behavior data generation unit 115 reads the input data from the input data storage unit 123, and based on this, generates viewing behavior data representing the conscious or unconscious behavior of the guest when viewing the video. The viewing behavior data generation unit 115 writes the generated viewing behavior data to the viewing behavior data storage unit 122 .

具体的には、映像データがパノラマ映像、すなわち視点の切り替えが可能な映像である場合に、視聴行動データ生成部115は、ある時点におけるゲストの視野方向を表す視野方向データと、当該時点に対応する映像データの再生時刻を示す再生時刻データとを含む視聴行動データを生成してもよい。ここで、ある時点とは、例えば予め定められたタイミングであってもよいし、例えばゲストがキャプチャ操作などの所定の入力を行ったタイミングであってもよい。 Specifically, when the video data is a panoramic video, that is, a video in which the viewpoint can be switched, the viewing behavior data generation unit 115 generates viewing direction data representing the guest's viewing direction at a certain point in time and Viewing behavior data including playback time data indicating the playback time of the video data to be played may be generated. Here, the certain point in time may be, for example, a predetermined timing, or may be, for example, a timing at which the guest performs a predetermined input such as a capture operation.

視聴行動データ生成部115は、例えば入力データに含まれ得る、ゲストの頭部および/または視線の方向、またはゲスト端末30の方向を表すデータに基づいて視野方向データを生成し得る。一例として、視聴行動データ生成部115は、ゲストの視野を図4に例示されるように、ホストの視野を基準として正面方向(F)、右方向(R)、左方向(L)および後方(B)の4つの視野領域に分割し、ゲストの頭部および/または視線の方向、またはゲスト端末30の方向がいずれの視野領域に該当するかを判定し、判定した視野領域を表すインデックスを視野方向データとして生成してもよい。なお、図4は例示に過ぎず、ゲストの視野は3以下の視野領域に分割されてもよいし、5以上の視野領域に分割されてもよい。また、視野領域は、映像の視点切り替えの単位と一致していてもよいししなくてもよい。 The viewing behavior data generation unit 115 can generate view direction data based on data representing the direction of the guest's head and/or line of sight, or the direction of the guest terminal 30, which can be included in the input data, for example. As an example, the viewing behavior data generation unit 115 generates the visual field of the guest as illustrated in FIG. B) is divided into the four viewing areas, it is determined which viewing area the direction of the guest's head and/or line of sight or the direction of the guest terminal 30 corresponds to, and the index representing the determined viewing area is assigned to the viewing area. You may generate|occur|produce as direction data. Note that FIG. 4 is merely an example, and the guest's field of view may be divided into three or less visual field areas, or may be divided into five or more visual field areas. Also, the field of view area may or may not match the unit for switching the video viewpoint.

後述するように、これら視野方向データおよび再生時刻データと、映像データとを組み合わせれば、再生時刻データの示す再生時刻におけるゲストの視野画像をある程度再現することができる。この視野画像には、ゲストの注目した対象が含まれている可能性がある。例えば図5に例示される視野画像は、被写体として、ブース301、展示物301-1,301-2,301-3,ブース302、および展示物302-1を含んでいるが、ゲストがこれらの一部または全部に興味・関心がある可能性がある。 As will be described later, by combining the viewing direction data, the playback time data, and the video data, it is possible to reproduce the guest's view image at the playback time indicated by the playback time data to some extent. This field-of-view image may include the subject of the guest's attention. For example, the field-of-view image illustrated in FIG. You may be interested in some or all of them.

また、映像データがパノラマ映像、または通常の映像、すなわち視点切り替えが不可能な映像、である場合に、視聴行動データ生成部115は、ゲストによるキャプチャ操作に応じて生成されたキャプチャ画像と、このキャプチャ操作のなされた時に対応する映像データの再生時刻を示す再生時刻データとを含む視聴行動データを生成してもよい。キャプチャ画像は、データ容量が視野方向データに比べて大きい反面、キャプチャ操作がなされた時のゲストの視野画像そのものであるので、視野画像を再現する処理が不要であるうえにかかる処理に起因する視野の誤差も生じないという利点がある。また、ゲストが能動的にキャプチャ操作を行って保存したキャプチャ画像には、当該ゲストの注目した対象が含まれている可能性が高いと推定できる。 Further, when the video data is a panoramic video or a normal video, that is, a video in which viewpoint switching is impossible, the viewing behavior data generation unit 115 generates a captured image generated according to a capture operation by the guest, Viewing behavior data including reproduction time data indicating the reproduction time of video data corresponding to when the capture operation was performed may be generated. Although the captured image has a larger data volume than the viewing direction data, it is the guest's visual field image itself when the capture operation is performed, so processing to reproduce the visual field image is unnecessary, and the visual field resulting from such processing is unnecessary. There is an advantage that no error occurs. In addition, it can be estimated that there is a high possibility that the captured image that the guest actively performs the capture operation and saves includes the target of the guest's attention.

なお、映像は、例えば図6に示されるように、複数のパーティションに区切って表示されてもよい。図6の例では、映像は3つのパーティションL(左)、C(中央)、およびR(右)に区切られている。ゲストがいずれかのパーティションを選択する操作を行ったとすると、そのパーティションには、当該ゲストの注目した対象が含まれている可能性が高いと推定できる。例えば、図6の例では、ゲストがパーティションLを選択すれば当該ゲストは展示物301-1および/またはブース301に興味・関心があると推定できるし、ゲストがパーティションCを選択すれば当該ゲストは展示物301-2,展示物301-2および/またはブース301に興味・関心があると推定できるし、ゲストがパーティションRを選択すれば当該ゲストは展示物302-1および/またはブース302に興味・関心があると推定できる。ただし、図6は例示に過ぎず、映像は2以下のパーティションに区切られてもよいし、4以上のパーティションに区切られてもよい。また、例えば、物体認識技術などを利用して、物体毎に対応するパーティションが定められてもよい。 Note that the video may be divided into a plurality of partitions and displayed, as shown in FIG. 6, for example. In the example of FIG. 6, the video is partitioned into three partitions L (left), C (middle) and R (right). If the guest performs an operation to select one of the partitions, it can be inferred that there is a high possibility that the target of interest of the guest is included in that partition. For example, in the example of FIG. 6, if the guest selects partition L, it can be estimated that the guest is interested in exhibit 301-1 and/or booth 301, and if the guest selects partition C, the guest is interested in exhibit 301-2, exhibit 301-2 and/or booth 301. It can be inferred that there is an interest in the subject. However, FIG. 6 is merely an example, and the video may be divided into two or less partitions, or four or more partitions. Also, for example, a partition corresponding to each object may be determined using an object recognition technique or the like.

そこで、視聴行動データ生成部115は、ゲストによるパーティションの選択がなされた時の視野方向データおよび/またはキャプチャ画像と、選択されたパーティションを示すパーティション選択データと、パーティションの選択がなされた時に対応する映像データの再生時刻を示す再生時刻データとを含む視聴行動データを生成してもよい。 Therefore, the viewing behavior data generation unit 115 generates viewing direction data and/or a captured image when a guest selects a partition, partition selection data indicating the selected partition, and partition selection data corresponding to when the partition is selected. Viewing behavior data including reproduction time data indicating the reproduction time of video data may be generated.

さらに、映像には、例えば図7に示されるように、GUI部品が重畳して表示され得る。図7のGUI部品401を選択したゲストは、現在表示されている映像の被写体であるブース301、および展示物301-1,301-2,301-3の少なくとも一部に興味・関心があると推定できる。他方、図7のGUI部品402を選択したゲストは、現在表示されている映像の被写体であるブース301、および展示物301-1,301-2,301-3の少なくとも一部に興味・関心がないか、他のブースおよび/または展示物に興味・関心があると推定できる。 Furthermore, as shown in FIG. 7, for example, GUI parts can be superimposed and displayed on the video. A guest who has selected the GUI component 401 in FIG. 7 is interested in at least part of the booth 301 and the exhibits 301-1, 301-2, and 301-3, which are the subjects of the currently displayed video. can be estimated. On the other hand, the guest who selected the GUI component 402 in FIG. 7 is interested in at least part of the booth 301 and the exhibits 301-1, 301-2, and 301-3, which are the subjects of the currently displayed video. or it can be presumed that they are interested in other booths and/or exhibits.

そこで、視聴行動データ生成部115は、映像に重畳して表示されたGUI部品のうちゲストに選択されたものを示すGUI選択データと、かかる選択のなされた時に対応する映像データの再生時刻を示す再生時刻データとを含む視聴行動データを生成してもよい。なお、映像データがパノラマ映像である場合には、ゲストの視野画像を再現可能とするために、視聴行動データ生成部115は、GUI部品が選択された時の視野方向データおよび/またはキャプチャ画像を視聴行動データに含める必要がある。 Therefore, the viewing behavior data generation unit 115 indicates GUI selection data indicating the GUI component selected by the guest from among the GUI components superimposed on the video and the playback time of the video data corresponding to the selection. viewing behavior data including playback time data may be generated. Note that when the video data is a panoramic video, the viewing behavior data generation unit 115 generates the viewing direction data and/or the captured image when the GUI component is selected so that the guest's viewing image can be reproduced. Must be included in viewing behavior data.

視聴行動データ記憶部122は、視聴行動データ生成部115によって生成された視聴行動データを保存する。視聴行動データ記憶部122に保存された視聴行動データは、プロセッサ110の種々の機能部、例えば、視聴行動報告部116によって読み出される。 The viewing behavior data storage unit 122 stores the viewing behavior data generated by the viewing behavior data generation unit 115 . The viewing behavior data stored in the viewing behavior data storage unit 122 is read by various functional units of the processor 110 , such as the viewing behavior reporting unit 116 .

視聴行動報告部116は、視聴行動データ記憶部122から視聴行動データを読み出し、これを注目度算出サーバ40に報告する。具体的には、視聴行動報告部116は、視聴行動データを送信部102へ送り、送信部102はこの視聴行動データをネットワーク経由で注目度算出サーバ40へ送信する。 The viewing behavior reporting unit 116 reads the viewing behavior data from the viewing behavior data storage unit 122 and reports it to the attention level calculation server 40 . Specifically, the viewing behavior reporting unit 116 sends viewing behavior data to the transmitting unit 102, and the transmitting unit 102 transmits this viewing behavior data to the attention level calculation server 40 via the network.

次に、注目度算出サーバ40の構成について詳しく説明する。注目度算出サーバ40は、図3に例示されるように、通信I/F 200と、プロセッサ210と、メモリ220とを含む。 Next, the configuration of the attention level calculation server 40 will be described in detail. The attention level calculation server 40 includes a communication I/F 200, a processor 210, and a memory 220, as illustrated in FIG.

通信I/F 200は、ネットワーク経由で、外部装置、例えば、ホスト端末10、映像配信サーバ20、ゲスト端末30、などと通信をするためのモジュールであって、例えば、送受信のための信号処理回路、光コネクタなどを含み得る。通信I/F 200は、例え光通信モジュール、などであり得る。 The communication I/F 200 is a module for communicating with external devices such as the host terminal 10, the video distribution server 20, and the guest terminal 30 via a network. , optical connectors, and the like. Communication I/F 200 may be, for example, an optical communication module.

プロセッサ210は、汎用または専用のプロセッサなどであってもよい。プロセッサ210は、例えば、入出力制御、通信制御、後述される注目対象の特定および注目度の算出、などを行う。 Processor 210 may be a general purpose or special purpose processor, or the like. The processor 210 performs, for example, input/output control, communication control, identification of a target of interest and calculation of the degree of attention, which will be described later.

メモリ220は、プロセッサ210が各処理を実現するために当該プロセッサ210によって実行されるプログラムおよび当該プロセッサ210によって使用されるデータ、例えば、視聴行動データ、注目対象データ、注目度、などを一時的に格納する。さらに、メモリ220は、視聴行動データに関連付けられるゲストの視野画像を再現するために、映像データを格納し、および/または後述される基準位置姿勢データおよびマップデータを格納し得る。メモリ220は、かかるプログラム/データが展開されるワークエリアを有するRAMを含み得る。 The memory 220 temporarily stores programs executed by the processor 210 and data used by the processor 210, such as viewing behavior data, target data, attention level, etc., so that the processor 210 realizes each process. Store. Additionally, memory 220 may store video data and/or store reference pose data and map data, described below, to reproduce the guest's view image associated with the viewing behavior data. Memory 220 may include RAM having a work area in which such programs/data are deployed.

プロセッサ210は、メモリ220に保存されたプログラムを実行することで、図3の受信データ取得部211、注目対象特定部212、注目度算出部213、および注目度報告部214として機能し得る。また、メモリ220は、図3の視聴行動データ記憶部221、注目度記憶部222および注目対象データ記憶部223を含み得る。 By executing the programs stored in memory 220, processor 210 can function as received data acquisition unit 211, attention target identification unit 212, attention level calculation unit 213, and attention level reporting unit 214 in FIG. The memory 220 may also include the viewing behavior data storage unit 221, the attention level storage unit 222, and the target data storage unit 223 of FIG.

通信I/F 200は、外部装置から種々のデータをネットワーク経由で受信する受信部201と、外部装置へ種々のデータをネットワーク経由で送信する送信部202とを含む。受信部201は、ゲスト端末30から視聴行動データを受信し、これを受信データ取得部211へ送る。受信部201は、ホスト端末10および/または映像配信サーバ20から(エンコード済み)映像データおよび/または基準位置姿勢データを受信し、これを受信データ取得部211へ送り得る。ここで、基準位置姿勢データは、所与の時刻におけるホストの位置と映像データの基準アングルとを示す。また、送信部202は、注目度報告部214から注目度を受け取り、これを例えば図示されない注目度利活用サーバへ送信する。 Communication I/F 200 includes a receiving section 201 that receives various data from an external device via the network, and a transmitting section 202 that transmits various data to the external device via the network. The reception unit 201 receives viewing behavior data from the guest terminal 30 and sends it to the reception data acquisition unit 211 . The receiving unit 201 can receive (encoded) video data and/or reference position/orientation data from the host terminal 10 and/or the video distribution server 20 and send it to the received data acquisition unit 211 . Here, the reference position/orientation data indicates the position of the host and the reference angle of the video data at a given time. Further, the transmission unit 202 receives attention levels from the attention level reporting unit 214 and transmits them to, for example, a not-shown attention level utilization server.

ここで、注目度利活用サーバは、注目度算出サーバ40から注目度をネットワーク経由で受信し、これを利活用する。具体的には、注目度利活用サーバは、注目度に基づいて作成したフィードバック情報を展示会の出展主体または展示会の主催者などへ提供したり、ゲストまたは他の(潜在)需要者へのマーケティングを注目度に基づいて支援したり、撮影対象を注目度に基づいて決定して当該撮影対象の撮影をホストに要求したりする。 Here, the attention degree utilization server receives the attention degree from the attention degree calculation server 40 via the network and utilizes it. Specifically, the attention level utilization server provides the feedback information created based on the attention level to exhibitors of the exhibition or the organizer of the exhibition, and provides feedback information to guests or other (potential) consumers. It supports marketing based on the degree of attention, or decides the object to be photographed based on the degree of attention and requests the host to photograph the object to be photographed.

受信データ取得部211は、受信部201から受信データを取得し、これをメモリ220に書き込む。一例として、受信データ取得部211は、受信部201から視聴行動データを取得し、これを視聴行動データ記憶部221に書き込む。また、受信データ取得部211は、受信部201から(エンコード済み)映像データおよび/または基準位置姿勢データを取得し、これをメモリ120に書き込み得る。 The received data acquisition unit 211 acquires the received data from the receiving unit 201 and writes it to the memory 220 . As an example, the received data acquisition unit 211 acquires viewing behavior data from the receiving unit 201 and writes it to the viewing behavior data storage unit 221 . Also, the received data acquisition unit 211 can acquire (encoded) video data and/or reference position/orientation data from the reception unit 201 and write it to the memory 120 .

視聴行動データ記憶部221は、受信データ取得部211によって取得された視聴行動データを保存する。視聴行動データ記憶部221に保存された視聴行動データは、プロセッサ210の種々の機能部、例えば注目対象特定部212によって読み出され得る。 The viewing behavior data storage unit 221 stores the viewing behavior data acquired by the received data acquisition unit 211 . The viewing behavior data stored in the viewing behavior data storage unit 221 can be read by various functional units of the processor 210 , for example, the attention target identification unit 212 .

なお、視聴行動データは、ホストおよびゲストの区別なく集積されてもよいし、ホストまたはゲストを区別して集積されてもよい。すなわち、あるホスト端末10によって発信される映像の視聴時に生成された視聴行動データと、別のホスト端末10によって発信される映像の視聴時に視聴行動データとは区別されてもよい。この場合に、視聴行動データは、どのホスト端末10をソースとする映像の視聴時に当該視聴行動データが生成されたかを表すホスト識別子を含み得る。また、あるゲストのゲスト端末30により生成された視聴行動データと、別のゲストのゲスト端末30により生成された視聴行動データとは区別されてもよい。この場合に、視聴行動データは、どのゲスト端末30により当該視聴行動データが生成されたかを表すゲスト識別子を含み得る。 The viewing behavior data may be accumulated without distinguishing between the host and the guest, or may be accumulated by distinguishing between the host and the guest. That is, the viewing behavior data generated when viewing a video transmitted by a certain host terminal 10 and the viewing behavior data generated when viewing a video transmitted by another host terminal 10 may be distinguished. In this case, the viewing behavior data may include a host identifier indicating from which host terminal 10 the viewing behavior data was generated when the video was viewed. Also, the viewing behavior data generated by the guest terminal 30 of a certain guest and the viewing behavior data generated by the guest terminal 30 of another guest may be distinguished. In this case, the viewing behavior data may include a guest identifier indicating which guest terminal 30 generated the viewing behavior data.

注目対象特定部212は、視聴行動データ記憶部221から視聴行動データを読み出し、メモリ220から展示会における複数の展示対象の参照データを読み出す。ここで、参照データは、例えば、展示対象の外観(展示対象および/またはその属する出展主体のロゴおよび/または商標、展示対象としての人物の顔、などの部分的な外観を含み得る)、展示対象に付与されたコード(例えば、一次元コード、二次元コード、など)、展示対象に関連付けられるテキスト(例えば、名称、愛称、識別番号、説明文など)、展示対象の位置、などを示し得る。なお、複数の展示対象の位置を示す参照データは、マップデータと呼ぶこともできる。注目対象特定部212は、視聴行動データおよび参照データに基づいて、当該視聴行動データに含まれる再生時刻データの示す映像データの再生時刻において、ゲストが注目した対象を特定する。そして、注目対象特定部212は、例えば、この再生時刻データと、特定した対象を識別する展示対象識別子とを含む注目対象データを生成し、これを注目対象データ記憶部223に書き込む。 The object-of-interest specifying unit 212 reads viewing behavior data from the viewing behavior data storage unit 221 and reads reference data of a plurality of display objects in the exhibition from the memory 220 . Here, the reference data may include, for example, the appearance of the exhibition object (which may include the logo and/or trademark of the exhibition object and/or the exhibitor to which it belongs, the face of the person as the exhibition object, etc.), the exhibition A code assigned to the object (e.g., one-dimensional code, two-dimensional code, etc.), text associated with the object to be exhibited (e.g., name, nickname, identification number, description, etc.), position of the object to be exhibited, etc. . Note that the reference data indicating the positions of a plurality of exhibits can also be called map data. Based on the viewing behavior data and the reference data, the target-of-interest identifying unit 212 identifies the target of the guest's attention at the playback time of the video data indicated by the playback time data included in the viewing behavior data. Then, the target-of-interest specifying unit 212 generates, for example, target-of-interest data including this reproduction time data and an exhibition target identifier for identifying the specified target, and writes this to the target-of-interest data storage unit 223 .

なお、視聴行動データが前述のホスト識別子および/またはゲスト識別子を含む場合には、注目対象データもまたこれを含んでもよい。また、ホスト識別子および/またはゲスト識別子は、それぞれ1つまたは複数の属性、例えば、性別、年代、嗜好、スキル、などを識別する属性識別子に変換されてもよい。なお、ホスト識別子および/またはゲスト識別子から属性識別子への変換ルールは、例えば図1の映像共有システムのユーザ情報を管理するサーバによって作成され、注目度算出サーバ40がこれを取得してもよい。例えば、あるゲスト識別子が「男性」、「30代」、「アーリーアダプター」、「専門家」などの属性を識別する属性識別子に変換され、注目対象データに含められてもよい。 It should be noted that if the viewing behavior data includes the aforementioned host identifier and/or guest identifier, the interest data may also include this. Also, the host identifier and/or guest identifier may each be translated into attribute identifiers that identify one or more attributes, such as gender, age, preferences, skills, and the like. Note that the rules for converting host identifiers and/or guest identifiers into attribute identifiers may be created by, for example, a server that manages user information in the video sharing system of FIG. For example, a guest identifier may be converted to attribute identifiers that identify attributes such as "male", "30's", "early adopter", "expert", and included in the data of interest.

具体的には、注目対象特定部212は、以下に列挙するように様々な技法により、ゲストが注目した対象を特定することができる。 Specifically, the target-of-interest identifying unit 212 can identify the target of the guest's attention by various techniques as listed below.

(1)視聴行動データが前述の視野方向データおよび再生時刻データを含み、メモリ220には(パノラマ映像を表す)映像データが保存されているとする。この場合に、注目対象特定部212は、再生時刻データおよび視野方向データに基づいて、映像データから当該再生時刻データの示す再生時刻におけるゲストの視野画像を抽出する。例えば、注目対象特定部212は、映像データのうち再生時刻データの示す再生時刻に対応する1枚のパノラマ画像を抽出し、さらにこのパノラマ画像から視野方向データの示す視野方向に対応する1視点分の画像をゲストの視野画像として抽出し得る。 (1) Suppose that the viewing behavior data includes the viewing direction data and the playback time data described above, and video data (representing a panoramic video) is stored in the memory 220 . In this case, the target-of-interest identification unit 212 extracts the visual field image of the guest at the reproduction time indicated by the reproduction time data from the video data based on the reproduction time data and the visual field direction data. For example, the target-of-interest identification unit 212 extracts one panorama image corresponding to the reproduction time indicated by the reproduction time data from the video data, and extracts one viewpoint corresponding to the viewing direction indicated by the viewing direction data from this panoramic image. can be extracted as the guest's view image.

そして、注目対象特定部212は、この視野画像の被写体から、再生時刻データの示す再生時刻においてゲストが注目した対象を特定する。具体的には、注目対象特定部212は、被写体の外観を参照データに含まれる複数の展示対象の外観と比較したり、被写体に含まれるテキスト領域またはコード領域を抽出し、抽出した領域を参照データに含まれる複数の展示対象に関連付けられるテキストまたは展示対象に付与されたコードと比較したりすることで、視野画像に含まれる被写体が複数の展示対象のいずれかに該当するか否かを判定できる。 Then, the target-of-interest specifying unit 212 specifies the target of the guest's attention at the playback time indicated by the playback time data from the subject of the field-of-view image. Specifically, the target-of-interest identifying unit 212 compares the appearance of the subject with the appearance of a plurality of exhibits included in the reference data, extracts a text area or code area included in the subject, and refers to the extracted area. Determine whether the subject included in the view image corresponds to any of the multiple exhibition objects by comparing the text associated with the multiple exhibition objects included in the data or the code assigned to the exhibition object. can.

(2)視聴行動データが前述のキャプチャ画像および再生時刻データを含んでいるとする。この場合に、注目対象特定部212は、このキャプチャ画像の被写体から、再生時刻データの示す再生時刻においてゲストが注目した対象を特定する。具体的には、注目対象特定部212は、上記(1)と同様の技法により、キャプチャ画像に含まれる被写体が複数の展示対象のいずれかに該当するか否かを判定できる。 (2) Assume that the viewing behavior data includes the aforementioned captured image and playback time data. In this case, the target-of-interest specifying unit 212 specifies the target of the guest's attention at the playback time indicated by the playback time data, from the subject of the captured image. Specifically, the subject-of-interest specifying unit 212 can determine whether or not the subject included in the captured image corresponds to any one of the plurality of exhibits, using the same technique as in (1) above.

(3)視聴行動データが前述のGUI選択データおよび再生時刻データを含んでいるとする。なお、視聴行動データがキャプチャ画像をさらに含んでいる場合、またはメモリ220に(通常の映像を表す)映像データが保存されている場合には、注目対象特定部212は、このキャプチャ画像、または映像データのうち再生時刻データの示す再生時刻に対応する1枚の画像、をゲストの視野画像として扱うことができる。他方、視聴行動データが視野方向データをさらに含んでいて、かつメモリ220に(パノラマ映像を表す)映像データが保存されている場合には、注目対象特定部212は、上記(1)と同様の技法により、ゲストの視野画像を抽出できる。 (3) Assume that the viewing behavior data includes the aforementioned GUI selection data and reproduction time data. Note that when the viewing behavior data further includes a captured image, or when video data (representing a normal video) is stored in the memory 220, the target-of-interest identifying unit 212 selects the captured image or the video. Of the data, one image corresponding to the reproduction time indicated by the reproduction time data can be treated as the guest's visual field image. On the other hand, when the viewing behavior data further includes view direction data and video data (representing a panoramic video) is stored in the memory 220, the target-of-interest identifying unit 212 performs the same operation as in (1) above. Techniques can extract a guest's view image.

そして、注目対象特定部212は、この視野画像の被写体から上記(1)と同様の技法により複数の展示対象のいずれかに該当するものを抽出し、抽出した展示対象をさらにGUI選択データに基づいて絞り込むことで、再生時刻データの示す再生時刻においてゲストが注目した対象を特定する。例えば、GUI選択データが「右の展示物」のようなGUI部品が選択されたことを示す場合には、注目対象特定部212は、視野画像において右側に位置する展示物をゲストが注目した対象として特定し得る。また、GUI選択データが例えば図7のGUI部品401が選択されたことを示す場合には、注目対象特定部212は、視野画像に含まれる展示対象をゲストが注目した対象として特定し得る。他方、GUI選択データが例えば図7のGUI部品402が選択されたことを示す場合には、注目対象特定部212は、視野画像に含まれる展示対象をゲストが注目した対象から除外し得る。 Then, the object-of-interest specifying unit 212 extracts one of the plurality of display objects from the subject of the field-of-view image by the same technique as in (1) above, and further extracts the extracted display object based on the GUI selection data. By narrowing it down with the key, the target that the guest paid attention to at the playback time indicated by the playback time data is specified. For example, when the GUI selection data indicates that a GUI component such as "right exhibit" has been selected, the target-of-interest identifying unit 212 selects the exhibit on the right side of the field-of-view image as the target of the guest's attention. can be identified as Also, when the GUI selection data indicates that the GUI component 401 of FIG. 7 is selected, for example, the target-of-interest identifying unit 212 can specify the exhibition target included in the field-of-view image as the target of the guest's attention. On the other hand, if the GUI selection data indicates that, for example, the GUI component 402 of FIG. 7 has been selected, the target-of-interest identifying unit 212 can exclude the exhibit target included in the view image from the target of the guest's attention.

(4)視聴行動データが前述のパーティション選択データおよび再生時刻データを含んでいるとする。なお、視聴行動データがキャプチャ画像をさらに含んでいる場合、またはメモリ220に(通常の映像を表す)映像データが保存されている場合には、注目対象特定部212は、このキャプチャ画像、または映像データのうち再生時刻データの示す再生時刻に対応する1枚の画像、をゲストの視野画像として扱うことができる。他方、視聴行動データが視野方向データをさらに含んでいて、かつメモリ220に(パノラマ映像を表す)映像データが保存されている場合には、注目対象特定部212は、上記(1)と同様の技法により、ゲストの視野画像を抽出できる。 (4) Assume that the viewing behavior data includes the partition selection data and playback time data described above. Note that when the viewing behavior data further includes a captured image, or when video data (representing a normal video) is stored in the memory 220, the target-of-interest identifying unit 212 selects the captured image or the video. Of the data, one image corresponding to the reproduction time indicated by the reproduction time data can be treated as the guest's visual field image. On the other hand, when the viewing behavior data further includes view direction data and video data (representing a panoramic video) is stored in the memory 220, the target-of-interest identifying unit 212 performs the same operation as in (1) above. Techniques can extract a guest's view image.

そして、注目対象特定部212は、この視野画像をパーティション選択データに基づいてさらに絞り込む。例えば、パーティション選択データが例えば図6のパーティションLが選択されたことを示す場合には、注目対象特定部212は、視野画像からこのパーティションLに該当する部分をトリミングし得る。そして、注目対象特定部212は、上記(1)と同様の技法により、この絞り込み後の視野画像に含まれる被写体が複数の展示対象のいずれかに該当するか否かを判定できる。 Then, the target-of-interest identifying unit 212 further narrows down the field-of-view image based on the partition selection data. For example, if the partition selection data indicates that the partition L in FIG. 6 has been selected, the target-of-interest identifying unit 212 can trim the portion corresponding to this partition L from the VF image. Then, the subject-of-interest identification unit 212 can determine whether or not the subject included in the field-of-view image after narrowing down corresponds to any one of the plurality of display subjects by the same technique as in (1) above.

(5)視聴行動データが前述の視野方向データおよび再生時刻データを含み、メモリ220にはマップデータおよび基準位置姿勢データが保存されているとする。注目対象特定部212は、再生時刻データ、基準位置姿勢データに基づいて、再生時刻データの示す再生時刻におけるホストの位置と映像データの基準アングルとを決定する。さらに、注目対象特定部212は、決定した映像データの基準アングルを、視野方向データの示す視野方向に応じて回転させて、再生時刻データの示す再生時刻におけるゲストの視野範囲を推定する。マップデータは、展示会における複数の展示対象をその位置に関連付ける。そして、注目対象特定部212は、推定したゲストの視野範囲内に展示されている展示対象を、再生時刻データの示す再生時刻においてゲストが注目した対象として特定する。具体的には、図8に例示されるように、注目対象特定部212は、ホストの位置501を中心にゲストの視野範囲502を推定し、この視野範囲502の内に展示されているブースA01、および/または当該ブースA01内の展示物を、ゲストが注目した対象として特定し得る。 (5) Assume that the viewing behavior data includes the viewing direction data and playback time data described above, and that the memory 220 stores map data and reference position/posture data. Based on the reproduction time data and the reference position/orientation data, the attention target identification unit 212 determines the position of the host and the reference angle of the video data at the reproduction time indicated by the reproduction time data. Furthermore, the attention target specifying unit 212 rotates the determined reference angle of the video data according to the viewing direction indicated by the viewing direction data, and estimates the viewing range of the guest at the playback time indicated by the playback time data. The map data associates multiple exhibit objects in the exhibition with their locations. Then, the target-of-interest identifying unit 212 identifies the exhibition target exhibited within the estimated visual field range of the guest as the target that the guest paid attention to at the reproduction time indicated by the reproduction time data. Specifically, as exemplified in FIG. 8, the target-of-interest identification unit 212 estimates a guest's visual field range 502 centering on the host's position 501, and the booth A01 exhibited within this visual field range 502. , and/or the exhibit within the booth A01 may be identified as the subject of the guest's attention.

上記(5)の技法によれば、上記(1),(3)~(4)のようなメモリ220に大容量の映像データを保存する必要のある技法に比べて、メモリ220の使用量を節約できる可能性がある。加えて、上記(5)の技法によれば、同じ展示会に参加する他のホストの映像に関わる注目度の算出時にも同じマップデータを利用することで、メモリ220の使用量をさらに節約できる。或いは、上記(1),(3)~(4)の技法において、注目度算出サーバ40が、ホスト端末10または映像配信サーバ20に映像データのうち再生時刻データの示す再生時刻に対応する画像を要求するようにしてもよい。 According to the technique of (5) above, the usage of the memory 220 can be reduced compared to the techniques of (1), (3) to (4) above, which require a large amount of video data to be stored in the memory 220. potential savings. In addition, according to the technique (5) above, by using the same map data when calculating attention levels related to videos of other hosts participating in the same exhibition, the usage of the memory 220 can be further reduced. . Alternatively, in the above techniques (1), (3) to (4), the attention level calculation server 40 sends an image corresponding to the reproduction time indicated by the reproduction time data of the video data to the host terminal 10 or the video distribution server 20. You may request it.

注目対象データ記憶部223は、注目対象特定部212によって生成された注目対象データを保存する。注目対象データ記憶部223に保存された注目対象データは、プロセッサ210の種々の機能部、例えば注目度算出部213によって読み出される。なお、注目対象データは、例えば、再生時刻、ゲスト識別子、ホスト識別子、および/または属性識別子をキーとして含んでいてもよく、所望のキーにマッチするものを選択的に読み出し可能であってもよい。 The attention target data storage unit 223 stores the attention target data generated by the attention target specifying unit 212 . The attention target data stored in the attention target data storage unit 223 is read by various functional units of the processor 210 , for example, the attention degree calculation unit 213 . Note that the data of interest may include, for example, playback time, guest identifier, host identifier, and/or attribute identifier as keys, and may be selectively readable that matches a desired key. .

注目度算出部213は、注目対象データ記憶部223から注目対象データを読み出し、これに基づいて複数の展示対象の注目度を算出する。そして、注目度算出部213は、算出した注目度を注目度記憶部222に書き込む。 The attention degree calculation unit 213 reads attention object data from the attention object data storage unit 223 and calculates the attention degree of a plurality of exhibition objects based on the attention object data. Then, the attention degree calculation unit 213 writes the calculated attention degree to the attention degree storage unit 222 .

注目度算出部213は、注目対象データの示す対象の注目度が相対的に増加するように複数の展示対象の注目度を算出し得る。具体的には、注目度算出部213は、あるゲストについて得られた注目対象データの示す対象の注目度が、当該ゲストによる当該対象への注目の持続時間の長さに応じて増加するように複数の展示対象の注目度を算出してもよい。例えば、注目度算出部213は、複数の再生時刻に亘って、展示対象毎に、注目対象データにおける当該展示対象の出現数を集計し、この集計結果に基づいて当該展示対象の注目度を算出する。また、注目度算出部213は、あるゲストについて得られた一連の注目対象データの示すある対象への注目の持続時間が閾値未満である場合に、当該一連の注目対象データを破棄してもよい。換言すれば、注目度算出部213は、あるゲストについて得られた一連の注目対象データの示すある対象への注目の持続時間が閾値を超える場合に、当該一連の注目対象データに基づいて注目度を算出してもよい。 The attention level calculation unit 213 can calculate the attention levels of a plurality of display objects such that the attention levels of the objects indicated by the attention object data are relatively increased. Specifically, the attention level calculation unit 213 calculates the attention level of the object indicated by the attention object data obtained for a certain guest so that the attention degree of the object is increased according to the duration of the attention of the guest to the object. Attention levels of a plurality of display objects may be calculated. For example, the attention level calculation unit 213 counts the number of appearances of the display target in the attention target data for each display target over a plurality of playback times, and calculates the attention level of the display target based on this tally result. do. In addition, the attention level calculation unit 213 may discard the series of attention target data when the duration of attention to a certain object indicated by the series of attention target data obtained for a certain guest is less than a threshold. . In other words, when the duration of attention to an object indicated by a series of attention target data obtained for a certain guest exceeds a threshold, the attention level calculation unit 213 calculates the attention level based on the series of attention target data. may be calculated.

注目度算出部213は、ゲスト別/属性別に注目度を算出してもよい。すなわち、注目度算出部213は、あるゲスト識別子/属性識別子を含む注目対象データを注目対象データ記憶部223から読み出し、展示対象毎に、読み出した注目対象データにおける当該展示対象の出現数を複数の再生時刻に亘って集計し、この集計結果に基づいて当該ゲスト識別子の示すゲスト/属性識別子の示す属性値を持つゲストの当該展示対象の注目度を算出してもよい。 The attention level calculation unit 213 may calculate the attention level for each guest/attribute. That is, the attention degree calculation unit 213 reads attention object data including a certain guest identifier/attribute identifier from the attention object data storage unit 223, and for each exhibition object, calculates the number of appearances of the exhibition object in the read attention object data as a plurality of numbers. It is also possible to calculate the degree of attention of the guest indicated by the guest identifier/attribute value indicated by the attribute identifier to the exhibition object based on the tabulated result.

また、注目度算出部213は、ホスト別に注目度を算出してもよい。すなわち、注目度算出部213は、あるホスト識別子を含む注目対象データを注目対象データ記憶部223から読み出し、展示対象毎に、読み出した注目対象データにおける当該展示対象の出現数を複数の再生時刻に亘って集計し、この集計結果に基づいて当該ホスト識別子の示すホストによる撮影映像を視聴するゲストの当該展示対象の注目度を算出してもよい。 Also, the attention level calculation unit 213 may calculate the attention level for each host. That is, the attention level calculation unit 213 reads attention object data including a certain host identifier from the attention object data storage unit 223, and calculates the number of appearances of the exhibition object in the read attention object data at a plurality of reproduction times for each exhibition object. It is also possible to calculate the degree of attention of the guest who views the image taken by the host indicated by the host identifier to the exhibition object based on the result of the aggregation.

さらに、注目度算出部213は、展示会における総合的な注目度を算出してもよい。すなわち、注目度算出部213は、全ての注目対象データを注目対象データ記憶部223から読み出し、展示対象毎に、読み出した注目対象データにおける当該展示対象の出現数を複数の再生時刻に亘って集計し、この集計結果に基づいて当該展示会に仮想的に参加する全ゲストの当該展示対象の注目度を算出してもよい。 Furthermore, the attention level calculation unit 213 may calculate the overall attention level in the exhibition. That is, the attention degree calculation unit 213 reads out all the attention object data from the attention object data storage unit 223, and aggregates the number of appearances of the exhibition object in the read attention object data over a plurality of reproduction times for each exhibition object. Then, the degree of attention of all the guests who virtually participate in the exhibition to the exhibition object may be calculated based on the total result.

注目度記憶部222は、注目度算出部213によって算出された注目度を保存する。注目度記憶部222に保存された注目度は、プロセッサ210の種々の機能部、例えば注目度報告部214によって読み出される。なお、注目度は、例えば、所望の再生時刻、ゲスト識別子、ホスト識別子、および/または属性識別子をキーとして含んでいてもよく、所望のキーにマッチするものを選択的に読み出し可能であってもよい。 The attention level storage unit 222 stores the attention level calculated by the attention level calculation unit 213 . The prominences stored in prominence storage unit 222 are read by various functional units of processor 210 , such as prominence reporting unit 214 . Note that the degree of attention may include, for example, the desired playback time, guest identifier, host identifier, and/or attribute identifier as keys, and may selectively read those that match the desired key. good.

注目度報告部214は、注目度記憶部222から注目度を読み出し、これを例えば図示されない注目度利活用サーバに報告する。具体的には、注目度報告部214は、注目度を送信部202へ送り、送信部202はこの注目度をネットワーク経由で注目度利活用サーバへ送信する。 The attention degree reporting unit 214 reads the attention degree from the attention degree storage unit 222 and reports it to, for example, an attention degree utilization server (not shown). Specifically, the attention degree reporting unit 214 sends the attention degree to the transmission unit 202, and the transmission unit 202 transmits this attention degree to the attention degree utilization server via the network.

以下、図9を用いて、注目度算出サーバ40の動作例を説明する。図9の動作はステップS601から開始する。
ステップS601において、受信部201は、ゲスト端末30から視聴行動データを受信するのを待ち受ける。受信部201が、視聴行動データを受信すると処理はステップS602へ進む。他方、受信部201が視聴行動データを受信する前に、注目度の算出タイミングが到来すると処理はステップS606へと進む(ステップS605)。
An operation example of the attention level calculation server 40 will be described below with reference to FIG. The operation of FIG. 9 starts at step S601.
In step S<b>601 , the receiving unit 201 waits to receive viewing behavior data from the guest terminal 30 . When the reception unit 201 receives the viewing behavior data, the process proceeds to step S602. On the other hand, if the attention degree calculation timing arrives before the receiving unit 201 receives the viewing behavior data, the process proceeds to step S606 (step S605).

ここで、注目度の算出タイミングは任意に定められ得る。例えば展示会の開催中にリアルタイムに注目度を算出する場合には、例えば、1分おき、10分おき、1時間おき、などで注目度の算出タイミングが定められてもよい。或いは、例えば展示会の半日分、または1日分の日程の終了後、または展示会の全日程の終了後に、注目度の算出タイミングが定められてもよい。 Here, the attention degree calculation timing can be determined arbitrarily. For example, when the attention level is calculated in real time during an exhibition, the attention level calculation timing may be determined, for example, every minute, every 10 minutes, every hour, or the like. Alternatively, the attention level calculation timing may be set after the end of a half-day or one-day schedule of the exhibition, or after the end of the entire schedule of the exhibition, for example.

ステップS602において、受信データ取得部211は、受信部201によって受信された視聴行動データを取得し、これを視聴行動データ記憶部221に書き込む。次に、注目対象特定部212は、ステップS602において取得された視聴行動データに基づいて、当該視聴行動データに含まれる再生時刻データの示す再生時刻にゲストが注目した対象を特定し、注目対象データを生成する(ステップS603)。 In step S<b>602 , the received data acquisition unit 211 acquires the viewing behavior data received by the receiving unit 201 and writes it to the viewing behavior data storage unit 221 . Next, based on the viewing behavior data acquired in step S602, the target-of-interest identifying unit 212 identifies the target that the guest paid attention to at the playback time indicated by the playback time data included in the viewing behavior data. is generated (step S603).

なお、ステップS602およびステップS603は、必ずしも連続的に行われる必要はなく、例えばステップS602が複数回実行される毎に、または所定の周期で、ステップS603が実行されてもよい。この場合に、ステップS602の後に、処理は、ステップS603の代わりに、ステップS601に戻ってもよいし、ステップS605へ進んでもよい。 Note that steps S602 and S603 do not necessarily have to be performed continuously, and step S603 may be performed, for example, each time step S602 is performed a plurality of times or at predetermined intervals. In this case, after step S602, the process may return to step S601 instead of step S603, or may proceed to step S605.

注目対象特定部212は、ステップS603において生成した注目対象データを注目対象データ記憶部223に書き込み(ステップS604)、処理はステップS605へと進む。なお、ステップS604の後に、処理はステップS605の代わりにステップS601に戻ってもよい。 The target specifying unit 212 writes the target data generated in step S603 to the target data storage unit 223 (step S604), and the process proceeds to step S605. After step S604, the process may return to step S601 instead of step S605.

ステップS606において、注目度算出部213は、ステップS604において注目対象データ記憶部223に保存された注目対象データに基づいて、複数の展示対象の注目度を算出し、注目度記憶部222に保存する。 In step S<b>606 , the attention level calculation unit 213 calculates the attention levels of the plurality of exhibition objects based on the attention object data stored in the attention object data storage unit 223 in step S<b>604 , and stores them in the attention degree storage unit 222 . .

そして、注目度報告部214は、ステップS606において算出された注目度を、例えば図示されない注目度利活用サーバに報告し(ステップS607)、図9の動作は終了する。 Then, the attention degree reporting unit 214 reports the attention degree calculated in step S606 to, for example, an attention degree utilization server (not shown) (step S607), and the operation in FIG. 9 ends.

なお、ステップS606およびステップS607は、必ずしも連続的に行われる必要はなく、例えばステップS606が複数回実行される毎に、または所定の周期で、ステップS607が実行されてもよい。この場合に、ステップS606の後に、処理は、ステップS607の代わりに、ステップS601に戻ってもよいし、ステップS605に戻ってもよい。 Note that steps S606 and S607 do not necessarily have to be performed continuously, and step S607 may be performed, for example, each time step S606 is performed a plurality of times or at a predetermined cycle. In this case, after step S606, the process may return to step S601 instead of step S607, or may return to step S605.

以上説明したように、実施形態に係る注目度算出サーバは、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づく視聴行動データを取得し、これに基づいて展示会における複数の展示対象のうちゲストの注目した対象を特定する。そして、この注目度算出サーバは、ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように複数の展示対象の注目度を算出する。故に、この注目度算出サーバは、展示会に仮想的に参加するゲストからの展示対象への注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。 As described above, the attention degree calculation server according to the embodiment acquires viewing behavior data based on the input acquired in the terminal of the guest sharing the video data of the exhibition shot by the host, Identify the target of the guest's attention among the multiple display targets at the exhibition. Then, this attention level calculation server calculates the attention levels of the plurality of exhibition objects so that the attention degree of the exhibition object specified as the object of the guest's attention is relatively increased. Therefore, since this attention level calculation server calculates the degree of attention to the exhibition target from the guests who virtually participate in the exhibition, it is possible to use an approach different from a questionnaire to the actual participants of the exhibition. It is possible to collect data related to interest in

(変形例)
実施形態の説明では、注目度算出サーバが注目度を算出することとしたが、ゲスト端末または他のコンピュータなどが注目度を算出してもよい。注目度算出サーバ、ゲスト端末、などの注目度を算出する装置を注目度算出装置と呼ぶことができる。また、注目度の算出と、注目対象の特定とは異なる装置によって行われてもよい。
(Modification)
In the description of the embodiment, the attention level calculation server calculates the attention level, but the attention level may be calculated by a guest terminal, another computer, or the like. A device that calculates the degree of attention, such as an attention degree calculation server and a guest terminal, can be called an attention degree calculation device. Also, the calculation of the degree of attention and the identification of the target of interest may be performed by different devices.

上述の実施形態は、本発明の概念の理解を助けるための具体例を示しているに過ぎず、本発明の範囲を限定することを意図されていない。実施形態は、本発明の要旨を逸脱しない範囲で、様々な構成要素の付加、削除または転換をすることができる。 The above-described embodiments merely show specific examples to aid understanding of the concept of the present invention, and are not intended to limit the scope of the present invention. Embodiments can add, delete, or convert various components without departing from the gist of the present invention.

上述の実施形態では、いくつかの機能部を説明したが、これらは各機能部の実装の一例に過ぎない。例えば、1つの装置に実装されると説明された複数の機能部が複数の別々の装置に亘って実装されることもあり得るし、逆に複数の別々の装置に亘って実装されると説明された機能部が1つの装置に実装されることもあり得る。 Although some functional units have been described in the above-described embodiments, these are only examples of implementation of each functional unit. For example, a plurality of functional units described as being implemented in one device may be implemented across a plurality of separate devices, and conversely, may be implemented across a plurality of separate devices. It is also conceivable that the functional units described may be implemented in a single device.

上記各実施形態において説明された種々の機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。 Various functional units described in the above embodiments may be realized by using circuits. A circuit may be a dedicated circuit that implements a specific function, or it may be a general-purpose circuit such as a processor.

上記各実施形態の処理の少なくとも一部は、例えば汎用のコンピュータに搭載されたプロセッサを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD-ROM、CD-R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。 At least part of the processing of each of the above-described embodiments can also be realized by using a processor installed in a general-purpose computer as basic hardware. A program that implements the above process may be provided by being stored in a computer-readable recording medium. The program is stored in the recording medium as an installable format file or an executable format file. Recording media include magnetic disks, optical disks (CD-ROM, CD-R, DVD, etc.), magneto-optical disks (MO, etc.), semiconductor memories, and the like. Any recording medium may be used as long as it can store the program and is readable by a computer. Alternatively, the program that implements the above processing may be stored on a computer (server) connected to a network such as the Internet, and downloaded to the computer (client) via the network.

10・・・ホスト端末
20・・・映像配信サーバ
30,30-1,30-2・・・ゲスト端末
40・・・注目度算出サーバ
100,200・・・通信I/F
101,201・・・受信部
102,202・・・送信部
110,210・・・プロセッサ
111,211・・・受信データ取得部
112・・・デコーダ
113・・・映像出力部
114・・・入力データ取得部
115・・・視聴行動データ生成部
116・・・視聴行動報告部
120,220・・・メモリ
121・・・映像データ記憶部
122,221・・・視聴行動データ記憶部
123・・・入力データ記憶部
130・・・出力装置
140・・・入力装置
212・・・注目対象特定部
213・・・注目度算出部
214・・・注目度報告部
222・・・注目度記憶部
223・・・注目対象データ記憶部
301,302・・・ブース
301-1,301-2,301-3,302-1・・・展示物
401,402・・・GUI部品
501・・・ホストの位置
502・・・ゲストの視野範囲
DESCRIPTION OF SYMBOLS 10... Host terminal 20... Video distribution server 30, 30-1, 30-2... Guest terminal 40... Attention degree calculation server 100, 200... Communication I/F
101, 201... Receiving unit 102, 202... Transmitting unit 110, 210... Processor 111, 211... Received data acquisition unit 112... Decoder 113... Video output unit 114... Input Data acquisition unit 115 Viewing behavior data generation unit 116 Viewing behavior reporting unit 120, 220 Memory 121 Video data storage unit 122, 221 Viewing behavior data storage unit 123 Input data storage unit 130 Output device 140 Input device 212 Attention target identification unit 213 Attention degree calculation unit 214 Attention degree reporting unit 222 Attention degree storage unit 223. .. Target data storage unit 301, 302 .. Booth 301-1, 301-2, 301-3, 302-1 .・・・Guest's field of view

Claims (11)

ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づく前記ゲストの視聴行動データを取得する取得部と、
前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定する特定部と、
前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出する算出部と
を具備
前記視聴行動データは、前記映像データの第1の再生時刻において前記映像データの表す映像に重畳して表示されたGUI(Graphical User Interface)部品のうち前記ゲストによって選択された第1のGUI部品を示すGUI選択データと、前記第1の再生時刻を示す再生時刻データとを含み、
前記特定部は、前記映像データから少なくとも前記再生時刻データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記GUI選択データに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、
注目度算出装置。
an acquisition unit that acquires the viewing behavior data of the guest based on the input acquired in the terminal of the guest sharing the video data of the exhibition captured by the host;
an identification unit that identifies, based on the viewing behavior data, an object of interest of the guest among a plurality of exhibition objects in the exhibition;
a calculation unit that calculates the degree of attention of the plurality of exhibition objects so that the degree of attention of the exhibition object specified as the object of attention of the guest increases relatively,
The viewing behavior data includes a first GUI component selected by the guest from GUI (Graphical User Interface) components superimposed and displayed on the video represented by the video data at the first playback time of the video data. and playback time data indicating the first playback time,
The specifying unit extracts the visual field image of the guest at the first reproduction time from at least the reproduction time data from the video data, and extracts the first visual field image from the subject of the visual field image based on the GUI selection data. Identifying the target of the guest's attention at the playback time;
Attention degree calculation device.
ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づく前記ゲストの視聴行動データを取得する取得部と、an acquisition unit that acquires the viewing behavior data of the guest based on the input acquired in the terminal of the guest sharing the video data of the exhibition captured by the host;
前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定する特定部と、an identification unit that identifies, based on the viewing behavior data, an object of interest of the guest among a plurality of exhibition objects in the exhibition;
前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出する算出部とa calculation unit configured to calculate the degree of attention of the plurality of exhibition objects so that the degree of attention of the exhibition object specified as the object of interest of the guest increases relatively;
を具備し、and
前記映像データは、パノラマ映像を表し、The video data represents a panoramic video,
前記視聴行動データは、前記映像データの第1の再生時刻における前記ゲストの視野方向を示す視野方向データと、前記第1の再生時刻を示す再生時刻データとを含み、The viewing behavior data includes viewing direction data indicating the viewing direction of the guest at the first playback time of the video data, and playback time data indicating the first playback time,
前記特定部は、前記第1の再生時刻における前記ホストの位置と前記映像データの基準アングルとを示す基準位置姿勢データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野範囲を決定し、決定した前記視野範囲と前記複数の展示対象の各々を当該展示対象の位置に関連付けるマップデータとに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、The specifying unit is configured to perform a visual field range of the guest at the first reproduction time based on reference position/orientation data indicating a position of the host and a reference angle of the video data at the first reproduction time and the viewing direction data. is determined, and based on the determined viewing range and map data that associates each of the plurality of exhibition objects with the position of the exhibition object, the object that the guest paid attention to at the first reproduction time is specified.
注目度算出装置。Attention degree calculation device.
前記映像データは、パノラマ映像を表し、
前記視聴行動データは、前記映像データの第1の再生時刻における前記ゲストの視野方向を示す視野方向データと、前記第1の再生時刻を示す再生時刻データとを含み、
前記特定部は、前記映像データから前記再生時刻データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記第1の再生時刻に前記ゲストが注目した対象を特定する、
請求項1に記載の注目度算出装置。
The video data represents a panoramic video,
The viewing behavior data includes viewing direction data indicating the viewing direction of the guest at the first playback time of the video data, and playback time data indicating the first playback time,
The specifying unit extracts the visual field image of the guest at the first reproduction time from the video data based on the reproduction time data and the visual field direction data, and extracts the visual field image of the guest at the first reproduction time from the subject of the visual field image. identifying an object of attention of the guest;
The attention level calculation device according to claim 1 .
前記映像データは、パノラマ映像を表し、
前記視聴行動データは、前記ゲストの端末が前記映像データをキャプチャした時に対応する前記映像データの第1の再生時刻を示す再生時刻データと、前記第1の再生時刻における前記ゲストの視野方向を示す視野方向データとを含み、
前記特定部は、前記映像データから前記再生時刻データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記第1の再生時刻に前記ゲストが注目した対象を特定する、
請求項1に記載の注目度算出装置。
The video data represents a panoramic video,
The viewing behavior data includes playback time data indicating a first playback time of the video data corresponding to when the video data was captured by the terminal of the guest, and viewing direction of the guest at the first playback time. line of sight data;
The specifying unit extracts the visual field image of the guest at the first reproduction time from the video data based on the reproduction time data and the visual field direction data, and extracts the visual field image of the guest at the first reproduction time from the subject of the visual field image. identifying an object of attention of the guest;
The attention level calculation device according to claim 1 .
前記視聴行動データは、前記ゲストの端末によってキャプチャ操作に応じて生成された前記映像データのキャプチャ画像と、前記キャプチャ操作がなされた時に対応する前記映像データの第1の再生時刻を示す再生時刻データとを含み、
前記特定部は、前記キャプチャ画像の被写体から前記第1の再生時刻に前記ゲストが注目した対象を特定する、
請求項1に記載の注目度算出装置。
The viewing behavior data includes a captured image of the video data generated in response to the capture operation by the terminal of the guest, and playback time data indicating a first playback time of the video data corresponding to when the capture operation was performed. and
The identifying unit identifies an object that the guest paid attention to at the first reproduction time from the subjects of the captured image.
The attention level calculation device according to claim 1 .
前記映像データは、パノラマ映像を表し、
前記視聴行動データは、前記ゲストの端末が前記映像データをキャプチャした時に対応する前記映像データの第1の再生時刻を示す再生時刻データと、前記第1の再生時刻における前記ゲストの視野方向を示す視野方向データとを含み、
前記特定部は、前記第1の再生時刻における前記ホストの位置と前記映像データの基準アングルとを示す基準位置姿勢データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野範囲を決定し、決定した前記視野範囲と前記複数の展示対象の各々を当該展示対象の位置に関連付けるマップデータとに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、
請求項1に記載の注目度算出装置。
The video data represents a panoramic video,
The viewing behavior data includes playback time data indicating a first playback time of the video data corresponding to when the video data was captured by the terminal of the guest, and viewing direction of the guest at the first playback time. line of sight data;
The specifying unit is configured to perform a visual field range of the guest at the first reproduction time based on reference position/orientation data indicating a position of the host at the first reproduction time and a reference angle of the video data and the viewing direction data. is determined, and based on the determined viewing range and map data that associates each of the plurality of exhibition objects with the position of the exhibition object, the object that the guest paid attention to at the first reproduction time is specified.
The attention level calculation device according to claim 1 .
前記算出部は、前記ゲストの注目した対象として特定された展示対象の注目度が前記ゲストによる当該展示対象への注目の持続時間の長さに応じて増加するように前記複数の展示対象の注目度を算出する、請求項1乃至請求項のいずれか1項に記載の注目度算出装置。 The calculation unit draws the attention of the plurality of exhibition objects so that the degree of attention of the exhibition object specified as the object of the guest's attention increases according to the duration of the attention of the guest to the exhibition object. 7. The attention level calculation device according to any one of claims 1 to 6 , which calculates a degree of attention. コンピュータが、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づく前記ゲストの視聴行動データを取得することと、
コンピュータが、前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定することと、
コンピュータが、前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出することと
を具備
前記視聴行動データは、前記映像データの第1の再生時刻において前記映像データの表す映像に重畳して表示されたGUI(Graphical User Interface)部品のうち前記ゲストによって選択された第1のGUI部品を示すGUI選択データと、前記第1の再生時刻を示す再生時刻データとを含み、
前記特定することは、前記映像データから少なくとも前記再生時刻データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記GUI選択データに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、
注目度算出方法。
a computer acquiring the viewing behavior data of the guest based on the input acquired at the terminal of the guest sharing the video data of the exhibition captured by the host;
a computer identifying, based on the viewing behavior data, an object of interest of the guest among a plurality of exhibition objects at the exhibition;
A computer calculates the degree of attention of the plurality of exhibition objects so that the degree of attention of the exhibition object identified as the object of attention of the guest increases relatively,
The viewing behavior data includes a first GUI component selected by the guest from GUI (Graphical User Interface) components superimposed and displayed on the video represented by the video data at the first playback time of the video data. and playback time data indicating the first playback time,
The specifying includes extracting the visual field image of the guest at the first reproduction time from the video data based on at least the reproduction time data, and extracting the visual field image of the guest at the first reproduction time from the video data based on the GUI selection data. Identifying the target of the guest's attention at the playback time of
Attention calculation method.
コンピュータが、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づく前記ゲストの視聴行動データを取得することと、a computer acquiring the viewing behavior data of the guest based on the input acquired at the terminal of the guest sharing the video data of the exhibition captured by the host;
コンピュータが、前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定することと、a computer identifying, based on the viewing behavior data, an object of interest of the guest among a plurality of exhibition objects at the exhibition;
コンピュータが、前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出することとcalculating, by a computer, the degree of attention of the plurality of exhibition objects so that the degree of attention of the exhibition object identified as the object of attention of the guest increases relatively;
を具備し、and
前記映像データは、パノラマ映像を表し、The video data represents a panoramic video,
前記視聴行動データは、前記映像データの第1の再生時刻における前記ゲストの視野方向を示す視野方向データと、前記第1の再生時刻を示す再生時刻データとを含み、The viewing behavior data includes viewing direction data indicating the viewing direction of the guest at the first playback time of the video data, and playback time data indicating the first playback time,
前記特定することは、前記第1の再生時刻における前記ホストの位置と前記映像データの基準アングルとを示す基準位置姿勢データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野範囲を決定し、決定した前記視野範囲と前記複数の展示対象の各々を当該展示対象の位置に関連付けるマップデータとに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、The step of specifying the visual field of the guest at the first reproduction time based on reference position/orientation data indicating the position of the host at the first reproduction time and the reference angle of the video data and the viewing direction data. determining a range, and identifying the target of the guest's attention at the first reproduction time based on the determined viewing range and map data that associates each of the plurality of display targets with the position of the display target;
注目度算出方法。Attention calculation method.
コンピュータを、
ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づく前記ゲストの視聴行動データを取得する手段、
前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定する手段、
前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出する手段
として機能させ、
前記視聴行動データは、前記映像データの第1の再生時刻において前記映像データの表す映像に重畳して表示されたGUI(Graphical User Interface)部品のうち前記ゲストによって選択された第1のGUI部品を示すGUI選択データと、前記第1の再生時刻を示す再生時刻データとを含み、
前記特定する手段は、前記映像データから少なくとも前記再生時刻データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記GUI選択データに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、
注目度算出プログラム。
the computer,
Means for acquiring the viewing behavior data of the guest based on the input acquired at the terminal of the guest sharing the video data of the exhibition shot by the host;
means for identifying, based on the viewing behavior data, an object of interest of the guest among a plurality of exhibition objects at the exhibition;
Functioning as a means for calculating the degree of attention of the plurality of exhibition objects so that the degree of attention of the exhibition object specified as the object of attention of the guest increases relatively ,
The viewing behavior data includes a first GUI component selected by the guest from GUI (Graphical User Interface) components superimposed and displayed on the video represented by the video data at the first playback time of the video data. and playback time data indicating the first playback time,
The identifying means extracts the visual field image of the guest at the first reproduction time from the video data based on at least the reproduction time data, and extracts the visual field image of the guest at the first reproduction time from the video data based on the GUI selection data. Identifying the target of the guest's attention at the playback time of
Attention calculation program.
コンピュータを、the computer,
ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づく前記ゲストの視聴行動データを取得する手段、Means for acquiring the viewing behavior data of the guest based on the input acquired at the terminal of the guest sharing the video data of the exhibition shot by the host;
前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定する手段、means for identifying, based on the viewing behavior data, an object of interest of the guest among a plurality of exhibition objects at the exhibition;
前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出する手段Means for calculating the degree of attention of the plurality of exhibition objects so as to relatively increase the degree of attention of the exhibition object specified as the object of attention of the guest
として機能させ、function as
前記映像データは、パノラマ映像を表し、The video data represents a panoramic video,
前記視聴行動データは、前記映像データの第1の再生時刻における前記ゲストの視野方向を示す視野方向データと、前記第1の再生時刻を示す再生時刻データとを含み、The viewing behavior data includes viewing direction data indicating the viewing direction of the guest at the first playback time of the video data, and playback time data indicating the first playback time,
前記特定する手段は、前記第1の再生時刻における前記ホストの位置と前記映像データの基準アングルとを示す基準位置姿勢データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野範囲を決定し、決定した前記視野範囲と前記複数の展示対象の各々を当該展示対象の位置に関連付けるマップデータとに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、The identifying means is configured to perform a visual field of the guest at the first reproduction time based on reference position/orientation data indicating a position of the host at the first reproduction time and a reference angle of the video data and the viewing direction data. determining a range, and identifying the target of the guest's attention at the first reproduction time based on the determined viewing range and map data that associates each of the plurality of display targets with the position of the display target;
注目度算出プログラム。Attention calculation program.
JP2019049036A 2019-03-15 2019-03-15 Attention level calculation device, attention level calculation method, and attention level calculation program Active JP7202935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019049036A JP7202935B2 (en) 2019-03-15 2019-03-15 Attention level calculation device, attention level calculation method, and attention level calculation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019049036A JP7202935B2 (en) 2019-03-15 2019-03-15 Attention level calculation device, attention level calculation method, and attention level calculation program

Publications (2)

Publication Number Publication Date
JP2020150519A JP2020150519A (en) 2020-09-17
JP7202935B2 true JP7202935B2 (en) 2023-01-12

Family

ID=72429990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019049036A Active JP7202935B2 (en) 2019-03-15 2019-03-15 Attention level calculation device, attention level calculation method, and attention level calculation program

Country Status (1)

Country Link
JP (1) JP7202935B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113506132B (en) * 2021-07-06 2023-08-01 树蛙信息科技(南京)有限公司 Method and device for determining offline attention
CN114173206B (en) * 2021-12-10 2023-06-06 陕西师范大学 Low-complexity viewpoint prediction method integrating user interests and behavior characteristics
CN114511229A (en) * 2022-02-14 2022-05-17 河南汇银丰投资管理有限公司 Exhibition information watching system and method in virtual reality environment
CN116704012B (en) * 2023-06-13 2023-12-22 北京万物镜像数据服务有限公司 Method, device and equipment for determining spatial heat of target element

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325346A (en) 2000-05-16 2001-11-22 Kogeisha Co Ltd Web exhibition and computer for holding it
JP2009294735A (en) 2008-06-03 2009-12-17 Nobunori Sano Interest survey device
JP2016167699A (en) 2015-03-09 2016-09-15 日本電信電話株式会社 Video distribution method, video distribution device and video distribution program
JP2017091210A (en) 2015-11-10 2017-05-25 富士通株式会社 Sight line retention degree calculation system, sight line retention degree calculation method, and sight line retention degree calculation program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325346A (en) 2000-05-16 2001-11-22 Kogeisha Co Ltd Web exhibition and computer for holding it
JP2009294735A (en) 2008-06-03 2009-12-17 Nobunori Sano Interest survey device
JP2016167699A (en) 2015-03-09 2016-09-15 日本電信電話株式会社 Video distribution method, video distribution device and video distribution program
JP2017091210A (en) 2015-11-10 2017-05-25 富士通株式会社 Sight line retention degree calculation system, sight line retention degree calculation method, and sight line retention degree calculation program

Also Published As

Publication number Publication date
JP2020150519A (en) 2020-09-17

Similar Documents

Publication Publication Date Title
JP7135141B2 (en) Information processing system, information processing method, and information processing program
US9851793B1 (en) Virtual reality system including social graph
JP7202935B2 (en) Attention level calculation device, attention level calculation method, and attention level calculation program
US10089785B2 (en) Real-time immersive mediated reality experiences
JP6558587B2 (en) Information processing apparatus, display apparatus, information processing method, program, and information processing system
US8990842B2 (en) Presenting content and augmenting a broadcast
TWI752502B (en) Method for realizing lens splitting effect, electronic equipment and computer readable storage medium thereof
US11748870B2 (en) Video quality measurement for virtual cameras in volumetric immersive media
CN118557975A (en) Method, system and storage medium for customized participation in electronic competition
US10701426B1 (en) Virtual reality system including social graph
CN107633441A (en) Commodity in track identification video image and the method and apparatus for showing merchandise news
US20230281832A1 (en) Digital representation of multi-sensor data stream
US20120120201A1 (en) Method of integrating ad hoc camera networks in interactive mesh systems
CN101563698A (en) Personalizing a video
JP7200935B2 (en) Image processing device and method, file generation device and method, and program
WO2018135334A1 (en) Information processing device and information processing method, and computer program
WO2020017354A1 (en) Information processing device, information processing method, and program
KR20190031220A (en) System and method for providing virtual reality content
JP6609078B1 (en) Content distribution system, content distribution method, and content distribution program
JP7210340B2 (en) Attention Level Utilization Apparatus, Attention Level Utilization Method, and Attention Level Utilization Program
US20180075634A1 (en) System and Method of Generating an Interactive Data Layer on Video Content
US20150375109A1 (en) Method of Integrating Ad Hoc Camera Networks in Interactive Mesh Systems
JP7344084B2 (en) Content distribution system, content distribution method, and content distribution program
Caporusso et al. Analysis of the Relationship Between Content and Interaction in the Usability Design of 360 o Videos
JP7522265B2 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R150 Certificate of patent or registration of utility model

Ref document number: 7202935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150