JP2012248070A - 情報処理装置、メタデータ設定方法、及びプログラム - Google Patents
情報処理装置、メタデータ設定方法、及びプログラム Download PDFInfo
- Publication number
- JP2012248070A JP2012248070A JP2011120396A JP2011120396A JP2012248070A JP 2012248070 A JP2012248070 A JP 2012248070A JP 2011120396 A JP2011120396 A JP 2011120396A JP 2011120396 A JP2011120396 A JP 2011120396A JP 2012248070 A JP2012248070 A JP 2012248070A
- Authority
- JP
- Japan
- Prior art keywords
- metadata
- area
- section
- unit
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims description 105
- 238000001514 detection method Methods 0.000 claims abstract description 62
- 238000012545 processing Methods 0.000 claims description 46
- 230000008859 change Effects 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 11
- 238000012217 deletion Methods 0.000 claims description 3
- 230000037430 deletion Effects 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 82
- 238000007726 management method Methods 0.000 description 77
- 238000002372 labelling Methods 0.000 description 66
- 230000008569 process Effects 0.000 description 63
- 230000010354 integration Effects 0.000 description 51
- 238000004364 calculation method Methods 0.000 description 24
- 238000005516 engineering process Methods 0.000 description 22
- 238000010191 image analysis Methods 0.000 description 22
- 230000033001 locomotion Effects 0.000 description 20
- 238000007781 pre-processing Methods 0.000 description 20
- 238000004458 analytical method Methods 0.000 description 16
- 238000000605 extraction Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 8
- 238000012805 post-processing Methods 0.000 description 8
- 230000001815 facial effect Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000008450 motivation Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000011069 regeneration method Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 101150012579 ADSL gene Proteins 0.000 description 2
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 2
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
- H04N21/4725—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/858—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
- H04N21/8583—Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by creating hot-spots
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
【課題】特定の人物や物品などが動画中に出現する区間の情報及び各動画フレーム内で特定の人物や物品などが出現する位置及び範囲の情報をユーザが容易に設定できるようにすること。
【解決手段】動画の再生中にユーザが画面内で指定した指定領域を検出する指定領域検出部と、前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定する領域メタデータ設定部と、前記領域メタデータが設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定する区間メタデータ設定部と、を備える、情報処理装置が提供される。
【選択図】図10
【解決手段】動画の再生中にユーザが画面内で指定した指定領域を検出する指定領域検出部と、前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定する領域メタデータ設定部と、前記領域メタデータが設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定する区間メタデータ設定部と、を備える、情報処理装置が提供される。
【選択図】図10
Description
本技術は、情報処理装置、メタデータ設定方法、及びプログラムに関する。
ビデオ映像やテレビジョン映像などを視聴している際、映像に登場する人物や物品、或いは、場所など(以下、対象物)に関する情報を詳しく知りたいと思うことがあるだろう。現状、多くのユーザは、パーソナルコンピュータ(以下、PC)、携帯電話、携帯情報端末など(以下、情報機器)を利用して情報の検索を行っている。しかし、映像に登場する対象物を特定することが可能なキーワードを知らないと、ユーザが、その対象物の情報を得ることは難しい。また、映像を視聴している最中に情報機器を立ち上げたり、情報機器に検索キーワードを入力したりする操作を行うことは面倒である。
例えば、映像に登場する対象物を画面上で選択できるようにし、ユーザにより選択された対象物の情報が画面上に表示されるようなユーザインターフェースが実現できれば、ユーザの利便性が大きく向上するものと考えられる。対象物の選択操作は、タッチパネルやリモコンなどの入力デバイスを利用すれば実現可能である。しかし、選択された画面上の位置に存在する対象物を特定するには、各動画フレームにおける各対象物の位置などを示したメタデータが必要になる。なお、映像に登場する対象物の位置を自動検出する方法は、例えば、下記の特許文献1に開示されている。
上記の文献に記載された技術を用いると、各動画フレームに登場する対象物の位置を自動検出することができる。そのため、自動検出された対象物の位置をメタデータとして利用することで、ユーザが画面上で選択した位置に存在する対象物を特定することが可能になる。但し、現状ではすべての対象物を自動で検出するのに十分な精度には達していない。そのため、人手によるメタデータのラベリング作業は欠かせない。しかし、映像を構成する動画フレームの数は非常に多く、人手によるメタデータのラベリング作業は非常に負担の大きい作業である。そのため、人手によるメタデータのラベリング作業を容易にする仕組みが求められている。
そこで、本技術は、上記のような事情を受けて考案されたものであり、特定の人物や物品などが動画中に出現する区間の情報及び各動画フレーム内で特定の人物や物品などが出現する位置及び範囲の情報をユーザが容易に設定できるようにすることが可能な、新規かつ改良された情報処理装置、メタデータ設定方法、及びプログラムを提供することを意図している。
本技術のある観点によれば、動画の再生中にユーザが画面内で指定した指定領域を検出する指定領域検出部と、前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定する領域メタデータ設定部と、前記指定領域が設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定する区間メタデータ設定部と、を備える、情報処理装置が提供される。
本技術のある観点によれば、動画の再生中にユーザが画面内で指定した指定領域の位置及び範囲を示す領域メタデータ、及び前記指定領域が指定された動画フレームに対応する区間を示す区間メタデータを取得するメタデータ取得部と、同じ動画フレームに含まれる同一対象物に対して複数のユーザが指定領域を指定した場合に、複数のユーザにより指定された複数の指定領域の位置及び範囲を統計的に処理して1つの代表的な位置及び範囲を算出し、当該代表的な位置及び範囲を領域メタデータに設定する領域メタデータ設定部と、を備える、情報処理装置が提供される。
また、本技術の別の観点によれば、動画の再生中にユーザが画面内で指定した指定領域を検出するステップと、前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定するステップと、前記指定領域が設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定するステップと、を含む、メタデータ設定方法が提供される。
また、本技術の別の観点によれば、動画の再生中にユーザが画面内で指定した指定領域を検出する指定領域検出機能と、前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定する領域メタデータ設定機能と、前記指定領域が設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定する区間メタデータ設定機能と、をコンピュータに実現させるためのプログラムが提供される。
また、本技術の別の観点によれば、動画の再生中にユーザが画面内で指定した指定領域の位置及び範囲を示す領域メタデータ、及び前記指定領域が指定された動画フレームに対応する区間を示す区間メタデータを取得するステップと、同じ動画フレームに含まれる同一対象物に対して複数のユーザが指定領域を指定した場合に、複数のユーザにより指定された複数の指定領域の位置及び範囲を統計的に処理して1つの代表的な位置及び範囲を算出し、当該代表的な位置及び範囲を領域メタデータに設定するステップと、を含む、データ統合方法が提供される。
また、本技術の別の観点によれば、動画の再生中にユーザが画面内で指定した指定領域の位置及び範囲を示す領域メタデータ、及び前記指定領域が指定された動画フレームに対応する区間を示す区間メタデータを取得するメタデータ取得機能と、同じ動画フレームに含まれる同一対象物に対して複数のユーザが指定領域を指定した場合に、複数のユーザにより指定された複数の指定領域の位置及び範囲を統計的に処理して1つの代表的な位置及び範囲を算出し、当該代表的な位置及び範囲を領域メタデータに設定する領域メタデータ設定機能と、をコンピュータに実現させるためのプログラムが提供される。
また、本技術の別の観点によれば、上記のプログラムが記録された、コンピュータにより読み取り可能な記録媒体が提供される。
以上説明したように本技術によれば、特定の人物や物品などが動画中に出現する区間の情報及び各動画フレーム内で特定の人物や物品などが出現する位置及び範囲の情報をユーザが容易に設定できるようになる。
以下に添付図面を参照しながら、本技術に係る好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[説明の流れについて]
ここで、以下に記載する説明の流れについて簡単に述べる。
ここで、以下に記載する説明の流れについて簡単に述べる。
まず、図1〜図4を参照しながら、本実施形態に係る技術により実現されるユーザインターフェースの具体例について説明する。次いで、図6及び図7を参照しながら、本実施形態に係る動画タイムラインメタデータについて説明する。次いで、図8及び図9を参照しながら、本実施形態に係る動画タイムラインメタデータの提供、管理及び利用に関する処理を実行するシステムの構成及び当該処理の流れについて説明する。
次いで、図10〜図35を参照しながら、本実施形態に係るメタデータ提供者端末10の構成及び動作について説明する。この中で、動画タイムラインメタデータのラベリング処理を容易化する仕組みについて詳細に説明する。次いで、図36〜図44を参照しながら、本実施形態に係るメタデータ管理システム20の構成及び動作について説明する。この中で、複数のユーザにより設定された動画タイムラインメタデータを統合する処理の内容及び動画タイムラインメタデータの設定作業を奨励するための仕組みについて詳細に説明する。
次いで、図45〜図52を参照しながら、本実施形態に係るメタデータ利用者端末30の構成及び動作について説明する。この中で、動画タイムラインメタデータを利用したユーザインターフェースの構成について詳細に説明する。次いで、図53〜図59を参照しながら、本実施形態に係る動画タイムラインメタデータのデータ構造について説明する。次いで、図60を参照しながら、本実施形態に係るメタデータ提供者端末10、メタデータ管理システム20、及びメタデータ利用者端末30の機能を実現することが可能な情報処理装置のハードウェア構成例について説明する。
最後に、同実施形態の技術的思想について纏め、当該技術的思想から得られる作用効果について簡単に説明する。
(説明項目)
1:はじめに
2:実施例
2−1:システムの全体構成及び動作
2−2:メタデータ提供者端末10の構成
2−3:メタデータ提供者端末10の動作
2−3−1:前処理について
2−3−2:ラベリング処理について
2−4:メタデータ管理システム20の構成
2−5:メタデータ管理システム20の動作
2−5−1:統合処理について
2−5−2:その他の機能
2−6:メタデータ利用者端末30の構成及び動作
2−7:動画タイムラインメタデータのデータ構造
3:ハードウェア構成
4:まとめ
1:はじめに
2:実施例
2−1:システムの全体構成及び動作
2−2:メタデータ提供者端末10の構成
2−3:メタデータ提供者端末10の動作
2−3−1:前処理について
2−3−2:ラベリング処理について
2−4:メタデータ管理システム20の構成
2−5:メタデータ管理システム20の動作
2−5−1:統合処理について
2−5−2:その他の機能
2−6:メタデータ利用者端末30の構成及び動作
2−7:動画タイムラインメタデータのデータ構造
3:ハードウェア構成
4:まとめ
<1:はじめに>
はじめに、本実施形態に係る動画タイムラインメタデータを利用することで実現されるユーザインターフェース及びアプリケーションについて紹介する。また、本実施形態に係る動画タイムラインメタデータについて説明する。
はじめに、本実施形態に係る動画タイムラインメタデータを利用することで実現されるユーザインターフェース及びアプリケーションについて紹介する。また、本実施形態に係る動画タイムラインメタデータについて説明する。
ビデオ映像やテレビジョン映像などの動画を視聴しているとき、その動画に登場する人物や物品などに興味を惹かれることがあるだろう。人物や物品だけでなく、動画に登場する場所や、その動画の制作者、或いは、その動画のストーリー展開などに興味を惹かれ、それらに関連する詳しい情報を得たいと思うこともあるだろう。例えば、あるユーザは、ドラマを視聴しているとき、そのドラマに登場する人物が出演している他の動画を知りたいと思うかもしれない。また、他のユーザは、映画を視聴しているとき、映画に登場する俳優が着用しているスーツに興味を惹かれるかもしれない。
これまで、多くのユーザは、上記のような情報を得ようとするとき、別途用意した情報機器を操作してWebから情報を取得したり、画面をデータ放送の表示モードに切り替えて情報を取得したりしていた。しかし、動画の視聴を中断して情報機器を立ち上げたり、検索エンジンに適切な検索キーワードを入力したりする操作を行うことは面倒である。また、データ放送では所望の情報が得られないことも多い。そして、いずれの方法も、視聴中のシーンに即した関連情報をリアルタイムに取得するのには適さない。こうした事情に鑑み、本件発明者は、視聴中のシーンに登場する人物や物品などに関する情報をリアルタイムに閲覧できるようにしたいと考えた。
例えば、図1に示すように、動画の1シーンに登場する人物の関連情報をリアルタイムに表示できるようにすることが望まれる。また、図2に示すように、動画の1シーンに登場する人物の関連情報、その人物が身に付けている物品の関連情報、或いは、そのシーンの撮影された場所に関する関連情報がリアルタイムに表示できるようにすることが望まれる。また、動画の再生時に関連情報が自動表示されるようにするだけでなく、図3に示すように、ユーザが登場人物を選択した場合に、選択された登場人物に関する関連情報が表示されるようなユーザインターフェースの実現も望まれる。こうした関連情報の表示を実現させるには、各動画フレームに出現する人物や物品など(以下、対象物)の情報(以下、動画タイムラインメタデータ)を用意しておく必要がある。
例えば、ある対象物が動画フレームに登場するか否かを示す情報(以下、区間メタデータ)及びその対象物の関連情報(以下、オブジェクトメタデータ)を各動画フレームについて用意しておけば、各動画フレームの再生時に、その対象物の関連情報をリアルタイムに表示することができるようになる。また、その対象物が出現する各動画フレーム内の位置や範囲を示す情報(以下、領域メタデータ)を用意しておけば、図1に示すように、関連情報を対象物の位置や範囲に対応付けて表示することができるようになる。さらに、領域メタデータを利用すれば、画面内に表示された対象物の位置や範囲と、ユーザが指定した位置とをマッチングすることが可能になり、図3に示すように、ユーザによる位置の指定に応じて関連情報を表示するユーザインターフェースを実現できる。
また、区間メタデータを利用すると、ある対象物が登場する区間を特定することが可能になるため、図4に示すように、ある対象物が登場する区間をユーザに提示したり、ある対象物が登場する区間だけを再生したりすることが可能になる。図4の例では、人物が登場するシーンと、そのシーンに登場する人物とを対応付けた情報(登場区間の時間情報)をユーザに提示する例が示されている。
また、複数の動画に関する区間メタデータを利用すると、図5に示すようなハイパーリンク型のビデオブラウジングが可能になる。ここで言うハイパーリンク型のビデオブラウジングとは、動画に登場する対象物をキー情報にして動画を切り替えながら視聴する操作手法のことを意味する。例えば、図5の例では、動画#1の1シーンに登場する人物を選択すると、その人物が登場する動#2の再生が開始され、動画#2の1シーンに登場する物品を選択すると、その物品が登場する動画#4の再生が開始される。このように、ユーザは、動画を視聴しながら、気になる対象物を選択することで、その対象物が登場する動画を自由に切り替えて視聴することが可能になる。
ここで、図6を参照しながら、動画タイムラインメタデータの構成について説明を補足する。動画タイムラインメタデータは、領域メタデータ、区間メタデータ、オブジェクトメタデータにより構成される。領域メタデータは、各動画フレームに登場する対象物の位置及びその範囲(以下、領域)を示すメタデータである。一例として、図6には、人物の顔領域が円形のハッチングにより表現されている。この場合、顔領域の位置は、円の中心座標で表現される。また、顔領域の範囲は、円の半径で表現される。なお、領域の形状は、矩形でもよい。領域の形状が矩形の場合、その領域の位置は、例えば、矩形の左上隅(もちろん、左下隅、右上隅、右下隅でもよい。)の座標で表現される。また、その領域の範囲は、矩形の高さ及び幅で表現される。
一方、区間メタデータは、対象物が登場する区間を示すメタデータである。例えば、人物Aが10枚目の動画フレームから80枚目の動画フレームに登場する場合、人物Aに関する区間メタデータは、10〜80枚目の動画フレームに対応する区間を示す。区間メタデータは、動画毎、及び各動画に登場する対象物毎に用意される。区間メタデータを参照すると、ある動画に特定の対象物が登場するか否かが分かる。また、区間メタデータを利用すると、各動画において特定の対象物が登場する区間の長さが分かる。さらに、区間メタデータを利用すると、同じ動画に登場する対象物の組を特定することができるため、例えば、共演関係を検出したり、共演時間を計算したりすることができる。
なお、動画タイムラインメタデータの提供は、図7に示すように、動画提供者とは異なるメタデータ提供者により行われるものと考えられる。また、動画タイムラインメタデータは、動画解析技術を利用して生成されるか、手入力により生成されるものと考えられる。例えば、顔識別技術や顔トラッキング技術などを利用すると、各動画フレームに登場する人物を自動検出することができる。その検出結果を利用することにより、動画タイムラインメタデータを生成することができる。しかしながら、これらの自動検出技術を用いた場合、誤検出や誤識別、或いは、検出漏れなどのエラーが発生してしまう。
そのため、エラーが生じた部分について動画タイムラインメタデータの修正や追加を手作業で行うか、或いは、初めから手作業で動画タイムラインメタデータを生成する必要がある。もちろん、手作業で動画タイムラインメタデータを生成する方が高い精度を得られる。しかしながら、動画を構成する動画フレームの数は膨大である。そのため、手作業で動画フレーム1枚1枚に動画タイムラインメタデータをラベリングしていくのは困難である。そこで、本件発明者は、手作業による動画タイムラインメタデータのラベリング作業を簡単にし、ユーザの作業負担を大幅に軽減することが可能なユーザインターフェースを開発した。また、本件発明者は、複数のユーザが協働して動画タイムラインメタデータを生成することが可能な仕組みを考案した。
これらの技術を適用することにより、精度の高い動画タイムラインメタデータを提供することが可能となる。また、動画タイムラインメタデータを利用した様々なアプリケーションが実現される。例えば、図1〜図3に示すような関連情報のリアルタイム表示が可能となる。また、図4に示すような登場区間の表示や、特定の登場人物が登場するシーンだけを選択的に再生することが可能になる。さらに、図5に示すようなハイパーリンク型のビデオブラウジングが可能になる。
以下では、本実施形態に係る動画タイムラインメタデータのラベリング方法、動画タイムラインメタデータのラベリングに用いるユーザインターフェースの構成、及び動画タイムラインメタデータを利用したアプリケーションについて詳細に説明する。
<2:実施例>
以下、本実施形態に係る技術の一実施例について説明する。
以下、本実施形態に係る技術の一実施例について説明する。
[2−1:システムの全体構成及び動作]
まず、図8及び図9を参照しながら、本実施例に係る一連の処理を実行可能なシステムの構成及び動作について説明する。図8及び図9は、本実施例に係る一連の処理を実行可能なシステムの構成及び動作について説明するための説明図である。
まず、図8及び図9を参照しながら、本実施例に係る一連の処理を実行可能なシステムの構成及び動作について説明する。図8及び図9は、本実施例に係る一連の処理を実行可能なシステムの構成及び動作について説明するための説明図である。
(構成)
図8に示すように、本実施例に係るシステムは、主に、メタデータ提供者端末10と、メタデータ管理システム20と、メタデータ利用者端末30とにより構成される。
図8に示すように、本実施例に係るシステムは、主に、メタデータ提供者端末10と、メタデータ管理システム20と、メタデータ利用者端末30とにより構成される。
メタデータ提供者端末10は、動画タイムラインメタデータのラベリング作業に用いるユーザインターフェースの提供及び動画タイムラインメタデータのラベリングに関する処理を実行する。また、メタデータ提供者端末10は、ラベリングされた動画タイムラインメタデータをメタデータ管理システム20に提供する。なお、メタデータ提供者端末10からメタデータ利用者端末30に動画タイムラインメタデータが直接提供されるようにシステムを構成することも可能である。また、図8にはメタデータ提供者端末10が1つしか記載されていないが、システム内に複数のメタデータ提供者端末10が設けられていてもよい。以下では、複数のメタデータ提供者が存在し、システム内に複数のメタデータ提供者端末10が存在するものとして説明を進める。
メタデータ管理システム20は、メタデータ提供者端末10により提供された動画タイムラインメタデータを蓄積する。また、同じ動画に関する複数の動画タイムラインメタデータが提供された場合、メタデータ管理システム20は、これら複数の動画タイムラインメタデータを統合する。さらに、メタデータ管理システム20は、ソーシャルネットワークサービス(以下、SNS)を利用して複数のユーザ間で動画タイムラインメタデータを共有できるようにする機能を有していてもよい。また、メタデータ管理システム20は、メタデータ提供者に対して報酬を与える機能を有していてもよい。さらに、メタデータ管理システム20は、動画タイムラインメタデータのラベリング作業を補助するための情報をメタデータ提供者端末10に送信する機能を有していてもよい。
メタデータ利用者端末30は、メタデータ管理システム20から動画タイムラインメタデータを取得し、取得した動画タイムラインメタデータを利用して各種の機能を提供する。例えば、メタデータ利用者端末30は、動画タイムラインメタデータを利用して、関連情報の表示機能、シーン検索・再生機能(登場区間の表示機能、登場区間の選択的な再生機能など)、ハイパーリンク型ビデオブラウジング機能などを提供する。つまり、メタデータ利用者端末30は、動画タイムラインメタデータを利用したアプリケーションの実行環境を提供する。
(動作)
本実施例に係るシステムは、図9に示した一連の処理を実行する。まず、メタデータ提供者端末10又はメタデータ管理システム20は、前処理を実行する(S10)。ステップS10の前処理は、主に、物体認識技術や物体検出・物体トラッキング技術などの動画解析技術を利用して動画に登場する対象物を自動検出する処理である。物体検出・物体トラッキング技術としては、例えば、特開2005−44330号公報に記載の技術を利用することができる。また、物体認識技術としては、例えば、特開2007−65766号公報に記載の技術を利用することができる。
本実施例に係るシステムは、図9に示した一連の処理を実行する。まず、メタデータ提供者端末10又はメタデータ管理システム20は、前処理を実行する(S10)。ステップS10の前処理は、主に、物体認識技術や物体検出・物体トラッキング技術などの動画解析技術を利用して動画に登場する対象物を自動検出する処理である。物体検出・物体トラッキング技術としては、例えば、特開2005−44330号公報に記載の技術を利用することができる。また、物体認識技術としては、例えば、特開2007−65766号公報に記載の技術を利用することができる。
後述するように、前処理を予め実行しておくことで、新規にラベリングすべき対象物の数及び動画フレームの数を低減することが可能になり、ラベリング作業の負担を軽減することができる。但し、前処理は省略可能である。前処理を省略した場合、全ての動画フレームに対して手作業で動画タイムラインメタデータをラベリングすることになる。また、前処理は、メタデータ提供者端末10が実行してもよいし、メタデータ管理システム20が実行してもよい。以下では、前処理をメタデータ提供者端末10が実行するものとして説明を進める。
前処理を実行した後、メタデータ提供者端末10は、動画タイムラインメタデータのラベリングに関する処理を実行する(S20)。例えば、メタデータ提供者端末10は、ラベリング対象の動画を再生し、ユーザによる入力を受け付ける。このとき、メタデータ提供者端末10は、ユーザによるラベリング作業を補助するためのユーザインターフェースを提供する。そして、メタデータ提供者端末10は、ユーザによる入力に応じて動画タイムラインメタデータを生成し、その動画タイムラインメタデータをメタデータ管理システム20に提供する。
次いで、メタデータ管理システム20は、メタデータ提供者端末10により提供された動画タイムラインメタデータに後処理を施す(S30)。この後処理は、主に、同じ動画を対象に設定された複数の動画タイムラインメタデータを統合する処理である。次いで、メタデータ利用者端末30は、メタデータ管理システム20から動画タイムラインメタデータを取得し、取得した動画タイムラインメタデータを利用して、関連情報の表示など、様々な機能をユーザに提供する(S40)。
本実施例に係る一連の処理を実行可能なシステムの構成及び動作について説明した。以下では、図9に示した処理の流れに沿って、メタデータ提供者端末10、メタデータ管理システム20及びメタデータ利用者端末30の詳細な機能構成、及び各ステップにおける処理の内容について詳細に説明する。
[2−2:メタデータ提供者端末10の構成]
まず、図10を参照しながら、メタデータ提供者端末10の機能構成について説明する。図10は、メタデータ提供者端末10の機能構成について説明するための説明図である。
まず、図10を参照しながら、メタデータ提供者端末10の機能構成について説明する。図10は、メタデータ提供者端末10の機能構成について説明するための説明図である。
図10に示すように、メタデータ提供者端末10は、主に、記憶部101と、デコーダ102と、領域抽出部103と、領域加工部104と、物体認識部105と、メタデータ提供部106と、再生制御部107と、表示部108と、入力部109と、移動距離算出部110と、類似スコア算出部111と、により構成される。
なお、領域抽出部103、領域加工部104、及び物体認識部105は、動画解析ブロックを構成する。図9に示したステップS10の前処理を省略する場合、動画解析ブロックを省略してもよい。また、動画解析ブロックをメタデータ管理システム20又は他の動画解析用デバイスに設け、メタデータ提供者端末10の動画解析ブロックを省略してもよい。但し、以下では、メタデータ提供者端末10に動画解析ブロックが設けられているものとして説明を進める。
記憶部101には、動画が格納されている。記憶部101に格納されている動画は、デコーダ102によりデコードされ、領域抽出部103、再生制御部107、及び類似スコア算出部111に入力される。領域抽出部103は、物体検出・物体トラッキング技術などを利用し、入力された動画の各動画フレームに出現する対象物の位置及び範囲(以下、対象領域)を抽出する。領域抽出部103により抽出された対象領域の情報は、領域加工部104に入力される。
領域加工部104は、入力された対象領域の情報に基づいて対象領域を加工する。例えば、領域加工部104は、出現時間の短い対象領域やサイズの小さい対象領域を削除したり、同じ動画フレームに出現する同種の対象領域を結合したりする。領域加工部104により加工された対象領域の情報は、物体認識部105に入力される。物体認識部105は、入力された各対象領域に含まれる対象物の特徴量に基づいて対象物をクラスタリングし、各クラスタを代表する対象物の特徴量を決定する。そして、物体認識部105は、対象物の特徴量と対象物の識別情報とを対応付けたデータベースを参照し、各クラスタを代表する対象物の特徴量に基づいて各クラスタに対象物の識別情報を対応付ける。
この段階で、各動画フレームに出現する各対象領域の情報と、各対象領域に対応する対象物の識別情報とが得られる。つまり、識別情報により分類される対象物の種類毎に、対象物が出現する区間(区間メタデータ)と、各動画フレームにおける対象物の位置及び範囲(領域メタデータ)とが得られる。但し、動画解析ブロックで得られた区間メタデータ及び領域メタデータは、物体検出・物体トラッキング及び物体認識の際に生じる誤検出、検出漏れ、或いは、誤認識などの影響を含んでいる。そのため、手入力により動画解析ブロックで得られた区間メタデータ及び領域メタデータを修正する必要がある。
動画解析ブロックで得られた区間メタデータ及び領域メタデータは、メタデータ提供部106、再生制御部107、及び移動距離算出部110に入力される。
メタデータ提供部106は、入力部109を介してユーザにより入力された対象領域の情報に基づき、動画解析ブロックで得られた区間メタデータ及び領域メタデータを修正する。但し、動画解析ブロックが省略された場合、メタデータ提供部106は、入力部109を介してユーザにより入力された対象領域の情報に基づいて区間メタデータ及び領域メタデータを生成する。そして、メタデータ提供部106は、領域メタデータ及び区間メタデータをメタデータ管理システム20に提供する。なお、ユーザによりオブジェクトメタデータが入力された場合、メタデータ提供部106は、入力されたオブジェクトメタデータをメタデータ管理システム20に提供する。
再生制御部107は、動画を再生して表示部108に表示させる。但し、再生制御部107は、ユーザの入力操作を補助するため、動画の再生速度を調整したり、一部の動画フレームの再生をスキップしたりする。また、再生制御部107は、ユーザにより指定された対象領域の情報を表示したり、対象領域にオブジェクトメタデータを付与するためのメニューを表示したりする。なお、再生制御部107の詳細な機能については後述する。
表示部108は、LCD(Liquid Crystal Display)やELD(Electro−Luminescence Display)などの表示デバイスである。また、入力部109は、タッチパネル、タッチパッド、マウス、リモートコントローラ、ゲーム用コントローラ、視線入力装置、ジェスチャー入力装置、音声入力装置などの入力デバイスである。なお、ジェスチャー入力装置は、カメラやセンサなどを利用してユーザの動きを検出し、その検出結果からユーザの動きを識別するデバイスである。以下では、入力デバイスとしてタッチパネルを利用するケースを想定して説明を進める。
移動距離算出部110は、隣接する動画フレーム間における対象領域の移動距離を算出する。例えば、移動距離算出部110は、動画解析ブロックで得られた領域メタデータを利用し、同じ対象物の対象領域が隣接する動画フレーム間で移動した距離を算出する。この距離は、スキップすべき動画フレームの判定に利用される。また、移動距離算出部110は、入力部109を介してユーザが入力した対象領域の移動距離を算出する。この移動距離は、再生速度の調整に利用される。移動距離算出部110により算出された距離の情報は、再生制御部107及びメタデータ提供部106に入力される。
類似スコア算出部111は、隣接する動画フレームについて動画フレーム間の類似スコアを算出する。例えば、類似スコア算出部111は、特開2007−206920号公報に記載の方法を利用して動画フレーム間の類似スコアを算出する。この類似スコアは、スキップすべき動画フレームの判定に利用される。類似スコア算出部111により算出された類似スコアは、再生制御部107及びメタデータ提供部106に入力される。
以上、メタデータ提供者端末10の主な機能構成について説明した。
[2−3:メタデータ提供者端末10の動作]
次に、図11〜図35を参照しながら、メタデータ提供者端末10の動作について説明する。また、メタデータ提供者端末10の詳細な機能構成について説明を補足する。図11〜図35は、メタデータ提供者端末10の動作について説明するための説明図である。
次に、図11〜図35を参照しながら、メタデータ提供者端末10の動作について説明する。また、メタデータ提供者端末10の詳細な機能構成について説明を補足する。図11〜図35は、メタデータ提供者端末10の動作について説明するための説明図である。
(2−3−1:前処理について)
まず、図11を参照しながら、前処理(図9のステップS10)に関するメタデータ提供者端末10の動作について説明する。図11は、前処理に関するメタデータ提供者端末10の動作について説明するための説明図である。
まず、図11を参照しながら、前処理(図9のステップS10)に関するメタデータ提供者端末10の動作について説明する。図11は、前処理に関するメタデータ提供者端末10の動作について説明するための説明図である。
図11に示すように、メタデータ提供者端末10は、デコーダ102の機能により、記憶部101から読み出した動画をデコードする(S101)。次いで、メタデータ提供者端末10は、領域抽出部103の機能により、対象領域の検出及びトラッキングを実行する(S102)。なお、対象領域の検出及びトラッキングは、例えば、特開2005−44330号公報に記載の技術などを利用することで実現可能である。
対象物が人物の顔である場合、領域抽出部103は、図12に示すような方法で対象領域(この場合は顔領域)を検出する。まず、領域抽出部103は、1枚の動画フレームについて顔検出器(図12の例では矩形のウィンドウ)を移動させながら画像全体を走査して顔領域を検出する。次いで、領域抽出部103は、次の動画フレームについて顔検出器を移動させながら顔領域の検出を試みる。このとき、領域抽出部103は、前の動画フレームで検出された顔領域の周辺を走査して顔領域を検出する。次いで、領域抽出部103は、次の動画フレームについて顔検出器を移動させながら、前の動画フレームで検出された顔領域の周辺を走査して顔領域を検出する。
図12の例は顔領域の検出及びトラッキングに関する処理の内容を示していたが、図13に示すように人物全体、車、文字などについても同様にして領域の検出及びトラッキングが可能である。図13の例は、人物領域、車領域、文字領域の検出及びトラッキングに関する処理の内容を示している。なお、対象領域の形状は、図12に示すように、矩形であってもよいし、円形やその他の形状であってもよい。対象領域の形状が矩形の場合、対象領域の位置及び範囲は、例えば、左上隅の座標(x,y)、高さh、及び幅wで表現される。一方、対象領域の形状が円形の場合、対象領域の位置及び範囲は、例えば、中心の座標(x,y)、及び半径rで表現される。
再び図11を参照する。上記のようにして対象領域を検出したメタデータ提供者端末10は、領域加工部104の機能により、各対象領域のRPS(Region Priority Score)を算出する(S103)。このRPSは、下記の式(1)により定義される。但し、Typeは、対象領域に含まれる対象物の種類(例えば、顔、人物、文字、物体など)に応じたスコアを表す。また、Sqrは、対象領域が1枚の動画フレーム全体に占める面積に応じたスコアを表す。さらに、ΔTは、対象領域が出現する時間の長さを表す。また、α、β、γは、正規化係数を表す。
例えば、図14に示すように、5枚の動画フレームを対象に対象領域を検出した結果、人物領域、車領域、動物領域が検出されたものとしよう。なお、図14の例では、1〜5枚目の動画フレームに人物領域が存在し、2〜3枚目の動画フレームに車領域が存在し、1〜3枚目の動画フレームに動物領域が存在している。また、人物領域にはType=5.0のスコアが割り当てられ、車領域にはType=1.0のスコアが割り当てられ、動物領域にはType=3.0のスコアが割り当てられているものとする。
また、対象領域の検出結果から、人物領域の面積に応じたスコアSqrが2.0、車領域の面積に応じたスコアSqrが8.0、動物領域の面積に応じたスコアSqrが3.0であったとする。さらに、人物領域の出現時間はΔT=5.0、車領域の出現時間はΔT=2.0、動物領域の出現時間ΔT=3.0であったとする。この場合、人物領域のRPSは、α=β=γ=1とすると、RPS(人物)=5.0+2.0+5.0=12.0となる。同様に、車領域のRPSは、RPS(車)=1.0+8.0+2.0=11.0となる。そして、動物領域のRPSは、RPS(動物)=3.0+1.0+3.0=7.0となる。
再び図11を参照する。上記のようにして対象物の種類毎に対象領域のRPSを算出したメタデータ提供者端末10は、領域加工部104の機能により、各RPSが所定の閾値以上であるか否かを判定する(S104)。そして、メタデータ提供者端末10は、領域加工部104の機能により、RPSが所定の閾値未満となった対象領域を削除する。つまり、メタデータ提供者端末10は、領域抽出部103による対象領域の検出結果から、RPSが所定の閾値未満となった対象領域を除外する。例えば、所定の閾値が8.0の場合、図14のケースでは、対象領域の検出結果から動物領域が除外される。
なお、RPSの算出は、動画全体を対象に行われてもよいが、図15に示すように、所定数の動画フレームで構成されるRPS算出ウィンドウを移動させながら、RPS算出ウィンドウに含まれる動画フレーム群を対象に行われてもよい。RPS算出ウィンドウを単位としてRPSを算出した場合、メタデータ提供者端末10は、各RPS算出ウィンドウに含まれる動画フレーム内で検出された対象領域から、各RPS算出ウィンドウについて算出されたRPSが所定の閾値未満の対象領域を除外する。
再び図11を参照する。上記のようにしてRPSが所定の閾値未満となった対象領域を除外した後、メタデータ提供者端末10は、領域加工部104の機能により、残った対象領域の幅及び高さ(対象領域が円形の場合は半径)を算出する(S105)。次いで、メタデータ提供者端末10は、領域加工部104の機能により、幅又は高さが所定の閾値未満である対象領域を削除する(S106)。つまり、メタデータ提供者端末10は、領域加工部104の機能により、RPSが所定の閾値以上であった対象領域の中から、幅又は高さが所定の閾値未満である対象領域を除外する。
次いで、メタデータ提供者端末10は、領域加工部104の機能により、同じ動画フレーム内で近隣に位置する同種の対象領域を結合する(S107)。図16に示すように、領域加工部104は、サイズの小さい複数の対象領域が近隣に位置している場合に、それら複数の対象領域を結合してサイズの大きな対象領域を生成する。なお、図11の例では、ステップS106において対象領域の幅及び高さの閾値判定を行っているが、ステップS105及びS106の処理をステップS107の後で実行するように変形してもよい。このように変形すると、1つ1つの対象領域が小さくとも、結合により大きなサイズとなる対象領域を除外せずに残すことが可能になる。
対象領域を結合したメタデータ提供者端末10は、物体認識部105の機能により、対象領域をクラスタリングする(S108)。例えば、図17に示すように、顔検出・顔トラッキングの結果(Result of the Face Tracking)として、動画(Video Content)から5つの顔トラッキング区間(検出結果1〜5)が検出されているものとする。この場合、物体認識部105は、各検出結果に含まれる顔の特徴量に基づいて、同一人物に関する複数の顔トラッキング区間を統合する。図17の例において、検出結果1と検出結果3との間で顔の特徴量が近いものとする。この場合、物体認識部105は、検出結果3に対応する顔領域を検出結果1に対応する顔領域と同じクラスタに帰属させ、対応する2つの顔トラッキング区間を統合する。
また、図17の例において、検出結果1と検出結果5との間で顔の特徴量が近いものとする。この場合、物体認識部105は、検出結果5に対応する顔領域を検出結果1に対応する顔領域と同じクラスタに帰属させ、対応する2つの顔トラッキング区間を統合する。一方、検出結果1、2、4の間で互いに顔の特徴量が離れているものとする。この場合、検出結果1、2、4の間で顔トラッキング区間の統合は行われない。結果として、検出結果1、3、5に対応する顔領域が属するクラスタ1と、検出結果2に対応する顔領域が属するクラスタ2と、検出結果4に対応する顔領域が属するクラスタ4とが得られる。
再び図11を参照する。なお、顔以外についても同様にクラスタリングが行われる。クラスタリングを行った後、メタデータ提供者端末10は、物体認識部105の機能により、各クラスタに識別情報を対応付ける(S109)。例えば、図17に示すように、物体認識部105は、顔の特徴量と、人物を特定するための識別情報(人物ID)とを対応付ける顔データベースを参照し、各クラスタを代表する顔の特徴量に基づいて各クラスタに対応する人物IDを特定する。そして、物体認識部105は、特定した人物IDとクラスタとを対応付ける。なお、顔データベースは、メタデータ提供者端末10が保持していてもよいし、メタデータ管理システム20又は外部の機器が保持していてもよい。
なお、ステップS108におけるクラスタリングは、例えば、特開2010−3021号公報に記載の技術などを利用することで実現可能である。また、ステップS109における特徴量に基づく対象物の識別は、例えば、特開2007−65766号公報に記載の技術などを利用することで実現可能である。
以上、前処理に係るメタデータ提供者端末10の動作について説明した。以上説明した処理により、ある対象物が出現する区間の情報、その対象物が各動画フレームにおいて出現する領域、その対象物を特定するための識別情報が得られる。つまり、領域メタデータ及び区間メタデータが得られる。但し、この領域メタデータ及び区間メタデータは、物体検出・物体トラッキング技術及び物体識別技術に基づいて自動検出されたものであり、誤検出、検出漏れ、誤識別などの影響を含んでいると考えられる。そのため、手入力によるメタデータのラベリングは不可欠である。
(2−3−2:ラベリング処理について)
以下では、図18を参照しながら、ユーザによるラベリング作業に関係するメタデータ提供者端末10の動作(図9のステップS20)について説明する。図18は、ユーザによるラベリング作業に関係するメタデータ提供者端末10の動作について説明するための説明図である。
以下では、図18を参照しながら、ユーザによるラベリング作業に関係するメタデータ提供者端末10の動作(図9のステップS20)について説明する。図18は、ユーザによるラベリング作業に関係するメタデータ提供者端末10の動作について説明するための説明図である。
図18に示すように、メタデータ提供者端末10は、ラベリングの対象となる動画フレーム(以下、対象フレーム)を用意する(S201)。次いで、メタデータ提供者端末10は、対象フレームに対する解析結果(動画解析ブロックにより生成された領域メタデータなど)が存在するか否かを判定する(S202)。解析結果が存在する場合、メタデータ提供者端末10は、処理をステップS203に進める。一方、解析結果が存在しない場合、メタデータ提供者端末10は、処理をステップS205に進める。
処理をステップS203に進めた場合、メタデータ提供者端末10は、移動距離算出部110の機能により、対象フレームと、対象フレームに隣接する動画フレームとの間における対象領域の移動距離を算出する(S203)。なお、対象フレームに複数の対象領域が含まれる場合、移動距離算出部110は、複数の対象領域について算出された移動距離の代表値(例えば、平均値や中央値など)を算出する。次いで、メタデータ提供者端末10は、再生制御部107の機能により、移動距離が所定の閾値以上であるか否かを判定する(S204)。
移動距離が所定の閾値以上である場合、メタデータ提供者端末10は、処理をステップS207に進める。一方、移動距離が所定の閾値未満である場合、メタデータ提供者端末10は、現在の対象フレームの次に位置する動画フレームを新たな対象フレームに設定し、処理をステップS203に進める。つまり、メタデータ提供者端末10は、図20に示すように、対象領域の移動距離が短く、対象領域の位置がほとんど変化しない場合、その対象フレームに対するユーザの入力機会をスキップする。なお、対象フレームに対するユーザの入力機会をスキップした場合、メタデータ提供者端末10は、メタデータ提供部106の機能により、対象フレームの前に位置する動画フレームに設定されているメタデータを対象フレームに設定する。
再び図18を参照する。ステップS202において処理をステップS205に進めた場合、メタデータ提供者端末10は、類似スコア算出部111の機能により、対象フレームと、対象フレームに隣接する動画フレームとの間の類似スコアを算出する(S205)。類似スコアとは、動画フレーム間の類似度を表すスコアである。類似スコアの算出は、例えば、特開2007−206920号公報に記載の技術を利用することで実現可能である。次いで、メタデータ提供者端末10は、再生制御部107の機能により、類似スコアが所定の閾値以上であるか否かを判定する(S205)。
類似スコアが所定の閾値以上である場合、メタデータ提供者端末10は、処理をステップS207に進める。一方、類似スコアが所定の閾値未満である場合、メタデータ提供者端末10は、現在の対象フレームの次に位置する動画フレームを新たな対象フレームに設定し、処理をステップS205に進める。つまり、メタデータ提供者端末10は、図19に示すように、対象フレームと、対象フレームに隣接する動画フレームとの間で画像にほとんど変化がない場合、その対象フレームに対するユーザの入力機会をスキップする。なお、対象フレームに対するユーザの入力機会をスキップした場合、メタデータ提供者端末10は、メタデータ提供部106の機能により、対象フレームの前に位置する動画フレームに設定されているメタデータを対象フレームに設定する。
再び図18を参照する。処理をステップS207に進めた場合、メタデータ提供者端末10は、再生制御部107の機能により表示部108に対象フレームを表示し、入力部109の機能によりユーザによる入力を受け付ける(S207)。例えば、入力部109がタッチパネルの場合、ユーザは、図21に示すように、表示部108に表示された対象フレームを参照しながら対象領域を選択する。このとき、再生制御部107は、ユーザが選択した領域(選択領域)に所定の形状を有するオブジェクト(図21ではハッチングで表現)を表示する。なお、再生制御部107は、押圧力や近接距離に応じてオブジェクトのサイズを調整したり(図24)、ピンチイン/ピンチアウト操作(図25)やジェスチャー操作(図26)に応じてオブジェクトのサイズを調整したりしてもよい。
次いで、メタデータ提供者端末10は、移動距離算出部110の機能により、対象フレームと、対象フレームに隣接する動画フレームとの間でユーザにより選択された対象領域間の距離を算出する(S208)。ラベリング作業の際、再生制御部107は、通常の再生速度よりも遅い速度で動画を再生する。しかし、対象物の動きが速いシーンや、対象領域の選択が難しいシーンなどでは、ユーザの操作がシーンの切り替わりに追従できず、対象領域の選択に誤りが生じてしまう可能性がある。そこで、メタデータ提供者端末10は、図23に示すように、ユーザにより選択された対象領域の移動距離を算出し、その移動距離によりユーザ操作の遅れを検出する。
移動距離を算出したメタデータ提供者端末10は、再生制御部107の機能により、移動距離が所定の閾値以上となる区間が所定の長さ以上続いているか否かを判定する(S209)。つまり、メタデータ提供者端末10は、移動距離が所定の閾値以上となる区間が所定の長さ以上続いている場合に、ユーザ操作の遅れが生じているものとみなす。ユーザ操作の遅れを検出した場合、メタデータ提供者端末10は、処理をステップS210に進める。一方、ユーザ操作の遅れが検出されなかった場合、メタデータ提供者端末10は、処理をステップS211に進める。
処理をステップS210に進めた場合、メタデータ提供者端末10は、再生制御部107の機能により、動画の再生速度を遅くし(S210)、処理をステップS201に進める。この場合、メタデータ提供者端末10は、対象フレームについてユーザが選択した対象領域の情報をメタデータとして使用しないようにする。一方、処理をステップS211に進めた場合、メタデータ提供者端末10は、メタデータ提供部106の機能により、ユーザにより選択された対象領域の情報を保持する(S211)。次いで、メタデータ提供者端末10は、全ての動画フレームについて処理が終了したか否かを判定する(S212)。全ての動画フレームについて処理が終了した場合、メタデータ提供者端末10は、一連の処理を終了する。一方、処理が終了していない動画フレームが残っている場合、メタデータ提供者端末10は、処理をステップS201に進める。
以上、ラベリング作業に関するメタデータ提供者端末10の動作について説明した。
(ユーザインターフェースについて)
ここで、ラベリング作業に用いるユーザインターフェースについて説明を補足する。
ここで、ラベリング作業に用いるユーザインターフェースについて説明を補足する。
メタデータのラベリング作業は、主に対象領域の選択作業である。つまり、ユーザは、図21に示すように、画面に表示された画像の中から対象物を検出し、その対象物を含む領域を選択することでメタデータのラベリングを行う。入力デバイスとしてタッチパネルを利用している場合、ユーザは、対象物が表示された位置をタッチするだけで対象領域の選択を行うことができる。また、動画は連続的に再生されるため、ユーザは、画面に表示された映像に出現する対象物を指で追うだけで対象領域の選択を行うことができる。
例えば、図22に示すように、2〜6枚目の動画フレームに人物Aの顔が出現する場合、ユーザは、2番目の動画フレームの中で人物Aの顔が出現した位置をタッチし、6番目の動画フレームの再生が終了するまで人物Aの顔を指で追えばよい。この作業により、2〜6枚目の各動画フレームにおいて人物Aの顔が出現する領域を示す領域メタデータが生成される。さらに、2〜6枚目の動画フレームに対応する区間に人物Aの顔が出現することを示す区間メタデータが生成される。このように、ユーザは、再生中の動画を参照しつつ、画面に出現した対象物を追うように選択することで簡単に領域メタデータ及び区間メタデータを生成することができる。
また、図24に示すように、押圧力の強さやタッチパネルと指との間の距離に応じて領域のサイズが変更されるようにしてもよい。さらに、図25に示すように、ピンチアウト操作により選択された領域のサイズが変更されるようにしてもよい。また、図26に示すように、ジェスチャーにより選択された領域のサイズが変更されるようにしてもよい。例えば、右回りに円を描くようなジェスチャーを行った場合に選択された領域のサイズが大きくなり、左回りに円を描くようなジェスチャーを行った場合に選択された領域のサイズが小さくなるようにしてもよい。
また、図27に示すように、スクロールバーなどを利用してユーザが動画の再生シーンを自由に選択できるようにしてもよい。さらに、図27に示すように、動画解析ブロックにより自動生成された領域メタデータに基づいて各シーンの画像に対象領域(この例では顔領域)が枠で表示されるようにしてもよい。動画解析ブロックによる解析結果をユーザが修正する場合、修正が必要な箇所を素早く見つけて修正作業(例えば、図30を参照)を行えるようにすることが望まれる。図27に示すように、スクロールバーを利用して再生シーンを自由に選択できるようにし、各再生シーンに解析結果に基づく枠が表示されるようにすると、ユーザは、対象領域を修正すべき再生シーンを素早く見つけることができるようになる。
図27にはスクロールバーを利用して再生シーンを遷移させるユーザインターフェースを例示したが、図28に示すように、フリック操作を利用して再生シーンを遷移させるユーザインターフェースも便利である。このユーザインターフェースでは、例えば、画面の左方向に指をスライドさせると次のページへと再生シーンが遷移し、画面に右方向に指をスライドさせると前のページへと再生シーンが遷移する。なお、1回のフリック操作により動画フレーム1枚分だけ再生シーンが遷移するようにしてもよいが、1回のフリック操作で、動画フレーム間の類似スコアが所定の閾値以上となる動画フレームまで再生シーンが遷移するようにしてもよい。
また、図29に示すように、対象領域を示す枠の中に対象領域の情報が表示されるようにしてもよい。図29は顔領域の情報を表示した例であるが、この場合、顔領域のサイズ、顔ID(又は人物ID)、プロパティ情報(顔の方向、顔のオクルージョン、人物の名前など)などが枠内に表示される。プロパティ情報の設定は、例えば、図31及び図32に示すようなメニュー項目の選択操作や文字の入力操作により行われる。なお、顔の方向としては、例えば、「正面」、「横向き」、「後ろ向き」などがある。また、オクルージョンのレベルとしては、例えば、「完全に見えている」、「やや隠れている」、「目・鼻・口のいずれかが見える」、「完全に隠れている」などがある。
また、図33に示すように、同じ対象物に関して過去に設定された対象領域の画像を並べて表示するようにしてもよい。例えば、ある再生シーンにおいて顔領域を2本指で選択した場合に、その顔領域に含まれる顔と同じ顔に関して過去に設定された顔領域の画像が並べて表示されるようにする。過去に設定された顔領域の画像が並べて表示されることにより、過去に設定した顔領域と現在の再生シーンに登場する人物の顔とが確かに一致しているかを確認することが可能になる。その結果、ユーザの誤入力を抑制できるようになる。また、ユーザは、誤入力を素早く発見することが可能になる。
なお、並べて表示された顔領域の画像を選択することで、その顔領域が設定されている再生シーンに遷移できるようにしてもよい。このようにすると、誤入力が発見された際に、該当する再生シーンに素早く遷移することが可能になり、より効率的に顔領域の修正を行うことが可能になる。また、並べて表示された顔領域の画像を2本指(或いは、メニュー選択やダブルタップなど)で選択することで、プロパティ情報を修正するためのメニュー項目が表示されるようにしてもよい。このようにすると、再生シーンを遷移させることなしにプロパティ情報の修正を行うことが可能になり、より効率的にプロパティ情報の修正が可能になる。
ところで、動画解析ブロックによる自動処理によると、同じ対象物であるにもかかわらず、異なる対象物として認識されていることがある。例えば、動画中の離れた区間で同じ人物が出現した場合、それぞれの区間で検出された人物が別々の人物と認識されてしまうことがある。この場合、両区間に登場する人物の情報を結合させる必要がある。このような結合操作は、図34に示すようなユーザインターフェースを利用して行われる。図34に示すように、ある再生シーンに登場する人物の顔領域を指で選択(例えば、メニュー選択や3本指選択など)すると、結合候補が表示される。さらに、結合候補の中から1人の人物を選択すると、現在の再生フレームに登場する顔領域に関する情報と、選択された人物に関する情報とが結合される。
ところで、ラベリング作業の際、ユーザに対して何らフィードバックが与えられないと、メタデータが付与されたことを実感しにくい。また、図35に示すように、ユーザに対して特徴的なフィードバックを与えることで、例えば、既に付与されているメタデータの情報を直感的に伝達することが可能になる。図35の例では、対象物が人物の場合、車の場合、動物の場合で異なる振動パターンが異なる構成が示されている。例えば、メタデータが既に付与されている顔領域にタッチすると、人物に対応する振動パターンで振動が発生し、ユーザは、人物のメタデータが付与されていることを認識することができる。
このようなフィードバックの発生は、ラベリング作業に対するユーザのモチベーションを高めることにも寄与する。例えば、ユーザは、メタデータが付与されていない領域から振動フィードバックが得られないため、メタデータを付与しようと考えるだろう。また、再生シーンにおける人物の感情に応じた振動パターンで振動フィードバックが返ってくるようにすると、ラベリング作業にゲーム性が生まれ、ユーザは、振動フィードバックの発生を期待して積極的にメタデータを付与するようになるであろう。例えば、人物が怒りの感情を持つ場合には振幅を大きく、人物が冷静な状態のときには振幅を小さく、人物がリラックスした状態のときには滑らかに振動させるなどの振動パターンが考えられる。
以上、ラベリング作業に用いるユーザインターフェースについて説明を補足した。
[2−4:メタデータ管理システム20の構成]
次に、図36及び図37を参照しながら、メタデータ管理システム20の構成について説明する。図36及び図37を参照しながら、メタデータ管理システム20の構成について説明するための説明図である。
次に、図36及び図37を参照しながら、メタデータ管理システム20の構成について説明する。図36及び図37を参照しながら、メタデータ管理システム20の構成について説明するための説明図である。
(概要)
まず、図36を参照しながら、メタデータ管理システム20が有する機能の概要について説明する。図36に示すように、メタデータ管理システム20は、複数のメタデータ提供者端末10により提供された動画タイムラインメタデータを統合する機能を有する。統合された動画タイムラインメタデータは、メタデータ利用者端末30に提供される。また、メタデータ管理システム20は、動画から対象物を検出する検出器や対象物の識別を行う識別器の生成に用いる学習用データベースを構築する機能を有する。このように、メタデータ管理システム20は、主に、動画タイムラインメタデータの統合及び学習用データベースの構築を行う。なお、メタデータ管理システム20は、図10に示した動画解析ブロックの機能を有していてもよい。
まず、図36を参照しながら、メタデータ管理システム20が有する機能の概要について説明する。図36に示すように、メタデータ管理システム20は、複数のメタデータ提供者端末10により提供された動画タイムラインメタデータを統合する機能を有する。統合された動画タイムラインメタデータは、メタデータ利用者端末30に提供される。また、メタデータ管理システム20は、動画から対象物を検出する検出器や対象物の識別を行う識別器の生成に用いる学習用データベースを構築する機能を有する。このように、メタデータ管理システム20は、主に、動画タイムラインメタデータの統合及び学習用データベースの構築を行う。なお、メタデータ管理システム20は、図10に示した動画解析ブロックの機能を有していてもよい。
(機能構成)
次に、図37を参照する。図37に示すように、メタデータ管理システム20は、主に、メタデータ取得部201と、スキル・傾向分析部202と、領域メタデータ統合部203と、区間メタデータ統合部204と、オブジェクトメタデータ統合部205と、メタデータ提供部206と、記憶部207と、学習部208とにより構成される。
次に、図37を参照する。図37に示すように、メタデータ管理システム20は、主に、メタデータ取得部201と、スキル・傾向分析部202と、領域メタデータ統合部203と、区間メタデータ統合部204と、オブジェクトメタデータ統合部205と、メタデータ提供部206と、記憶部207と、学習部208とにより構成される。
まず、メタデータ取得部201は、メタデータ提供者端末10から動画タイムラインメタデータを取得する。メタデータ取得部201により取得された動画タイムラインメタデータは、スキル・傾向分析部202に入力される。スキル・傾向分析部202は、入力された動画タイムラインメタデータに基づいて、その動画タイムラインメタデータを付与したユーザのラベリングスキルやラベリング操作の傾向を分析する。スキル・傾向分析部202による分析結果は、領域メタデータ統合部203、区間メタデータ統合部204、及びオブジェクトメタデータ統合部205に入力される。
領域メタデータ統合部203は、複数の領域メタデータを統合する。例えば、対象領域が矩形の場合、領域メタデータ統合部203は、同じ動画フレームに設定された同じ対象物に関する複数の対象領域について、各頂点座標の平均値を算出し、その平均値を頂点とする矩形の領域を統合後の対象領域に設定する。また、対象領域が円形の場合、領域メタデータ統合部203は、同じ動画フレームに設定された同じ対象物に関する複数の対象領域について、中心座標及び半径の平均値を算出し、中心座標の平均値を新たな中心座標とし、半径の平均値を新たな半径とする円形の領域を統合後の対象領域に設定する。統合後の領域メタデータは、メタデータ提供部206に入力される。
区間メタデータ統合部204は、複数の区間メタデータを統合する。例えば、区間メタデータ統合部204は、同じ動画及び同じ対象物に関する複数の区間メタデータを参照し、所定数以上の区間メタデータで対象物の出現区間とされた区間を対象物の出現区間に設定し、それ以外の区間を対象物の非出現区間に設定して統合後の区間メタデータを生成する。なお、区間メタデータ統合部204は、ユーザのスキルを考慮したスコアを用いて統合後の区間メタデータを生成してもよい。統合後の区間メタデータは、メタデータ提供部206に入力される。
オブジェクトメタデータ統合部205は、複数のオブジェクトメタデータを統合する。オブジェクトメタデータには、例えば、対象物の名前、属性、説明などを表すテキストが含まれる。しかし、これらのテキストには表記ゆらぎが含まれている。そのため、オブジェクトメタデータ統合部205は、各オブジェクトメタデータに含まれる表記ゆらぎを吸収すべくテキストを修正する。つまり、オブジェクトメタデータ統合部205は、類似テキストを判定し、所定の表記に修正する。例えば、オブジェクトメタデータ統合部205は、同じ人物名を表す「キャメロン・ディアス」「キャメロンディアス」「キャメロン」「キャメロン・ミシェル・ディアス」という表記を全て「キャメロン・ディアス」に置き換える。統合後のオブジェクトメタデータは、メタデータ提供部206に入力される。
なお、オブジェクトメタデータの表記ゆらぎは、ユーザがオブジェクトメタデータを入力する段階で、ある程度抑制されることが望ましい。例えば、ユーザがテキストを入力せずに済むようにテキストの候補をユーザに選択させるようなユーザインターフェースにしたり、テキストの補完機能を活用したりする方法が考えられる。また、メタデータ提供者端末10においてオブジェクトメタデータ統合部205と同様に表記ゆらぎを吸収するようにしてもよい。
メタデータ提供部206は、統合後の領域メタデータ、区間メタデータ、オブジェクトメタデータをメタデータ利用者端末30に提供する。また、メタデータ提供部206は、統合後の領域メタデータ、区間メタデータ、オブジェクトメタデータを記憶部207に蓄積する。記憶部207に蓄積された領域メタデータ、区間メタデータ、オブジェクトメタデータは、対象物の検出器及び識別器を学習により生成する際に教師データとして利用される。教師データが集まると、学習部208は、集まった教師データを利用して学習により対象物の検出器及び識別器を生成する。このとき、学習部208は、例えば、特開2009−104275号公報に記載の技術などを利用する。学習部208により生成された検出器及び識別器は、動画解析ブロックにて利用される。
以上、メタデータ管理システム20の構成について説明した。
[2−5:メタデータ管理システム20の動作]
次に、図38〜図44を参照しながら、メタデータ管理システム20の動作について説明する。また、メタデータ管理システム20の詳細な機能構成について説明を補足する。図38〜図44は、メタデータ管理システム20の動作について説明するための説明図である。
次に、図38〜図44を参照しながら、メタデータ管理システム20の動作について説明する。また、メタデータ管理システム20の詳細な機能構成について説明を補足する。図38〜図44は、メタデータ管理システム20の動作について説明するための説明図である。
(2−5−1:統合処理について)
まず、図38を参照しながら、後処理(図9のステップS30)に関するメタデータ管理システム20の動作について説明する。図38は、後処理に関するメタデータ管理システム20の動作について説明するための説明図である。
まず、図38を参照しながら、後処理(図9のステップS30)に関するメタデータ管理システム20の動作について説明する。図38は、後処理に関するメタデータ管理システム20の動作について説明するための説明図である。
図38に示すように、メタデータ管理システム20は、メタデータ取得部201の機能により、メタデータ提供者端末10から動画タイムラインメタデータを取得する(S301)。次いで、メタデータ管理システム20は、高信頼メタデータがあるか否かを判定する(S302)。高信頼メタデータとは、高精度の動画解析エンジンを利用して検出された動画タイムラインメタデータや、スキルの高いユーザから取得した動画タイムラインメタデータなどである。高信頼メタデータがある場合、メタデータ管理システム20は、処理をステップS303に進める。一方、高信頼メタデータがない場合、メタデータ管理システム20は、処理をステップS305に進める。
処理をステップS303に進めた場合、メタデータ管理システム20は、スキル・傾向分析部202の機能により、下記の式(2)に基づいてユーザ毎及び動画タイムラインメタデータの種類毎にLSS(Labeling Skill Score)を算出する(S303)。但し、下記の式(2)に含まれるAccuracyは、取得した動画タイムラインメタデータの精度を示すパラメータである。例えば、Accuracyとしては、再現率(Recall)、適合率(Precision)、F値(F−Measure)、誤差率などの値が利用可能である。また、Varianceは、高信頼メタデータと、取得した動画タイムラインメタデータとの差分の分散値である。さらに、α、βは、正規化係数である。
上記の式(2)からも推察されるように、LSSは、取得した動画タイムラインメタデータの精度が高いほど大きな値となる。一方、LSSは、取得した動画タイムラインメタデータと高信頼性メタデータとの差分の分散が小さいほど大きな値となる。なお、高信頼メタデータと、取得した動画タイムラインメタデータとの差分の分散であるVarianceから、ユーザの傾向を分析することができる。例えば、Varianceが小さい場合、領域を大きめに設定する傾向や、インターバルを長めにとる傾向、或いは、領域の選択操作が遅れる傾向など、ユーザに固有に傾向が存在すると考えられる。
さて、LSSを計算したメタデータ管理システム20は、スキル・傾向分析部202の機能により、高信頼メタデータと、取得した動画タイムラインメタデータとの差分から、ユーザの傾向を算出する(S304)。次いで、メタデータ管理システム20は、取得した動画タイムラインメタデータの種類に応じて処理を切り替える(S305)。取得した動画タイムラインメタデータが領域メタデータの場合、メタデータ管理システム20は、処理をステップS306に進める。また、取得した動画タイムラインメタデータが区間メタデータの場合、メタデータ管理システム20は、処理をステップS307に進める。そして、取得した動画タイムラインメタデータがオブジェクトメタデータの場合、メタデータ管理システム20は、処理をステップS308に進める。
処理をステップS306に進めた場合、メタデータ管理システム20は、領域メタデータ統合部203の機能により、領域メタデータを統合する(S306)。例えば、図40に示すように、同じ動画フレームの同じ対象物に対してユーザA、ユーザB、ユーザCがラベリングした領域メタデータが得られているものとしよう。この場合、領域メタデータ統合部203は、ユーザAがラベリングした対象領域の各頂点座標、ユーザBがラベリングした対象領域の各頂点座標、ユーザCがラベリングした対象領域の各頂点座標を平均し、その平均値を各頂点座標とする領域を算出する。そして、領域メタデータ統合部203は、算出した領域を統合後の領域メタデータに設定する。
また、領域メタデータ統合部203は、図40に示すように、対象領域の各座標ヒートマップで表現し、このヒートマップを信頼性分布として利用してもよい。さらに、領域メタデータ統合部203は、LSSの高いユーザによりラベリングされた領域メタデータを重視するようにLSSに応じた重みを付けて領域メタデータを統合してもよい。また、領域メタデータ統合部203は、各ユーザの傾向を考慮して領域メタデータの統合処理を実行してもよい。例えば、領域メタデータ統合部203は、領域を小さめに設定する傾向がユーザAにある場合、ユーザAが設定した領域を少し大きめに修正した上で、他のユーザが設定した領域と統合するようにしてもよい。
再び図38を参照する。処理をステップS307に進めた場合、メタデータ管理システム20は、区間メタデータ統合部204の機能により、図41に示すように、区間メタデータを統合する(S307)。まず、区間メタデータ統合部204は、下記の式(3)に基づいてTMS(Timeline Meta Score)を算出する。但し、下記の式(3)に含まれるLは、ラベリングしたユーザの集合を表す。また、LSSnは、ユーザnのLSSを表す。そして、IsLabeledn,tは、ユーザnが時刻tの動画フレームにラベリングしたか否かを表す。また、Mは、ラベリングしたユーザの総数を表す。
TMSを算出した区間メタデータ統合部204は、TMSが所定の閾値Th以降となる区間を対象物の出現区間に設定し、統合後の区間メタデータを生成する。なお、区間メタデータ統合部204は、各ユーザの傾向を区間メタデータの統合処理に反映させてもよい。例えば、ユーザAは領域を選択するタイミングが遅れる傾向にあるとする。この場合、区間メタデータ統合部204は、タイミングが遅れる分の時間だけ対象物の出現開始及び出現終了タイミングを早めるようにユーザAの区間メタデータを修正した上でTMSを算出し、そのTMSに基づいて統合後の区間メタデータを生成する。
ステップS305において処理をステップS308に進めた場合、メタデータ管理システム20は、オブジェクトメタデータ統合部205の機能により、オブジェクトメタデータの統合処理を実行する(S308)。まず、オブジェクトメタデータ統合部205は、図39に示すように、同じ対象物にラベリングされたプロパティ情報などを統合する。次いで、オブジェクトメタデータ統合部205は、オブジェクトメタデータに含まれる対象物の名前、属性、説明などを表すテキストの表記ゆらぎを修正する。
ステップS306、S307、S308の処理を終了すると、メタデータ管理システム20は、メタデータ提供部206の機能により、統合後の領域メタデータ、区間メタデータ、オブジェクトメタデータをメタデータ利用者端末30に提供する(S309)。次いで、メタデータ管理システム20は、統合後の動画タイムラインメタデータを新たな検出器や識別器の生成(新規機能開発・精度向上)に利用するか否かを判定する(S310)。統合後の動画タイムラインメタデータを新規機能開発・精度向上に利用する場合、メタデータ管理システム20は、処理をステップS311に進める。一方、統合後の動画タイムラインメタデータを新規機能開発・精度向上に利用しない場合、メタデータ管理システム20は、一連の処理を終了する。
処理をステップS311に進めた場合、メタデータ管理システム20は、統合後の動画タイムラインメタデータを記憶部207(学習用データベース)に格納する(S311)。次いで、メタデータ管理システム20は、学習部208の機能により、学習用データベースに十分な量の動画タイムラインメタデータが蓄積されたか否かを判定する(S312)。学習用データベースに十分な量の動画タイムラインメタデータが蓄積された場合、メタデータ管理システム20は、処理をステップS313に進める。一方、学習用データベースに十分な量の動画タイムラインメタデータが蓄積されていない場合、メタデータ管理システム20は、一連の処理を終了する。
処理をステップS313に進めた場合、メタデータ管理システム20は、学習部208の機能により、記憶部207に蓄積された動画タイムラインメタデータを教師データとして利用し、学習により新たな検出器及び識別器を生成する(S313)。新たな検出器及び識別器を生成したメタデータ管理システム20は、一連の処理を終了する。
以上、後処理に関するメタデータ管理システム20の動作について説明した。
(2−5−2:その他の機能)
さて、メタデータ管理システム20は、動画タイムラインメタデータを統合する機能や新たな検出器及び識別器を学習により生成する機能の他、ラベリングを補助又は奨励するための機能を備えていてもよい。例えば、メタデータ管理システム20は、図42に示すように、ラベリングを行ったユーザにポイントやクーポンなどの報酬を提供する機能を有していてもよい。また、メタデータ管理システム20は、図43に示すように、ソーシャルネットワークサービス(以下、SNS)を通じて動画タイムラインメタデータを複数のユーザで共有できる環境を提供する機能を有していてもよい。さらに、メタデータ管理システム20は、図44に示すように、オブジェクトメタデータの入力を補助するための情報を提供する機能を有していてもよい。
さて、メタデータ管理システム20は、動画タイムラインメタデータを統合する機能や新たな検出器及び識別器を学習により生成する機能の他、ラベリングを補助又は奨励するための機能を備えていてもよい。例えば、メタデータ管理システム20は、図42に示すように、ラベリングを行ったユーザにポイントやクーポンなどの報酬を提供する機能を有していてもよい。また、メタデータ管理システム20は、図43に示すように、ソーシャルネットワークサービス(以下、SNS)を通じて動画タイムラインメタデータを複数のユーザで共有できる環境を提供する機能を有していてもよい。さらに、メタデータ管理システム20は、図44に示すように、オブジェクトメタデータの入力を補助するための情報を提供する機能を有していてもよい。
これらの機能は、ラベリング作業に対するユーザのモチベーションを直接的又は間接的に高めるための機能である。多くのユーザにとって、動画タイムラインメタデータのラベリング作業は単調で退屈な作業であると考えられる。また、一部のユーザにとってはラベリング作業が苦痛を伴う作業であるかもしれない。そのため、動画タイムラインメタデータのラベリング作業に対する動機付けを行うことは有意義であると考えられる。
例えば、図42に示すように、ラベリングを行ったユーザにポイントやクーポンが与えられる仕組みを設ければ、ラベリング作業に対するモチベーションが高まるものと考えられる。また、ポイントやクーポンの提供に代えて、ラベリングした動画(映画や放送番組など)を無料で視聴できるようにしてもよい。また、「動画から○○を探せ」のようなお題をユーザに与え、ラベリング作業にゲーム性を持たせるなどの工夫も考えられる。また、長時間のラベリング作業を行ったユーザに高い報酬を与えたり、注目度の高い人物にラベリングしたユーザに対して高い報酬を与えたりする仕組みも有効であろう。
また、図43に示すように、動画タイムラインメタデータをSNSで共有すると、動画タイムラインメタデータをアップロードしたユーザが他のユーザに感謝されたりする。そして、他のユーザに感謝されることが積極的にラベリング作業を行う動機付けになると考えられる。また、図44に示すように、動画中で選択した顔領域の特徴量に基づいてマッチング候補が提供されるようにすることで、ラベリング作業が簡略化される。また、人物を当てるゲームのような要素も含むため、ユーザのラベリング作業に対するモチベーションの向上に寄与すると考えられる。
以上、メタデータ管理システム20のオプション機能について説明した。なお、上記のオプション機能は、他のサービス提供システムにより提供されるようにしてもよい。
[2−6:メタデータ利用者端末30の構成及び動作]
次に、図45を参照しながら、メタデータ利用者端末30の構成について説明する。この中で、メタデータ利用者端末30の動作についても説明する。図45は、メタデータ利用者端末30の構成について説明するための説明図である。
次に、図45を参照しながら、メタデータ利用者端末30の構成について説明する。この中で、メタデータ利用者端末30の動作についても説明する。図45は、メタデータ利用者端末30の構成について説明するための説明図である。
図45に示すように、メタデータ利用者端末30は、主に、メタデータ取得部301と、登場区間提示部302と、登場区間再生部303と、記憶部304と、表示部305と、関連情報提示部306と、入力部307とにより構成される。
メタデータ取得部301は、メタデータ管理システム20から動画タイムラインメタデータ(図46を参照)を取得する。メタデータ取得部301により取得された動画タイムラインメタデータのうち、区間メタデータは、登場区間提示部302に入力される。一方、領域メタデータは、関連情報提示部306に入力される。登場区間提示部302は、区間メタデータを利用して各対象物が出現する区間を示す情報を表示部305に表示する。例えば、登場区間提示部302は、図47に示すように、全区間の中で各登場人物の登場区間を色分けして表示する。
また、登場区間提示部302は、図4及び図48に示すように、登場人物が出現する区間の時間情報と、その区間に出現する登場人物の情報とを対応付けて表示してもよい。さらに、登場区間提示部302は、図49に示すように、現在再生されている区間に登場する登場人物を表示してもよい。そして、登場区間提示部302は、現在再生されている区間に登場する登場人物のうち、ユーザにより選択された登場人物が登場する区間をタイムライン上に表示してもよい。また、登場区間提示部302は、図50に示すように、現在再生されている区間に登場する登場人物のうち、ユーザにより選択された登場人物が登場する区間の代表シーンを並べて表示してもよい。
再び図45を参照する。区間メタデータは、登場区間提示部302を介して登場区間再生部303にも入力される。登場区間再生部303は、記憶部304に格納された動画を再生して表示部305に表示する。また、ある対象物が出現する区間、又はある対象物が選択された場合、登場区間再生部303は、区間メタデータに基づいて、選択された区間又は選択された対象物が出現する区間を再生する。例えば、図47に示すように、ユーザにより「Cameron」の登場区間が選択された場合、登場区間再生部303は、選択された登場区間の映像を再生する。
また、図48に示すように、登場区間のリストから1つの登場区間が選択された場合、登場区間再生部303は、選択された登場区間の映像を再生する。また、図49に示すように、現在再生している区間に登場する登場人物が選択された場合、登場区間再生部303は、選択された登場人物が登場する区間の映像を再生する。また、図50に示すように、画面上で選択された登場人物の登場シーンが1つ選択された場合、登場区間再生部303は、選択された登場シーンの映像を再生する。このように、登場区間再生部303は、区間メタデータを利用し、ユーザにより選択された区間や対象物に対応する映像を選択的に再生する。
一方、関連情報提示部306は、領域メタデータを利用し、現在表示されている画像に含まれる各対象物の関連情報を表示部305に表示する。例えば、図1に示すように、現在表示されている画像に人物A及び人物Bが含まれる場合、関連情報提示部306は、人物A及び人物Bの関連情報を画面上に表示する。また、図2に示すように、現在表示されている画像に物品及び場所が含まれる場合、関連情報提示部306は、物品及び場所の関連情報を画面上に表示する。また、関連情報提示部306は、図3に示すように、現在表示されている画面に出現する対象物が選択された場合に、選択された対象物の関連情報を表示するように構成されていてもよい。
なお、関連情報としては、例えば、人物のプロフィールや写真の他、SNSサービスへのリンクや物品の販売サイトへのリンク、人物や物品の写真、人物が登場する他の動画作品などが含まれていてもよい。また、関連情報は、メタデータ管理システム20やメタデータ利用者端末30が保持していてもよいし、関連情報を提供するサービス提供システムに対して人物IDなどの識別情報を送信し、そのサービス提供システムから関連情報を取得するようにしてもよい。
また、図51及び図52に示すように、AR(Augmented Reality)技術を利用して関連情報を表示することも可能である。ARを利用する場合、ユーザは、図51に示すように、カメラ付き端末装置で動画の表示画面を撮影し、その表示画面をカメラ付き端末装置のディスプレイに表示させる。動画の表示画面が撮影範囲に入ると、カメラ付き端末装置は、表示画面に登場する対象物の関連情報を取得し、取得した関連情報をディスプレイに表示する。また、図52に示すように、カメラ付き端末装置を把持する角度を変え、撮影範囲から表示画面を外した場合に、カメラ付き端末装置のディスプレイに関連情報だけが表示されるようにしてもよい。なお、カメラ付き端末装置に加速度センサなどのセンサ類が搭載されていれば角度の変化を検出できるため、その検出結果に応じて関連情報の表示方法を切り替えることができる。
以上、メタデータ利用者端末30の構成及び動作について説明した。
[2−7:動画タイムラインメタデータのデータ構造]
次に、図53〜図59を参照しながら、動画タイムラインメタデータのデータ構造について説明する。図53〜図59を参照しながら、動画タイムラインメタデータのデータ構造について説明するための説明図である。なお、動画タイムラインメタデータの構成例(対象物が顔の場合)は、図46に示した通りである。図46の例では、領域メタデータは顔枠の位置及び範囲を含み、区間メタデータは顔の出現区間を含み、オブジェクトメタデータは人物ID、顔プロパティ及び顔のサムネイル画像を含む。
次に、図53〜図59を参照しながら、動画タイムラインメタデータのデータ構造について説明する。図53〜図59を参照しながら、動画タイムラインメタデータのデータ構造について説明するための説明図である。なお、動画タイムラインメタデータの構成例(対象物が顔の場合)は、図46に示した通りである。図46の例では、領域メタデータは顔枠の位置及び範囲を含み、区間メタデータは顔の出現区間を含み、オブジェクトメタデータは人物ID、顔プロパティ及び顔のサムネイル画像を含む。
ここでは、上記のような構成を持つ動画タイムラインメタデータの管理を容易にすることが可能な格納フォーマットについて説明する。この格納フォーマットにおいて、動画タイムラインメタデータは、図53に示すようなボックス連結構造で格納される。ボックスは、動画タイムラインメタデータの種類毎に分類されている。例えば、「Face Box」は、顔領域に関する動画タイムラインメタデータを表す。また、「Car Box」は、車領域に関する動画タイムラインメタデータを表す。このようなボックス連結構造にすると、新たなタイプのボックスを追加するのが容易になる。また、動画タイムラインメタデータの最後尾に容易にデータを追記できるようになる。
図54に示すように、各ボックスは、ヘッダと、データ領域とにより構成される。また、ヘッダの種類には、ボックス共通のヘッダ(Box Header)と、データ依存のヘッダ(Data Header)とがある。ボックス共通のヘッダには、ボックスのサイズ、ボックスのタイプ、ボックスのIDなどが格納される。一方、データ依存のヘッダには、データ要素数や時間情報などが格納される。また、データ領域は、1又は複数のデータ要素(Data Element)により構成される。
上記のように、動画タイムラインメタデータは、タイプ毎にボックスを設けて格納される。しかし、図55に示すように、1つのボックスを複数のボックスに分割(Fragmentation)することも可能である。図55の例では、「Face Box」などのボックスが2つに分割されている。ボックスを分割することで、1つのボックスに格納されるデータ量が少なくなる。そのため、書き出し時にメモリに一旦格納されるデータ量が削減でき、書き出し時のメモリ負荷を低減することが可能になる。
また、図56に示すように、分割されたボックスを連結することもできる。分割されたボックスの連結は、Box Class IDに基づいて連結する。このBox Class IDは、ボックスを識別するために予め規定されるIDである。例えば、動画解析エンジンAの解析結果を格納するFace BoxのBox Class IDが1、動画解析エンジンBの解析結果を格納するFace BoxのBox Class IDが10などと規定される。分割されたボックスを連結する場合、同じBox Class IDのボックスを検出して1つのボックスに連結する。
また、図57に示すように、データ要素の間には親子関係が規定される。親ノードと子ノードとの関係は、親ノードから子ノードへと伸びる矢印で表現される。また、1つの親ノードから複数の子ノードへと矢印を延ばすことができる。顔領域について考えると、人物IDや名前に対応するデータ要素「Person」が最上位の親ノードとなる。また、データ要素「Person」の下位には、人物が登場する区間の開始点や長さに対応するデータ要素「Interval」が位置する。
また、データ要素「Interval」の下位には、ベクター(顔枠の位置及び範囲、顔特徴量)に対応するデータ要素「Vector」が位置する。また、データ要素「Interval」の下位には、顔情報(顔位置、サイズ、パーツ位置、特徴量)に対応するデータ要素「Face」が位置する。また、データ要素「Interval」の下位には、画像(画像情報、画像データ)に対応するデータ要素「Image」が位置する。このような親子関係を規定しておくことにより、例えば、人物Aの出演する区間をすべてリスト形式で表示することが可能になる。
図57に示すような親子関係を実現するには、各データ要素が識別可能であることが必要になる。そのため、各データ要素にはElement IDが付与される。このElement IDは、1つの動画タイムラインメタデータの中で、Box Class IDが同じ全てのボックス内でユニークなIDである。例えば、図58に示すように、Box Class ID=1の2つのFace Box間でElement IDはユニークとなる。一方、Box Class ID=1のFace Boxと、Box Class ID=10のFace Boxとの間では、Element IDが重なっていてもよい。
上記の規定により、Box Class IDとElement IDとを組み合わせることで、親Boxのユニーク性が担保される。なお、親BoxのBox Class IDは、子BoxのBox Headerに格納される。また、親Boxのデータ要素が持つElement IDは、子Boxが持つデータ要素に格納される。図59を参照しながら、親BoxであるPerson Boxと、子BoxであるInterval Boxとの間の関係について考えてみたい。Person BoxのBox Class IDは、Interval BoxのBox Headerに格納される。また、Person Boxのデータ要素Person ElementのElement ID=1、2は、Interval Boxのデータ要素Interval Elementに格納される。つまり、親は複数の子を持てるが、子は複数の親を持つことができない。
以上、動画タイムラインメタデータのデータ構造について説明した。
<3:ハードウェア構成>
上記のメタデータ提供者端末10、メタデータ管理システム20、及びメタデータ利用者端末30が有する各構成要素の機能は、例えば、図60に示す情報処理装置のハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図60に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
上記のメタデータ提供者端末10、メタデータ管理システム20、及びメタデータ利用者端末30が有する各構成要素の機能は、例えば、図60に示す情報処理装置のハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図60に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図60に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
<4:まとめ>
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。
上記の情報処理装置の機能構成は以下のように表現することができる。例えば、下記(1)に記載の情報処理装置は、指定領域検出部の機能により、再生中の動画に対してユーザが指定した指定領域を検出することができる。そのため、ユーザは、動画フレームを1枚1枚切り替えながら対象物を含む領域を1つ1つ選択せずとも、流れる映像の中で対象物が出現している間、その対象物を指定し続けることで多数の動画フレームに対して容易に領域を指定することができる。
また、この情報処理装置は、指定領域の位置及び範囲を領域メタデータとして各動画フレームに設定すると共に、領域メタデータが設定された動画フレームが含まれる区間を区間メタデータとして設定する。つまり、ユーザは、流れる映像の中で出現する対象物を指定するだけで領域メタデータ及び区間メタデータを設定することができる。例えば、タッチパネルを入力デバイスとして利用する場合、ユーザは、再生中の動画に出現する対象物を指やスタイラスなどの操作体でタッチし、その対象物を追うように操作体を移動させるだけで簡単にメタデータを設定することができる。
このように、メタデータのラベリング作業が簡易化されることにより、短い時間で動画にメタデータを設定することが可能になる。また、ラベリング作業に馴れていないユーザでも簡単にメタデータのラベリング作業を行うことができるようになる。そのため、多くのユーザにメタデータのラベリング作業をしてもらうことが可能になり、協働作業によるラベリング作業の効率化が期待できる。また、同じ動画に対して多くのユーザによりラベリングされたメタデータを統計的に処理することで、ラベリングの精度を高めることが可能になる。
(1)
動画の再生中にユーザが画面内で指定した指定領域を検出する指定領域検出部と、
前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定する領域メタデータ設定部と、
前記領域メタデータが設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定する区間メタデータ設定部と、
を備える、
情報処理装置。
動画の再生中にユーザが画面内で指定した指定領域を検出する指定領域検出部と、
前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定する領域メタデータ設定部と、
前記領域メタデータが設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定する区間メタデータ設定部と、
を備える、
情報処理装置。
(2)
前記動画の再生制御を実行する再生制御部と、
隣接する動画フレームの違いを検出するフレーム変化検出部と、
をさらに備え、
前記再生制御部は、隣接する動画フレームの違いが小さい場合に一方の動画フレームの再生をスキップする、
上記(1)に記載の情報処理装置。
前記動画の再生制御を実行する再生制御部と、
隣接する動画フレームの違いを検出するフレーム変化検出部と、
をさらに備え、
前記再生制御部は、隣接する動画フレームの違いが小さい場合に一方の動画フレームの再生をスキップする、
上記(1)に記載の情報処理装置。
(3)
各動画フレーム内で特定の対象物を含む特定領域を検出する特定領域検出部と、
隣接する動画フレーム間で前記特定領域の変化を検出する領域変化検出部と、
をさらに備え、
前記再生制御部は、隣接する動画フレーム間で前記特定領域の変化が小さい場合に一方の動画フレームの再生をスキップする、
上記(1)又は(2)に記載の情報処理装置。
各動画フレーム内で特定の対象物を含む特定領域を検出する特定領域検出部と、
隣接する動画フレーム間で前記特定領域の変化を検出する領域変化検出部と、
をさらに備え、
前記再生制御部は、隣接する動画フレーム間で前記特定領域の変化が小さい場合に一方の動画フレームの再生をスキップする、
上記(1)又は(2)に記載の情報処理装置。
(4)
ユーザ操作の遅れを検出する操作速度検出部をさらに備え、
前記再生制御部は、ユーザ操作の遅れが検出された場合に再生速度を遅くする、
上記(2)又は(3)に記載の情報処理装置。
ユーザ操作の遅れを検出する操作速度検出部をさらに備え、
前記再生制御部は、ユーザ操作の遅れが検出された場合に再生速度を遅くする、
上記(2)又は(3)に記載の情報処理装置。
(5)
前記操作速度検出部は、隣接する動画フレーム間で指定領域が移動した距離を算出し、当該距離が所定の閾値を上回る場合にユーザ操作の遅れが発生しているものとみなす、
上記(4)に記載の情報処理装置。
前記操作速度検出部は、隣接する動画フレーム間で指定領域が移動した距離を算出し、当該距離が所定の閾値を上回る場合にユーザ操作の遅れが発生しているものとみなす、
上記(4)に記載の情報処理装置。
(6)
前記領域メタデータ設定部は、ユーザ操作の遅れが検出された区間に含まれる動画フレームに設定された領域メタデータを無効にし、
前記区間メタデータ設定部は、ユーザ操作の遅れが検出された区間において指定領域が検出されなかったものとみなして区間メタデータを更新する、
上記(4)又は(5)に記載の情報処理装置。
前記領域メタデータ設定部は、ユーザ操作の遅れが検出された区間に含まれる動画フレームに設定された領域メタデータを無効にし、
前記区間メタデータ設定部は、ユーザ操作の遅れが検出された区間において指定領域が検出されなかったものとみなして区間メタデータを更新する、
上記(4)又は(5)に記載の情報処理装置。
(7)
処理対象の動画と同じ動画に対して他のユーザが前記領域メタデータ及び前記区間メタデータの設定作業を行った際にユーザ操作の遅れが検出された区間に関する情報を取得する他ユーザ情報取得部をさらに備え、
前記再生制御部は、前記区間に関する情報が示す区間の再生速度を遅くする、
上記(4)又は(5)に記載の情報処理装置。
処理対象の動画と同じ動画に対して他のユーザが前記領域メタデータ及び前記区間メタデータの設定作業を行った際にユーザ操作の遅れが検出された区間に関する情報を取得する他ユーザ情報取得部をさらに備え、
前記再生制御部は、前記区間に関する情報が示す区間の再生速度を遅くする、
上記(4)又は(5)に記載の情報処理装置。
(8)
現在再生している動画フレーム内の指定領域に含まれる対象物と同じ対象物を含む指定領域が過去の動画フレーム内に存在する場合、過去の動画フレーム内に存在する前記同じ対象物を含む指定領域の画像を表示する過去画像表示部をさらに備える、
上記(1)〜(7)のいずれか1項に記載の情報処理装置。
現在再生している動画フレーム内の指定領域に含まれる対象物と同じ対象物を含む指定領域が過去の動画フレーム内に存在する場合、過去の動画フレーム内に存在する前記同じ対象物を含む指定領域の画像を表示する過去画像表示部をさらに備える、
上記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
各動画フレーム内で特定の対象物を含む特定領域を検出する特定領域検出部と、
出現時間が短い特定領域及び表示面積が小さい特定領域を削除する領域削除部と、
同じ動画フレーム内で近傍に位置する同じ種類の対象物を含む複数の特定領域が存在する場合に、当該複数の特定領域を結合する領域結合部と、
をさらに備える、
上記(1)に記載の情報処理装置。
各動画フレーム内で特定の対象物を含む特定領域を検出する特定領域検出部と、
出現時間が短い特定領域及び表示面積が小さい特定領域を削除する領域削除部と、
同じ動画フレーム内で近傍に位置する同じ種類の対象物を含む複数の特定領域が存在する場合に、当該複数の特定領域を結合する領域結合部と、
をさらに備える、
上記(1)に記載の情報処理装置。
(10)
前記特定領域に含まれる対象物の特徴量に基づいて当該特定領域をクラスタリングし、各クラスタを代表する対象物の特徴量を決定するクラスタリング部と、
各クラスタを代表する対象物の特徴量に基づいて対象物の種類を特定し、対象物の種類毎に予め用意された識別情報を各クラスタに対応付ける領域識別部と、
をさらに備える、
上記(9)に記載の情報処理装置。
前記特定領域に含まれる対象物の特徴量に基づいて当該特定領域をクラスタリングし、各クラスタを代表する対象物の特徴量を決定するクラスタリング部と、
各クラスタを代表する対象物の特徴量に基づいて対象物の種類を特定し、対象物の種類毎に予め用意された識別情報を各クラスタに対応付ける領域識別部と、
をさらに備える、
上記(9)に記載の情報処理装置。
(11)
動画の再生中にユーザが画面内で指定した指定領域の位置及び範囲を示す領域メタデータ、及び前記指定領域が指定された動画フレームに対応する区間を示す区間メタデータを取得するメタデータ取得部と、
同じ動画フレームに含まれる同一対象物に対して複数のユーザが指定領域を指定した場合に、複数のユーザにより指定された複数の指定領域の位置及び範囲を統計的に処理して1つの代表的な位置及び範囲を算出し、当該代表的な位置及び範囲を領域メタデータに設定する領域メタデータ設定部と、
を備える、
情報処理装置。
動画の再生中にユーザが画面内で指定した指定領域の位置及び範囲を示す領域メタデータ、及び前記指定領域が指定された動画フレームに対応する区間を示す区間メタデータを取得するメタデータ取得部と、
同じ動画フレームに含まれる同一対象物に対して複数のユーザが指定領域を指定した場合に、複数のユーザにより指定された複数の指定領域の位置及び範囲を統計的に処理して1つの代表的な位置及び範囲を算出し、当該代表的な位置及び範囲を領域メタデータに設定する領域メタデータ設定部と、
を備える、
情報処理装置。
(12)
前記指定領域の指定精度をユーザ毎に評価するスキル評価部をさらに備え、
前記領域メタデータ設定部は、前記スキル評価部による評価が高いユーザによって指定された指定領域の位置及び範囲に大きな重みをつけ、前記スキル評価部による評価が低いユーザによって指定された指定領域の位置及び範囲に小さな重みをつけて、複数のユーザにより指定された複数の指定領域の位置及び範囲を加重平均することにより前記1つの代表的な位置及び範囲を算出する、
上記(11)に記載の情報処理装置。
前記指定領域の指定精度をユーザ毎に評価するスキル評価部をさらに備え、
前記領域メタデータ設定部は、前記スキル評価部による評価が高いユーザによって指定された指定領域の位置及び範囲に大きな重みをつけ、前記スキル評価部による評価が低いユーザによって指定された指定領域の位置及び範囲に小さな重みをつけて、複数のユーザにより指定された複数の指定領域の位置及び範囲を加重平均することにより前記1つの代表的な位置及び範囲を算出する、
上記(11)に記載の情報処理装置。
(13)
同じ動画について複数のユーザが区間メタデータを設定した場合に、前記指定領域を指定したユーザの数が所定数を上回る動画フレームの再生区間を抽出し、抽出した再生区間を区間メタデータに設定する区間メタデータ設定部をさらに備える、
上記(12)に記載の情報処理装置。
同じ動画について複数のユーザが区間メタデータを設定した場合に、前記指定領域を指定したユーザの数が所定数を上回る動画フレームの再生区間を抽出し、抽出した再生区間を区間メタデータに設定する区間メタデータ設定部をさらに備える、
上記(12)に記載の情報処理装置。
(14)
動画の再生中にユーザが画面内で指定した指定領域を検出するステップと、
前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定するステップと、
前記領域メタデータが設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定するステップと、
を含む、
メタデータ設定方法。
動画の再生中にユーザが画面内で指定した指定領域を検出するステップと、
前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定するステップと、
前記領域メタデータが設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定するステップと、
を含む、
メタデータ設定方法。
(15)
動画の再生中にユーザが画面内で指定した指定領域を検出する指定領域検出機能と、
前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定する領域メタデータ設定機能と、
前記領域メタデータが設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定する区間メタデータ設定機能と、
をコンピュータに実現させるためのプログラム。
動画の再生中にユーザが画面内で指定した指定領域を検出する指定領域検出機能と、
前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定する領域メタデータ設定機能と、
前記領域メタデータが設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定する区間メタデータ設定機能と、
をコンピュータに実現させるためのプログラム。
(16)
動画の再生中にユーザが画面内で指定した指定領域の位置及び範囲を示す領域メタデータ、及び前記指定領域が指定された動画フレームに対応する区間を示す区間メタデータを取得するステップと、
同じ動画フレームに含まれる同一対象物に対して複数のユーザが指定領域を指定した場合に、複数のユーザにより指定された複数の指定領域の位置及び範囲を統計的に処理して1つの代表的な位置及び範囲を算出し、当該代表的な位置及び範囲を領域メタデータに設定するステップと、
を含む、
データ統合方法。
動画の再生中にユーザが画面内で指定した指定領域の位置及び範囲を示す領域メタデータ、及び前記指定領域が指定された動画フレームに対応する区間を示す区間メタデータを取得するステップと、
同じ動画フレームに含まれる同一対象物に対して複数のユーザが指定領域を指定した場合に、複数のユーザにより指定された複数の指定領域の位置及び範囲を統計的に処理して1つの代表的な位置及び範囲を算出し、当該代表的な位置及び範囲を領域メタデータに設定するステップと、
を含む、
データ統合方法。
(17)
動画の再生中にユーザが画面内で指定した指定領域の位置及び範囲を示す領域メタデータ、及び前記指定領域が指定された動画フレームに対応する区間を示す区間メタデータを取得するメタデータ取得機能と、
同じ動画フレームに含まれる同一対象物に対して複数のユーザが指定領域を指定した場合に、複数のユーザにより指定された複数の指定領域の位置及び範囲を統計的に処理して1つの代表的な位置及び範囲を算出し、当該代表的な位置及び範囲を領域メタデータに設定する領域メタデータ設定機能と、
をコンピュータに実現させるためのプログラム。
動画の再生中にユーザが画面内で指定した指定領域の位置及び範囲を示す領域メタデータ、及び前記指定領域が指定された動画フレームに対応する区間を示す区間メタデータを取得するメタデータ取得機能と、
同じ動画フレームに含まれる同一対象物に対して複数のユーザが指定領域を指定した場合に、複数のユーザにより指定された複数の指定領域の位置及び範囲を統計的に処理して1つの代表的な位置及び範囲を算出し、当該代表的な位置及び範囲を領域メタデータに設定する領域メタデータ設定機能と、
をコンピュータに実現させるためのプログラム。
(備考)
上記の入力部109は、指定領域検出部の一例である。上記のメタデータ提供部106は、領域メタデータ設定部、区間メタデータ設定部の一例である。上記の類似スコア算出部111は、フレーム変化検出部の一例である。上記の領域抽出部103は、特定領域検出部の一例である。上記の移動距離算出部110は、領域変化検出部、操作速度検出部の一例である。上記の再生制御部107は、他ユーザ情報取得部、過去画像表示部の一例である。上記の領域加工部104は、領域削除部、領域結合部の一例である。上記の物体認識部105は、クラスタリング部、領域識別部の一例である。上記の領域メタデータ統合部203は、領域メタデータ設定部の一例である。上記のスキル・傾向分析部202は、スキル評価部の一例である。上記の区間メタデータ統合部204は、区間メタデータ設定部の一例である。
上記の入力部109は、指定領域検出部の一例である。上記のメタデータ提供部106は、領域メタデータ設定部、区間メタデータ設定部の一例である。上記の類似スコア算出部111は、フレーム変化検出部の一例である。上記の領域抽出部103は、特定領域検出部の一例である。上記の移動距離算出部110は、領域変化検出部、操作速度検出部の一例である。上記の再生制御部107は、他ユーザ情報取得部、過去画像表示部の一例である。上記の領域加工部104は、領域削除部、領域結合部の一例である。上記の物体認識部105は、クラスタリング部、領域識別部の一例である。上記の領域メタデータ統合部203は、領域メタデータ設定部の一例である。上記のスキル・傾向分析部202は、スキル評価部の一例である。上記の区間メタデータ統合部204は、区間メタデータ設定部の一例である。
以上、添付図面を参照しながら本技術に係る好適な実施形態について説明したが、本技術はここで開示した構成例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本技術の技術的範囲に属するものと了解される。
10 メタデータ提供者端末
101 記憶部
102 デコーダ
103 領域抽出部
104 領域加工部
105 物体認識部
106 メタデータ提供部
107 再生制御部
108 表示部
109 入力部
110 移動距離算出部
111 類似スコア算出部
20 メタデータ管理システム
201 メタデータ取得部
202 スキル・傾向分析部
203 領域メタデータ統合部
204 区間メタデータ統合部
205 オブジェクトメタデータ統合部
206 メタデータ提供部
207 記憶部
208 学習部
30 メタデータ利用者端末
301 メタデータ取得部
302 登場区間提示部
303 登場区間再生部
304 記憶部
305 表示部
306 関連情報提示部
307 入力部
101 記憶部
102 デコーダ
103 領域抽出部
104 領域加工部
105 物体認識部
106 メタデータ提供部
107 再生制御部
108 表示部
109 入力部
110 移動距離算出部
111 類似スコア算出部
20 メタデータ管理システム
201 メタデータ取得部
202 スキル・傾向分析部
203 領域メタデータ統合部
204 区間メタデータ統合部
205 オブジェクトメタデータ統合部
206 メタデータ提供部
207 記憶部
208 学習部
30 メタデータ利用者端末
301 メタデータ取得部
302 登場区間提示部
303 登場区間再生部
304 記憶部
305 表示部
306 関連情報提示部
307 入力部
Claims (17)
- 動画の再生中にユーザが画面内で指定した指定領域を検出する指定領域検出部と、
前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定する領域メタデータ設定部と、
前記領域メタデータが設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定する区間メタデータ設定部と、
を備える、
情報処理装置。 - 前記動画の再生制御を実行する再生制御部と、
隣接する動画フレームの違いを検出するフレーム変化検出部と、
をさらに備え、
前記再生制御部は、隣接する動画フレームの違いが小さい場合に一方の動画フレームの再生をスキップする、
請求項1に記載の情報処理装置。 - 各動画フレーム内で特定の対象物を含む特定領域を検出する特定領域検出部と、
隣接する動画フレーム間で前記特定領域の変化を検出する領域変化検出部と、
をさらに備え、
前記再生制御部は、隣接する動画フレーム間で前記特定領域の変化が小さい場合に一方の動画フレームの再生をスキップする、
請求項1に記載の情報処理装置。 - ユーザ操作の遅れを検出する操作速度検出部をさらに備え、
前記再生制御部は、ユーザ操作の遅れが検出された場合に再生速度を遅くする、
請求項2に記載の情報処理装置。 - 前記操作速度検出部は、隣接する動画フレーム間で指定領域が移動した距離を算出し、当該距離が所定の閾値を上回る場合にユーザ操作の遅れが発生しているものとみなす、
請求項4に記載の情報処理装置。 - 前記領域メタデータ設定部は、ユーザ操作の遅れが検出された区間に含まれる動画フレームに設定された領域メタデータを無効にし、
前記区間メタデータ設定部は、ユーザ操作の遅れが検出された区間において指定領域が検出されなかったものとみなして区間メタデータを更新する、
請求項4に記載の情報処理装置。 - 処理対象の動画と同じ動画に対して他のユーザが前記領域メタデータ及び前記区間メタデータの設定作業を行った際にユーザ操作の遅れが検出された区間に関する情報を取得する他ユーザ情報取得部をさらに備え、
前記再生制御部は、前記区間に関する情報が示す区間の再生速度を遅くする、
請求項4に記載の情報処理装置。 - 現在再生している動画フレーム内の指定領域に含まれる対象物と同じ対象物を含む指定領域が過去の動画フレーム内に存在する場合、過去の動画フレーム内に存在する前記同じ対象物を含む指定領域の画像を表示する過去画像表示部をさらに備える、
請求項1に記載の情報処理装置。 - 各動画フレーム内で特定の対象物を含む特定領域を検出する特定領域検出部と、
出現時間が短い特定領域及び表示面積が小さい特定領域を削除する領域削除部と、
同じ動画フレーム内で近傍に位置する同じ種類の対象物を含む複数の特定領域が存在する場合に、当該複数の特定領域を結合する領域結合部と、
をさらに備える、
請求項1に記載の情報処理装置。 - 前記特定領域に含まれる対象物の特徴量に基づいて当該特定領域をクラスタリングし、各クラスタを代表する対象物の特徴量を決定するクラスタリング部と、
各クラスタを代表する対象物の特徴量に基づいて対象物の種類を特定し、対象物の種類毎に予め用意された識別情報を各クラスタに対応付ける領域識別部と、
をさらに備える、
請求項9に記載の情報処理装置。 - 動画の再生中にユーザが画面内で指定した指定領域の位置及び範囲を示す領域メタデータ、及び前記指定領域が指定された動画フレームに対応する区間を示す区間メタデータを取得するメタデータ取得部と、
同じ動画フレームに含まれる同一対象物に対して複数のユーザが指定領域を指定した場合に、複数のユーザにより指定された複数の指定領域の位置及び範囲を統計的に処理して1つの代表的な位置及び範囲を算出し、当該代表的な位置及び範囲を領域メタデータに設定する領域メタデータ設定部と、
を備える、
情報処理装置。 - 前記指定領域の指定精度をユーザ毎に評価するスキル評価部をさらに備え、
前記領域メタデータ設定部は、前記スキル評価部による評価が高いユーザによって指定された指定領域の位置及び範囲に大きな重みをつけ、前記スキル評価部による評価が低いユーザによって指定された指定領域の位置及び範囲に小さな重みをつけて、複数のユーザにより指定された複数の指定領域の位置及び範囲を加重平均することにより前記1つの代表的な位置及び範囲を算出する、
請求項11に記載の情報処理装置。 - 同じ動画について複数のユーザが区間メタデータを設定した場合に、前記指定領域を指定したユーザの数が所定数を上回る動画フレームの再生区間を抽出し、抽出した再生区間を区間メタデータに設定する区間メタデータ設定部をさらに備える、
請求項12に記載の情報処理装置。 - 動画の再生中にユーザが画面内で指定した指定領域を検出するステップと、
前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定するステップと、
前記領域メタデータが設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定するステップと、
を含む、
メタデータ設定方法。 - 動画の再生中にユーザが画面内で指定した指定領域を検出する指定領域検出機能と、
前記指定領域の位置及び範囲を示す領域メタデータを各動画フレームに対して設定する領域メタデータ設定機能と、
前記領域メタデータが設定された動画フレームに対応する区間を示す区間メタデータを各動画に対して設定する区間メタデータ設定機能と、
をコンピュータに実現させるためのプログラム。 - 動画の再生中にユーザが画面内で指定した指定領域の位置及び範囲を示す領域メタデータ、及び前記指定領域が指定された動画フレームに対応する区間を示す区間メタデータを取得するステップと、
同じ動画フレームに含まれる同一対象物に対して複数のユーザが指定領域を指定した場合に、複数のユーザにより指定された複数の指定領域の位置及び範囲を統計的に処理して1つの代表的な位置及び範囲を算出し、当該代表的な位置及び範囲を領域メタデータに設定するステップと、
を含む、
メタデータ設定方法。 - 動画の再生中にユーザが画面内で指定した指定領域の位置及び範囲を示す領域メタデータ、及び前記指定領域が指定された動画フレームに対応する区間を示す区間メタデータを取得するメタデータ取得機能と、
同じ動画フレームに含まれる同一対象物に対して複数のユーザが指定領域を指定した場合に、複数のユーザにより指定された複数の指定領域の位置及び範囲を統計的に処理して1つの代表的な位置及び範囲を算出し、当該代表的な位置及び範囲を領域メタデータに設定する領域メタデータ設定機能と、
をコンピュータに実現させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011120396A JP2012248070A (ja) | 2011-05-30 | 2011-05-30 | 情報処理装置、メタデータ設定方法、及びプログラム |
CN 201210162939 CN102855464A (zh) | 2011-05-30 | 2012-05-23 | 信息处理设备、元数据设置方法以及程序 |
US13/478,968 US8831356B2 (en) | 2011-05-30 | 2012-05-23 | Information processing apparatus, metadata setting method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011120396A JP2012248070A (ja) | 2011-05-30 | 2011-05-30 | 情報処理装置、メタデータ設定方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012248070A true JP2012248070A (ja) | 2012-12-13 |
JP2012248070A5 JP2012248070A5 (ja) | 2014-07-10 |
Family
ID=47402042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011120396A Withdrawn JP2012248070A (ja) | 2011-05-30 | 2011-05-30 | 情報処理装置、メタデータ設定方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8831356B2 (ja) |
JP (1) | JP2012248070A (ja) |
CN (1) | CN102855464A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014119975A (ja) * | 2012-12-17 | 2014-06-30 | Nippon Hoso Kyokai <Nhk> | 映像用メタデータ付与装置及びプログラム |
JP2016046730A (ja) * | 2014-08-25 | 2016-04-04 | 学校法人早稲田大学 | 視聴者注目情報提供システム、時空間マーカ設定装置及びそのプログラム、並びに、情報提供装置及びそのプログラム |
JP2018533295A (ja) * | 2015-09-25 | 2018-11-08 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ビデオ処理のためのシステムおよび方法 |
JP2019075130A (ja) * | 2018-11-22 | 2019-05-16 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、制御方法、プログラム |
JP2019101143A (ja) * | 2017-11-30 | 2019-06-24 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、情報処理システムの制御方法及びプログラム |
WO2020250891A1 (ja) * | 2019-06-10 | 2020-12-17 | アミフィアブル株式会社 | スポーツ動画管理システム |
JP7552605B2 (ja) | 2019-09-24 | 2024-09-18 | ソニーグループ株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9724597B2 (en) | 2012-06-04 | 2017-08-08 | Sony Interactive Entertainment Inc. | Multi-image interactive gaming device |
KR20140042409A (ko) * | 2012-09-28 | 2014-04-07 | 삼성전자주식회사 | 오브젝트 부가 정보를 입력하는 장치 및 오브젝트 부가 정보를 입력하는 방법 |
US11558672B1 (en) * | 2012-11-19 | 2023-01-17 | Cox Communications, Inc. | System for providing new content related to content currently being accessed |
CN109769227B (zh) | 2013-07-25 | 2022-02-22 | 康维达无线有限责任公司 | 端到端m2m服务层会话 |
WO2015052961A1 (ja) * | 2013-10-08 | 2015-04-16 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置 |
US9933989B2 (en) | 2013-10-31 | 2018-04-03 | Dolby Laboratories Licensing Corporation | Binaural rendering for headphones using metadata processing |
US10506003B1 (en) * | 2014-08-08 | 2019-12-10 | Amazon Technologies, Inc. | Repository service for managing digital assets |
JP6068408B2 (ja) * | 2014-09-26 | 2017-01-25 | 京セラドキュメントソリューションズ株式会社 | ワークフロー制御装置及びプログラム |
US9883249B2 (en) * | 2015-06-26 | 2018-01-30 | Amazon Technologies, Inc. | Broadcaster tools for interactive shopping interfaces |
EP3439281A4 (en) * | 2016-03-29 | 2019-04-17 | Sony Corporation | INFORMATION PROCESSING DEVICE, IMAGING DEVICE, IMAGE REPRODUCING DEVICE, METHOD, AND PROGRAM |
EP3456058A1 (en) | 2016-05-13 | 2019-03-20 | VID SCALE, Inc. | Bit depth remapping based on viewing parameters |
EP3482566B1 (en) | 2016-07-08 | 2024-02-28 | InterDigital Madison Patent Holdings, SAS | Systems and methods for region-of-interest tone remapping |
EP3488615A1 (en) * | 2016-07-22 | 2019-05-29 | VID SCALE, Inc. | Systems and methods for integrating and delivering objects of interest in video |
JP6232632B1 (ja) * | 2016-08-09 | 2017-11-22 | パロニム株式会社 | 動画再生プログラム、動画再生装置、動画再生方法、動画配信システム及びメタデータ作成方法 |
WO2018035133A1 (en) | 2016-08-17 | 2018-02-22 | Vid Scale, Inc. | Secondary content insertion in 360-degree video |
WO2018048355A1 (en) * | 2016-09-08 | 2018-03-15 | Aiq Pte. Ltd. | Object detection from visual search queries |
CN109845277A (zh) * | 2016-10-26 | 2019-06-04 | 索尼公司 | 信息处理装置、信息处理系统、信息处理方法和程序 |
CN109891772B (zh) | 2016-11-03 | 2022-10-04 | 康维达无线有限责任公司 | Nr中的帧结构 |
CN108124167A (zh) * | 2016-11-30 | 2018-06-05 | 阿里巴巴集团控股有限公司 | 一种播放处理方法、装置和设备 |
WO2018131875A1 (en) * | 2017-01-11 | 2018-07-19 | Samsung Electronics Co., Ltd. | Display apparatus and method for providing service thereof |
CN110301136B (zh) | 2017-02-17 | 2023-03-24 | 交互数字麦迪逊专利控股公司 | 在流传输视频中进行选择性感兴趣对象缩放的系统和方法 |
WO2018164911A1 (en) | 2017-03-07 | 2018-09-13 | Pcms Holdings, Inc. | Tailored video streaming for multi-device presentations |
WO2018179202A1 (ja) | 2017-03-30 | 2018-10-04 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
EP3636134A4 (en) * | 2017-05-25 | 2021-03-10 | Nec Corporation | INFORMATION PROCESSING DEVICE, ORDERING PROCESS AND PROGRAM |
JP6463826B1 (ja) * | 2017-11-27 | 2019-02-06 | 株式会社ドワンゴ | 動画配信サーバ、動画配信方法及び動画配信プログラム |
US20190253751A1 (en) * | 2018-02-13 | 2019-08-15 | Perfect Corp. | Systems and Methods for Providing Product Information During a Live Broadcast |
JP2020005038A (ja) * | 2018-06-25 | 2020-01-09 | キヤノン株式会社 | 送信装置、送信方法、受信装置、受信方法、及び、プログラム |
US11336968B2 (en) * | 2018-08-17 | 2022-05-17 | Samsung Electronics Co., Ltd. | Method and device for generating content |
US11039196B2 (en) * | 2018-09-27 | 2021-06-15 | Hisense Visual Technology Co., Ltd. | Method and device for displaying a screen shot |
KR20210066856A (ko) | 2018-09-27 | 2021-06-07 | 콘비다 와이어리스, 엘엘씨 | 새로운 라디오의 비허가 스펙트럼들에서의 부대역 동작들 |
JP7234718B2 (ja) * | 2019-03-18 | 2023-03-08 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP7232909B2 (ja) * | 2019-06-21 | 2023-03-03 | 株式会社ソニー・インタラクティブエンタテインメント | 要素データ管理装置、要素データ管理方法、プログラム及び要素データのデータ構造 |
US11589094B2 (en) * | 2019-07-22 | 2023-02-21 | At&T Intellectual Property I, L.P. | System and method for recommending media content based on actual viewers |
CN114327316B (zh) * | 2020-09-30 | 2024-04-19 | 伊姆西Ip控股有限责任公司 | 获取视觉内容的方法、设备和计算机程序产品 |
CN114637890A (zh) * | 2020-12-16 | 2022-06-17 | 花瓣云科技有限公司 | 在图像画面中显示标签的方法、终端设备及存储介质 |
US20230267416A1 (en) * | 2022-02-22 | 2023-08-24 | International Business Machines Corporation | Incremental implementation framework for data and ai strategy |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3763172B2 (ja) * | 1996-12-16 | 2006-04-05 | ソニー株式会社 | ディジタル信号復号方法及び装置、並びにディジタル信号再生装置 |
JP2005044330A (ja) | 2003-07-24 | 2005-02-17 | Univ Of California San Diego | 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置 |
US8666223B2 (en) * | 2008-09-25 | 2014-03-04 | Kabushiki Kaisha Toshiba | Electronic apparatus and image data management method |
JP4862930B2 (ja) * | 2009-09-04 | 2012-01-25 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
-
2011
- 2011-05-30 JP JP2011120396A patent/JP2012248070A/ja not_active Withdrawn
-
2012
- 2012-05-23 US US13/478,968 patent/US8831356B2/en not_active Expired - Fee Related
- 2012-05-23 CN CN 201210162939 patent/CN102855464A/zh active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014119975A (ja) * | 2012-12-17 | 2014-06-30 | Nippon Hoso Kyokai <Nhk> | 映像用メタデータ付与装置及びプログラム |
JP2016046730A (ja) * | 2014-08-25 | 2016-04-04 | 学校法人早稲田大学 | 視聴者注目情報提供システム、時空間マーカ設定装置及びそのプログラム、並びに、情報提供装置及びそのプログラム |
JP2018533295A (ja) * | 2015-09-25 | 2018-11-08 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ビデオ処理のためのシステムおよび方法 |
US10708673B2 (en) | 2015-09-25 | 2020-07-07 | Qualcomm Incorporated | Systems and methods for video processing |
JP2019101143A (ja) * | 2017-11-30 | 2019-06-24 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、情報処理システムの制御方法及びプログラム |
JP7189411B2 (ja) | 2017-11-30 | 2022-12-14 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、情報処理システムの制御方法及びプログラム |
JP2019075130A (ja) * | 2018-11-22 | 2019-05-16 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、制御方法、プログラム |
WO2020250891A1 (ja) * | 2019-06-10 | 2020-12-17 | アミフィアブル株式会社 | スポーツ動画管理システム |
JP7552605B2 (ja) | 2019-09-24 | 2024-09-18 | ソニーグループ株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20130016910A1 (en) | 2013-01-17 |
US8831356B2 (en) | 2014-09-09 |
CN102855464A (zh) | 2013-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5857450B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2012248070A (ja) | 情報処理装置、メタデータ設定方法、及びプログラム | |
JP6179889B2 (ja) | コメント情報生成装置およびコメント表示装置 | |
KR101839319B1 (ko) | 컨텐츠 검색 방법 및 그를 이용한 디스플레이 장치 | |
US9118886B2 (en) | Annotating general objects in video | |
US8416332B2 (en) | Information processing apparatus, information processing method, and program | |
US10380773B2 (en) | Information processing apparatus, information processing method, and computer readable medium | |
CN103428571B (zh) | 智能的电视购物系统和方法 | |
US9798464B2 (en) | Computing device | |
US10684754B2 (en) | Method of providing visual sound image and electronic device implementing the same | |
CN103797812A (zh) | 带评论运动图像生成装置及带评论运动图像生成方法 | |
CN110035329B (zh) | 图像处理方法、装置及存储介质 | |
US20120209841A1 (en) | Bookmarking segments of content | |
US9563277B2 (en) | Apparatus, system, and method for controlling virtual object | |
US20140359447A1 (en) | Method, Apparatus and Computer Program Product for Generation of Motion Images | |
CN103124968A (zh) | 用于后仰式娱乐的内容转换 | |
WO2019128742A1 (zh) | 图像处理方法、装置、终端及存储介质 | |
US9152707B2 (en) | System and method for creating and providing media objects in a navigable environment | |
KR20160016574A (ko) | 영상 제공 방법 및 이를 위한 장치 | |
US20150221112A1 (en) | Emotion Indicators in Content | |
JP7271276B2 (ja) | 表示制御装置および表示制御方法、プログラム | |
JP2014036232A (ja) | コンテンツ配信システム、コンテンツ表示装置、コンテンツ配信方法、コンテンツ表示方法及びプログラム | |
Niu et al. | Real-time generation of personalized home video summaries on mobile devices | |
WO2014162757A1 (ja) | 情報処理装置、タグ付け方法及びプログラム | |
Yang et al. | StoryMap: An Efficient Sketch-Based Interface for Video Navigation. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140526 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150116 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20150406 |