[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014139734A - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2014139734A
JP2014139734A JP2013008368A JP2013008368A JP2014139734A JP 2014139734 A JP2014139734 A JP 2014139734A JP 2013008368 A JP2013008368 A JP 2013008368A JP 2013008368 A JP2013008368 A JP 2013008368A JP 2014139734 A JP2014139734 A JP 2014139734A
Authority
JP
Japan
Prior art keywords
correlation
person
unit
degree
appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013008368A
Other languages
English (en)
Inventor
Kentaro Fukazawa
健太郎 深沢
Kenji Tanaka
健司 田中
Yoshihiro Takahashi
義博 高橋
Kyosuke Yoshida
恭助 吉田
Kazumasa Tanaka
和政 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013008368A priority Critical patent/JP2014139734A/ja
Priority to CN201410015958.8A priority patent/CN104050208A/zh
Priority to US14/157,595 priority patent/US9361511B2/en
Publication of JP2014139734A publication Critical patent/JP2014139734A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • G06F16/739Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】コンテンツ内におけるオブジェクト間の相関度をより正確に取得することができる。
【解決手段】顔グループ化部は、映像コンテンツ内に登場する顔画像を検出し、検出した顔画像を人物毎にグループ化し、人物毎のグループ化情報を、動画像ファイルとともに、人物間相関度取得部に供給する。人物間相関度取得部は、顔グループ化部によりグループ化された人物間の相関度を算出する。その際、複数の人物が同時に出現する頻度だけでなく、複数の人物が時間的に遷移して登場する頻度も求められ、求められた頻度などから人物間の相関度データが取得される。本開示は、例えば、動画像コンテンツにおける人物の相関図の表示を制御する情報処理装置に適用することができる。
【選択図】図1

Description

本開示は、情報処理装置および方法、並びにプログラムに関し、特に、コンテンツ内におけるオブジェクト間の相関度をより正確に取得することができるようにした情報処理装置および方法、並びにプログラムに関する。
特許文献1には、複数の静止画や動画から人物相関図を取得する従来技術の1つが記載されている。特許文献1に記載の技術においては、画像から顔が抽出され、同時に写っている頻度などから人物間の相関度が算出されて、人物相関図が取得される。
また、複数の静止画や動画から指定した単一、複数人物が登場する画像、区間のみを抽出しダイジェスト動画を作成する技術が、特許文献2や特許文献3に記載されている。
さらに、特許文献4には、複数人物間の相関を用いて個人識別の性能向上を図る技術が記載されている。
特表2011−133988号公報 特開2011−82915号公報 特開2011−70277号公報 特開2008−129682号公報
しかしながら、特許文献1乃至特許文献4には、複数の人物が画面内に同時に登場せずに、複数のカメラで個々に撮影され時間的に交互に登場するような場合については、複数の人物が同時に写ってないことから、その複数の人物間の相関度が低いと判定されてしまっていた。
本開示は、このような状況に鑑みてなされたものであり、コンテンツ内におけるオブジェクト間の相関度をより正確に取得することができるものである。
本開示の一側面の情報処理装置は、コンテンツからオブジェクトの一部を検出し、オブジェクト毎のグループ化を行うグループ化部と、前記グループ化部によりグループ化が行われたオブジェクト間の相関度を算出する相関度算出部と、前記相関度算出部により算出されたオブジェクト間の相関度に基づいて、オブジェクト間の相関を表すオブジェクト間相関図の表示を制御する表示制御部とを備える。
前記相関度算出部は、オブジェクト毎に出現区間を求める出現区間取得部と、前記出現区間取得部により取得されたオブジェクト毎の出現区間に基づいて、複数のオブジェクトが同時に出現する頻度から相関度を求める同時出現相関度算出部と、前記出現区間取得部により取得されたオブジェクト毎の出現区間に基づいて、複数のオブジェクトが時間的に遷移して出現する頻度から相関度を算出する遷移出現相関度算出部とを備えることができる。
前記表示制御部は、前記同時出現相関度算出部および前記遷移出現相関度算出部により算出されたオブジェクト間の相関度に基づいて、前記オブジェクト間相関図におけるオブジェクト間の関係度を示すリンクの幅の表示を制御することができる。
前記同時出現相関度算出部は、前記出現区間取得部により取得されたオブジェクト毎の出現区間に基づいて、オブジェクト毎の重要度も算出し、前記表示制御部は、前記同時出現相関度算出部により算出されたオブジェクト毎の重要度に基づいて、前記オブジェクト間相関図におけるオブジェクトを示すオブジェクト画像の大きさの表示を制御することができる。
前記表示制御部は、前記同時出現相関度算出部および前記遷移出現相関度算出部により所定の時間間隔毎に算出されたオブジェクト間の相関度に基づいて、前記オブジェクト間相関図の動画表示を制御することができる。
前記表示制御部は、前記同時出現相関度算出部および前記遷移出現相関度算出部により所定の時間間隔毎に算出されたオブジェクト間の相関度に基づいて、前記オブジェクト間相関図のタイムライン上への表示を制御することができる。
前記表示制御部により表示が制御されたオブジェクト相関図におけるオブジェクト画像またはオブジェクト間の関係度を示すリンクの選択に応じて、選択されたオブジェクト画像または選択されたリンクで接続される複数オブジェクトが出現するシーンからなるコンテンツのダイジェストを作成するダイジェスト作成部をさらに備えることができる。
前記表示制御部により表示が制御されたオブジェクト間相関図におけるオブジェクト画像またはオブジェクト間の関係度を示すリンクの選択に応じて、選択されたオブジェクト画像または選択されたリンクで接続される複数オブジェクトが出現するシーンにカット点を挿入するカット点挿入部をさらに備えることができる。
前記同時出現相関度算出部および前記遷移出現相関度算出部により算出されたオブジェクト間の相関度を記憶する人物間相関度データベースをさらに備えることができる。
オブジェクト名を入力する入力部と、前記入力部により入力されたオブジェクト名に対応するオブジェクトの相関度を前記人物相関度データベースから検索する検索部とをさらに備え、前記表示制御部は、前記検索部により検索されたオブジェクトを中心とするオブジェクト間相関図の表示を制御することができる。
前記オブジェクト間相関図の設定を入力する入力部と、前記入力部により入力されたオブジェクト間相関図の設定に対応するオブジェクトの相関度を前記人物相関度データベースから検索する検索部とをさらに備えることができる。
画像内に登場する全ての顔を検出し、検出した顔に対して、前記人物相関度データベースを用いて類似度が大きい人物を追加していくことで、候補人物リストを取得する候補人物取得部と、前記候補人物取得部により取得された候補人物リストを用いて、人物を決定する人物決定部とをさらに備えることができる。
前記人物決定部は、前記候補人物取得部により取得された候補人物リストの相関度を評価値として、人物を決定することができる。
前記人物決定部は、前記候補人物取得部により取得された候補人物リストの相関度と人物毎の類似度とを組み合わせた値を評価値として、人物を決定することができる。
前記オブジェクトの一部は、顔画像であり、前記オブジェクトは、人物である。
本開示の一側面の情報処理方法は、情報処理装置が、コンテンツからオブジェクトの一部を検出し、オブジェクト毎のグループ化を行い、グループ化が行われたオブジェクト間の相関度を算出し、算出されたオブジェクト間の相関度に基づいて、オブジェクト間の相関を表すオブジェクト間相関図の表示を制御する。
本開示の一側面のプログラムは、コンピュータを、コンテンツからオブジェクトの一部を検出し、オブジェクト毎のグループ化を行うグループ化部と、前記グループ化部によりグループ化が行われたオブジェクト間の相関度を算出する相関度算出部と、前記相関度算出部により算出されたオブジェクト間の相関度に基づいて、オブジェクト間の相関を表すオブジェクト間相関図の表示を制御する表示制御部として機能させる。
本開示の一側面においては、コンテンツからオブジェクトの一部が検出され、オブジェクト毎のグループ化が行われ、グループ化が行われたオブジェクト間の相関度が算出される。そして、算出されたオブジェクト間の相関度に基づいて、オブジェクト間の相関を表すオブジェクト間相関図の表示が制御される。
本開示によれば、コンテンツ内におけるオブジェクト間の相関度をより正確に取得することができる。
本技術を適用した情報処理装置の構成例を示すブロック図である。 情報処理装置の人物間相関度取得表示処理を説明するフローチャートである。 顔グループ化処理を説明するフローチャートである。 人物間相関度取得部の構成例を示すブロック図である。 映像ファイルにおける人物の出現区間の例を示す図である。 人物間相関度取得処理を説明するフローチャートである。 同時出現区間取得処理を説明するフローチャートである。 遷移出現区間取得処理を説明するフローチャートである。 遷移頻度取得処理を説明するフローチャートである。 人物間相関図の例を示す図である。 人物間相関図の他の例を示す図である。 人物間相関図のさらに他の例を示す図である。 人物間相関図の他の例を示す図である。 人物間相関図表示処理を説明するフローチャートである。 本技術を適用した情報処理装置の他の構成例を示すブロック図である。 個人識別処理を説明するフローチャートである。 人物決定処理の例を説明する図である。 人物決定処理の他の例を説明する図である。 コンピュータの構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.実施の形態(情報処理装置)
2.実施の形態(表示例)
3.実施の形態(変形例)
<1.実施の形態(情報処理装置)>
[本技術の情報処理装置の構成]
図1は、本技術を適用した情報処理装置の構成例を示す図である。
図1の情報処理装置11は、映像コンテンツ内に登場する人物間の相関関係を取得し、人物相関図の提示を行う。また、情報処理装置11は、検索キーに人物名や人物相関図を用いて映像コンテンツの検索を行ったり、取得した相関関係を用いて個人識別を行ったりする。情報処理装置11は、例えば、パーソナルコンピュータなどで構成される。
なお、本技術は、これから説明する人物間の相関に限らず、人物とオブジェクト間の相関や、オブジェクト間の相関にも適用することができる。
図1の例において、情報処理装置11は、画像データ入力部21、顔グループ化部22、人物間相関度取得部23、人物間相関度データベース24、表示制御部25、操作入力部26、および表示部27を含むように構成されている。さらに、情報処理装置11は、検索部28およびダイジェスト作成部29を含むように構成されている。
画像データ入力部21は、図示せぬコンテンツアーカイブなどから映像コンテンツのデータを入力し、入力した映像コンテンツのデータ(動画像ファイル)を、顔グループ化部22に供給する。
顔グループ化部22は、映像コンテンツ内に登場する顔画像を検出し、検出した顔画像を人物毎にグループ化し、人物毎のグループ化情報を、動画像ファイルとともに、人物間相関度取得部23に供給する。
人物間相関度取得部23は、顔グループ化部22によりグループ化された人物間の相関度を算出し、算出した人物間の相関度を、表示制御部25に供給する。また、人物間相関度取得部23は、算出した人物間の相関度を、動画像ファイルとともに、人物間相関度データベース24に供給する。
人物間相関度データベース24は、人物間相関度取得部23からの人物間の相関度データと動画像ファイルとを紐付けして記憶する。
人物間の相関度データは、例えば、動画像ファイルに関する情報、登場(出現)する人物毎の情報、および2人の人物間に関する情報で構成される。
動画像ファイルに関する情報は、例えば、動画像ファイル名や動画像ファイル内の時間範囲などからなる。登場する人物毎の情報は、例えば、登場する人物毎の重要度、登場する人物毎の登場フレームと顔の位置および大きさ、登場する人物毎の人名、登場する人物毎の顔画像特徴量、登場する人物毎の音声特徴量などからなる。2人の人物間に関する情報は、例えば、2人の人物間の相関度および2人の人物が登場する時間範囲などからなる。
表示制御部25は、人物間相関度取得部23や検索部28からの人物間の相関度データなどに基づいて、人物間の相関度を表した人物間相関図を生成し、生成した人物間相関図を、表示部27に表示させる。人物間相関図は、例えば、映像コンテンツ内の人物関係が一目でわかるように、少なくとも1人の人物を示す顔画像と、人物が複数の場合に、人物間の関係性を表すライン(リンク)とが組み合わせて構成されている。
操作入力部26は、例えば、マウス、キーボードや、表示部27に積層されるタッチパネルなどで構成され、ユーザの操作に対応する信号を、表示制御部25に供給する。例えば、人物間相関図における人物やリンクの選択信号などが表示制御部25を介して、ダイジェスト作成部29などに供給される。また、例えば、映像コンテンツ検索を行う際の人物名は、表示制御部25を介して、検索部28などに供給される。
表示部27は、例えば、LCD(Liquid Crystal Display)などで構成されており、表示制御部25からの人物相関図を表示する。
検索部28は、表示制御部25から、人物名などが供給されると、供給された人物を中心とした人物間相関図の表示のため、人物間相関度データベース24を検索して、相関度データを取得する。検索部28は、全相関度データに記載されている全人物の顔画像特徴量などを利用して、顔グループ化を行い、各人物の重要度および人物間の相関度を取得する。検索部28は、取得した各人物の重要度および人物間の相関度を表示制御部25に供給する。
ダイジェスト作成部29は、操作入力部26からの人物間相関図における人物やリンクの選択信号に応じて、ダイジェスト作成やカット点の挿入などを行う。
[情報処理装置の動作]
次に、図2のフローチャートを参照して、情報処理装置11の人物間相関度取得表示処理について説明する。
画像データ入力部21は、図示せぬアーカイブなどから映像コンテンツのデータを入力し、入力した映像コンテンツのデータを、顔グループ化部22に供給する。
これに対応して、顔グループ化部22は、ステップS11において、顔グループ化処理を行う。なお、顔グループ化処理については、図3を参照して後述される。
ステップS11の処理により、映像コンテンツ内に登場する顔画像が検出され、検出された顔画像が人物毎にグループ化され、人物毎のグループ化情報が、映像コンテンツのデータとともに、人物間相関度取得部23に供給される。
ステップS12において、人物間相関度取得部23は、人物相関度取得処理を行う。この人物相関度取得処理については、図6を参照して後述される。
ステップS12の処理により、顔グループ化部22によりグループ化された人物間の相関度が算出され、算出された人物間の相関度が、映像コンテンツのデータとともに、人物間相関度データベース24に供給される。
これに対応して、ステップS13において、人物間相関度データベース24は、人物間の相関度データを、映像コンテンツのデータと紐付けして登録する。
一方、人物間相関度取得部23により算出された人物間の相関度データは、映像コンテンツのデータとともに、表示制御部25に供給される。
表示制御部25は、ステップS14において、人物間の相関を表す人物間相関図の表示を行う。すなわち、表示制御部25は、人物間相関度取得部23からの人物間の相関度データに基づいて、人物間相関図を生成し、生成した人物間相関図を、表示部27に表示させる。
以上のようにして人物間相関図の表示が制御されるので、動画像ファイル内の人物関係を一目で把握することができる。
[顔グループ化処理の例]
次に、図3のフローチャートを参照して、図2のステップS11における顔グループ化処理について説明する。なお、この処理は、動画像の先頭フレームから任意時間間隔で動画像全体に対して行われる。
顔グループ化部22は、ステップS31において、顔画像が検出されたか否かを判定する。ステップS31において顔画像が検出されたと判定された場合、処理は、ステップS32に進む。
ステップS32において、顔グループ化部22は、現在のグループ数が0より多いか否かを判定する。ステップS32において、現在のグループ数が1以上あると判定された場合、処理は、ステップS33に進む。
ステップS33において、顔グループ化部22は、グループ毎に類似度評価を行う。すなわち、顔グループ化部22は、既存のグループに登録されている顔画像と、いま検出された顔画像との類似度を評価する。
ステップS34において、顔グループ化部22は、各グループの中で求めた最も大きい類似度(最大類似度)が閾値より大きいか否かを判定する。ステップS34において、最大類似度が閾値より大きいと判定された場合、処理は、ステップS35に進む。
ステップS35において、顔グループ化部22は、その最大類似度であるグループに、検出された顔画像を追加する。すなわち、顔グループ化部22は、検出された顔画像が、最大類似度が求まったグループに登録されている顔と同一人物の顔であるとして、検出された顔画像を、そのグループのメンバーとして追加する。
一方、ステップS32において、現在のグループ数が0であると判定された場合、処理は、ステップS36に進む。また、ステップS34において、最大類似度が閾値以下であると判定された場合も、検出された顔画像が、どのグループの顔とも別人であるとして、ステップS36に進む。ステップS36において、顔グループ化部22は、新たな顔グループを生成し、検出された顔画像をメンバーとして追加する。
ステップS31において、顔画像が検出されていないと判定された場合、処理は、ステップS37に進む。ステップS37において、顔グループ化部22は、動画像を構成する全てのフレームについて終了したか否かを判定する。
ステップS37において、全てのフレームについて終了していないと判定された場合、処理は、ステップS31に戻り、任意時間間隔のフレームで、それ以降の処理が繰り返される。ステップS37において、全てのフレームについて終了したと判定された場合、顔グループ化処理は終了され、処理は、図2のステップS11に戻る。
なお、顔グループ化の処理は、図3を参照して説明した処理に限定されず、グループ化できればどのような方法を用いてもよい。また、この顔グループ化処理において、図15以降を参照して後述される個人識別機能を用いて、各グループに対応する人物名を割り当てるようにしてもよい。
さらに、上記説明においては、任意時間間隔のフレームで処理を行う例を説明したが、フレーム単位であってもよい。
[人物間相関度取得部の構成例]
図4は、図1の人物間相関度取得部の構成例を示す図である。
図4の例においては、人物間相関度取得部23は、出現区間取得部51、同時出現区間取得部52、および遷移出現区間取得部53を含むように構成されている。
出現区間取得部51は、動画像ファイルから、顔グループ化部22によりグループ化された顔グループ毎に出現区間を求め、求めた出現区間情報を、同時出現区間取得部52および遷移出現区間取得部53に供給する。
同時出現区間取得部52は、出現区間取得部51により求められた顔グループ毎の出現区間に基づいて、複数の人物(顔グループ)が同時に出現する頻度を求め、求められた頻度から人物間の相関度データを取得する。また、同時出現区間取得部52は、出現区間取得部51により求められた顔グループ毎の出現区間に基づいて、顔グループ毎の重要度データも取得する。
遷移出現区間取得部53は、複数の人物が時間的に遷移して登場する頻度を求め、求められた頻度などから人物間の相関度データを取得する。なお、時間的に遷移して登場する場面とは、2人の人物の対談シーンのように、2人の顔が交互に登場する場面、例えば、2つのカメラでそれぞれ1人の話者を撮影し、話し手が変わるとカメラが切り替わるような場面などを意味している。
同時出現区間取得部52により取得された人物間の相関度データおよび重要度データ、並びに、遷移出現区間取得部53により取得された人物間の相関度データは、動画像ファイルとともに、人物間相関度データベース24および表示制御部25に供給される。
[出現区間の例]
図5は、映像ファイルにおける人物の出現区間の例を示す図である。
人物aは、映像ファイルにおいて、タイミングt0乃至t1の区間S0、タイミングt1乃至t2の区間S1、タイミングt3乃至t4の区間S3、タイミングt6乃至t7の区間S6、およびタイミングt8乃至t9の区間S8で出現している。
人物bは、映像ファイルにおいて、タイミングt0乃至t1の区間S0、およびタイミングt4乃至t5の区間S4で出現している。
人物cは、映像ファイルにおいて、タイミングt4乃至t5の区間S4、タイミングt5乃至t6の区間S5、タイミングt7乃至t8の区間S8、およびタイミングt9乃至t10の区間S9で出現している。
以上のような出現区間において、人物aと人物bが同時に出現する区間である同時出現区間は、区間S0であり、人物bと人物cとの同時出現区間は、区間S4である。
一方、人物aと人物cとが交互に出現する区間である遷移出現区間は、区間S3乃至S9である。
[人物間相関度取得処理の例]
次に、図6のフローチャートを参照して、図2のステップS12における人物間相関度取得処理について説明する。
ステップS51において、出現区間取得部51は、動画像ファイルから、顔グループ化部22によりグループ化された顔グループ(すなわち、人物)毎に出現区間を取得する。
ステップS52において、出現区間取得部51は、各出現区間の開始位置、終了位置で、区間を分割する。出現区間取得部51は、開始位置および終了位置を含む出現区間の情報を、同時出現区間取得部52および遷移出現区間取得部53に供給する。
ステップS53において、同時出現区間取得部52は、同時出現区間取得処理を行う。この同時出現区間取得処理は、図7を参照して後述するが、ステップS53の処理により、人物毎の重要度データ、および同時出現区間における相関度データが取得され、取得されたデータが、人物間相関度データベース24および表示制御部25に供給される。
ステップS54において、遷移出現区間取得部53は、遷移出現区間取得処理を行う。この遷移出現区間取得処理は、図8を参照して後述するが、ステップS54の処理により、遷移出現区間における相関度データが取得され、取得されたデータが、人物間相関度データベース24および表示制御部25に供給される。
ステップS54の後、人物間相関度取得処理は終了され、処理は、図2のステップS12に戻る。
[同時出現区間取得処理の例]
次に、図7のフローチャートを参照して、図6のステップS53における同時出現区間取得処理について説明する。この処理においては、図5における先頭区間S0から順に対象区間として顔が出現するかが判定される。
ステップS71において、同時出現区間取得部52は、対象区間における顔の数が0より多いか否かを判定する。ステップS71において、顔の数が1以上であると判定された場合、処理は、ステップS72に進む。
ステップS72において、同時出現区間取得部52は、顔(人物)毎の重要度データを取得する。ここで、重要度データとして、対象区間の長さ、対象区間内における顔の大きさ、出現位置の平均値、同時に登場する人物数の平均値などが取得される。
ステップS73において、同時出現区間取得部52は、同一区間に別の人物が存在するか否かを判定する。ステップS73において、同一区間に別の人物が存在すると判定された場合、処理は、ステップS74に進む。
ステップS74において、同時出現区間取得部52は、顔組み合わせ毎の相関度データを取得する。すなわち、ステップS74においては、人物間の相関度データとして、対象区間の長さ、両者の顔の大きさの比率、両者の顔の距離、同時に登場する人物数それぞれの平均値が取得される。
ステップS71において、顔の数が0であると判定された場合、ステップS72乃至S74はスキップされ、処理は、ステップS75に進む。また、ステップS73において同一区間に別の人物が存在しないと判定された場合、ステップS74はスキップされ、処理は、ステップS75に進む。
ステップS75において、同時出現区間取得部52は、全区間終了したか否かを判定する。ステップS75において、全区間終了していないと判定された場合、処理は、ステップS76に進む。ステップS76において、同時出現区間取得部52は、対象区間を、次の区間に更新し、処理は、ステップS71に戻り、更新された区間について、それ以降の処理が繰り返される。
以上のようにして、複数の人物が同時に登場する頻度等から相関度データが取得され、さらに、人物毎の登場頻度などから重要度データが取得される。
[人物間相関度取得処理の例]
次に、図8のフローチャートを参照して、図6のステップS54における遷移出現区間取得処理について説明する。
ステップS91において、遷移出現区間取得部53は、顔グループAに、顔グループ群内の1グループを設定する。
ステップS92において、遷移出現区間取得部53は、顔グループBに、顔グループAに設定された顔グループ以外の顔グループを設定する。
ステップS93において、遷移出現区間取得部53は、指定グループ間遷移頻度取得処理を行う。この指定グループ間遷移頻度取得処理については、図9を参照して後述される。ステップS93の処理により、顔グループAと顔グループBの間における遷移頻度に基づく、相関度データが取得される。
ステップS94において、遷移出現区間取得部53は、顔グループBについての処理が終了したか否かを判定する。ステップS94において、顔グループBについての処理が終了していないと判定された場合、処理は、ステップS92に戻り、他の顔グループが、顔グループBに設定され、それ以降の処理が繰り返される。
顔グループBに、顔グループAに設定された顔グループ以外のすべての顔グループを設定しての処理が終了した場合、処理は、ステップS95に進む。
ステップS95において、遷移出現区間取得部53は、顔グループAについての処理が終了したか否かを判定する。ステップS95において、顔グループAについての処理が終了していないと判定された場合、処理は、ステップS91に戻り、他の顔グループが、顔グループAに設定され、それ以降の処理が繰り返される。
顔グループAに、すべての顔グループを設定しての処理が終了した場合、遷移出現区間取得処理は終了され、処理は、図6のステップS54に戻る。
[遷移頻度取得処理の例]
次に、図9のフローチャートを参照して、図8のステップS93の遷移頻度取得処理について説明する。
遷移出現区間取得部53は、ステップS111において、先頭区間(例えば、図5の区間S0)に移動する。ステップS112において、遷移出現区間取得部53は、顔グループA登場フラグ=0,顔グループB登場フラグ=0とする。
ステップS113において、遷移出現区間取得部53は、対象区間において、顔グループAおよびBが両方とも登場したか否かを判定する。ステップS113において、顔グループAおよびBが両方とも登場していないと判定された場合、処理は、ステップS114に進む。
ステップS114において、遷移出現区間取得部53は、対象区間が、顔グループAが登場している区間であるか否かを判定する。ステップS114において、対象区間が、顔グループAが登場している区間であると判定された場合、処理は、ステップS115に進む。ステップS115において、遷移出現区間取得部53は、顔グループA登場フラグを1とする。
ステップS114において、対象区間が、顔グループAが登場している区間ではないと判定された場合、処理は、ステップS116に進む。ステップS116において、遷移出現区間取得部53は、対象区間が、顔グループBが登場している区間であるか否かを判定する。ステップS116において、対象区間が、顔グループBが登場している区間であると判定された場合、処理は、ステップS117に進む。ステップS117において、遷移出現区間取得部53は、顔グループB登場フラグを1とし、処理は、ステップS118に進む。
ステップS118において、遷移出現区間取得部53は、開始区間が未設定であるか否かを判定する。ステップS118において、開始区間が未設定であると判定された場合、処理は、ステップS119に進む。ステップS119において、遷移出現区間取得部53は、開始区間を設定する。すなわち、対象区間が開始区間として設定され、処理は、ステップS124に進む。
ステップS118において、開始区間が未設定ではない、すなわち、設定されていると判定された場合、処理は、ステップS124に進む。
また、ステップS116において、対象区間が、顔グループBが登場している区間ではないと判定された場合、処理は、ステップS120に進む。ステップS120において、遷移出現区間取得部53は、顔グループA,B登場フラグが両方とも1であるか否かを判定する。ステップS120において、顔グループA,B登場フラグが両方とも1であると判定された場合、処理は、ステップS121に進む。
ステップS121において、遷移出現区間取得部53は、終了区間を設定する。すなわち、対象区間のひとつ前の区間が終了区間として設定される。
ステップS122において、遷移出現区間取得部53は、開始、終了区間の間の相関度データを取得する。すなわち、ステップS122においては、2人の人物間の相関度データとして、開始区間乃至終了区間の長さ、両者の顔の大きさの比率、両者の顔の位置関係、同時に登場する人物数それぞれの平均値などが取得され、処理は、ステップS123に進む。
また、ステップS120において、遷移出現区間取得部53は、顔グループA,B登場フラグが両方とも1ではないと判定された場合、処理は、ステップS123に進む。ステップS123において、遷移出現区間取得部53は、顔グループA,B登場フラグを両方とも0にして、処理は、ステップS124に進む。
ステップS124において、遷移出現区間取得部53は、対象区間が、映像ファイルの最終区間であるか否かを判定する。ステップS124において、最終区間であると判定された場合、図9の遷移頻度取得処理は終了し、図8のステップS93に戻る。
ステップS124において、最終区間ではないと判定された場合、処理は、ステップS125に進む。ステップS125において、遷移出現区間取得部53は、対象区間を更新し、すなわち、対象区間を、次の区間に移動させて、処理は、ステップS113に戻り、それ以降の処理が繰り返される。
以上のようにして、複数の人物が時間的に遷移して登場する頻度などから、相関度データが取得される。
<2.実施の形態(表示例)>
[人物間相関図の表示例]
図10は、上述したようにして取得された人物間の相関度データに基づいて生成され、表示される人物間相関図の例を示す図である。
図10の例においては、人物間相関図101が示されている。人物間相関図101には、図5に示した人物aの顔画像A、人物bの顔画像B、人物cの顔画像Cが表示されている。これらの顔画像A乃至Cは、顔グループ化部22により取得された各顔グループの代表の顔画像である。図10の例において、顔画像Cは、顔画像Bよりも大きく、顔画像Aよりも小さく表されている。
これらの顔画像A乃至Cの大きさは、出現頻度などに応じて変わるようになっている。すなわち、これらの顔画像A乃至Cの大きさは、同時出現区間取得部52により取得された人物毎の重要度を示すデータに基づいて決定される。例えば、顔画像A乃至Cの大きさは、動画像の全長に対する対象顔の登場時間の割合や、これに加えて、登場時の顔の大きさ、顔の位置(どれだけ真ん中にあるかなど)、同時登場する人物数などに応じた値などから決定するようにしてもよい。さらに、登場時の顔の向きや、話をしている時間の長さなどの情報も用いるようにしてもよい。
また、人物間相関図101において、顔画像A乃至Cの各顔画像の間には、人物間の関係を表すライン(以下、このラインのことを、リンクと称する)ab、bc、caが表示されている。これらのリンクの幅は、同時に登場する頻度などに応じて変わるようになっている。すなわち、顔画像Aと顔画像Bとの間に表示されるリンクabは、普通のリンク幅で表わされている。顔画像Bと顔画像Cとの間に表示されるリンクbcは、リンクabよりも細いリンク幅で表わされている。顔画像Cと顔画像Aとの間に表示されているリンクcaは、リンクabよりも太いリンク幅で表わされている。
これらのリンク幅の太さは、同時出現区間取得部52および遷移出現区間取得部53により取得された人物間の相関度データに基づいて決定される。例えば、リンク幅の太さは、動画像の全長に対する2人の人物の登場時間の割合や、これに加えて登場時の顔の大きさ、顔の位置、同時に登場する人物数などに応じた値などから決定するようにしてもよい。
以上のような人物間相関図を表示することで、動画像内の人物関係や重要人物を一目で把握することができる。
[人物間相関図の他の表示例]
図11は、人物間相関図の他の例を示す図である。
図10の人物相関図101は、動画像内の人物相関を1つに代表させて表示したものであったが、図11の人物間相関図102−1乃至102−3は、動画像内の時間推移と共に人物相関がどのように変わるかをわかりやすくするために動画像表示されている。なお、人物間相関図102−1乃至102−3において、リンクab、リンクbc、およびリンクcaについては、図10を参照して上述した太さで表わされているが、リンクも、時間推移と共に相関度が変わることで、その太さも変わるようにしてもよい。
例えば、ある時刻における人物間の相関を表すものとして、人物間相関図102−1が表示される。人物aと人物bしか動画像内に出現しないので、人物間相関図102−1には、人物aに対応する顔画像Aと、人物bに対応する顔画像Bと、それらの関係性を示すリンクabだけが表示されている。
ある時刻から所定の時間間隔だけ後においては、その時刻における人物間の相関を表すものとして、人物間相関図102−1が、人物間相関図102−2が遷移される。人物a乃至人物cが動画像内に出現するので、人物間相関図102−2には、人物aに対応する顔画像A、人物bに対応する顔画像B、および人物cに対応する顔画像Cと、それらの関係性を示すリンクab、リンクbc、およびリンクcaが表示されている。
さらに、ある時刻から所定の時間間隔の2倍だけ後においては、その時刻における人物間の相関を表すものとして、人物間相関図102−2が、人物間相関図102−3に遷移される。人物aと人物cしか動画像内に出現しないので、人物間相関図102−3には、人物aに対応する顔画像Aと、人物cに対応する顔画像Cと、それらの関係性を示すリンクcaだけが表示されている。
なお、この場合、同時出現区間取得部52および遷移出現区間取得部53において、任意の時間間隔毎の人物間の相関度を取得すればよい。
また、動画像内の時間推移ではなく、例えば、ユーザが所有する複数の動画像の撮影時刻、あるいは、放送時刻に基づいて、時間別の人物間相関度を求めることもできる。この場合は、動画像毎に人物間相関度を求めるのではなく、複数の動画像から1つの人物間相関度を求めることになる。
以上のような人物間相関図を表示することで、動画像内の時間推移と共に人物相関がどのように変わるかがわかりやすくなる。
図11の例においては、人物間相関の時間遷移を動画像表示させる例を説明したが、図12に示されるように、人物間相関の時間遷移をタイムライン表示させることも可能である。
[人物間相関図の他の表示例]
図12は、人物間相関図の他の例を示す図である。
図12の例においては、人物間相関の時間遷移をタイムライン表示させた人物間相関図111が示されている。すなわち、図12の人物間相関図111においては、図5を参照して上述した場合における人物毎の登場区間がタイムライン上にマーキング(ハッチング)されており、同時登場する人物の顔画像が、そのマーキング領域(ハッチング領域)上に表示されている。
なお、図12の例における同時登場とは、画面内に同時に登場(出現)する場合だけでなく、時間遷移で登場する場合も含まれている。このように時間遷移で登場する場合も含める際には、図12においては同時に登場する区間と同様に表示させているが、視認性を向上させるために、同時登場(出現)区間と遷移登場区間とでマーキングの色や、顔画像の色などを変えて表示させてもよい。
具体的には、人物間相関図111においては、上から順に、人物aに対応する顔画像Aが左端に表示されており、その右側に、人物aの登場区間がマーキング(ハッチング)されて表示されている。次に、人物bに対応する顔画像Bが左端に表示されており、その右側に、人物bの登場区間がマーキング(ハッチング)されて表示されている。最後に、人物cに対応する顔画像Cが左端に表示されており、その右側に、人物cの登場区間がマーキング(ハッチング)されて表示されている。
タイミングt0乃至t1の区間S0においては、人物aと人物bとが同時出現しているが、その前後の区間には遷移出現はない。したがって、区間S0においては、人物aの登場区間を示すハッチング領域上に、人物bの顔画像Bが表示されており、人物bの登場区間を示すハッチング領域上に、人物aの顔画像Aが表示されている。
タイミングt1乃至t2の区間S1においては、人物aしか出現しておらず、その前後の区間には遷移出現はない。したがって、区間S1においては、人物aの登場区間を示すハッチング領域だけ表示されている。
タイミングt2乃至t3の区間S2においては、人物は出現しておらず、その前後の区間には、遷移出現もない。したがって、区間S2においては、何も表示されていない。
タイミングt3乃至t4の区間S3においては、人物aしか出現していないが、その後の区間に人物bと人物cの遷移出現がある。したがって、区間S3においては、人物aの登場区間を示すハッチング領域上に、人物bの顔画像Bと人物cの顔画像Cが表示されている。
タイミングt4乃至t5の区間S4においては、人物bと人物cが出現しているが、その前の区間に人物aの遷移出現がある。したがって、区間S4においては、人物bの登場区間を示すハッチング領域上に、人物aの顔画像A(遷移)と人物cの顔画像C(同時)が表示されている。また、区間S4においては、人物cの登場区間を示すハッチング領域上に、人物aの顔画像A(遷移)と人物bの顔画像B(同時)が表示されている。
タイミングt5乃至t6の区間S5においては、人物cが出現しているが、その後の区間に人物aの遷移出現がある。したがって、区間S5においては、人物cの登場区間を示すハッチング領域上に、人物aの顔画像A(遷移)が表示されている。
タイミングt6乃至t7の区間S6においては、人物aが出現しているが、その前後の区間に人物cの遷移出現がある。したがって、区間S6においては、人物aの登場区間を示すハッチング領域上に、人物cの顔画像C(遷移)が表示されている。
タイミングt7乃至t8の区間S7においては、人物cが出現しているが、その前後の区間に人物aの遷移出現がある。したがって、区間S7においては、人物aの登場区間を示すハッチング領域上に、人物aの顔画像A(遷移)が表示されている。
タイミングt8乃至t9の区間S8においては、人物aが出現しているが、その前後の区間に人物cの遷移出現がある。したがって、区間S8においては、人物aの登場区間を示すハッチング領域上に、人物cの顔画像C(遷移)が表示されている。
タイミングt9乃至t10の区間S9においては、人物cが出現しているが、その前後の区間に人物aの遷移出現がある。したがって、区間S9においては、人物aの登場区間を示すハッチング領域上に、人物aの顔画像A(遷移)が表示されている。
以上のように、人物間相関の時間推移をタイムライン表示するだけでもよいが、人物毎の登場区間をタイムライン上にマーキングし、さらに、同時登場する人物の顔画像を表示することで、誰と一緒に写っているところかがわかりやすくなる。
[人物間相関図の他の表示例]
図13は、人物間相関図のさらに他の例を示す図である。
図13の例においては、人物間相関の時間遷移をタイムライン表示させた人物間相関図121が示されている。すなわち、図13の人物間相関図121においては、図5を参照して上述した場合における人物および人物の組み合わせ毎の登場区間がタイムライン上にマーキングされて表示されている。
具体的には、人物間相関図121においては、上から順に、人物aの顔画像Aが左端に表示されており、その右側に人物aの登場区間がマーキング(ハッチング)されて表示されている。次に、人物aの顔画像Aと人物bの顔画像Bが左端に表示されており、その右側に人物aと人物bの組み合わせの登場区間がマーキング(ハッチング)されて表示されている。最後に、人物aの顔画像Aと人物cの顔画像Cが左端に表示されており、その右側に人物aと人物cの組み合わせの登場区間がマーキング(ハッチング)されて表示されている。
タイミングt0乃至t1の区間S0およびt3乃至t4の区間S3においては、人物aと人物bとが同時出現しているため、人物aの顔画像Aおよび人物bの顔画像Bの右側の区間S0および区間S4がハッチングされている。タイミングt1乃至t2の区間S1においては、人物aだけが出現しているため、人物aの顔画像Aの右側の区間S1がハッチングされている。
しかしながら、図13の例の場合、図5に示すタイムライン上に人物aと人物cとか同時出現していないので、人物aの顔画像Aと人物cの顔画像Cの右側のどの区間もハッチングされていない。
以上のように、人物毎のタイムラインだけでなく、人物の組み合わせ毎にタイムラインを用意して、その組み合わせで登場する時間帯をマーキングするようにしたので、人物間相関を把握しやすくなる。
なお、他の人物間相関図の例としては、例えば、指定人物を年代別に分けて、年代別人物間相関図を用いることも可能である。これにより、時間経過とともに変わる人間関係を認識しやすい人物間相関図を提供することが可能となる。
また、登場する顔の数に応じて、タイムラインの高さを変えるとともに、その時間帯に同時に登場する人物の顔画像を表示させるようにしてもよい。
<3.実施の形態(変形例)>
[ダイジェスト生成、カット機能]
例えば、表示部27に表示される人物間相関図101において、ユーザが、操作入力部26を操作することで、顔画像A乃至顔画像Cのいずれかを選択する。この選択に対応して、ダイジェスト作成部29は、選択した人物のみが登場したシーンだけからなるダイジェストを生成し、再生を行うようにしてもよい。
あるいは、人物間相関図101において、ユーザが、操作入力部26を操作することで、顔画像A乃至Cの各顔画像の間の関係を表すリンクab、bc、およびcaのいずれかを選択する。この選択に対応して、ダイジェスト作成部29は、選択したリンクが示す複数の人物のみが登場したシーンだけからなるダイジェストを生成し、再生を行うようにしてもよい。
なお、上記説明したダイジェスト生成と同様に、選択した人物または複数人物のみがシーンにカット点を入れて、編集などに再利用しやすい形にすることも可能である。
[映像コンテンツ検索における人物間相関図表示処理]
次に、図14のフローチャートを参照して、情報処理装置11の映像コンテンツ検索における人物間相関図表示処理について説明する。図14の例においては、人物名をキーとした映像コンテンツ検索の際に、人物名が入力されると、その人物を中心とする人物間相関図を表示する例について説明する。
例えば、ユーザが操作入力部26を操作して、人名を入力する。入力された人名は、表示制御部25を介して、検索部28に供給される。これに対応して、検索部28は、ステップS141において、人物間相関度データベース24から相関度データを取得する。ここで、相関度データを取得する範囲は、ユーザが所有する全ての動画像であってもよいし、撮影時期や撮影場所で制限することも可能である。
検索部28は、ステップS142において、全相関度データに記載されている全人物の顔画像特徴量などを利用して、顔グループ化を行い、ステップS143において、各人物の重要度および人物間の相関度を取得する。検索部28は、取得した各人物の重要度および人物間の相関度を表示制御部25に供給する。
表示制御部25は、ステップS144において、取得した各人物の重要度および人物間の相関度に基づいて、キーとして入力された人名(人物)を中心とする人物間相関図を生成し、生成した人物間相関図を、表示部27に表示させる。
なお、以上の処理は、人名が入力される度に行う必要はなく、事前に行っておき、その結果を用いるようにしてもよい。
また、以上のように表示された人物間相関図において、その人物が選択されると、その人物が単独で登場しているシーンを検索するようにすることもできる。また、人物間相関図において、人物間の関係を示すリンクまたは複数の顔画像が選択されると、そのリンクの両端の人物や選択された複数の人物が共に登場しているシーンを検索するようにすることもできる。このようにすることで、検索の絞り込みを容易にすることができる。
さらに、図14の例においては、人名をキーとして入力する例を説明したが、その代わりに、ユーザが作成した人物間相関図をキーとして検索するようにしてもよい。すなわち、情報処理装置11において、人物相関図における顔画像の選択、選択した各顔の大きさ、人物間の関係を示すリンクの幅を設定することができるように構成する。そして、ユーザが作成した人物間相関図における設定された各顔の大きさやリンク幅を、各人物の重要度、各人物間の相関度に変換し、類似するコンテンツを検索するようにしてもよい。
また、人物名をキーとして映像コンテンツの検索を行った結果を提示する際に、映像内におけるその人物の重要度、もしくは複数の人物名をキーとした場合は、各人物の重要度およびそれら人物間の相関度の高い順に検索結果を提示するようにしてもよい。
[個人識別に利用する場合の構成例]
人物間相関度データベース24に登録されている人物間相関度を個人識別に利用することも可能である。図15は、この場合の情報処理装置11の構成例を示す図である。
図15の例において、情報処理装置11は、画像データ入力部21、人物間相関度データベース24、候補人物取得部221、個人識別用辞書データベース222、および人物決定部223を含むように構成されている。
情報処理装置11は、画像データ入力部21および人物間相関度データベース24を備える点は、図1の情報処理装置11と共通している。情報処理装置11は、顔グループ化部22、人物間相関度取得部23、表示制御部25、操作入力部26、および表示部27が除去された点が、図1の情報処理装置11と異なっている。また、情報処理装置11は、候補人物取得部221、個人識別用辞書データベース222、および人物決定部223が追加された点が、図1の情報処理装置11と異なっている。
すなわち、画像データ入力部21は、入力された画像データを、候補人物取得部221に供給する。候補人物取得部221は、画像内の人物毎に、個人識別用辞書データベース222内で類似性が高い人物のリストを取得し、取得したリストを、人物決定部223に供給する。
個人識別用辞書データベース222は、個人識別のために多数の人名と顔画像特徴量の組を登録している。
人物決定部223は、候補人物取得部221からのリストと、人物間相関度データベース24の相関度を用いて、人物を決定する。
[個人識別処理の例]
次に、図16のフローチャートを参照して、個人識別処理について説明する。例えば、画像データ入力部21により、入力された画像データが、候補人物取得部221に供給されると、この個人識別処理が開始される。
候補人物取得部221は、ステップS211において、候補人物取得処理を行う。すなわち、候補人物取得部221は、画像の指定のフレーム内に登場する全ての顔を検出し、検出した各顔に対して、個人識別用辞書データベース222を用いて、個人を特定する処理を行う。候補人物取得部221は、入力画像内の各顔に対して、個人識別用辞書データベース222内の全人物の顔画像特徴量との類似度を評価し、類似度が閾値より大きい場合は、各顔の候補人物としてリストに追加する。候補人物取得部221は、取得したリストを、人物決定部223に供給する。
人物決定部223は、ステップS212において、候補人物取得部221により取得された各顔のリストに基づいて、それぞれ人物を決定する処理を行う。この処理について、図17を参照して説明する。
図17の例においては、画面内に2つの顔が登場する場合の例が示されている。
顔(画像)Aの候補者が人物1と人物5の2人であることを示すリストと、顔(画像)Bの候補者が人物3、人物2、人物6の3人であることを示すリストとが、候補人物取得部221で取得される。
人物決定部223は、人物間相関度データベース24から顔Aと顔Bとのそれぞれの候補者間の相関度を取得する。なお、このとき取得される相関度は、同時出現区間取得部52により取得されたものであることが望ましい。
図17の例においては、顔Aが人物1で顔Bが人物3である場合の候補者間の相関度は、0.1であり、顔Aが人物5で顔Bが人物3である場合の候補者間の相関度は、0.0である。顔Aが人物1で顔Bが人物2である場合の候補者間の相関度は、0.2であり、顔Aが人物5で顔Bが人物2である場合の候補者間の相関度は、0.0である。顔Aが人物1で顔Bが人物6である場合の候補者間の相関度は、0.8であり、顔Aが人物5で顔Bが人物6である場合の候補者間の相関度は、0.3である。
この場合、人物1と人物6での組み合わせが最も相関度が高くなるので、人物決定部223は、顔Aが人物1で、顔Bが人物6であると決定する。人物決定部223は、このように、最終的な人物は、それぞれの組み合わせの中から最も相関度の大きい組み合わせを選択するように決定する。
また、図18に示されるように、組み合わせの決定には、人物毎の類似度を各組み合わせの相関度に乗じた値を用いてもよい。
図18の例においては、顔Aが人物1で顔Bが人物3である場合の候補者間の相関度は、0.1であり、人物1の類似度が0.9で、人物3の類似度が0.7である。したがって、顔Aが人物1で顔Bが人物3である場合の評価値は、0.1に、0.9と0.7とを乗じた値である0.063となる。顔Aが人物5で顔Bが人物3である場合の候補者間の相関度は、0.1であり、人物5の類似度が0.6で、人物3の類似度が0.7である。したがって、顔Aが人物1で顔Bが人物3である場合の評価値は、0.0に、0.7と0.6とを乗じた値である0.0となる。
顔Aが人物1で顔Bが人物2である場合の候補者間の相関度は、0.2であり、人物1の類似度が0.9で、人物2の類似度が0.6である。したがって、顔Aが人物1で顔Bが人物2である場合の評価値は、0.2に、0.9と0.6とを乗じた値である0.108となる。顔Aが人物5で顔Bが人物2である場合の候補者間の相関度は、0.0であり、人物5の類似度が0.6で、人物2の類似度が0.6である。したがって、顔Aが人物1で顔Bが人物2である場合の評価値は、0.0に、0.6と0.6とを乗じた値である0.0となる。
顔Aが人物1で顔Bが人物6である場合の候補者間の相関度は、0.8であり、人物1の類似度が0.9で、人物6の類似度が0.5である。したがって、顔Aが人物1で顔Bが人物6である場合の評価値は、0.8に、0.9と0.5とを乗じた値である0.36となる。顔Aが人物5で顔Bが人物6である場合の候補者間の相関度は、0.3であり、人物5の類似度が0.6で、人物6の類似度が0.8である。したがって、顔Aが人物1で顔Bが人物6である場合の評価値は、0.3に、0.6と0.8とを乗じた値である0.09となる。
人物決定部223は、このようにして、評価値を全組み合わせに対して求め、これらの評価値の最も高い組み合わせを選択するように決定する。図18の例の場合、人物1と人物6での組み合わせが最も評価値が高くなるので、人物決定部223は、顔Aが人物1で、顔Bが人物6であると決定する。
なお、図18の例においては、相関度に類似度を乗算する例を説明したが、相関度に類似度を組み合わせた評価値であれば、その組み合わせの計算は、乗算に限らない。
以上のように、個人識別に相関度を用いることにより、もっとも類似した人物を割り当てるため、偶然の一致による間違いが発生することがあった従来と比較して、個人識別の性能を向上させることができる。
以上のごとく、本技術によれば、複数の人物が画面内に同時に登場せずに、複数のカメラで個々に撮影され時間的に交互に登場するような場合においても、正しく人物間の相関度を取得することができる。さらに、それをもとに作成する人物間相関図は、コンテンツ内の人物の相関度をより正確に表したものとなる。したがって、コンテンツの内容理解の容易化を図ることができる。
例えば、特開2007−281680号公報においては、動画内に登場する人物の顔と登場区間を分かりやすくするための表示がなされることが記載されているが、この技術では、人物毎の登場区間はわかりやすくなるだけであった。これに対して、本技術によれば、人物間相関図が表示されるので、人物間の関係性を容易に理解することができる。
また、本技術によれば、単一動画像内の時間帯別や複数動画像の撮影時期別それぞれで指定人物を中心とする人物間相関図を表示することができるため、時間推移と共に変わる人間関係を容易に理解することができる。
さらに、本技術によれば、映像検索時のキー入力の補助として、人物間相関図を用いることで、操作性の向上を図ることができる。また、人物相関関係を用いることによって、検索結果表示の順番制御による検索精度向上を図ることができる。
また、本技術によれば、個人識別に人物相関情報を用いることで、個人識別の性能向上を図ることができる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
[コンピュータの構成例]
図19は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示している。
コンピュータ300において、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、及びドライブ310が接続されている。
入力部306は、キーボード、マウス、マイクロホンなどよりなる。出力部307は、ディスプレイ、スピーカなどよりなる。記憶部308は、ハードディスクや不揮発性のメモリなどよりなる。通信部309は、ネットワークインタフェースなどよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体311を駆動する。
以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体311に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本明細書において、上述した一連の処理を記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本開示における実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有するのであれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例また修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1) コンテンツからオブジェクトの一部を検出し、オブジェクト毎のグループ化を行うグループ化部と、
前記グループ化部によりグループ化が行われたオブジェクト間の相関度を算出する相関度算出部と、
前記相関度算出部により算出されたオブジェクト間の相関度に基づいて、オブジェクト間の相関を表すオブジェクト間相関図の表示を制御する表示制御部と
を備える情報処理装置。
(2) 前記相関度算出部は、
オブジェクト毎に出現区間を求める出現区間取得部と、
前記出現区間取得部により取得されたオブジェクト毎の出現区間に基づいて、複数のオブジェクトが同時に出現する頻度から相関度を求める同時出現相関度算出部と、
前記出現区間取得部により取得されたオブジェクト毎の出現区間に基づいて、複数のオブジェクトが時間的に遷移して出現する頻度から相関度を算出する遷移出現相関度算出部と
を備える前記(1)に記載の情報処理装置。
(3) 前記表示制御部は、前記同時出現相関度算出部および前記遷移出現相関度算出部により算出されたオブジェクト間の相関度に基づいて、前記オブジェクト間相関図におけるオブジェクト間の関係度を示すリンクの幅の表示を制御する
前記(1)または(2)に記載の情報処理装置。
(4) 前記同時出現相関度算出部は、前記出現区間取得部により取得されたオブジェクト毎の出現区間に基づいて、オブジェクト毎の重要度も算出し、
前記表示制御部は、前記同時出現相関度算出部により算出されたオブジェクト毎の重要度に基づいて、前記オブジェクト間相関図におけるオブジェクトを示すオブジェクト画像の大きさの表示を制御する
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5) 前記表示制御部は、前記同時出現相関度算出部および前記遷移出現相関度算出部により所定の時間間隔毎に算出されたオブジェクト間の相関度に基づいて、前記オブジェクト間相関図の動画表示を制御する
前記(1)または(2)に記載の情報処理装置。
(6) 前記表示制御部は、前記同時出現相関度算出部および前記遷移出現相関度算出部により所定の時間間隔毎に算出されたオブジェクト間の相関度に基づいて、前記オブジェクト間相関図のタイムライン上への表示を制御する
前記(1)または(2)に記載の情報処理装置。
(7) 前記表示制御部により表示が制御されたオブジェクト相関図におけるオブジェクト画像またはオブジェクト間の関係度を示すリンクの選択に応じて、選択されたオブジェクト画像または選択されたリンクで接続される複数オブジェクトが出現するシーンからなるコンテンツのダイジェストを作成するダイジェスト作成部を
さらに備える前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8) 前記表示制御部により表示が制御されたオブジェクト間相関図におけるオブジェクト画像またはオブジェクト間の関係度を示すリンクの選択に応じて、選択されたオブジェクト画像または選択されたリンクで接続される複数オブジェクトが出現するシーンにカット点を挿入するカット点挿入部をさらに備える
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(9) 前記同時出現相関度算出部および前記遷移出現相関度算出部により算出されたオブジェクト間の相関度を記憶する人物間相関度データベースを
さらに備える前記(1)乃至(8)のいずれかに記載の情報処理装置。
(10) オブジェクト名を入力する入力部と、
前記入力部により入力されたオブジェクト名に対応するオブジェクトの相関度を前記人物相関度データベースから検索する検索部とを
さらに備え、
前記表示制御部は、前記検索部により検索されたオブジェクトを中心とするオブジェクト間相関図の表示を制御する
前記(9)に記載の情報処理装置。
(11) 前記オブジェクト間相関図の設定を入力する入力部と、
前記入力部により入力されたオブジェクト間相関図の設定に対応するオブジェクトの相関度を前記人物相関度データベースから検索する検索部とを
さらに備える前記(9)に記載の情報処理装置。
(12) 画像内に登場する全ての顔を検出し、検出した顔に対して、前記人物相関度データベースを用いて類似度が大きい人物を追加していくことで、候補人物リストを取得する候補人物取得部と、
前記候補人物取得部により取得された候補人物リストを用いて、人物を決定する人物決定部と
をさらに備える前記(9)に記載の情報処理装置。
(13) 前記人物決定部は、前記候補人物取得部により取得された候補人物リストの相関度を評価値として、人物を決定する
前記(12)に記載の情報処理装置。
(14) 前記人物決定部は、前記候補人物取得部により取得された候補人物リストの相関度と人物毎の類似度とを組み合わせた値を評価値として、人物を決定する
前記(12)に記載の情報処理装置。
(15) 前記オブジェクトの一部は、顔画像であり、前記オブジェクトは、人物である
前記(1)乃至(14)のいずれかに記載の画像処理装置。
(16) 情報処理装置が、
コンテンツからオブジェクトの一部を検出し、オブジェクト毎のグループ化を行い、
グループ化が行われたオブジェクト間の相関度を算出し、
算出されたオブジェクト間の相関度に基づいて、オブジェクト間の相関を表すオブジェクト間相関図の表示を制御する
情報処理方法。
(17) コンピュータを、
コンテンツからオブジェクトの一部を検出し、オブジェクト毎のグループ化を行うグループ化部と、
前記グループ化部によりグループ化が行われたオブジェクト間の相関度を算出する相関度算出部と、
前記相関度算出部により算出されたオブジェクト間の相関度に基づいて、オブジェクト間の相関を表すオブジェクト間相関図の表示を制御する表示制御部と
して機能させるプログラム。
11 情報処理装置, 21 画像データ入力部, 22 顔グループ化部, 23 人物間相関度取得部, 24 人物間相関度データベース, 25 表示制御部, 26 操作入力部, 27 表示部, 28 検索部, 29 ダイジェスト作成部, 51 出現区間取得部, 52 同時出現区間取得部, 53 遷移出現区間取得部, 101,102−1乃至102−3,111,121 人物間相関図, 221 候補人物取得部, 222 個人識別用辞書データベース, 223 人物決定部

Claims (17)

  1. コンテンツからオブジェクトの一部を検出し、オブジェクト毎のグループ化を行うグループ化部と、
    前記グループ化部によりグループ化が行われたオブジェクト間の相関度を算出する相関度算出部と、
    前記相関度算出部により算出されたオブジェクト間の相関度に基づいて、オブジェクト間の相関を表すオブジェクト間相関図の表示を制御する表示制御部と
    を備える情報処理装置。
  2. 前記相関度算出部は、
    オブジェクト毎に出現区間を求める出現区間取得部と、
    前記出現区間取得部により取得されたオブジェクト毎の出現区間に基づいて、複数のオブジェクトが同時に出現する頻度から相関度を求める同時出現相関度算出部と、
    前記出現区間取得部により取得されたオブジェクト毎の出現区間に基づいて、複数のオブジェクトが時間的に遷移して出現する頻度から相関度を算出する遷移出現相関度算出部と
    を備える請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記同時出現相関度算出部および前記遷移出現相関度算出部により算出されたオブジェクト間の相関度に基づいて、前記オブジェクト間相関図におけるオブジェクト間の関係度を示すリンクの幅の表示を制御する
    請求項2に記載の情報処理装置。
  4. 前記同時出現相関度算出部は、前記出現区間取得部により取得されたオブジェクト毎の出現区間に基づいて、オブジェクト毎の重要度も算出し、
    前記表示制御部は、前記同時出現相関度算出部により算出されたオブジェクト毎の重要度に基づいて、前記オブジェクト間相関図におけるオブジェクトを示すオブジェクト画像の大きさの表示を制御する
    請求項2に記載の情報処理装置。
  5. 前記表示制御部は、前記同時出現相関度算出部および前記遷移出現相関度算出部により所定の時間間隔毎に算出されたオブジェクト間の相関度に基づいて、前記オブジェクト間相関図の動画表示を制御する
    請求項2に記載の情報処理装置。
  6. 前記表示制御部は、前記同時出現相関度算出部および前記遷移出現相関度算出部により所定の時間間隔毎に算出されたオブジェクト間の相関度に基づいて、前記オブジェクト間相関図のタイムライン上への表示を制御する
    請求項2に記載の情報処理装置。
  7. 前記表示制御部により表示が制御されたオブジェクト相関図におけるオブジェクト画像またはオブジェクト間の関係度を示すリンクの選択に応じて、選択されたオブジェクト画像または選択されたリンクで接続される複数オブジェクトが出現するシーンからなるコンテンツのダイジェストを作成するダイジェスト作成部を
    さらに備える請求項2に記載の情報処理装置。
  8. 前記表示制御部により表示が制御されたオブジェクト間相関図におけるオブジェクト画像またはオブジェクト間の関係度を示すリンクの選択に応じて、選択されたオブジェクト画像または選択されたリンクで接続される複数オブジェクトが出現するシーンにカット点を挿入するカット点挿入部を
    さらに備える請求項2に記載の情報処理装置。
  9. 前記同時出現相関度算出部および前記遷移出現相関度算出部により算出されたオブジェクト間の相関度を記憶する人物間相関度データベースを
    さらに備える請求項2に記載の情報処理装置。
  10. オブジェクト名を入力する入力部と、
    前記入力部により入力されたオブジェクト名に対応するオブジェクトの相関度を前記人物相関度データベースから検索する検索部とを
    さらに備え、
    前記表示制御部は、前記検索部により検索されたオブジェクトを中心とするオブジェクト間相関図の表示を制御する
    請求項9に記載の情報処理装置。
  11. 前記オブジェクト間相関図の設定を入力する入力部と、
    前記入力部により入力されたオブジェクト間相関図の設定に対応するオブジェクトの相関度を前記人物相関度データベースから検索する検索部とを
    さらに備える請求項9に記載の情報処理装置。
  12. 画像内に登場する全ての顔を検出し、検出した顔に対して、前記人物相関度データベースを用いて類似度が大きい人物を追加していくことで、候補人物リストを取得する候補人物取得部と、
    前記候補人物取得部により取得された候補人物リストを用いて、人物を決定する人物決定部と
    をさらに備える請求項9に記載の情報処理装置。
  13. 前記人物決定部は、前記候補人物取得部により取得された候補人物リストの相関度を評価値として、人物を決定する
    請求項12に記載の情報処理装置。
  14. 前記人物決定部は、前記候補人物取得部により取得された候補人物リストの相関度と人物毎の類似度とを組み合わせた値を評価値として、人物を決定する
    請求項12に記載の情報処理装置。
  15. 前記オブジェクトの一部は、顔画像であり、前記オブジェクトは、人物である
    請求項2に記載の情報処理装置。
  16. 情報処理装置が、
    コンテンツからオブジェクトの一部を検出し、オブジェクト毎のグループ化を行い、
    グループ化が行われたオブジェクト間の相関度を算出し、
    算出されたオブジェクト間の相関度に基づいて、オブジェクト間の相関を表すオブジェクト間相関図の表示を制御する
    情報処理方法。
  17. コンピュータを、
    コンテンツからオブジェクトの一部を検出し、オブジェクト毎のグループ化を行うグループ化部と、
    前記グループ化部によりグループ化が行われたオブジェクト間の相関度を算出する相関度算出部と、
    前記相関度算出部により算出されたオブジェクト間の相関度に基づいて、オブジェクト間の相関を表すオブジェクト間相関図の表示を制御する表示制御部と
    して機能させるプログラム。
JP2013008368A 2013-01-21 2013-01-21 情報処理装置および方法、並びにプログラム Pending JP2014139734A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013008368A JP2014139734A (ja) 2013-01-21 2013-01-21 情報処理装置および方法、並びにプログラム
CN201410015958.8A CN104050208A (zh) 2013-01-21 2014-01-14 信息处理装置、信息处理方法和程序
US14/157,595 US9361511B2 (en) 2013-01-21 2014-01-17 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013008368A JP2014139734A (ja) 2013-01-21 2013-01-21 情報処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2014139734A true JP2014139734A (ja) 2014-07-31

Family

ID=51207709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013008368A Pending JP2014139734A (ja) 2013-01-21 2013-01-21 情報処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US9361511B2 (ja)
JP (1) JP2014139734A (ja)
CN (1) CN104050208A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017037412A (ja) * 2015-08-07 2017-02-16 キヤノン株式会社 画像処理装置およびその制御方法、並びにプログラム
JP2019133566A (ja) * 2018-02-02 2019-08-08 オムロン株式会社 情報処理装置
JP2019219770A (ja) * 2018-06-15 2019-12-26 富士ゼロックス株式会社 情報処理装置及びプログラム
KR20200072238A (ko) * 2018-12-12 2020-06-22 인하대학교 산학협력단 동영상 내 인물 영역 추출 장치
JP2020160581A (ja) * 2019-03-25 2020-10-01 グローリー株式会社 顔情報管理システム、顔情報管理装置、顔情報管理方法、および、プログラム
JP2021013188A (ja) * 2018-09-06 2021-02-04 日本電気株式会社 方法、装置およびプログラム
JP7539685B2 (ja) 2020-04-01 2024-08-26 学校法人立命館 ストーリーの展開をユーザに提示する方法、ストーリー展開提示装置、そのコンピュータプログラム、ストーリーの展開を解析する方法、ストーリー展開解析装置、そのコンピュータプログラム
WO2024194936A1 (ja) * 2023-03-17 2024-09-26 マクセル株式会社 携帯情報端末及び仮想現実オブジェクトの表示方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102362489B (zh) * 2009-03-25 2014-08-27 富士通株式会社 再现控制程序、再现控制方法和再现装置
KR20140132171A (ko) * 2013-05-07 2014-11-17 삼성전자주식회사 터치용 펜을 이용하는 휴대 단말기 및 이를 이용한 필기 입력 방법
US9495761B2 (en) * 2013-11-04 2016-11-15 The Regents Of The University Of California Environment mapping with automatic motion model selection
JP2017010251A (ja) * 2015-06-22 2017-01-12 富士フイルム株式会社 画像抽出装置、画像抽出方法、プログラムおよび記録媒体
JP6533713B2 (ja) * 2015-07-31 2019-06-19 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
US9728229B2 (en) * 2015-09-24 2017-08-08 International Business Machines Corporation Searching video content to fit a script
JP6433928B2 (ja) * 2016-02-15 2018-12-05 株式会社東芝 検索装置、検索方法および検索システム
JP2018166314A (ja) * 2017-03-28 2018-10-25 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP7172472B2 (ja) * 2018-11-09 2022-11-16 富士通株式会社 ルール生成装置、ルール生成方法及びルール生成プログラム
CN111783507A (zh) * 2019-07-24 2020-10-16 北京京东尚科信息技术有限公司 目标搜索方法、装置及计算机可读存储介质
US11334752B2 (en) * 2019-11-19 2022-05-17 Netflix, Inc. Techniques for automatically extracting compelling portions of a media content item
WO2023277321A1 (en) 2021-06-30 2023-01-05 Samsung Electronics Co., Ltd. Method and electronic device for a slow motion video

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100215586B1 (ko) * 1992-11-09 1999-08-16 모리시타 요이찌 다이제스트 화상 자동생성 장치 및 다이제스트 화상 자동생성 방법
US6636635B2 (en) * 1995-11-01 2003-10-21 Canon Kabushiki Kaisha Object extraction method, and image sensing apparatus using the method
US6853389B1 (en) * 1999-04-26 2005-02-08 Canon Kabushiki Kaisha Information searching apparatus, information searching method, and storage medium
US7130466B2 (en) * 2000-12-21 2006-10-31 Cobion Ag System and method for compiling images from a database and comparing the compiled images with known images
JP3790680B2 (ja) * 2001-05-25 2006-06-28 株式会社東芝 画像処理システム及びこれを用いた運転支援システム
JP4481663B2 (ja) * 2004-01-15 2010-06-16 キヤノン株式会社 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム
US7283654B2 (en) * 2004-08-26 2007-10-16 Lumeniq, Inc. Dynamic contrast visualization (DCV)
JP4699476B2 (ja) * 2005-10-27 2011-06-08 三菱電機株式会社 映像要約装置
JP2007206919A (ja) * 2006-02-01 2007-08-16 Sony Corp 表示制御装置および方法、プログラム、並びに記録媒体
JP4388939B2 (ja) * 2006-09-25 2009-12-24 富士フイルム株式会社 画像再生装置ならびにその制御方法およびその制御プログラム
JP2008085632A (ja) * 2006-09-27 2008-04-10 Toshiba Corp カメラ装置およびカメラ装置におけるタイトル編集方法
JP4456617B2 (ja) * 2007-04-16 2010-04-28 富士通株式会社 類似分析装置、画像表示装置、および画像表示プログラム
EP2242253B1 (en) * 2008-02-06 2019-04-03 Panasonic Intellectual Property Corporation of America Electronic camera and image processing method
JP4475547B2 (ja) * 2008-07-29 2010-06-09 パナソニック株式会社 画像検索装置、画像検索方法及び画像推定装置
IL197996A (en) * 2009-04-05 2014-07-31 Rafael Advanced Defense Sys A method for locating people
US8428354B2 (en) * 2009-06-23 2013-04-23 Los Alamos National Security, Llc Image segmentation by hierarchial agglomeration of polygons using ecological statistics
JP4846071B2 (ja) * 2010-02-10 2011-12-28 パナソニック株式会社 画像評価装置、画像評価方法、プログラム、集積回路
JP2011223287A (ja) * 2010-04-09 2011-11-04 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US8705813B2 (en) * 2010-06-21 2014-04-22 Canon Kabushiki Kaisha Identification device, identification method, and storage medium
JP5753966B2 (ja) * 2010-08-05 2015-07-22 パナソニックIpマネジメント株式会社 顔画像登録装置および方法
US8885944B2 (en) * 2011-02-17 2014-11-11 Panasonic Intellectual Property Corporation Of America Image evaluation device, image evaluation method, program, integrated circuit
JP5703898B2 (ja) * 2011-03-30 2015-04-22 富士通株式会社 帳票管理システム、帳票画像管理方法、及びプログラム
JP5751898B2 (ja) * 2011-04-05 2015-07-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム及び記憶媒体
JP5693369B2 (ja) * 2011-05-13 2015-04-01 キヤノン株式会社 情報処理装置、その制御方法及びコンピュータプログラム
JP5791364B2 (ja) * 2011-05-16 2015-10-07 キヤノン株式会社 顔認識装置、顔認識方法、顔認識プログラム、およびそのプログラムを記録した記録媒体
CN103718172A (zh) * 2011-09-21 2014-04-09 株式会社尼康 图像处理装置、程序、图像处理方法及摄像装置
JP5939705B2 (ja) * 2012-02-08 2016-06-22 カシオ計算機株式会社 被写体判定装置、被写体判定方法及びプログラム
JP6026119B2 (ja) * 2012-03-19 2016-11-16 株式会社東芝 生体情報処理装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017037412A (ja) * 2015-08-07 2017-02-16 キヤノン株式会社 画像処理装置およびその制御方法、並びにプログラム
JP2019133566A (ja) * 2018-02-02 2019-08-08 オムロン株式会社 情報処理装置
WO2019150954A1 (ja) * 2018-02-02 2019-08-08 オムロン株式会社 情報処理装置
JP7176242B2 (ja) 2018-06-15 2022-11-22 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP2019219770A (ja) * 2018-06-15 2019-12-26 富士ゼロックス株式会社 情報処理装置及びプログラム
JP7302566B2 (ja) 2018-09-06 2023-07-04 日本電気株式会社 方法、装置およびプログラム
JP2021013188A (ja) * 2018-09-06 2021-02-04 日本電気株式会社 方法、装置およびプログラム
JP7494967B2 (ja) 2018-09-06 2024-06-04 日本電気株式会社 映像処理プログラム、映像処理方法、及び映像処理装置
KR102179591B1 (ko) 2018-12-12 2020-11-17 인하대학교 산학협력단 동영상 내 인물 영역 추출 장치
KR20200072238A (ko) * 2018-12-12 2020-06-22 인하대학교 산학협력단 동영상 내 인물 영역 추출 장치
JP2020160581A (ja) * 2019-03-25 2020-10-01 グローリー株式会社 顔情報管理システム、顔情報管理装置、顔情報管理方法、および、プログラム
JP7356244B2 (ja) 2019-03-25 2023-10-04 グローリー株式会社 顔情報管理システム、顔情報管理方法、および、プログラム
JP7539685B2 (ja) 2020-04-01 2024-08-26 学校法人立命館 ストーリーの展開をユーザに提示する方法、ストーリー展開提示装置、そのコンピュータプログラム、ストーリーの展開を解析する方法、ストーリー展開解析装置、そのコンピュータプログラム
WO2024194936A1 (ja) * 2023-03-17 2024-09-26 マクセル株式会社 携帯情報端末及び仮想現実オブジェクトの表示方法

Also Published As

Publication number Publication date
US20140205158A1 (en) 2014-07-24
US9361511B2 (en) 2016-06-07
CN104050208A (zh) 2014-09-17

Similar Documents

Publication Publication Date Title
JP2014139734A (ja) 情報処理装置および方法、並びにプログラム
CN109688463B (zh) 一种剪辑视频生成方法、装置、终端设备及存储介质
EP3852003A1 (en) Feature point locating method, storage medium and computer device
EP2896043B1 (en) Inter-stream audio/video synchronisation of social media
CN112954450B (zh) 视频处理方法、装置、电子设备和存储介质
WO2020056903A1 (zh) 用于生成信息的方法和装置
KR102094506B1 (ko) 피사체 추적 기법을 이용한 카메라와 피사체 사이의 거리 변화 측정방법 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 거리 변화 측정 장치.
CN110035329A (zh) 图像处理方法、装置及存储介质
US9549162B2 (en) Image processing apparatus, image processing method, and program
CN110472558B (zh) 图像处理方法和装置
WO2019128742A1 (zh) 图像处理方法、装置、终端及存储介质
WO2019062631A1 (zh) 一种局部动态影像生成方法及装置
US12087090B2 (en) Information processing system and information processing method
CN116132711A (zh) 用于生成视频模板的方法、装置和电子设备
US9224069B2 (en) Program, method and apparatus for accumulating images that have associated text information
KR20230088332A (ko) 데이터 어노테이션 방법, 장치, 시스템, 기기 및 저장 매체
US9036921B2 (en) Face and expression aligned movies
JP2014197342A (ja) 物体位置検出装置、物体位置検出方法、及びプログラム
JP2021111228A (ja) 学習装置、学習方法、及びプログラム
US11042274B2 (en) Extracting demonstrations from in-situ video content
KR100981125B1 (ko) 동영상 처리 방법 및 그 장치
KR20200144244A (ko) 전자 문서에 삽입된 차트 이미지에서 차트 영역과 범례 영역에 대한 자동 매칭을 가능하게 하는 전자 장치 및 그 동작 방법
JP2017004052A (ja) 学習装置、方法及びプログラム
JP2016045744A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2020129763A (ja) 動画再生装置、動画再生方法及びプログラム