[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5169403B2 - 画像信号生成装置、画像信号生成方法、プログラム及び記憶媒体 - Google Patents

画像信号生成装置、画像信号生成方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
JP5169403B2
JP5169403B2 JP2008099567A JP2008099567A JP5169403B2 JP 5169403 B2 JP5169403 B2 JP 5169403B2 JP 2008099567 A JP2008099567 A JP 2008099567A JP 2008099567 A JP2008099567 A JP 2008099567A JP 5169403 B2 JP5169403 B2 JP 5169403B2
Authority
JP
Japan
Prior art keywords
image
content
attribute
image signal
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008099567A
Other languages
English (en)
Other versions
JP2009251303A (ja
Inventor
哲二郎 近藤
良拓 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008099567A priority Critical patent/JP5169403B2/ja
Priority to US12/391,743 priority patent/US8289315B2/en
Publication of JP2009251303A publication Critical patent/JP2009251303A/ja
Application granted granted Critical
Publication of JP5169403B2 publication Critical patent/JP5169403B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像信号生成装置、画像信号生成方法、並びにその生成方法を実行するプログラム、さらにそのプログラムを格納した記憶媒体に関し、特に多数の画像を並べて表示する場合に適用される技術に関する。
近年、複数のディスプレイから構成されるマルチディスプレイなどの表示装置を用いて、複数の画像を同時に表示したり、複数の表示装置に1つの画像を分割して表示したりして情報呈示することが行われている。また、1台の表示装置のみで表示する場合であっても、表示画面の大型化に伴って、その1台の表示装置の表示画面を分割して、複数の画像を並べて表示させることも行われている。このように、複数の画像を同時に並べて表示することで、多機能な表示を実現することができる。
特許文献1には、複数の表示装置によって、拡大された画像を表示できる表示装置の例についての開示がある。
特開2003−198989号公報
ところで、人間の視野には、「中心視」と「周辺視」という二つの視野領域がある。このうち、「中心視」は、人間の視野の中心点に近い領域で、図形認識や色の認識などについて詳細な識別が可能である。一方、「周辺視」は中心視野の周囲にあり、中心視に比べて知覚性能は劣る。そのため、ユーザは、多数の画面に画像を表示して同時に見る場合、注視している画面の画像の情報は認識できるが、周辺の画像については、詳細な情報は十分には理解できない。なお、ユーザの周辺視で認識可能な視野範囲を周辺視領域と称す。
このように、複数の画像を同時表示する場合、それらの画像を見ているユーザにとっては、どの画面にどのようなコンテンツが表示されているかは、一目では分からない。そのため、ユーザが目的のコンテンツを探索するのに時間がかかるという問題がある。また、ユーザが見たいコンテンツの探索に時間がかかることで、情報の取り逃しが発生することもある。
本発明は上記課題に鑑みてなされたものであり、複数の画像を同時表示する場合に、情報の取り逃しを防止し、ユーザが欲しい情報を効率よく取得できるようにすることを目的とする。
本発明は、表示部に表示されている複数の画像を見ているユーザの視線を検出する視線検出部と、視線検出部で検出した視線に基づいて、複数の画像の内、ユーザの周辺視領域に位置する画像を確定する周辺画像確定部とを備える。更に、周辺画像確定部で確定した周辺画像のコンテンツの属性を表すオブジェクトを、画像を表示させる画像信号に付加する画像処理部を備えるようにしたものである。更に、画像信号に付加するオブジェクトは、コンテンツの属性に対応する色を付けた有色のオブジェクトとする。
このように、ユーザが同時表示している複数の画像を見ている場合に、表示中のコンテンツの属性に応じたオブジェクトを画像に重畳して表示することにより、コンテンツの属性をユーザに通知することが可能になる。
本発明によると、複数の画像を同時表示する場合に、表示中のコンテンツの属性に応じたオブジェクトをユーザの周辺視領域に表示することにより、ユーザが容易にコンテンツの属性を認識することが可能になる。更に、表示するオブジェクトをコンテンツの属性に対応する色を付けた有色のオブジェクトとすることで、ユーザの周辺視による認識が可能で、細かい図柄等の区別をする必要のない、一瞥性の高い情報提供ができる。その結果、ユーザは見たいコンテンツを短時間で探索することができるため、情報の取り逃しを防ぐとともに、欲しい情報を効率よく取得することが可能になる。
以下、本発明の一実施の形態を、添付図面を参照して説明する。
図1は、本実施の形態の例による画像信号生成装置1の構成例を示すブロック図である。画像信号生成装置1は、チューナなどの画像情報受信装置2から画像信号や音声信号などを取得する画像情報取得部11と、キーボードやリモートコントローラなどの入力装置3を用いて、ユーザが選択、指示した情報を入力するユーザ指示入力部12とを備える。更に画像信号生成装置1は、コンテンツ属性解析部13、画像処理部14、表示画像作成部15、視線検出部16を備える。また、ディスプレイなどの複数の表示部4を備え、表示画像作成部15にて生成された画像信号を表示する。
本例では、画像情報取得部11により表示部4に表示する複数の画像に関する情報を取得し、コンテンツ属性解析部13にて各コンテンツの属性を解析する。コンテンツ属性解析部13では、画像情報受信装置2から取得した画像信号、音声信号、EPG(Electronic Program Guide:電子番組表)などの情報を基に解析を行い、当該コンテンツのジャンルや出演者などの属性を抽出し、分類する。次に、画像処理部14では、コンテンツ属性解析部13による解析結果を基に、コンテンツの画像上に重畳して表示するオブジェクトの色を決定する。そして、表示画像作成部15では、視線検出部16により検出したユーザの視線情報を基に周辺視領域を推定し、周辺視領域に位置する画像を確定し、それを基にオブジェクトの表示位置を決定する。最後に、表示画像作成部15は、画像情報取得部11から取得した画像信号に、決定した有色のオブジェクトを重畳し、表示部4に表示する。
なお、図1では、表示部4として複数のディスプレイなどの表示装置を備える構成としているが、図2に示すように、表示部4´として1台の表示装置を備える構成とすることもできる。この場合、1台の表示装置の表示画面を分割して、複数の画像を並べて表示させる。
次に、各部の処理内容について説明する。
ユーザ指示入力部12は、キーボードやリモートコントローラなどの入力装置3を用いてユーザが選択、指示した情報を取得し、入力する。本例では、コンテンツの属性を解析して分類するが、そのコンテンツの分類内容は、画像を視聴しているユーザが入力装置3を用いて希望する分類内容を設定する。コンテンツの分類としては、放送番組のジャンルにより分類するものとして、報道番組/娯楽番組/スポーツ番組などの大まかなジャンル分類や、バラエティ番組/クイズ番組/音楽番組などの詳細なジャンル分類がある。また、出演者A/出演者B/出演者Cといった出演者ごとの分類や、10代男性/20代女性といった制作者側が想定する視聴者層による分類などがある。本例では、予めコンテンツの分類内容に関する情報を属性リスト18として登録しておき、その中からユーザが希望する分類内容を選択する。更に、予め設定した複数の分類内容の他に、ユーザが任意の分類内容をキーボードなどから入力し、設定できるように構成してもよい。なお、属性リスト18の内容については、後述する。
コンテンツ属性解析部13は、画像情報取得部11にて取得したコンテンツの画像信号、音声信号、EPGなどの番組情報などの情報を解析し、ユーザ指示入力部12によりユーザから指示されたコンテンツの分類内容に従ってコンテンツの属性を分類する。コンテンツの属性解析処理には、画像解析、音声解析、EPG解析などの解析処理がある。画像解析、音声解析では、予め属性解析に用いるテンプレート情報17を登録しておき、テンプレートとの比較などにより特徴抽出を行い、その特徴抽出結果からコンテンツの属性を解析する。また、EPG解析では、EPGに含まれる番組名や出演者などの情報を基にキーワードを抽出し、その抽出結果からコンテンツの属性を解析する。各解析処理の内容を以下に説明する。
画像解析は、属性解析用のテンプレート画像と、解析対象の画像の画像信号のマッチング処理を行い、特徴抽出を行う。画像信号のマッチング処理としては、全画素の比較を行う処理や、輝度のヒストグラムの比較を行う処理などがある。これにより、ある分類のテンプレート画像との一致度を算出し、解析対象の画像がその分類の特徴をどの程度持っているかを判定する。また、画像解析は、画像信号のフレーム単位に実施し、1フレーム毎や数十フレーム毎など、一定の周期で繰り返し実行する。
音声解析は、HMM(Hidden Markov Model:隠れマルコフモデル)ベースの音声認識などによる単語推定を行い、属性解析用のテンプレート音声との比較を行う。これにより、ある分類のテンプレート音声との一致度を算出し、解析対象の音声がその分類の特徴をどの程度持っているかを判定する。また、音声解析は、音声信号を一定時間に区切り、その時間内の音声信号から単語推定を行う処理を、繰り返し実行する。
EPG解析は、まず、予め属性解析用のキーワード情報を分類毎にテンプレート情報17に登録しておく。そして、解析対象のEPGなどの番組情報から当該コンテンツのキーワードを抽出し、登録されている属性解析用のキーワードとの比較を行う。これにより、ある分類のキーワードとの一致度を算出し、解析対象のコンテンツのキーワードが、その分類の特徴をどの程度持っているかを判定する。
なお、画像や音声のテンプレート情報や、EPG解析用のキーワードなどの情報は、本例の画像信号生成装置のサービス提供者がテンプレート情報17として予め登録しておく。また、ユーザが、分類したい属性の特徴をよく表していると考えるコンテンツの中から特定の画像や音声を指定して登録することもできる。更に、ネットワークを介して本例の画像信号生成装置を複数接続する構成とすることもできる。その場合、ネットワーク上の各装置からアクセス可能な領域に共有のテンプレート情報を登録しておき、コンテンツ属性解析部13によるマッチング処理に必要な情報を、共有のテンプレート情報を参照して用いることもできる。このように構成することで、属性解析用のテンプレート情報を他のユーザと共有することができ、属性解析により適したテンプレートを選択することができる。このように、テンプレート情報やキーワードなどの情報は、コンテンツ属性解析部の処理実行時に参照することができれば、どのような形態で登録しておいてもよい。
画像処理部14は、コンテンツ属性解析部13の解析結果を基に、ユーザから指示されたコンテンツの分類内容に合致する属性リスト18を参照して、コンテンツの画像上に重畳して表示するオブジェクトの色を決定する。コンテンツの画像に重畳して表示するオブジェクトは、例えば表示中の画面に枠を付加して色分け表示するものや、特定の形状のシンボルを色分け表示するものなどがあるが、色による識別表示が可能なものであれば、これ以外のものでもよい。
表示画像作成部15は、画像処理部14の結果を基に、画像情報取得部11から取得した画像信号に有色のオブジェクトを重畳し、表示部4に表示する。この際、重畳するオブジェクトの表示位置は、視線検出部16により検出したユーザの視線を基に周辺視領域を推定し、それを基に決定する。
図3に、属性リスト18のデータ構成例を示す。属性リスト18は、コンテンツの分類内容に対応して複数定義しておくことができる。属性リスト18は、分類内容を表すリスト名181と、分類する番組のジャンルなどを定義する分類項目182と、オブジェクトの表示色を定義する色183のデータを備える。ユーザが、希望する分類内容を指定すると、その分類内容に合致した属性リスト18が選択され、コンテンツ属性解析部13や画像処理部14の処理において、そのリストを参照して処理を行う。
図4に、本例の視線検出部16による視線検出例を示す。図4では、複数の画像を表示する表示部4に、表示部4を見ているユーザ5の視線検出用のセンサ41を設ける構成としている。センサ41は、ユーザ5の瞳孔の向きなどを検出するためのカメラと、ユーザまでの距離を測定するための装置などから成る。視線検出部16は、これらのセンサ41からの情報を基に、表示部4を見ているユーザ5の視線の中心点(以降注視点と称す)42を判定する。更に、コンテンツの画像に重畳して表示するオブジェクトをユーザの周辺視領域43に表示するため、視線検出部16では、判定したユーザの注視点42を基に、周辺視領域43を推定する。周辺視領域43は、予め注視点42から所定の角度を設定しておき、注視点42を中心とした所定の視野角度の範囲を周辺視領域43とする。なお、一般的には、注視点から±30度程度の範囲が望ましい。また、周辺視の範囲は、個人差があるため、予めユーザの視野を測定する処理部を設け、その測定結果を基に周辺視領域を推定するような構成としてもよい。
なお、本例では、ユーザの周辺視領域に位置する画面に表示されるコンテンツについてオブジェクトを表示するように説明しているが、表示部4に表示されるすべてのコンテンツについて、属性を表すオブジェクトを表示するようにしてもよい。
次に、本例の処理の詳細について説明する。
図5に、本例による画像信号生成処理の全体の処理例を表すフローチャートを示す。まず、ユーザがリモートコントローラなどの入力装置3を用いて選択、指示した情報をユーザ指示入力部12により入力する(ステップS501)。ユーザが指示する情報は、表示部4に表示するコンテンツの種類やテレビジョン放送のチャンネル、コンテンツの属性を表すオブジェクトの表示有無、コンテンツの分類内容などである。次に、入力したユーザからの指示情報を基に、コンテンツの属性を表すオブジェクト表示を行うか否かを判定する(ステップS502)。判定の結果、オブジェクト表示ありの場合は、以降の処理を行い、オブジェクト表示なしの場合は以降の処理は行わず、ステップS506の処理へ移る。
オブジェクト表示ありの場合は、まず、画像情報取得部11により取得した画像情報と、ユーザから指示されたコンテンツの分類内容を基にコンテンツ属性解析部13による属性解析処理を行う(ステップS503)。コンテンツ属性解析処理の詳細は図6に示す。次に、属性解析結果を基に、画像処理部14によるオブジェクト決定処理を行う(ステップS504)。オブジェクト決定処理の詳細は図11に示す。次に、視線検出部16によるユーザの視線検出結果を基に、表示画像作成部15によるオブジェクト位置決定処理を行う(ステップS505)。オブジェクト位置決定処理の詳細は図12に示す。そして、表示画像作成部15は、画像情報取得部11で取得した画像信号に対して、ステップS505で決定した表示位置に有色のオブジェクトを重畳して、表示画像を作成する(ステップS506)。なお、ステップS502の判定の結果、ユーザ指示にオブジェクト表示がなかった場合は、オブジェクトの重畳処理は行わず、通常の表示画像の作成を行う。
最後に、ユーザからの指示情報を取得し、表示終了指示があるかを判定する(ステップS507)。判定の結果、表示終了指示がある場合は、終了処理を行う(ステップS508)。判定の結果、表示終了指示がない場合は、最初のステップS501へ戻り処理を繰り返す。
このように、本例の画像信号生成処理は、ユーザから表示終了指示が入力されるまでの間、ユーザからの指示に従って一定周期で処理を繰り返す。
図6に、図5のステップS503のコンテンツ属性解析処理の処理例を表すフローチャートを示す。コンテンツ属性解析処理は、まず、属性解析対象のコンテンツから1つを選択する(ステップS601)。次に選択したコンテンツ(i)の内容が変化したかを判定する(ステップS602)。判定の結果、コンテンツの内容が変化した場合は、コンテンツ(i)の属性(j)に対する評価値(Eij)を初期化する(ステップS603)。ここで、コンテンツ属性解析処理では、ユーザが指示した分類内容、例えばコンテンツの番組のジャンルなどの分類項目ごとに、解析対象のコンテンツが各分類項目の特徴に合致する程度を評価値(Eij)で表す。そして、属性解析処理を繰り返すことにより、各分類項目の評価値を積算していき、評価値が所定の値を超えた場合に当該コンテンツがその分類項目に分類されると判断する。そのため、コンテンツの内容が変化した場合は、この分類項目毎の属性に対する評価値を初期化し、内容が変化しない場合は、初期化せずに処理を続ける。
次に、コンテンツの属性解析として、画像解析処理(ステップS604)、音声解析処理(ステップS605)、EPG解析処理(ステップS606)を行い、これらの解析処理の結果を基にコンテンツ(i)の属性推定処理(ステップS607)を行う。各処理の詳細は後述する。最後に、すべてのコンテンツの解析処理を行ったかを判定し(ステップS608)、処理していないコンテンツがある場合は、ステップS601へ戻り処理を繰り返す。判定の結果、すべてのコンテンツに対する処理を実行した場合は、処理を終了する。
図7に、図6のステップS604の画像解析処理の処理例を表すフローチャートを示す。画像解析処理は、図6に示したコンテンツ属性解析処理で選択されたコンテンツ(i)の画像情報を入力し、テンプレート画像とのマッチングを行うことで属性解析を行う。
まず、属性を表す変数(j)を初期化する(ステップS701)。次に変数(j)に1加算し(ステップS702)、属性(j)のテンプレート画像をテンプレート情報17から読み込む(ステップS703)。そして、コンテンツ(i)の画像情報と読み込んだテンプレート画像の画素を比較し、その差分の総和を計算する(ステップS704)。次に、差分の総和が閾値未満かを判定し(ステップS705)、閾値未満の場合は、コンテンツ(i)の属性(j)に対する評価値(Eij)に評価値(α)を加算する(ステップS706)。判定の結果、差分の総和が閾値以上の場合は、評価値は更新しない。最後に、属性を表す変数(j)が、ユーザの指示した分類項目に対応する属性リストに含まれる属性数より大きいかを判定する(ステップS707)。判定の結果、属性数より大きい場合は、すべての属性に対する解析処理が終了したため、本処理を終了する。判定の結果、変数(j)が属性数より小さい場合は、ステップS702へ戻り次の属性に関して処理を繰り返す。
上記画像解析処理の結果、選択されたコンテンツ(i)の画像情報を基に、各属性に対する評価値が更新される。
なお、本処理では、コンテンツ(i)の画像情報とテンプレート画像とのマッチングは、コンテンツ(i)の解析対象のフレームの画素と、テンプレート画像の画素とを比較してその差分を抽出する処理としているが、その他の処理でマッチングを行ってもよい。例えば、画像の輝度のヒストグラムを比較して、その一致度を算出する処理でもよい。
図8に、図6のステップS605の音声解析処理の処理例を表すフローチャートを示す。音声解析処理は、図6に示したコンテンツ属性解析処理で選択されたコンテンツ(i)に付加されている音声情報を入力し、テンプレート音声とのマッチングを行うことで属性解析を行う。
まず、属性を表す変数(j)を初期化する(ステップS801)。次に変数(j)に1加算し(ステップS802)、属性(j)のテンプレート音声をテンプレート情報17から読み込む(ステップS803)。次に、コンテンツ(i)の直近の音声情報から単語を抽出する(ステップS804)。単語の抽出処理は、例えば、HMMベースの音声認識による単語推定を行い、直近の一定時間内の音声情報から認識できる単語を抽出する処理としているが、他の処理でもよい。そして、コンテンツ(i)から抽出した単語と、読み込んだテンプレート音声に含まれる単語とを比較し、共通の単語数を計算する(ステップS805)。計算された共通単語数をS1とする。次に、共通単語について、発話または発音の特徴を推定するために、発話時間、ピッチ、パワーを比較し、その差分を演算して類似度を算出する(ステップS806)。発話時間の差分はTimediff、ピッチの差分はPitchdiff、パワーの差分はPowerdiffとし、それらの差分に各々の係数を掛けて合算したものを類似度S2とする。類似度S2は、以下の式により算出する。
〔数1〕
S2=WtimeTimediff+WpitchPitchdiff+WpowerPowerdiff
次に、共通単語数S1と類似度S2が、予め設定されたそれぞれの閾値より大きいかを判定する(ステップS807)。判定の結果、S1、S2ともに閾値より大きい場合は、コンテンツ(i)の属性(j)に対する評価値(Eij)に評価値(β)を加算する(ステップS808)。判定の結果、S1またはS2が閾値以下の場合は、評価値は更新しない。最後に、属性(j)が、ユーザの指示した分類項目に対応する属性リストに含まれる属性数より大きいかを判定する(ステップS809)。判定の結果、属性数より大きい場合は、すべての属性に対する解析処理が終了したため、本処理を終了する。判定の結果、変数(j)が属性数より小さい場合は、ステップS802へ戻り次の属性に関して処理を繰り返す。
上記音声解析処理の結果、選択されたコンテンツ(i)の音声情報を基に、各属性に対する評価値が更新される。
なお、本処理では、コンテンツ(i)の音声情報とテンプレート音声とのマッチングは、共通単語数と発話または発音の特徴を推定して類似度を判定する処理としているが、その他の処理でマッチングを行ってもよい。例えば、発話または発音の特徴から感情などを推定し、それを基に比較してマッチンングを行い、その一致度を算出するような処理でもよい。
図9に、図6のステップS606のEPG解析処理の処理例を表すフローチャートを示す。EPG解析処理は、図6に示したコンテンツ属性解析処理で選択されたコンテンツ(i)に付加されている番組情報を入力し、属性毎に登録されているキーワードとのマッチングを行うことで属性解析を行う。
まず、コンテンツ(i)の番組情報からキーワードを抽出する(ステップS901)。キーワードは、EPGなどの番組情報から、番組名やサブタイトル、番組出演者名、その他のコメントなどを検索し、単語を抽出する。次に、属性を表す変数(j)を初期化する(ステップS902)。次に変数(j)に1加算する(ステップS903)。次に、キーワードを表す変数(k)を初期化する(ステップS904)。次に変数(k)に1加算する(ステップS905)。そして、属性(j)に属するキーワードをテンプレート情報17から読み込み、コンテンツ(i)から抽出したk番目のキーワード(k)と比較する(ステップS906)。そして、一致するキーワードがあるかを判定する(ステップS907)。判定の結果、一致する場合は、コンテンツ(i)の属性(j)に対する評価値(Eij)に評価値(Wcjkγ)を加算する(ステップS908)。ここで、評価値に掛けている係数(Wcjk)は、予めキーワード毎に定義したものである。属性(j)には複数のキーワードが属しているが、それらのキーワードが属性(j)の特徴を表す程度はそれぞれ異なため、属性(j)の評価値を算出する際にキーワード毎に重み付けを変える必要がある。そのため、評価値を算出する際に、コンテンツ(i)から抽出したキーワードが一致した属性(j)のキーワードを基に、当該キーワードに設けられた係数を掛けて評価値を更新する。ステップS907の判定の結果、キーワードが一致しない場合は、評価値は更新しない。
次に、変数(k)が抽出したキーワード数より大きいかを判定し(ステップS909)、変数(k)がキーワード数より大きい場合は、コンテンツ(i)から抽出したすべてのキーワードについて属性(j)に関する処理が終了したため、次に進む。判定の結果、変数(k)がキーワード数より小さい場合は、まだ処理していないキーワードがあるため、ステップS905に戻り次のキーワードに関する処理を繰り返す。次に、属性(j)がユーザの指示した分類項目に対応する属性リストに含まれる属性数より大きいかを判定し(ステップS910)、属性数より大きい場合はすべての属性に対する解析処理が終了したため、本処理を終了する。判定の結果、変数(j)が属性数より小さい場合は、ステップS903へ戻り次の属性に関する処理を繰り返す。
上記EPG解析処理の結果、選択されたコンテンツ(i)の番組情報を基に、各属性に対する評価値を更新する。
このように、上記説明では、コンテンツ属性解析処理として、画像解析処理、音声解析処理、EPG解析処理を順次行い、各属性に対する評価値を積算していくことで、総合的に属性を評価する。なお、ユーザの指示した分類項目が番組の出演者による分類のような場合は、EPG解析処理のみを行うなど、解析処理を単独で行ったり、2つの解析処理の組み合わせで処理するようにしてもよい。
図10に、図6のステップS607の属性推定処理の処理例を表すフローチャートを示す。属性推定処理は、上記説明した画像解析処理、音声解析処理、EPG解析処理の解析結果を基にコンテンツの属性を推定する。
まず、属性リスト18からユーザの指示した分類項目に対応する属性リスト(Ln)の情報を読み込む(ステップS101)。次に、コンテンツ(i)に関する解析処理の結果、算出された属性に対する評価値を参照し、属性リスト(Ln)の分類による属性(j)の評価値(Eij)の最大値を抽出する(ステップS102)。次に、抽出した評価値(Eij)が予め設定された閾値(Tj)より大きいかを判定する(ステップS103)。判定の結果、評価値(Eij)が閾値(Tj)より大きい場合は、属性リスト(Ln)の分類によるコンテンツ(i)の属性を属性(j)とする(ステップS104)。判定の結果、評価値(Eij)が閾値(Tj)以下の場合は、属性リスト(Ln)中にマッチする属性はなしとする(ステップS105)。
以上説明したように、コンテンツ属性解析部13によるコンテンツ属性解析処理にて、コンテンツ(i)の属性を解析し、属性リスト中のどの属性に属するかを判定することで、コンテンツの属性を分類することができる。なお、コンテンツの内容が変化した直後は、各属性に対する評価値の蓄積が少ないため、属性の分類ができない場合があるが、本処理を繰り返すことにより、評価値が積算されていくため、正しい分類ができるようになる。
図11に、図5のステップS504のオブジェクト決定処理の処理例を表すフローチャートを示す。オブジェクト決定処理では、コンテンツ属性解析部13による属性解析結果を基に、画像処理部14にて、コンテンツに重畳表示するオブジェクトを決定する。
まず、属性リスト18からユーザの指示した分類項目に対応する属性リスト(Ln)の情報を読み込む(ステップS111)。次に、コンテンツから1つを選択する(ステップS112)。そして、選択したコンテンツ(i)の属性解析結果を基に、属性リスト(Ln)の分類によるコンテンツ(i)の属性(j)を抽出する(ステップS113)。そして、当該コンテンツ(i)にマッチした属性があるかを判定する(ステップS114)。判定の結果、マッチした属性がある場合は、読み込んだ属性リスト(Ln)を参照し、該当する属性(j)に定義されている色を、コンテンツ(i)のオブジェクト色とする(ステップS115)。例えば、ユーザが図3に示す属性リスト18のリスト2を選択し、コンテンツ(i)の属性(j)が「クイズ番組」だった場合、オブジェクトの色は、黄色になる。
ステップS114の判定の結果、マッチした属性がない場合は、当該コンテンツ(i)に関するオブジェクトの重畳表示はなしとする(ステップS116)。最後に、すべてのコンテンツについて処理したかを判定し(ステップS117)、処理していないコンテンツがある場合は、ステップS112へ戻り処理を繰り返す。判定の結果、すべてのコンテンツに対して処理を実行した場合は、本処理を終了する。
図12に、図5のステップS505のオブジェクト位置決定処理の処理例を表すフローチャートを示す。オブジェクト位置決定処理では、オブジェクト決定処理にて決定したコンテンツに重畳表示するオブジェクトの表示位置を、ユーザの周辺視領域を基に決定する。本処理は、視線検出部16が視線検出用のセンサ41から取得した情報を基にユーザの周辺視領域43を算出する処理と、その情報を基に、表示画像作成部15にて、オブジェクトの表示位置を決定する処理から成る。
まず、視線検出部16において、センサ41が検出したユーザ5の注視点42の位置と、センサ41が測定したユーザ5と注視点42との間の距離を取得する(ステップS121)。次に、注視点42の位置と、ユーザ5と注視点42間の距離の情報を基に、表示部4上におけるユーザ5の周辺視領域43を算出する(ステップS122)。次に、表示画像作成部15において、視線検出部16が算出した周辺視領域43を基に、周辺視領域43内に表示できないオブジェクトがあるかを判定する(ステップS123)。ここで、コンテンツに重畳表示するオブジェクトは、画面の枠や、特定の形状のシンボルなど、予め決定された表示種別とする。そして、その種別のオブジェクトを予め決められた所定の位置に表示した場合に、ユーザの周辺視領域43内に表示できるかを判定する。例えばオブジェクトの表示種別が画面枠の場合は、枠が周辺視領域内に一部入っていれば表示できると判定し、画面枠全体が周辺視領域43の外に位置するものがある場合は、周辺視領域内に表示できないオブジェクトありと判定する。
ステップS123の判定の結果、周辺視領域43内に表示できないオブジェクトがある場合は、注視点42に位置する画面の画像内にすべてのオブジェクトを表示するように、オブジェクト表示位置を変更する(ステップS124)。ここで、例えば、表示するオブジェクトが特定の形状のシンボルの場合、注視点42と各コンテンツの画像とを結ぶ直線上にオブジェクトを配置し、そのオブジェクトが注視点42に位置するコンテンツの画像内に位置するように移動させ、重畳して表示する。なお、ユーザ5の周辺視領域43内にオブジェクトを移動させて表示する表示処理は、これ以外にもあるため、他の表示処理で表示してもよい。ステップS123の判定の結果、周辺視領域43内にすべてのオブジェクトが表示できる場合は、各コンテンツの画像内にオブジェクトを表示する(ステップS125)。
コンテンツに重畳表示するオブジェクトは、コンテンツの属性を表し、ユーザが容易に識別可能なものである必要がある。そのため、本例では、ユーザの周辺視領域でも認識が可能で、細かい図柄等を判別する必要がなく、一瞥性が高い色の情報を適用し、コンテンツの属性に合わせた有色のオブジェクトを呈示する。オブジェクトとしては、例えば表示部の画面の外周に枠を設け、その枠を色替え表示する。また、表示中のコンテンツの一部に、識別が容易な特定の形状のシンボルを重ねて色替え表示してもよい。このようなオブジェクトの表示種別は、予めどの種別で表示するかを決定しておくが、複数の表示種別の中からユーザが任意の表示種別を選択できるようにしてもよい。
図13に、9台のディスプレイから成る表示部4に、それぞれコンテンツの画像とオブジェクトを表示する場合の表示例を示す。図13では、コンテンツの属性をそれぞれの画面の枠の色により呈示する例を示している。ここでは、ユーザの注視点が中央の画像にあり、ユーザの周辺視領域43内にすべてのコンテンツのオブジェクト、ここでは枠の一部が表示されている。
図14に、25台のディスプレイから成る表示部4″にコンテンツの画像とオブジェクトを表示する場合の表示例を示す。図14では、図13と同様に、コンテンツの属性を画面の枠の色により呈示するが、ここでは、ユーザの周辺視領域43内に位置するディスプレイに表示するコンテンツの画像に対してオブジェクトを表示し、ユーザの周辺視領域43の外に位置するディスプレイに表示するコンテンツに対してはオブジェクトを表示しない。このように、表示部に表示するコンテンツの一部にのみオブジェクト表示を行ってもよい。
図15に、9台のディスプレイから成る表示部4に、画面枠以外の表示種別のオブジェクトを表示する場合の表示例を示す。図15では、表示種別として特定の形状、ここでは、星型のオブジェクトに色を付けて呈示する例を示している。なお、ここでは、星形のオブジェクトがユーザの周辺視領域43内に表示できるように、各コンテンツに対応するオブジェクトを当該コンテンツの画像のうち周辺視領域43に属する位置にオブジェクトを配置している。そのため、ユーザの注視点が位置する中央のディスプレイに表示するコンテンツのオブジェクトは、画像の中心部に配置しているが、例えば、注視点の位置するディスプレイの上側に位置するディスプレイに表示しているコンテンツの場合は、オブジェクトを画像の下部に配置している。このように、オブジェクトが特定の形状のシンボルなどの場合は、各コンテンツの画像の中で、かつユーザの周辺視領域43内に位置する場所にシンボルを配置することで、ユーザが容易に認識できるようにする。
図16に、図15と同様に9台のディスプレイから成る表示部4に、星型のオブジェクトを表示する場合の例で、ユーザの注視点が図15の位置から移動した場合の表示例を示す。図15では、ユーザの注視点は、表示部4のほぼ中央部、中央のディスプレイの辺りにあったが、図16では、右中段のディスプレイに移動している。このように、ユーザの注視点の移動により、各コンテンツの画像上にオブジェクトを配置すると、ユーザの視野範囲から外れ、ユーザの周辺視で色を認識することが困難となる。そのため、注視点と各画像を結ぶ直線上にオブジェクトを配置、つまり各画像の位置関係と各画像に対応するオブジェクトの位置関係を保つようにオブジェクトを配置し、そのオブジェクトを注視点のある画像内に表示するように移動し、呈示する例を示している。
このように、コンテンツの属性を呈示するオブジェクトには様々なものがあり、上記以外の表示種別でもよい。これらのオブジェクトをユーザの注視点とその周辺視領域を基に、ユーザの周辺視で認識が可能な位置に呈示することにより、各コンテンツの概要を素早く認識させることができる。また、ユーザが容易に目的とするコンテンツを探索することができるため、情報の取り逃がしの問題を軽減することができる。
また、図1に示した構成では、本実施の形態の処理を実行する処理部を備えた画像信号生成装置としたが、それら処理部の処理と同様の処理を行うプログラム(ソフトウェア)を用意し、そのプログラムを、コンピュータ装置などの情報処理装置に実装してもよい。このようにすることで、情報処理装置が、画像信号生成装置として機能するようになる。コンピュータ装置などに実装させるプログラムは、各種記憶媒体に記憶(記録)させて、配布すればよい。或いは、インターネットなどの伝送媒体を介してユーザに配布してもよい。
本発明の一実施の形態による構成例を示すブロック図である。 本発明の他の実施の形態による構成例を示すブロック図である。 本発明の一実施の形態による属性リストのデータ構成例を示す説明図である。 本発明の一実施の形態による視線検出例を示す説明図である。 本発明の一実施の形態による画像信号生成処理例を示すフローチャートである。 本発明の一実施の形態によるコンテンツ属性解析処理例を示すフローチャートである。 本発明の一実施の形態による画像解析処理例を示すフローチャートである。 本発明の一実施の形態による音声解析処理例を示すフローチャートである。 本発明の一実施の形態によるEPG解析処理例を示すフローチャートである。 本発明の一実施の形態による属性推定処理例を示すフローチャートである。 本発明の一実施の形態によるオブジェクト決定処理例を示すフローチャートである。 本発明の一実施の形態によるオブジェクト位置決定処理例を示すフローチャートである。 本発明の実施の形態によるオブジェクト表示例(1)を示す説明図である。 本発明の実施の形態によるオブジェクト表示例(2)を示す説明図である。 本発明の実施の形態によるオブジェクト表示例(3)を示す説明図である。 本発明の実施の形態によるオブジェクト表示例(4)を示す説明図である。
符号の説明
1…画像信号生成装置、2…画像情報受信装置、3…入力装置、4、4´、4″…表示部、5…ユーザ、11…画像情報取得部、12…ユーザ指示入力部、13…コンテンツ属性解析部、14…画像処理部、15…表示画像作成部、16…視線検出部、17…テンプレート情報、18…属性リスト、41…センサ、42…注視点、43…周辺視領域

Claims (12)

  1. 表示部に表示されている複数の画像を見ているユーザの視線を検出する視線検出部と、
    前記視線検出部で検出した視線に基づいて、前記複数の画像の内、ユーザの周辺視領域に位置する画像を確定する周辺画像確定部と、
    前記周辺画像確定部で確定した周辺画像のコンテンツの属性を表すオブジェクトを、前記画像を表示させる画像信号に付加する画像処理部とを備えた
    画像信号生成装置。
  2. 前記画像処理部は、前記視線検出部で検出した視線を中心とした周辺視領域内に、前記オブジェクトを表示させる
    請求項1記載の画像信号生成装置。
  3. 前記表示部に表示されているコンテンツの特徴量を基に属性を解析する属性解析部を備え、
    前記画像処理部は、前記属性解析部で解析したコンテンツの属性を基に、オブジェクトを決定し、前記画像信号に付加する
    請求項2記載の画像信号生成装置。
  4. 前記属性解析部で解析するコンテンツの特徴量は、前記コンテンツの画像と属性解析用のテンプレート画像の画素値を比較することにより抽出する
    請求項3記載の画像信号生成装置。
  5. 前記属性解析部で解析するコンテンツの特徴量は、前記コンテンツの画像と属性解析用のテンプレート画像の輝度のヒストグラムを比較することにより抽出する
    請求項3記載の画像信号生成装置。
  6. 前記属性解析部で解析するコンテンツの特徴量は、前記コンテンツに付加された音声信号と属性解析用のテンプレート音声信号を解析し、抽出した単語を比較することにより抽出する
    請求項3記載の画像信号生成装置。
  7. 前記属性解析部で解析するコンテンツの特徴量は、前記コンテンツに付加された番組情報から抽出した単語と属性解析用の単語とを比較することにより抽出する
    請求項3記載の画像信号生成装置。
  8. 前記画像処理部で画像信号に付加するオブジェクトは、前記属性解析部で解析したコンテンツの属性に対応する色を付けた有色のオブジェクトである
    請求項3記載の画像信号生成装置。
  9. 前記画像処理部が処理した画像信号を表示させる表示部を備えた
    請求項1記載の画像信号生成装置。
  10. 表示されている複数の画像を見ているユーザの視線を検出し、
    前記検出した視線に基づいて、前記複数の画像の内、ユーザの周辺視領域に位置する画像を確定し、
    前記確定した周辺画像のコンテンツの属性を表すオブジェクトを、前記画像を表示させる画像信号に付加する
    画像信号生成方法。
  11. 表示されている複数の画像を見ているユーザの視線を検出し、
    前記検出した視線に基づいて、前記複数の画像の内、ユーザの周辺視領域に位置する画像を確定し、
    前記確定した周辺画像のコンテンツの属性を表すオブジェクトを、前記画像を表示させる画像信号に付加する処理を、情報処理装置に実装して実行させる
    プログラム。
  12. 請求項11に記載のプログラムを記憶した
    記憶媒体。
JP2008099567A 2008-04-07 2008-04-07 画像信号生成装置、画像信号生成方法、プログラム及び記憶媒体 Expired - Fee Related JP5169403B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008099567A JP5169403B2 (ja) 2008-04-07 2008-04-07 画像信号生成装置、画像信号生成方法、プログラム及び記憶媒体
US12/391,743 US8289315B2 (en) 2008-04-07 2009-02-24 Image signal generating apparatus, image signal generation method, computer program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008099567A JP5169403B2 (ja) 2008-04-07 2008-04-07 画像信号生成装置、画像信号生成方法、プログラム及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2009251303A JP2009251303A (ja) 2009-10-29
JP5169403B2 true JP5169403B2 (ja) 2013-03-27

Family

ID=41132836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008099567A Expired - Fee Related JP5169403B2 (ja) 2008-04-07 2008-04-07 画像信号生成装置、画像信号生成方法、プログラム及び記憶媒体

Country Status (2)

Country Link
US (1) US8289315B2 (ja)
JP (1) JP5169403B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101431534B1 (ko) * 2007-08-07 2014-08-19 삼성전자주식회사 컨텐츠 정보 표시 방법 및 그 방법을 수행하는 장치
US9627006B2 (en) 2007-08-07 2017-04-18 Samsung Electronics Co., Ltd. Content information display method and apparatus
JP5568929B2 (ja) 2009-09-15 2014-08-13 ソニー株式会社 表示装置および制御方法
JP5417356B2 (ja) * 2011-02-08 2014-02-12 株式会社東芝 映像処理装置、映像処理方法および立体映像表示装置
JP6007600B2 (ja) 2012-06-07 2016-10-12 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP6080725B2 (ja) * 2013-08-26 2017-02-15 三菱電機株式会社 マルチディスプレイ制御装置およびマルチディスプレイ制御方法
CN105765513B (zh) * 2013-11-01 2020-02-21 索尼公司 信息处理装置、信息处理方法和程序
JP2015127897A (ja) 2013-12-27 2015-07-09 ソニー株式会社 表示制御装置、表示制御システム、表示制御方法、およびプログラム
JP2016189556A (ja) * 2015-03-30 2016-11-04 株式会社リコー 面談管理システム、面談システム、面談管理方法及びプログラム
JP6293249B2 (ja) * 2016-12-16 2018-03-14 三菱電機株式会社 マルチディスプレイ制御装置およびマルチディスプレイ制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4479784A (en) * 1981-03-03 1984-10-30 The Singer Company Eye line-of-sight responsive wide angle visual system
JP3530591B2 (ja) * 1994-09-14 2004-05-24 キヤノン株式会社 音声認識装置及びこれを用いた情報処理装置とそれらの方法
US5767893A (en) * 1995-10-11 1998-06-16 International Business Machines Corporation Method and apparatus for content based downloading of video programs
JP3724859B2 (ja) * 1995-10-16 2005-12-07 富士通株式会社 画像表示システム
JP3474053B2 (ja) * 1996-04-16 2003-12-08 株式会社日立製作所 ナビゲーション装置の地図表示方法およびナビゲーション装置
US5828809A (en) * 1996-10-01 1998-10-27 Matsushita Electric Industrial Co., Ltd. Method and apparatus for extracting indexing information from digital video data
JP3407298B2 (ja) * 2000-08-18 2003-05-19 日本電信電話株式会社 文書表示方法、装置、および文書表示プログラムを記録した記録媒体
JP3700649B2 (ja) 2001-12-28 2005-09-28 ソニー株式会社 表示装置および制御方法、プログラムおよび記録媒体、並びに表示システム
EP1326436B1 (en) 2001-12-28 2013-02-13 Sony Corporation Displaying information
JP4406815B2 (ja) * 2002-06-26 2010-02-03 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
US6890077B2 (en) * 2002-11-27 2005-05-10 The Boeing Company Method and apparatus for high resolution video image display
US8512180B2 (en) * 2004-02-02 2013-08-20 Nike, Inc. Soccer ball with motion graphic
JP4835898B2 (ja) * 2004-10-22 2011-12-14 ソニー株式会社 映像表示方法および映像表示装置

Also Published As

Publication number Publication date
US20090251458A1 (en) 2009-10-08
US8289315B2 (en) 2012-10-16
JP2009251303A (ja) 2009-10-29

Similar Documents

Publication Publication Date Title
JP5169403B2 (ja) 画像信号生成装置、画像信号生成方法、プログラム及び記憶媒体
RU2494566C2 (ru) Устройство и способ управления отображением
CN106462646B (zh) 控制设备、控制方法和计算机程序
US8503770B2 (en) Information processing apparatus and method, and program
US20120057775A1 (en) Information processing device, information processing method, and program
US20120263433A1 (en) Detecting Key Roles and Their Relationships from Video
US20100057722A1 (en) Image processing apparatus, method, and computer program product
EP2587826A1 (en) Extraction and association method and system for objects of interest in video
CN106021496A (zh) 视频搜索方法及视频搜索装置
US8345742B2 (en) Method of processing moving picture and apparatus thereof
CN107431828A (zh) 用于识别相关媒体内容的方法和系统
JPWO2007091587A1 (ja) 代表画像又は代表画像群の表示システム、その方法、およびそのプログラム並びに、代表画像又は代表画像群の選択システム、その方法およびそのプログラム
US9549162B2 (en) Image processing apparatus, image processing method, and program
JP2008217428A (ja) 画像検索プログラム、方法及び装置
CN107247919A (zh) 一种视频情感内容的获取方法及系统
JP2013109537A (ja) 関心度推定装置及びそのプログラム
US20230216598A1 (en) Detection device
WO2020255307A1 (ja) 情報処理装置、情報処理方法、および記録媒体
EP3088058A1 (en) Analysis device, recording medium, and analysis method
US20110179003A1 (en) System for Sharing Emotion Data and Method of Sharing Emotion Data Using the Same
JP2019003585A (ja) 要約映像生成装置およびそのプログラム
JP5941078B2 (ja) 情報処理装置、プログラム及び方法
CN116910302A (zh) 一种多模态视频内容有效性反馈可视分析方法与系统
US10489460B2 (en) Method and apparatus for providing local search suggestion
KR20190094541A (ko) 코멘트 기반의 광고 추천 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121217

R151 Written notification of patent or utility model registration

Ref document number: 5169403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160111

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees