JP2009200827A - Electronic device and image display method - Google Patents
Electronic device and image display method Download PDFInfo
- Publication number
- JP2009200827A JP2009200827A JP2008040418A JP2008040418A JP2009200827A JP 2009200827 A JP2009200827 A JP 2009200827A JP 2008040418 A JP2008040418 A JP 2008040418A JP 2008040418 A JP2008040418 A JP 2008040418A JP 2009200827 A JP2009200827 A JP 2009200827A
- Authority
- JP
- Japan
- Prior art keywords
- content data
- video content
- image
- frame
- face image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Description
本発明は、映像コンテンツデータから抽出された画像の一覧を表示する電子機器および画像表示方法に関する。 The present invention relates to an electronic apparatus and an image display method for displaying a list of images extracted from video content data.
一般に、ビデオレコーダ、パーソナルコンピュータといった電子機器は、テレビジョン放送番組データのような各種映像コンテンツデータを記録および再生することが可能である。 Generally, electronic devices such as a video recorder and a personal computer can record and reproduce various video content data such as television broadcast program data.
この場合、電子機器に格納されたコンテンツデータにはタイトル名が付加されるが、タイトル名だけでは、ユーザが各映像コンテンツデータがどのような内容であるかを把握することは困難である。映像コンテンツデータの内容を把握するためには、その映像コンテンツデータを再生することが必要となる。 In this case, although the title name is added to the content data stored in the electronic device, it is difficult for the user to understand what the content of each video content data is based on the title name alone. In order to grasp the contents of the video content data, it is necessary to reproduce the video content data.
しかしながら、総時間長の長い映像コンテンツデータの再生には、早送り機能等を用いた場合であっても、多くの時間が要される。 However, the reproduction of video content data having a long total time length requires a lot of time even when a fast-forward function or the like is used.
特許文献1には、録画された映像コンテンツデータの効率的な検索と鑑賞を行うために、映像コンテンツデータのフレーム画像から顔領域を部分画像として切り出し、この切り出された顔領域部分画像を一覧表示し、この一覧表示した顔領域部分画像の中から特定のアイコンを指定することで、対応する映像コンテンツデータを指定したアイコンの表示位置において再生表示する技術が公開されている。
特許文献1に開示された技術を用いると、ユーザは、映像コンテンツデータに付加されたタイトル名を参照するだけでなく、映像コンテンツデータに含まれる顔領域部分画像をも参照して、その映像コンテンツデータの内容を効率的に知ることが可能となる。
Using the technique disclosed in
しかしながら、映像コンテンツデータの再生時に、切り出された顔領域部分画像を含むフレームが映像コンテンツデータ中のどこに位置するのかを認識するのは難しい。 However, when reproducing the video content data, it is difficult to recognize where the frame including the cut face area partial image is located in the video content data.
そこで、本発明は、ユーザによって指定された画像を含むフレームが映像コンテンツデータの再生時に映像コンテンツデータ中のどこに位置するのかを容易に認識することが可能な電子機器および画像表示制御方法を提供することを目的とする。 Accordingly, the present invention provides an electronic device and an image display control method capable of easily recognizing where a frame including an image designated by a user is located in the video content data when reproducing the video content data. For the purpose.
上記目的を達成するために、請求項1に関わる電子機器は、映像コンテンツデータから複数の代表画像を抽出する画像抽出手段と、前記複数の代表画像のうちの一つがユーザによって選択されている状態で、前記映像コンテンツデータの再生を指示する再生要求イベントが入力された場合、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている代表画像が含まれるフレームを強調して再生する再生手段と、を具備することを特徴とする。
In order to achieve the above object, an electronic apparatus according to
また、請求項7に関わる電子機器は、映像コンテンツデータから複数の顔画像を抽出する画像抽出手段と、前記画像抽出手段によって抽出された複数の顔画像の夫々が前記映像コンテンツデータの中で出現する時点を示すタイムスタンプ情報を出力するタイムスタンプ情報出力手段と、前記複数の顔画像のうちの一つがユーザによって選択されている状態で、前記映像コンテンツデータの再生を指示する再生要求イベントが入力された場合、前記選択されている顔画像に割り当てられているタイムスタンプ情報に基づき、前記選択されている顔画像が登場する時点よりも所定時間前の時点から前記映像コンテンツデータの再生を開始し、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている顔画像が含まれるフレームを強調して再生する再生手段と、を具備することを特徴とする。
In the electronic device according to
また、請求項13に関わる画像表示方法は、映像コンテンツデータに出現する画像の一覧を表示する画像表示方法において、前記映像コンテンツデータから複数の代表画像を抽出し、前記複数の代表画像のうちの一つがユーザによって選択されている状態で、前記映像コンテンツデータの再生を指示する再生要求イベントが入力された場合、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている代表画像が含まれるフレームを強調して再生することを特徴とする。
An image display method according to
本発明によれば、ユーザによって指定された画像を含むフレームが映像コンテンツデータの再生時に映像コンテンツデータ中のどこに位置するのかを容易に認識することが可能な電子機器および画像表示制御方法を提供することが可能となる。 According to the present invention, there are provided an electronic device and an image display control method capable of easily recognizing where a frame including an image designated by a user is located in video content data when the video content data is reproduced. It becomes possible.
以下、図面を参照して、本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
まず、図1および図2を参照して、本発明の一実施形態に係る電子機器の構成を説明する。本実施形態の電子機器は、例えば、情報処理装置として機能するノートブック型の携帯型パーソナルコンピュータ10から実現されている。
First, with reference to FIG. 1 and FIG. 2, the structure of the electronic device which concerns on one Embodiment of this invention is demonstrated. The electronic apparatus according to the present embodiment is realized by, for example, a notebook portable
このパーソナルコンピュータ10は、放送番組データ、外部機器から入力されるビデオデータといった、映像コンテンツデータ(オーディオビジュアルコンテンツデータ)を記録および再生することができる。即ち、パーソナルコンピュータ10は、テレビジョン放送信号によって放送される放送番組データの視聴および録画を実行するためのテレビジョン(TV)機能を有している。
The
このTV機能は、例えば、パーソナルコンピュータ10に予めインストールされているTVアプリケーションプログラムによって実現されている。また、TV機能は、外部のAV機器から入力されるビデオデータを記録する機能、および記録されたビデオデータおよび記録された放送番組データを再生する機能も有している。
This TV function is realized by, for example, a TV application program installed in the
さらに、パーソナルコンピュータ10は、パーソナルコンピュータ10に格納された、ビデオデータ、放送番組データのような映像コンテンツデータ中に出現するオブジェクトの画像のような代表画像の一覧、例えば、映像コンテンツデータに出現する人物の顔画像の一覧等を表示する画像一覧表示機能を有している。この顔画像一覧表示機能は、例えば、TV機能内にその一機能として実装されている。
Furthermore, the
顔画像一覧表示機能は、ナビゲーション対象としてユーザによって選択された映像コンテンツデータの概要等をユーザに提示するための映像インデキシング機能の一つである。この顔画像一覧表示機能は、ナビゲーション対象の映像コンテンツデータ全体の中のどの時間帯にどの人物が登場するのかをユーザに提示することができる。また、この顔画像一覧表示機能は、映像コンテンツデータ内に含まれる所定の属性区間に着目して人物の一覧を表示することもできる。 The face image list display function is one of video indexing functions for presenting the user with an overview of video content data selected by the user as a navigation target. This face image list display function can present to the user which person appears in which time zone in the entire video content data to be navigated. The face image list display function can also display a list of persons by paying attention to a predetermined attribute section included in the video content data.
図1はコンピュータ10のディスプレイユニットを開いた状態における斜視図である。本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、TFT−LCD(Thin Film Transistor Liquid Crystal Display)17から構成される表示装置が組み込まれている。
FIG. 1 is a perspective view of the
ディスプレイユニット12は、コンピュータ本体11に対し、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在に取り付けられている。コンピュータ本体11は薄い箱形の筐体を有しており、その上面にはキーボード13、本コンピュータ10をパワーオン/パワーオフするためのパワーボタン14、入力操作パネル15、タッチパッド16、およびスピーカ18A,18Bなどが配置されている。
The
入力操作パネル15は、押されたボタンに対応するイベントを入力する入力装置であり、複数の機能をそれぞれ起動するための複数のボタンを備えている。これらボタン群には、TV機能(放送番組データ/ビデオデータの視聴、放送番組データ/ビデオデータの録画、録画された放送番組データ/ビデオデータの再生)を制御するための操作ボタン群も含まれている。
The
また、コンピュータ本体11の正面には、本コンピュータ10のTV機能をリモート制御するリモコンユニットとの通信を実行するためのリモコンユニットインタフェース部20が設けられている。リモコンユニットインタフェース部20は、赤外線信号受信部などから構成されている。
In addition, a remote control
コンピュータ本体11の例えば右側面には、TV放送用のアンテナ端子19が設けられている。また、コンピュータ本体11の例えば背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子が設けられている。この外部ディスプレイ接続端子は、放送番組データのような映像コンテンツデータに含まれる映像データ(動画像データ)を外部ディスプレイに出力するために用いられる。
On the right side of the computer
次に、図2を参照して、本コンピュータ10のシステム構成について説明する。
Next, the system configuration of the
本コンピュータ10は、図2に示されているように、CPU101、ノースブリッジ102、主メモリ103、サウスブリッジ104、グラフィクスプロセッシングユニット(GPU)105、ビデオメモリ(VRAM)105A、サウンドコントローラ106、BIOS−ROM109、LANコントローラ110、ハードディスクドライブ(HDD)111、DVDドライブ112、ビデオプロセッサ113、メモリ113A、カードコントローラ113、無線LANコントローラ114、IEEE 1394コントローラ115、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116、TVチューナ117、およびEEPROM118等を備えている。
As shown in FIG. 2, the
CPU101は本コンピュータ10の動作を制御するプロセッサであり、ハードディスクドライブ(HDD)111から主メモリ103にロードされる、オペレーティングシステム(OS)201、およびTVアプリケーションプログラム202のような各種アプリケーションプログラムを実行する。
The
TVアプリケーションプログラム202はTV機能を実行するためのソフトウェアである。このTVアプリケーションプログラム202は、TVチューナ117によって受信された放送番組データを視聴するためのライブ再生処理、受信された放送番組データをHDD111に記録する録画処理、およびHDD111に記録された放送番組データ/ビデオデータを再生する再生処理等を実行する。
The
また、CPU101は、BIOS−ROM109に格納されたBIOS(Basic Input Output System)も実行する。BIOSはハードウェア制御のためのプログラムである。
The
ノースブリッジ102はCPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
The
GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ装置1にデジタル映像信号を送出することもできる。
The GPU 105 is a display controller that controls the
HDMI端子2は上述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号と、デジタルオーディオ信号とを一本のケーブルでテレビのような外部ディスプレイ装置1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ装置1にデジタル映像信号をHDMI端子2を介して送出するためのインタフェースである。
The
サウスブリッジ104は、LPC(Low Pin Count)バス上の各デバイス、およびPCI(Peripheral Component Interconnect)バス上の各デバイスを制御する。また、サウスブリッジ104は、ハードディスクドライブ(HDD)111およびDVDドライブ112を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
The
またさらに、サウスブリッジ104には、PCI EXPRESS規格のシリアルバスなどを介してビデオプロセッサ113が接続されている。
Furthermore, a
ビデオプロセッサ113は、前述の映像インデキシングに関する各種処理を実行するプロセッサである。このビデオプロセッサ113は、映像インデキシング処理を実行するためのインデキシング処理部として機能する。
The
映像インデキシング処理においては、ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データから複数の代表画像を抽出すると共に、抽出された各代表画像が映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報、抽出された各代表画像が映像コンテンツデータ内のどこに位置するのかを示す位置情報等を出力する。
In the video indexing process, the
代表画像としては、例えば、人物の顔画像を使用し得る。顔画像の抽出は、例えば、映像コンテンツデータに含まれる動画像データを構成する各フレームから顔領域を検出する顔検出処理、検出された顔領域をフレームから切り出す切り出し処理等によって実行される。顔領域の検出は、例えば、各フレームの画像の特徴を解析して、予め用意された顔画像特徴サンプルと類似する特徴を有する領域を探索することによって行うことができる。顔画像特徴サンプルは、多数の人物それぞれの顔画像特徴を統計的に処理することによって得られた特徴データである。 As the representative image, for example, a human face image can be used. The extraction of the face image is executed by, for example, a face detection process for detecting a face area from each frame constituting moving image data included in the video content data, a cut-out process for cutting out the detected face area from the frame, and the like. The face area can be detected by, for example, analyzing an image feature of each frame and searching for an area having a feature similar to a face image feature sample prepared in advance. The face image feature sample is feature data obtained by statistically processing the face image features of a large number of persons.
また、代表画像として人物の顔画像を使用する場合、動画像データを構成する各フレームから検出された顔領域を切り出す処理時に、フレーム中における検出された顔領域の位置を示す顔領域位置情報を出力する。 Also, when using a human face image as a representative image, face area position information indicating the position of the detected face area in the frame is extracted during the process of cutting out the detected face area from each frame constituting the moving image data. Output.
メモリ113Aは、ビデオプロセッサ113の作業メモリとして用いられる。映像インデキシング処理といったインデキシング処理を実行するためには多くの演算量が必要とされる。
The
本実施形態においては、CPU101とは異なる専用のプロセッサであるビデオプロセッサ113がバックエンドプロセッサとして使用され、このビデオプロセッサ113によってインデキシング処理が実行される。よって、CPU101の負荷の増加を招くことなく、インデキシング処理を実行することが出来る。
In the present embodiment, a
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。
The
無線LANコントローラ114は、たとえばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。IEEE 1394コントローラ115は、IEEE 1394規格のシリアルバスを介して外部機器との通信を実行する。
The
エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、電力管理のためのエンベデッドコントローラと、キーボード(KB)13およびタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。このエンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10をパワーオン/パワーオフする機能を有している。さらに、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、リモコンユニットインタフェース20との通信を実行する機能を有している。
The embedded controller / keyboard controller IC (EC / KBC) 116 is a one-chip microcomputer in which an embedded controller for power management and a keyboard controller for controlling the keyboard (KB) 13 and the
TVチューナ117はテレビジョン(TV)放送信号によって放送される放送番組データを受信する受信装置であり、アンテナ端子19に接続されている。このTVチューナ117は、例えば、地上波デジタルTV放送のようなデジタル放送番組データを受信可能なデジタルTVチューナとして実現されている。また、TVチューナ117は、外部機器から入力されるビデオデータをキャプチャする機能も有している。
The
次に、図3を参照して、TVアプリケーションプログラム202によって実行される顔画像一覧表示機能について説明する。
Next, the face image list display function executed by the
放送番組データのような映像コンテンツデータに対するインデキシング処理は、上述したように、インデキシング処理部として機能するビデオプロセッサ113によって実行される。
As described above, the indexing process for video content data such as broadcast program data is executed by the
ビデオプロセッサ113は、TVアプリケーションプログラム202の制御の下、例えば、ユーザによって指定された録画済みの放送番組データ等の映像コンテンツデータに対してインデキシング処理を実行する。また、ビデオプロセッサ113は、TVチューナ117によって受信された放送番組データをHDD111に格納する録画処理と並行して、当該受信された放送番組データに対するインデキシング処理を実行することもできる。
Under the control of the
映像インデキシング処理(顔画像インデキシング処理とも云う)においては、ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データをフレーム単位で解析する。そして、ビデオプロセッサ113は、動画像データを構成する複数のフレームそれぞれから人物の顔画像を抽出すると共に、抽出された各顔画像が映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報を出力する。各顔画像に対応するタイムスタンプ情報としては、映像コンテンツデータの開始から当該顔画像が登場するまでの経過時間、または当該顔画像が抽出されたフレーム番号、等を使用することが出来る。
In the video indexing process (also referred to as face image indexing process), the
さらに、ビデオプロセッサ113は、抽出された各顔画像のサイズ(解像度)も出力する。ビデオプロセッサ113から出力される顔検出結果データ(顔画像、タイムスタンプ情報TS、およびサイズ)は、データベース111Aに顔画像インデキシング情報として格納される。このデータベース111Aは、HDD111内に用意されたインデキシングデータ記憶用の記憶領域である。
Furthermore, the
さらに、映像インデキシング処理においては、ビデオプロセッサ113は、顔画像を抽出する処理と並行して、サムネイル画像取得処理も実行する。サムネイル画像は、映像コンテンツデータから例えば等時間間隔で抽出された複数のフレームの各々に対応する画像(縮小画像)である。すなわち、ビデオプロセッサ113は、顔画像を含むフレームであるか否かに関係なく、映像コンテンツデータから例えば所定の等時間間隔でフレームを順次抽出し、抽出した各フレームに対応する画像(サムネイル画像)と、そのサムネイル画像が出現する時点を示すタイムスタンプ情報TSとを出力する。ビデオプロセッサ113から出力されるサムネイル画像取得結果データ(サムネイル、タイムスタンプ情報TS)も、データベース111Aにサムネイルインデキシング情報として格納される。
Further, in the video indexing process, the
図3に示されているように、TVアプリケーションプログラム202は、顔画像一覧表示機能を実行するための顔画像一覧表示処理部301を含んでいる。この顔画像一覧表示処理部301は、例えば、インデキシングビューワプログラムとして実現されており、データベース111Aに格納されたインデキシング情報(顔画像インデキシング情報、サムネイルインデキシング情報等)を用いて、映像コンテンツデータの概要を俯瞰するためのインデキシングビュー画面を表示する。
As shown in FIG. 3, the
具体的には、顔画像一覧表示処理部301は、データベース111Aから顔画像インデキシング情報(顔画像、タイムスタンプ情報TS、およびサイズ)を読み出し、そしてその顔画像インデキシング情報を用いて、映像コンテンツデータに登場する人物の顔画像の一覧を、インデキシングビュー画面上の2次元の表示エリア(以下、顔サムネイル表示エリアと称する)上に表示する。この場合、顔画像一覧表示処理部301は、映像コンテンツデータの総時間長を、例えば等間隔で、複数の時間帯に分割し、時間帯毎に、抽出された顔画像の内から当該時間帯に登場する顔画像を所定個選択する。そして、顔画像一覧表示処理部301は、時間帯毎に、選択した所定個の顔画像それぞれを並べて表示する。
Specifically, the face image list
すなわち、2次元の顔サムネイル表示エリアは、複数の行および複数の列を含むマトリクス状に配置された複数の顔画像表示エリアを含む。複数の列それぞれには、映像コンテンツデータの総時間長を構成する複数の時間帯が割り当てられている。具体的には、例えば、複数の列それぞれには、映像コンテンツデータの総時間長をこれら複数の列の数で等間隔に分割することによって得られる、互いに同一の時間長を有する複数の時間帯がそれぞれ割り当てられる。もちろん、各列に割り当てられる時間帯は必ずしも同一の時間長でなくてもよい。 That is, the two-dimensional face thumbnail display area includes a plurality of face image display areas arranged in a matrix including a plurality of rows and a plurality of columns. A plurality of time zones constituting the total time length of the video content data are assigned to each of the plurality of columns. Specifically, for example, in each of the plurality of columns, a plurality of time zones having the same time length obtained by dividing the total time length of the video content data at equal intervals by the number of the plurality of columns. Are assigned to each. Of course, the time zone allocated to each column does not necessarily have the same time length.
顔画像一覧表示処理部301は、顔画像それぞれに対応するタイムスタンプ情報TSに基づき、各列内に属する行数分の顔画像表示エリア上に、当該各列に割り当てられた時間帯に属する顔画像それぞれを、例えば、それら顔画像の出現頻度順(顔画像の検出時間長順)のような順序で並べて表示する。この場合、例えば、当該各列に割り当てられた時間帯に属する顔画像の内から、出現頻度(登場頻度)の高い順に顔画像が行数分だけ選択され、選択された顔画像が登場頻度順に上から下に向かって並んで配置される。もちろん、出現頻度順ではなく、各列に割り当てられた時間帯に出現する顔画像それぞれを、その出現順に並べて表示してもよい。
The face image list
この顔画像一覧表示機能により、映像コンテンツデータ全体の中のどの時間帯にどの人物が登場するのかをユーザに分かりやすく提示することができる。顔サムネイル表示エリアの具体的な構成例については、図6以降で後述する。 With this face image list display function, it is possible to easily show to the user which person appears in which time zone in the entire video content data. A specific configuration example of the face thumbnail display area will be described later with reference to FIG.
また、顔画像一覧表示処理部301は、データベース111Aからサムネイルインデキシング情報(サムネイル、タイムスタンプ情報TS)を読み出し、そしてサムネイルインデキシング情報を用いて、サムネイル画像それぞれを、顔サムネイル表示エリアの下方側または上方側の一方に配置されたサムネイル表示エリア(以下、じゃばらサムネイル表示エリアと称する)上に、それらサムネイル画像の出現時間順に一列に並べて表示する。
In addition, the face image list
映像コンテンツデータによっては、顔画像が登場しない時間帯も存在する。したがって、インデキシングビュー画面上に顔サムネイル表示エリアのみならず、じゃばらサムネイル表示エリアも表示することにより、顔画像が登場しない時間帯においても、その時間帯の映像コンテンツデータの内容をユーザに提示することができる。 Depending on the video content data, there may be a time period when the face image does not appear. Therefore, by displaying not only the face thumbnail display area but also the loose thumbnail display area on the indexing view screen, the contents of the video content data in that time period can be presented to the user even during the time period when the face image does not appear. Can do.
次に、図4を参照して、TVアプリケーションプログラム202の機能構成を説明する。
Next, the functional configuration of the
TVアプリケーションプログラム202は、上述の顔画像一覧表示処理部301に加え、記録処理部401、インデキシング制御部402、再生処理部403等を備えている。
The
記録処理部401は、TVチューナ117によって受信された放送番組データ、または外部機器から入力されるビデオデータをHDD111に記録する記録処理を実行する。また、記録処理部401は、ユーザによって予め設定された録画予約情報(チャンネル番号、日時)によって指定される放送番組データをTVチューナ117を用いて受信し、その放送番組データをHDD111に記録する予約録画処理も実行する。
The
インデキシング制御部402は、ビデオプロセッサ(インデキシング処理部)113を制御して、インデキシング処理をビデオプロセッサ113に実行させる。ユーザは、録画対象の放送番組データ毎にインデキシング処理を実行するか否かを指定することができる。例えば、インデキシング処理の実行が指示された録画対象の放送番組データについては、その放送番組データをHDD111に記録する処理と並行してインデキシング処理が自動的に開始される。また、ユーザは、既にHDD111に格納されている映像コンテンツデータの内から、インデキシング処理を実行すべき映像コンテンツデータを指定することもできる。
The
再生処理部403は、HDD111に格納されている各映像コンテンツデータを再生する処理を実行する。また、再生処理部403は、ある映像コンテンツデータの顔画像一覧の中の一つの顔画像が選択されている状態でユーザ操作によって再生要求イベントが入力された時、選択されている顔画像が登場する時点よりも所定時間前の時点から映像コンテンツデータの再生を開始する機能を有している。
The
ユーザは、顔画像一覧を見ながら、映像コンテンツデータの再生を開始すべき位置を決定することができる。 The user can determine the position where the reproduction of the video content data is to be started while viewing the face image list.
なお、インデキシング処理は、必ずしもビデオプロセッサ113によって実行する必要はなく、例えば、TVアプリケーションプログラム202にインデキシング処理を実行する機能を設けてもよい。この場合、インデキシング処理は、TVアプリケーションプログラム202の制御の下に、CPU101によって実行される。
Note that the indexing process is not necessarily executed by the
次に、図5および6を参照して、インデキシングビュー画面の具体的な構成について説明する。 Next, a specific configuration of the indexing view screen will be described with reference to FIGS.
図5には、顔画像一覧表示処理部301によってLCD17に表示されるインデキシングビュー画面の例が示されている。このインデキシングビュー画面は、ある映像コンテンツデータ(例えば放送番組データ)をインデキシング処理することによって得られた画面である。このインデキシングビュー画面には、顔画像の一覧を表示するための上述の顔サムネイル表示エリアとサムネイル画像の一覧をじゃばら形式で表示するための上述のじゃばらサムネイル表示エリアとを含んでいる。
FIG. 5 shows an example of an indexing view screen displayed on the
ここで、じゃばら形式とは、選択されているサムネイル画像を通常サイズで表示し、他の各サムネイル画像についてはその横方向サイズを縮小して表示する表示形式である。図5においては、左端のサムネイル画像が選択されている場合を示している。 Here, the loose format is a display format in which a selected thumbnail image is displayed in a normal size, and the other thumbnail images are displayed in a reduced size in the horizontal direction. FIG. 5 shows the case where the leftmost thumbnail image is selected.
顔画像一覧表示処理部301は、ユーザ操作によって選択されたサムネイル画像を第1の横幅サイズで表示し、他の各サムネイル画像の横幅サイズを第1の横幅サイズよりも小さい横幅サイズで表示する。具体的には、選択されたサムネイル画像は第1の横幅サイズで表示され、その選択されたサムネイル画像の近傍の幾つかサムネイル画像はその横幅が縮小された状態で表示され、他の各サムネイル画像はさらに僅かな横幅で表示される。選択されているサムネイル画像には、さらに矩形の枠を付加してもよい。
The face image list
顔サムネイル表示エリアにおいては、複数の顔画像の一覧が表示される。なお、顔画像が一定期間以上連続して検出されなかった場合には、フレーム全体のサムネイル画像を顔サムネイル表示エリアに表示しても良い。また、シーンの変わり目毎に、フレーム全体のサムネイル画像を顔サムネイル表示エリアに表示しても良い。 In the face thumbnail display area, a list of a plurality of face images is displayed. When face images are not detected continuously for a certain period or longer, thumbnail images of the entire frame may be displayed in the face thumbnail display area. In addition, a thumbnail image of the entire frame may be displayed in the face thumbnail display area at each scene change.
図6は、顔サムネイル表示エリアの構成例が示されている。 FIG. 6 shows a configuration example of the face thumbnail display area.
顔サムネイル表示エリアは、複数の行と複数の列とを含むマトリクス状に配置された複数個の顔画像表示エリアを含んでいる。図6においては、顔サムネイル表示エリアは6行×16列から構成されている。顔サムネイル表示エリアに含まれる顔画像表示エリアの数は、96個である。 The face thumbnail display area includes a plurality of face image display areas arranged in a matrix including a plurality of rows and a plurality of columns. In FIG. 6, the face thumbnail display area is composed of 6 rows × 16 columns. The number of face image display areas included in the face thumbnail display area is 96.
列1〜列16のそれぞれには、例えば、映像コンテンツデータの総時間長を列数(=16)で等間隔で分割することによって得られる、互いに同一の時間長Tを有する複数の時間帯がそれぞれ割り当てられる。
Each of the
例えば、映像コンテンツデータの総時間長が2時間であるならば、その2時間が16個の時間帯に等間隔で分割される。この場合、各時間帯の時間長Tは、7.5分である。例えば、列1には、先頭0:00:00から0:07:30までの時間帯が割り当てられ、列2には、0:07:30から0:15:00までの時間帯が割り当てられ、列3には、0:15:00から0:22:30までの時間帯が割り当てられる。映像コンテンツデータの総時間長に応じて、各時間帯の時間長Tは変化する。
For example, if the total time length of the video content data is 2 hours, the 2 hours are divided into 16 time zones at equal intervals. In this case, the time length T of each time zone is 7.5 minutes. For example,
もちろん、複数の列それぞれに割り当てられる時間帯の長さは、必ずしも同一である必要はない。 Of course, the length of the time zone assigned to each of the plurality of columns is not necessarily the same.
顔画像一覧表示処理部301は、ビデオプロセッサ113によって抽出された顔画像それぞれに対応するタイムスタンプ情報に基づき、各列内の6個の顔画像表示エリア上に、当該各列に割り当てられた時間帯に属する顔画像それぞれをたとえば上述の頻度順に並べて表示する。この場合、顔画像一覧表示処理部301は、表示処理対象の列に割り当てられた時間帯に属する顔画像の内から行数分(6個)の顔画像を選択し、選択した行数分の顔画像それぞれを並べて表示する。
The face image list
このように、顔サムネイル表示エリアにおいては、左端位置(1,1)を基点とし、右端位置(6,16)を映像コンテンツデータの終端とする時間軸が用いられている。 In this way, the face thumbnail display area uses a time axis with the left end position (1, 1) as the base point and the right end position (6, 16) as the end of the video content data.
顔サムネイル表示エリアの各顔画像表示エリアに表示される顔画像のサイズは"大"、"中"、"小"の内からユーザが選択することができる。行と列の数は、ユーザが選択した顔画像のサイズに応じて変化される。顔画像のサイズと行と列の数との関係は、次の通りである。 The size of the face image displayed in each face image display area of the face thumbnail display area can be selected by the user from among “large”, “medium”, and “small”. The number of rows and columns is changed according to the size of the face image selected by the user. The relationship between the size of the face image and the number of rows and columns is as follows.
(1)"大"の場合; 3行×8列 (1) "Large"; 3 rows x 8 columns
(2)"中"の場合; 6行×16列 (2) “Medium”; 6 rows x 16 columns
(3)"小"の場合: 10行×24列 (3) "Small": 10 rows x 24 columns
"大"の場合においては、各顔画像は、例えば、180×180ピクセルのサイズで表示される。"中"の場合においては、各顔画像は、例えば、90×90ピクセルのサイズで表示される。"小"の場合においては、各顔画像は、例えば、60×60ピクセルのサイズで表示される。デフォルトの顔画像サイズは、例えば、"中"に設定されている。 In the case of “large”, each face image is displayed with a size of, for example, 180 × 180 pixels. In the case of “medium”, each face image is displayed with a size of 90 × 90 pixels, for example. In the case of “small”, each face image is displayed with a size of 60 × 60 pixels, for example. The default face image size is set to “medium”, for example.
顔サムネイル表示エリア内の各顔画像は、選択されていない"標準"状態、選択されている"フォーカス"状態の2つの状態のいずれかに設定される。"フォーカス"状態の顔画像のサイズは、"標準"状態の時のサイズ(180×180、90×90、または60×60)よりも大きく設定される。図8においては、座標(1,12)の顔画像が"フォーカス"状態である場合を示している。 Each face image in the face thumbnail display area is set to one of two states, a “standard” state that is not selected and a “focus” state that is selected. The size of the face image in the “focus” state is set larger than the size in the “standard” state (180 × 180, 90 × 90, or 60 × 60). FIG. 8 shows a case where the face image at the coordinates (1, 12) is in the “focus” state.
じゃばらサムネイル表示エリアに表示されるサムネイル画像の枚数は、ユーザ設定に従って、例えば240枚、144枚、96枚、48枚のいずれかに設定される。デフォルトは例えば240枚である。 The number of thumbnail images displayed in the loose thumbnail display area is set to, for example, 240, 144, 96, or 48 according to the user setting. The default is 240 sheets, for example.
サムネイル画像は、選択されていない"標準"状態、選択されている"フォーカス"状態の2つの状態のいずれかに設定される。"フォーカス"状態のサムネイル画像は、他のサムネイル画像よりも大きいサイズで表示される。 The thumbnail image is set to one of two states, a “standard” state that is not selected and a “focus” state that is selected. A thumbnail image in the “focus” state is displayed in a larger size than other thumbnail images.
次に、顔サムネイル表示エリア内の顔画像一覧の中の一つの顔画像を選択するユーザ操作に伴って再生要求イベントが発生した場合に開始される映像コンテンツデータの再生時に、ユーザによって選択された顔画像が含まれるフレームを強調して再生する第一の実施例について図7を用いて説明する。 Next, it is selected by the user when playing the video content data that is started when a playback request event occurs in response to a user operation for selecting one face image in the face image list in the face thumbnail display area. A first embodiment for emphasizing and reproducing a frame including a face image will be described with reference to FIG.
ユーザによる顔画像選択操作に応じた再生要求イベントが発生すると、選択された顔画像に割り当てられているタイムスタンプ情報をリードする(ステップ S100)。 When the reproduction request event corresponding to the face image selection operation by the user occurs, the time stamp information assigned to the selected face image is read (step S100).
ステップS100にてリードされたタイムスタンプ情報に基づいて、顔画像一覧表示処理部301はHDD111に対して、リードされたタイムスタンプ情報の値から所定の値だけ小さい値が割り当てられているフレームをはじめとする所定枚数のフレーム群を取得するためのフレーム取得要求を出す(ステップ S101)。
Based on the time stamp information read in step S100, the face image list
ステップS100にてリードされたタイムスタンプ情報の値から所定値だけ小さい値が割り当てられているフレームをはじめとする所定枚数のフレーム群を取得する理由は、ユーザによって選択された顔画像が登場する時点よりも所定時間前の時点から映像コンテンツデータを再生するためである。 The reason for acquiring a predetermined number of frames including a frame to which a value smaller by a predetermined value than the value of the time stamp information read in step S100 is obtained is when the face image selected by the user appears. This is because the video content data is reproduced from a point in time before the predetermined time.
ステップS101のフレーム取得要求に応じてHDD111から読み出された複数のフレーム群のうち、ステップS100にてリードしたタイムスタンプ情報の値と同じ値を有するタイムスタンプ情報が割り当てられているフレームを特定する(ステップ S102)。
Of the plurality of frame groups read from the
再生処理部403は、ステップS101のフレーム取得要求に応じて読み出された複数のフレーム群の再生において、ステップS102で特定されたフレームの再生時に所定時間に亘って再生を停止する。すなわち、再生処理部403は、ステップS101のフレーム取得要求に応じて読み出された複数のフレーム群の再生において、ステップS102にて特定されたフレームを、ステップS102にて特定されたフレームとは異なるフレーム夫々の再生時間よりも長い時間に亘って再生する(ステップ S103)。
In the reproduction of the plurality of frame groups read in response to the frame acquisition request in step S101, the
このように、顔サムネイル表示エリア内の顔画像一覧の中からユーザによって選択された一つの顔画像が含まれるフレームの再生時に所定時間に亘って再生を停止することで、映像コンテンツデータの再生においてユーザによって選択された一つの顔画像が含まれるフレームが強調して再生され、ユーザによって選択された顔画像が含まれるフレームが映像コンテンツデータの中のどこに位置するのかをユーザは容易に認識することが可能となる。 As described above, in the reproduction of the video content data, the reproduction is stopped for a predetermined time when the frame including one face image selected by the user from the face image list in the face thumbnail display area is reproduced. A frame including one face image selected by the user is emphasized and reproduced, and the user can easily recognize where in the video content data the frame including the face image selected by the user is located. Is possible.
次に、第二の実施例について図8を用いて説明する。上述にて説明した第一の実施例と比較して異なる処理は、ステップS103以降の処理である。 Next, a second embodiment will be described with reference to FIG. The processing different from that in the first embodiment described above is processing after step S103.
第二の実施例はステップS102にて特定されたフレームに対して加工処理を施す例である。すなわち、図9の(2)に示すように、ステップS102にて特定されたフレームの背景の色を特定の色に指定する(ステップ S203)。 The second embodiment is an example in which processing is performed on the frame specified in step S102. That is, as shown in (2) of FIG. 9, the background color of the frame specified in step S102 is designated as a specific color (step S203).
再生処理部403は、ステップS101のフレームリード要求に応じて読み出された複数のフレーム群の再生において、ステップS203にて指定された特定の色を背景色とするフレームを再生する(ステップ S204)。
In the reproduction of a plurality of frame groups read in response to the frame read request in step S101, the
このように、顔サムネイル表示エリア内の顔画像一覧の中からユーザによって選択された一つの顔画像が含まれるフレームの背景色として特定の色を指定して再生することで、映像コンテンツの再生においてユーザによって選択された一つの顔画像が含まれるフレームが強調して再生され、ユーザによって選択された顔画像が含まれるフレームが映像コンテンツの中のどこに位置するのかをユーザは容易に認識することが可能となる。 In this way, by reproducing a video content by designating a specific color as a background color of a frame including one face image selected by the user from the face image list in the face thumbnail display area. A frame including one face image selected by the user is emphasized and reproduced, and the user can easily recognize where in the video content the frame including the face image selected by the user is located. It becomes possible.
次に、第三の実施例について図10を用いて説明する。上述にて説明した第一の実施例と比較して異なる処理は、ステップS103以降の処理である。 Next, a third embodiment will be described with reference to FIG. The processing different from that in the first embodiment described above is processing after step S103.
第三の実施例はステップS102にて特定したフレームに対して加工処理を施す例である。すなわち、図11の(2)に示すように、ステップS102にて特定されたフレーム中のユーザによって選択された顔画像と一致する領域を強調表示する例である。図11に示す例では、ステップS102にて特定されたフレームに含まれる、ユーザによって選択された顔画像に一致する領域を枠で囲うように、ステップS102にて特定されたフレームに枠画像をオーバレイ処理する(ステップ S303)。このステップS303の処理は、上述にて説明した、フレームから検出された顔領域を切り出す処理時に作成された顔領域位置情報を用いて行われる。 The third embodiment is an example in which a processing process is performed on the frame specified in step S102. In other words, as shown in (2) of FIG. 11, an area that matches the face image selected by the user in the frame specified in step S102 is highlighted. In the example shown in FIG. 11, the frame image is overlaid on the frame specified in step S102 so as to surround the area that matches the face image selected by the user included in the frame specified in step S102. Process (step S303). The process of step S303 is performed using the face area position information created during the process of cutting out the face area detected from the frame described above.
再生処理部403は、ステップS101のフレームリード要求に応じて読み出された複数のフレーム群の再生において、ステップS303にて枠画像がオーバレイ処理されたフレームを再生する(ステップ S304)。
In the reproduction of a plurality of frame groups read in response to the frame read request in step S101, the
このように、顔サムネイル表示エリア内の顔画像一覧の中からユーザによって選択された一つの顔画像に一致する領域を枠で囲うように処理されたフレームを再生することで、映像コンテンツデータの再生においてユーザによって選択された一つの顔画像が含まれるフレームが強調して再生され、ユーザによって選択された顔画像が含まれるフレームが映像コンテンツデータの中のどこに位置するのかをユーザは容易に認識することが可能となる。 As described above, the video content data is reproduced by reproducing the frame processed so as to enclose the area matching the one face image selected by the user from the face image list in the face thumbnail display area. The frame including one face image selected by the user is emphasized and reproduced, and the user easily recognizes where in the video content data the frame including the face image selected by the user is located. It becomes possible.
また、ユーザによって選択された一つの顔画像に一致する領域に対して枠付け処理したフレームを再生することで、映像コンテンツデータの再生において、ユーザによって選択された一つの顔画像がどこに現れるのかをユーザは容易に認識することが可能となる。 In addition, by playing back a frame that has been framed with respect to an area that matches one face image selected by the user, where the face image selected by the user appears in the playback of video content data. The user can easily recognize.
上述にて説明した第三の実施例では、特定したフレーム中のユーザによって選択された顔画像と一致する領域を強調表示する一例として、この領域を枠で囲う一例を説明したが、この構成に限ることは無く、例えば、ユーザによって選択された顔画像と一致する領域を拡大処理して、この拡大処理した顔画像をフレームに重ね合わせて表示させてもよい。 In the third embodiment described above, as an example of highlighting an area that matches the face image selected by the user in the specified frame, an example in which this area is surrounded by a frame has been described. For example, an area that matches the face image selected by the user may be enlarged, and the enlarged face image may be displayed superimposed on the frame.
また、上述にて説明した第一乃至第三の実施例では、映像インデキシング処理にて動画像データから抽出された代表画像の一例である顔画像をユーザが顔サムネイル表示エリア内の顔画像一覧から選択する構成について説明したが、この構成に限ることは無く、代表画像の一例として顔画像以外の画像であってもよい。 In the first to third embodiments described above, the user selects a face image, which is an example of a representative image extracted from the moving image data by the video indexing process, from the face image list in the face thumbnail display area. Although the configuration to be selected has been described, the configuration is not limited to this configuration, and an image other than a face image may be used as an example of a representative image.
本発明は上記実施形態をそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示されている全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
10…電子機器(コンピュータ)、111A…データベース、
113…ビデオプロセッサ、117…TVチューナ、301…顔画像一覧表示処理部、402…インデキシング制御部、403…再生処理部
10 ... electronic device (computer), 111A ... database,
113 ... Video processor, 117 ... TV tuner, 301 ... Face image list display processing unit, 402 ... Indexing control unit, 403 ... Reproduction processing unit
Claims (18)
前記複数の代表画像のうちの一つがユーザによって選択されている状態で、前記映像コンテンツデータの再生を指示する再生要求イベントが入力された場合、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている代表画像が含まれるフレームを強調して再生する再生手段と、
を具備することを特徴とする電子機器。 Image extracting means for extracting a plurality of representative images from video content data;
When a playback request event instructing playback of the video content data is input in a state where one of the plurality of representative images is selected by the user, the frame content constituting the video content data Playback means for enhancing and playing back a frame including the selected representative image;
An electronic device comprising:
前記再生手段は、前記加工処理手段によって加工処理されたフレームを再生する再生手段であることを特徴とする請求項1記載の電子機器。 Further comprising processing means for processing a frame including the selected representative image in the frame group constituting the video content data,
2. The electronic apparatus according to claim 1, wherein the reproduction unit is a reproduction unit that reproduces a frame processed by the processing unit.
前記画像抽出手段によって抽出された複数の顔画像の夫々が前記映像コンテンツデータの中で出現する時点を示すタイムスタンプ情報を出力するタイムスタンプ情報出力手段と、
前記複数の顔画像のうちの一つがユーザによって選択されている状態で、前記映像コンテンツデータの再生を指示する再生要求イベントが入力された場合、前記選択されている顔画像に割り当てられているタイムスタンプ情報に基づき、前記選択されている顔画像が登場する時点よりも所定時間前の時点から前記映像コンテンツデータの再生を開始し、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている顔画像が含まれるフレームを強調して再生する再生手段と、
を具備することを特徴とする電子機器。 Image extracting means for extracting a plurality of face images from video content data;
Time stamp information output means for outputting time stamp information indicating a time point at which each of the plurality of face images extracted by the image extraction means appears in the video content data;
When a playback request event instructing playback of the video content data is input in a state where one of the plurality of face images is selected by a user, a time allocated to the selected face image Based on the stamp information, reproduction of the video content data is started from a time point a predetermined time before the time point when the selected face image appears, and the selected image is selected from the frame group constituting the video content data. Reproduction means for emphasizing and reproducing a frame including a face image that is present,
An electronic device comprising:
前記再生手段は、前記加工処理手段によって加工処理されたフレームを再生する再生手段であることを特徴とする請求項7記載の電子機器。 Processing means for processing a frame including the selected face image in a frame group constituting the video content data;
8. The electronic apparatus according to claim 7, wherein the reproducing unit is a reproducing unit that reproduces a frame processed by the processing unit.
前記映像コンテンツデータから複数の代表画像を抽出し、
前記複数の代表画像のうちの一つがユーザによって選択されている状態で、前記映像コンテンツデータの再生を指示する再生要求イベントが入力された場合、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている代表画像が含まれるフレームを強調して再生することを特徴とする画像表示方法。 In an image display method for displaying a list of images appearing in video content data,
Extracting a plurality of representative images from the video content data;
When a playback request event instructing playback of the video content data is input in a state where one of the plurality of representative images is selected by the user, the frame content constituting the video content data An image display method, wherein a frame including a selected representative image is emphasized and reproduced.
前記加工処理されたフレームを再生することを特徴とする請求項13記載の画像表示方法。 Processing a frame including the selected representative image in a frame group constituting the video content data;
14. The image display method according to claim 13, wherein the processed frame is reproduced.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008040418A JP2009200827A (en) | 2008-02-21 | 2008-02-21 | Electronic device and image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008040418A JP2009200827A (en) | 2008-02-21 | 2008-02-21 | Electronic device and image display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009200827A true JP2009200827A (en) | 2009-09-03 |
Family
ID=41143851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008040418A Pending JP2009200827A (en) | 2008-02-21 | 2008-02-21 | Electronic device and image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009200827A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012004713A (en) * | 2010-06-15 | 2012-01-05 | Canon Inc | Image processing device, image processing device control method, program, and recording medium |
WO2015025705A1 (en) * | 2013-08-23 | 2015-02-26 | 日本電気株式会社 | Video processing device, video processing method, and video processing program |
-
2008
- 2008-02-21 JP JP2008040418A patent/JP2009200827A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012004713A (en) * | 2010-06-15 | 2012-01-05 | Canon Inc | Image processing device, image processing device control method, program, and recording medium |
WO2015025705A1 (en) * | 2013-08-23 | 2015-02-26 | 日本電気株式会社 | Video processing device, video processing method, and video processing program |
JPWO2015025705A1 (en) * | 2013-08-23 | 2017-03-02 | 日本電気株式会社 | Video processing apparatus, video processing method, and video processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4331240B2 (en) | Electronic apparatus and image display method | |
JP5057918B2 (en) | Electronic device and scene type display method | |
JP4909856B2 (en) | Electronic device and display method | |
US8913834B2 (en) | Acoustic signal corrector and acoustic signal correcting method | |
JP4834640B2 (en) | Electronic device and image display control method | |
JP4496264B2 (en) | Electronic device and video display method | |
JP2009089065A (en) | Electronic device and facial image display apparatus | |
JP4834639B2 (en) | Electronic device and image display control method | |
JP2009076982A (en) | Electronic apparatus, and face image display method | |
JP2010257509A (en) | Authoring apparatus, authoring method, and program | |
JP4856105B2 (en) | Electronic device and display processing method | |
JP2009159507A (en) | Electronic apparatus and image display control method | |
JP2009081699A (en) | Electronic apparatus and method of controlling face image extraction | |
JP4625862B2 (en) | Authoring apparatus and authoring method | |
JP4709929B2 (en) | Electronic device and display control method | |
JP2009200827A (en) | Electronic device and image display method | |
JP2009088904A (en) | Information processor and face image displaying method | |
JP4987653B2 (en) | Electronic apparatus and image display method | |
JP5232291B2 (en) | Electronic device and face image display method | |
JP5198609B2 (en) | Electronic device, display control method, and program | |
JP5284426B2 (en) | Electronic apparatus and image display method | |
JP5349651B2 (en) | Electronic device, face image extraction control method and program | |
JP5377624B2 (en) | Electronic device and face image display device | |
JP5038836B2 (en) | Information processing device | |
JP5566984B2 (en) | Electronic apparatus and image display method |