[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2009200827A - Electronic device and image display method - Google Patents

Electronic device and image display method Download PDF

Info

Publication number
JP2009200827A
JP2009200827A JP2008040418A JP2008040418A JP2009200827A JP 2009200827 A JP2009200827 A JP 2009200827A JP 2008040418 A JP2008040418 A JP 2008040418A JP 2008040418 A JP2008040418 A JP 2008040418A JP 2009200827 A JP2009200827 A JP 2009200827A
Authority
JP
Japan
Prior art keywords
content data
video content
image
frame
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008040418A
Other languages
Japanese (ja)
Inventor
Hidetoshi Yokoi
秀年 横井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008040418A priority Critical patent/JP2009200827A/en
Publication of JP2009200827A publication Critical patent/JP2009200827A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic device and an image display control method which enable easy recognition of a position of a frame having the image specified by a user in video content data upon video content data reproduction. <P>SOLUTION: A plurality of representative images are extracted out of the video content data. While one of the representative images is selected by the user, if a reproduction request event for indicating the reproduction of the video content data is inputted, the reproduction of the video content data is started earlier by a prescribed time than a time point when the selected representative image is displayed and a frame, in which the selected representative image is included in a group of frames constituting the video image content data, is highlighted for reproduction. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、映像コンテンツデータから抽出された画像の一覧を表示する電子機器および画像表示方法に関する。   The present invention relates to an electronic apparatus and an image display method for displaying a list of images extracted from video content data.

一般に、ビデオレコーダ、パーソナルコンピュータといった電子機器は、テレビジョン放送番組データのような各種映像コンテンツデータを記録および再生することが可能である。   Generally, electronic devices such as a video recorder and a personal computer can record and reproduce various video content data such as television broadcast program data.

この場合、電子機器に格納されたコンテンツデータにはタイトル名が付加されるが、タイトル名だけでは、ユーザが各映像コンテンツデータがどのような内容であるかを把握することは困難である。映像コンテンツデータの内容を把握するためには、その映像コンテンツデータを再生することが必要となる。   In this case, although the title name is added to the content data stored in the electronic device, it is difficult for the user to understand what the content of each video content data is based on the title name alone. In order to grasp the contents of the video content data, it is necessary to reproduce the video content data.

しかしながら、総時間長の長い映像コンテンツデータの再生には、早送り機能等を用いた場合であっても、多くの時間が要される。   However, the reproduction of video content data having a long total time length requires a lot of time even when a fast-forward function or the like is used.

特許文献1には、録画された映像コンテンツデータの効率的な検索と鑑賞を行うために、映像コンテンツデータのフレーム画像から顔領域を部分画像として切り出し、この切り出された顔領域部分画像を一覧表示し、この一覧表示した顔領域部分画像の中から特定のアイコンを指定することで、対応する映像コンテンツデータを指定したアイコンの表示位置において再生表示する技術が公開されている。
特開2001−309269号公報(第6頁、第1図及び第10頁、第8図)
In Patent Document 1, in order to efficiently search and view recorded video content data, a face area is cut out as a partial image from a frame image of the video content data, and the cut-out face area partial images are displayed as a list. A technique for reproducing and displaying the corresponding video content data at the designated icon display position by designating a specific icon from the face area partial images displayed in the list has been disclosed.
JP 2001-309269 A (page 6, FIG. 1 and page 10, FIG. 8)

特許文献1に開示された技術を用いると、ユーザは、映像コンテンツデータに付加されたタイトル名を参照するだけでなく、映像コンテンツデータに含まれる顔領域部分画像をも参照して、その映像コンテンツデータの内容を効率的に知ることが可能となる。   Using the technique disclosed in Patent Document 1, the user not only refers to the title name added to the video content data but also refers to the face area partial image included in the video content data, and the video content It becomes possible to know the contents of data efficiently.

しかしながら、映像コンテンツデータの再生時に、切り出された顔領域部分画像を含むフレームが映像コンテンツデータ中のどこに位置するのかを認識するのは難しい。   However, when reproducing the video content data, it is difficult to recognize where the frame including the cut face area partial image is located in the video content data.

そこで、本発明は、ユーザによって指定された画像を含むフレームが映像コンテンツデータの再生時に映像コンテンツデータ中のどこに位置するのかを容易に認識することが可能な電子機器および画像表示制御方法を提供することを目的とする。   Accordingly, the present invention provides an electronic device and an image display control method capable of easily recognizing where a frame including an image designated by a user is located in the video content data when reproducing the video content data. For the purpose.

上記目的を達成するために、請求項1に関わる電子機器は、映像コンテンツデータから複数の代表画像を抽出する画像抽出手段と、前記複数の代表画像のうちの一つがユーザによって選択されている状態で、前記映像コンテンツデータの再生を指示する再生要求イベントが入力された場合、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている代表画像が含まれるフレームを強調して再生する再生手段と、を具備することを特徴とする。   In order to achieve the above object, an electronic apparatus according to claim 1 includes an image extraction unit that extracts a plurality of representative images from video content data, and a state in which one of the plurality of representative images is selected by a user. When a playback request event for instructing playback of the video content data is input, playback that emphasizes and plays back a frame including the selected representative image in the frame group constituting the video content data. And means.

また、請求項7に関わる電子機器は、映像コンテンツデータから複数の顔画像を抽出する画像抽出手段と、前記画像抽出手段によって抽出された複数の顔画像の夫々が前記映像コンテンツデータの中で出現する時点を示すタイムスタンプ情報を出力するタイムスタンプ情報出力手段と、前記複数の顔画像のうちの一つがユーザによって選択されている状態で、前記映像コンテンツデータの再生を指示する再生要求イベントが入力された場合、前記選択されている顔画像に割り当てられているタイムスタンプ情報に基づき、前記選択されている顔画像が登場する時点よりも所定時間前の時点から前記映像コンテンツデータの再生を開始し、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている顔画像が含まれるフレームを強調して再生する再生手段と、を具備することを特徴とする。   In the electronic device according to claim 7, an image extracting unit that extracts a plurality of face images from video content data, and each of the plurality of face images extracted by the image extracting unit appears in the video content data. A time stamp information output means for outputting time stamp information indicating a time point to be played, and a playback request event instructing playback of the video content data in a state where one of the plurality of face images is selected by the user The video content data starts to be reproduced from a time before a time when the selected face image appears based on time stamp information assigned to the selected face image. , A frame including the selected face image in a group of frames constituting the video content data. Characterized by comprising a reproducing means for reproducing and tone.

また、請求項13に関わる画像表示方法は、映像コンテンツデータに出現する画像の一覧を表示する画像表示方法において、前記映像コンテンツデータから複数の代表画像を抽出し、前記複数の代表画像のうちの一つがユーザによって選択されている状態で、前記映像コンテンツデータの再生を指示する再生要求イベントが入力された場合、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている代表画像が含まれるフレームを強調して再生することを特徴とする。   An image display method according to claim 13 is an image display method for displaying a list of images appearing in video content data, wherein a plurality of representative images are extracted from the video content data, When a playback request event instructing playback of the video content data is input while one is selected by the user, the selected representative image is included in a frame group constituting the video content data. This is characterized in that the frame to be reproduced is emphasized.

本発明によれば、ユーザによって指定された画像を含むフレームが映像コンテンツデータの再生時に映像コンテンツデータ中のどこに位置するのかを容易に認識することが可能な電子機器および画像表示制御方法を提供することが可能となる。   According to the present invention, there are provided an electronic device and an image display control method capable of easily recognizing where a frame including an image designated by a user is located in video content data when the video content data is reproduced. It becomes possible.

以下、図面を参照して、本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、図1および図2を参照して、本発明の一実施形態に係る電子機器の構成を説明する。本実施形態の電子機器は、例えば、情報処理装置として機能するノートブック型の携帯型パーソナルコンピュータ10から実現されている。   First, with reference to FIG. 1 and FIG. 2, the structure of the electronic device which concerns on one Embodiment of this invention is demonstrated. The electronic apparatus according to the present embodiment is realized by, for example, a notebook portable personal computer 10 that functions as an information processing apparatus.

このパーソナルコンピュータ10は、放送番組データ、外部機器から入力されるビデオデータといった、映像コンテンツデータ(オーディオビジュアルコンテンツデータ)を記録および再生することができる。即ち、パーソナルコンピュータ10は、テレビジョン放送信号によって放送される放送番組データの視聴および録画を実行するためのテレビジョン(TV)機能を有している。   The personal computer 10 can record and reproduce video content data (audio visual content data) such as broadcast program data and video data input from an external device. That is, the personal computer 10 has a television (TV) function for viewing and recording broadcast program data broadcast by a television broadcast signal.

このTV機能は、例えば、パーソナルコンピュータ10に予めインストールされているTVアプリケーションプログラムによって実現されている。また、TV機能は、外部のAV機器から入力されるビデオデータを記録する機能、および記録されたビデオデータおよび記録された放送番組データを再生する機能も有している。   This TV function is realized by, for example, a TV application program installed in the personal computer 10 in advance. The TV function also has a function of recording video data input from an external AV device, and a function of reproducing recorded video data and recorded broadcast program data.

さらに、パーソナルコンピュータ10は、パーソナルコンピュータ10に格納された、ビデオデータ、放送番組データのような映像コンテンツデータ中に出現するオブジェクトの画像のような代表画像の一覧、例えば、映像コンテンツデータに出現する人物の顔画像の一覧等を表示する画像一覧表示機能を有している。この顔画像一覧表示機能は、例えば、TV機能内にその一機能として実装されている。   Furthermore, the personal computer 10 appears in a list of representative images such as images of objects appearing in video content data such as video data and broadcast program data stored in the personal computer 10, for example, video content data. It has an image list display function for displaying a list of human face images. This face image list display function is implemented as one function in the TV function, for example.

顔画像一覧表示機能は、ナビゲーション対象としてユーザによって選択された映像コンテンツデータの概要等をユーザに提示するための映像インデキシング機能の一つである。この顔画像一覧表示機能は、ナビゲーション対象の映像コンテンツデータ全体の中のどの時間帯にどの人物が登場するのかをユーザに提示することができる。また、この顔画像一覧表示機能は、映像コンテンツデータ内に含まれる所定の属性区間に着目して人物の一覧を表示することもできる。   The face image list display function is one of video indexing functions for presenting the user with an overview of video content data selected by the user as a navigation target. This face image list display function can present to the user which person appears in which time zone in the entire video content data to be navigated. The face image list display function can also display a list of persons by paying attention to a predetermined attribute section included in the video content data.

図1はコンピュータ10のディスプレイユニットを開いた状態における斜視図である。本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、TFT−LCD(Thin Film Transistor Liquid Crystal Display)17から構成される表示装置が組み込まれている。   FIG. 1 is a perspective view of the computer 10 with the display unit opened. The computer 10 includes a computer main body 11 and a display unit 12. The display unit 12 incorporates a display device including a TFT-LCD (Thin Film Transistor Liquid Crystal Display) 17.

ディスプレイユニット12は、コンピュータ本体11に対し、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在に取り付けられている。コンピュータ本体11は薄い箱形の筐体を有しており、その上面にはキーボード13、本コンピュータ10をパワーオン/パワーオフするためのパワーボタン14、入力操作パネル15、タッチパッド16、およびスピーカ18A,18Bなどが配置されている。   The display unit 12 is attached to the computer main body 11 so as to be rotatable between an open position where the upper surface of the computer main body 11 is exposed and a closed position covering the upper surface of the computer main body 11. The computer main body 11 has a thin box-shaped housing, and has a keyboard 13 on its upper surface, a power button 14 for powering on / off the computer 10, an input operation panel 15, a touch pad 16, and a speaker. 18A, 18B, etc. are arranged.

入力操作パネル15は、押されたボタンに対応するイベントを入力する入力装置であり、複数の機能をそれぞれ起動するための複数のボタンを備えている。これらボタン群には、TV機能(放送番組データ/ビデオデータの視聴、放送番組データ/ビデオデータの録画、録画された放送番組データ/ビデオデータの再生)を制御するための操作ボタン群も含まれている。   The input operation panel 15 is an input device that inputs an event corresponding to a pressed button, and includes a plurality of buttons for starting a plurality of functions. These button groups also include operation button groups for controlling TV functions (viewing broadcast program data / video data, recording broadcast program data / video data, reproducing recorded broadcast program data / video data). ing.

また、コンピュータ本体11の正面には、本コンピュータ10のTV機能をリモート制御するリモコンユニットとの通信を実行するためのリモコンユニットインタフェース部20が設けられている。リモコンユニットインタフェース部20は、赤外線信号受信部などから構成されている。   In addition, a remote control unit interface unit 20 for executing communication with a remote control unit for remotely controlling the TV function of the computer 10 is provided on the front surface of the computer main body 11. The remote control unit interface unit 20 includes an infrared signal receiving unit and the like.

コンピュータ本体11の例えば右側面には、TV放送用のアンテナ端子19が設けられている。また、コンピュータ本体11の例えば背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子が設けられている。この外部ディスプレイ接続端子は、放送番組データのような映像コンテンツデータに含まれる映像データ(動画像データ)を外部ディスプレイに出力するために用いられる。   On the right side of the computer main body 11, for example, an antenna terminal 19 for TV broadcasting is provided. Further, on the back surface of the computer main body 11, for example, an external display connection terminal corresponding to the HDMI (high-definition multimedia interface) standard is provided. The external display connection terminal is used to output video data (moving image data) included in video content data such as broadcast program data to an external display.

次に、図2を参照して、本コンピュータ10のシステム構成について説明する。   Next, the system configuration of the computer 10 will be described with reference to FIG.

本コンピュータ10は、図2に示されているように、CPU101、ノースブリッジ102、主メモリ103、サウスブリッジ104、グラフィクスプロセッシングユニット(GPU)105、ビデオメモリ(VRAM)105A、サウンドコントローラ106、BIOS−ROM109、LANコントローラ110、ハードディスクドライブ(HDD)111、DVDドライブ112、ビデオプロセッサ113、メモリ113A、カードコントローラ113、無線LANコントローラ114、IEEE 1394コントローラ115、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116、TVチューナ117、およびEEPROM118等を備えている。   As shown in FIG. 2, the computer 10 includes a CPU 101, a north bridge 102, a main memory 103, a south bridge 104, a graphics processing unit (GPU) 105, a video memory (VRAM) 105A, a sound controller 106, a BIOS- ROM 109, LAN controller 110, hard disk drive (HDD) 111, DVD drive 112, video processor 113, memory 113A, card controller 113, wireless LAN controller 114, IEEE 1394 controller 115, embedded controller / keyboard controller IC (EC / KBC) 116 TV tuner 117, EEPROM 118, and the like.

CPU101は本コンピュータ10の動作を制御するプロセッサであり、ハードディスクドライブ(HDD)111から主メモリ103にロードされる、オペレーティングシステム(OS)201、およびTVアプリケーションプログラム202のような各種アプリケーションプログラムを実行する。   The CPU 101 is a processor that controls the operation of the computer 10 and executes various application programs such as an operating system (OS) 201 and a TV application program 202 that are loaded from the hard disk drive (HDD) 111 to the main memory 103. .

TVアプリケーションプログラム202はTV機能を実行するためのソフトウェアである。このTVアプリケーションプログラム202は、TVチューナ117によって受信された放送番組データを視聴するためのライブ再生処理、受信された放送番組データをHDD111に記録する録画処理、およびHDD111に記録された放送番組データ/ビデオデータを再生する再生処理等を実行する。   The TV application program 202 is software for executing a TV function. The TV application program 202 includes a live reproduction process for viewing broadcast program data received by the TV tuner 117, a recording process for recording the received broadcast program data in the HDD 111, and broadcast program data / data recorded in the HDD 111. A reproduction process for reproducing video data is executed.

また、CPU101は、BIOS−ROM109に格納されたBIOS(Basic Input Output System)も実行する。BIOSはハードウェア制御のためのプログラムである。   The CPU 101 also executes a BIOS (Basic Input Output System) stored in the BIOS-ROM 109. The BIOS is a program for hardware control.

ノースブリッジ102はCPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。   The north bridge 102 is a bridge device that connects the local bus of the CPU 101 and the south bridge 104. The north bridge 102 also includes a memory controller that controls access to the main memory 103. The north bridge 102 also has a function of executing communication with the GPU 105 via a PCI EXPRESS standard serial bus or the like.

GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ装置1にデジタル映像信号を送出することもできる。   The GPU 105 is a display controller that controls the LCD 17 used as a display monitor of the computer 10. A display signal generated by the GPU 105 is sent to the LCD 17. The GPU 105 can also send a digital video signal to the external display device 1 via the HDMI control circuit 3 and the HDMI terminal 2.

HDMI端子2は上述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号と、デジタルオーディオ信号とを一本のケーブルでテレビのような外部ディスプレイ装置1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ装置1にデジタル映像信号をHDMI端子2を介して送出するためのインタフェースである。   The HDMI terminal 2 is the above-described external display connection terminal. The HDMI terminal 2 can send an uncompressed digital video signal and a digital audio signal to the external display device 1 such as a television with a single cable. The HDMI control circuit 3 is an interface for sending a digital video signal to the external display device 1 called an HDMI monitor via the HDMI terminal 2.

サウスブリッジ104は、LPC(Low Pin Count)バス上の各デバイス、およびPCI(Peripheral Component Interconnect)バス上の各デバイスを制御する。また、サウスブリッジ104は、ハードディスクドライブ(HDD)111およびDVDドライブ112を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。   The south bridge 104 controls each device on an LPC (Low Pin Count) bus and each device on a PCI (Peripheral Component Interconnect) bus. The south bridge 104 includes an IDE (Integrated Drive Electronics) controller for controlling the hard disk drive (HDD) 111 and the DVD drive 112. Further, the south bridge 104 has a function of executing communication with the sound controller 106.

またさらに、サウスブリッジ104には、PCI EXPRESS規格のシリアルバスなどを介してビデオプロセッサ113が接続されている。   Furthermore, a video processor 113 is connected to the south bridge 104 via a PCI EXPRESS standard serial bus or the like.

ビデオプロセッサ113は、前述の映像インデキシングに関する各種処理を実行するプロセッサである。このビデオプロセッサ113は、映像インデキシング処理を実行するためのインデキシング処理部として機能する。   The video processor 113 is a processor that executes various processes related to the above-described video indexing. The video processor 113 functions as an indexing processing unit for executing a video indexing process.

映像インデキシング処理においては、ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データから複数の代表画像を抽出すると共に、抽出された各代表画像が映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報、抽出された各代表画像が映像コンテンツデータ内のどこに位置するのかを示す位置情報等を出力する。   In the video indexing process, the video processor 113 extracts a plurality of representative images from the moving image data included in the video content data, and time stamp information indicating when each extracted representative image appears in the video content data. , Position information indicating where each extracted representative image is located in the video content data is output.

代表画像としては、例えば、人物の顔画像を使用し得る。顔画像の抽出は、例えば、映像コンテンツデータに含まれる動画像データを構成する各フレームから顔領域を検出する顔検出処理、検出された顔領域をフレームから切り出す切り出し処理等によって実行される。顔領域の検出は、例えば、各フレームの画像の特徴を解析して、予め用意された顔画像特徴サンプルと類似する特徴を有する領域を探索することによって行うことができる。顔画像特徴サンプルは、多数の人物それぞれの顔画像特徴を統計的に処理することによって得られた特徴データである。   As the representative image, for example, a human face image can be used. The extraction of the face image is executed by, for example, a face detection process for detecting a face area from each frame constituting moving image data included in the video content data, a cut-out process for cutting out the detected face area from the frame, and the like. The face area can be detected by, for example, analyzing an image feature of each frame and searching for an area having a feature similar to a face image feature sample prepared in advance. The face image feature sample is feature data obtained by statistically processing the face image features of a large number of persons.

また、代表画像として人物の顔画像を使用する場合、動画像データを構成する各フレームから検出された顔領域を切り出す処理時に、フレーム中における検出された顔領域の位置を示す顔領域位置情報を出力する。   Also, when using a human face image as a representative image, face area position information indicating the position of the detected face area in the frame is extracted during the process of cutting out the detected face area from each frame constituting the moving image data. Output.

メモリ113Aは、ビデオプロセッサ113の作業メモリとして用いられる。映像インデキシング処理といったインデキシング処理を実行するためには多くの演算量が必要とされる。   The memory 113A is used as a working memory for the video processor 113. A large amount of calculation is required to execute the indexing process such as the video indexing process.

本実施形態においては、CPU101とは異なる専用のプロセッサであるビデオプロセッサ113がバックエンドプロセッサとして使用され、このビデオプロセッサ113によってインデキシング処理が実行される。よって、CPU101の負荷の増加を招くことなく、インデキシング処理を実行することが出来る。   In the present embodiment, a video processor 113 that is a dedicated processor different from the CPU 101 is used as a back-end processor, and indexing processing is executed by the video processor 113. Therefore, the indexing process can be executed without increasing the load on the CPU 101.

サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。   The sound controller 106 is a sound source device, and outputs audio data to be reproduced to the speakers 18A and 18B or the HDMI control circuit 3.

無線LANコントローラ114は、たとえばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。IEEE 1394コントローラ115は、IEEE 1394規格のシリアルバスを介して外部機器との通信を実行する。   The wireless LAN controller 114 is a wireless communication device that performs wireless communication of, for example, IEEE 802.11 standard. The IEEE 1394 controller 115 executes communication with an external device via an IEEE 1394 standard serial bus.

エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、電力管理のためのエンベデッドコントローラと、キーボード(KB)13およびタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。このエンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10をパワーオン/パワーオフする機能を有している。さらに、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、リモコンユニットインタフェース20との通信を実行する機能を有している。   The embedded controller / keyboard controller IC (EC / KBC) 116 is a one-chip microcomputer in which an embedded controller for power management and a keyboard controller for controlling the keyboard (KB) 13 and the touch pad 16 are integrated. . The embedded controller / keyboard controller IC (EC / KBC) 116 has a function of powering on / off the computer 10 in accordance with the operation of the power button 14 by the user. Further, the embedded controller / keyboard controller IC (EC / KBC) 116 has a function of executing communication with the remote control unit interface 20.

TVチューナ117はテレビジョン(TV)放送信号によって放送される放送番組データを受信する受信装置であり、アンテナ端子19に接続されている。このTVチューナ117は、例えば、地上波デジタルTV放送のようなデジタル放送番組データを受信可能なデジタルTVチューナとして実現されている。また、TVチューナ117は、外部機器から入力されるビデオデータをキャプチャする機能も有している。   The TV tuner 117 is a receiving device that receives broadcast program data broadcast by a television (TV) broadcast signal, and is connected to the antenna terminal 19. The TV tuner 117 is realized as a digital TV tuner capable of receiving digital broadcast program data such as terrestrial digital TV broadcast. The TV tuner 117 also has a function of capturing video data input from an external device.

次に、図3を参照して、TVアプリケーションプログラム202によって実行される顔画像一覧表示機能について説明する。   Next, the face image list display function executed by the TV application program 202 will be described with reference to FIG.

放送番組データのような映像コンテンツデータに対するインデキシング処理は、上述したように、インデキシング処理部として機能するビデオプロセッサ113によって実行される。   As described above, the indexing process for video content data such as broadcast program data is executed by the video processor 113 functioning as an indexing processing unit.

ビデオプロセッサ113は、TVアプリケーションプログラム202の制御の下、例えば、ユーザによって指定された録画済みの放送番組データ等の映像コンテンツデータに対してインデキシング処理を実行する。また、ビデオプロセッサ113は、TVチューナ117によって受信された放送番組データをHDD111に格納する録画処理と並行して、当該受信された放送番組データに対するインデキシング処理を実行することもできる。   Under the control of the TV application program 202, the video processor 113 executes an indexing process on video content data such as recorded broadcast program data designated by the user, for example. The video processor 113 can also execute an indexing process on the received broadcast program data in parallel with the recording process of storing the broadcast program data received by the TV tuner 117 in the HDD 111.

映像インデキシング処理(顔画像インデキシング処理とも云う)においては、ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データをフレーム単位で解析する。そして、ビデオプロセッサ113は、動画像データを構成する複数のフレームそれぞれから人物の顔画像を抽出すると共に、抽出された各顔画像が映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報を出力する。各顔画像に対応するタイムスタンプ情報としては、映像コンテンツデータの開始から当該顔画像が登場するまでの経過時間、または当該顔画像が抽出されたフレーム番号、等を使用することが出来る。   In the video indexing process (also referred to as face image indexing process), the video processor 113 analyzes moving image data included in the video content data in units of frames. Then, the video processor 113 extracts a human face image from each of a plurality of frames constituting the moving image data, and outputs time stamp information indicating a time point at which each extracted face image appears in the video content data. . As the time stamp information corresponding to each face image, the elapsed time from the start of the video content data to the appearance of the face image, the frame number from which the face image is extracted, or the like can be used.

さらに、ビデオプロセッサ113は、抽出された各顔画像のサイズ(解像度)も出力する。ビデオプロセッサ113から出力される顔検出結果データ(顔画像、タイムスタンプ情報TS、およびサイズ)は、データベース111Aに顔画像インデキシング情報として格納される。このデータベース111Aは、HDD111内に用意されたインデキシングデータ記憶用の記憶領域である。   Furthermore, the video processor 113 also outputs the size (resolution) of each extracted face image. The face detection result data (face image, time stamp information TS, and size) output from the video processor 113 is stored as face image indexing information in the database 111A. The database 111A is a storage area for storing indexing data prepared in the HDD 111.

さらに、映像インデキシング処理においては、ビデオプロセッサ113は、顔画像を抽出する処理と並行して、サムネイル画像取得処理も実行する。サムネイル画像は、映像コンテンツデータから例えば等時間間隔で抽出された複数のフレームの各々に対応する画像(縮小画像)である。すなわち、ビデオプロセッサ113は、顔画像を含むフレームであるか否かに関係なく、映像コンテンツデータから例えば所定の等時間間隔でフレームを順次抽出し、抽出した各フレームに対応する画像(サムネイル画像)と、そのサムネイル画像が出現する時点を示すタイムスタンプ情報TSとを出力する。ビデオプロセッサ113から出力されるサムネイル画像取得結果データ(サムネイル、タイムスタンプ情報TS)も、データベース111Aにサムネイルインデキシング情報として格納される。   Further, in the video indexing process, the video processor 113 also executes a thumbnail image acquisition process in parallel with the process of extracting the face image. A thumbnail image is an image (reduced image) corresponding to each of a plurality of frames extracted from video content data at regular time intervals, for example. That is, the video processor 113 sequentially extracts frames, for example, at predetermined equal time intervals from the video content data regardless of whether or not the frame includes a face image, and images (thumbnail images) corresponding to the extracted frames. And time stamp information TS indicating the time when the thumbnail image appears. Thumbnail image acquisition result data (thumbnail and time stamp information TS) output from the video processor 113 is also stored as thumbnail indexing information in the database 111A.

図3に示されているように、TVアプリケーションプログラム202は、顔画像一覧表示機能を実行するための顔画像一覧表示処理部301を含んでいる。この顔画像一覧表示処理部301は、例えば、インデキシングビューワプログラムとして実現されており、データベース111Aに格納されたインデキシング情報(顔画像インデキシング情報、サムネイルインデキシング情報等)を用いて、映像コンテンツデータの概要を俯瞰するためのインデキシングビュー画面を表示する。   As shown in FIG. 3, the TV application program 202 includes a face image list display processing unit 301 for executing a face image list display function. The face image list display processing unit 301 is realized as an indexing viewer program, for example, and uses video index data (face image indexing information, thumbnail indexing information, etc.) stored in the database 111A to outline video content data. Display the indexing view screen for a bird's-eye view.

具体的には、顔画像一覧表示処理部301は、データベース111Aから顔画像インデキシング情報(顔画像、タイムスタンプ情報TS、およびサイズ)を読み出し、そしてその顔画像インデキシング情報を用いて、映像コンテンツデータに登場する人物の顔画像の一覧を、インデキシングビュー画面上の2次元の表示エリア(以下、顔サムネイル表示エリアと称する)上に表示する。この場合、顔画像一覧表示処理部301は、映像コンテンツデータの総時間長を、例えば等間隔で、複数の時間帯に分割し、時間帯毎に、抽出された顔画像の内から当該時間帯に登場する顔画像を所定個選択する。そして、顔画像一覧表示処理部301は、時間帯毎に、選択した所定個の顔画像それぞれを並べて表示する。   Specifically, the face image list display processing unit 301 reads face image indexing information (face image, time stamp information TS, and size) from the database 111A, and uses the face image indexing information to generate video content data. A list of face images of people appearing is displayed on a two-dimensional display area (hereinafter referred to as a face thumbnail display area) on the indexing view screen. In this case, the face image list display processing unit 301 divides the total time length of the video content data into a plurality of time zones, for example, at regular intervals, and for each time zone, extracts the face image from the extracted face images. A predetermined number of face images appearing on the screen are selected. Then, the face image list display processing unit 301 displays the selected predetermined number of face images side by side for each time period.

すなわち、2次元の顔サムネイル表示エリアは、複数の行および複数の列を含むマトリクス状に配置された複数の顔画像表示エリアを含む。複数の列それぞれには、映像コンテンツデータの総時間長を構成する複数の時間帯が割り当てられている。具体的には、例えば、複数の列それぞれには、映像コンテンツデータの総時間長をこれら複数の列の数で等間隔に分割することによって得られる、互いに同一の時間長を有する複数の時間帯がそれぞれ割り当てられる。もちろん、各列に割り当てられる時間帯は必ずしも同一の時間長でなくてもよい。   That is, the two-dimensional face thumbnail display area includes a plurality of face image display areas arranged in a matrix including a plurality of rows and a plurality of columns. A plurality of time zones constituting the total time length of the video content data are assigned to each of the plurality of columns. Specifically, for example, in each of the plurality of columns, a plurality of time zones having the same time length obtained by dividing the total time length of the video content data at equal intervals by the number of the plurality of columns. Are assigned to each. Of course, the time zone allocated to each column does not necessarily have the same time length.

顔画像一覧表示処理部301は、顔画像それぞれに対応するタイムスタンプ情報TSに基づき、各列内に属する行数分の顔画像表示エリア上に、当該各列に割り当てられた時間帯に属する顔画像それぞれを、例えば、それら顔画像の出現頻度順(顔画像の検出時間長順)のような順序で並べて表示する。この場合、例えば、当該各列に割り当てられた時間帯に属する顔画像の内から、出現頻度(登場頻度)の高い順に顔画像が行数分だけ選択され、選択された顔画像が登場頻度順に上から下に向かって並んで配置される。もちろん、出現頻度順ではなく、各列に割り当てられた時間帯に出現する顔画像それぞれを、その出現順に並べて表示してもよい。   The face image list display processing unit 301, based on the time stamp information TS corresponding to each face image, on the face image display area for the number of rows belonging to each column, faces belonging to the time zone assigned to each column. For example, the images are arranged and displayed in the order of appearance frequency order (face image detection time length order). In this case, for example, face images corresponding to the number of lines are selected in descending order of appearance frequency (appearance frequency) from the face images belonging to the time zone assigned to each column, and the selected face images are arranged in the appearance frequency order. They are arranged side by side from top to bottom. Of course, instead of the appearance frequency order, the face images that appear in the time zone assigned to each column may be displayed in the order of appearance.

この顔画像一覧表示機能により、映像コンテンツデータ全体の中のどの時間帯にどの人物が登場するのかをユーザに分かりやすく提示することができる。顔サムネイル表示エリアの具体的な構成例については、図6以降で後述する。   With this face image list display function, it is possible to easily show to the user which person appears in which time zone in the entire video content data. A specific configuration example of the face thumbnail display area will be described later with reference to FIG.

また、顔画像一覧表示処理部301は、データベース111Aからサムネイルインデキシング情報(サムネイル、タイムスタンプ情報TS)を読み出し、そしてサムネイルインデキシング情報を用いて、サムネイル画像それぞれを、顔サムネイル表示エリアの下方側または上方側の一方に配置されたサムネイル表示エリア(以下、じゃばらサムネイル表示エリアと称する)上に、それらサムネイル画像の出現時間順に一列に並べて表示する。   In addition, the face image list display processing unit 301 reads thumbnail indexing information (thumbnail and time stamp information TS) from the database 111A, and uses the thumbnail indexing information to display each thumbnail image below or above the face thumbnail display area. On the thumbnail display area arranged on one side (hereinafter referred to as the “jabal thumbnail display area”), the thumbnail images are displayed in a line in order of appearance time.

映像コンテンツデータによっては、顔画像が登場しない時間帯も存在する。したがって、インデキシングビュー画面上に顔サムネイル表示エリアのみならず、じゃばらサムネイル表示エリアも表示することにより、顔画像が登場しない時間帯においても、その時間帯の映像コンテンツデータの内容をユーザに提示することができる。   Depending on the video content data, there may be a time period when the face image does not appear. Therefore, by displaying not only the face thumbnail display area but also the loose thumbnail display area on the indexing view screen, the contents of the video content data in that time period can be presented to the user even during the time period when the face image does not appear. Can do.

次に、図4を参照して、TVアプリケーションプログラム202の機能構成を説明する。   Next, the functional configuration of the TV application program 202 will be described with reference to FIG.

TVアプリケーションプログラム202は、上述の顔画像一覧表示処理部301に加え、記録処理部401、インデキシング制御部402、再生処理部403等を備えている。   The TV application program 202 includes a recording processing unit 401, an indexing control unit 402, a reproduction processing unit 403, and the like in addition to the face image list display processing unit 301 described above.

記録処理部401は、TVチューナ117によって受信された放送番組データ、または外部機器から入力されるビデオデータをHDD111に記録する記録処理を実行する。また、記録処理部401は、ユーザによって予め設定された録画予約情報(チャンネル番号、日時)によって指定される放送番組データをTVチューナ117を用いて受信し、その放送番組データをHDD111に記録する予約録画処理も実行する。   The recording processing unit 401 executes a recording process of recording broadcast program data received by the TV tuner 117 or video data input from an external device in the HDD 111. Further, the recording processing unit 401 receives broadcast program data designated by recording reservation information (channel number, date and time) preset by the user using the TV tuner 117, and reserves to record the broadcast program data in the HDD 111. Recording processing is also executed.

インデキシング制御部402は、ビデオプロセッサ(インデキシング処理部)113を制御して、インデキシング処理をビデオプロセッサ113に実行させる。ユーザは、録画対象の放送番組データ毎にインデキシング処理を実行するか否かを指定することができる。例えば、インデキシング処理の実行が指示された録画対象の放送番組データについては、その放送番組データをHDD111に記録する処理と並行してインデキシング処理が自動的に開始される。また、ユーザは、既にHDD111に格納されている映像コンテンツデータの内から、インデキシング処理を実行すべき映像コンテンツデータを指定することもできる。   The indexing control unit 402 controls the video processor (indexing processing unit) 113 to cause the video processor 113 to execute the indexing process. The user can specify whether or not to perform the indexing process for each broadcast program data to be recorded. For example, for broadcast program data to be recorded for which execution of the indexing process is instructed, the indexing process is automatically started in parallel with the process of recording the broadcast program data in the HDD 111. The user can also specify video content data to be indexed from video content data already stored in the HDD 111.

再生処理部403は、HDD111に格納されている各映像コンテンツデータを再生する処理を実行する。また、再生処理部403は、ある映像コンテンツデータの顔画像一覧の中の一つの顔画像が選択されている状態でユーザ操作によって再生要求イベントが入力された時、選択されている顔画像が登場する時点よりも所定時間前の時点から映像コンテンツデータの再生を開始する機能を有している。   The playback processing unit 403 executes processing for playing back each video content data stored in the HDD 111. Also, the playback processing unit 403 displays the selected face image when a playback request event is input by a user operation while one face image in the face image list of a certain video content data is selected. It has a function of starting playback of video content data from a time point before a predetermined time.

ユーザは、顔画像一覧を見ながら、映像コンテンツデータの再生を開始すべき位置を決定することができる。   The user can determine the position where the reproduction of the video content data is to be started while viewing the face image list.

なお、インデキシング処理は、必ずしもビデオプロセッサ113によって実行する必要はなく、例えば、TVアプリケーションプログラム202にインデキシング処理を実行する機能を設けてもよい。この場合、インデキシング処理は、TVアプリケーションプログラム202の制御の下に、CPU101によって実行される。   Note that the indexing process is not necessarily executed by the video processor 113. For example, the TV application program 202 may be provided with a function for executing the indexing process. In this case, the indexing process is executed by the CPU 101 under the control of the TV application program 202.

次に、図5および6を参照して、インデキシングビュー画面の具体的な構成について説明する。   Next, a specific configuration of the indexing view screen will be described with reference to FIGS.

図5には、顔画像一覧表示処理部301によってLCD17に表示されるインデキシングビュー画面の例が示されている。このインデキシングビュー画面は、ある映像コンテンツデータ(例えば放送番組データ)をインデキシング処理することによって得られた画面である。このインデキシングビュー画面には、顔画像の一覧を表示するための上述の顔サムネイル表示エリアとサムネイル画像の一覧をじゃばら形式で表示するための上述のじゃばらサムネイル表示エリアとを含んでいる。   FIG. 5 shows an example of an indexing view screen displayed on the LCD 17 by the face image list display processing unit 301. This indexing view screen is a screen obtained by indexing certain video content data (for example, broadcast program data). This indexing view screen includes the above-described face thumbnail display area for displaying a list of face images and the above-described jagged thumbnail display area for displaying a list of thumbnail images in a loose format.

ここで、じゃばら形式とは、選択されているサムネイル画像を通常サイズで表示し、他の各サムネイル画像についてはその横方向サイズを縮小して表示する表示形式である。図5においては、左端のサムネイル画像が選択されている場合を示している。   Here, the loose format is a display format in which a selected thumbnail image is displayed in a normal size, and the other thumbnail images are displayed in a reduced size in the horizontal direction. FIG. 5 shows the case where the leftmost thumbnail image is selected.

顔画像一覧表示処理部301は、ユーザ操作によって選択されたサムネイル画像を第1の横幅サイズで表示し、他の各サムネイル画像の横幅サイズを第1の横幅サイズよりも小さい横幅サイズで表示する。具体的には、選択されたサムネイル画像は第1の横幅サイズで表示され、その選択されたサムネイル画像の近傍の幾つかサムネイル画像はその横幅が縮小された状態で表示され、他の各サムネイル画像はさらに僅かな横幅で表示される。選択されているサムネイル画像には、さらに矩形の枠を付加してもよい。   The face image list display processing unit 301 displays the thumbnail image selected by the user operation in the first horizontal width size, and displays the horizontal width size of each of the other thumbnail images in a horizontal width size smaller than the first horizontal width size. Specifically, the selected thumbnail image is displayed in the first width size, and some thumbnail images in the vicinity of the selected thumbnail image are displayed with the width reduced, and each of the other thumbnail images is displayed. Is displayed with a slight width. A rectangular frame may be further added to the selected thumbnail image.

顔サムネイル表示エリアにおいては、複数の顔画像の一覧が表示される。なお、顔画像が一定期間以上連続して検出されなかった場合には、フレーム全体のサムネイル画像を顔サムネイル表示エリアに表示しても良い。また、シーンの変わり目毎に、フレーム全体のサムネイル画像を顔サムネイル表示エリアに表示しても良い。   In the face thumbnail display area, a list of a plurality of face images is displayed. When face images are not detected continuously for a certain period or longer, thumbnail images of the entire frame may be displayed in the face thumbnail display area. In addition, a thumbnail image of the entire frame may be displayed in the face thumbnail display area at each scene change.

図6は、顔サムネイル表示エリアの構成例が示されている。   FIG. 6 shows a configuration example of the face thumbnail display area.

顔サムネイル表示エリアは、複数の行と複数の列とを含むマトリクス状に配置された複数個の顔画像表示エリアを含んでいる。図6においては、顔サムネイル表示エリアは6行×16列から構成されている。顔サムネイル表示エリアに含まれる顔画像表示エリアの数は、96個である。   The face thumbnail display area includes a plurality of face image display areas arranged in a matrix including a plurality of rows and a plurality of columns. In FIG. 6, the face thumbnail display area is composed of 6 rows × 16 columns. The number of face image display areas included in the face thumbnail display area is 96.

列1〜列16のそれぞれには、例えば、映像コンテンツデータの総時間長を列数(=16)で等間隔で分割することによって得られる、互いに同一の時間長Tを有する複数の時間帯がそれぞれ割り当てられる。   Each of the columns 1 to 16 includes, for example, a plurality of time zones having the same time length T obtained by dividing the total time length of the video content data by equal numbers of columns (= 16). Assigned to each.

例えば、映像コンテンツデータの総時間長が2時間であるならば、その2時間が16個の時間帯に等間隔で分割される。この場合、各時間帯の時間長Tは、7.5分である。例えば、列1には、先頭0:00:00から0:07:30までの時間帯が割り当てられ、列2には、0:07:30から0:15:00までの時間帯が割り当てられ、列3には、0:15:00から0:22:30までの時間帯が割り当てられる。映像コンテンツデータの総時間長に応じて、各時間帯の時間長Tは変化する。   For example, if the total time length of the video content data is 2 hours, the 2 hours are divided into 16 time zones at equal intervals. In this case, the time length T of each time zone is 7.5 minutes. For example, column 1 is assigned the time zone from the beginning 0:00:00 to 0:07:30, and column 2 is assigned the time zone from 0:07:30 to 0:15:00. Column 3 is assigned a time zone from 0:15:00 to 0:22:30. The time length T of each time zone changes according to the total time length of the video content data.

もちろん、複数の列それぞれに割り当てられる時間帯の長さは、必ずしも同一である必要はない。   Of course, the length of the time zone assigned to each of the plurality of columns is not necessarily the same.

顔画像一覧表示処理部301は、ビデオプロセッサ113によって抽出された顔画像それぞれに対応するタイムスタンプ情報に基づき、各列内の6個の顔画像表示エリア上に、当該各列に割り当てられた時間帯に属する顔画像それぞれをたとえば上述の頻度順に並べて表示する。この場合、顔画像一覧表示処理部301は、表示処理対象の列に割り当てられた時間帯に属する顔画像の内から行数分(6個)の顔画像を選択し、選択した行数分の顔画像それぞれを並べて表示する。   The face image list display processing unit 301 uses the time stamp information corresponding to each face image extracted by the video processor 113 to display the time allocated to each column on the six face image display areas in each column. For example, the face images belonging to the band are displayed side by side in the above-mentioned frequency order. In this case, the face image list display processing unit 301 selects face images corresponding to the number of lines (six) from among the face images belonging to the time zone assigned to the display processing target column, and corresponds to the selected number of lines. Display face images side by side.

このように、顔サムネイル表示エリアにおいては、左端位置(1,1)を基点とし、右端位置(6,16)を映像コンテンツデータの終端とする時間軸が用いられている。   In this way, the face thumbnail display area uses a time axis with the left end position (1, 1) as the base point and the right end position (6, 16) as the end of the video content data.

顔サムネイル表示エリアの各顔画像表示エリアに表示される顔画像のサイズは"大"、"中"、"小"の内からユーザが選択することができる。行と列の数は、ユーザが選択した顔画像のサイズに応じて変化される。顔画像のサイズと行と列の数との関係は、次の通りである。   The size of the face image displayed in each face image display area of the face thumbnail display area can be selected by the user from among “large”, “medium”, and “small”. The number of rows and columns is changed according to the size of the face image selected by the user. The relationship between the size of the face image and the number of rows and columns is as follows.

(1)"大"の場合; 3行×8列   (1) "Large"; 3 rows x 8 columns

(2)"中"の場合; 6行×16列   (2) “Medium”; 6 rows x 16 columns

(3)"小"の場合: 10行×24列   (3) "Small": 10 rows x 24 columns

"大"の場合においては、各顔画像は、例えば、180×180ピクセルのサイズで表示される。"中"の場合においては、各顔画像は、例えば、90×90ピクセルのサイズで表示される。"小"の場合においては、各顔画像は、例えば、60×60ピクセルのサイズで表示される。デフォルトの顔画像サイズは、例えば、"中"に設定されている。   In the case of “large”, each face image is displayed with a size of, for example, 180 × 180 pixels. In the case of “medium”, each face image is displayed with a size of 90 × 90 pixels, for example. In the case of “small”, each face image is displayed with a size of 60 × 60 pixels, for example. The default face image size is set to “medium”, for example.

顔サムネイル表示エリア内の各顔画像は、選択されていない"標準"状態、選択されている"フォーカス"状態の2つの状態のいずれかに設定される。"フォーカス"状態の顔画像のサイズは、"標準"状態の時のサイズ(180×180、90×90、または60×60)よりも大きく設定される。図8においては、座標(1,12)の顔画像が"フォーカス"状態である場合を示している。   Each face image in the face thumbnail display area is set to one of two states, a “standard” state that is not selected and a “focus” state that is selected. The size of the face image in the “focus” state is set larger than the size in the “standard” state (180 × 180, 90 × 90, or 60 × 60). FIG. 8 shows a case where the face image at the coordinates (1, 12) is in the “focus” state.

じゃばらサムネイル表示エリアに表示されるサムネイル画像の枚数は、ユーザ設定に従って、例えば240枚、144枚、96枚、48枚のいずれかに設定される。デフォルトは例えば240枚である。   The number of thumbnail images displayed in the loose thumbnail display area is set to, for example, 240, 144, 96, or 48 according to the user setting. The default is 240 sheets, for example.

サムネイル画像は、選択されていない"標準"状態、選択されている"フォーカス"状態の2つの状態のいずれかに設定される。"フォーカス"状態のサムネイル画像は、他のサムネイル画像よりも大きいサイズで表示される。   The thumbnail image is set to one of two states, a “standard” state that is not selected and a “focus” state that is selected. A thumbnail image in the “focus” state is displayed in a larger size than other thumbnail images.

次に、顔サムネイル表示エリア内の顔画像一覧の中の一つの顔画像を選択するユーザ操作に伴って再生要求イベントが発生した場合に開始される映像コンテンツデータの再生時に、ユーザによって選択された顔画像が含まれるフレームを強調して再生する第一の実施例について図7を用いて説明する。   Next, it is selected by the user when playing the video content data that is started when a playback request event occurs in response to a user operation for selecting one face image in the face image list in the face thumbnail display area. A first embodiment for emphasizing and reproducing a frame including a face image will be described with reference to FIG.

ユーザによる顔画像選択操作に応じた再生要求イベントが発生すると、選択された顔画像に割り当てられているタイムスタンプ情報をリードする(ステップ S100)。   When the reproduction request event corresponding to the face image selection operation by the user occurs, the time stamp information assigned to the selected face image is read (step S100).

ステップS100にてリードされたタイムスタンプ情報に基づいて、顔画像一覧表示処理部301はHDD111に対して、リードされたタイムスタンプ情報の値から所定の値だけ小さい値が割り当てられているフレームをはじめとする所定枚数のフレーム群を取得するためのフレーム取得要求を出す(ステップ S101)。   Based on the time stamp information read in step S100, the face image list display processing unit 301 starts with a frame in which a value smaller than the read time stamp information by a predetermined value is assigned to the HDD 111. A frame acquisition request for acquiring a predetermined number of frame groups is issued (step S101).

ステップS100にてリードされたタイムスタンプ情報の値から所定値だけ小さい値が割り当てられているフレームをはじめとする所定枚数のフレーム群を取得する理由は、ユーザによって選択された顔画像が登場する時点よりも所定時間前の時点から映像コンテンツデータを再生するためである。   The reason for acquiring a predetermined number of frames including a frame to which a value smaller by a predetermined value than the value of the time stamp information read in step S100 is obtained is when the face image selected by the user appears. This is because the video content data is reproduced from a point in time before the predetermined time.

ステップS101のフレーム取得要求に応じてHDD111から読み出された複数のフレーム群のうち、ステップS100にてリードしたタイムスタンプ情報の値と同じ値を有するタイムスタンプ情報が割り当てられているフレームを特定する(ステップ S102)。   Of the plurality of frame groups read from the HDD 111 in response to the frame acquisition request in step S101, a frame to which time stamp information having the same value as the value of the time stamp information read in step S100 is assigned is specified. (Step S102).

再生処理部403は、ステップS101のフレーム取得要求に応じて読み出された複数のフレーム群の再生において、ステップS102で特定されたフレームの再生時に所定時間に亘って再生を停止する。すなわち、再生処理部403は、ステップS101のフレーム取得要求に応じて読み出された複数のフレーム群の再生において、ステップS102にて特定されたフレームを、ステップS102にて特定されたフレームとは異なるフレーム夫々の再生時間よりも長い時間に亘って再生する(ステップ S103)。   In the reproduction of the plurality of frame groups read in response to the frame acquisition request in step S101, the reproduction processing unit 403 stops the reproduction for a predetermined time when reproducing the frame specified in step S102. That is, the playback processing unit 403 differs from the frame specified in step S102 for the frame specified in step S102 in the playback of a plurality of frame groups read in response to the frame acquisition request in step S101. Playback is performed over a longer time than the playback time of each frame (step S103).

このように、顔サムネイル表示エリア内の顔画像一覧の中からユーザによって選択された一つの顔画像が含まれるフレームの再生時に所定時間に亘って再生を停止することで、映像コンテンツデータの再生においてユーザによって選択された一つの顔画像が含まれるフレームが強調して再生され、ユーザによって選択された顔画像が含まれるフレームが映像コンテンツデータの中のどこに位置するのかをユーザは容易に認識することが可能となる。   As described above, in the reproduction of the video content data, the reproduction is stopped for a predetermined time when the frame including one face image selected by the user from the face image list in the face thumbnail display area is reproduced. A frame including one face image selected by the user is emphasized and reproduced, and the user can easily recognize where in the video content data the frame including the face image selected by the user is located. Is possible.

次に、第二の実施例について図8を用いて説明する。上述にて説明した第一の実施例と比較して異なる処理は、ステップS103以降の処理である。   Next, a second embodiment will be described with reference to FIG. The processing different from that in the first embodiment described above is processing after step S103.

第二の実施例はステップS102にて特定されたフレームに対して加工処理を施す例である。すなわち、図9の(2)に示すように、ステップS102にて特定されたフレームの背景の色を特定の色に指定する(ステップ S203)。   The second embodiment is an example in which processing is performed on the frame specified in step S102. That is, as shown in (2) of FIG. 9, the background color of the frame specified in step S102 is designated as a specific color (step S203).

再生処理部403は、ステップS101のフレームリード要求に応じて読み出された複数のフレーム群の再生において、ステップS203にて指定された特定の色を背景色とするフレームを再生する(ステップ S204)。   In the reproduction of a plurality of frame groups read in response to the frame read request in step S101, the reproduction processing unit 403 reproduces a frame having the specific color designated in step S203 as a background color (step S204). .

このように、顔サムネイル表示エリア内の顔画像一覧の中からユーザによって選択された一つの顔画像が含まれるフレームの背景色として特定の色を指定して再生することで、映像コンテンツの再生においてユーザによって選択された一つの顔画像が含まれるフレームが強調して再生され、ユーザによって選択された顔画像が含まれるフレームが映像コンテンツの中のどこに位置するのかをユーザは容易に認識することが可能となる。   In this way, by reproducing a video content by designating a specific color as a background color of a frame including one face image selected by the user from the face image list in the face thumbnail display area. A frame including one face image selected by the user is emphasized and reproduced, and the user can easily recognize where in the video content the frame including the face image selected by the user is located. It becomes possible.

次に、第三の実施例について図10を用いて説明する。上述にて説明した第一の実施例と比較して異なる処理は、ステップS103以降の処理である。   Next, a third embodiment will be described with reference to FIG. The processing different from that in the first embodiment described above is processing after step S103.

第三の実施例はステップS102にて特定したフレームに対して加工処理を施す例である。すなわち、図11の(2)に示すように、ステップS102にて特定されたフレーム中のユーザによって選択された顔画像と一致する領域を強調表示する例である。図11に示す例では、ステップS102にて特定されたフレームに含まれる、ユーザによって選択された顔画像に一致する領域を枠で囲うように、ステップS102にて特定されたフレームに枠画像をオーバレイ処理する(ステップ S303)。このステップS303の処理は、上述にて説明した、フレームから検出された顔領域を切り出す処理時に作成された顔領域位置情報を用いて行われる。   The third embodiment is an example in which a processing process is performed on the frame specified in step S102. In other words, as shown in (2) of FIG. 11, an area that matches the face image selected by the user in the frame specified in step S102 is highlighted. In the example shown in FIG. 11, the frame image is overlaid on the frame specified in step S102 so as to surround the area that matches the face image selected by the user included in the frame specified in step S102. Process (step S303). The process of step S303 is performed using the face area position information created during the process of cutting out the face area detected from the frame described above.

再生処理部403は、ステップS101のフレームリード要求に応じて読み出された複数のフレーム群の再生において、ステップS303にて枠画像がオーバレイ処理されたフレームを再生する(ステップ S304)。   In the reproduction of a plurality of frame groups read in response to the frame read request in step S101, the reproduction processing unit 403 reproduces the frame in which the frame image has been subjected to the overlay process in step S303 (step S304).

このように、顔サムネイル表示エリア内の顔画像一覧の中からユーザによって選択された一つの顔画像に一致する領域を枠で囲うように処理されたフレームを再生することで、映像コンテンツデータの再生においてユーザによって選択された一つの顔画像が含まれるフレームが強調して再生され、ユーザによって選択された顔画像が含まれるフレームが映像コンテンツデータの中のどこに位置するのかをユーザは容易に認識することが可能となる。   As described above, the video content data is reproduced by reproducing the frame processed so as to enclose the area matching the one face image selected by the user from the face image list in the face thumbnail display area. The frame including one face image selected by the user is emphasized and reproduced, and the user easily recognizes where in the video content data the frame including the face image selected by the user is located. It becomes possible.

また、ユーザによって選択された一つの顔画像に一致する領域に対して枠付け処理したフレームを再生することで、映像コンテンツデータの再生において、ユーザによって選択された一つの顔画像がどこに現れるのかをユーザは容易に認識することが可能となる。   In addition, by playing back a frame that has been framed with respect to an area that matches one face image selected by the user, where the face image selected by the user appears in the playback of video content data. The user can easily recognize.

上述にて説明した第三の実施例では、特定したフレーム中のユーザによって選択された顔画像と一致する領域を強調表示する一例として、この領域を枠で囲う一例を説明したが、この構成に限ることは無く、例えば、ユーザによって選択された顔画像と一致する領域を拡大処理して、この拡大処理した顔画像をフレームに重ね合わせて表示させてもよい。   In the third embodiment described above, as an example of highlighting an area that matches the face image selected by the user in the specified frame, an example in which this area is surrounded by a frame has been described. For example, an area that matches the face image selected by the user may be enlarged, and the enlarged face image may be displayed superimposed on the frame.

また、上述にて説明した第一乃至第三の実施例では、映像インデキシング処理にて動画像データから抽出された代表画像の一例である顔画像をユーザが顔サムネイル表示エリア内の顔画像一覧から選択する構成について説明したが、この構成に限ることは無く、代表画像の一例として顔画像以外の画像であってもよい。   In the first to third embodiments described above, the user selects a face image, which is an example of a representative image extracted from the moving image data by the video indexing process, from the face image list in the face thumbnail display area. Although the configuration to be selected has been described, the configuration is not limited to this configuration, and an image other than a face image may be used as an example of a representative image.

本発明は上記実施形態をそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示されている全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本発明の一実施形態に係る電子機器の概観の例を示す斜視図。The perspective view which shows the example of the external appearance of the electronic device which concerns on one Embodiment of this invention. 同実施形態の電子機器のシステム構成の例を示すブロック図。2 is an exemplary block diagram showing an example of the system configuration of the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器の顔画像一覧表示機能を説明するためのブロック図。FIG. 3 is an exemplary block diagram for explaining a face image list display function of the electronic apparatus of the embodiment. 同実施形態の電子機器で用いられるプログラムの機能構成を示すブロック図。2 is an exemplary block diagram illustrating a functional configuration of a program used in the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって表示装置に表示されるインデキシングビュー画面の例を示す図。6 is an exemplary view showing an example of an indexing view screen displayed on the display device by the electronic apparatus of the embodiment. FIG. 図5のインデキシングビュー画面内に含まれる顔サムネイル表示エリアの構成例を示す図。The figure which shows the structural example of the face thumbnail display area contained in the indexing view screen of FIG. 顔サムネイル表示エリア内の顔画像一覧の中の一つの顔画像が選択されるユーザ操作に伴って再生要求イベントが発生した場合に開始される映像コンテンツの再生についての第一の実施例を説明する流れ図。A first embodiment of video content playback that is started when a playback request event occurs in response to a user operation for selecting one face image in the face image list in the face thumbnail display area will be described. flow diagram. 顔サムネイル表示エリア内の顔画像一覧の中の一つの顔画像が選択されるユーザ操作に伴って再生要求イベントが発生した場合に開始される映像コンテンツの再生についての第二の実施例を説明する流れ図。A second embodiment of the playback of video content that is started when a playback request event occurs in response to a user operation for selecting one face image in the face image list in the face thumbnail display area will be described. flow diagram. 特定したフレームに対して色をオーバレイしたフレームの一例を示す図。The figure which shows an example of the frame which overlaid the color with respect to the specified flame | frame. 顔サムネイル表示エリア内の顔画像一覧の中の一つの顔画像が選択されるユーザ操作に伴って再生要求イベントが発生した場合に開始される映像コンテンツの再生についての第三の実施例を説明する流れ図。A third embodiment of the playback of video content that is started when a playback request event occurs in response to a user operation for selecting one face image in the face image list in the face thumbnail display area will be described. flow diagram. ユーザによって選択された一つの顔画像に相当する顔領域を枠で囲うように処理されたフレームの一例を示す図。The figure which shows an example of the flame | frame processed so that the face area corresponded to one face image selected by the user may be enclosed with a frame.

符号の説明Explanation of symbols

10…電子機器(コンピュータ)、111A…データベース、
113…ビデオプロセッサ、117…TVチューナ、301…顔画像一覧表示処理部、402…インデキシング制御部、403…再生処理部
10 ... electronic device (computer), 111A ... database,
113 ... Video processor, 117 ... TV tuner, 301 ... Face image list display processing unit, 402 ... Indexing control unit, 403 ... Reproduction processing unit

Claims (18)

映像コンテンツデータから複数の代表画像を抽出する画像抽出手段と、
前記複数の代表画像のうちの一つがユーザによって選択されている状態で、前記映像コンテンツデータの再生を指示する再生要求イベントが入力された場合、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている代表画像が含まれるフレームを強調して再生する再生手段と、
を具備することを特徴とする電子機器。
Image extracting means for extracting a plurality of representative images from video content data;
When a playback request event instructing playback of the video content data is input in a state where one of the plurality of representative images is selected by the user, the frame content constituting the video content data Playback means for enhancing and playing back a frame including the selected representative image;
An electronic device comprising:
前記再生手段は、前記映像コンテンツデータを構成するフレーム群の内の前記選択されている代表画像が含まれるフレームにて所定時間停止する再生手段であることを特徴とする請求項1記載の電子機器。 2. The electronic device according to claim 1, wherein the reproduction unit is a reproduction unit that stops for a predetermined time in a frame including the selected representative image in a frame group constituting the video content data. . 前記映像コンテンツデータを構成するフレーム群の内、前記選択されている代表画像が含まれるフレームを加工処理する加工処理手段をさらに具備し、
前記再生手段は、前記加工処理手段によって加工処理されたフレームを再生する再生手段であることを特徴とする請求項1記載の電子機器。
Further comprising processing means for processing a frame including the selected representative image in the frame group constituting the video content data,
2. The electronic apparatus according to claim 1, wherein the reproduction unit is a reproduction unit that reproduces a frame processed by the processing unit.
前記加工処理手段は、前記選択されている代表画像が含まれるフレームの色を特定の色に指定する手段であることを特徴とする請求項3記載の電子機器。 4. The electronic apparatus according to claim 3, wherein the processing unit is a unit that designates a color of a frame including the selected representative image as a specific color. 前記加工処理手段は、前記選択されている代表画像が含まれるフレーム中の前記代表画像と一致する領域を強調処理する手段であることを特徴とする請求項3記載の電子機器。 4. The electronic apparatus according to claim 3, wherein the processing unit is a unit that emphasizes a region that matches the representative image in a frame including the selected representative image. 前記加工処理手段は、前記選択されている代表画像が含まれるフレーム中の前記代表画像と一致する領域を枠で囲う処理する手段であることを特徴とする請求項5記載の電子機器。 The electronic apparatus according to claim 5, wherein the processing unit is a unit that performs processing by enclosing a region that matches the representative image in a frame including the selected representative image with a frame. 映像コンテンツデータから複数の顔画像を抽出する画像抽出手段と、
前記画像抽出手段によって抽出された複数の顔画像の夫々が前記映像コンテンツデータの中で出現する時点を示すタイムスタンプ情報を出力するタイムスタンプ情報出力手段と、
前記複数の顔画像のうちの一つがユーザによって選択されている状態で、前記映像コンテンツデータの再生を指示する再生要求イベントが入力された場合、前記選択されている顔画像に割り当てられているタイムスタンプ情報に基づき、前記選択されている顔画像が登場する時点よりも所定時間前の時点から前記映像コンテンツデータの再生を開始し、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている顔画像が含まれるフレームを強調して再生する再生手段と、
を具備することを特徴とする電子機器。
Image extracting means for extracting a plurality of face images from video content data;
Time stamp information output means for outputting time stamp information indicating a time point at which each of the plurality of face images extracted by the image extraction means appears in the video content data;
When a playback request event instructing playback of the video content data is input in a state where one of the plurality of face images is selected by a user, a time allocated to the selected face image Based on the stamp information, reproduction of the video content data is started from a time point a predetermined time before the time point when the selected face image appears, and the selected image is selected from the frame group constituting the video content data. Reproduction means for emphasizing and reproducing a frame including a face image that is present,
An electronic device comprising:
前記再生手段は、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている顔画像が含まれるフレームを所定時間停止して再生する再生手段であることを特徴とする請求項7記載の電子機器。 8. The reproduction means according to claim 7, wherein the reproduction means is a reproduction means that pauses and reproduces a frame including the selected face image within a frame group constituting the video content data for a predetermined time. Electronics. 前記映像コンテンツデータを構成するフレーム群の内、前記選択されている顔画像が含まれるフレームを加工処理する加工処理手段をさらに具備し、
前記再生手段は、前記加工処理手段によって加工処理されたフレームを再生する再生手段であることを特徴とする請求項7記載の電子機器。
Processing means for processing a frame including the selected face image in a frame group constituting the video content data;
8. The electronic apparatus according to claim 7, wherein the reproducing unit is a reproducing unit that reproduces a frame processed by the processing unit.
前記加工処理手段は、前記選択されている顔画像が含まれるフレームの色を特定の色に指定する手段であることを特徴とする請求項9記載の電子機器。 10. The electronic apparatus according to claim 9, wherein the processing unit is a unit that designates a color of a frame including the selected face image as a specific color. 前記加工処理手段は、前記選択されている顔画像が含まれるフレーム中の前記顔画像と一致する領域を強調処理する手段であることを特徴とする請求項7記載の電子機器。 8. The electronic apparatus according to claim 7, wherein the processing means is means for emphasizing a region that matches the face image in a frame including the selected face image. 前記加工処理手段は、前記選択されている顔画像が含まれるフレーム中の前記顔画像と一致する領域を枠で囲う処理する手段であることを特徴とする請求項11記載の電子機器。 12. The electronic apparatus according to claim 11, wherein the processing unit is a unit that performs processing for enclosing a region that matches the face image in a frame including the selected face image with a frame. 映像コンテンツデータに出現する画像の一覧を表示する画像表示方法において、
前記映像コンテンツデータから複数の代表画像を抽出し、
前記複数の代表画像のうちの一つがユーザによって選択されている状態で、前記映像コンテンツデータの再生を指示する再生要求イベントが入力された場合、前記映像コンテンツデータを構成するフレーム群の内、前記選択されている代表画像が含まれるフレームを強調して再生することを特徴とする画像表示方法。
In an image display method for displaying a list of images appearing in video content data,
Extracting a plurality of representative images from the video content data;
When a playback request event instructing playback of the video content data is input in a state where one of the plurality of representative images is selected by the user, the frame content constituting the video content data An image display method, wherein a frame including a selected representative image is emphasized and reproduced.
前記映像コンテンツデータを構成するフレーム群の内、前記選択されている代表画像が含まれるフレームを所定時間停止して再生することを特徴とする請求項13記載の画像表示方法。 14. The image display method according to claim 13, wherein a frame including the selected representative image in a frame group constituting the video content data is stopped and reproduced for a predetermined time. 前記映像コンテンツデータを構成するフレーム群の内、前記選択されている代表画像が含まれるフレームを加工処理し、
前記加工処理されたフレームを再生することを特徴とする請求項13記載の画像表示方法。
Processing a frame including the selected representative image in a frame group constituting the video content data;
14. The image display method according to claim 13, wherein the processed frame is reproduced.
前記選択されている代表画像が含まれるフレームの色を特定の色に指定することを特徴とする請求項15記載の画像表示方法。 The image display method according to claim 15, wherein a color of a frame including the selected representative image is designated as a specific color. 前記選択されている代表画像が含まれるフレーム中の前記代表画像と一致する領域を強調処理することを特徴とする請求項15記載の画像表示方法。 The image display method according to claim 15, wherein an area that matches the representative image in a frame including the selected representative image is enhanced. 前記選択されている代表画像が含まれるフレーム中の前記代表画像と一致する領域を枠で囲うことを特徴とする請求項17記載の画像表示方法。 The image display method according to claim 17, wherein a region that matches the representative image in a frame including the selected representative image is surrounded by a frame.
JP2008040418A 2008-02-21 2008-02-21 Electronic device and image display method Pending JP2009200827A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008040418A JP2009200827A (en) 2008-02-21 2008-02-21 Electronic device and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008040418A JP2009200827A (en) 2008-02-21 2008-02-21 Electronic device and image display method

Publications (1)

Publication Number Publication Date
JP2009200827A true JP2009200827A (en) 2009-09-03

Family

ID=41143851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008040418A Pending JP2009200827A (en) 2008-02-21 2008-02-21 Electronic device and image display method

Country Status (1)

Country Link
JP (1) JP2009200827A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004713A (en) * 2010-06-15 2012-01-05 Canon Inc Image processing device, image processing device control method, program, and recording medium
WO2015025705A1 (en) * 2013-08-23 2015-02-26 日本電気株式会社 Video processing device, video processing method, and video processing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004713A (en) * 2010-06-15 2012-01-05 Canon Inc Image processing device, image processing device control method, program, and recording medium
WO2015025705A1 (en) * 2013-08-23 2015-02-26 日本電気株式会社 Video processing device, video processing method, and video processing program
JPWO2015025705A1 (en) * 2013-08-23 2017-03-02 日本電気株式会社 Video processing apparatus, video processing method, and video processing program

Similar Documents

Publication Publication Date Title
JP4331240B2 (en) Electronic apparatus and image display method
JP5057918B2 (en) Electronic device and scene type display method
JP4909856B2 (en) Electronic device and display method
US8913834B2 (en) Acoustic signal corrector and acoustic signal correcting method
JP4834640B2 (en) Electronic device and image display control method
JP4496264B2 (en) Electronic device and video display method
JP2009089065A (en) Electronic device and facial image display apparatus
JP4834639B2 (en) Electronic device and image display control method
JP2009076982A (en) Electronic apparatus, and face image display method
JP2010257509A (en) Authoring apparatus, authoring method, and program
JP4856105B2 (en) Electronic device and display processing method
JP2009159507A (en) Electronic apparatus and image display control method
JP2009081699A (en) Electronic apparatus and method of controlling face image extraction
JP4625862B2 (en) Authoring apparatus and authoring method
JP4709929B2 (en) Electronic device and display control method
JP2009200827A (en) Electronic device and image display method
JP2009088904A (en) Information processor and face image displaying method
JP4987653B2 (en) Electronic apparatus and image display method
JP5232291B2 (en) Electronic device and face image display method
JP5198609B2 (en) Electronic device, display control method, and program
JP5284426B2 (en) Electronic apparatus and image display method
JP5349651B2 (en) Electronic device, face image extraction control method and program
JP5377624B2 (en) Electronic device and face image display device
JP5038836B2 (en) Information processing device
JP5566984B2 (en) Electronic apparatus and image display method