JP2014036339A - Moving image processing device - Google Patents
Moving image processing device Download PDFInfo
- Publication number
- JP2014036339A JP2014036339A JP2012176430A JP2012176430A JP2014036339A JP 2014036339 A JP2014036339 A JP 2014036339A JP 2012176430 A JP2012176430 A JP 2012176430A JP 2012176430 A JP2012176430 A JP 2012176430A JP 2014036339 A JP2014036339 A JP 2014036339A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- multiplexing
- image
- sub
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
この発明は、動画像処理装置に関し、特に共通のシーンを表す複数の動画像を互いに異なる態様で表示する、動画像表示装置に関する。 The present invention relates to a moving image processing apparatus, and more particularly to a moving image display apparatus that displays a plurality of moving images representing a common scene in different modes.
この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、テレ/ワイド同時撮りモードに設定されると、右撮像系のズームレンズおよび左撮像系のズームレンズが異なるズーム位置に設定される。ワイド側画像は右撮像系で撮影され、テレ側画像は左撮像系で撮影される。テレ側画像はモニタ画面の全域に表示され、ワイド側画像はモニタ画面の一部に割り当てられた枠内に縮小表示される。使用者は、ワイド側の画像およびテレ側の画像の各々の撮影範囲を認識し、かつ被写体の細かい部分を確認することができる。
An example of this type of device is disclosed in
しかし、背景技術では、ワイド側画像の撮影範囲とテレ側画像の撮影範囲との相対位置が固定的であるため、被写体の視認性に限界がある。 However, in the background art, since the relative position between the shooting range of the wide-side image and the shooting range of the tele-side image is fixed, the visibility of the subject is limited.
それゆえに、この発明の主たる目的は、動画像に現れた所望の被写体の視認性を高めることができる、動画像処理装置を提供することである。 Therefore, a main object of the present invention is to provide a moving image processing apparatus that can improve the visibility of a desired subject appearing in a moving image.
この発明に従う動画像処理装置(10:実施例で相当する参照符号。以下同じ)は、動画像を表示する表示手段(30a, S111~S115, S127~S131)、所望の被写体を表す部分動画像を表示手段によって表示すべき動画像から切り出す切り出し手段(28a, S73, S85)、切り出し手段によって切り出された部分動画像を拡大して拡大部分動画像を作成する作成手段(28c~28f, S75~S77, S87)、作成手段によって作成された拡大部分動画像を表示手段によって表示された動画像に多重する多重手段(30c~30e, S103~S107, S117~S119, S123~S125)、および切り出し手段の切り出し位置に応じて異なるように多重手段の多重位置を調整する調整手段(S121)を備える。 The moving image processing apparatus according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) includes display means (30a, S111 to S115, S127 to S131) for displaying a moving image, and a partial moving image representing a desired subject. From the moving image to be displayed by the display means (28a, S73, S85), creating means (28c ~ 28f, S75 ~) to enlarge the partial moving image clipped by the cutting means to create an enlarged partial moving image S77, S87), multiplexing means (30c to 30e, S103 to S107, S117 to S119, S123 to S125) for multiplexing the enlarged partial moving image created by the creating means on the moving image displayed by the display means, and clipping means Adjustment means (S121) for adjusting the multiplexing position of the multiplexing means so as to differ depending on the cutout position.
好ましくは、所望の被写体を表す部分画像を表示手段によって表示すべき動画像を形成するフレーム画像から繰り返し探索する探索手段(34, S57)がさらに備えられ、切り出し手段は探索手段の探索結果を参照して切り出しエリアを定義する定義手段(S73, S85)を含む。 Preferably, search means (34, S57) for repeatedly searching a partial image representing a desired subject from a frame image forming a moving image to be displayed by the display means is provided, and the clipping means refers to a search result of the search means And defining means (S73, S85) for defining the cut-out area.
さらに好ましくは、切り出しエリアのサイズは探索手段によって探知された部分画像のサイズに応じて異なり、作成手段は切り出しエリアのサイズを参照して拡大率を調整する拡大率調整手段(S75, S87)を含む。 More preferably, the size of the cutout area differs depending on the size of the partial image detected by the search means, and the creation means includes an enlargement ratio adjusting means (S75, S87) for adjusting the enlargement ratio with reference to the size of the cutout area. Including.
より好ましくは、拡大率調整手段は前記切り出しエリアのサイズの変動に関係なく拡大部分画像の解像度が一定値を示すように拡大率を調整する。 More preferably, the enlargement ratio adjusting means adjusts the enlargement ratio so that the resolution of the enlarged partial image shows a constant value regardless of the variation in the size of the cutout area.
好ましくは、表示手段によって表示すべき動画像を表示手段の処理に先立って記録する記録手段(S3~S5, S11~S19, S33)、および作成手段によって作成された拡大部分動画像を記録手段によって記録された動画像に割り当てる割り当て手段(S7~S9, S21, S25~S29, S53, S65, S79~S81, S93)がさらに備えられ、表示手段の表示対象は記録手段によって記録された動画像に相当し、多重手段の多重対象は割り当て手段によって割り当てられた拡大部分動画像に相当する。 Preferably, the recording means (S3 to S5, S11 to S19, S33) for recording the moving image to be displayed by the display means prior to the processing of the display means, and the enlarged partial moving image created by the creating means by the recording means An assigning means (S7 to S9, S21, S25 to S29, S53, S65, S79 to S81, S93) for assigning to the recorded moving image is further provided, and the display means of the display means is the moving image recorded by the recording means. Correspondingly, the multiplexing target of the multiplexing means corresponds to the enlarged partial moving image assigned by the assigning means.
この発明に従う動画像処理プログラムは、動画像処理装置(10)のプロセッサ(36)に、動画像を表示する表示ステップ(S111~S115, S127~S131)、所望の被写体を表す部分動画像を表示ステップによって表示すべき動画像から切り出す切り出しステップ(S73, S85)、切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ(S75~S77, S87)、作成ステップによって作成された拡大部分動画像を表示ステップによって表示された動画像に多重する多重ステップ(S103~S107, S117~S119, S123~S125)、および切り出しステップの切り出し位置に応じて異なるように多重ステップの多重位置を調整する調整ステップ(S121)を実行させるための、動画像処理プログラムである。 The moving image processing program according to the present invention displays, on the processor (36) of the moving image processing device (10), a display step (S111 to S115, S127 to S131) for displaying a moving image, and a partial moving image representing a desired subject. A cutout step (S73, S85) that cuts out from the moving image to be displayed in steps, a creation step (S75 to S77, S87) that creates a magnified partial moving image by enlarging the partial moving image cut out in the cutout step, Multiplexing step (S103 to S107, S117 to S119, S123 to S125) for multiplexing the created enlarged partial moving image on the moving image displayed by the display step, and the multiple step to be different depending on the cutout position of the cutout step. This is a moving image processing program for executing the adjustment step (S121) for adjusting the multiple positions.
この発明に従う動画像処理方法は、動画像処理装置(10)によって実行される動画像処理方法であって、動画像を表示する表示ステップ(S111~S115, S127~S131)、所望の被写体を表す部分動画像を表示ステップによって表示すべき動画像から切り出す切り出しステップ(S73, S85)、切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ(S75~S77, S87)、作成ステップによって作成された拡大部分動画像を表示ステップによって表示された動画像に多重する多重ステップ(S103~S107, S117~S119, S123~S125)、および切り出しステップの切り出し位置に応じて異なるように多重ステップの多重位置を調整する調整ステップ(S121)を備える。 The moving image processing method according to the present invention is a moving image processing method executed by the moving image processing apparatus (10), and displays the moving image display step (S111 to S115, S127 to S131), which represents a desired subject. A cutout step (S73, S85) for cutting out a partial moving image from a moving image to be displayed by the display step, and a creation step (S75 to S77, S87) for creating an enlarged partial moving image by enlarging the partial moving image cut out by the cutout step ), A multiplex step (S103 to S107, S117 to S119, S123 to S125) for multiplexing the enlarged partial moving image created in the creating step on the moving image displayed in the display step, and the cutout position of the cutout step Thus, an adjustment step (S121) for adjusting the multiplexing position of the multiplexing step is provided.
この発明に従う外部制御プログラムは、メモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(36)を備える動画像処理装置(10)に供給される外部制御プログラムであって、動画像を表示する表示ステップ(S111~S115, S127~S131)、所望の被写体を表す部分動画像を表示ステップによって表示すべき動画像から切り出す切り出しステップ(S73, S85)、切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ(S75~S77, S87)、作成ステップによって作成された拡大部分動画像を表示ステップによって表示された動画像に多重する多重ステップ(S103~S107, S117~S119, S123~S125)、および切り出しステップの切り出し位置に応じて異なるように多重ステップの多重位置を調整する調整ステップ(S121)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。 An external control program according to the present invention is an external control program supplied to a moving image processing apparatus (10) including a processor (36) that executes processing according to an internal control program stored in a memory (44), A display step (S111 to S115, S127 to S131), a cutout step (S73, S85) to cut out a partial moving image representing a desired subject from a moving image to be displayed by the display step, and a partial video cut out by the cutout step A creation step (S75 to S77, S87) for enlarging an image to create an enlarged partial moving image, and a multiplexing step (S103 to S107) for multiplexing the enlarged partial moving image created in the creating step on the moving image displayed in the display step , S117 to S119, S123 to S125), and an adjustment step (S121) for adjusting the multiplex position of the multiplex step so as to differ depending on the slicing position of the slicing step. It is an external control program for causing a processor to execute in cooperation with a program.
この発明に従う動画像処理装置(10)は、外部制御プログラムを取り込む取り込み手段(46)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(44)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(36)を備える動画像処理装置であって、外部制御プログラムは、動画像を表示する表示ステップ(S111~S115, S127~S131)、所望の被写体を表す部分動画像を表示ステップによって表示すべき動画像から切り出す切り出しステップ(S73, S85)、切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ(S75~S77, S87)、作成ステップによって作成された拡大部分動画像を表示ステップによって表示された動画像に多重する多重ステップ(S103~S107, S117~S119, S123~S125)、および切り出しステップの切り出し位置に応じて異なるように多重ステップの多重位置を調整する調整ステップ(S121)を内部制御プログラムと協働して実行するプログラムに相当する。 The moving image processing apparatus (10) according to the present invention executes a process according to an importing means (46) for fetching an external control program, and an external control program fetched by the fetching means and an internal control program stored in the memory (44). The external control program includes a display step for displaying a moving image (S111 to S115, S127 to S131), and a partial moving image representing a desired subject is displayed by the display step. Cutout steps (S73, S85) cut out from the moving image to be created, creation steps (S75 to S77, S87) that create the enlarged partial moving image by enlarging the partial moving image cut out in the cutout step, created by the creation step Multiplexing step (S103 to S107, S117 to S119, S123 to S125) for multiplexing the enlarged partial moving image on the moving image displayed by the display step, and the clipping step Adjustment step of adjusting the multi-position of the multi-step differently depending on the cut position (S121) corresponding to the internal control program in cooperation with a program to be executed.
この発明によれば、拡大部分動画像は、所望の被写体を表す部分動画像を動画像から切り出しかつ切り出された部分動画像を拡大することで作成される。さらに、作成された拡大部分動画像は、切り出し位置に応じて異なる位置に対応して動画像に多重される。これによって、動画像に現れた所望の被写体の視認性を高めることができる。 According to the present invention, the enlarged partial moving image is created by cutting out a partial moving image representing a desired subject from the moving image and enlarging the extracted partial moving image. Further, the created enlarged partial moving image is multiplexed with the moving image corresponding to different positions depending on the cutout position. Thereby, the visibility of a desired subject appearing in the moving image can be enhanced.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]
図1を参照して、この実施例の動画像処理装置は、基本的に次のように構成される。表示手段1は、動画像を表示する。切り出し手段2は、所望の被写体を表す部分動画像を表示手段1によって表示すべき動画像から切り出す。作成手段3は、切り出し手段2によって切り出された部分動画像を拡大して拡大部分動画像を作成する。多重手段4は、作成手段3によって作成された拡大部分動画像を表示手段1によって表示された動画像に多重する。調整手段5は、切り出し手段2の切り出し位置に応じて異なるように多重手段4の多重位置を調整する。
Referring to FIG. 1, the moving image processing apparatus of this embodiment is basically configured as follows. The
拡大部分動画像は、所望の被写体を表す部分動画像を動画像から切り出しかつ切り出された部分動画像を拡大することで作成される。さらに、作成された拡大部分動画像は、切り出し位置に応じて異なる位置に対応して動画像に多重される。これによって、動画像に現れた所望の被写体の視認性を高めることができる。
[実施例]
The enlarged partial moving image is created by cutting out a partial moving image representing a desired subject from the moving image and enlarging the cut out partial moving image. Further, the created enlarged partial moving image is multiplexed with the moving image corresponding to different positions depending on the cutout position. Thereby, the visibility of a desired subject appearing in the moving image can be enhanced.
[Example]
図2を参照して、この実施例のディジタルビデオカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。シーンを表す光学像は、これらの部材を通してイメージセンサ16の撮像面に照射される。
Referring to FIG. 2, the
キー入力装置38に向けたモード選択操作によってカメラモードが選択されると、CPU36は、メイン画像記録タスクの下で動画取り込み処理を実行するべく、ドライバ18cを起動する。ドライバ18cは、周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、撮像面で生成された電荷をラスタ走査態様で読み出す。イメージセンサ16からは、撮像面で捉えられたシーンを表しかつR,GまたはBの色情報が各画素に割り当てられた生画像データが周期的に出力される。
When the camera mode is selected by the mode selection operation directed to the
前処理回路20は、イメージセンサ16からの生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。このような前処理を施された生画像データは、メモリ制御回路22を通してSDRAM24の生画像エリア24a(図3参照)に書き込まれる。
The preprocessing
後処理回路26は、生画像エリア24aに格納された生画像データをメモリ制御回路22を通して読み出し、読み出された生画像データに色分離,白バランス調整,YUV変換の一連の処理を施す。これによって、作成されたYUV形式の画像データつまりメイン画像データは、メモリ制御回路22を通してSDRAM24のYUV画像エリア24b(図3参照)に書き込まれる。
The
LCDドライバ30は、YUV画像エリア24bに格納されたメイン画像データを繰り返し読み出し、読み出されたメイン画像データに基づいてLCDモニタ32を駆動する。この結果、撮像面で捉えられたシーンを表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。
The
前処理回路20はまた、生画像データを簡易的にYデータに変換し、変換されたYデータをCPU36に与える。CPU36は、パラメータ調整タスクの下でYデータにAE処理を施し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間はドライバ18bおよび18cにそれぞれ設定され、これによってスルー画像の明るさが適度に調整される。CPU36はまた、AF起動条件が満足されるときに、Yデータの高周波成分にAF処理を施す。フォーカスレンズ12はドライバ18aによって合焦点に配置され、これによってスルー画像の鮮鋭度が継続的に向上する。
The
キー入力装置38に向けて記録開始操作が行われると、CPU36は、メイン画像記録タスクの下でI/F40を通して記録媒体42にアクセスし、メインファイルおよびサブファイルを記録媒体42に新規に作成する(作成されたメインファイルおよびサブファイルはオープンされる)。
When a recording start operation is performed toward the
メインファイルにはMOV****.MAIN(****は識別番号、以下同じ)のファイル名が割り当てられ、サブファイルにはMOV****.SUBのファイル名が割り当てられる。ここで、同時に作成されるメインファイルおよびサブファイルには共通の識別番号が割り当てられ、同時に作成されたメインファイルおよびサブファイルは識別番号によって互いに関連付けられる。 The main file contains MOV ***. A file name of MAIN (*** is an identification number, the same applies hereinafter) is assigned, and MOV ***. A SUB file name is assigned. Here, a common identification number is assigned to the main file and the sub file created at the same time, and the main file and the sub file created at the same time are associated with each other by the identification number.
メインファイルおよびサブファイルが作成されると、CPU36は、メイン画像記録処理の開始をメモリI/F40に命令する。CPU36はまた、垂直同期信号Vsyncが発生する毎にメインフレーム番号を“1”からインクリメントする。記録される各フレームのメイン画像データは、こうしてインクリメントされるメインフレーム番号によって識別される。メモリI/F40は、YUV画像エリア24bに格納されたメイン画像データをメモリ制御回路22を通して読み出し、読み出されたメイン画像データを記録媒体42に上述の要領で作成されたメインファイルに書き込む。
When the main file and the sub file are created, the
CPU36はさらに、サブ制御タスクの下で顔探索処理を実行するべく、垂直同期信号Vsyncが発生する毎に顔検出回路34に向けて顔探索要求を発行する。顔検出回路34は、照合枠をYUV画像エリア24bの先頭位置から末尾位置に向けてラスタ走査態様で移動させ、照合枠に属する一部の画像を辞書34eに収められた登録顔画像と照合する。照合枠のサイズは照合枠が末尾位置に到達する毎に変更され、変更後のサイズを有する照合枠が先頭位置から再度ラスタ走査態様で移動される。これによって検出された顔画像の位置およびサイズは、顔情報としてレジスタ34eに登録される。
Further, the
既定回数のラスタ走査が完了すると、顔検出回路34は、探索結果が記述された探索終了通知をCPU36に返送する。探索終了通知に記述された探索結果は、登録顔画像に符合する画像データが発見されたとき“探知”を示し、登録顔画像に符合する画像データが発見されなかったとき“非探知”を示す。
When the predetermined number of raster scans are completed, the
探索結果が“探知”を示す探索終了通知が返送されると、CPU36は、登録顔画像に符合する顔の探索に成功したとみなし、タイマ36tmのリセット&スタートを実行するとともに、サブ画像記録タスクを起動する。
When a search end notification indicating that the search result indicates “detect” is returned, the
タイマ値はたとえば2秒に設定され、サブ画像記録タスクはタイマ36tmのタイムアウトに応答して終了される。また、タイマ36tmは、登録顔画像に符合する顔が探知される毎にリセット&スタートを施される。さらに、タイマ36tmのリセット&スタートからタイムアウトまでの期間には、サブ画像記録タスクが改めて起動されることはない。したがって、登録顔画像に符合する顔が探知され続ける限り共通のサブ画像記録タスクが起動し続け、登録顔画像に符合する顔が探知されなくなると、その2秒後にサブ画像記録タスクが終了される。 The timer value is set to 2 seconds, for example, and the sub-image recording task is terminated in response to the timer 36tm timeout. The timer 36tm is reset and started every time a face matching the registered face image is detected. Further, the sub-image recording task is not started again during the period from the reset & start of the timer 36tm to the timeout. Therefore, as long as the face matching the registered face image continues to be detected, the common sub-image recording task continues to be activated, and when the face matching the registered face image is not detected, the sub-image recording task is terminated after 2 seconds. .
サブ画像記録タスクの下で、CPU36は、レジスタ34eに登録された最新の顔情報を参照して切り出しエリアCT1を生画像エリア24aに設定する。切り出しエリアCT1のサイズおよび位置は、登録顔画像に符合する顔が捉えられるように、最新の顔情報を定義するサイズおよび位置に基づいて調整される。したがって、図4に示す少年BY1の顔画像が辞書34eに登録された状態で図4に示すシーンが捉えられると、切り出しエリアCT1は図4に示す要領で設定される。
Under the sub-image recording task, the
CPU36は続いて、切り出しエリアCT1のサイズに応じて異なるズーム倍率を後処理回路28に設定する。ズーム倍率は、切り出しエリアCT1のサイズの変動に関係なくズーム処理後の画像データつまりサブ画像データの解像度が一定値を示すように、“1.0”を上回る範囲で調整される。ズーム倍率の調整が完了すると、CPU36は、後処理回路28を起動し、サブ画像記録処理の開始をメモリI/F40に命令し、そして垂直同期信号Vsyncが発生する毎にサブフレーム番号を“1”からインクリメントする。
Subsequently, the
後処理回路28は、切り出しエリアCT1に属する一部の生画像データをメモリ制御回路22を通して生画像エリア24aから読み出し、読み出された生画像データをYUV形式の画像データに変換し、そして変換された画像データを上述の要領で設定されたズーム倍率に従って拡大する。これによって作成された拡大画像データつまりサブ画像データは、メモリ制御回路22を通してSDRAM24のYUV画像エリア24cに書き込まれる。
The
メモリI/F40は、YUV画像エリア24cに格納されたサブ画像データをメモリ制御回路22を通して読み出し、読み出されたサブ画像データをメイン画像記録タスクの下で作成されたサブファイルに書き込む。
The memory I /
SDRAM24のワークエリア24dには、図5に示すサブ画像情報テーブルTBLが準備される。CPU36は、メモリ制御回路22を通してワークエリア24dにアクセスし、現メインフレーム番号および現サブフレーム番号を多重フレーム番号としてサブ画像情報テーブルTBLに記述するとともに、切り出しエリアCT1の現在位置を多重位置としてサブ画像情報テーブルTBLに記述する。これによって、サブ画像データの切り出し位置およびフレーム番号と切り出し元のメイン画像データのフレーム番号とが互いに関連付けられる。
In the
タイマ36tmにタイムアウトが発生しない限り、CPU36は、垂直同期信号Vsyncが発生する毎に、切り出しエリアCT1の設定を更新し、かつ後処理回路28に設定されたズーム倍率を更新する。上述と同様、切り出しエリアCT1は、レジスタ34eに記述された最新の顔情報を定義するサイズおよび位置に基づいて調整される。また、ズーム倍率は、切り出しエリアCT1のサイズの変動に関係なくサブ画像データの解像度が一定値を示すように、“1.0”を上回る範囲で調整される。
As long as the timer 36tm does not time out, the
タイマ36tmにタイムアウトが発生すると、CPU36は、後処理回路28を停止し、サブ画像記録処理の終了をメモリI/F40に命令する。後処理回路28は切り出しエリアCT1からの生画像データの読み出しを停止し、メモリI/F40はサブ画像データの記録を終了する。サブ画像記録タスクはその後に終了される。
When a timeout occurs in the timer 36tm, the
キー入力装置38に向けて記録終了操作が行われると、CPU36は、メイン画像記録タスクの下で、メイン画像記録処理の終了をメモリI/F40を命令する。この結果、YUV画像エリア24bからのメイン画像データの読み出しが終了される。CPU36はその後、オープン状態にあるサブファイルをクローズし、サブ画像記録タスクの下で作成されたサブ画像情報テーブルTBLをメインファイルのヘッダに書き込み、そしてメインファイルをクローズする。この結果、互いに関連するメインファイルおよびサブファイルが図6(A)および図6(B)に示す要領で完成する。図4に示すシーンが捉えられたとき、サブファイルには切り出しエリアCT1に属する被写体を表すサブ画像データが収められる。
When a recording end operation is performed toward the
なお、サブファイルに画像データが存在しなければ、サブ画像情報テーブルTBLの書き込みは省略され、サブファイルは削除される。 If there is no image data in the subfile, writing of the subimage information table TBL is omitted, and the subfile is deleted.
キー入力装置38に向けたモード選択操作によって再生モードが選択されると、CPU36は、画像再生タスクの下で以下の処理を実行する。まず、記録媒体42に記録された複数のメインファイルのいずれか1つを、キー入力装置38に向けたファイル指定操作に従って指定する。
When the playback mode is selected by the mode selection operation directed to the
指定されたメインファイルに対応するサブファイルが記録媒体42に存在する場合、CPU36は、このメインファイルのヘッダに記述されたサブ画像情報テーブルTBLをメモリI/F40を通して取得する。取得されたサブ画像情報テーブルTBLは、メモリ制御回路22を通してSDRAM24のワークエリア24dに書き込まれる。
When the sub file corresponding to the designated main file exists in the
キー入力装置38に向けて再生開始操作が行われると、CPU36は、メイン画像再生処理の開始をメモリI/F40およびLCDドライバ30に命令し、かつ垂直同期信号Vsyncが発生する毎にメインフレーム番号を“1”からインクリメントする。
When the reproduction start operation is performed toward the
メモリI/F40は、上述の要領で指定されたメインファイルから現メインフレーム番号に対応する1フレームのメイン画像データを読み出し、読み出されたメイン画像データをメモリ制御回路22を通してSDRAM24のYUV画像エリア24bに書き込む。LCDドライバ30は、YUV画像エリア24bに格納されたメイン画像データをメモリ制御回路22を通して読み出し、読み出されたメイン画像データに基づいてLCDモニタ32を駆動する。この結果、現フレームのメイン画像がモニタ画面に表示される。
The memory I /
現メインフレーム番号がサブ画像情報テーブルTBLに記述されていれば、CPU36は、現メインフレーム番号に割り当てられたサブフレーム番号をサブ画像情報テーブルTBLから検出し、検出されたサブフレーム番号に対応する1フレームのサブ画像データをサブファイルから読み出す。読み出されたサブ画像データは、メモリ制御回路22を通してSDRAM24のYUV画像エリア24cに書き込まれる。
If the current main frame number is described in the sub image information table TBL, the
CPU36はさらに、現メインフレーム番号に割り当てられた多重位置をサブ画像情報テーブルTBLから検出し、多重表示命令をLCDドライバ30に与える。多重表示命令には、サブ画像情報テーブルから検出された多重位置が記述される。
The
LCDドライバ30は、YUV画像エリア24cに格納されたサブ画像データをメモリ制御回路22を通して並列的に読み出し、読み出されたサブ画像データを多重表示命令に記述された多重位置に相当するタイミングでメイン画像データに多重する。この結果、サブ画像がモニタ画面上のメイン画像に多重される。
The
したがって、図4に示すシーンを捉えたメインファイルを再生すると、切り出しエリアCT1に属する被写体を表すサブ画像データがサブファイルから読み出される。読み出されたサブ画像データに基づくサブ画像は、図7に示す要領でメイン画像に多重される。 Therefore, when the main file capturing the scene shown in FIG. 4 is reproduced, the sub image data representing the subject belonging to the cutout area CT1 is read from the sub file. The sub image based on the read sub image data is multiplexed with the main image in the manner shown in FIG.
再生終了操作が行われるかまたは現メインフレーム番号がメインファイルの末尾フレームに到達するという論理和条件が満足されると、CPU36は、メインファイル再生処理の終了をメモリI/F40およびLCDドライバ30に命令する。この結果、メイン画像データの再生が終了される。
When the playback end operation is performed or the logical sum condition that the current main frame number reaches the end frame of the main file is satisfied, the
後処理回路28は、図8に示すように構成される。コントローラ28aは、切り出しエリアCT1に属する一部の生画像データをメモリ制御回路22を通して生画像エリア24aから読み出す。読み出された生画像データは、SRAM28bを経て色分離回路28cに与えられる。色分離回路28cは、与えられた生画像データに色分離を施して各画素がR,GおよびBの全ての色情報を有する補間画像データを作成する。
The
白バランス調整回路28dは色分離回路28cによって作成された補間画像データの白バランスを調整し、YUV変換回路28eは調整された色バランスを有する補間画像データをYUV形式の画像データに変換する。ズーム回路28fは、CPU36によって設定されたズーム倍率に従って画像データを拡大し、拡大画像データつまりサブ画像データをSRAM28hに書き込む。コントローラ28gは、SRAM28hに格納されたサブ画像データをメモリ制御回路22を通してYUV画像エリア24cに書き込む。
The white
LCDドライバ34は、図9に示すように構成される。コントローラ30aは、YUV画像エリア24bに格納されたメイン画像データをメモリ制御回路22を通して読み出す。読み出されたメイン画像データは、SRAM30bを経て多重回路30eに与えられる。
The
コントローラ30cは、CPU36から多重表示命令が与えられたとき、YUV画像エリア24cに格納されたサブ画像データをメモリ制御回路22を通して読み出す。読み出されたサブ画像データは、SRAM30dを経て多重回路30eに与えられる。
The
多重回路30eは、SRAM30dから与えられたサブ画像データを多重表示命令に記述された多重位置に相当するタイミングでメイン画像データに多重する。多重回路30eからは、メイン画像データまたは多重処理によって作成された多重画像データが出力される。画像出力回路30fは、多重回路30eから出力されたメイン画像データまたは多重画像データに基づいてLCDモニタ32を駆動する。
The
顔検出回路34は図10に示すように構成される。コントローラ34aは、YUV画像エリア24bに矩形の照合枠を割り当て、照合枠に属する一部の画像データをメモリ制御回路22を通して読み出す。読み出された画像データは、SRAM34bを経て照合回路34cに与えられる。
The
辞書34dには、登録顔画像が収められる。照合回路34cは、SRAM34bから与えられた画像データを辞書34dに収められた登録顔画像と照合する。登録顔画像と符合する画像データが発見されると、照合回路34cは、現時点の照合枠の位置およびサイズとが記述された顔情報をレジスタ34eに登録する。
The registered face image is stored in the
照合枠は、YUV画像エリア24bの先頭位置(左上位置)から末尾位置(右下位置)に向けて、ラスタ走査態様で既定量ずつ移動する。また、照合枠のサイズは、照合枠が末尾位置に到達する毎に更新される。既定回数のラスタ走査が完了すると、探索結果が記述された探索終了通知が照合回路34cからCPU36に向けて返送される。探索終了通知に記述された探索結果は、登録顔画像に符合する画像データが発見されたとき“探知”を示し、登録顔画像に符合する画像データが発見されなかったとき“非探知”を示す。
The collation frame moves by a predetermined amount in a raster scanning manner from the head position (upper left position) to the end position (lower right position) of the
CPU36は、図11〜図12に示すメイン画像記録タスク,図13に示すパラメータ調整タスク,図14に示すサブ制御タスク,図15〜図16に示すサブ画像記録タスク,および図17〜図18に示す画像再生タスクを含む複数のタスクをマルチタスクOSに下で並列的に処理する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。
The
図11を参照して、ステップS1では動画取り込み処理を実行する。これによって、スルー画像がLCDモニタ32に表示される。ステップS3では記録開始操作が行われたか否かを繰り返し判別し、判別結果がNOからYESに更新されるとステップS5〜S7の処理に進む。ステップS5〜S7では、メモリI/F40を通して記録媒体42にアクセスし、オープン状態のメインファイルおよびサブファイルを記録媒体42に新規に作成する。
Referring to FIG. 11, in step S1, a moving image capturing process is executed. As a result, a through image is displayed on the
ステップS9ではサブ制御タスクを起動し、ステップS11ではメインフレーム番号を“1”に設定し、そしてステップS11ではメイン画像記録処理の開始をメモリI/F40に命令する。メモリI/F40は、YUV画像エリア24bに格納されたメイン画像データをメモリ制御回路22を通して読み出し、読み出されたメイン画像データをステップS5で作成されたメインファイルに書き込む。
In step S9, the sub-control task is activated, in step S11, the main frame number is set to “1”, and in step S11, the memory I /
ステップS15では、記録終了操作が行われたか否かを判別する。判別結果がNOであればステップS17に進み、垂直同期信号Vsyncの発生を待ってメインフレーム番号をインクリメントする。インクリメントが完了すると、ステップS15に戻る。ステップS15の判別結果がYESに更新されるとステップS19に進み、メイン画像記録処理の終了をメモリI/F40に命令する。メモリI/F40は、YUV画像エリア24bからのメイン画像データの読み出しを終了する。
In step S15, it is determined whether or not a recording end operation has been performed. If the determination result is NO, the process proceeds to step S17, and the main frame number is incremented after waiting for the generation of the vertical synchronization signal Vsync. When the increment is completed, the process returns to step S15. If the determination result of step S15 is updated to YES, it will progress to step S19 and will command the memory I /
ステップS21ではサブ制御タスクを終了し、ステップS25ではステップS7で作成されたサブファイルにサブ画像データが収められているか否かを判別する。判別結果がYESであればステップS27に進み、オープン状態にあるサブファイルをクローズする。ステップS29では、サブ画像記録タスクの下で作成されたサブ画像情報テーブルTBLをステップS5で作成されたメインファイルのヘッダに書き込む。ステップS25の判別結果がNOであればステップS31に進み、オープン状態にあるサブファイルを削除する。 In step S21, the sub control task is terminated, and in step S25, it is determined whether or not the sub image data is stored in the sub file created in step S7. If a determination result is YES, it will progress to step S27 and will close the subfile in an open state. In step S29, the sub image information table TBL created under the sub image recording task is written in the header of the main file created in step S5. If the determination result of step S25 is NO, it will progress to step S31 and will delete the subfile in an open state.
ステップS33では、メモリI/F40を通して記録媒体42にアクセスし、オープン状態にあるメインファイルをクローズする。メインファイルのクローズが完了すると、ステップS3に戻る。
In step S33, the
図13を参照して、ステップS41ではフォーカス,絞り量および露光時間を初期化する。ステップS43では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がNOからYESに更新されるとステップS45でAE処理を実行する。これによって、スルー画像の明るさが適度に調整される。ステップS47ではAF起動条件が満足されるか否かを判別し、NOであればそのままステップS43に戻る一方、YESであればステップS49でAF処理を実行してからステップS43に戻る。AF処理の結果、フォーカスレンズ12は合焦点に配置され、これによってスルー画像の鮮鋭度が向上する。
Referring to FIG. 13, in step S41, the focus, aperture amount, and exposure time are initialized. In step S43, it is determined whether or not the vertical synchronization signal Vsync has been generated. If the determination result is updated from NO to YES, an AE process is executed in step S45. As a result, the brightness of the through image is appropriately adjusted. In step S47, it is determined whether or not the AF activation condition is satisfied. If NO, the process directly returns to step S43. If YES, the AF process is performed in step S49, and then the process returns to step S43. As a result of the AF process, the
図14を参照して、ステップS51ではフラグFLGsubを“0”に設定し、ステップS53ではサブフレーム番号を“1”に設定し、ステップS55では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、ステップS57で顔探索処理を実行する。具体的には、顔探索要求を顔検出回路34に向けて発行する。
Referring to FIG. 14, in step S51, flag FLGsub is set to “0”, in step S53, the subframe number is set to “1”, and in step S55, it is determined whether or not vertical synchronization signal Vsync is generated. . When the determination result is updated from NO to YES, face search processing is executed in step S57. Specifically, a face search request is issued to the
顔検出回路34は、照合枠をYUV画像エリア24bの先頭位置から末尾位置に向けてラスタ走査態様で移動させ、照合枠に属する一部の画像を登録顔画像と照合する。照合枠のサイズは照合枠が末尾位置に到達する毎に変更され、変更後のサイズを有する照合枠が先頭位置から再度ラスタ走査態様で移動される。これによって検出された登録顔画像の位置およびサイズは、顔情報としてレジスタ34eに登録される。
The
既定回数のラスタ走査が完了すると、顔検出回路34は、探索結果が記述された探索終了通知をCPU36に返送する。探索終了通知に記述された探索結果は、登録顔画像に符合する画像データが発見されたとき“探知”を示し、登録顔画像に符合する画像データが発見されなかったとき“非探知”を示す。
When the predetermined number of raster scans are completed, the
顔検出回路34から探索終了通知が返送されると、登録顔画像に符合する顔の探索に成功したか否かをステップS59で判別する。探索終了通知に記述された探索結果が“非探知”を示していれば、符合する顔の探索に失敗したと判別してステップS55に戻る。一方、探索終了通知に記述された探索結果が“探知”を示していれば、符合する顔の探索に成功したと判別し、ステップS61でタイマ36tmのリセット&スタートを実行する。
When the search end notification is returned from the
ステップS63ではフラグFLGsubが“0”を示すか否かを判別し、判別結果がNOであればそのままステップS55に戻る一方、判別結果がYESであればステップS65でサブ画像記録タスクを起動してからステップS55に戻る。 In step S63, it is determined whether or not the flag FLGsub indicates “0”. If the determination result is NO, the process returns to step S55 as it is. If the determination result is YES, the sub-image recording task is started in step S65. To return to step S55.
図15を参照して、ステップS71ではフラグFLGsubを“1”に設定する。ステップS73では、レジスタ34eに登録された最新の顔情報を参照して、切り出しエリアCT1を生画像エリア24aに設定する。切り出しエリアCT1のサイズおよび位置は、登録顔画像に符合する顔が捉えられるように、最新の顔情報を定義するサイズおよび位置に基づいて調整される。
Referring to FIG. 15, in step S71, flag FLGsub is set to “1”. In step S73, the cut-out area CT1 is set as the
ステップS75では、切り出しエリアCT1のサイズに応じて異なるズーム倍率を後処理回路28に設定する。ズーム倍率は、切り出しエリアCT1のサイズの変動に関係なくサブ画像データの解像度が一定値を示すように、“1.0”を上回る範囲で調整される。ズーム倍率の調整が完了すると、ステップS77で後処理回路28を起動し、ステップS79でサブ画像記録処理の開始をメモリI/F40に命令する。
In step S75, a different zoom magnification is set in the
後処理回路28は、切り出しエリアCT1に属する一部の生画像データをメモリ制御回路22を通して生画像エリア24aから読み出し、読み出された生画像データをYUV形式の画像データに変換し、そして変換された画像データを上述の要領で設定されたズーム倍率に従って拡大する。これによって作成された拡大画像データつまりサブ画像データは、メモリ制御回路22を通してSDRAM24のYUV画像エリア24cに書き込まれる。メモリI/F40は、YUV画像エリア24cに格納されたサブ画像データをメモリ制御回路22を通して読み出し、読み出されたサブ画像データをステップS7で作成されたサブファイルに書き込む。
The
ステップS81では、SDRAM24のワークエリア24dに形成されたサブ画像情報テーブルTBLにメモリ制御回路22を通してアクセスし、現メインフレーム番号および現サブフレーム番号を多重フレーム番号としてサブ画像情報テーブルTBLに記述するとともに、切り出しエリアCT1の現在位置を多重位置としてサブ画像情報テーブルTBLに記述する。
In step S81, the sub image information table TBL formed in the
ステップS83では、タイマ36tmにタイムアウトが発生したか否かを判別する。判別結果がNOであればステップS85に進み、垂直同期信号Vsyncの発生を待って切り出しエリアCT1の設定を更新する。上述と同様、切り出しエリアCT1のサイズおよび位置は、レジスタ34eに記述された最新の顔情報のサイズおよび位置に基づいて調整される。ステップS87では、後処理回路28に設定されたズーム倍率を更新する。ズーム倍率もまた、切り出しエリアCT1のサイズの変動に関係なくサブ画像データの解像度が一定値を示すように、“1.0”を上回る範囲で調整される。ズーム倍率の更新が完了すると、ステップS89でサブフレーム番号をインクリメントし、その後にステップS81に戻る。
In step S83, it is determined whether or not a timeout has occurred in the timer 36tm. If the determination result is NO, the process proceeds to step S85, and the setting of the cut-out area CT1 is updated after waiting for the generation of the vertical synchronization signal Vsync. As described above, the size and position of the cutout area CT1 are adjusted based on the size and position of the latest face information described in the
ステップS83の判別結果がNOからYESに更新されると、ステップS91で後処理回路28を停止し、ステップS93でサブ画像記録処理の終了をメモリI/F40に命令する。後処理回路28は切り出しエリアCT1からの生画像データの読み出しを停止し、メモリI/F40はサブ画像データの記録を終了する。ステップS93の処理が完了すると、ステップS95でフラグFLGsubを“0”に戻し、その後にサブ画像記録タスクを終了する。
When the determination result in step S83 is updated from NO to YES, the
図17を参照して、ステップS101では、記録媒体42に記録された複数のメインファイルのいずれか1つをファイル指定操作に応答して指定する。ステップS103では、指定されたメインファイルに対応するサブファイルが記録媒体42に存在するか否かを判別する。判別結果がNOであれば、ステップS109でフラグFLGaddを“0”に設定し、ステップS111に進む。これに対して、判別結果がYESであればステップS105に進み、メインファイルのヘッダに記述されたサブ画像情報テーブルTBLをメモリI/F40を通して取得する。取得されたサブ画像情報テーブルTBLは、メモリ制御回路22を通してSDRAM24のワークエリア24dに書き込まれる。ステップS107ではフラグFLGaddを“1”に設定し、設定が完了するとステップS111に進む。
Referring to FIG. 17, in step S101, one of a plurality of main files recorded on
ステップS111では再生開始操作が行われたか否かを判別し、判別結果がNOからYESに更新されるとステップS113でメインフレーム番号を“1”に設定する。ステップS115では、メイン画像再生処理の開始をメモリI/F40およびLCDドライバ30に命令する。
In step S111, it is determined whether or not a reproduction start operation has been performed. If the determination result is updated from NO to YES, the main frame number is set to “1” in step S113. In step S115, the memory I /
メモリI/F40は、ステップS101で指定されたメインファイルから現メインフレーム番号に対応する1フレームのメイン画像データを読み出し、読み出されたメイン画像データをメモリ制御回路22を通してSDRAM24のYUV画像エリア24bに書き込む。LCDドライバ30は、YUV画像エリア24bに格納されたメイン画像データをメモリ制御回路22を通して読み出し、読み出されたメイン画像データに基づいてLCDモニタ32を駆動する。この結果、現フレームのメイン画像がモニタ画面に表示される。
The memory I /
ステップS117ではフラグFLGaddが“1”を示すか否かを判別し、ステップS119では現メインフレーム番号がサブ画像情報テーブルTBLに記述されているか否かを判別する。ステップS117の判別結果およびステップS119の判別結果の少なくとも一方がNOであれば、そのままステップS127に進む。これに対して、ステップS117の判別結果およびステップS119の判別結果のいずれもがYESであれば、ステップS121〜S125の処理を経てステップS127に進む。 In step S117, it is determined whether or not the flag FLGadd indicates “1”. In step S119, it is determined whether or not the current main frame number is described in the sub-image information table TBL. If at least one of the determination result of step S117 and the determination result of step S119 is NO, the process directly proceeds to step S127. On the other hand, if both the determination result in step S117 and the determination result in step S119 are YES, the process proceeds to step S127 through steps S121 to S125.
ステップS121では、現メインフレーム番号に割り当てられた多重位置をサブ画像情報テーブルTBLから検出する。ステップS123では、現メインフレーム番号に割り当てられたサブフレーム番号をサブ画像情報テーブルTBLから検出し、検出されたサブフレーム番号に対応する1フレームのサブ画像データをサブファイルから読み出す。読み出されたサブ画像データは、メモリ制御回路22を通してSDRAM24のYUV画像エリア24cに書き込まれる。
In step S121, the multiplex position assigned to the current main frame number is detected from the sub-image information table TBL. In step S123, the subframe number assigned to the current main frame number is detected from the subimage information table TBL, and one frame of subimage data corresponding to the detected subframe number is read from the subfile. The read sub image data is written into the
ステップS125では、サブ画像を多重表示するべく、多重表示命令をLCDドライバ30に与える。多重表示命令には、ステップS121で検出された多重位置が記述される。LCDドライバ30は、ステップS123の処理によってYUV画像エリア24cに格納されたサブ画像データをメモリ制御回路22を通して並列的に読み出し、読み出されたサブ画像データを多重表示命令に記述された多重位置に相当するタイミングでメイン画像データに多重する。この結果、サブ画像がモニタ画面上のメイン画像に多重される。
In step S125, a multiple display command is given to the
ステップS127では、再生終了操作が行われるかまたは現メインフレーム番号がメインファイルの末尾フレームに到達するという論理和条件が満足されたか否かを判別する。判別結果がNOであればステップS129に進み、垂直同期信号Vsyncの発生を待ってメインフレーム番号をインクリメントする。インクリメントが完了すると、ステップS117に戻る。これに対して、ステップS127の判別結果がYESであれば、メインファイル再生処理の終了をメモリI/F40およびLCDドライバ30に命令する。この結果、メイン画像データの再生が終了される。ステップS131の処理が完了すると、ステップS101に戻る。
In step S127, it is determined whether or not a reproduction end operation is performed or a logical sum condition that the current main frame number reaches the end frame of the main file is satisfied. If the determination result is NO, the process proceeds to step S129, and the main frame number is incremented after waiting for the generation of the vertical synchronization signal Vsync. When the increment is completed, the process returns to step S117. On the other hand, if the determination result in step S127 is YES, the memory I /
以上の説明から分かるように、後処理回路28は、登録顔画像に符合する顔を表す部分画像データをメインファイルに格納すべきサブ画像データから切り出し(S73, S85)、切り出された画像データを拡大してサブ画像データを作成する(S75~S77, S87)。作成されたサブ画像データは、サブファイルに収められる。LCDドライバ30は、メインファイルに格納されたメイン画像データに基づくメイン動画像をLCDモニタ32に表示し(S111~S115, S127~S131)、サブファイルに格納されたサブ画像データに基づくサブ動画像をOSD態様でLCDモニタ32に表示する(S103~S107, S117~S119, S123~S125)。また、サブ動画像の多重位置は、部分画像データの切り出し位置に応じて異なるように調整される(S121)。
As can be seen from the above description, the
このように、サブ動画像は、人物の顔を表す部分動画像を動画像から切り出しかつ切り出された部分動画像を拡大することで作成される。さらに、作成されたサブ動画像は、切り出し位置に応じて異なる位置に対応してメイン動画像に多重される。これによって、動画像に現れた顔の視認性を高めることができる。 In this way, the sub moving image is created by cutting out a partial moving image representing a person's face from the moving image and enlarging the cut out moving image. Further, the created sub moving image is multiplexed with the main moving image corresponding to different positions depending on the cutout position. Thereby, the visibility of the face appearing in the moving image can be enhanced.
なお、この実施例では、単一の登録顔画像が辞書34eに収められることを前提としているが、複数の登録顔画像を辞書34eに収め、これらの登録顔画像の中からユーザによって選択された登録顔画像に符合する複数の顔を探索するようにしてもよい。また、複数の顔を並列して探知する場合、好ましくは、複数の顔にそれぞれ対応する複数のサブファイルが予め作成され、探知された顔を表すサブ画像データが対応するサブファイルに収められる。再生時には、ユーザ操作によって選択されたサブファイルのサブ画像がLCDモニタ32に表示される。
In this embodiment, it is assumed that a single registered face image is stored in the
また、この実施例では、最新の顔情報を定義するサイズおよび位置に基づいて切り出しエリアCT1のサイズおよび位置を調整し、切り出しエリアCT1のサイズの変動に関係なくサブ画像データの解像度が一定値を示すようにズーム倍率を調整するようにしている。このため、再生時にメイン画像に表示されるサブ画像のサイズは、メイン画像に現れた顔画像のサイズの変動に関係なく一定とされる。しかし、表示されるサブ画像のサイズは、切り出しエリアCT1のサイズの変動に合わせて変動させるようにしてもよい。 Further, in this embodiment, the size and position of the cutout area CT1 are adjusted based on the size and position that define the latest face information, and the resolution of the sub image data has a constant value regardless of the change in the size of the cutout area CT1. As shown, the zoom magnification is adjusted. For this reason, the size of the sub-image displayed on the main image at the time of reproduction is fixed regardless of the variation in the size of the face image that appeared on the main image. However, the size of the sub-image to be displayed may be changed in accordance with the change in the size of the cut-out area CT1.
また、この実施例では、記録開始操作に応答してメインファイルおよびサブファイルを同時に作成するようにしているが、記録開始操作に応答してメインファイルのみを作成し、記録終了操作の後にメインファイルに基づいてサブファイルを作成するようにしてもよい。 In this embodiment, the main file and the sub file are created simultaneously in response to the recording start operation. However, only the main file is created in response to the recording start operation, and the main file is created after the recording end operation. A sub file may be created based on the above.
さらに、この実施例では、単一のメインファイルに単一のサブファイルを割り当てるようにしているが、連続的に検知される顔毎にサブファイルを作成し、こうして作成された1または2以上のサブファイルを単一のメインファイルに割り当てるようにしてもよい。 Furthermore, in this embodiment, a single subfile is assigned to a single main file. However, a subfile is created for each face that is continuously detected, and one or more created in this way. A subfile may be assigned to a single main file.
なお、この実施例では、人物の顔を探索することを想定しているが、顔以外の登録物体を探索するようにしてもよい。この場合、サブ画像データは顔以外の登録物体を表すこととなる。 In this embodiment, it is assumed that a person's face is searched, but a registered object other than the face may be searched. In this case, the sub image data represents a registered object other than the face.
また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ44に予め記憶される。しかし、図19に示すように通信I/F46をディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ44に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。
In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the
さらに、この実施例では、CPU36によって実行される処理を上述の要領で複数のタスクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。
Furthermore, in this embodiment, the processing executed by the
10 …ディジタルビデオカメラ
16 …イメージセンサ
26,28 …後処理回路
30 …LCDドライバ
34 …顔検出回路
36 …CPU
DESCRIPTION OF
Claims (9)
所望の被写体を表す部分動画像を前記表示手段によって表示すべき動画像から切り出す切り出し手段、
前記切り出し手段によって切り出された部分動画像を拡大して拡大部分動画像を作成する作成手段、
前記作成手段によって作成された拡大部分動画像を前記表示手段によって表示された動画像に多重する多重手段、および
前記切り出し手段の切り出し位置に応じて異なるように前記多重手段の多重位置を調整する調整手段を備える、動画像処理装置。 Display means for displaying moving images;
Clipping means for cutting out a partial moving image representing a desired subject from the moving image to be displayed by the display means;
Creating means for enlarging the partial moving image cut out by the cut-out means to create an enlarged partial moving image;
Multiplexing means for multiplexing the enlarged partial moving image created by the creating means on the moving image displayed by the display means, and adjustment for adjusting the multiplexing position of the multiplexing means so as to differ depending on the clipping position of the clipping means A moving image processing apparatus comprising means.
前記切り出し手段は前記探索手段の探索結果を参照して切り出しエリアを定義する定義手段を含む、請求項1記載の動画像処理装置。 Further comprising search means for repeatedly searching for a partial image representing the desired subject from a frame image forming a moving image to be displayed by the display means;
The moving image processing apparatus according to claim 1, wherein the cutout unit includes a definition unit that defines a cutout area with reference to a search result of the search unit.
前記作成手段は前記切り出しエリアのサイズを参照して拡大率を調整する拡大率調整手段を含む、請求項2記載の動画像処理装置。 The size of the cut-out area varies depending on the size of the partial image detected by the search means,
The moving image processing apparatus according to claim 2, wherein the creating unit includes an enlargement rate adjusting unit that adjusts an enlargement rate with reference to a size of the cutout area.
前記作成手段によって作成された拡大部分動画像を前記記録手段によって記録された動画像に割り当てる割り当て手段をさらに備え、
前記表示手段の表示対象は前記記録手段によって記録された動画像に相当し、
前記多重手段の多重対象は前記割り当て手段によって割り当てられた拡大部分動画像に相当する、請求項1ないし4のいずれかに記載の動画像処理装置。 Recording means for recording a moving image to be displayed by the display means prior to processing of the display means, and assigning means for allocating the enlarged partial moving image created by the creating means to the moving image recorded by the recording means In addition,
The display object of the display means corresponds to the moving image recorded by the recording means,
5. The moving image processing apparatus according to claim 1, wherein a multiplexing target of the multiplexing unit corresponds to an enlarged partial moving image allocated by the allocation unit.
動画像を表示する表示ステップ、
所望の被写体を表す部分動画像を前記表示ステップによって表示すべき動画像から切り出す切り出しステップ、
前記切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ、
前記作成ステップによって作成された拡大部分動画像を前記表示ステップによって表示された動画像に多重する多重ステップ、および
前記切り出しステップの切り出し位置に応じて異なるように前記多重ステップの多重位置を調整する調整ステップを実行させるための、動画像処理プログラム。 In the processor of the video processing device,
A display step for displaying moving images,
A step of cutting out a partial moving image representing a desired subject from the moving image to be displayed by the display step;
A creation step of enlarging the partial moving image cut out by the cutout step to create an enlarged partial moving image;
Multiplexing step for multiplexing the enlarged partial moving image created by the creating step on the moving image displayed by the displaying step, and adjustment for adjusting the multiplexing position of the multiplexing step so as to differ depending on the clipping position of the clipping step A moving image processing program for executing steps.
動画像を表示する表示ステップ、
所望の被写体を表す部分動画像を前記表示ステップによって表示すべき動画像から切り出す切り出しステップ、
前記切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ、
前記作成ステップによって作成された拡大部分動画像を前記表示ステップによって表示された動画像に多重する多重ステップ、および
前記切り出しステップの切り出し位置に応じて異なるように前記多重ステップの多重位置を調整する調整ステップを備える、動画像処理方法。 A moving image processing method executed by a moving image processing apparatus,
A display step for displaying moving images,
A step of cutting out a partial moving image representing a desired subject from the moving image to be displayed by the display step;
A creation step of enlarging the partial moving image cut out by the cutout step to create an enlarged partial moving image;
Multiplexing step for multiplexing the enlarged partial moving image created by the creating step on the moving image displayed by the displaying step, and adjustment for adjusting the multiplexing position of the multiplexing step so as to differ depending on the clipping position of the clipping step A moving image processing method comprising steps.
動画像を表示する表示ステップ、
所望の被写体を表す部分動画像を前記表示ステップによって表示すべき動画像から切り出す切り出しステップ、
前記切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ、
前記作成ステップによって作成された拡大部分動画像を前記表示ステップによって表示された動画像に多重する多重ステップ、および
前記切り出しステップの切り出し位置に応じて異なるように前記多重ステップの多重位置を調整する調整ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。 An external control program supplied to a moving image processing apparatus including a processor that executes processing according to an internal control program stored in a memory,
A display step for displaying moving images,
A step of cutting out a partial moving image representing a desired subject from the moving image to be displayed by the display step;
A creation step of enlarging the partial moving image cut out by the cutout step to create an enlarged partial moving image;
Multiplexing step for multiplexing the enlarged partial moving image created by the creating step on the moving image displayed by the displaying step, and adjustment for adjusting the multiplexing position of the multiplexing step so as to differ depending on the clipping position of the clipping step An external control program for causing the processor to execute steps in cooperation with the internal control program.
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える動画像処理装置であって、
前記外部制御プログラムは、
動画像を表示する表示ステップ、
所望の被写体を表す部分動画像を前記表示ステップによって表示すべき動画像から切り出す切り出しステップ、
前記切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ、
前記作成ステップによって作成された拡大部分動画像を前記表示ステップによって表示された動画像に多重する多重ステップ、および
前記切り出しステップの切り出し位置に応じて異なるように前記多重ステップの多重位置を調整する調整ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、動画像処理装置。 A moving image processing apparatus comprising: a fetching unit that fetches an external control program; and a processor that executes processing according to the external control program fetched by the fetching unit and an internal control program stored in a memory,
The external control program is
A display step for displaying moving images,
A step of cutting out a partial moving image representing a desired subject from the moving image to be displayed by the display step;
A creation step of enlarging the partial moving image cut out by the cutout step to create an enlarged partial moving image;
Multiplexing step for multiplexing the enlarged partial moving image created by the creating step on the moving image displayed by the displaying step, and adjustment for adjusting the multiplexing position of the multiplexing step so as to differ depending on the clipping position of the clipping step A moving image processing apparatus corresponding to a program for executing steps in cooperation with the internal control program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012176430A JP2014036339A (en) | 2012-08-08 | 2012-08-08 | Moving image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012176430A JP2014036339A (en) | 2012-08-08 | 2012-08-08 | Moving image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014036339A true JP2014036339A (en) | 2014-02-24 |
Family
ID=50285066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012176430A Pending JP2014036339A (en) | 2012-08-08 | 2012-08-08 | Moving image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014036339A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017169293A1 (en) * | 2016-03-28 | 2017-10-05 | パナソニックIpマネジメント株式会社 | Video processing device, video processing system, video processing method, and video output device |
JP2017220878A (en) * | 2016-06-10 | 2017-12-14 | カシオ計算機株式会社 | Image processing apparatus, image processing method and program |
-
2012
- 2012-08-08 JP JP2012176430A patent/JP2014036339A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017169293A1 (en) * | 2016-03-28 | 2017-10-05 | パナソニックIpマネジメント株式会社 | Video processing device, video processing system, video processing method, and video output device |
JPWO2017169293A1 (en) * | 2016-03-28 | 2019-02-14 | パナソニックIpマネジメント株式会社 | Video processing device, video processing system, video processing method, and video output device |
US11202048B2 (en) | 2016-03-28 | 2021-12-14 | Panasonic Intellectual Property Management Co., Ltd. | Video processing device, video processing system, video processing method, and video output device |
JP7174894B2 (en) | 2016-03-28 | 2022-11-18 | パナソニックIpマネジメント株式会社 | Video processing device, video processing system, video processing method, and video output device |
JP2017220878A (en) * | 2016-06-10 | 2017-12-14 | カシオ計算機株式会社 | Image processing apparatus, image processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8421874B2 (en) | Image processing apparatus | |
US20120229678A1 (en) | Image reproducing control apparatus | |
JP2014036339A (en) | Moving image processing device | |
WO2013001990A1 (en) | Photograph memo creation device | |
JP2014107775A (en) | Electronic camera | |
JP2011066877A (en) | Image processing apparatus | |
JP5761323B2 (en) | Imaging apparatus, imaging method, and program | |
JP6157094B2 (en) | COMMUNICATION DEVICE, SETTING DEVICE, COMMUNICATION METHOD, SETTING METHOD, AND PROGRAM | |
JP2013115444A (en) | Electronic camera | |
JP2014027560A (en) | Image processor | |
JP6185221B2 (en) | Content processing device | |
JP2014175716A (en) | Image processing device | |
JP5473517B2 (en) | Image processing device | |
JP5356162B2 (en) | Object image search device | |
US20110016238A1 (en) | Data Access Apparatus | |
JP2010268326A (en) | Image reproducing device | |
WO2013157412A1 (en) | Image processing device | |
JP2012160869A (en) | Image processing apparatus | |
JP5926062B2 (en) | User interface device | |
JP2012150236A (en) | Electronic camera | |
JP2011050021A (en) | Image reproducing apparatus | |
US20130083962A1 (en) | Image processing apparatus | |
JP2014030095A (en) | Electronic camera | |
JP2014146993A (en) | Electronic camera | |
JP2012019324A (en) | Image management device |