[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014036339A - Moving image processing device - Google Patents

Moving image processing device Download PDF

Info

Publication number
JP2014036339A
JP2014036339A JP2012176430A JP2012176430A JP2014036339A JP 2014036339 A JP2014036339 A JP 2014036339A JP 2012176430 A JP2012176430 A JP 2012176430A JP 2012176430 A JP2012176430 A JP 2012176430A JP 2014036339 A JP2014036339 A JP 2014036339A
Authority
JP
Japan
Prior art keywords
moving image
multiplexing
image
sub
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012176430A
Other languages
Japanese (ja)
Inventor
Hisatoshi Omae
寿敏 大前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2012176430A priority Critical patent/JP2014036339A/en
Publication of JP2014036339A publication Critical patent/JP2014036339A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving image processing device capable of enhancing visibility of a desired subject appearing in a moving image.SOLUTION: A post-processing circuit 28 cut partial image data representing a face matching a registered face image out of main image data to be stored in a main file, and enlarges the cut partial image data to generate sub image data. The generated sub image data is stored in a sub file. An LCD driver 30 displays a main moving image based upon the main image data stored in the main file on an LCD monitor 32, and displays a sub moving image based upon the sub image data stored in the sub file on the LCD monitor 32 in an OSD mode. Further, a multiplexing position of the sub moving image is so adjusted to be different according to the cutting position of the partial image data. Consequently, visibility of a face appearing in a moving image can be enhanced.

Description

この発明は、動画像処理装置に関し、特に共通のシーンを表す複数の動画像を互いに異なる態様で表示する、動画像表示装置に関する。   The present invention relates to a moving image processing apparatus, and more particularly to a moving image display apparatus that displays a plurality of moving images representing a common scene in different modes.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、テレ/ワイド同時撮りモードに設定されると、右撮像系のズームレンズおよび左撮像系のズームレンズが異なるズーム位置に設定される。ワイド側画像は右撮像系で撮影され、テレ側画像は左撮像系で撮影される。テレ側画像はモニタ画面の全域に表示され、ワイド側画像はモニタ画面の一部に割り当てられた枠内に縮小表示される。使用者は、ワイド側の画像およびテレ側の画像の各々の撮影範囲を認識し、かつ被写体の細かい部分を確認することができる。   An example of this type of device is disclosed in Patent Document 1. According to this background art, when the tele / wide simultaneous shooting mode is set, the zoom lens of the right imaging system and the zoom lens of the left imaging system are set to different zoom positions. The wide side image is taken with the right imaging system, and the tele side image is taken with the left imaging system. The tele-side image is displayed over the entire monitor screen, and the wide-side image is reduced and displayed in a frame assigned to a part of the monitor screen. The user can recognize the shooting range of each of the wide-side image and the tele-side image, and can confirm a detailed portion of the subject.

特開2011−45039号公報JP 2011-45039 A

しかし、背景技術では、ワイド側画像の撮影範囲とテレ側画像の撮影範囲との相対位置が固定的であるため、被写体の視認性に限界がある。   However, in the background art, since the relative position between the shooting range of the wide-side image and the shooting range of the tele-side image is fixed, the visibility of the subject is limited.

それゆえに、この発明の主たる目的は、動画像に現れた所望の被写体の視認性を高めることができる、動画像処理装置を提供することである。   Therefore, a main object of the present invention is to provide a moving image processing apparatus that can improve the visibility of a desired subject appearing in a moving image.

この発明に従う動画像処理装置(10:実施例で相当する参照符号。以下同じ)は、動画像を表示する表示手段(30a, S111~S115, S127~S131)、所望の被写体を表す部分動画像を表示手段によって表示すべき動画像から切り出す切り出し手段(28a, S73, S85)、切り出し手段によって切り出された部分動画像を拡大して拡大部分動画像を作成する作成手段(28c~28f, S75~S77, S87)、作成手段によって作成された拡大部分動画像を表示手段によって表示された動画像に多重する多重手段(30c~30e, S103~S107, S117~S119, S123~S125)、および切り出し手段の切り出し位置に応じて異なるように多重手段の多重位置を調整する調整手段(S121)を備える。   The moving image processing apparatus according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) includes display means (30a, S111 to S115, S127 to S131) for displaying a moving image, and a partial moving image representing a desired subject. From the moving image to be displayed by the display means (28a, S73, S85), creating means (28c ~ 28f, S75 ~) to enlarge the partial moving image clipped by the cutting means to create an enlarged partial moving image S77, S87), multiplexing means (30c to 30e, S103 to S107, S117 to S119, S123 to S125) for multiplexing the enlarged partial moving image created by the creating means on the moving image displayed by the display means, and clipping means Adjustment means (S121) for adjusting the multiplexing position of the multiplexing means so as to differ depending on the cutout position.

好ましくは、所望の被写体を表す部分画像を表示手段によって表示すべき動画像を形成するフレーム画像から繰り返し探索する探索手段(34, S57)がさらに備えられ、切り出し手段は探索手段の探索結果を参照して切り出しエリアを定義する定義手段(S73, S85)を含む。   Preferably, search means (34, S57) for repeatedly searching a partial image representing a desired subject from a frame image forming a moving image to be displayed by the display means is provided, and the clipping means refers to a search result of the search means And defining means (S73, S85) for defining the cut-out area.

さらに好ましくは、切り出しエリアのサイズは探索手段によって探知された部分画像のサイズに応じて異なり、作成手段は切り出しエリアのサイズを参照して拡大率を調整する拡大率調整手段(S75, S87)を含む。   More preferably, the size of the cutout area differs depending on the size of the partial image detected by the search means, and the creation means includes an enlargement ratio adjusting means (S75, S87) for adjusting the enlargement ratio with reference to the size of the cutout area. Including.

より好ましくは、拡大率調整手段は前記切り出しエリアのサイズの変動に関係なく拡大部分画像の解像度が一定値を示すように拡大率を調整する。   More preferably, the enlargement ratio adjusting means adjusts the enlargement ratio so that the resolution of the enlarged partial image shows a constant value regardless of the variation in the size of the cutout area.

好ましくは、表示手段によって表示すべき動画像を表示手段の処理に先立って記録する記録手段(S3~S5, S11~S19, S33)、および作成手段によって作成された拡大部分動画像を記録手段によって記録された動画像に割り当てる割り当て手段(S7~S9, S21, S25~S29, S53, S65, S79~S81, S93)がさらに備えられ、表示手段の表示対象は記録手段によって記録された動画像に相当し、多重手段の多重対象は割り当て手段によって割り当てられた拡大部分動画像に相当する。   Preferably, the recording means (S3 to S5, S11 to S19, S33) for recording the moving image to be displayed by the display means prior to the processing of the display means, and the enlarged partial moving image created by the creating means by the recording means An assigning means (S7 to S9, S21, S25 to S29, S53, S65, S79 to S81, S93) for assigning to the recorded moving image is further provided, and the display means of the display means is the moving image recorded by the recording means. Correspondingly, the multiplexing target of the multiplexing means corresponds to the enlarged partial moving image assigned by the assigning means.

この発明に従う動画像処理プログラムは、動画像処理装置(10)のプロセッサ(36)に、動画像を表示する表示ステップ(S111~S115, S127~S131)、所望の被写体を表す部分動画像を表示ステップによって表示すべき動画像から切り出す切り出しステップ(S73, S85)、切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ(S75~S77, S87)、作成ステップによって作成された拡大部分動画像を表示ステップによって表示された動画像に多重する多重ステップ(S103~S107, S117~S119, S123~S125)、および切り出しステップの切り出し位置に応じて異なるように多重ステップの多重位置を調整する調整ステップ(S121)を実行させるための、動画像処理プログラムである。   The moving image processing program according to the present invention displays, on the processor (36) of the moving image processing device (10), a display step (S111 to S115, S127 to S131) for displaying a moving image, and a partial moving image representing a desired subject. A cutout step (S73, S85) that cuts out from the moving image to be displayed in steps, a creation step (S75 to S77, S87) that creates a magnified partial moving image by enlarging the partial moving image cut out in the cutout step, Multiplexing step (S103 to S107, S117 to S119, S123 to S125) for multiplexing the created enlarged partial moving image on the moving image displayed by the display step, and the multiple step to be different depending on the cutout position of the cutout step. This is a moving image processing program for executing the adjustment step (S121) for adjusting the multiple positions.

この発明に従う動画像処理方法は、動画像処理装置(10)によって実行される動画像処理方法であって、動画像を表示する表示ステップ(S111~S115, S127~S131)、所望の被写体を表す部分動画像を表示ステップによって表示すべき動画像から切り出す切り出しステップ(S73, S85)、切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ(S75~S77, S87)、作成ステップによって作成された拡大部分動画像を表示ステップによって表示された動画像に多重する多重ステップ(S103~S107, S117~S119, S123~S125)、および切り出しステップの切り出し位置に応じて異なるように多重ステップの多重位置を調整する調整ステップ(S121)を備える。   The moving image processing method according to the present invention is a moving image processing method executed by the moving image processing apparatus (10), and displays the moving image display step (S111 to S115, S127 to S131), which represents a desired subject. A cutout step (S73, S85) for cutting out a partial moving image from a moving image to be displayed by the display step, and a creation step (S75 to S77, S87) for creating an enlarged partial moving image by enlarging the partial moving image cut out by the cutout step ), A multiplex step (S103 to S107, S117 to S119, S123 to S125) for multiplexing the enlarged partial moving image created in the creating step on the moving image displayed in the display step, and the cutout position of the cutout step Thus, an adjustment step (S121) for adjusting the multiplexing position of the multiplexing step is provided.

この発明に従う外部制御プログラムは、メモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(36)を備える動画像処理装置(10)に供給される外部制御プログラムであって、動画像を表示する表示ステップ(S111~S115, S127~S131)、所望の被写体を表す部分動画像を表示ステップによって表示すべき動画像から切り出す切り出しステップ(S73, S85)、切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ(S75~S77, S87)、作成ステップによって作成された拡大部分動画像を表示ステップによって表示された動画像に多重する多重ステップ(S103~S107, S117~S119, S123~S125)、および切り出しステップの切り出し位置に応じて異なるように多重ステップの多重位置を調整する調整ステップ(S121)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   An external control program according to the present invention is an external control program supplied to a moving image processing apparatus (10) including a processor (36) that executes processing according to an internal control program stored in a memory (44), A display step (S111 to S115, S127 to S131), a cutout step (S73, S85) to cut out a partial moving image representing a desired subject from a moving image to be displayed by the display step, and a partial video cut out by the cutout step A creation step (S75 to S77, S87) for enlarging an image to create an enlarged partial moving image, and a multiplexing step (S103 to S107) for multiplexing the enlarged partial moving image created in the creating step on the moving image displayed in the display step , S117 to S119, S123 to S125), and an adjustment step (S121) for adjusting the multiplex position of the multiplex step so as to differ depending on the slicing position of the slicing step. It is an external control program for causing a processor to execute in cooperation with a program.

この発明に従う動画像処理装置(10)は、外部制御プログラムを取り込む取り込み手段(46)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(44)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(36)を備える動画像処理装置であって、外部制御プログラムは、動画像を表示する表示ステップ(S111~S115, S127~S131)、所望の被写体を表す部分動画像を表示ステップによって表示すべき動画像から切り出す切り出しステップ(S73, S85)、切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ(S75~S77, S87)、作成ステップによって作成された拡大部分動画像を表示ステップによって表示された動画像に多重する多重ステップ(S103~S107, S117~S119, S123~S125)、および切り出しステップの切り出し位置に応じて異なるように多重ステップの多重位置を調整する調整ステップ(S121)を内部制御プログラムと協働して実行するプログラムに相当する。   The moving image processing apparatus (10) according to the present invention executes a process according to an importing means (46) for fetching an external control program, and an external control program fetched by the fetching means and an internal control program stored in the memory (44). The external control program includes a display step for displaying a moving image (S111 to S115, S127 to S131), and a partial moving image representing a desired subject is displayed by the display step. Cutout steps (S73, S85) cut out from the moving image to be created, creation steps (S75 to S77, S87) that create the enlarged partial moving image by enlarging the partial moving image cut out in the cutout step, created by the creation step Multiplexing step (S103 to S107, S117 to S119, S123 to S125) for multiplexing the enlarged partial moving image on the moving image displayed by the display step, and the clipping step Adjustment step of adjusting the multi-position of the multi-step differently depending on the cut position (S121) corresponding to the internal control program in cooperation with a program to be executed.

この発明によれば、拡大部分動画像は、所望の被写体を表す部分動画像を動画像から切り出しかつ切り出された部分動画像を拡大することで作成される。さらに、作成された拡大部分動画像は、切り出し位置に応じて異なる位置に対応して動画像に多重される。これによって、動画像に現れた所望の被写体の視認性を高めることができる。   According to the present invention, the enlarged partial moving image is created by cutting out a partial moving image representing a desired subject from the moving image and enlarging the extracted partial moving image. Further, the created enlarged partial moving image is multiplexed with the moving image corresponding to different positions depending on the cutout position. Thereby, the visibility of a desired subject appearing in the moving image can be enhanced.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a mapping state of an SDRAM applied to the embodiment in FIG. 2; カメラモードの下で捉えられたシーンの一例を示す図解図である。It is an illustration figure which shows an example of the scene caught under camera mode. 図2実施例に適用されるサブ画像情報テーブルの一例を示す図解図である。It is an illustration figure which shows an example of the sub image information table applied to the FIG. 2 Example. (A)はカメラモードの下で作成されるメインファイルの構造の一例を示す図解図であり、(B)はカメラモードの下で作成されるサブファイルの構造の一例を示す図解図である。(A) is an illustrative view showing an example of a structure of a main file created under the camera mode, and (B) is an illustrative view showing an example of a structure of a subfile created under the camera mode. 再生モードの下で再生される動画像の一例を示す図解図である。It is an illustration figure which shows an example of the moving image reproduced | regenerated under reproduction | regeneration mode. 図2実施例に適用される後処理回路の構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a configuration of a post-processing circuit applied to the embodiment in FIG. 2. 図2実施例に適用されるLCDドライバの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the LCD driver applied to the FIG. 2 Example. 図2実施例に適用される顔検出回路の構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a configuration of a face detection circuit applied to the embodiment in FIG. 2; FIG. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. この発明の他の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the other Example of this invention.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この実施例の動画像処理装置は、基本的に次のように構成される。表示手段1は、動画像を表示する。切り出し手段2は、所望の被写体を表す部分動画像を表示手段1によって表示すべき動画像から切り出す。作成手段3は、切り出し手段2によって切り出された部分動画像を拡大して拡大部分動画像を作成する。多重手段4は、作成手段3によって作成された拡大部分動画像を表示手段1によって表示された動画像に多重する。調整手段5は、切り出し手段2の切り出し位置に応じて異なるように多重手段4の多重位置を調整する。   Referring to FIG. 1, the moving image processing apparatus of this embodiment is basically configured as follows. The display unit 1 displays a moving image. The clipping unit 2 clips a partial moving image representing a desired subject from the moving image to be displayed by the display unit 1. The creating unit 3 creates an enlarged partial moving image by enlarging the partial moving image cut out by the clipping unit 2. The multiplexing unit 4 multiplexes the enlarged partial moving image created by the creating unit 3 with the moving image displayed by the display unit 1. The adjusting unit 5 adjusts the multiplexing position of the multiplexing unit 4 so as to differ depending on the cutting position of the cutting unit 2.

拡大部分動画像は、所望の被写体を表す部分動画像を動画像から切り出しかつ切り出された部分動画像を拡大することで作成される。さらに、作成された拡大部分動画像は、切り出し位置に応じて異なる位置に対応して動画像に多重される。これによって、動画像に現れた所望の被写体の視認性を高めることができる。
[実施例]
The enlarged partial moving image is created by cutting out a partial moving image representing a desired subject from the moving image and enlarging the cut out partial moving image. Further, the created enlarged partial moving image is multiplexed with the moving image corresponding to different positions depending on the cutout position. Thereby, the visibility of a desired subject appearing in the moving image can be enhanced.
[Example]

図2を参照して、この実施例のディジタルビデオカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。シーンを表す光学像は、これらの部材を通してイメージセンサ16の撮像面に照射される。   Referring to FIG. 2, the digital video camera 10 of this embodiment includes a focus lens 12 and an aperture unit 14 driven by drivers 18a and 18b, respectively. An optical image representing a scene is irradiated onto the imaging surface of the image sensor 16 through these members.

キー入力装置38に向けたモード選択操作によってカメラモードが選択されると、CPU36は、メイン画像記録タスクの下で動画取り込み処理を実行するべく、ドライバ18cを起動する。ドライバ18cは、周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、撮像面で生成された電荷をラスタ走査態様で読み出す。イメージセンサ16からは、撮像面で捉えられたシーンを表しかつR,GまたはBの色情報が各画素に割り当てられた生画像データが周期的に出力される。   When the camera mode is selected by the mode selection operation directed to the key input device 38, the CPU 36 activates the driver 18c to execute the moving image capturing process under the main image recording task. The driver 18c exposes the imaging surface in response to a periodically generated vertical synchronization signal Vsync, and reads out the charges generated on the imaging surface in a raster scanning manner. The image sensor 16 periodically outputs raw image data that represents a scene captured on the imaging surface and in which R, G, or B color information is assigned to each pixel.

前処理回路20は、イメージセンサ16からの生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。このような前処理を施された生画像データは、メモリ制御回路22を通してSDRAM24の生画像エリア24a(図3参照)に書き込まれる。   The preprocessing circuit 20 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data from the image sensor 16. The raw image data subjected to such preprocessing is written into the raw image area 24a (see FIG. 3) of the SDRAM 24 through the memory control circuit 22.

後処理回路26は、生画像エリア24aに格納された生画像データをメモリ制御回路22を通して読み出し、読み出された生画像データに色分離,白バランス調整,YUV変換の一連の処理を施す。これによって、作成されたYUV形式の画像データつまりメイン画像データは、メモリ制御回路22を通してSDRAM24のYUV画像エリア24b(図3参照)に書き込まれる。   The post-processing circuit 26 reads the raw image data stored in the raw image area 24a through the memory control circuit 22, and performs a series of processes of color separation, white balance adjustment, and YUV conversion on the read raw image data. As a result, the generated image data in the YUV format, that is, main image data is written into the YUV image area 24b (see FIG. 3) of the SDRAM 24 through the memory control circuit 22.

LCDドライバ30は、YUV画像エリア24bに格納されたメイン画像データを繰り返し読み出し、読み出されたメイン画像データに基づいてLCDモニタ32を駆動する。この結果、撮像面で捉えられたシーンを表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 30 repeatedly reads the main image data stored in the YUV image area 24b, and drives the LCD monitor 32 based on the read main image data. As a result, a real-time moving image (through image) representing the scene captured on the imaging surface is displayed on the monitor screen.

前処理回路20はまた、生画像データを簡易的にYデータに変換し、変換されたYデータをCPU36に与える。CPU36は、パラメータ調整タスクの下でYデータにAE処理を施し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間はドライバ18bおよび18cにそれぞれ設定され、これによってスルー画像の明るさが適度に調整される。CPU36はまた、AF起動条件が満足されるときに、Yデータの高周波成分にAF処理を施す。フォーカスレンズ12はドライバ18aによって合焦点に配置され、これによってスルー画像の鮮鋭度が継続的に向上する。   The preprocessing circuit 20 also simply converts the raw image data into Y data, and provides the converted Y data to the CPU 36. The CPU 36 performs AE processing on the Y data under the parameter adjustment task, and calculates an appropriate EV value. The aperture amount and the exposure time that define the calculated appropriate EV value are set in the drivers 18b and 18c, respectively, and thereby the brightness of the through image is appropriately adjusted. The CPU 36 also performs AF processing on the high frequency component of the Y data when the AF activation condition is satisfied. The focus lens 12 is arranged at the focal point by the driver 18a, and thereby the sharpness of the through image is continuously improved.

キー入力装置38に向けて記録開始操作が行われると、CPU36は、メイン画像記録タスクの下でI/F40を通して記録媒体42にアクセスし、メインファイルおよびサブファイルを記録媒体42に新規に作成する(作成されたメインファイルおよびサブファイルはオープンされる)。   When a recording start operation is performed toward the key input device 38, the CPU 36 accesses the recording medium 42 through the I / F 40 under the main image recording task, and newly creates a main file and a sub file in the recording medium 42. (The created main file and subfile are opened).

メインファイルにはMOV****.MAIN(****は識別番号、以下同じ)のファイル名が割り当てられ、サブファイルにはMOV****.SUBのファイル名が割り当てられる。ここで、同時に作成されるメインファイルおよびサブファイルには共通の識別番号が割り当てられ、同時に作成されたメインファイルおよびサブファイルは識別番号によって互いに関連付けられる。   The main file contains MOV ***. A file name of MAIN (*** is an identification number, the same applies hereinafter) is assigned, and MOV ***. A SUB file name is assigned. Here, a common identification number is assigned to the main file and the sub file created at the same time, and the main file and the sub file created at the same time are associated with each other by the identification number.

メインファイルおよびサブファイルが作成されると、CPU36は、メイン画像記録処理の開始をメモリI/F40に命令する。CPU36はまた、垂直同期信号Vsyncが発生する毎にメインフレーム番号を“1”からインクリメントする。記録される各フレームのメイン画像データは、こうしてインクリメントされるメインフレーム番号によって識別される。メモリI/F40は、YUV画像エリア24bに格納されたメイン画像データをメモリ制御回路22を通して読み出し、読み出されたメイン画像データを記録媒体42に上述の要領で作成されたメインファイルに書き込む。   When the main file and the sub file are created, the CPU 36 instructs the memory I / F 40 to start the main image recording process. The CPU 36 also increments the main frame number from “1” every time the vertical synchronization signal Vsync is generated. The main image data of each frame to be recorded is identified by the main frame number incremented in this way. The memory I / F 40 reads the main image data stored in the YUV image area 24b through the memory control circuit 22, and writes the read main image data in the main file created as described above on the recording medium 42.

CPU36はさらに、サブ制御タスクの下で顔探索処理を実行するべく、垂直同期信号Vsyncが発生する毎に顔検出回路34に向けて顔探索要求を発行する。顔検出回路34は、照合枠をYUV画像エリア24bの先頭位置から末尾位置に向けてラスタ走査態様で移動させ、照合枠に属する一部の画像を辞書34eに収められた登録顔画像と照合する。照合枠のサイズは照合枠が末尾位置に到達する毎に変更され、変更後のサイズを有する照合枠が先頭位置から再度ラスタ走査態様で移動される。これによって検出された顔画像の位置およびサイズは、顔情報としてレジスタ34eに登録される。   Further, the CPU 36 issues a face search request to the face detection circuit 34 every time the vertical synchronization signal Vsync is generated in order to execute the face search process under the sub control task. The face detection circuit 34 moves the collation frame from the beginning position to the end position of the YUV image area 24b in a raster scanning manner, and collates a part of the images belonging to the collation frame with the registered face image stored in the dictionary 34e. . The size of the collation frame is changed every time the collation frame reaches the end position, and the collation frame having the changed size is moved again from the top position in a raster scanning manner. The position and size of the detected face image are registered in the register 34e as face information.

既定回数のラスタ走査が完了すると、顔検出回路34は、探索結果が記述された探索終了通知をCPU36に返送する。探索終了通知に記述された探索結果は、登録顔画像に符合する画像データが発見されたとき“探知”を示し、登録顔画像に符合する画像データが発見されなかったとき“非探知”を示す。   When the predetermined number of raster scans are completed, the face detection circuit 34 returns a search end notification describing the search result to the CPU 36. The search result described in the search end notification indicates “detection” when image data matching the registered face image is found, and indicates “non-detection” when image data matching the registered face image is not found. .

探索結果が“探知”を示す探索終了通知が返送されると、CPU36は、登録顔画像に符合する顔の探索に成功したとみなし、タイマ36tmのリセット&スタートを実行するとともに、サブ画像記録タスクを起動する。   When a search end notification indicating that the search result indicates “detect” is returned, the CPU 36 regards that the face matching the registered face image has been successfully searched, and executes a reset & start of the timer 36 tm and a sub image recording task. Start up.

タイマ値はたとえば2秒に設定され、サブ画像記録タスクはタイマ36tmのタイムアウトに応答して終了される。また、タイマ36tmは、登録顔画像に符合する顔が探知される毎にリセット&スタートを施される。さらに、タイマ36tmのリセット&スタートからタイムアウトまでの期間には、サブ画像記録タスクが改めて起動されることはない。したがって、登録顔画像に符合する顔が探知され続ける限り共通のサブ画像記録タスクが起動し続け、登録顔画像に符合する顔が探知されなくなると、その2秒後にサブ画像記録タスクが終了される。   The timer value is set to 2 seconds, for example, and the sub-image recording task is terminated in response to the timer 36tm timeout. The timer 36tm is reset and started every time a face matching the registered face image is detected. Further, the sub-image recording task is not started again during the period from the reset & start of the timer 36tm to the timeout. Therefore, as long as the face matching the registered face image continues to be detected, the common sub-image recording task continues to be activated, and when the face matching the registered face image is not detected, the sub-image recording task is terminated after 2 seconds. .

サブ画像記録タスクの下で、CPU36は、レジスタ34eに登録された最新の顔情報を参照して切り出しエリアCT1を生画像エリア24aに設定する。切り出しエリアCT1のサイズおよび位置は、登録顔画像に符合する顔が捉えられるように、最新の顔情報を定義するサイズおよび位置に基づいて調整される。したがって、図4に示す少年BY1の顔画像が辞書34eに登録された状態で図4に示すシーンが捉えられると、切り出しエリアCT1は図4に示す要領で設定される。   Under the sub-image recording task, the CPU 36 refers to the latest face information registered in the register 34e and sets the cut-out area CT1 as the raw image area 24a. The size and position of the cut-out area CT1 are adjusted based on the size and position defining the latest face information so that a face that matches the registered face image can be captured. Therefore, when the scene shown in FIG. 4 is captured in a state where the face image of the boy BY1 shown in FIG. 4 is registered in the dictionary 34e, the cut-out area CT1 is set as shown in FIG.

CPU36は続いて、切り出しエリアCT1のサイズに応じて異なるズーム倍率を後処理回路28に設定する。ズーム倍率は、切り出しエリアCT1のサイズの変動に関係なくズーム処理後の画像データつまりサブ画像データの解像度が一定値を示すように、“1.0”を上回る範囲で調整される。ズーム倍率の調整が完了すると、CPU36は、後処理回路28を起動し、サブ画像記録処理の開始をメモリI/F40に命令し、そして垂直同期信号Vsyncが発生する毎にサブフレーム番号を“1”からインクリメントする。   Subsequently, the CPU 36 sets a different zoom magnification in the post-processing circuit 28 according to the size of the cut-out area CT1. The zoom magnification is adjusted in a range exceeding “1.0” so that the resolution of the image data after zoom processing, that is, the sub-image data shows a constant value regardless of the variation of the size of the cut-out area CT1. When the zoom magnification adjustment is completed, the CPU 36 activates the post-processing circuit 28, instructs the memory I / F 40 to start the sub-image recording process, and sets the subframe number to “1” every time the vertical synchronization signal Vsync is generated. Increment from ".

後処理回路28は、切り出しエリアCT1に属する一部の生画像データをメモリ制御回路22を通して生画像エリア24aから読み出し、読み出された生画像データをYUV形式の画像データに変換し、そして変換された画像データを上述の要領で設定されたズーム倍率に従って拡大する。これによって作成された拡大画像データつまりサブ画像データは、メモリ制御回路22を通してSDRAM24のYUV画像エリア24cに書き込まれる。   The post-processing circuit 28 reads a part of raw image data belonging to the cut-out area CT1 from the raw image area 24a through the memory control circuit 22, converts the read raw image data into YUV format image data, and is converted. The image data is enlarged according to the zoom magnification set as described above. The enlarged image data, that is, the sub-image data created thereby is written into the YUV image area 24 c of the SDRAM 24 through the memory control circuit 22.

メモリI/F40は、YUV画像エリア24cに格納されたサブ画像データをメモリ制御回路22を通して読み出し、読み出されたサブ画像データをメイン画像記録タスクの下で作成されたサブファイルに書き込む。   The memory I / F 40 reads the sub image data stored in the YUV image area 24c through the memory control circuit 22, and writes the read sub image data to the sub file created under the main image recording task.

SDRAM24のワークエリア24dには、図5に示すサブ画像情報テーブルTBLが準備される。CPU36は、メモリ制御回路22を通してワークエリア24dにアクセスし、現メインフレーム番号および現サブフレーム番号を多重フレーム番号としてサブ画像情報テーブルTBLに記述するとともに、切り出しエリアCT1の現在位置を多重位置としてサブ画像情報テーブルTBLに記述する。これによって、サブ画像データの切り出し位置およびフレーム番号と切り出し元のメイン画像データのフレーム番号とが互いに関連付けられる。   In the work area 24d of the SDRAM 24, a sub image information table TBL shown in FIG. 5 is prepared. The CPU 36 accesses the work area 24d through the memory control circuit 22, describes the current main frame number and the current subframe number in the sub-image information table TBL as multiplexed frame numbers, and sets the current position in the cut-out area CT1 as a multiplexed position. Described in the image information table TBL. As a result, the cut position and frame number of the sub image data are associated with the frame number of the cut main image data.

タイマ36tmにタイムアウトが発生しない限り、CPU36は、垂直同期信号Vsyncが発生する毎に、切り出しエリアCT1の設定を更新し、かつ後処理回路28に設定されたズーム倍率を更新する。上述と同様、切り出しエリアCT1は、レジスタ34eに記述された最新の顔情報を定義するサイズおよび位置に基づいて調整される。また、ズーム倍率は、切り出しエリアCT1のサイズの変動に関係なくサブ画像データの解像度が一定値を示すように、“1.0”を上回る範囲で調整される。   As long as the timer 36tm does not time out, the CPU 36 updates the setting of the cutout area CT1 and the zoom magnification set in the post-processing circuit 28 every time the vertical synchronization signal Vsync is generated. As described above, the cut-out area CT1 is adjusted based on the size and position that define the latest face information described in the register 34e. Further, the zoom magnification is adjusted in a range exceeding “1.0” so that the resolution of the sub-image data shows a constant value regardless of the variation of the size of the cut-out area CT1.

タイマ36tmにタイムアウトが発生すると、CPU36は、後処理回路28を停止し、サブ画像記録処理の終了をメモリI/F40に命令する。後処理回路28は切り出しエリアCT1からの生画像データの読み出しを停止し、メモリI/F40はサブ画像データの記録を終了する。サブ画像記録タスクはその後に終了される。   When a timeout occurs in the timer 36tm, the CPU 36 stops the post-processing circuit 28 and commands the memory I / F 40 to end the sub image recording process. The post-processing circuit 28 stops reading the raw image data from the cutout area CT1, and the memory I / F 40 ends the recording of the sub image data. The sub-image recording task is then finished.

キー入力装置38に向けて記録終了操作が行われると、CPU36は、メイン画像記録タスクの下で、メイン画像記録処理の終了をメモリI/F40を命令する。この結果、YUV画像エリア24bからのメイン画像データの読み出しが終了される。CPU36はその後、オープン状態にあるサブファイルをクローズし、サブ画像記録タスクの下で作成されたサブ画像情報テーブルTBLをメインファイルのヘッダに書き込み、そしてメインファイルをクローズする。この結果、互いに関連するメインファイルおよびサブファイルが図6(A)および図6(B)に示す要領で完成する。図4に示すシーンが捉えられたとき、サブファイルには切り出しエリアCT1に属する被写体を表すサブ画像データが収められる。   When a recording end operation is performed toward the key input device 38, the CPU 36 commands the memory I / F 40 to end the main image recording process under the main image recording task. As a result, reading of the main image data from the YUV image area 24b is completed. Thereafter, the CPU 36 closes the sub file in the open state, writes the sub image information table TBL created under the sub image recording task in the header of the main file, and closes the main file. As a result, the main file and the sub file related to each other are completed as shown in FIGS. 6 (A) and 6 (B). When the scene shown in FIG. 4 is captured, the sub file contains sub image data representing a subject belonging to the cutout area CT1.

なお、サブファイルに画像データが存在しなければ、サブ画像情報テーブルTBLの書き込みは省略され、サブファイルは削除される。   If there is no image data in the subfile, writing of the subimage information table TBL is omitted, and the subfile is deleted.

キー入力装置38に向けたモード選択操作によって再生モードが選択されると、CPU36は、画像再生タスクの下で以下の処理を実行する。まず、記録媒体42に記録された複数のメインファイルのいずれか1つを、キー入力装置38に向けたファイル指定操作に従って指定する。   When the playback mode is selected by the mode selection operation directed to the key input device 38, the CPU 36 executes the following processing under the image playback task. First, one of a plurality of main files recorded on the recording medium 42 is designated according to a file designation operation directed to the key input device 38.

指定されたメインファイルに対応するサブファイルが記録媒体42に存在する場合、CPU36は、このメインファイルのヘッダに記述されたサブ画像情報テーブルTBLをメモリI/F40を通して取得する。取得されたサブ画像情報テーブルTBLは、メモリ制御回路22を通してSDRAM24のワークエリア24dに書き込まれる。   When the sub file corresponding to the designated main file exists in the recording medium 42, the CPU 36 acquires the sub image information table TBL described in the header of the main file through the memory I / F 40. The acquired sub image information table TBL is written into the work area 24 d of the SDRAM 24 through the memory control circuit 22.

キー入力装置38に向けて再生開始操作が行われると、CPU36は、メイン画像再生処理の開始をメモリI/F40およびLCDドライバ30に命令し、かつ垂直同期信号Vsyncが発生する毎にメインフレーム番号を“1”からインクリメントする。   When the reproduction start operation is performed toward the key input device 38, the CPU 36 instructs the memory I / F 40 and the LCD driver 30 to start the main image reproduction process, and the main frame number is generated every time the vertical synchronization signal Vsync is generated. Is incremented from “1”.

メモリI/F40は、上述の要領で指定されたメインファイルから現メインフレーム番号に対応する1フレームのメイン画像データを読み出し、読み出されたメイン画像データをメモリ制御回路22を通してSDRAM24のYUV画像エリア24bに書き込む。LCDドライバ30は、YUV画像エリア24bに格納されたメイン画像データをメモリ制御回路22を通して読み出し、読み出されたメイン画像データに基づいてLCDモニタ32を駆動する。この結果、現フレームのメイン画像がモニタ画面に表示される。   The memory I / F 40 reads one frame of main image data corresponding to the current main frame number from the main file specified in the above manner, and reads the read main image data through the memory control circuit 22 in the YUV image area of the SDRAM 24. Write to 24b. The LCD driver 30 reads the main image data stored in the YUV image area 24b through the memory control circuit 22, and drives the LCD monitor 32 based on the read main image data. As a result, the main image of the current frame is displayed on the monitor screen.

現メインフレーム番号がサブ画像情報テーブルTBLに記述されていれば、CPU36は、現メインフレーム番号に割り当てられたサブフレーム番号をサブ画像情報テーブルTBLから検出し、検出されたサブフレーム番号に対応する1フレームのサブ画像データをサブファイルから読み出す。読み出されたサブ画像データは、メモリ制御回路22を通してSDRAM24のYUV画像エリア24cに書き込まれる。   If the current main frame number is described in the sub image information table TBL, the CPU 36 detects the sub frame number assigned to the current main frame number from the sub image information table TBL, and corresponds to the detected sub frame number. One frame of sub image data is read from the sub file. The read sub image data is written into the YUV image area 24 c of the SDRAM 24 through the memory control circuit 22.

CPU36はさらに、現メインフレーム番号に割り当てられた多重位置をサブ画像情報テーブルTBLから検出し、多重表示命令をLCDドライバ30に与える。多重表示命令には、サブ画像情報テーブルから検出された多重位置が記述される。   The CPU 36 further detects the multiple position assigned to the current main frame number from the sub-image information table TBL and gives a multiple display command to the LCD driver 30. In the multiple display command, a multiple position detected from the sub-image information table is described.

LCDドライバ30は、YUV画像エリア24cに格納されたサブ画像データをメモリ制御回路22を通して並列的に読み出し、読み出されたサブ画像データを多重表示命令に記述された多重位置に相当するタイミングでメイン画像データに多重する。この結果、サブ画像がモニタ画面上のメイン画像に多重される。   The LCD driver 30 reads the sub image data stored in the YUV image area 24c in parallel through the memory control circuit 22, and reads the read sub image data at a timing corresponding to the multiple position described in the multiple display command. Multiplex on image data. As a result, the sub image is multiplexed with the main image on the monitor screen.

したがって、図4に示すシーンを捉えたメインファイルを再生すると、切り出しエリアCT1に属する被写体を表すサブ画像データがサブファイルから読み出される。読み出されたサブ画像データに基づくサブ画像は、図7に示す要領でメイン画像に多重される。   Therefore, when the main file capturing the scene shown in FIG. 4 is reproduced, the sub image data representing the subject belonging to the cutout area CT1 is read from the sub file. The sub image based on the read sub image data is multiplexed with the main image in the manner shown in FIG.

再生終了操作が行われるかまたは現メインフレーム番号がメインファイルの末尾フレームに到達するという論理和条件が満足されると、CPU36は、メインファイル再生処理の終了をメモリI/F40およびLCDドライバ30に命令する。この結果、メイン画像データの再生が終了される。   When the playback end operation is performed or the logical sum condition that the current main frame number reaches the end frame of the main file is satisfied, the CPU 36 notifies the memory I / F 40 and the LCD driver 30 of the end of the main file playback process. Command. As a result, the reproduction of the main image data is finished.

後処理回路28は、図8に示すように構成される。コントローラ28aは、切り出しエリアCT1に属する一部の生画像データをメモリ制御回路22を通して生画像エリア24aから読み出す。読み出された生画像データは、SRAM28bを経て色分離回路28cに与えられる。色分離回路28cは、与えられた生画像データに色分離を施して各画素がR,GおよびBの全ての色情報を有する補間画像データを作成する。   The post-processing circuit 28 is configured as shown in FIG. The controller 28a reads a part of the raw image data belonging to the cutout area CT1 from the raw image area 24a through the memory control circuit 22. The read raw image data is given to the color separation circuit 28c via the SRAM 28b. The color separation circuit 28c performs color separation on the given raw image data to create interpolated image data in which each pixel has all the R, G, and B color information.

白バランス調整回路28dは色分離回路28cによって作成された補間画像データの白バランスを調整し、YUV変換回路28eは調整された色バランスを有する補間画像データをYUV形式の画像データに変換する。ズーム回路28fは、CPU36によって設定されたズーム倍率に従って画像データを拡大し、拡大画像データつまりサブ画像データをSRAM28hに書き込む。コントローラ28gは、SRAM28hに格納されたサブ画像データをメモリ制御回路22を通してYUV画像エリア24cに書き込む。   The white balance adjustment circuit 28d adjusts the white balance of the interpolated image data created by the color separation circuit 28c, and the YUV conversion circuit 28e converts the interpolated image data having the adjusted color balance into image data in the YUV format. The zoom circuit 28f enlarges the image data in accordance with the zoom magnification set by the CPU 36, and writes the enlarged image data, that is, the sub image data in the SRAM 28h. The controller 28g writes the sub image data stored in the SRAM 28h to the YUV image area 24c through the memory control circuit 22.

LCDドライバ34は、図9に示すように構成される。コントローラ30aは、YUV画像エリア24bに格納されたメイン画像データをメモリ制御回路22を通して読み出す。読み出されたメイン画像データは、SRAM30bを経て多重回路30eに与えられる。   The LCD driver 34 is configured as shown in FIG. The controller 30a reads the main image data stored in the YUV image area 24b through the memory control circuit 22. The read main image data is given to the multiplexing circuit 30e via the SRAM 30b.

コントローラ30cは、CPU36から多重表示命令が与えられたとき、YUV画像エリア24cに格納されたサブ画像データをメモリ制御回路22を通して読み出す。読み出されたサブ画像データは、SRAM30dを経て多重回路30eに与えられる。   The controller 30 c reads out the sub image data stored in the YUV image area 24 c through the memory control circuit 22 when a multiple display command is given from the CPU 36. The read sub-image data is given to the multiplexing circuit 30e via the SRAM 30d.

多重回路30eは、SRAM30dから与えられたサブ画像データを多重表示命令に記述された多重位置に相当するタイミングでメイン画像データに多重する。多重回路30eからは、メイン画像データまたは多重処理によって作成された多重画像データが出力される。画像出力回路30fは、多重回路30eから出力されたメイン画像データまたは多重画像データに基づいてLCDモニタ32を駆動する。   The multiplexing circuit 30e multiplexes the sub image data provided from the SRAM 30d with the main image data at a timing corresponding to the multiplexing position described in the multiple display command. From the multiplexing circuit 30e, main image data or multiplexed image data created by multiplexing processing is output. The image output circuit 30f drives the LCD monitor 32 based on the main image data or the multiplexed image data output from the multiplexing circuit 30e.

顔検出回路34は図10に示すように構成される。コントローラ34aは、YUV画像エリア24bに矩形の照合枠を割り当て、照合枠に属する一部の画像データをメモリ制御回路22を通して読み出す。読み出された画像データは、SRAM34bを経て照合回路34cに与えられる。   The face detection circuit 34 is configured as shown in FIG. The controller 34 a assigns a rectangular collation frame to the YUV image area 24 b and reads out part of the image data belonging to the collation frame through the memory control circuit 22. The read image data is given to the verification circuit 34c via the SRAM 34b.

辞書34dには、登録顔画像が収められる。照合回路34cは、SRAM34bから与えられた画像データを辞書34dに収められた登録顔画像と照合する。登録顔画像と符合する画像データが発見されると、照合回路34cは、現時点の照合枠の位置およびサイズとが記述された顔情報をレジスタ34eに登録する。   The registered face image is stored in the dictionary 34d. The collation circuit 34c collates the image data given from the SRAM 34b with the registered face image stored in the dictionary 34d. When image data matching the registered face image is found, the matching circuit 34c registers face information in which the current position and size of the matching frame are described in the register 34e.

照合枠は、YUV画像エリア24bの先頭位置(左上位置)から末尾位置(右下位置)に向けて、ラスタ走査態様で既定量ずつ移動する。また、照合枠のサイズは、照合枠が末尾位置に到達する毎に更新される。既定回数のラスタ走査が完了すると、探索結果が記述された探索終了通知が照合回路34cからCPU36に向けて返送される。探索終了通知に記述された探索結果は、登録顔画像に符合する画像データが発見されたとき“探知”を示し、登録顔画像に符合する画像データが発見されなかったとき“非探知”を示す。   The collation frame moves by a predetermined amount in a raster scanning manner from the head position (upper left position) to the end position (lower right position) of the YUV image area 24b. The size of the verification frame is updated every time the verification frame reaches the end position. When the predetermined number of raster scans are completed, a search end notification describing the search result is returned from the matching circuit 34c to the CPU 36. The search result described in the search end notification indicates “detection” when image data matching the registered face image is found, and indicates “non-detection” when image data matching the registered face image is not found. .

CPU36は、図11〜図12に示すメイン画像記録タスク,図13に示すパラメータ調整タスク,図14に示すサブ制御タスク,図15〜図16に示すサブ画像記録タスク,および図17〜図18に示す画像再生タスクを含む複数のタスクをマルチタスクOSに下で並列的に処理する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。   The CPU 36 performs the main image recording task shown in FIGS. 11 to 12, the parameter adjustment task shown in FIG. 13, the sub control task shown in FIG. 14, the sub image recording task shown in FIGS. 15 to 16, and FIGS. A plurality of tasks including the image reproduction task shown are processed in parallel under the multitask OS. Note that control programs corresponding to these tasks are stored in the flash memory 44.

図11を参照して、ステップS1では動画取り込み処理を実行する。これによって、スルー画像がLCDモニタ32に表示される。ステップS3では記録開始操作が行われたか否かを繰り返し判別し、判別結果がNOからYESに更新されるとステップS5〜S7の処理に進む。ステップS5〜S7では、メモリI/F40を通して記録媒体42にアクセスし、オープン状態のメインファイルおよびサブファイルを記録媒体42に新規に作成する。   Referring to FIG. 11, in step S1, a moving image capturing process is executed. As a result, a through image is displayed on the LCD monitor 32. In step S3, it is repeatedly determined whether or not a recording start operation has been performed. If the determination result is updated from NO to YES, the process proceeds to steps S5 to S7. In steps S5 to S7, the recording medium 42 is accessed through the memory I / F 40, and an open main file and subfile are newly created in the recording medium 42.

ステップS9ではサブ制御タスクを起動し、ステップS11ではメインフレーム番号を“1”に設定し、そしてステップS11ではメイン画像記録処理の開始をメモリI/F40に命令する。メモリI/F40は、YUV画像エリア24bに格納されたメイン画像データをメモリ制御回路22を通して読み出し、読み出されたメイン画像データをステップS5で作成されたメインファイルに書き込む。   In step S9, the sub-control task is activated, in step S11, the main frame number is set to “1”, and in step S11, the memory I / F 40 is instructed to start the main image recording process. The memory I / F 40 reads the main image data stored in the YUV image area 24b through the memory control circuit 22, and writes the read main image data in the main file created in step S5.

ステップS15では、記録終了操作が行われたか否かを判別する。判別結果がNOであればステップS17に進み、垂直同期信号Vsyncの発生を待ってメインフレーム番号をインクリメントする。インクリメントが完了すると、ステップS15に戻る。ステップS15の判別結果がYESに更新されるとステップS19に進み、メイン画像記録処理の終了をメモリI/F40に命令する。メモリI/F40は、YUV画像エリア24bからのメイン画像データの読み出しを終了する。   In step S15, it is determined whether or not a recording end operation has been performed. If the determination result is NO, the process proceeds to step S17, and the main frame number is incremented after waiting for the generation of the vertical synchronization signal Vsync. When the increment is completed, the process returns to step S15. If the determination result of step S15 is updated to YES, it will progress to step S19 and will command the memory I / F 40 to end the main image recording process. The memory I / F 40 finishes reading the main image data from the YUV image area 24b.

ステップS21ではサブ制御タスクを終了し、ステップS25ではステップS7で作成されたサブファイルにサブ画像データが収められているか否かを判別する。判別結果がYESであればステップS27に進み、オープン状態にあるサブファイルをクローズする。ステップS29では、サブ画像記録タスクの下で作成されたサブ画像情報テーブルTBLをステップS5で作成されたメインファイルのヘッダに書き込む。ステップS25の判別結果がNOであればステップS31に進み、オープン状態にあるサブファイルを削除する。   In step S21, the sub control task is terminated, and in step S25, it is determined whether or not the sub image data is stored in the sub file created in step S7. If a determination result is YES, it will progress to step S27 and will close the subfile in an open state. In step S29, the sub image information table TBL created under the sub image recording task is written in the header of the main file created in step S5. If the determination result of step S25 is NO, it will progress to step S31 and will delete the subfile in an open state.

ステップS33では、メモリI/F40を通して記録媒体42にアクセスし、オープン状態にあるメインファイルをクローズする。メインファイルのクローズが完了すると、ステップS3に戻る。   In step S33, the recording medium 42 is accessed through the memory I / F 40, and the main file in the open state is closed. When the closing of the main file is completed, the process returns to step S3.

図13を参照して、ステップS41ではフォーカス,絞り量および露光時間を初期化する。ステップS43では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がNOからYESに更新されるとステップS45でAE処理を実行する。これによって、スルー画像の明るさが適度に調整される。ステップS47ではAF起動条件が満足されるか否かを判別し、NOであればそのままステップS43に戻る一方、YESであればステップS49でAF処理を実行してからステップS43に戻る。AF処理の結果、フォーカスレンズ12は合焦点に配置され、これによってスルー画像の鮮鋭度が向上する。   Referring to FIG. 13, in step S41, the focus, aperture amount, and exposure time are initialized. In step S43, it is determined whether or not the vertical synchronization signal Vsync has been generated. If the determination result is updated from NO to YES, an AE process is executed in step S45. As a result, the brightness of the through image is appropriately adjusted. In step S47, it is determined whether or not the AF activation condition is satisfied. If NO, the process directly returns to step S43. If YES, the AF process is performed in step S49, and then the process returns to step S43. As a result of the AF process, the focus lens 12 is disposed at the focal point, thereby improving the sharpness of the through image.

図14を参照して、ステップS51ではフラグFLGsubを“0”に設定し、ステップS53ではサブフレーム番号を“1”に設定し、ステップS55では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、ステップS57で顔探索処理を実行する。具体的には、顔探索要求を顔検出回路34に向けて発行する。   Referring to FIG. 14, in step S51, flag FLGsub is set to “0”, in step S53, the subframe number is set to “1”, and in step S55, it is determined whether or not vertical synchronization signal Vsync is generated. . When the determination result is updated from NO to YES, face search processing is executed in step S57. Specifically, a face search request is issued to the face detection circuit 34.

顔検出回路34は、照合枠をYUV画像エリア24bの先頭位置から末尾位置に向けてラスタ走査態様で移動させ、照合枠に属する一部の画像を登録顔画像と照合する。照合枠のサイズは照合枠が末尾位置に到達する毎に変更され、変更後のサイズを有する照合枠が先頭位置から再度ラスタ走査態様で移動される。これによって検出された登録顔画像の位置およびサイズは、顔情報としてレジスタ34eに登録される。   The face detection circuit 34 moves the collation frame from the start position to the end position of the YUV image area 24b in a raster scanning manner, and collates part of the images belonging to the collation frame with the registered face image. The size of the collation frame is changed every time the collation frame reaches the end position, and the collation frame having the changed size is moved again from the top position in a raster scanning manner. The position and size of the registered face image detected thereby are registered in the register 34e as face information.

既定回数のラスタ走査が完了すると、顔検出回路34は、探索結果が記述された探索終了通知をCPU36に返送する。探索終了通知に記述された探索結果は、登録顔画像に符合する画像データが発見されたとき“探知”を示し、登録顔画像に符合する画像データが発見されなかったとき“非探知”を示す。   When the predetermined number of raster scans are completed, the face detection circuit 34 returns a search end notification describing the search result to the CPU 36. The search result described in the search end notification indicates “detection” when image data matching the registered face image is found, and indicates “non-detection” when image data matching the registered face image is not found. .

顔検出回路34から探索終了通知が返送されると、登録顔画像に符合する顔の探索に成功したか否かをステップS59で判別する。探索終了通知に記述された探索結果が“非探知”を示していれば、符合する顔の探索に失敗したと判別してステップS55に戻る。一方、探索終了通知に記述された探索結果が“探知”を示していれば、符合する顔の探索に成功したと判別し、ステップS61でタイマ36tmのリセット&スタートを実行する。   When the search end notification is returned from the face detection circuit 34, it is determined in step S59 whether or not the search for the face that matches the registered face image is successful. If the search result described in the search end notification indicates “non-detection”, it is determined that the search for the matching face has failed and the process returns to step S55. On the other hand, if the search result described in the search end notification indicates “detection”, it is determined that the matching face has been successfully searched, and the timer 36tm is reset and started in step S61.

ステップS63ではフラグFLGsubが“0”を示すか否かを判別し、判別結果がNOであればそのままステップS55に戻る一方、判別結果がYESであればステップS65でサブ画像記録タスクを起動してからステップS55に戻る。   In step S63, it is determined whether or not the flag FLGsub indicates “0”. If the determination result is NO, the process returns to step S55 as it is. If the determination result is YES, the sub-image recording task is started in step S65. To return to step S55.

図15を参照して、ステップS71ではフラグFLGsubを“1”に設定する。ステップS73では、レジスタ34eに登録された最新の顔情報を参照して、切り出しエリアCT1を生画像エリア24aに設定する。切り出しエリアCT1のサイズおよび位置は、登録顔画像に符合する顔が捉えられるように、最新の顔情報を定義するサイズおよび位置に基づいて調整される。   Referring to FIG. 15, in step S71, flag FLGsub is set to “1”. In step S73, the cut-out area CT1 is set as the raw image area 24a with reference to the latest face information registered in the register 34e. The size and position of the cut-out area CT1 are adjusted based on the size and position defining the latest face information so that a face that matches the registered face image can be captured.

ステップS75では、切り出しエリアCT1のサイズに応じて異なるズーム倍率を後処理回路28に設定する。ズーム倍率は、切り出しエリアCT1のサイズの変動に関係なくサブ画像データの解像度が一定値を示すように、“1.0”を上回る範囲で調整される。ズーム倍率の調整が完了すると、ステップS77で後処理回路28を起動し、ステップS79でサブ画像記録処理の開始をメモリI/F40に命令する。   In step S75, a different zoom magnification is set in the post-processing circuit 28 depending on the size of the cut-out area CT1. The zoom magnification is adjusted in a range exceeding “1.0” so that the resolution of the sub-image data shows a constant value regardless of the variation of the size of the cut-out area CT1. When the zoom magnification adjustment is completed, the post-processing circuit 28 is activated in step S77, and the memory I / F 40 is commanded to start the sub image recording process in step S79.

後処理回路28は、切り出しエリアCT1に属する一部の生画像データをメモリ制御回路22を通して生画像エリア24aから読み出し、読み出された生画像データをYUV形式の画像データに変換し、そして変換された画像データを上述の要領で設定されたズーム倍率に従って拡大する。これによって作成された拡大画像データつまりサブ画像データは、メモリ制御回路22を通してSDRAM24のYUV画像エリア24cに書き込まれる。メモリI/F40は、YUV画像エリア24cに格納されたサブ画像データをメモリ制御回路22を通して読み出し、読み出されたサブ画像データをステップS7で作成されたサブファイルに書き込む。   The post-processing circuit 28 reads a part of raw image data belonging to the cut-out area CT1 from the raw image area 24a through the memory control circuit 22, converts the read raw image data into YUV format image data, and is converted. The image data is enlarged according to the zoom magnification set as described above. The enlarged image data, that is, the sub-image data created thereby is written into the YUV image area 24 c of the SDRAM 24 through the memory control circuit 22. The memory I / F 40 reads the sub image data stored in the YUV image area 24c through the memory control circuit 22, and writes the read sub image data in the sub file created in step S7.

ステップS81では、SDRAM24のワークエリア24dに形成されたサブ画像情報テーブルTBLにメモリ制御回路22を通してアクセスし、現メインフレーム番号および現サブフレーム番号を多重フレーム番号としてサブ画像情報テーブルTBLに記述するとともに、切り出しエリアCT1の現在位置を多重位置としてサブ画像情報テーブルTBLに記述する。   In step S81, the sub image information table TBL formed in the work area 24d of the SDRAM 24 is accessed through the memory control circuit 22, and the current main frame number and the current sub frame number are described in the sub image information table TBL as multiple frame numbers. The current position of the cutout area CT1 is described in the sub image information table TBL as a multiple position.

ステップS83では、タイマ36tmにタイムアウトが発生したか否かを判別する。判別結果がNOであればステップS85に進み、垂直同期信号Vsyncの発生を待って切り出しエリアCT1の設定を更新する。上述と同様、切り出しエリアCT1のサイズおよび位置は、レジスタ34eに記述された最新の顔情報のサイズおよび位置に基づいて調整される。ステップS87では、後処理回路28に設定されたズーム倍率を更新する。ズーム倍率もまた、切り出しエリアCT1のサイズの変動に関係なくサブ画像データの解像度が一定値を示すように、“1.0”を上回る範囲で調整される。ズーム倍率の更新が完了すると、ステップS89でサブフレーム番号をインクリメントし、その後にステップS81に戻る。   In step S83, it is determined whether or not a timeout has occurred in the timer 36tm. If the determination result is NO, the process proceeds to step S85, and the setting of the cut-out area CT1 is updated after waiting for the generation of the vertical synchronization signal Vsync. As described above, the size and position of the cutout area CT1 are adjusted based on the size and position of the latest face information described in the register 34e. In step S87, the zoom magnification set in the post-processing circuit 28 is updated. The zoom magnification is also adjusted in a range exceeding “1.0” so that the resolution of the sub-image data shows a constant value regardless of the variation of the size of the cut-out area CT1. When the zoom magnification update is completed, the subframe number is incremented in step S89, and then the process returns to step S81.

ステップS83の判別結果がNOからYESに更新されると、ステップS91で後処理回路28を停止し、ステップS93でサブ画像記録処理の終了をメモリI/F40に命令する。後処理回路28は切り出しエリアCT1からの生画像データの読み出しを停止し、メモリI/F40はサブ画像データの記録を終了する。ステップS93の処理が完了すると、ステップS95でフラグFLGsubを“0”に戻し、その後にサブ画像記録タスクを終了する。   When the determination result in step S83 is updated from NO to YES, the post-processing circuit 28 is stopped in step S91, and the memory I / F 40 is commanded to end the sub image recording process in step S93. The post-processing circuit 28 stops reading the raw image data from the cutout area CT1, and the memory I / F 40 ends the recording of the sub image data. When the process of step S93 is completed, the flag FLGsub is returned to “0” in step S95, and then the sub-image recording task is ended.

図17を参照して、ステップS101では、記録媒体42に記録された複数のメインファイルのいずれか1つをファイル指定操作に応答して指定する。ステップS103では、指定されたメインファイルに対応するサブファイルが記録媒体42に存在するか否かを判別する。判別結果がNOであれば、ステップS109でフラグFLGaddを“0”に設定し、ステップS111に進む。これに対して、判別結果がYESであればステップS105に進み、メインファイルのヘッダに記述されたサブ画像情報テーブルTBLをメモリI/F40を通して取得する。取得されたサブ画像情報テーブルTBLは、メモリ制御回路22を通してSDRAM24のワークエリア24dに書き込まれる。ステップS107ではフラグFLGaddを“1”に設定し、設定が完了するとステップS111に進む。   Referring to FIG. 17, in step S101, one of a plurality of main files recorded on recording medium 42 is designated in response to a file designation operation. In step S103, it is determined whether or not a sub file corresponding to the designated main file exists in the recording medium. If the determination result is NO, the flag FLGadd is set to “0” in step S109, and the process proceeds to step S111. On the other hand, if the determination result is YES, the process proceeds to step S105, and the sub image information table TBL described in the header of the main file is acquired through the memory I / F 40. The acquired sub image information table TBL is written into the work area 24 d of the SDRAM 24 through the memory control circuit 22. In step S107, the flag FLGadd is set to “1”. When the setting is completed, the process proceeds to step S111.

ステップS111では再生開始操作が行われたか否かを判別し、判別結果がNOからYESに更新されるとステップS113でメインフレーム番号を“1”に設定する。ステップS115では、メイン画像再生処理の開始をメモリI/F40およびLCDドライバ30に命令する。   In step S111, it is determined whether or not a reproduction start operation has been performed. If the determination result is updated from NO to YES, the main frame number is set to “1” in step S113. In step S115, the memory I / F 40 and the LCD driver 30 are instructed to start main image reproduction processing.

メモリI/F40は、ステップS101で指定されたメインファイルから現メインフレーム番号に対応する1フレームのメイン画像データを読み出し、読み出されたメイン画像データをメモリ制御回路22を通してSDRAM24のYUV画像エリア24bに書き込む。LCDドライバ30は、YUV画像エリア24bに格納されたメイン画像データをメモリ制御回路22を通して読み出し、読み出されたメイン画像データに基づいてLCDモニタ32を駆動する。この結果、現フレームのメイン画像がモニタ画面に表示される。   The memory I / F 40 reads out one frame of main image data corresponding to the current main frame number from the main file specified in step S101, and reads the read main image data through the memory control circuit 22 in the YUV image area 24b of the SDRAM 24. Write to. The LCD driver 30 reads the main image data stored in the YUV image area 24b through the memory control circuit 22, and drives the LCD monitor 32 based on the read main image data. As a result, the main image of the current frame is displayed on the monitor screen.

ステップS117ではフラグFLGaddが“1”を示すか否かを判別し、ステップS119では現メインフレーム番号がサブ画像情報テーブルTBLに記述されているか否かを判別する。ステップS117の判別結果およびステップS119の判別結果の少なくとも一方がNOであれば、そのままステップS127に進む。これに対して、ステップS117の判別結果およびステップS119の判別結果のいずれもがYESであれば、ステップS121〜S125の処理を経てステップS127に進む。   In step S117, it is determined whether or not the flag FLGadd indicates “1”. In step S119, it is determined whether or not the current main frame number is described in the sub-image information table TBL. If at least one of the determination result of step S117 and the determination result of step S119 is NO, the process directly proceeds to step S127. On the other hand, if both the determination result in step S117 and the determination result in step S119 are YES, the process proceeds to step S127 through steps S121 to S125.

ステップS121では、現メインフレーム番号に割り当てられた多重位置をサブ画像情報テーブルTBLから検出する。ステップS123では、現メインフレーム番号に割り当てられたサブフレーム番号をサブ画像情報テーブルTBLから検出し、検出されたサブフレーム番号に対応する1フレームのサブ画像データをサブファイルから読み出す。読み出されたサブ画像データは、メモリ制御回路22を通してSDRAM24のYUV画像エリア24cに書き込まれる。   In step S121, the multiplex position assigned to the current main frame number is detected from the sub-image information table TBL. In step S123, the subframe number assigned to the current main frame number is detected from the subimage information table TBL, and one frame of subimage data corresponding to the detected subframe number is read from the subfile. The read sub image data is written into the YUV image area 24 c of the SDRAM 24 through the memory control circuit 22.

ステップS125では、サブ画像を多重表示するべく、多重表示命令をLCDドライバ30に与える。多重表示命令には、ステップS121で検出された多重位置が記述される。LCDドライバ30は、ステップS123の処理によってYUV画像エリア24cに格納されたサブ画像データをメモリ制御回路22を通して並列的に読み出し、読み出されたサブ画像データを多重表示命令に記述された多重位置に相当するタイミングでメイン画像データに多重する。この結果、サブ画像がモニタ画面上のメイン画像に多重される。   In step S125, a multiple display command is given to the LCD driver 30 in order to display the sub image in a multiple display. The multiple display command describes the multiple position detected in step S121. The LCD driver 30 reads the sub image data stored in the YUV image area 24c in parallel through the processing of step S123 through the memory control circuit 22, and reads the read sub image data at the multiple positions described in the multiple display command. It is multiplexed with the main image data at a corresponding timing. As a result, the sub image is multiplexed with the main image on the monitor screen.

ステップS127では、再生終了操作が行われるかまたは現メインフレーム番号がメインファイルの末尾フレームに到達するという論理和条件が満足されたか否かを判別する。判別結果がNOであればステップS129に進み、垂直同期信号Vsyncの発生を待ってメインフレーム番号をインクリメントする。インクリメントが完了すると、ステップS117に戻る。これに対して、ステップS127の判別結果がYESであれば、メインファイル再生処理の終了をメモリI/F40およびLCDドライバ30に命令する。この結果、メイン画像データの再生が終了される。ステップS131の処理が完了すると、ステップS101に戻る。   In step S127, it is determined whether or not a reproduction end operation is performed or a logical sum condition that the current main frame number reaches the end frame of the main file is satisfied. If the determination result is NO, the process proceeds to step S129, and the main frame number is incremented after waiting for the generation of the vertical synchronization signal Vsync. When the increment is completed, the process returns to step S117. On the other hand, if the determination result in step S127 is YES, the memory I / F 40 and the LCD driver 30 are instructed to end the main file reproduction process. As a result, the reproduction of the main image data is finished. When the process of step S131 is completed, the process returns to step S101.

以上の説明から分かるように、後処理回路28は、登録顔画像に符合する顔を表す部分画像データをメインファイルに格納すべきサブ画像データから切り出し(S73, S85)、切り出された画像データを拡大してサブ画像データを作成する(S75~S77, S87)。作成されたサブ画像データは、サブファイルに収められる。LCDドライバ30は、メインファイルに格納されたメイン画像データに基づくメイン動画像をLCDモニタ32に表示し(S111~S115, S127~S131)、サブファイルに格納されたサブ画像データに基づくサブ動画像をOSD態様でLCDモニタ32に表示する(S103~S107, S117~S119, S123~S125)。また、サブ動画像の多重位置は、部分画像データの切り出し位置に応じて異なるように調整される(S121)。   As can be seen from the above description, the post-processing circuit 28 cuts out the partial image data representing the face matching the registered face image from the sub-image data to be stored in the main file (S73, S85), and the cut-out image data is extracted. Sub-image data is created by enlarging (S75 to S77, S87). The created sub image data is stored in a sub file. The LCD driver 30 displays the main moving image based on the main image data stored in the main file on the LCD monitor 32 (S111 to S115, S127 to S131), and the sub moving image based on the sub image data stored in the sub file. Are displayed on the LCD monitor 32 in the OSD mode (S103 to S107, S117 to S119, S123 to S125). In addition, the multiplexing position of the sub moving image is adjusted to be different depending on the cutout position of the partial image data (S121).

このように、サブ動画像は、人物の顔を表す部分動画像を動画像から切り出しかつ切り出された部分動画像を拡大することで作成される。さらに、作成されたサブ動画像は、切り出し位置に応じて異なる位置に対応してメイン動画像に多重される。これによって、動画像に現れた顔の視認性を高めることができる。   In this way, the sub moving image is created by cutting out a partial moving image representing a person's face from the moving image and enlarging the cut out moving image. Further, the created sub moving image is multiplexed with the main moving image corresponding to different positions depending on the cutout position. Thereby, the visibility of the face appearing in the moving image can be enhanced.

なお、この実施例では、単一の登録顔画像が辞書34eに収められることを前提としているが、複数の登録顔画像を辞書34eに収め、これらの登録顔画像の中からユーザによって選択された登録顔画像に符合する複数の顔を探索するようにしてもよい。また、複数の顔を並列して探知する場合、好ましくは、複数の顔にそれぞれ対応する複数のサブファイルが予め作成され、探知された顔を表すサブ画像データが対応するサブファイルに収められる。再生時には、ユーザ操作によって選択されたサブファイルのサブ画像がLCDモニタ32に表示される。   In this embodiment, it is assumed that a single registered face image is stored in the dictionary 34e. However, a plurality of registered face images are stored in the dictionary 34e and selected from these registered face images by the user. A plurality of faces matching the registered face image may be searched. When detecting a plurality of faces in parallel, preferably, a plurality of subfiles corresponding to the plurality of faces are created in advance, and the sub image data representing the detected faces are stored in the corresponding subfile. At the time of reproduction, the sub image of the sub file selected by the user operation is displayed on the LCD monitor 32.

また、この実施例では、最新の顔情報を定義するサイズおよび位置に基づいて切り出しエリアCT1のサイズおよび位置を調整し、切り出しエリアCT1のサイズの変動に関係なくサブ画像データの解像度が一定値を示すようにズーム倍率を調整するようにしている。このため、再生時にメイン画像に表示されるサブ画像のサイズは、メイン画像に現れた顔画像のサイズの変動に関係なく一定とされる。しかし、表示されるサブ画像のサイズは、切り出しエリアCT1のサイズの変動に合わせて変動させるようにしてもよい。   Further, in this embodiment, the size and position of the cutout area CT1 are adjusted based on the size and position that define the latest face information, and the resolution of the sub image data has a constant value regardless of the change in the size of the cutout area CT1. As shown, the zoom magnification is adjusted. For this reason, the size of the sub-image displayed on the main image at the time of reproduction is fixed regardless of the variation in the size of the face image that appeared on the main image. However, the size of the sub-image to be displayed may be changed in accordance with the change in the size of the cut-out area CT1.

また、この実施例では、記録開始操作に応答してメインファイルおよびサブファイルを同時に作成するようにしているが、記録開始操作に応答してメインファイルのみを作成し、記録終了操作の後にメインファイルに基づいてサブファイルを作成するようにしてもよい。   In this embodiment, the main file and the sub file are created simultaneously in response to the recording start operation. However, only the main file is created in response to the recording start operation, and the main file is created after the recording end operation. A sub file may be created based on the above.

さらに、この実施例では、単一のメインファイルに単一のサブファイルを割り当てるようにしているが、連続的に検知される顔毎にサブファイルを作成し、こうして作成された1または2以上のサブファイルを単一のメインファイルに割り当てるようにしてもよい。   Furthermore, in this embodiment, a single subfile is assigned to a single main file. However, a subfile is created for each face that is continuously detected, and one or more created in this way. A subfile may be assigned to a single main file.

なお、この実施例では、人物の顔を探索することを想定しているが、顔以外の登録物体を探索するようにしてもよい。この場合、サブ画像データは顔以外の登録物体を表すこととなる。   In this embodiment, it is assumed that a person's face is searched, but a registered object other than the face may be searched. In this case, the sub image data represents a registered object other than the face.

また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ44に予め記憶される。しかし、図19に示すように通信I/F46をディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ44に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 44 in advance. However, as shown in FIG. 19, a communication I / F 46 is provided in the digital camera 10 and a part of the control program is prepared as an internal control program in the flash memory 44 from the beginning. May be acquired from an external server. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

さらに、この実施例では、CPU36によって実行される処理を上述の要領で複数のタスクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   Furthermore, in this embodiment, the processing executed by the CPU 36 is divided into a plurality of tasks as described above. However, each task may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when each task is divided into a plurality of small tasks, all or part of the tasks may be acquired from an external server.

10 …ディジタルビデオカメラ
16 …イメージセンサ
26,28 …後処理回路
30 …LCDドライバ
34 …顔検出回路
36 …CPU
DESCRIPTION OF SYMBOLS 10 ... Digital video camera 16 ... Image sensor 26, 28 ... Post-processing circuit 30 ... LCD driver 34 ... Face detection circuit 36 ... CPU

Claims (9)

動画像を表示する表示手段、
所望の被写体を表す部分動画像を前記表示手段によって表示すべき動画像から切り出す切り出し手段、
前記切り出し手段によって切り出された部分動画像を拡大して拡大部分動画像を作成する作成手段、
前記作成手段によって作成された拡大部分動画像を前記表示手段によって表示された動画像に多重する多重手段、および
前記切り出し手段の切り出し位置に応じて異なるように前記多重手段の多重位置を調整する調整手段を備える、動画像処理装置。
Display means for displaying moving images;
Clipping means for cutting out a partial moving image representing a desired subject from the moving image to be displayed by the display means;
Creating means for enlarging the partial moving image cut out by the cut-out means to create an enlarged partial moving image;
Multiplexing means for multiplexing the enlarged partial moving image created by the creating means on the moving image displayed by the display means, and adjustment for adjusting the multiplexing position of the multiplexing means so as to differ depending on the clipping position of the clipping means A moving image processing apparatus comprising means.
前記所望の被写体を表す部分画像を前記表示手段によって表示すべき動画像を形成するフレーム画像から繰り返し探索する探索手段をさらに備え、
前記切り出し手段は前記探索手段の探索結果を参照して切り出しエリアを定義する定義手段を含む、請求項1記載の動画像処理装置。
Further comprising search means for repeatedly searching for a partial image representing the desired subject from a frame image forming a moving image to be displayed by the display means;
The moving image processing apparatus according to claim 1, wherein the cutout unit includes a definition unit that defines a cutout area with reference to a search result of the search unit.
前記切り出しエリアのサイズは前記探索手段によって探知された部分画像のサイズに応じて異なり、
前記作成手段は前記切り出しエリアのサイズを参照して拡大率を調整する拡大率調整手段を含む、請求項2記載の動画像処理装置。
The size of the cut-out area varies depending on the size of the partial image detected by the search means,
The moving image processing apparatus according to claim 2, wherein the creating unit includes an enlargement rate adjusting unit that adjusts an enlargement rate with reference to a size of the cutout area.
前記拡大率調整手段は前記切り出しエリアのサイズの変動に関係なく前記拡大部分画像の解像度が一定値を示すように前記拡大率を調整する、請求項3記載の動画像処理装置。   The moving image processing apparatus according to claim 3, wherein the enlargement ratio adjusting unit adjusts the enlargement ratio so that a resolution of the enlarged partial image shows a constant value regardless of a change in a size of the cutout area. 前記表示手段によって表示すべき動画像を前記表示手段の処理に先立って記録する記録手段、および
前記作成手段によって作成された拡大部分動画像を前記記録手段によって記録された動画像に割り当てる割り当て手段をさらに備え、
前記表示手段の表示対象は前記記録手段によって記録された動画像に相当し、
前記多重手段の多重対象は前記割り当て手段によって割り当てられた拡大部分動画像に相当する、請求項1ないし4のいずれかに記載の動画像処理装置。
Recording means for recording a moving image to be displayed by the display means prior to processing of the display means, and assigning means for allocating the enlarged partial moving image created by the creating means to the moving image recorded by the recording means In addition,
The display object of the display means corresponds to the moving image recorded by the recording means,
5. The moving image processing apparatus according to claim 1, wherein a multiplexing target of the multiplexing unit corresponds to an enlarged partial moving image allocated by the allocation unit.
動画像処理装置のプロセッサに、
動画像を表示する表示ステップ、
所望の被写体を表す部分動画像を前記表示ステップによって表示すべき動画像から切り出す切り出しステップ、
前記切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ、
前記作成ステップによって作成された拡大部分動画像を前記表示ステップによって表示された動画像に多重する多重ステップ、および
前記切り出しステップの切り出し位置に応じて異なるように前記多重ステップの多重位置を調整する調整ステップを実行させるための、動画像処理プログラム。
In the processor of the video processing device,
A display step for displaying moving images,
A step of cutting out a partial moving image representing a desired subject from the moving image to be displayed by the display step;
A creation step of enlarging the partial moving image cut out by the cutout step to create an enlarged partial moving image;
Multiplexing step for multiplexing the enlarged partial moving image created by the creating step on the moving image displayed by the displaying step, and adjustment for adjusting the multiplexing position of the multiplexing step so as to differ depending on the clipping position of the clipping step A moving image processing program for executing steps.
動画像処理装置によって実行される動画像処理方法であって、
動画像を表示する表示ステップ、
所望の被写体を表す部分動画像を前記表示ステップによって表示すべき動画像から切り出す切り出しステップ、
前記切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ、
前記作成ステップによって作成された拡大部分動画像を前記表示ステップによって表示された動画像に多重する多重ステップ、および
前記切り出しステップの切り出し位置に応じて異なるように前記多重ステップの多重位置を調整する調整ステップを備える、動画像処理方法。
A moving image processing method executed by a moving image processing apparatus,
A display step for displaying moving images,
A step of cutting out a partial moving image representing a desired subject from the moving image to be displayed by the display step;
A creation step of enlarging the partial moving image cut out by the cutout step to create an enlarged partial moving image;
Multiplexing step for multiplexing the enlarged partial moving image created by the creating step on the moving image displayed by the displaying step, and adjustment for adjusting the multiplexing position of the multiplexing step so as to differ depending on the clipping position of the clipping step A moving image processing method comprising steps.
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える動画像処理装置に供給される外部制御プログラムであって、
動画像を表示する表示ステップ、
所望の被写体を表す部分動画像を前記表示ステップによって表示すべき動画像から切り出す切り出しステップ、
前記切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ、
前記作成ステップによって作成された拡大部分動画像を前記表示ステップによって表示された動画像に多重する多重ステップ、および
前記切り出しステップの切り出し位置に応じて異なるように前記多重ステップの多重位置を調整する調整ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
An external control program supplied to a moving image processing apparatus including a processor that executes processing according to an internal control program stored in a memory,
A display step for displaying moving images,
A step of cutting out a partial moving image representing a desired subject from the moving image to be displayed by the display step;
A creation step of enlarging the partial moving image cut out by the cutout step to create an enlarged partial moving image;
Multiplexing step for multiplexing the enlarged partial moving image created by the creating step on the moving image displayed by the displaying step, and adjustment for adjusting the multiplexing position of the multiplexing step so as to differ depending on the clipping position of the clipping step An external control program for causing the processor to execute steps in cooperation with the internal control program.
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える動画像処理装置であって、
前記外部制御プログラムは、
動画像を表示する表示ステップ、
所望の被写体を表す部分動画像を前記表示ステップによって表示すべき動画像から切り出す切り出しステップ、
前記切り出しステップによって切り出された部分動画像を拡大して拡大部分動画像を作成する作成ステップ、
前記作成ステップによって作成された拡大部分動画像を前記表示ステップによって表示された動画像に多重する多重ステップ、および
前記切り出しステップの切り出し位置に応じて異なるように前記多重ステップの多重位置を調整する調整ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、動画像処理装置。
A moving image processing apparatus comprising: a fetching unit that fetches an external control program; and a processor that executes processing according to the external control program fetched by the fetching unit and an internal control program stored in a memory,
The external control program is
A display step for displaying moving images,
A step of cutting out a partial moving image representing a desired subject from the moving image to be displayed by the display step;
A creation step of enlarging the partial moving image cut out by the cutout step to create an enlarged partial moving image;
Multiplexing step for multiplexing the enlarged partial moving image created by the creating step on the moving image displayed by the displaying step, and adjustment for adjusting the multiplexing position of the multiplexing step so as to differ depending on the clipping position of the clipping step A moving image processing apparatus corresponding to a program for executing steps in cooperation with the internal control program.
JP2012176430A 2012-08-08 2012-08-08 Moving image processing device Pending JP2014036339A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012176430A JP2014036339A (en) 2012-08-08 2012-08-08 Moving image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012176430A JP2014036339A (en) 2012-08-08 2012-08-08 Moving image processing device

Publications (1)

Publication Number Publication Date
JP2014036339A true JP2014036339A (en) 2014-02-24

Family

ID=50285066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012176430A Pending JP2014036339A (en) 2012-08-08 2012-08-08 Moving image processing device

Country Status (1)

Country Link
JP (1) JP2014036339A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017169293A1 (en) * 2016-03-28 2017-10-05 パナソニックIpマネジメント株式会社 Video processing device, video processing system, video processing method, and video output device
JP2017220878A (en) * 2016-06-10 2017-12-14 カシオ計算機株式会社 Image processing apparatus, image processing method and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017169293A1 (en) * 2016-03-28 2017-10-05 パナソニックIpマネジメント株式会社 Video processing device, video processing system, video processing method, and video output device
JPWO2017169293A1 (en) * 2016-03-28 2019-02-14 パナソニックIpマネジメント株式会社 Video processing device, video processing system, video processing method, and video output device
US11202048B2 (en) 2016-03-28 2021-12-14 Panasonic Intellectual Property Management Co., Ltd. Video processing device, video processing system, video processing method, and video output device
JP7174894B2 (en) 2016-03-28 2022-11-18 パナソニックIpマネジメント株式会社 Video processing device, video processing system, video processing method, and video output device
JP2017220878A (en) * 2016-06-10 2017-12-14 カシオ計算機株式会社 Image processing apparatus, image processing method and program

Similar Documents

Publication Publication Date Title
US8421874B2 (en) Image processing apparatus
US20120229678A1 (en) Image reproducing control apparatus
JP2014036339A (en) Moving image processing device
WO2013001990A1 (en) Photograph memo creation device
JP2014107775A (en) Electronic camera
JP2011066877A (en) Image processing apparatus
JP5761323B2 (en) Imaging apparatus, imaging method, and program
JP6157094B2 (en) COMMUNICATION DEVICE, SETTING DEVICE, COMMUNICATION METHOD, SETTING METHOD, AND PROGRAM
JP2013115444A (en) Electronic camera
JP2014027560A (en) Image processor
JP6185221B2 (en) Content processing device
JP2014175716A (en) Image processing device
JP5473517B2 (en) Image processing device
JP5356162B2 (en) Object image search device
US20110016238A1 (en) Data Access Apparatus
JP2010268326A (en) Image reproducing device
WO2013157412A1 (en) Image processing device
JP2012160869A (en) Image processing apparatus
JP5926062B2 (en) User interface device
JP2012150236A (en) Electronic camera
JP2011050021A (en) Image reproducing apparatus
US20130083962A1 (en) Image processing apparatus
JP2014030095A (en) Electronic camera
JP2014146993A (en) Electronic camera
JP2012019324A (en) Image management device