[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2012129796A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2012129796A
JP2012129796A JP2010279416A JP2010279416A JP2012129796A JP 2012129796 A JP2012129796 A JP 2012129796A JP 2010279416 A JP2010279416 A JP 2010279416A JP 2010279416 A JP2010279416 A JP 2010279416A JP 2012129796 A JP2012129796 A JP 2012129796A
Authority
JP
Japan
Prior art keywords
collation
image
image processing
feature
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010279416A
Other languages
Japanese (ja)
Other versions
JP2012129796A5 (en
Inventor
Tatsuya Shiratori
達也 白鳥
Masayoshi Okamoto
正義 岡本
Atsushi Kiyama
淳 木山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010279416A priority Critical patent/JP2012129796A/en
Publication of JP2012129796A publication Critical patent/JP2012129796A/en
Publication of JP2012129796A5 publication Critical patent/JP2012129796A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operation performance.SOLUTION: A flash memory 44 holds the feature amounts of plural object images respectively corresponding to plural ranges assigned to a specific object image in the state of a nest. A CPU 26 detects the feature amounts of plural partial images respectively corresponding to plural check areas assigned onto a designated image in the state of a nest, and checks the detected feature amounts with the feature amounts held by the flash memory 44. The CPU 26 also executes the image processing in different modes in accordance with the result of the check.

Description

この発明は、画像処理装置に関し、特に特定物体像に符合する画像を指定画像から探索する、画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that searches an image that matches a specific object image from a designated image.

この種の画像処理装置の一例が、特許文献1に開示されている。この背景技術によれば、撮像素子1は被写体像を撮像し、表示部9は撮像素子により撮像された撮像画像を表示する。検出処理部10は撮像画像から目的とする撮影対象を検出する。切り替え部12は、撮像素子により逐次撮像された撮像画像が表示部に逐次表示され、表示部が電子ビューファインダとして動作している状態において、撮像画像の指定された領域を拡大して検出処理部により撮影対象を検出するか、拡大しないで撮影対象を検出するかを、逐次撮像された画像のうちの前回撮像された画像に対する撮影対象の検出結果に応じて切り替える。   An example of this type of image processing apparatus is disclosed in Patent Document 1. According to this background art, the image sensor 1 captures a subject image, and the display unit 9 displays a captured image captured by the image sensor. The detection processing unit 10 detects a target shooting target from the captured image. The switching unit 12 enlarges the designated area of the captured image while the captured image sequentially captured by the image sensor is sequentially displayed on the display unit and the display unit operates as an electronic viewfinder, and the detection processing unit Whether to detect the shooting target or to detect the shooting target without enlarging is switched according to the detection result of the shooting target with respect to the previously captured image among the sequentially captured images.

特開2008−172368号公報JP 2008-172368 A

しかし、背景技術では、特徴ある構成部分が複数の物体像で共通している場合などに、探索対象とは異なる物体像を誤って検出するおそれがあり、このような場合に画像処理装置の動作性能が低下する。   However, in the background art, there is a risk of erroneously detecting an object image different from the search target when a characteristic component is shared by a plurality of object images. In such a case, the operation of the image processing apparatus Performance decreases.

それゆえに、この発明の主たる目的は、動作性能を向上させることができる、画像処理装置を提供することである。   Therefore, a main object of the present invention is to provide an image processing apparatus capable of improving the operation performance.

この発明に従う画像処理装置(10:実施例で相当する参照符号。以下同じ)は、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持手段(44)、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出手段(S39, S55)、検出手段によって検出された特徴量を保持手段によって保持された特徴量と照合する照合手段(S41, S57)、および照合手段の照合結果に応じて異なる態様で画像処理を実行する処理手段(S31, S59, S63, S15~S29)を備える。   An image processing apparatus according to the present invention (10: reference numeral corresponding to the embodiment; hereinafter the same) holds a feature quantity of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to a specific object image Means (44), detection means (S39, S55) for detecting feature quantities of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on the designated image, and feature quantities detected by the detection means Collating means (S41, S57) for collating with the feature amount held by the holding means, and processing means (S31, S59, S63, S15 to S29) for executing image processing in different modes depending on the collation result of the collating means Prepare.

好ましくは、検出手段は、複数の部分画像の一部に対応する第1部分特徴量を検出する第1特徴量検出手段(S39)、および複数の部分画像の他の一部に対応する第2部分特徴量を検出する第2特徴量検出手段(S55)を含み、照合手段は、第1特徴量検出手段によって検出された第1部分特徴量を保持手段によって保持された特徴量の一部と照合する第1特徴量照合手段(S41)、および第2特徴量検出手段によって検出された第2部分特徴量を保持手段によって保持された特徴量の他の一部と照合する第2特徴量照合手段(S57)を含む。   Preferably, the detection means detects a first feature quantity detecting means (S39) for detecting a first partial feature quantity corresponding to a part of the plurality of partial images, and a second feature corresponding to the other part of the plurality of partial images. The second feature quantity detection means (S55) for detecting the partial feature quantity includes a collation means, wherein the collation means includes the first partial feature quantity detected by the first feature quantity detection means and a part of the feature quantity held by the holding means. First feature quantity matching means (S41) for matching, and second feature quantity matching for matching the second partial feature quantity detected by the second feature quantity detection means with another part of the feature quantity held by the holding means Means (S57).

さらに好ましくは、複数の照合エリアは大サイズを有する第1照合エリアと小サイズを有する第2照合エリアとを含み、第1部分特徴量は第1照合エリアおよび第2照合エリアの一方に対応する特徴量を含み、第2部分特徴量は第1照合エリアおよび第2照合エリアの他方に対応する特徴量を含む。   More preferably, the plurality of collation areas include a first collation area having a large size and a second collation area having a small size, and the first partial feature amount corresponds to one of the first collation area and the second collation area. The second partial feature amount includes a feature amount corresponding to the other of the first collation area and the second collation area.

好ましくは、第1特徴量照合手段の照合結果が第1基準を上回るとき第2特徴量検出手段を起動する起動手段(S43)をさらに備える。   Preferably, it further includes an activation unit (S43) that activates the second feature amount detection unit when the collation result of the first feature amount collation unit exceeds the first reference.

さらに好ましくは、処理手段は、第2特徴量照合手段の照合結果が第2基準を上回るか否かを繰り返し判別する判別手段(S59)、および判別手段の判別結果が否定的から肯定的な結果に更新されたとき画像処理態様を変更する変更手段(S63, S15)を含む。   More preferably, the processing means repeatedly determines whether the collation result of the second feature amount collating means exceeds the second reference (S59), and the discrimination result of the discrimination means is a negative to positive result Change means (S63, S15) for changing the image processing mode when updated.

さらに好ましくは、被写界を捉える撮像面を有して被写界像を繰り返し出力する撮像手段(16)、および撮像手段から出力された被写界像に基づいて指定画像を作成する作成手段(20, 34)をさらに備え、変更手段の変更対象は撮像手段から出力された被写界像の品質の調整精度を含む。   More preferably, an imaging means (16) having an imaging surface for capturing the scene and repeatedly outputting the scene image, and a creation means for creating a designated image based on the scene image output from the imaging means (20, 34), and the change target of the change means includes the adjustment accuracy of the quality of the object scene image output from the imaging means.

好ましくは、変更手段による変更処理に先立って複数の照合エリアの位置および/またはサイズを繰り返し更新する更新手段(S47, S51, S53)をさらに備える。   Preferably, it further includes update means (S47, S51, S53) for repeatedly updating the positions and / or sizes of the plurality of collation areas prior to the change processing by the change means.

好ましくは、特定物体像は動物の顔画像に相当する。   Preferably, the specific object image corresponds to an animal face image.

この発明に従う画像処理プログラムは、画像処理装置(10)のプロセッサ(26)に、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ(44)、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ(S39, S55)、検出ステップによって検出された特徴量を保持ステップによって保持された特徴量と照合する照合ステップ(S41, S57)、および照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップ(S31, S59, S63, S15~S29)を実行させるための、画像処理プログラムである。   An image processing program according to the present invention holds a feature amount of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to a specific object image in a processor (26) of the image processing device (10). (44), detection steps (S39, S55) for detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on a designated image, and holding the feature amounts detected by the detection step A matching step (S41, S57) for matching with the feature value held by the step and a processing step (S31, S59, S63, S15 to S29) for executing image processing in a different manner depending on the matching result of the matching step are executed. This is an image processing program.

この発明に従う画像処理方法は、画像処理装置(10)によって実行される画像処理方法であって、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ(44)、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ(S39, S55)、検出ステップによって検出された特徴量を保持ステップによって保持された特徴量と照合する照合ステップ(S41, S57)、および照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップ(S31, S59, S63, S15~S29)を備える。   An image processing method according to the present invention is an image processing method executed by an image processing device (10), and calculates feature quantities of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to a specific object image. It is detected by the holding step (44) for holding, the detecting step (S39, S55) for detecting feature amounts of a plurality of partial images respectively corresponding to the plurality of collation areas allocated in a nested manner on the designated image, and the detecting step. A collation step (S41, S57) for collating the feature quantity with the feature quantity held by the holding step, and a processing step (S31, S59, S63, S15 ~) for executing image processing in a different manner depending on the collation result of the collation step S29).

この発明に従う外部制御プログラムは、メモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備える画像処理装置(10)に供給される外部制御プログラムであって、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ(44)、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ(S39, S55)、検出ステップによって検出された特徴量を保持ステップによって保持された特徴量と照合する照合ステップ(S41, S57)、および照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップ(S31, S59, S63, S15~S29)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   An external control program according to the present invention is an external control program supplied to an image processing device (10) including a processor (26) that executes processing according to an internal control program stored in a memory (44), and a specific object image A holding step (44) for holding feature quantities of a plurality of object images respectively corresponding to a plurality of ranges allocated in a nested manner, and a plurality of matching areas respectively corresponding to a plurality of matching areas nested in a designated image Detection steps for detecting feature amounts of partial images (S39, S55), collation steps for collating the feature amounts detected by the detection step with the feature amounts held by the holding step (S41, S57), and collation results of the collation step Externally to cause the processor to execute processing steps (S31, S59, S63, S15 to S29) for executing image processing in different modes depending on the internal control program. Is your program.

この発明に従う画像処理装置(10)は、外部制御プログラムを受信する受信手段(50)、および受信手段によって受信された外部制御プログラムとメモリ(44)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(26)を備える画像処理装置(10)であって、外部制御プログラムは、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ(44)、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ(S39, S55)、検出ステップによって検出された特徴量を保持ステップによって保持された特徴量と照合する照合ステップ(S41, S57)、および照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップ(S31, S59, S63, S15~S29)を内部制御プログラムと協働して実行するプログラムに相当する。   An image processing apparatus (10) according to the present invention executes a process according to a receiving means (50) for receiving an external control program, and an external control program received by the receiving means and an internal control program stored in a memory (44). An image processing apparatus (10) comprising a processor (26) for holding an external control program for holding feature amounts of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to a specific object image Step (44), detection steps (S39, S55) for detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on the designated image, and feature amounts detected by the detection step A collation step (S41, S57) for collating with the feature value held by the holding step, and a processing step for executing image processing in a different manner depending on the collation result of the collation step. Flop (S31, S59, S63, S15 ~ S29) to correspond to the internal control program in cooperation with a program to be executed.

保持手段によって保持された特徴量は、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量に相当する。また、検出手段によって検出される特徴量は、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ属する複数の部分画像の特徴量に相当する。処理手段によって実行される画像処理の態様は、これらの特徴量の照合結果に応じて異なる。こうして、動作性能が向上する。   The feature amounts held by the holding unit correspond to the feature amounts of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image. The feature amount detected by the detection unit corresponds to the feature amount of a plurality of partial images respectively belonging to a plurality of collation areas allocated in a nested manner on the designated image. The mode of image processing executed by the processing unit differs depending on the result of collating these feature amounts. Thus, the operating performance is improved.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. (A)は図2実施例で参照されるペット顔辞書の構成の一例を示す図解図であり、(B)は図2実施例で参照される外形ペット顔辞書の構成の一例を示す図解図である。(A) is an illustrative view showing an example of a configuration of a pet face dictionary referred to in FIG. 2 embodiment, and (B) is an illustrative view showing an example of a configuration of an external pet face dictionary referred to in FIG. 2 embodiment. It is. モニタ画面に表示された辞書画像の一例を示す図解図である。It is an illustration figure which shows an example of the dictionary image displayed on the monitor screen. 評価エリアを撮像面に割り当てた状態の一例を示す図解図である。It is an illustration figure which shows an example of the state which allocated the evaluation area to the imaging surface. 図2実施例で参照されるレジスタの構成の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a configuration of a register referred to in the embodiment in FIG. 2; ペット顔検出タスクにおいて用いられる顔検出枠の一例を示す図解図である。It is an illustration figure which shows an example of the face detection frame used in a pet face detection task. ペット顔検出タスクにおける顔検出処理の一部を示す図解図である。It is an illustration figure which shows a part of face detection process in a pet face detection task. ペット顔検出タスクにおいて捉えられた動物を表す画像の一例を示す図解図である。It is an illustration figure which shows an example of the image showing the animal caught in the pet face detection task. モニタ画面に表示された顔枠の一例を示す図解図である。It is an illustration figure which shows an example of the face frame displayed on the monitor screen. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 他の実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to another Example. 図16実施例のペット顔検出タスクにおいて捉えられた動物を表す画像の一例を示す図解図である。It is an illustration figure which shows an example of the image showing the animal caught in the pet face detection task of FIG. 16 Example. この発明のその他の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the other Example of this invention.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この実施例の画像処理装置は、基本的に次のように構成される。保持手段1は、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する。検出手段2は、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する。照合手段3は、検出手段2によって検出された特徴量を保持手段1によって保持された特徴量と照合する。処理手段4は、照合手段3の照合結果に応じて異なる態様で画像処理を実行する。
[実施例]
Referring to FIG. 1, the image processing apparatus of this embodiment is basically configured as follows. The holding unit 1 holds feature amounts of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image. The detecting means 2 detects feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on the designated image. The collating unit 3 collates the feature amount detected by the detecting unit 2 with the feature amount held by the holding unit 1. The processing unit 4 performs image processing in a different manner depending on the collation result of the collation unit 3.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、フラッシュメモリ44にペット顔辞書DC1および外形ペット顔辞書DC2を格納する。ペット顔辞書DC1および外形ペット顔辞書DC2は、被写界に現れた動物の顔画像を探索するために準備されたものである。図3(A)を参照して、ペット顔辞書DC1には、動物の顔の特徴を表す1または2以上の辞書画像データが収められる。ペット顔辞書DC1の辞書画像データは、目,鼻,および口などを含む動物の顔の内側部分の領域に対応する。図3(B)を参照して、外形ペット顔辞書DC2は、ペット顔辞書DC1に対応する辞書画像データを収める。外形ペット顔辞書DC2の辞書画像データは、ペット顔辞書DC1の辞書画像データの領域を含み、さらに耳などの動物の顔の外側部分まで含んだ領域に対応する。   Referring to FIG. 2, the digital camera 10 of this embodiment stores a pet face dictionary DC1 and an outer shape pet face dictionary DC2 in a flash memory 44. The pet face dictionary DC1 and the external pet face dictionary DC2 are prepared for searching for face images of animals appearing in the scene. Referring to FIG. 3A, the pet face dictionary DC1 stores one or more dictionary image data representing the characteristics of the animal's face. The dictionary image data of the pet face dictionary DC1 corresponds to the region of the inner part of the animal's face including eyes, nose and mouth. With reference to FIG. 3 (B), the external pet face dictionary DC2 stores dictionary image data corresponding to the pet face dictionary DC1. The dictionary image data of the external pet face dictionary DC2 includes an area of dictionary image data of the pet face dictionary DC1, and further corresponds to an area including an outer portion of an animal face such as an ear.

電源が投入されると、CPU26は、探索対象の動物を操作者に選択させるべく、外形ペット顔辞書DC2に収められた辞書画像データを撮像タスクの下でフラッシュメモリ44から読み出し、読み出された辞書画像データをSDRAM32の表示画像エリア32bに展開する。LCDドライバ36は、展開された辞書画像データをメモリ制御回路30を通して読み出し、読み出された辞書画像データに基づいてLCDモニタ38を駆動する。   When the power is turned on, the CPU 26 reads out and reads out the dictionary image data stored in the outer pet face dictionary DC2 from the flash memory 44 under the imaging task so that the operator can select an animal to be searched. The dictionary image data is developed in the display image area 32 b of the SDRAM 32. The LCD driver 36 reads the developed dictionary image data through the memory control circuit 30 and drives the LCD monitor 38 based on the read dictionary image data.

したがって、外形ペット顔辞書DC2が図3(B)に示す要領で準備されたときは、猫および犬を表す2つの辞書画像が図4に示す要領でLCDモニタ38に表示される。   Therefore, when the external pet face dictionary DC2 is prepared as shown in FIG. 3B, two dictionary images representing cats and dogs are displayed on the LCD monitor 38 as shown in FIG.

表示された辞書画像のいずれか1つを選択する選択操作が行われると、CPU26は、選択された辞書画像に対応する特徴量をペット顔辞書DC1およびペット顔辞書DC2から読み出す。図4の例において猫を表す辞書画像が選択された場合は、猫の顔の特徴量がペット辞書DC1および外形ペット顔辞書DC2から読み出される。   When a selection operation for selecting any one of the displayed dictionary images is performed, the CPU 26 reads out a feature amount corresponding to the selected dictionary image from the pet face dictionary DC1 and the pet face dictionary DC2. When the dictionary image representing the cat is selected in the example of FIG. 4, the feature amount of the cat's face is read from the pet dictionary DC1 and the external pet face dictionary DC2.

図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経た被写界の光学像は、イメージセンサ16の撮像面に照射され、光電変換を施される。これによって、被写界像を表す電荷が生成される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a focus lens 12 and an aperture unit 14 driven by drivers 18a and 18b, respectively. The optical image of the object scene that has passed through these members is irradiated onto the imaging surface of the image sensor 16 and subjected to photoelectric conversion. As a result, a charge representing the object scene image is generated.

ペット辞書DC1および外形ペット顔辞書DC2からの特徴量の読み出しが完了すると、CPU26は、撮像タスクの下で動画取り込み処理を開始するべく、ドライバ18cに露光動作および電荷読み出し動作の繰り返しを命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージセンサ16からは、読み出された電荷に基づく生画像データが周期的に出力される。   When the reading of the feature values from the pet dictionary DC1 and the outer pet face dictionary DC2 is completed, the CPU 26 instructs the driver 18c to repeat the exposure operation and the charge reading operation in order to start the moving image capturing process under the imaging task. In response to a vertical synchronization signal Vsync periodically generated from an SG (Signal Generator) (not shown), the driver 18c exposes the imaging surface and reads out the charges generated on the imaging surface in a raster scanning manner. From the image sensor 16, raw image data based on the read charges is periodically output.

前処理回路20は、イメージセンサ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32aに書き込まれる。   The preprocessing circuit 20 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data output from the image sensor 16. The raw image data subjected to these processes is written into the raw image area 32 a of the SDRAM 32 through the memory control circuit 30.

後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理,YUV変換処理などの処理を施し、YUV形式に従う表示画像データおよび探索画像データを個別に作成する。表示画像データは、メモリ制御回路30によってSDRAM32の表示画像エリア32bに書き込まれる。探索画像データは、メモリ制御回路30によってSDRAM32の探索画像エリア32cに書き込まれる。   The post-processing circuit 34 reads the raw image data stored in the raw image area 32a through the memory control circuit 30, and performs processing such as color separation processing, white balance adjustment processing, and YUV conversion processing on the read raw image data. , Display image data and search image data according to the YUV format are individually created. The display image data is written into the display image area 32 b of the SDRAM 32 by the memory control circuit 30. The search image data is written into the search image area 32 c of the SDRAM 32 by the memory control circuit 30.

LCDドライバ36は、表示画像エリア32bに格納された表示画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、被写界のリアルタイム動画像(スルー画像)がモニタ画面に表示される。また、探索画像データが探索画像エリア32cに繰り返し書き込まれる。   The LCD driver 36 repeatedly reads the display image data stored in the display image area 32b through the memory control circuit 30, and drives the LCD monitor 38 based on the read image data. As a result, a real-time moving image (through image) of the object scene is displayed on the monitor screen. Further, the search image data is repeatedly written in the search image area 32c.

図5を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。   Referring to FIG. 5, an evaluation area EVA is allocated at the center of the imaging surface. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. In addition to the processing described above, the preprocessing circuit 20 executes simple RGB conversion processing that simply converts raw image data into RGB data.

AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。   The AE evaluation circuit 22 integrates RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AE evaluation values, are output from the AE evaluation circuit 22 in response to the vertical synchronization signal Vsync.

また、AF評価回路24は、前処理回路20から出力されたRGBデータのうち同じ評価エリアEVAに属するRGBデータの高周波成分を抽出し、抽出された高域周波数成分を垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。   The AF evaluation circuit 24 extracts high-frequency components of RGB data belonging to the same evaluation area EVA from the RGB data output from the preprocessing circuit 20, and the vertical synchronization signal Vsync is generated from the extracted high-frequency components. Integrate every time. As a result, 256 integral values, that is, 256 AF evaluation values, are output from the AF evaluation circuit 24 in response to the vertical synchronization signal Vsync.

CPU26はまた、撮像タスクと並列して実行されるペット顔検出タスクの下で、探索画像エリア32cに格納された探索画像データから動物の顔画像を探索する。探索される顔画像は、選択操作によって選択された辞書画像に符合する画像である。このようなペット顔検出タスクのために、図6に示すレジスタRGSTおよび図7に示す複数の顔検出枠FD,FD,FD,…が準備される。   The CPU 26 also searches for an animal face image from the search image data stored in the search image area 32c under a pet face detection task executed in parallel with the imaging task. The searched face image is an image that matches the dictionary image selected by the selection operation. For such a pet face detection task, a register RGST shown in FIG. 6 and a plurality of face detection frames FD, FD, FD,... Shown in FIG.

顔検出枠FDは、垂直同期信号Vsyncが発生する毎に、探索画像エリア32c上を評価エリアEVAに対応してラスタ走査態様で移動する(図8参照)。顔検出枠FDのサイズは、ラスタ走査が終了する毎に“200”から“20”まで“5”刻みで縮小される。   Each time the vertical synchronization signal Vsync is generated, the face detection frame FD moves on the search image area 32c in a raster scanning manner corresponding to the evaluation area EVA (see FIG. 8). The size of the face detection frame FD is reduced in increments of “5” from “200” to “20” every time raster scanning ends.

CPU26は、顔検出枠FDに属する画像データをメモリ制御回路30を通して探索画像エリア32cから読み出し、読み出された画像データの特徴量を算出する。算出された特徴量は、先に読み出されたペット顔辞書DC1の辞書画像の特徴量と照合される。照合度が基準値REF1を上回ると、CPU26は、外形検出枠FDWに属する画像データをメモリ制御回路30を通して探索画像エリア32cから読み出し、読み出された画像データの特徴量を算出する。   The CPU 26 reads the image data belonging to the face detection frame FD from the search image area 32c through the memory control circuit 30, and calculates the feature amount of the read image data. The calculated feature amount is collated with the feature amount of the dictionary image of the pet face dictionary DC1 read out earlier. When the matching degree exceeds the reference value REF1, the CPU 26 reads the image data belonging to the outer shape detection frame FDW from the search image area 32c through the memory control circuit 30, and calculates the feature amount of the read image data.

図9を参照して、外形検出枠FDWは、現時点の顔検出枠FDに属する領域およびさらに外側の領域までを含み、内部に現時点の顔検出枠FDが入れ子状に割り当てられるように、配置される。外形検出枠FDWの位置およびサイズは、現時点の顔検出枠FDの位置およびサイズと照合対象の辞書画像に対応する外形ペット顔辞書DC2の辞書画像とに基づいて、決定される。   Referring to FIG. 9, the outer shape detection frame FDW is arranged so as to include a region belonging to the current face detection frame FD and a further outer region, and the current face detection frame FD is allocated in a nested manner. The The position and size of the outer shape detection frame FDW are determined based on the current position and size of the face detection frame FD and the dictionary image of the outer shape pet face dictionary DC2 corresponding to the dictionary image to be collated.

算出された特徴量は、先に読み出された外形ペット顔辞書DC2の辞書画像の特徴量と照合される。照合度が基準値REF2を上回ると、現時点の外形検出枠FDWの位置およびサイズが、顔画像のサイズおよび位置として決定され、レジスタRGSTに登録される。レジスタRGSTへの登録が完了すると、フラグFLGpetが“0”から“1”に更新される。   The calculated feature amount is collated with the feature amount of the dictionary image of the outer shape pet face dictionary DC2 read out earlier. When the matching degree exceeds the reference value REF2, the current position and size of the outer shape detection frame FDW are determined as the size and position of the face image and registered in the register RGST. When the registration in the register RGST is completed, the flag FLGpet is updated from “0” to “1”.

なお、顔の内側部分の検出精度はペット顔辞書DC1との照合で確保されているので、外形ペット顔辞書DC2との照合においては、耳の形など顔の周囲の輪郭が大きく異なる動物の誤検出を避けることができればよい。よって、外形ペット顔辞書DC2との照合処理で用いられる基準値REF2は、ペット顔辞書DC1辞書画像との照合処理で用いられる基準値REF1よりも低く設定された閾値である。   In addition, since the detection accuracy of the inner part of the face is ensured by collation with the pet face dictionary DC1, in collation with the external pet face dictionary DC2, there is an error of an animal whose outline of the face such as an ear shape is greatly different. It suffices if detection can be avoided. Therefore, the reference value REF2 used in the matching process with the external pet face dictionary DC2 is a threshold set lower than the reference value REF1 used in the matching process with the pet face dictionary DC1 dictionary image.

撮像タスクの下で、CPU26は、フラグFLGpetが“0”を示すとき、AE評価回路22からの出力に基づく簡易AE処理を撮像タスクの下で実行し、適正EV値を算出する。簡易AE処理は動画取込み処理と並列して実行され、算出された適正EV値を定義する絞り量および露光時間はドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像の明るさが適度に調整される。   Under the imaging task, when the flag FLGpet indicates “0”, the CPU 26 executes a simple AE process based on the output from the AE evaluation circuit 22 under the imaging task, and calculates an appropriate EV value. The simple AE process is executed in parallel with the moving image capturing process, and the aperture amount and the exposure time that define the calculated appropriate EV value are set in the drivers 18b and 18c, respectively. As a result, the brightness of the through image is appropriately adjusted.

フラグFLGpetが“1”に更新されると、CPU26は、レジスタRGSTの登録内容を参照して、顔枠KFの表示をグラフィックジェネレータ46に要求する。グラフィックジェネレータ46は、顔枠KFを表すグラフィック情報をLCDドライバ36に向けて出力する。顔枠KFは、ペット顔検出タスクの下で決定された顔画像の位置およびサイズに適合する態様でLCDモニタ38に表示される。   When the flag FLGpet is updated to “1”, the CPU 26 refers to the registered contents of the register RGST and requests the graphic generator 46 to display the face frame KF. The graphic generator 46 outputs graphic information representing the face frame KF to the LCD driver 36. The face frame KF is displayed on the LCD monitor 38 in a manner that matches the position and size of the face image determined under the pet face detection task.

したがって、猫の辞書画像が選択された状態で猫CT1が被写界に捉えられたとき、顔枠KFは図10に示す要領でLCDモニタ38に表示される。   Therefore, when the cat CT1 is captured in the scene with the cat dictionary image selected, the face frame KF is displayed on the LCD monitor 38 as shown in FIG.

フラグFLGpetが“1”に更新されるとまた、CPU26は、AE評価回路22から出力された256個のAE評価値およびAF評価回路24から出力された256個のAF評価値のうち、レジスタRGSTに登録された顔画像の位置にそれぞれ対応するAE評価値およびAF評価値を抽出する。   When the flag FLGpet is updated to “1”, the CPU 26 also uses the register RGST among the 256 AE evaluation values output from the AE evaluation circuit 22 and the 256 AF evaluation values output from the AF evaluation circuit 24. AE evaluation value and AF evaluation value respectively corresponding to the position of the face image registered in (1) are extracted.

CPU26は、抽出された一部のAE評価値に基づく厳格AE処理を実行する。厳格AE処理によって算出された最適EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像の明るさが、動物の顔画像の位置に相当する被写界の一部に注目した明るさに調整される。   The CPU 26 executes a strict AE process based on a part of the extracted AE evaluation values. The aperture amount and the exposure time that define the optimum EV value calculated by the strict AE process are set in the drivers 18b and 18c, respectively. As a result, the brightness of the through image is adjusted to a brightness focused on a part of the object scene corresponding to the position of the animal face image.

厳格AE処理が完了すると、CPU26は、抽出された一部のAF評価値に基づくAF処理を、設定された調整基準に沿って実行する。この結果、動物の顔画像の位置に相当する被写界の一部に注目した合焦点にフォーカスレンズ12が配置され、スルー画像の鮮鋭度が向上する。   When the strict AE process is completed, the CPU 26 executes an AF process based on the extracted partial AF evaluation values according to the set adjustment criterion. As a result, the focus lens 12 is arranged at a focal point that focuses on a part of the object scene corresponding to the position of the animal face image, and the sharpness of the through image is improved.

AF処理が完了すると、CPU26は、撮像タスクの下で静止画取り込み処理および記録処理を実行する。AF処理が完了した直後の1フレームの画像データは、静止画取り込み処理によって静止画エリア32dに取り込まれる。取り込まれた1フレームの画像データは、記録処理に関連して起動したI/F40によって静止画エリア32dから読み出され、ファイル形式で記録媒体42に記録される。顔枠KF1は、記録処理が完了した後に非表示とされる。   When the AF process is completed, the CPU 26 executes a still image capturing process and a recording process under the imaging task. One frame of image data immediately after the AF processing is completed is captured into the still image area 32d by the still image capturing processing. The captured one-frame image data is read from the still image area 32d by the I / F 40 activated in association with the recording process, and is recorded on the recording medium 42 in a file format. The face frame KF1 is not displayed after the recording process is completed.

CPU26は、図11〜図12に示す撮像タスクおよび図13〜図15に示すペット顔検出タスクを含む複数のタスクを並列的に実行する。これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。   The CPU 26 executes a plurality of tasks including the imaging task shown in FIGS. 11 to 12 and the pet face detection task shown in FIGS. 13 to 15 in parallel. Control programs corresponding to these tasks are stored in the flash memory 44.

図11を参照して、ステップS1では、外形ペット顔辞書DC2に収められた辞書画像データをフラッシュメモリ44から読み出し、読み出された辞書画像データをSDRAM32の表示画像エリア32bに展開する。この結果、1または2以上の辞書画像がLCDモニタ38に表示される。ステップS3では、表示された辞書画像のいずれか1つを選択する選択操作が行われたか否かを判別する。判別結果がNOからYESに更新されるとステップS5に進み、選択された辞書画像に対応する特徴量をペット顔辞書DC1および外形ペット顔辞書DC2から読み出す。   Referring to FIG. 11, in step S <b> 1, dictionary image data stored in outline pet face dictionary DC <b> 2 is read from flash memory 44, and the read dictionary image data is developed in display image area 32 b of SDRAM 32. As a result, one or more dictionary images are displayed on the LCD monitor 38. In step S3, it is determined whether or not a selection operation for selecting any one of the displayed dictionary images has been performed. When the determination result is updated from NO to YES, the process proceeds to step S5, and the feature amount corresponding to the selected dictionary image is read from the pet face dictionary DC1 and the external pet face dictionary DC2.

ステップS7では動画取込み処理を実行し、ステップS9では評価エリアEVAの全域を探索エリアとして設定する。ステップS11では、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxを“200”に設定し、最小SZminを“20”に設定する。ステップS11の処理が完了すると、ステップS13でペット顔検出タスクを起動する。   In step S7, a moving image capturing process is executed, and in step S9, the entire evaluation area EVA is set as a search area. In step S11, the maximum size SZmax is set to “200” and the minimum SZmin is set to “20” to define a variable range of the size of the face detection frame FD. When the process of step S11 is completed, the pet face detection task is activated in step S13.

フラグFLGpetは、ペット顔検出タスクの下で“0”に初期設定され、ペット顔辞書DC1の辞書画像および外形ペット顔辞書DC2の辞書画像と符合する顔画像が発見されたときに“1”に更新される。ステップS15ではこのようなフラグFLGpetが“1”を示すか否かを判別し、判別結果がNOである限り、ステップS17で簡易AE処理を繰り返し実行する。スルー画像の明るさは、簡易AE処理によって適度に調整される。   The flag FLGpet is initially set to “0” under the pet face detection task, and is set to “1” when a face image matching the dictionary image of the pet face dictionary DC1 and the dictionary image of the external pet face dictionary DC2 is found. Updated. In step S15, it is determined whether or not such a flag FLGpet indicates “1”. As long as the determination result is NO, the simple AE process is repeatedly executed in step S17. The brightness of the through image is appropriately adjusted by the simple AE process.

判別結果がNOからYESに更新されるとステップS19に進み、レジスタRGSTの登録内容を参照して顔枠KFの表示をグラフィックジェネレータ46に要求する。グラフィックジェネレータ46は、顔枠KFを表すグラフィック画像データをLCDドライバ36に向けて出力する。顔枠KFは、検出された顔画像を囲うようにLCDモニタ38に表示される。   When the determination result is updated from NO to YES, the process proceeds to step S19, and the graphic generator 46 is requested to display the face frame KF with reference to the registered contents of the register RGST. The graphic generator 46 outputs graphic image data representing the face frame KF to the LCD driver 36. The face frame KF is displayed on the LCD monitor 38 so as to surround the detected face image.

ステップS21では、AE評価回路22から出力された256個のAE評価値のうち、レジスタRGSTに登録された顔画像の位置にそれぞれ対応するAE評価値を抽出し、抽出された一部のAE評価値に基づく厳格AE処理を実行する。この結果、スルー画像の明るさが、動物の顔画像の位置に相当する被写界の一部に注目した明るさに調整される。   In step S21, an AE evaluation value corresponding to each position of the face image registered in the register RGST is extracted from the 256 AE evaluation values output from the AE evaluation circuit 22, and a part of the extracted AE evaluations is extracted. A strict AE process based on the value is executed. As a result, the brightness of the through image is adjusted to a brightness focused on a part of the object scene corresponding to the position of the animal face image.

ステップS23では、AF評価回路24から出力された256個のAF評価値のうち、レジスタRGSTに登録された顔画像の位置にそれぞれ対応するAF評価値を抽出し、抽出された一部のAF評価値に基づくAF処理を、設定された調整基準に沿って実行する。この結果、動物の顔画像の位置に相当する被写界の一部に注目した合焦点にフォーカスレンズ12が配置され、スルー画像の鮮鋭度が向上する。   In step S23, AF evaluation values respectively corresponding to the positions of the face images registered in the register RGST are extracted from the 256 AF evaluation values output from the AF evaluation circuit 24, and a part of the extracted AF evaluations is extracted. The AF process based on the value is executed according to the set adjustment criterion. As a result, the focus lens 12 is arranged at a focal point that focuses on a part of the object scene corresponding to the position of the animal face image, and the sharpness of the through image is improved.

ステップS25では静止画取り込み処理を実行し、ステップS27では記録処理を実行する。AF処理が完了した直後の1フレームの画像データは、静止画取り込み処理によって静止画エリア32dに取り込まれる。取り込まれた1フレームの画像データは、記録処理によって、記録媒体42に記録される。記録処理が完了すると、ステップS29で顔枠KFの非表示をグラフィックジェネレータ46に要求し、その後にステップS9に戻る。   In step S25, a still image capturing process is executed, and in step S27, a recording process is executed. One frame of image data immediately after the AF processing is completed is captured into the still image area 32d by the still image capturing processing. The captured one-frame image data is recorded on the recording medium 42 by a recording process. When the recording process is completed, the graphic generator 46 is requested to hide the face frame KF in step S29, and then the process returns to step S9.

図13を参照して、ステップS31ではフラグFLGpetを“0”に設定し、ステップS33では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、ステップS35で顔検出枠FDのサイズを“SZmax”に設定し、ステップS37で顔検出枠FDを探索エリアの左上位置に配置する。ステップS39では顔検出枠FDに属する一部の探索画像データを探索画像エリア32cから読み出し、読み出された探索画像データの特徴量を算出する。   Referring to FIG. 13, in step S31, the flag FLGpet is set to “0”, and in step S33, it is determined whether or not the vertical synchronization signal Vsync is generated. When the determination result is updated from NO to YES, the size of the face detection frame FD is set to “SZmax” in step S35, and the face detection frame FD is arranged in the upper left position of the search area in step S37. In step S39, a part of the search image data belonging to the face detection frame FD is read from the search image area 32c, and the feature amount of the read search image data is calculated.

ステップS41では算出された特徴量をペット顔辞書DC1から読み出された辞書画像データの特徴量と照合し、ステップS43では照合度が基準値REF1を上回るか否かを判別する。判別結果がNOであればステップS45に進み、判別結果がYESであればステップS55に進む。   In step S41, the calculated feature amount is collated with the feature amount of the dictionary image data read from the pet face dictionary DC1, and in step S43, it is determined whether or not the collation degree exceeds the reference value REF1. If the determination result is NO, the process proceeds to step S45, and if the determination result is YES, the process proceeds to step S55.

ステップS45では、顔検出枠FDが探索エリアの右下位置に到達したか否かを判別する。判別結果がNOであれば、ステップS47で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS39に戻る。判別結果がYESであれば、顔検出枠FDのサイズが“SZmin”以下であるか否かをステップS49で判別する。ステップS49の判別結果がNOであれば、ステップS51で顔検出枠FDのサイズを“5”だけ縮小させ、ステップS53で顔検出枠FDを探索エリアの左上位置に配置し、その後にステップS39に戻る。ステップS49の判別結果がYESであれば、そのままステップS33に戻る。   In step S45, it is determined whether or not the face detection frame FD has reached the lower right position of the search area. If the determination result is NO, the face detection frame FD is moved in the raster direction by a predetermined amount in step S47, and then the process returns to step S39. If the determination result is YES, it is determined in a step S49 whether or not the size of the face detection frame FD is “SZmin” or less. If the decision result in the step S49 is NO, the size of the face detection frame FD is reduced by “5” in a step S51, the face detection frame FD is arranged in the upper left position of the search area in a step S53, and then the process proceeds to a step S39. Return. If the determination result of step S49 is YES, it will return to step S33 as it is.

ステップS55では、外形検出枠FDWに属する画像データをメモリ制御回路30を通して探索画像エリア32cから読み出し、読み出された画像データの特徴量を算出する。外形検出枠FDWは、現時点の顔検出枠FDに属する領域およびさらに外側の領域までを含み、内部に現時点の顔検出枠FDが入れ子状に割り当てられるように、配置される。外形検出枠FDWの位置およびサイズは、現時点の顔検出枠FDの位置およびサイズと照合対象の辞書画像に対応する外形ペット顔辞書DC2の辞書画像とに基づいて、決定される。   In step S55, image data belonging to the outer shape detection frame FDW is read from the search image area 32c through the memory control circuit 30, and a feature amount of the read image data is calculated. The outer shape detection frame FDW includes an area belonging to the current face detection frame FD and a further outer area, and is arranged so that the current face detection frame FD is allocated in a nested manner. The position and size of the outer shape detection frame FDW are determined based on the current position and size of the face detection frame FD and the dictionary image of the outer shape pet face dictionary DC2 corresponding to the dictionary image to be collated.

ステップS57では算出された特徴量を外形ペット顔辞書DC2から読み出された辞書画像データの特徴量と照合し、ステップS59では照合度が基準値REF2を上回るか否かを判別する。判別結果がNOであればステップS45に戻り、判別結果がYESであればステップS61に進む。   In step S57, the calculated feature amount is collated with the feature amount of the dictionary image data read from the external pet face dictionary DC2, and in step S59, it is determined whether or not the collation degree exceeds the reference value REF2. If a determination result is NO, it will return to Step S45, and if a determination result is YES, it will progress to Step S61.

ステップS61では、現時点の外形検出枠FDWの位置およびサイズが、顔画像のサイズおよび位置として決定され、レジスタRGSTに登録される。ステップS61の処理が完了すると、ステップS63でフラグFLGpetを“1”に設定し、その後に処理を終了する。   In step S61, the current position and size of the outer shape detection frame FDW are determined as the size and position of the face image and registered in the register RGST. When the process of step S61 is completed, the flag FLGpet is set to “1” in step S63, and then the process ends.

以上の説明から分かるように、フラッシュメモリ44は、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する。CPU26は、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出し、検出された特徴量をフラッシュメモリ44によって保持された特徴量と照合する。CPU26はまた、照合結果に応じて異なる態様で画像処理を実行する。   As can be understood from the above description, the flash memory 44 holds the feature amounts of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image. The CPU 26 detects feature quantities of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on the designated image, and collates the detected feature quantities with the feature quantities held by the flash memory 44. . The CPU 26 also executes image processing in a different manner depending on the collation result.

フラッシュメモリ44によって保持された特徴量は、特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量に相当する。また、検出される特徴量は、指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ属する複数の部分画像の特徴量に相当する。CPU26によって実行される画像処理の態様は、これらの特徴量の照合結果に応じて異なる。こうして、動作性能が向上する。   The feature values held by the flash memory 44 correspond to the feature values of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image. The detected feature amount corresponds to the feature amount of a plurality of partial images respectively belonging to a plurality of collation areas allocated in a nested manner on the designated image. The mode of image processing executed by the CPU 26 differs depending on the result of collating these feature amounts. Thus, the operating performance is improved.

なお、この実施例では、顔検出枠FDに属する画像データの特徴量とペット顔辞書DC1の特徴量との照合度が基準値REF1を上回った場合に、外形検出枠FDWに属する画像データの特徴量を読み出し、外形ペット顔辞書DC2の特徴量と照合するようにした。しかし、顔検出枠FDに属する画像データの特徴量と外形ペット顔辞書DC2の特徴量とを先に照合するようにしてもよい。   In this embodiment, the feature of the image data belonging to the contour detection frame FDW when the matching degree between the feature amount of the image data belonging to the face detection frame FD and the feature amount of the pet face dictionary DC1 exceeds the reference value REF1. The amount is read out and collated with the feature amount of the external pet face dictionary DC2. However, the feature amount of the image data belonging to the face detection frame FD and the feature amount of the external pet face dictionary DC2 may be collated first.

この場合、図13のステップS41〜ステップS43に代えて図16のステップS71〜ステップS73を実行し、図15のステップS55〜ステップS59に代えて図16のステップS75〜ステップS79を実行すればよい。   In this case, steps S71 to S73 of FIG. 16 are executed instead of steps S41 to S43 of FIG. 13, and steps S75 to S79 of FIG. 16 are executed instead of steps S55 to S59 of FIG. .

ステップS71では算出された特徴量を外形ペット顔辞書DC2から読み出された辞書画像データの特徴量と照合し、ステップS73では照合度が基準値REF2を上回るか否かを判別する。判別結果がNOであればステップS45に進み、判別結果がYESであればステップS75に進む。   In step S71, the calculated feature amount is collated with the feature amount of the dictionary image data read from the outer pet face dictionary DC2, and in step S73, it is determined whether or not the collation degree exceeds the reference value REF2. If the determination result is NO, the process proceeds to step S45, and if the determination result is YES, the process proceeds to step S75.

ステップS75では、内形検出枠FDNに属する画像データをメモリ制御回路30を通して探索画像エリア32cから読み出し、読み出された画像データの特徴量を算出する。図17を参照して、内形検出枠FDNは、顔検出枠FDの内部に入れ子状に割り当てられるように配置される。内形検出枠FDNの位置およびサイズは、現時点の顔検出枠FDの位置およびサイズと照合対象の辞書画像に対応するペット顔辞書DC1の辞書画像とに基づいて、決定される。   In step S75, the image data belonging to the inner shape detection frame FDN is read from the search image area 32c through the memory control circuit 30, and the feature amount of the read image data is calculated. Referring to FIG. 17, the inner shape detection frame FDN is arranged so as to be assigned in a nested manner inside the face detection frame FD. The position and size of the inner shape detection frame FDN are determined based on the current position and size of the face detection frame FD and the dictionary image of the pet face dictionary DC1 corresponding to the dictionary image to be collated.

ステップS77では算出された特徴量をペット顔辞書DC1から読み出された辞書画像データの特徴量と照合し、ステップS79では照合度が基準値REF1を上回るか否かを判別する。判別結果がNOであればステップS45に戻り、判別結果がYESであればステップS61に進む。   In step S77, the calculated feature amount is collated with the feature amount of the dictionary image data read from the pet face dictionary DC1, and in step S79, it is determined whether or not the collation degree exceeds the reference value REF1. If a determination result is NO, it will return to Step S45, and if a determination result is YES, it will progress to Step S61.

またこの場合、顔検出枠FDを用いた走査および特徴量の算出を低解像度の画像上で実行し、内形検出枠FDNの配置および内形検出枠FDNに属する画像データの読出しを高解像度の画像上で実行するようにしてもよい。   Further, in this case, scanning using the face detection frame FD and calculation of the feature amount are executed on the low-resolution image, and the arrangement of the inner shape detection frame FDN and the reading of the image data belonging to the inner shape detection frame FDN are read with high resolution. You may make it perform on an image.

なお、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ44に予め記憶される。しかし、外部サーバに接続するための通信I/F50を図18に示す要領でディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ44に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 44 in advance. However, a communication I / F 50 for connecting to an external server is provided in the digital camera 10 in the manner shown in FIG. 18, and some control programs are prepared as internal control programs in the flash memory 44 from the beginning, while other parts are prepared. These control programs may be acquired from an external server as an external control program. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

また、この実施例では、CPU36によって実行される処理を、図11〜図12に示す撮像タスクおよび図13〜図15に示すペット顔検出タスクに区分するようにしている。しかし、これらのタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を統合するようにしてもよい。また、転送タスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   In this embodiment, the process executed by the CPU 36 is divided into an imaging task shown in FIGS. 11 to 12 and a pet face detection task shown in FIGS. 13 to 15. However, these tasks may be further divided into a plurality of small tasks, and some of the divided small tasks may be integrated. Further, when the transfer task is divided into a plurality of small tasks, all or part of the transfer task may be acquired from an external server.

また、この実施例では、ディジタルスチルカメラを用いて説明したが、本発明は、ディジタルビデオカメラ,携帯電話端末またはスマートフォンなどにも適用することができる。   In this embodiment, the digital still camera has been described. However, the present invention can also be applied to a digital video camera, a mobile phone terminal, a smartphone, or the like.

10 …ディジタルカメラ
16 …イメージセンサ
22 …AE評価回路
24 …AF評価回路
26 …CPU
32 …SDRAM
44 …フラッシュメモリ
DESCRIPTION OF SYMBOLS 10 ... Digital camera 16 ... Image sensor 22 ... AE evaluation circuit 24 ... AF evaluation circuit 26 ... CPU
32 ... SDRAM
44 ... Flash memory

Claims (12)

特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持手段、
指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出手段、
前記検出手段によって検出された特徴量を前記保持手段によって保持された特徴量と照合する照合手段、および
前記照合手段の照合結果に応じて異なる態様で画像処理を実行する処理手段を備える、画像処理装置。
Holding means for holding feature quantities of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image;
Detecting means for detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on a designated image;
Image processing comprising: a collating unit that collates a feature amount detected by the detecting unit with a feature amount held by the holding unit; and a processing unit that executes image processing in a different manner depending on a collation result of the collating unit apparatus.
前記検出手段は、前記複数の部分画像の一部に対応する第1部分特徴量を検出する第1特徴量検出手段、および前記複数の部分画像の他の一部に対応する第2部分特徴量を検出する第2特徴量検出手段を含み、
前記照合手段は、前記第1特徴量検出手段によって検出された第1部分特徴量を前記保持手段によって保持された特徴量の一部と照合する第1特徴量照合手段、および前記第2特徴量検出手段によって検出された第2部分特徴量を前記保持手段によって保持された特徴量の他の一部と照合する第2特徴量照合手段を含む、請求項1記載の画像処理装置。
The detecting means detects a first feature quantity detecting means for detecting a first partial feature quantity corresponding to a part of the plurality of partial images, and a second partial feature quantity corresponding to another part of the plurality of partial images. A second feature amount detecting means for detecting
The collation means includes a first feature quantity collation means for collating the first partial feature quantity detected by the first feature quantity detection means with a part of the feature quantity held by the holding means, and the second feature quantity. The image processing apparatus according to claim 1, further comprising a second feature amount collating unit that collates the second partial feature amount detected by the detecting unit with another part of the feature amount held by the holding unit.
前記複数の照合エリアは大サイズを有する第1照合エリアと小サイズを有する第2照合エリアとを含み、
前記第1部分特徴量は前記第1照合エリアおよび前記第2照合エリアの一方に対応する特徴量を含み、
前記第2部分特徴量は前記第1照合エリアおよび前記第2照合エリアの他方に対応する特徴量を含む、請求項2記載の画像処理装置。
The plurality of collation areas include a first collation area having a large size and a second collation area having a small size;
The first partial feature amount includes a feature amount corresponding to one of the first collation area and the second collation area,
The image processing apparatus according to claim 2, wherein the second partial feature amount includes a feature amount corresponding to the other of the first collation area and the second collation area.
前記第1特徴量照合手段の照合結果が第1基準を上回るとき前記第2特徴量検出手段を起動する起動手段をさらに備える、請求項2または3記載の画像処理装置。   The image processing apparatus according to claim 2, further comprising an activation unit that activates the second feature amount detection unit when a collation result of the first feature amount collation unit exceeds a first reference. 前記処理手段は、前記第2特徴量照合手段の照合結果が第2基準を上回るか否かを繰り返し判別する判別手段、および前記判別手段の判別結果が否定的から肯定的な結果に更新されたとき画像処理態様を変更する変更手段を含む、請求項4記載の画像処理装置。   The processing means repeatedly determines whether or not the collation result of the second feature amount collating means exceeds a second reference, and the discrimination result of the discrimination means has been updated from a negative to a positive result 5. The image processing apparatus according to claim 4, further comprising changing means for changing an image processing mode. 被写界を捉える撮像面を有して被写界像を繰り返し出力する撮像手段、および
前記撮像手段から出力された被写界像に基づいて前記指定画像を作成する作成手段をさらに備え、
前記変更手段の変更対象は前記撮像手段から出力された被写界像の品質の調整精度を含む、請求項5記載の画像処理装置。
An imaging unit that has an imaging surface that captures the object scene, and that repeatedly outputs the object scene image; and a creation unit that creates the designated image based on the object scene image output from the imaging unit;
The image processing apparatus according to claim 5, wherein the change target of the change unit includes an adjustment accuracy of the quality of the object scene image output from the imaging unit.
前記変更手段による変更処理に先立って前記複数の照合エリアの位置および/またはサイズを繰り返し更新する更新手段をさらに備える、請求項5または6記載の画像処理装置。   The image processing apparatus according to claim 5, further comprising an updating unit that repeatedly updates positions and / or sizes of the plurality of collation areas prior to the changing process by the changing unit. 前記特定物体像は動物の顔画像に相当する、請求項1ないし7のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the specific object image corresponds to a face image of an animal. 画像処理装置のプロセッサに、
特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ、
指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ、
前記検出ステップによって検出された特徴量を前記保持ステップによって保持された特徴量と照合する照合ステップ、および
前記照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップを実行させるための、画像処理プログラム。
In the processor of the image processing device,
Holding step for holding feature quantities of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image;
A detection step of detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on a designated image;
A collation step for collating the feature amount detected by the detection step with the feature amount held by the holding step, and a processing step for executing image processing in a different manner depending on the collation result of the collation step , Image processing program.
画像処理装置によって実行される画像処理方法であって、
特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ、
指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ、
前記検出ステップによって検出された特徴量を前記保持ステップによって保持された特徴量と照合する照合ステップ、および
前記照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップを備える、画像処理方法。
An image processing method executed by an image processing apparatus,
Holding step for holding feature quantities of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image;
A detection step of detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on a designated image;
Image processing comprising: a collation step for collating the feature quantity detected by the detection step with the feature quantity held by the holding step; and a processing step for executing image processing in a different manner depending on the collation result of the collation step Method.
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える画像処理装置に供給される外部制御プログラムであって、
特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ、
指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ、
前記検出ステップによって検出された特徴量を前記保持ステップによって保持された特徴量と照合する照合ステップ、および
前記照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
An external control program supplied to an image processing apparatus including a processor that executes processing according to an internal control program stored in a memory,
Holding step for holding feature quantities of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image;
A detection step of detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on a designated image;
The internal control program includes a collation step for collating the feature quantity detected by the detection step with the feature quantity held by the holding step, and a processing step for executing image processing in a different manner depending on the collation result of the collation step An external control program for causing the processor to execute in cooperation with the program.
外部制御プログラムを受信する受信手段、および
前記受信手段によって受信された外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える画像処理装置であって、
前記外部制御プログラムは、
特定物体像に入れ子状に割り当てられた複数の範囲にそれぞれ対応する複数の物体像の特徴量を保持する保持ステップ、
指定画像上に入れ子状に割り当てられた複数の照合エリアにそれぞれ対応する複数の部分画像の特徴量を検出する検出ステップ、
前記検出ステップによって検出された特徴量を前記保持ステップによって保持された特徴量と照合する照合ステップ、および
前記照合ステップの照合結果に応じて異なる態様で画像処理を実行する処理ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、画像処理装置。
An image processing apparatus comprising: a receiving unit that receives an external control program; and a processor that executes processing according to the external control program received by the receiving unit and an internal control program stored in a memory,
The external control program is
Holding step for holding feature quantities of a plurality of object images respectively corresponding to a plurality of ranges assigned in a nested manner to the specific object image;
A detection step of detecting feature amounts of a plurality of partial images respectively corresponding to a plurality of collation areas allocated in a nested manner on a designated image;
The internal control program includes a collation step for collating the feature quantity detected by the detection step with the feature quantity held by the holding step, and a processing step for executing image processing in a different manner depending on the collation result of the collation step An image processing apparatus corresponding to a program executed in cooperation with the computer.
JP2010279416A 2010-12-15 2010-12-15 Image processing device Pending JP2012129796A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010279416A JP2012129796A (en) 2010-12-15 2010-12-15 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010279416A JP2012129796A (en) 2010-12-15 2010-12-15 Image processing device

Publications (2)

Publication Number Publication Date
JP2012129796A true JP2012129796A (en) 2012-07-05
JP2012129796A5 JP2012129796A5 (en) 2013-12-19

Family

ID=46646361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010279416A Pending JP2012129796A (en) 2010-12-15 2010-12-15 Image processing device

Country Status (1)

Country Link
JP (1) JP2012129796A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015036123A (en) * 2013-08-09 2015-02-23 株式会社東芝 Medical image processor, medical image processing method and classifier training method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006020298A (en) * 2004-06-03 2006-01-19 Canon Inc Function-setting system, imaging device, data processing device, function-setting method, and function-setting program
JP2009289230A (en) * 2008-06-02 2009-12-10 Olympus Corp Image processing apparatus, image processing method, and image processing program
JP2010002960A (en) * 2008-06-18 2010-01-07 Olympus Corp Image processor, image processing method, and image processing program
JP2010026804A (en) * 2008-07-18 2010-02-04 Olympus Corp Image processing device, image processing program and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006020298A (en) * 2004-06-03 2006-01-19 Canon Inc Function-setting system, imaging device, data processing device, function-setting method, and function-setting program
JP2009289230A (en) * 2008-06-02 2009-12-10 Olympus Corp Image processing apparatus, image processing method, and image processing program
JP2010002960A (en) * 2008-06-18 2010-01-07 Olympus Corp Image processor, image processing method, and image processing program
JP2010026804A (en) * 2008-07-18 2010-02-04 Olympus Corp Image processing device, image processing program and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015036123A (en) * 2013-08-09 2015-02-23 株式会社東芝 Medical image processor, medical image processing method and classifier training method

Similar Documents

Publication Publication Date Title
US9681040B2 (en) Face tracking for controlling imaging parameters
JP4974812B2 (en) Electronic camera
JP2011071573A (en) Image processing apparatus
JP5485781B2 (en) Electronic camera
JP5485712B2 (en) Electronic camera
US20120075495A1 (en) Electronic camera
JP5785034B2 (en) Electronic camera
JP2012129796A (en) Image processing device
JP2014053706A (en) Electronic camera
US11653087B2 (en) Information processing device, information processing system, and information processing method
US20130016242A1 (en) Electronic camera
JP2013143755A (en) Electronic camera
JP5356162B2 (en) Object image search device
JP2014174217A (en) Electronic camera
US20120148095A1 (en) Image processing apparatus
US20110109760A1 (en) Electronic camera
JP2014036321A (en) Electron camera
JP2012133258A (en) Electronic camera
JP2010217614A (en) Electronic camera
JP2012244278A (en) Electronic camera
JP2014030095A (en) Electronic camera
JP2011130043A (en) Electronic camera
JP2014158210A (en) Electronic camera
US20130155291A1 (en) Electronic camera
JP2014146993A (en) Electronic camera

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140716

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141204