[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5023757B2 - Imaging apparatus and program - Google Patents

Imaging apparatus and program Download PDF

Info

Publication number
JP5023757B2
JP5023757B2 JP2007084335A JP2007084335A JP5023757B2 JP 5023757 B2 JP5023757 B2 JP 5023757B2 JP 2007084335 A JP2007084335 A JP 2007084335A JP 2007084335 A JP2007084335 A JP 2007084335A JP 5023757 B2 JP5023757 B2 JP 5023757B2
Authority
JP
Japan
Prior art keywords
face
image
unit
information
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007084335A
Other languages
Japanese (ja)
Other versions
JP2008245007A (en
Inventor
和典 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007084335A priority Critical patent/JP5023757B2/en
Publication of JP2008245007A publication Critical patent/JP2008245007A/en
Application granted granted Critical
Publication of JP5023757B2 publication Critical patent/JP5023757B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体の顔を認識して撮像を行う撮像装置及びプログラムに関する。   The present invention relates to an imaging apparatus and a program that perform imaging by recognizing a face of a subject.

従来、予め複数の被写体の顔画像を記憶しておき、それらのうちの何れかと一致した顔画像を検出した場合に、その顔に優先的にオートフォーカス(AF)を行う撮像装置が知られている(例えば、特許文献1及び2参照)。具体的には、登録された顔画像を撮像素子から出力された画像と比較照合して、両者のパターンが一致した場合に、自動的に撮像処理を行うようになっている。
特開2003−224761号公報
2. Description of the Related Art Conventionally, there has been known an imaging device that stores face images of a plurality of subjects in advance and preferentially performs autofocus (AF) on a face when a face image that matches any of them is detected. (For example, see Patent Documents 1 and 2). Specifically, the registered face image is compared and collated with the image output from the image sensor, and when both the patterns match, the image capturing process is automatically performed.
Japanese Patent Laid-Open No. 2003-224761

ところで、上記特許文献1等の顔認識技術を応用したAF活用技術は、単純に登録している顔を検出したら、その顔にAFを行うといったものだけであり、その応用技術に関しては追求されていなかった。   By the way, the AF utilization technique applying the face recognition technique of the above-mentioned Patent Document 1 is simply to perform AF on the face when a registered face is detected, and the application technique is being pursued. There wasn't.

そこで、本発明の課題は、顔認識技術を活用して複数の被写体の撮像に関連する処理を効果的に行うことができる撮像装置及びプログラムを提供することである。   Accordingly, an object of the present invention is to provide an imaging apparatus and a program that can effectively perform processing related to imaging of a plurality of subjects by using face recognition technology.

本発明の撮像装置は、所定のグループに属する複数の人物の顔の識別に用いる顔画像情報を登録する顔画像情報登録手段と、被写体を撮像して画像情報を生成する撮像手段と、前記撮像手段により生成された画像情報から複数の顔部分を検出する顔検出手段と、前記顔検出手段により検出された複数の顔部分の各々について、前記顔画像情報登録手段に登録された顔画像情報との比較照合を行って前記所定のグループに属する人物であるか否かを判定する顔照合手段と、前記顔照合手段により前記所定のグループに属する人物であると判定された人数と、当該グループ全員の人数との差判断する判断手段と、前記所定のグループを対象とした集合写真の撮影における自動撮影動作または警告動作を、前記判断手段により判断される人数の差に応じて制御する撮影制御手段と、を備えることを特徴としている。 The imaging apparatus of the present invention includes a face image information registration unit that registers face image information used for identifying faces of a plurality of persons belonging to a predetermined group, an imaging unit that captures an image of a subject and generates image information, and the imaging Face detection means for detecting a plurality of face portions from the image information generated by the means, and face image information registered in the face image information registration means for each of the plurality of face portions detected by the face detection means; Face collation means for performing a comparison and collation to determine whether the person belongs to the predetermined group, the number of persons determined to be a person belonging to the predetermined group by the face collation means, and all the groups determination means for determining the difference between the number of the difference in number of the automatic photographing operation or warning operation in the shooting group photo intended for the predetermined group is determined by the determining means It is characterized by and a photographing control means for controlling.

本発明のプログラムは、被写体を撮像して画像情報を生成する撮像手段を備える撮像装置のコンピュータを、所定のグループに属する複数の人物の顔の識別に用いる顔画像情報を登録する顔画像情報登録手段と、前記撮像手段により生成された画像情報から複数の顔部分を検出する顔検出手段と、前記顔検出手段により検出された複数の顔部分の各々について、前記顔画像情報登録手段に登録された顔画像情報との比較照合を行って前記所定のグループに属する人物であるか否かを判定する顔照合手段と、前記顔照合手段により前記所定のグループに属する人物であると判定された人数と、当該グループ全員の人数との差判断する判断手段と、前記所定のグループを対象とした集合写真の撮影における自動撮影動作または警告動作を、前記判断手段により判断される人数の差に応じて制御する撮影制御手段と、して機能させることを特徴としている。 The program according to the present invention registers a face image information for registering face image information used for identifying faces of a plurality of persons belonging to a predetermined group using a computer of an image pickup apparatus including an image pickup unit that picks up an image of a subject and generates image information A face detecting unit for detecting a plurality of face parts from the image information generated by the imaging unit, and a plurality of face parts detected by the face detecting unit are registered in the face image information registering unit. Face collation means for performing comparison and collation with the face image information to determine whether the person belongs to the predetermined group, and the number of persons determined to be a person belonging to the predetermined group by the face collation means When a determination means for determining the difference between the number of the entire group, the automatic photographing operation or warning operation in the shooting group photo intended for the predetermined group, wherein Is characterized and imaging control means for controlling in response to the difference between the number of people is determined, that is to function by cross section.

本発明によれば、顔認識技術を活用して所定のグループに属する複数の人物の集合写真の撮影を効果的に行うことができ、より利便性の高い撮像装置を提供することができる。 According to the present invention, it is possible to effectively take a group photo of a plurality of persons belonging to a predetermined group using face recognition technology, and it is possible to provide a more convenient imaging device.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

[実施形態1]
図1は、本発明を適用した実施形態1の撮像装置100の概略構成を示すブロック図である。
実施形態1の撮像装置(画像処理装置)100は、画像データ内から人物の顔を検出(認識)し、この検出(認識)結果を利用して、画像データの撮影処理、閲覧処理、加工処理などの画像データを対象とした様々な処理の自動化を行うものである。
図1に示すように、撮像装置100は、撮像部1と、画像記録部2と、画像取得制御部3と、個人顔データベース(DB)4と、グループデータベース(DB)5と、操作入力部6と、顔検出部7と、検出情報記憶部8と、特定条件判定部9と、表示部10と、処理実行部11等を備えている。
[Embodiment 1]
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to the first embodiment to which the present invention is applied.
The imaging apparatus (image processing apparatus) 100 according to the first embodiment detects (recognizes) a person's face from image data, and uses the detection (recognition) result to capture, browse, and process image data. Various processes for image data such as these are automated.
As shown in FIG. 1, the imaging apparatus 100 includes an imaging unit 1, an image recording unit 2, an image acquisition control unit 3, a personal face database (DB) 4, a group database (DB) 5, and an operation input unit. 6, a face detection unit 7, a detection information storage unit 8, a specific condition determination unit 9, a display unit 10, a process execution unit 11, and the like.

撮像部1は、人物等の被写体の静止画像や動画像を撮像する。具体的には、撮像部1は、撮像レンズ1aと、撮像素子1bと、信号処理部1cと、画像メモリ1d等を備えている。   The imaging unit 1 captures a still image or a moving image of a subject such as a person. Specifically, the imaging unit 1 includes an imaging lens 1a, an imaging element 1b, a signal processing unit 1c, an image memory 1d, and the like.

撮像レンズ1aは、フォーカス機能及びズーム機能を有し、複数の撮像レンズから構成されている。
撮像素子1bは、撮像レンズ1aを通過した被写体像を二次元の画像信号に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等から構成されている。
信号処理部1cは、撮像素子1bから出力される画像信号に対して所定の画像処理を施すものである。
ここで、撮像レンズ1a、撮像素子1b及び信号処理部1cは、被写体を撮像して画像情報を生成する撮像手段を構成している。
画像メモリ1dは、画像処理後の画像信号を一時的に記憶する。
The imaging lens 1a has a focus function and a zoom function, and is composed of a plurality of imaging lenses.
The image sensor 1b is composed of a CCD (Charge Coupled Device), a CMOS (Complementary Metal-Oxide Semiconductor), or the like that converts a subject image that has passed through the imaging lens 1a into a two-dimensional image signal.
The signal processing unit 1c performs predetermined image processing on the image signal output from the image sensor 1b.
Here, the imaging lens 1a, the imaging element 1b, and the signal processing unit 1c constitute imaging means for imaging a subject and generating image information.
The image memory 1d temporarily stores an image signal after image processing.

また、撮像部1は、図示は省略するが、撮像部1による被写体の撮像の際に駆動するフォーカス駆動部やズーム駆動部等を備えている。
フォーカス駆動部は、撮像レンズ1aに接続されたフォーカス機構部を駆動させる。
ズーム駆動部は、撮像レンズ1aに接続されたズーム機構部を駆動させる。
Although not shown, the imaging unit 1 includes a focus driving unit and a zoom driving unit that are driven when the imaging unit 1 captures an object.
The focus drive unit drives the focus mechanism unit connected to the imaging lens 1a.
The zoom drive unit drives the zoom mechanism unit connected to the imaging lens 1a.

画像記録部2は、撮像部1により撮像された静止画像や動画像を画像ファイルとして記録するものである。また、画像記録部2は、例えば、カード型の不揮発性メモリ(フラッシュメモリ)やハードディスク等により構成されている。
ここで、画像記録部2は、撮像部(撮像手段)1により生成された画像情報を静止画像として保存する静止画像情報保存手段や、撮像部1により連続して生成された画像情報を動画像として保存する動画像情報保存手段を構成している。
The image recording unit 2 records still images and moving images captured by the imaging unit 1 as image files. The image recording unit 2 is configured by, for example, a card-type nonvolatile memory (flash memory), a hard disk, or the like.
Here, the image recording unit 2 is a still image information storage unit that stores the image information generated by the imaging unit (imaging unit) 1 as a still image, and the image information continuously generated by the imaging unit 1 is a moving image. The moving image information storing means for storing as is configured.

画像取得制御部3は、撮像部1の画像メモリ1d又は画像記録部2から画像データを読み出して処理実行部11や顔検出部7に出力する。具体的には、画像取得制御部3は、操作入力部6を介したユーザの指示又は処理実行部11からの要求に応じて、処理実行部11での各種撮影/画像処理の対象となる複数の画像データを画像メモリ1dから逐次取得したり、画像記録部2から順番に読み出して、処理実行部11及び顔検出部7へ出力する。   The image acquisition control unit 3 reads out image data from the image memory 1 d or the image recording unit 2 of the imaging unit 1 and outputs the image data to the processing execution unit 11 and the face detection unit 7. Specifically, the image acquisition control unit 3 is a plurality of targets for various shooting / image processing in the process execution unit 11 in response to a user instruction via the operation input unit 6 or a request from the process execution unit 11. Are sequentially acquired from the image memory 1d or sequentially read out from the image recording unit 2 and output to the processing execution unit 11 and the face detection unit 7.

個人顔DB4は、顔画像情報登録手段として、被写体を個人毎にその顔画像に係る顔画像情報を登録するものである。
具体的には、図2に示すように、個人顔DB4は、被写体の名前と、顔番号と、顔画像データと、顔特徴データと、優先度等を対応付けて記憶している。例えば、被写体として「Aさん」を例示して説明すると、顔番号「A−1」は、Aさんを正面から撮像した画像データと、正面から見た顔の特徴(例えば、目の位置、鼻の形状、口の大きさ等)と、顔の向きと対応付けられ、複数のAさんの画像の中での優先的な処理に係る優先度「2」が対応付けられている。同様に、顔番号「A−2」は、Aさんを右30°から撮像した画像データと、右30°から見た顔の特徴と、複数のAさんの画像の中での優先度「5(ワースト)」が対応付けられ、顔番号「A−3」は、Aさんを左15°から撮像した画像データと、左15°から見た顔の特徴と、複数のAさんの画像の中での優先度「1(ベスト)」が対応付けられている。つまり、個人顔DB4には、顔画像に基づいて個人や顔の向きを特定するための情報が記憶されている。
The personal face DB 4 registers face image information related to a face image of each subject as a face image information registration unit.
Specifically, as shown in FIG. 2, the personal face DB 4 stores the subject name, face number, face image data, face feature data, priority, and the like in association with each other. For example, exemplifying “Mr. A” as a subject, the face number “A-1” includes image data obtained by imaging Mr. A from the front and features of the face viewed from the front (for example, eye position, nose). , The size of the mouth, and the like) and the orientation of the face, and the priority “2” relating to the preferential processing in the plurality of Mr. A's images is associated. Similarly, the face number “A-2” has the image data of Mr. A taken from 30 ° on the right, the feature of the face seen from the right 30 °, and the priority “5” among the images of Mr. A. (Worst) ”is associated, and the face number“ A-3 ”is the image data obtained by imaging Mr. A from the left 15 °, the facial features viewed from the left 15 °, and the images of the plurality of A's images. Is associated with the priority “1 (best)”. That is, the personal face DB 4 stores information for specifying the individual and the face direction based on the face image.

グループDB5は、顔画像情報登録手段として、被写体を当該被写体の属するグループ毎に登録するものである。
具体的には、図3に示すように、グループDB5は、グループ名と、焼き増し枚数と、メンバー等を対応付けて記憶している。例えば、グループとして「Aさんの家族」を例示して説明すると、グループ名「Aさんの家族」は、焼き増し枚数「まとめて1枚」と、メンバー名である「Aさん」、「Cさん」、「Dさん」、「Eさん」等が対応付けられている。同様に、グループ「Bさんの友人」は、焼き増し枚数「別々」と、メンバー名である「Bさん」、「Cさん」、「Fさん」等が対応付けられている。
The group DB 5 registers a subject for each group to which the subject belongs as face image information registration means.
Specifically, as shown in FIG. 3, the group DB 5 stores a group name, the number of extra prints, members, and the like in association with each other. For example, exemplifying “Mr. A's family” as a group, the group name “Ms. A's family” has the number of extra prints “collectively 1” and the member names “Mr. A” and “Mr. C”. , “Mr. D”, “Mr. E”, and the like are associated with each other. Similarly, in the group “B's friend”, the number of extra prints “separate” and the member names “B”, “C”, “F” and the like are associated.

操作入力部6は、当該撮像装置100の所定操作を行うためのものである。具体的には、図示は省略するが、操作入力部6は、シャッターボタン、モード切替ボタン、入力ボタン等を備えている。
シャッターボタンは、撮像部1により撮像された被写体の画像情報の記録(保存)を指示するものである。
モード切替スイッチは、撮像モードをスチルインムービー処理モード、モーションプリント処理モード、画像削除処理モード、自動シャッター処理モード、焼き増し数設定処理モード等に切り替えるためのものである。
入力ボタンは、個人顔DB4やグループDB5の登録内容や特定画像判定条件(後述)等を入力するためのものである。具体的には、入力ボタンは、各被写体(人物)毎に、その顔の向き(顔番号)と対応付けられる優先度を入力する。
ここで、入力ボタン(操作入力部6)は、処理実行部11による画像情報の処理の実行を指示する被写体の顔の向きを指定する顔向き指定手段を構成している。
The operation input unit 6 is for performing a predetermined operation of the imaging apparatus 100. Specifically, although not shown, the operation input unit 6 includes a shutter button, a mode switching button, an input button, and the like.
The shutter button instructs to record (save) the image information of the subject imaged by the imaging unit 1.
The mode switch is for switching the imaging mode to a still-in movie processing mode, a motion print processing mode, an image deletion processing mode, an automatic shutter processing mode, a reprint number setting processing mode, or the like.
The input button is used to input registration contents of the personal face DB 4 and group DB 5, specific image determination conditions (described later), and the like. Specifically, the input button inputs a priority associated with the face direction (face number) for each subject (person).
Here, the input button (operation input unit 6) constitutes a face direction designating unit for designating the face direction of the subject instructing execution of the image information processing by the processing execution unit 11.

操作入力部6の各ボタンから入力された操作信号は、処理実行部11に出力される。   Operation signals input from the buttons of the operation input unit 6 are output to the process execution unit 11.

表示部10は、撮像部1により撮像された画像を表示するものである。具体的には、表示部10は、図示は省略するが、表示制御部と、画像表示部等を備えている。
表示制御部は、処理実行部11から適宜出力される表示データを一時的に保存するビデオメモリ(図示略)を備えている。
画像表示部は、表示制御部からの出力信号に基づいて所定の画像を表示する液晶モニタ等を備えている。
The display unit 10 displays an image captured by the imaging unit 1. Specifically, the display unit 10 includes a display control unit, an image display unit, and the like, although illustration is omitted.
The display control unit includes a video memory (not shown) that temporarily stores display data output from the processing execution unit 11 as appropriate.
The image display unit includes a liquid crystal monitor that displays a predetermined image based on an output signal from the display control unit.

顔検出部7は、顔検出機能及び顔認識機能がON状態にされている場合、画像取得制御部3からの画像データ出力に応じて、この画像データ内の顔画像を個別に検出するとともに、検出した顔画像を個人顔DB4を参照することにより認識して、後述する顔個別検出情報8aを逐次出力する。
具体的には、顔検出部7は、先ず、画像取得制御部3が出力する画像データ(画像フレーム)内より全ての顔部分を検出する。例えば、顔検出部7は、全ての肌色領域を検出し、検出された各領域内に目、鼻、ロなどに相当する特徴部分(顔パーツ)があるか否かを判定して、顔パーツがあると判定されれば当該肌色領域を顔画像とみなす。次に、顔検出部7は、検出された各顔画像部分の位置と、肌色領域の面積などから判定されたサイズを顔個別検出情報8aとして検出情報記憶部8に記憶する。そして、顔検出部7は、各顔画像部分を個人顔DB4と照合して、最も一致度の高いレコードに対応する人物の名前と、顔番号を顔個別検出情報8aとして検出情報記憶部8に記憶する。つまり、検出された顔画像と個人顔DB内の顔画像データとの照合、または検出された顔画像から抽出した特徴データと個人顔DB内の顔特徴データとの照合により、個人の特定と顔の向きの特定(推定)を同時に行う。なお、所定数以上の人物が登録されていない場合には、一致度は不明とする。
When the face detection function and the face recognition function are in the ON state, the face detection unit 7 individually detects a face image in this image data according to the image data output from the image acquisition control unit 3, The detected face image is recognized by referring to the personal face DB 4, and face individual detection information 8a described later is sequentially output.
Specifically, the face detection unit 7 first detects all face parts from the image data (image frame) output by the image acquisition control unit 3. For example, the face detection unit 7 detects all the skin color areas, determines whether or not there is a characteristic part (face part) corresponding to eyes, nose, or rho in each detected area. If it is determined that there is an image, the skin color area is regarded as a face image. Next, the face detection unit 7 stores the size determined from the position of each detected face image portion, the area of the skin color region, and the like in the detection information storage unit 8 as face individual detection information 8a. Then, the face detection unit 7 collates each face image portion with the personal face DB 4 and stores the name of the person corresponding to the record with the highest matching degree and the face number in the detection information storage unit 8 as face individual detection information 8a. Remember. In other words, by identifying the detected face image with the face image data in the personal face DB, or by comparing the feature data extracted from the detected face image with the face feature data in the personal face DB, the identification of the individual and the face Specify (estimate) the orientation of It should be noted that the degree of coincidence is unknown when a predetermined number of persons or more are not registered.

なお、対象となる画像フレームが連続した撮像中に得られたものであれば、顔検出部7は、直前の画像フレームに対応する顔個別検出情報8aを参照して、当該直前の撮影フレームに対する検出位置のずれなどに基づいて検出済みの顔画像部分に対してトラッキング処理を行う。ここで、顔検出部7は、トラッキング処理にて、例えば、検出済みの顔画像部分を追従するために、画像フレーム内の検出範囲や検出位置、個人顔DB4との照合範囲や照合順序を限定する等の処理を行うようになっている。このトラッキング処理により各顔部分の動きを特定し、この特定された動きを顔個別検出情報8aとして検出情報記憶部8に記憶する。
ここで、顔検出部7は、画像データから顔画像を検出する顔検出手段を構成している。また、顔検出部7は、操作入力部6を介して入力された被写体の顔の向きと、当該顔検出部7により検出された被写体の顔の向きが等しくなっているか否かを判定する顔角度判定手段を構成している。
さらに、顔検出部7は、検出された顔画像と個人顔DB4に登録された顔画像情報を比較照合する顔照合手段を構成している。
また、顔検出部7は、顔画像に関連する各種の顔関連情報を取得する顔関連情報取得手段を構成している。
Note that if the target image frame is obtained during continuous imaging, the face detection unit 7 refers to the individual face detection information 8a corresponding to the immediately preceding image frame, and applies to the immediately preceding captured frame. A tracking process is performed on a detected face image portion based on a detection position shift or the like. Here, the face detection unit 7 limits the detection range and detection position in the image frame and the collation range and collation order with the personal face DB 4 in order to follow the detected face image portion in the tracking process. The process of doing is performed. The movement of each face part is specified by this tracking process, and the specified movement is stored in the detection information storage unit 8 as face individual detection information 8a.
Here, the face detection unit 7 constitutes a face detection unit that detects a face image from image data. Further, the face detection unit 7 determines whether or not the direction of the face of the subject input via the operation input unit 6 is equal to the direction of the face of the subject detected by the face detection unit 7. An angle determination unit is configured.
Furthermore, the face detection unit 7 constitutes a face collating means for comparing and collating the detected face image with the face image information registered in the personal face DB 4.
The face detection unit 7 constitutes a face related information acquisition unit that acquires various types of face related information related to the face image.

以下に、図4を参照して顔検出部7が出力する顔個別検出情報8aについて説明する。
顔個別検出情報8aは、図4に示すように、各顔画像部分について、検出番号、位置、サイズ、動き、人物名、個人顔DB4における顔番号、個人一致度等を対応付けて記憶されている。例えば、検出番号1を例示して説明すると、顔画像部分の位置(座標)「213,378」と、顔画像部分のサイズ「120」、動作状態「右に30画素/フレーム」と、人物名「不明」等が対応付けられて記憶されている。同様に、検出番号2は、顔画像部分の位置(座標)「563,423」と、顔画像部分のサイズ「375」、動作状態「静止」と、人物名「Bさん」と、顔番号「B−2」と、個人一致度「90%」等が対応付けられ、検出番号3は、顔画像部分の位置(座標)「783,324」と、顔画像部分のサイズ「265」、動作状態「静止」と、人物名「Fさん」と、顔番号「F−3」と、個人一致度「85%」等が対応付けられて記憶されている。
The face individual detection information 8a output by the face detection unit 7 will be described below with reference to FIG.
As shown in FIG. 4, the face individual detection information 8a is stored in association with the detection number, position, size, movement, person name, face number in the personal face DB 4, personal matching degree, etc. for each face image portion. Yes. For example, the detection number 1 will be described as an example. The position (coordinates) of the face image portion “213, 378”, the size of the face image portion “120”, the operation state “30 pixels / frame to the right”, the person name “Unknown” or the like is associated and stored. Similarly, the detection number 2 includes the position (coordinates) “563, 423” of the face image portion, the size “375” of the face image portion, the operation state “still”, the person name “Mr. B”, and the face number “ B-2 ”is associated with the degree of personal coincidence“ 90% ”, and the detection number 3 is the position (coordinates)“ 783,324 ”of the face image portion, the size“ 265 ”of the face image portion, and the operation state “Still”, person name “Mr. F”, face number “F-3”, personal matching degree “85%” and the like are stored in association with each other.

また、顔検出部7は、グループDB5を参照して、顔個別検出情報8aに基づいて画像データ内の全ての顔の検出状況を判断して、顔全体検出情報8bを出力する。
具体的には、顔検出部7は、グループDB5を参照して各グループ内の複数のメンバーと検出された複数の被写体(人物)の顔画像とのグループの一致度を算出して、最も一致度の高いグループを特定し、その特定されたグループ名と、その一致度と、該グループに対応する焼き増し枚数を顔全体検出情報8bとして検出情報記憶部8に記憶する。ここで、一致度の高低は、一致している人数により判定して、人数が同じならば顔画像の一致度で判断するようになっている。
次に、顔検出部7は、顔個別検出情報8aを参照して、検出された顔画像の総数を計数して記憶した後、各個人が特定できた顔画像の総数を計数して顔全体検出情報8bとして検出情報記憶部8に記憶する。
In addition, the face detection unit 7 refers to the group DB 5 to determine the detection status of all faces in the image data based on the individual face detection information 8a, and outputs the entire face detection information 8b.
Specifically, the face detection unit 7 refers to the group DB 5 to calculate the degree of matching of the group between the plurality of members in each group and the detected face images of the plurality of subjects (persons), and the best match is obtained. A group having a high degree is identified, and the identified group name, the degree of coincidence, and the number of extra prints corresponding to the group are stored in the detection information storage unit 8 as whole face detection information 8b. Here, the degree of coincidence is determined based on the number of matching persons. If the number of persons is the same, the degree of matching is determined based on the matching degree of the face image.
Next, the face detection unit 7 refers to the individual face detection information 8a, counts and stores the total number of detected face images, and then counts the total number of face images that can be specified by each individual to calculate the entire face. The detection information is stored in the detection information storage unit 8 as detection information 8b.

さらに、顔検出部7は、対象となる画像フレーム中のメイン人物の顔画像を特定して記憶する。メイン人物の特定方法としては、対象となる画像フレームが、連続した撮像中に得られたものである場合、撮影フレームに対する動きが最も少ない顔画像部分をメイン人物の顔画像として特定する一方で、対象となる画像フレームが、連続した撮像中に得られたものでない場合、撮影フレーム内で最も中央に位置するか、或いは最もサイズが大きいか、或いはAF領域内に存在するか等の条件を予め指定された優先順位で評価することによりメイン人物の顔画像を特定する。
また、トラッキング中の複数の顔画像に対して、それぞれの動き方向を顔検出センサーにより定量的なデータで取得するとともに、撮像装置に実装された加速度センサーによって、撮像装置の移動方向を定量的なデータで取得する。そして、撮像装置の移動方向に対して、トラッキング中の顔移動方向が同方向であるのか、それとも別方向なのかをそれぞれの顔画像に対して分析を行い、分析の結果、撮像装置の動きに最も近い顔画像が撮影者にとって撮影したいメイン被写体であると判定する。そして、AF処理をはじめとして、メイン被写体の撮像に最適な設定を自動設定して、撮影可能な状態にするようにしても良い。
これにより、顔認識時に複数の顔画像を認識してしまうと、どの人物をメイン被写体とすれば良いのか、撮像装置は自動では判断しにくいが、メインで撮影したい被写体に対する当該撮像装置の動きと被写体の動きを判断することにより、メイン被写体を撮像装置が自動で判断することができることとなる。
そして、メイン人物の顔画像と最も一致度が高かった顔番号に対応する優先度を、個人顔DB4を参照して特定し、顔全体検出情報8bとして検出情報記憶部8に記憶する。
また、各顔画像の中での絶対的な動きが最も大きい顔画像の動きを顔画像全体の動きとして記憶する。ここで、顔画像の絶対的な動きとは、顔画像の大地に対する動きであり、カメラに内蔵した加速度センサ(図示略)の情報やズーム倍率で示される画角情報などに基づいて、撮影フレームに対する各顔画像の動きを大地に対する絶対的な動きに変換する方法などにより取得される。
Furthermore, the face detection unit 7 specifies and stores the face image of the main person in the target image frame. As a method for specifying the main person, when the target image frame is obtained during continuous imaging, the face image portion with the least movement relative to the shooting frame is specified as the face image of the main person, If the target image frame is not obtained during continuous imaging, conditions such as whether it is located at the center in the imaging frame, is the largest in size, or exists in the AF area, are set in advance. The face image of the main person is specified by evaluating with the designated priority.
In addition, the movement direction of each of the face images being tracked is acquired as quantitative data by a face detection sensor, and the movement direction of the image pickup apparatus is quantitatively determined by an acceleration sensor mounted on the image pickup apparatus. Get with data. Then, each face image is analyzed to determine whether the face moving direction being tracked is the same direction or a different direction with respect to the moving direction of the imaging device. It is determined that the closest face image is the main subject to be photographed for the photographer. Then, it is also possible to automatically set the optimum setting for imaging the main subject so as to be ready for shooting, including AF processing.
As a result, if a plurality of face images are recognized during face recognition, it is difficult for the imaging device to automatically determine which person should be the main subject. By determining the movement of the subject, the imaging device can automatically determine the main subject.
Then, the priority corresponding to the face number having the highest degree of coincidence with the face image of the main person is specified with reference to the personal face DB 4 and stored in the detection information storage unit 8 as the entire face detection information 8b.
Further, the movement of the face image having the largest absolute movement in each face image is stored as the movement of the entire face image. Here, the absolute movement of the face image refers to the movement of the face image with respect to the ground, and based on the information of an acceleration sensor (not shown) built in the camera, the angle of view information indicated by the zoom magnification, etc. Is obtained by a method of converting the motion of each face image to the absolute motion with respect to the ground.

以下に、図5を参照して顔検出部7が出力する顔全体検出情報8bについて説明する。
顔全体検出情報8bは、図5に示すように、顔検出総数、個人認識総数、グループ、グループ一致度、全体の動き、メイン人物、優先度、焼き増し枚数等が対応付けられたものである。例えば、顔全体検出情報8bとして、顔検出総数「7」と、個人認識総数「3」、グループ「Bさん家族」、グループ一致度「80%」、全体の動き「動く顔あり」、メイン人物「Bさん」等が対応付けられたものが記憶されている。
Hereinafter, the entire face detection information 8b output by the face detection unit 7 will be described with reference to FIG.
As shown in FIG. 5, the whole face detection information 8 b is associated with the total number of face detections, the total number of individual recognitions, the group, the group matching degree, the overall movement, the main person, the priority, the number of extra prints, and the like. For example, the total face detection information 8b includes a total face detection number “7”, a personal recognition total number “3”, a group “Mr. B family”, a group matching degree “80%”, an overall movement “with moving face”, a main person Those associated with “Mr. B” are stored.

検出情報記憶部8は、顔個別検出情報8a及び顔全体検出情報8bを一時記憶し、画像取得制御部から新たな画像データが出力される毎に顔検出部7により更新される。また、検出情報記憶部8は、この顔個別検出情報8a及び顔全体検出情報8bを後に利用するためにファイル保存が指示された場合には、顔個別検出情報8a及び顔全体検出情報8bを画像ファイルと同じファイル名称で別拡張子のファイルとして記憶(保存)される。
ここで、検出情報記憶部8は、顔検出部7により取得された顔個別検出情報8a及び顔全体検出情報8b(顔関連情報)と画像記録部2に記録される画像ファイルを関連付けて記録する顔関連情報記録手段を構成している。
The detection information storage unit 8 temporarily stores the face individual detection information 8a and the entire face detection information 8b, and is updated by the face detection unit 7 every time new image data is output from the image acquisition control unit. In addition, the detection information storage unit 8 displays the individual face detection information 8a and the entire face detection information 8b as an image when a file storage instruction is given to use the individual face detection information 8a and the entire face detection information 8b later. It is stored (saved) as a file with the same file name and a different extension.
Here, the detection information storage unit 8 records the individual face detection information 8a and the entire face detection information 8b (face related information) acquired by the face detection unit 7 and the image file recorded in the image recording unit 2 in association with each other. It constitutes face related information recording means.

特定条件判定部9は、スチルインムービー処理等の処理実行部11による各種処理の実行条件を判定するものである。即ち、特定条件判定部9は、顔検出部7から新たな顔個別検出情報8a及び顔全体検出情報8bが出力されるのに応じて、この顔個別検出情報8a及び顔全体検出情報8bと設定されている特定条件判定情報9aが一致するか否かを判定して、一致した場合には、当該一致した画像データや一致したタイミングを指示する指示情報を逐次出力する。
ここで、特定条件判定部9は、顔検出部7による被写体の顔の角度の判定結果に基づいて、処理実行部11による処理対象となる画像情報を決定する処理対象決定手段を構成している。
The specific condition determination unit 9 determines execution conditions for various processes performed by the process execution unit 11 such as a still-in movie process. That is, the specific condition determination unit 9 sets the face individual detection information 8a and the whole face detection information 8b in response to the output of the new face individual detection information 8a and the whole face detection information 8b from the face detection unit 7. It is determined whether or not the specified condition determination information 9a matches, and if they match, the matching image data and instruction information indicating the matching timing are sequentially output.
Here, the specific condition determination unit 9 constitutes a processing target determination unit that determines image information to be processed by the processing execution unit 11 based on the determination result of the face angle of the subject by the face detection unit 7. .

ここで、図6を参照してユーザが任意に設定することができる特定条件判定情報9aの一例について説明する。
特定条件判定情報9aは、図6に示すように、例えば、顔検出総数、個人認識総数、グループ、グループ一致度、全体の動き、メイン人物、メイン人物の顔状態(優先度)、メイン人物のサイズ等が対応付けられたものである。この特定条件判定情報9aは、処理実行部11に実行させる処理の内容や目的に応じてユーザが任意に設定したり自動的に設定されるものであり、例えば、メイン人物「Bさん」と、メイン人物の顔の状態「優先度1」等が対応付けられたものが記憶されている。
なお、画像取得制御部3から出力される画像データに対応する顔個別検出情報8a及び顔全体検出情報8bが既に顔情報ファイル(後述)として記録されている場合には、顔検出部7による顔個別検出情報8a及び顔全体検出情報8bの更新を行わず、特定条件判定部9は、顔情報ファイル内に既に記録されている顔個別検出情報8a及び顔全体検出情報8bを用いて判断する。
Here, an example of the specific condition determination information 9a that can be arbitrarily set by the user will be described with reference to FIG.
As shown in FIG. 6, the specific condition determination information 9a includes, for example, the total number of face detections, the total number of individual recognitions, the group, the group matching degree, the overall movement, the main person, the face state (priority) of the main person, The size and the like are associated with each other. The specific condition determination information 9a is arbitrarily set or automatically set by the user according to the content and purpose of the process executed by the process execution unit 11, and for example, the main person “Mr. B”, What is associated with the face state “priority 1” of the main person is stored.
When face individual detection information 8a and whole face detection information 8b corresponding to the image data output from the image acquisition control unit 3 are already recorded as face information files (described later), the face detected by the face detection unit 7 The specific condition determination unit 9 does not update the individual detection information 8a and the entire face detection information 8b, and makes a determination using the individual face detection information 8a and the entire face detection information 8b already recorded in the face information file.

処理実行部11は、ユーザの実行指示に応じて、画像データの撮影処理(スチルインムービー処理、静止画撮影処理など)や、画像データの閲覧処理(画像検索処理、画像表示処理など)や、画像データの加工処理(モーションプリント処理、画像削除処理、焼き増し数の設定処理など)などの画像データを対象とした様々な処理を行うものである。これらの処理においては、複数の画像データを対象とした処理を行うが、特定の画像データ又は特定のタイミングを他の画像データや他のタイミングとは異なる扱いで処理する。通常は、この特定の画像データや特定のタイミングはユーザの手動操作によって指示されるものであるが、顔検出部7による顔検出機能及び顔認識機能がON状態に設定されている場合には、この特定の画像データや特定のタイミングは特定条件判定部9によって自動的に指示される。
処理実行部11は、処理対象となる複数の画像データを、ユーザ指示による手動決定、または実行内容や目的に応じて自動的に決定し、画像取得制御部3に対して処理対象となる複数の画像データを取得するように要求する。そして、この要求に応じて画像取得制御部3が出力する複数の画像データを対象とした処理を実行し、特定条件判定部9より指示される指示情報に係る画像データ又はタイミングを特定画像データ又は特定タイミングであるとして、他の画像データや他のタイミングとは異なる扱いで処理する。
The process execution unit 11 performs image data shooting processing (still-in movie processing, still image shooting processing, etc.), image data browsing processing (image search processing, image display processing, etc.), Various processes for image data such as image data processing (motion print processing, image deletion processing, extra number setting processing, etc.) are performed. In these processes, a process for a plurality of image data is performed, but specific image data or specific timing is processed differently from other image data or other timing. Normally, the specific image data and specific timing are instructed by the user's manual operation. However, when the face detection function and the face recognition function by the face detection unit 7 are set to the ON state, This specific image data and specific timing are automatically instructed by the specific condition determination unit 9.
The process execution unit 11 determines a plurality of image data to be processed manually according to a user instruction or automatically according to execution contents and purpose, and a plurality of image data to be processed with respect to the image acquisition control unit 3. Request to get image data. Then, in response to this request, a process for a plurality of image data output by the image acquisition control unit 3 is executed, and the image data or timing related to the instruction information instructed by the specific condition determination unit 9 is set to the specific image data or the timing. Assuming that it is a specific timing, processing is performed differently from other image data and other timing.

以上のように、実施形態1の撮像装置100によれば、画像データ内に検出(認識)される被写体(人物)の顔に係る情報を利用して、画像データを対象とした様々な処理を自動化することができ、また、顔に係る情報を用いた自動化の条件を柔軟かつ容易に設定することができる。   As described above, according to the imaging apparatus 100 of the first embodiment, various processes for image data are performed using information on the face of a subject (person) detected (recognized) in the image data. It is possible to automate, and it is possible to flexibly and easily set the conditions for automation using information relating to the face.

[実施形態2]
実施形態2は、実施形態1の撮像装置100を、スチルインムービー処理の自動化に適用したものであり、特に、被写体毎に指定された顔の角度に応じて動画撮影中に静止画像を撮影するタイミングを自動決定できるようにしたものである。
この実施形態2では、実施形態1における特定条件判定部9および処理実行部11の処理内容や設定内容が、上記処理の目的に特化されたものとなる。
[Embodiment 2]
In the second embodiment, the imaging apparatus 100 according to the first embodiment is applied to the automation of still-in movie processing. In particular, a still image is shot during moving image shooting according to the face angle designated for each subject. The timing can be automatically determined.
In the second embodiment, the processing contents and setting contents of the specific condition determination unit 9 and the processing execution unit 11 in the first embodiment are specialized for the purpose of the above processing.

特定条件判定部9は、処理実行部11によりスチルインムービー処理が実行される場合に、保存画像決定手段として、顔検出部7による被写体の顔の角度の判定結果に基づいて、画像記録部2に保存される連続する複数の画像フレーム(動画像データ)のうち、画像記録部2に静止画像として保存される所定の画像フレームを決定する。即ち、特定条件判定部9は、撮像部1による動画像の撮像中に、特定条件判定情報9aのメイン人物の顔状態に対応する優先度1の顔の向きの画像フレームを取得した場合に、当該画像フレームを保存対象静止画像として決定する指示に係る指示情報を処理実行部11に出力する。
ここで、スチルインムービー処理とは、動画撮影中に静止画を撮影する機能であり、自動化されていない通常のスチルインムービー処理の場合には、動画撮影中に撮影者がシャッターを押下すると動画撮影を一時的に中断して静止画の撮影記録を行い、静止画撮影の後、動画撮影を再開するものである。
When the still execution movie process is executed by the process execution unit 11, the specific condition determination unit 9 serves as a stored image determination unit based on the determination result of the face angle of the subject by the face detection unit 7. Among a plurality of continuous image frames (moving image data) stored in a predetermined image frame, a predetermined image frame stored as a still image in the image recording unit 2 is determined. That is, the specific condition determination unit 9 obtains an image frame with a face orientation of priority 1 corresponding to the face state of the main person in the specific condition determination information 9a during the capturing of a moving image by the image capturing unit 1. Instruction information related to an instruction to determine the image frame as a storage target still image is output to the process execution unit 11.
Here, the still-in movie processing is a function for taking a still image during movie shooting. In the case of normal still-in movie processing that is not automated, the movie is shot when the photographer presses the shutter during movie shooting. The shooting is temporarily interrupted to record and record a still image, and after the still image shooting, the moving image shooting is resumed.

次に、図7を参照して自動化されたスチルインムービー処理について説明する。
図7に示すように、先ず、操作入力部6のモード設定ボタンの所定操作に基づいてスチルインムービー処理モードに設定する。このとき、動画撮影中に静止画を撮影する条件についても特定条件判定情報9aに設定する。ここでは、動画撮影中にBさんの顔の向きがお気に入りの顔の向きとなった場合に静止画を撮影記録するものとし、特定条件判定情報9aのメイン人物を「Bさん」に、メイン人物の顔状態を「優先度1」に設定する。なお、スチルインムービー処理モードが設定された場合にはデフォルトで「優先度1」が設定され、これを変更する場合にユーザが任意の優先度または優先度の範囲を指定するものとする(ステップS1)。
次に、処理実行部11は、顔検出部7による顔検出機能及び顔認識機能がON状態であるか否かを判断し、ON状態である場合には、以下の自動化されたスチルインムービー処理を実行する。なお、OFF状態である場合には、通常のスチルインムービー処理を実行する。
Next, the still-in movie process automated will be described with reference to FIG.
As shown in FIG. 7, first, the still-in movie processing mode is set based on a predetermined operation of the mode setting button of the operation input unit 6. At this time, conditions for capturing a still image during moving image shooting are also set in the specific condition determination information 9a. Here, it is assumed that a still image is shot and recorded when the orientation of Mr. B's face becomes the favorite orientation during video recording, and the main person in the specific condition determination information 9a is set to “Mr. B”. Is set to “priority 1”. When the still-in movie processing mode is set, “priority 1” is set by default, and when changing this, the user designates an arbitrary priority or a range of priority (step) S1).
Next, the process execution unit 11 determines whether or not the face detection function and the face recognition function by the face detection unit 7 are in an ON state, and when they are in an ON state, the following automatic still-in movie process is performed. Execute. Note that in the OFF state, normal still-in movie processing is executed.

処理実行部11は、操作入力部6の所定の入力ボタンの所定操作(動画撮影の開始及び終了指示)に基づいて、指定された期間内、撮像部1により連続的に撮像を行って得られる画像データを逐次出力するように画像取得制御部3に対して指示する(ステップS2)。   The process execution unit 11 is obtained by performing continuous imaging with the imaging unit 1 within a specified period based on a predetermined operation (instruction for starting and ending moving image shooting) of a predetermined input button of the operation input unit 6. The image acquisition control unit 3 is instructed to sequentially output image data (step S2).

続けて、顔検出部7は、個人顔DB4を参照して、当該個人顔DB4の複数の顔画像情報と、前記指示に対応して画像取得制御部3から逐次出力される画像データ(画像フレーム)とを比較照合して(ステップS3)、顔個別検出情報8aを出力する(ステップS4)。
そして、特定条件判定部9は、顔検出部7から出力された顔個別検出情報8aを入力し、この顔個別検出情報8aに基づいて、特定条件判定情報9aに指定された優先度(ここでは最もお気に入りの顔の向きに対応する優先度1)の顔の向きの画像情報と一致するか否かを判定する(ステップS5)。ここで、優先度1の顔の向きの画像情報と一致すると判定されると(ステップS5;YES)、特定条件判定部9は、一致した画像データを静止画撮像の対象画像として指定する指示情報を出力する。または、この一致したタイミングを静止画像の撮影タイミングとして指定する指示情報を出力する(ステップS6)。
Subsequently, the face detection unit 7 refers to the personal face DB 4, a plurality of face image information of the personal face DB 4, and image data (image frame) sequentially output from the image acquisition control unit 3 in response to the instruction. ) Are compared (step S3), and face individual detection information 8a is output (step S4).
The specific condition determination unit 9 receives the face individual detection information 8a output from the face detection unit 7, and based on the face individual detection information 8a, the priority (here, the specific condition determination information 9a) is specified. It is determined whether or not it matches the image information of the face orientation with the priority 1) corresponding to the most favorite face orientation (step S5). Here, if it is determined that the image information matches the image information of the face orientation of priority 1 (step S5; YES), the specific condition determination unit 9 designates the matched image data as a target image for still image capturing. Is output. Alternatively, the instruction information specifying the coincidence timing as the still image capturing timing is output (step S6).

処理実行部11は、特定条件判定情報9aから出力された指示情報が入力されると、当該指示情報に係る画像フレームを自動的に静止画像として取得する。または、当該指示情報に係る撮影タイミングで自動的に静止画像を撮影して記録する(ステップS7)。
上記の処理を画像取得制御部3からの画像データの出力が終了するまで繰り返す(ステップS8;YES)。
When the instruction information output from the specific condition determination information 9a is input, the process execution unit 11 automatically acquires an image frame related to the instruction information as a still image. Alternatively, a still image is automatically photographed and recorded at the photographing timing related to the instruction information (step S7).
The above process is repeated until the output of the image data from the image acquisition control unit 3 is completed (step S8; YES).

次に、処理実行部11は、画像取得制御部3から出力された複数の画像フレームを動画ファイルに加工して画像記録部2に記録させるとともに、撮像された画像データを個別の静止画像として画像記録部2に記録させる(ステップS9)。
これにより、スチルインムービー処理を終了する。
Next, the processing execution unit 11 processes the plurality of image frames output from the image acquisition control unit 3 into a moving image file and records the processed image data in the image recording unit 2, and the captured image data as individual still images. Recording is performed in the recording unit 2 (step S9).
As a result, the still-in movie process is terminated.

以上のように、実施形態2の撮像装置100によれば、操作入力部6により指定された被写体の顔の向きと、顔検出部7により検出された被写体の顔の向きが等しくなっているか否かを判定して、当該判定結果に基づいて、処理実行部11による画像関連処理の処理対象となる画像データを決定することができるので、被写体毎に指定された顔の角度に応じて画像データの各種処理を優先的に行うことができる。
また、実施形態2では、スチルインムービー処理を自動化することができ、被写体のお気に入り(好み)の顔の角度の優先度を高くして特定条件判定情報9aに設定しておくことにより、当該顔の角度の画像データが撮像部1により生成されると、自動的に取得して画像記録部2に記録させることができ、より利便性の高い撮像装置を提供することができる。
As described above, according to the imaging apparatus 100 of the second embodiment, whether the face direction of the subject specified by the operation input unit 6 is equal to the face direction of the subject detected by the face detection unit 7 or not. Therefore, based on the determination result, it is possible to determine the image data to be processed by the process execution unit 11, so that the image data is determined according to the face angle specified for each subject. The various processes can be preferentially performed.
Further, in the second embodiment, the still-in movie process can be automated, and the priority of the face angle of the favorite (favorite) of the subject is increased and set in the specific condition determination information 9a. When the image data of the angle is generated by the imaging unit 1, it can be automatically acquired and recorded in the image recording unit 2, and a more convenient imaging device can be provided.

[実施形態3]
実施形態3は、実施形態1の撮像装置100を、画像削除処理の自動化に適用したものであり、特に、被写体毎に指定された顔の角度に応じて削除対象となる画像を自動決定できるようにしたものである。
この実施形態3では、実施形態1における特定条件判定部9および処理実行部11の処理内容や設定内容が、上記処理の目的に特化されたものとなる。
[Embodiment 3]
In the third embodiment, the imaging apparatus 100 according to the first embodiment is applied to the automation of image deletion processing, and in particular, an image to be deleted can be automatically determined according to the face angle designated for each subject. It is a thing.
In the third embodiment, the processing contents and setting contents of the specific condition determination unit 9 and the processing execution unit 11 in the first embodiment are specialized for the purpose of the above processing.

特定条件判定部9は、処理実行部11により画像削除処理が実行される場合に、削除画像決定手段として、顔検出部7による被写体の顔の角度の判定結果に基づいて、処理実行部11により削除される画像情報を決定する。即ち、特定条件判定部9は、特定条件判定情報9aの削除対象画像(図示略)に対応する優先度の最も低い顔の向きの画像情報を取得した場合に、当該画像情報を削除対象画像として決定する指示に係る指示情報を処理実行部11に出力する。   When the process execution unit 11 executes the image deletion process, the specific condition determination unit 9 serves as a deletion image determination unit based on the determination result of the face angle of the subject by the face detection unit 7. Determine the image information to be deleted. That is, when the specific condition determination unit 9 acquires image information of the face orientation with the lowest priority corresponding to the deletion target image (not shown) of the specific condition determination information 9a, the specific condition determination unit 9 sets the image information as the deletion target image. Instruction information related to the instruction to be determined is output to the process execution unit 11.

処理実行部11は、画像削除手段として、画像記録部2に保存された画像情報を削除する。具体的には、処理実行部11は、削除対象となる画像情報を実際に削除したり、削除対象となる画像情報をリストアップする。   The process execution unit 11 deletes the image information stored in the image recording unit 2 as an image deletion unit. Specifically, the process execution unit 11 actually deletes image information to be deleted or lists image information to be deleted.

次に、図8を参照して自動化された画像削除処理について説明する。
なお、以下の画像削除処理にあっては、削除対象としたい人物を予め選択しておき、当該人物の最も低い優先度(例えば、優先度5)の顔の向きとともに特定条件判定情報9aとして登録されているものとする。なお、画像削除処理モードが設定された場合にはデフォルトで「優先度5」が設定され、これを変更する場合にユーザが任意の優先度または優先度の範囲を指定するものとする。
Next, an automated image deletion process will be described with reference to FIG.
In the following image deletion process, a person to be deleted is selected in advance, and registered as specific condition determination information 9a together with the face orientation of the lowest priority (for example, priority 5) of the person. It is assumed that When the image deletion processing mode is set, “priority 5” is set by default, and when changing this, the user designates an arbitrary priority or a range of priorities.

図8に示すように、先ず、操作入力部6のモード設定ボタンの所定操作に基づいて画像削除処理モードに設定する(ステップS11)。
次に、処理実行部11は、顔検出部7による顔検出機能及び顔認識機能がON状態であるか否かを判断し、ON状態である場合には、以下の自動化された画像削除処理を実行する(OFF状態である場合には、通常の画像削除処理を実行する)。
処理実行部11は、操作入力部6の所定の入力ボタンの所定操作に基づいて、画像記録部2に記録されている画像ファイルのうち、指定された画像集合(グループ)内の画像ファイルを順に出力するように画像取得制御部3に対して指示する(ステップS12)。
As shown in FIG. 8, first, the image deletion processing mode is set based on a predetermined operation of the mode setting button of the operation input unit 6 (step S11).
Next, the process execution unit 11 determines whether or not the face detection function and the face recognition function by the face detection unit 7 are in an ON state, and when they are in an ON state, the following automatic image deletion process is performed. Execute (if the image is in the OFF state, execute a normal image deletion process).
Based on a predetermined operation of a predetermined input button of the operation input unit 6, the process execution unit 11 sequentially selects image files in a specified image set (group) among the image files recorded in the image recording unit 2. The image acquisition control unit 3 is instructed to output (step S12).

続けて、顔検出部7は、個人顔DB4を参照して、当該個人顔DB4の複数の顔画像情報と、前記指示に対応して画像取得制御部3から逐次出力される画像ファイルとを比較照合して(ステップS13)、顔個別検出情報8aを出力する(ステップS14)。
そして、特定条件判定部9は、顔検出部7から出力された顔全体検出情報8bを入力し、この顔全体検出情報8bに基づいて、特定条件判定情報9aに指定された優先度(ここでは最も写りの悪い顔の向きに対応する優先度5)の顔の向きの画像情報と一致するか否かを判定する(ステップS15)。ここで、優先度5の顔の向きの画像情報と一致すると判定されると(ステップS15;YES)、特定条件判定部9は、一致した画像データを画像削除の対象画像として指定する指示情報を出力する(ステップS16)。
Subsequently, the face detection unit 7 refers to the personal face DB 4 and compares the plurality of face image information of the personal face DB 4 with the image file sequentially output from the image acquisition control unit 3 in response to the instruction. After collation (step S13), the face individual detection information 8a is output (step S14).
The specific condition determination unit 9 receives the entire face detection information 8b output from the face detection unit 7, and based on the entire face detection information 8b, the priority (here, the specific condition determination information 9a) is specified. It is determined whether or not it matches the image information of the face orientation of priority 5) corresponding to the face orientation with the worst reflection (step S15). If it is determined that the image information matches the image information of the face orientation of priority 5 (step S15; YES), the specific condition determination unit 9 specifies instruction information for designating the matched image data as an image deletion target image. Output (step S16).

処理実行部11は、特定条件判定情報9aから出力された指示情報が入力されると、当該指示情報に係る画像ファイルを削除対象画像として取得して、削除リストに追加する(ステップS17)。
上記の処理を画像取得制御部3からの画像ファイルの出力が終了するまで繰り返す(ステップS18;YES)。
When the instruction information output from the specific condition determination information 9a is input, the process execution unit 11 acquires the image file related to the instruction information as a deletion target image and adds it to the deletion list (step S17).
The above process is repeated until the output of the image file from the image acquisition control unit 3 is completed (step S18; YES).

そして、処理実行部11は、削除前のユーザ確認モードが設定されているか否かを判定して(ステップS49)、ユーザ確認モードが設定されていないならば(ステップS19;NO)、削除リストにリストアップされた画像ファイルを直ちに(自動的に)削除する(ステップS20)。
一方、ユーザ確認モードが設定されているならば(ステップS19;YES)、削除リストを一覧表示して、ユーザの指示に応じて削除する(ステップS21)。
これにより、画像削除処理を終了する。
And the process execution part 11 determines whether the user confirmation mode before deletion is set (step S49), and if the user confirmation mode is not set (step S19; NO), it will be in a deletion list. The listed image file is immediately (automatically) deleted (step S20).
On the other hand, if the user confirmation mode is set (step S19; YES), the deletion list is displayed as a list and deleted according to the user's instruction (step S21).
Thus, the image deletion process is terminated.

以上のように、実施形態3の撮像装置100によれば、操作入力部6により指定された被写体の顔の向きと、顔検出部7により検出された被写体の顔の向きが等しくなっているか否かを判定して、当該判定結果に基づいて、処理実行部11による画像関連処理の処理対象となる画像データを決定することができるので、被写体毎に指定された顔の角度に応じて画像データの各種処理を優先的に行うことができる。
また、実施形態3では、画像削除処理を自動化することができ、被写体のそれほど好きではない顔の角度の優先度を低くして特定条件判定情報9aに設定しておくことにより、当該顔の角度の画像ファイルを画像記録部2から取得して、自動的に削除候補としてリストアップすることができ、ユーザの好きな顔のみの画像を画像記録部2に残すことができることとなって、より利便性の高い撮像装置を提供することができる。
As described above, according to the imaging apparatus 100 of the third embodiment, whether the face orientation of the subject specified by the operation input unit 6 is equal to the face orientation of the subject detected by the face detection unit 7 or not. Therefore, based on the determination result, it is possible to determine the image data to be processed by the process execution unit 11, so that the image data is determined according to the face angle specified for each subject. The various processes can be preferentially performed.
Further, in the third embodiment, the image deletion process can be automated, and the priority of the angle of the face that the subject does not like so much is lowered and set in the specific condition determination information 9a, whereby the angle of the face is determined. Can be obtained from the image recording unit 2 and automatically listed as deletion candidates, and an image of only the user's favorite face can be left in the image recording unit 2, which is more convenient. An imaging device with high performance can be provided.

[実施形態4]
実施形態4は、実施形態1の撮像装置100を、モーションプリント処理の自動化に適用したものであり、特に、被写体毎に指定された顔の角度に応じてモーションプリント処理におけるメイン画像や周囲画像を自動決定できるようにしたものである。
この実施形態4では、実施形態1における特定条件判定部9および処理実行部11の処理内容や設定内容が、上記処理の目的に特化されたものとなる。
[Embodiment 4]
In the fourth embodiment, the imaging apparatus 100 according to the first embodiment is applied to the automation of the motion print process. In particular, the main image and the surrounding image in the motion print process are displayed according to the face angle specified for each subject. It can be automatically determined.
In the fourth embodiment, the processing contents and setting contents of the specific condition determination unit 9 and the processing execution unit 11 in the first embodiment are specialized for the purpose of the above processing.

ここで、モーションプリント処理とは、動画データ内から抽出した複数のフレーム画像を所定のレイアウトで配置および合成して1枚の静止画を生成(印刷)するものであり、自動化されていないモーションプリント処理の場合には、上記所定のレイアウトにおいてメインに配置される(例えば中央に配置される)フレームをユーザが選択するものである。   Here, the motion print processing is to generate (print) one still image by arranging and synthesizing a plurality of frame images extracted from moving image data in a predetermined layout, and is not an automated motion print In the case of processing, the user selects a frame that is mainly arranged (for example, arranged in the center) in the predetermined layout.

実施形態4では、図9に示すように、複数の判定条件901〜90nから構成された特定条件判定情報209aを記憶し、処理実行部11は、各判定条件に従ってモーションプリント処理を行う。   In the fourth embodiment, as illustrated in FIG. 9, specific condition determination information 209 a configured from a plurality of determination conditions 901 to 90 n is stored, and the process execution unit 11 performs a motion print process according to each determination condition.

特定条件判定情報209aは、図10(a)に示すように、例えば、各条件番号(判定条件)と、顔検出総数、個人認識総数、グループ、グループ一致度、全体の動き、メイン人物、メイン人物の顔状態(優先度)、メイン人物のサイズ等が対応付けられたものである。また、各条件番号は、図10(b)に示すように、起動中の各処理と、特定画像(特定タイミング)の扱い等が対応付けられている。
例えば、特定条件判定情報209aとして、条件番号1の判定条件は、メイン人物「Bさん」と、メイン人物の顔の状態「優先度1」と、起動中の処理「モーションプリント」と、特定画像を「メイン画像M」として扱うことが対応付けられている。同様に、条件番号2の判定条件は、メイン人物「Bさん」と、メイン人物の顔の状態「優先度2〜4」と、起動中の処理「モーションプリント」と、特定画像を「周囲(サブ)画像」として扱うことが対応付けられている。
As shown in FIG. 10A, the specific condition determination information 209a includes, for example, each condition number (determination condition), face detection total number, personal recognition total number, group, group matching degree, overall movement, main person, main The face state (priority) of the person, the size of the main person, and the like are associated with each other. In addition, as shown in FIG. 10B, each condition number associates each process being activated with the handling of a specific image (specific timing).
For example, as the specific condition determination information 209a, the determination condition of condition number 1 includes the main person “Mr. B”, the face state “priority 1” of the main person, the process “motion print” being activated, and the specific image Is handled as “main image M”. Similarly, the judgment condition of condition number 2 is that the main person “Mr. B”, the face state “priority 2 to 4” of the main person, the process “motion print” being activated, and the specific image “ Handling as “sub) image” is associated.

特定条件判定部9は、処理実行部11によりモーションプリント処理が実行される場合に、主画像決定手段として、顔検出部7による被写体の顔の角度の判定結果に基づいて、処理実行部11により生成される合成画像の主画像に係る画像情報を決定する。即ち、特定条件判定部9は、撮像部1による連続する複数の画像の撮像中に、特定条件判定情報209aのメイン人物の顔状態に対応する優先度1の顔の向きの画像情報を取得した場合に、当該画像情報をメイン画像Mとして決定する指示に係る指示情報を処理実行部11に出力する。   When the motion printing process is executed by the process execution unit 11, the specific condition determination unit 9 is used as a main image determination unit by the process execution unit 11 based on the determination result of the face angle of the subject by the face detection unit 7. Image information related to the main image of the composite image to be generated is determined. That is, the specific condition determination unit 9 acquires the image information of the priority 1 face orientation corresponding to the face state of the main person in the specific condition determination information 209a during the imaging of a plurality of consecutive images by the imaging unit 1. In this case, the instruction information related to the instruction to determine the image information as the main image M is output to the process execution unit 11.

即ち、処理実行部11は、合成画像生成手段として、連続する複数の画像フレーム(動画像データ)から一の合成画像を生成する。具体的には、処理実行部11は、複数の画像フレームの中から、メイン画像Mとなる画像フレームを一つ選択するとともに、当該メイン画像Mの周囲に配置されるサブ画像Sとなる画像フレームを所定数選択する(図11参照)。
ここで、処理実行部11は、特定条件判定部9により一致すると判定された条件に対応する動作を選択的に実行するようになっている。
That is, the process execution unit 11 generates one composite image from a plurality of continuous image frames (moving image data) as a composite image generation unit. Specifically, the process execution unit 11 selects one image frame to be the main image M from among the plurality of image frames, and the image frame to be the sub image S arranged around the main image M. A predetermined number is selected (see FIG. 11).
Here, the process execution unit 11 selectively executes an operation corresponding to the condition determined to be matched by the specific condition determination unit 9.

以下に、図12及び図13を参照してモーションプリント処理について説明する。
なお、モーションプリント処理は、顔検出部7による顔検出機能及び顔認識機能がON状態で実行されるものとする。
Hereinafter, the motion print process will be described with reference to FIGS.
It is assumed that the motion print process is executed when the face detection function and the face recognition function by the face detection unit 7 are ON.

図12に示すように、先ず、操作入力部6のモード設定ボタンの所定操作に基づいてモーションプリント処理モードに設定する(ステップS31)。
次に、処理実行部11は、操作入力部6の所定の入力ボタンの所定操作に基づいて、指定された期間内、撮像部1により連続的に撮像を行って得られる画像データを逐次出力するように画像取得制御部3に対して指示する(ステップS32)。
As shown in FIG. 12, first, the motion print processing mode is set based on a predetermined operation of the mode setting button of the operation input unit 6 (step S31).
Next, the process execution unit 11 sequentially outputs image data obtained by continuously capturing images with the imaging unit 1 within a specified period based on a predetermined operation of a predetermined input button of the operation input unit 6. In this way, the image acquisition control unit 3 is instructed (step S32).

続けて、顔検出部7は、個人顔DB4を参照して、当該個人顔DB4の複数の顔画像情報と、画像取得制御部3から出力される画像データ(画像フレーム)とを比較照合して(ステップS33)、顔全体検出情報8bを出力する(ステップS34)。
そして、特定条件判定部9は、顔検出部7から出力され入力された顔全体検出情報8bに基づいて、特定条件判定情報209aの条件番号1に係るメイン人物の顔状態に対応する優先度1の顔の向きの画像情報と一致するか否かを判定する(ステップS35)。ここで、優先度1の顔の向きの画像情報と一致すると判定されると(ステップS35;YES)、特定条件判定部9は、一致した画像データをメイン画像Mとして指定する指示情報を出力する(ステップS36)。
また、ステップS35にて、優先度1の顔の向きの画像情報と一致しないと判定されると(ステップS35;NO)、特定条件判定部9は、特定条件判定情報209aの条件番号1に係るメイン人物の顔状態に対応する優先度2〜4の顔の向きの画像情報と一致するか否かを判定する(ステップS37)。ここで、優先度2〜4の顔の向きの画像情報と一致すると判定されると(ステップS37;YES)、特定条件判定部9は、一致した画像データをメイン画像Mの周辺に配置されるサブ画像Sとして指定する指示情報を出力する(ステップS38)。
Subsequently, the face detection unit 7 refers to the personal face DB 4 and compares and collates the plurality of face image information of the personal face DB 4 with the image data (image frame) output from the image acquisition control unit 3. (Step S33), the entire face detection information 8b is output (Step S34).
Then, the specific condition determination unit 9 has a priority 1 corresponding to the face state of the main person related to the condition number 1 of the specific condition determination information 209a based on the entire face detection information 8b output and input from the face detection unit 7. It is determined whether the image information matches the image information of the face direction (step S35). Here, when it is determined that the image information matches the image information of the face orientation of priority 1 (step S35; YES), the specific condition determination unit 9 outputs instruction information specifying the matched image data as the main image M. (Step S36).
If it is determined in step S35 that the image information does not match the image information of the priority 1 face orientation (step S35; NO), the specific condition determination unit 9 relates to condition number 1 of the specific condition determination information 209a. It is determined whether or not it matches the image information of the face orientations of priorities 2 to 4 corresponding to the face state of the main person (step S37). Here, if it is determined that the image information matches the image information of the face orientations with priorities 2 to 4 (step S37; YES), the specific condition determination unit 9 arranges the matched image data around the main image M. Instruction information to be designated as the sub image S is output (step S38).

処理実行部11は、特定条件判定部9から出力された指示情報が入力されると、特定条件判定情報209aの各条件番号に一致することを示すフラグを該当する画像フレームに付加する(ステップS39)。
上記の処理を画像取得制御部3からの画像データの出力が終了するまで繰り返す(ステップS40;YES)。
When the instruction information output from the specific condition determination unit 9 is input, the process execution unit 11 adds a flag indicating that it matches each condition number of the specific condition determination information 209a to the corresponding image frame (step S39). ).
The above process is repeated until the output of the image data from the image acquisition control unit 3 is completed (step S40; YES).

次に、処理実行部11は、画像取得制御部3から出力された複数の画像フレームをフラグの情報とともに動画ファイルに加工して画像記録部2に記録させる(ステップS41)。   Next, the process execution unit 11 processes the plurality of image frames output from the image acquisition control unit 3 into a moving image file together with flag information, and causes the image recording unit 2 to record it (step S41).

直ちにプリントを実行することが指示されていない場合には、図13に示す処理は、ユーザからの指示に応じて後日、任意のタイミングで実行する。
図13に示すように、実行処理部は、動画ファイル内に含まれる複数の画像フレームを所定のレイアウト情報に従って配置合成する際に、条件番号1に対応するフラグが付加されている画像フレームをメイン画像Mとして中央位置に最も大きいサイズで配置する(ステップS42)。
次に、処理実行部11は、条件番号2に対応するフラグが付加されている画像フレームをサブ画像Sとしてレイアウト情報に従ってメイン画像Mの周辺に小さく配置して合成する(ステップS43)。
If it is not instructed to execute printing immediately, the processing shown in FIG. 13 is executed at an arbitrary timing at a later date in accordance with an instruction from the user.
As shown in FIG. 13, when the execution processing unit arranges and synthesizes a plurality of image frames included in the moving image file according to predetermined layout information, the execution processing unit selects the image frame to which the flag corresponding to the condition number 1 is added. The image M is arranged with the largest size at the center position (step S42).
Next, the processing execution unit 11 arranges the image frame to which the flag corresponding to the condition number 2 is added as a sub image S in a small size around the main image M according to the layout information (step S43).

処理実行部11は、配置合成された1枚の合成画像をユーザからの指示に従って画像記録部2に記録させたり、或いは、当該撮像装置と接続された印刷機器を用いて印刷する(ステップS44)。
これにより、モーションプリント処理を終了する。
The process execution unit 11 causes the image recording unit 2 to record the single combined image that has been arranged and synthesized in accordance with an instruction from the user, or prints it using a printing device connected to the imaging apparatus (step S44). .
Thus, the motion print process is completed.

以上のように、実施形態4の撮像装置200によれば、操作入力部6により指定された被写体の顔の向きと、顔検出部7により検出された被写体の顔の向きが等しくなっているか否かを判定して、当該判定結果に基づいて、処理実行部11による画像関連処理の処理対象となる画像データを決定することができるので、被写体毎に指定された顔の角度に応じて画像データの各種処理を優先的に行うことができる。
即ち、モーションプリント処理にて、被写体のお気に入り(好み)の顔の角度の優先度を高くして特定条件判定情報209aに設定しておくことにより、当該顔の角度の画像データが撮像部1により生成されると、メイン画像Mとして自動的に取得することができ、より利便性の高い撮像装置を提供することができる。また、特定条件判定情報209aの判定条件を複数として、メイン画像Mの周辺に配置されるサブ画像Sの優先度をメイン画像Mの優先度よりも低くすることにより、サブ画像Sを自動的に取得することができる。
従って、メイン画像M及びサブ画像Sが所定の位置に適正に配置されたモーションプリントを自動的に作成することができる。
As described above, according to the imaging apparatus 200 of the fourth embodiment, whether or not the face direction of the subject specified by the operation input unit 6 and the face direction of the subject detected by the face detection unit 7 are equal. Therefore, based on the determination result, it is possible to determine the image data to be processed by the process execution unit 11, so that the image data is determined according to the face angle specified for each subject. The various processes can be preferentially performed.
That is, in the motion print process, the priority of the favorite (favorite) face angle of the subject is set high in the specific condition determination information 209a so that the image data of the face angle is captured by the imaging unit 1. Once generated, it can be automatically acquired as the main image M, and a more convenient imaging device can be provided. In addition, by making the determination conditions of the specific condition determination information 209a plural, and making the priority of the sub-image S arranged around the main image M lower than the priority of the main image M, the sub-image S is automatically set. Can be acquired.
Therefore, it is possible to automatically create a motion print in which the main image M and the sub image S are properly arranged at predetermined positions.

なお、ステップS32にて、画像取得制御部3は、撮像部1により取得された画像データを逐次出力するようにしたが、これに限られるものではなく、画像記録部2に記録され、ユーザによって指示された画像集合(グループ)内の画像ファイルを順番に出力するようにしても良い。   In step S32, the image acquisition control unit 3 sequentially outputs the image data acquired by the imaging unit 1. However, the image acquisition control unit 3 is not limited to this, and is recorded in the image recording unit 2, and is recorded by the user. The image files in the instructed image set (group) may be output in order.

また、上記のモーションプリント処理にあっては、操作入力部6の所定の入力ボタンの所定操作に基づいて、モーションプリント処理の対象となる被写体の人物名(例えば、「A子さん」)が設定されると、顔検出部7は、個人顔DB4の複数の顔画像情報のうち、当該人物に係る顔画像情報を優先的に選択して比較照合用のデータとして取得するようにしても良い。これにより、当該人物に係る顔画像情報を優先的に処理対象とすることができる。   Further, in the above-described motion print processing, based on a predetermined operation of a predetermined input button of the operation input unit 6, a person name (for example, “A child”) of a subject to be subjected to the motion print processing is set. Then, the face detection unit 7 may preferentially select the face image information related to the person from among the plurality of face image information in the personal face DB 4 and obtain the data as data for comparison and collation. Thereby, the face image information related to the person can be preferentially processed.

さらに、特定条件判定情報209aの条件番号2に従って、サブ画像Sを選択して取得するようにしたが、これに限られるものではなく、例えば、メイン画像Mに対して一定間隔を空けて配置された画像フレームや前後との変化量の多い画像フレームを選択するようにしても良い。   Furthermore, the sub image S is selected and acquired according to the condition number 2 of the specific condition determination information 209a. However, the sub image S is not limited to this, and for example, the sub image S is arranged with a certain interval with respect to the main image M. Alternatively, an image frame or an image frame having a large amount of change between before and after may be selected.

また、上記実施形態にあっては、複数の判定条件901〜90nに応じた処理をモーションプリント処理に適用して説明したが、これに限られるものではなく、例えば、スチルインムービー処理、自動シャッター処理、画像削除処理等の各種の処理に適用するようにしても良い。   In the above embodiment, the processing according to the plurality of determination conditions 901 to 90n is applied to the motion print processing. However, the present invention is not limited to this. For example, still-in movie processing, automatic shutter You may make it apply to various processes, such as a process and an image deletion process.

[実施形態5]
実施形態5は、実施形態1の撮像装置100を、集合写真の撮影や集合写真の撮影に関連した関連処理の自動化に適用したものであり、特に、撮影フレーム内に検出(認識)される集合写真のメンバーが所定の状態となった場合に自動的に静止画を撮影したり、静止画撮影に関連した関連処理を行うようにしたものである。
この実施形態5では、実施形態1における特定条件判定部9および処理実行部11の処理内容や設定内容が、上記処理の目的に特化されたものとなる。
[Embodiment 5]
In the fifth embodiment, the imaging apparatus 100 according to the first embodiment is applied to the automation of related processing related to group photo shooting and group photo shooting. In particular, the group detected (recognized) in a shooting frame. When a member of a photo is in a predetermined state, a still image is automatically taken or related processing related to still image shooting is performed.
In the fifth embodiment, the processing contents and setting contents of the specific condition determination unit 9 and the processing execution unit 11 in the first embodiment are specialized for the purpose of the above processing.

実施形態5の撮像装置300は、図14に示すように、複数の判定条件901〜90nから構成された特定条件判定情報309aを記憶し、処理実行部11は、各判定条件に従って自動シャッター処理や当該処理に関連した関連処理を行う。   As illustrated in FIG. 14, the imaging apparatus 300 according to the fifth embodiment stores specific condition determination information 309a including a plurality of determination conditions 901 to 90n, and the process execution unit 11 performs automatic shutter processing and the like according to each determination condition. A related process related to the process is performed.

即ち、特定条件判定情報309aは、図15(a)及び図15(b)に示すように、例えば、条件番号1の判定条件は、グループ「Bさんの家族」と、グループ一致度「70〜80%」と、起動中の処理「自動撮影」と、特定タイミングで「グループのメンバーが足りないことの警告」を行うことが対応付けられている。同様に、条件番号2の判定条件は、グループ「Bさんの家族」と、グループ一致度「80%以上」と、全体の動き「動き有り」と、起動中の処理「自動撮影」と、特定タイミングで「グループのメンバー全員が静止していないことの警告」を行うことが対応付けられている。同様に、条件番号3の判定条件は、グループ「Bさんの家族」と、グループ一致度「80%以上」と、全体の動き「動き無し」と、起動中の処理「自動撮影」と、特定タイミングで「撮影記録」を行うことが対応付けられている。
ここで、グループ一致度「70〜80%」は、例えばBさんの家族が全員で4人である場合に、カメラを操作する一人の撮影者を除く全てのメンバーが揃ったときに合致するように設定された数値であり、グループ一致度「80%以上」は、4人全員が揃ったときに合致するように設定された数値である。このグループ一致度は、グループ全体の人数に応じて変更されるものであり、パーセンテージではなく人数を指定するようにしてもよい。
That is, as shown in FIGS. 15A and 15B, the specific condition determination information 309a includes, for example, the determination condition of condition number 1 is the group “Mr. B's family” and the group matching degree “70˜ “80%” is associated with the process “automatic photographing” being activated and “warning that there are not enough members in the group” at a specific timing. Similarly, the determination condition of condition number 2 is the group “Mr. B's family”, the group matching degree “80% or more”, the overall movement “with movement”, and the process “automatic shooting” being activated. It is associated with “warning that all members of the group are not stationary” at the timing. Similarly, the determination condition of condition number 3 is specified as the group “family of Mr. B”, the group matching degree “80% or more”, the entire movement “no movement”, and the process “automatic shooting” being activated. Performing “shooting and recording” at the timing is associated.
Here, the group matching degree “70 to 80%” matches, for example, when all members except one photographer who operates the camera are gathered when Mr. B's family is four in total. The group matching degree “80% or more” is a numerical value set so as to match when all four people are together. The group matching degree is changed according to the number of people in the entire group, and the number of people may be designated instead of the percentage.

特定条件判定部9は、処理実行部11により自動シャッター処理が実行される場合に、保存画像決定手段として、顔検出部7による被写体の顔の角度の判定結果に基づいて、画像記録部2に保存される画像情報を決定する。即ち、特定条件判定部9は、撮像部1によるスルー画像の撮像中に、特定条件判定情報309aのグループ「Bさんの家族」のグループ一致度が80%以上となって、且つ、全体の動きがなくなった状態の画像情報を静止画像として決定する指示に係る指示情報を処理実行部11に出力する。   When the automatic shutter process is executed by the process execution unit 11, the specific condition determination unit 9 serves as a stored image determination unit in the image recording unit 2 based on the determination result of the face angle of the subject by the face detection unit 7. Determine the image information to be saved. That is, the specific condition determination unit 9 has a group matching degree of the group “Mr. B's family” in the specific condition determination information 309a of 80% or more during the capturing of the through image by the imaging unit 1, and the entire movement. The instruction information related to the instruction to determine the image information in a state where there is no more as a still image is output to the process execution unit 11.

処理実行部11は、撮像関連処理実行手段として、顔検出部7により照合された顔画像の数に応じて、撮像部1による被写体の撮像に関連する撮像関連処理を実行する。即ち、処理実行部11は、顔検出部7により検出された顔画像と個人毎及びグループ毎の照合結果に応じて、即ち、個人顔DB4に登録された顔画像情報やグループDB5のメンバーとの照合結果に応じて、例えば、顔検出部7により所定のグループのメンバーの顔画像が照合されてグループ一致度が所定割合以上となって、且つ、全体の動きがなくなった場合に、撮像部1による被写体の撮像を自動的に行わせる自動シャッター処理を実行する。   The processing execution unit 11 executes imaging-related processing related to imaging of the subject by the imaging unit 1 according to the number of face images collated by the face detection unit 7 as imaging-related processing execution means. In other words, the process execution unit 11 corresponds to the face image detected by the face detection unit 7 and the collation result for each person and each group, that is, the face image information registered in the individual face DB 4 and the members of the group DB 5. In accordance with the collation result, for example, when the face detection unit 7 collates face images of members of a predetermined group, the group matching degree is equal to or higher than a predetermined ratio, and the entire movement is lost, the imaging unit 1 An automatic shutter process for automatically capturing an image of the subject is executed.

処理実行部11は、焼き増し数設定手段として、撮像部1により撮像された画像データの焼き増し数を設定する。具体的には、処理実行部11は、顔検出部7により検出された顔画像と個人毎及びグループ毎の照合結果に応じて、即ち、個人顔DB4に登録された顔画像情報やグループDB5のメンバーとの照合結果に応じて焼き増し数を設定する。   The process execution unit 11 sets the number of extra prints of the image data captured by the imaging unit 1 as the extra number setting unit. Specifically, the process execution unit 11 corresponds to the face image detected by the face detection unit 7 and the collation result for each individual and each group, that is, the face image information registered in the personal face DB 4 and the group DB 5. The number of extra prints is set according to the collation result with the member.

次に、図16を参照して自動シャッター処理について説明する。
なお、自動シャッター処理は、顔検出部7による顔検出機能及び顔認識機能がON状態で実行されるものとする。
Next, automatic shutter processing will be described with reference to FIG.
It is assumed that the automatic shutter process is executed when the face detection function and the face recognition function by the face detection unit 7 are ON.

図16に示すように、先ず、操作入力部6のモード設定ボタンの所定操作に基づいて自動シャッター処理モードに設定する(ステップS51)。
次に、処理実行部11は、操作入力部6の所定の入力ボタンの所定操作に基づいて、指定された期間内、撮像部1により連続的に撮像を行って得られるモニタ表示用の画像データを逐次出力するように画像取得制御部3に対して指示する(ステップS52)。
As shown in FIG. 16, first, the automatic shutter processing mode is set based on a predetermined operation of the mode setting button of the operation input unit 6 (step S51).
Next, the process execution unit 11 performs monitor display image data obtained by continuously capturing images within the specified period based on a predetermined operation of a predetermined input button of the operation input unit 6. Are sequentially output to the image acquisition control unit 3 (step S52).

続けて、顔検出部7は、個人顔DB4を参照して、当該個人顔DB4の複数の顔画像情報と、画像取得制御部3から出力される画像データ(画像フレーム)とを比較照合して、顔個別検出情報8aを出力する(ステップS53)。また、顔検出部7は、グループDB5を参照して、各グループ内の複数のメンバーと検出された複数の人物とを照合して、顔全体検出情報8bを出力する(ステップS54)。   Subsequently, the face detection unit 7 refers to the personal face DB 4 and compares and collates the plurality of face image information of the personal face DB 4 with the image data (image frame) output from the image acquisition control unit 3. The face individual detection information 8a is output (step S53). Further, the face detection unit 7 refers to the group DB 5 to collate a plurality of members in each group with a plurality of detected persons, and outputs the entire face detection information 8b (step S54).

そして、特定条件判定部9は、顔検出部7から出力され入力された全体検出情報8bに基づいて、特定条件判定情報309aの条件番号1または条件番号2に規定された各判定条件と一致するか否かを判定する(ステップS55)。ここで、条件番号1の各判定条件と一致すると判定されると(ステップS55;YES)、特定条件判定部9は、画像データが一致したタイミングで「メンバーが足りないことの警告」を発する指示情報を出力する。また、条件番号2の各判定条件と一致すると判定された場合は、「グループのメンバー全員が静止していないことの警告」を発する指示情報を出力する(ステップS56)。 また、ステップS55にて、条件番号1、条件番号2の各判定条件と一致しないと判定されると(ステップS55;NO)、特定条件判定部9は、特定条件判定情報309aの条件番号2に規定された各判定条件と一致するか否かを判定する(ステップS57)。ここで、条件番号2の各判定条件と一致すると判定されると(ステップS57;YES)、特定条件判定部9は、画像データが一致したタイミングで「撮影記録」を行うことの指示情報を出力する(ステップS58)。   Then, the specific condition determination unit 9 matches each determination condition defined in condition number 1 or condition number 2 of the specific condition determination information 309a based on the entire detection information 8b output and input from the face detection unit 7. It is determined whether or not (step S55). Here, if it is determined that the condition number 1 matches each determination condition (step S55; YES), the specific condition determination unit 9 issues an instruction to issue a “warning for lack of members” at the timing when the image data matches. Output information. If it is determined that the condition number 2 matches each determination condition, instruction information for issuing a “warning that all members of the group are not stationary” is output (step S56). Further, when it is determined in step S55 that the determination conditions of condition number 1 and condition number 2 do not match (step S55; NO), the specific condition determination unit 9 sets the condition number 2 of the specific condition determination information 309a. It is determined whether or not each of the specified determination conditions is met (step S57). Here, if it is determined that each of the determination conditions of condition number 2 matches (step S57; YES), the specific condition determination unit 9 outputs instruction information for performing “shooting and recording” at the timing when the image data matches. (Step S58).

処理実行部11は、特定条件判定情報309aから出力された「警告」に係る指示情報が入力されると、表示部10を制御して所定の警告画面を表示させたり、スピーカ(図示略)から所定の警告音を発生させる(ステップS59)。
また、処理実行部11は、特定条件判定情報309aから出力された「撮影記録」に係る指示情報が入力されると、当該指示情報に係る画像フレームを静止画像として取得する(ステップS60)。
上記の処理を画像取得制御部3からの画像データの出力が終了するまで繰り返す(ステップS61;YES)。
When the instruction information related to “warning” output from the specific condition determination information 309a is input, the process execution unit 11 controls the display unit 10 to display a predetermined warning screen or from a speaker (not shown). A predetermined warning sound is generated (step S59).
Further, when the instruction information related to “shooting and recording” output from the specific condition determination information 309a is input, the process execution unit 11 acquires the image frame related to the instruction information as a still image (step S60).
The above process is repeated until the output of the image data from the image acquisition control unit 3 is completed (step S61; YES).

次に、処理実行部11は、撮像された画像データを個別の静止画像として画像記録部2に記録させる(ステップS62)。
これにより、自動シャッター処理を終了する。
Next, the process execution unit 11 causes the image recording unit 2 to record the captured image data as individual still images (step S62).
Thereby, the automatic shutter process is terminated.

次に、図17を参照して焼き増し数設定処理について説明する。
なお、以下の焼き増し数設定処理にあっては、特定条件判定情報309aに所定のグループ(例えば、「Aさんの家族」)が予め登録されているものとする。
Next, the extra number setting process will be described with reference to FIG.
In the following extra number setting process, it is assumed that a predetermined group (for example, “A's family”) is registered in advance in the specific condition determination information 309a.

図13に示すように、先ず、操作入力部6のモード設定ボタンの所定操作に基づいて焼き増し数設定処理モードに設定する(ステップS71)。
次に、処理実行部11は、操作入力部6の所定の入力ボタンの所定操作に基づいて、画像記録部2に記録されている画像ファイルのうち、指定された画像集合(グループ)内の画像ファイルを順に出力するように画像取得制御部3に対して指示する(ステップS72)。
As shown in FIG. 13, first, the extra number setting processing mode is set based on a predetermined operation of the mode setting button of the operation input unit 6 (step S71).
Next, the process execution unit 11 selects an image in a specified image set (group) among the image files recorded in the image recording unit 2 based on a predetermined operation of a predetermined input button of the operation input unit 6. The image acquisition control unit 3 is instructed to output the files in order (step S72).

続けて、顔検出部7は、個人顔DB4を参照して、当該個人顔DB4の複数の顔画像情報と、画像取得制御部3から出力される画像データ(画像フレーム)とを比較照合して、顔個別検出情報8aを出力する(ステップS73)。また、顔検出部7は、グループDB5を参照して、各グループ内の複数のメンバーと検出された複数の人物とを照合して、顔全体検出情報8bを出力する(ステップS74)。
そして、特定条件判定部9は、顔検出部7から出力され入力された顔個別検出情報8a及び顔全体検出情報8bに基づいて、特定条件判定情報309aに規定された所定のグループと一致するか否かを判定する(ステップS75)。ここで、所定のグループと一致すると判定されると(ステップS75;YES)、特定条件判定部9は、顔全体検出情報8bの個人認識総数から「グループのメンバー数−1」を減算した値を焼き増し数として設定する(ステップS76)。
一方、所定のグループと一致しないと判定されると(ステップS75;NO)、特定条件判定部9は、顔全体検出情報8bの個人認識総数に対応する値を焼き増し数として設定する(ステップS77)。
これにより、焼き増し数設定処理を終了する。
Subsequently, the face detection unit 7 refers to the personal face DB 4 and compares and collates the plurality of face image information of the personal face DB 4 with the image data (image frame) output from the image acquisition control unit 3. The face individual detection information 8a is output (step S73). Further, the face detection unit 7 refers to the group DB 5 and collates a plurality of members in each group with a plurality of detected persons, and outputs the entire face detection information 8b (step S74).
Then, whether the specific condition determination unit 9 matches the predetermined group defined in the specific condition determination information 309a based on the individual face detection information 8a and the whole face detection information 8b input from the face detection unit 7 It is determined whether or not (step S75). Here, if it is determined that it matches the predetermined group (step S75; YES), the specific condition determination unit 9 subtracts “number of group members−1” from the total number of personal recognitions of the entire face detection information 8b. The number of extra prints is set (step S76).
On the other hand, if it is determined that it does not match the predetermined group (step S75; NO), the specific condition determination unit 9 sets a value corresponding to the total number of personal recognitions of the entire face detection information 8b as the number of extra prints (step S77). .
Thus, the extra number setting process is completed.

以上のように、実施形態5の撮像装置300によれば、顔検出部7により照合された顔画像の数及び顔画像の動き量に応じて、撮像部1による被写体の撮像に関連する撮像関連処理を実行することができるので、顔認識技術を活用して複数の被写体の撮像を効果的に行うことができる。即ち、顔検出部7により検出された顔画像と個人顔DB4及びグループDB5に登録された顔画像情報との比較照合を個人毎及びグループ毎に行うことができ、グループのメンバーのうち、一致度が所定の割合以上となって、且つ、顔画像の動きがなくなった状態で、自動的にシャッターをきって静止画像を撮像することができる。これにより、集合写真の撮像を失敗することなく適正に撮像することができる。例えば、集合写真の撮影において、一人を除く全てのメンバーがカメラの前に集合したときに警告を行えば、あと一人が揃えば自動的に撮影が行われることを知って事前に笑顔を作るなどの準備をすることができ、また、全てのメンバーが揃っても、メンバー全員が静止していない場合に警告を行うので、必要なタイミングで動くのを止めることができ、また、全てのメンバーが揃い、かつ、メンバー全員が静止した場合に自動撮影を行うので、カメラの操作者が撮影フレーム内に入ってきたばかりでまだ動いている状態で撮影されてしまうようなことがなくなる。   As described above, according to the imaging apparatus 300 of the fifth embodiment, the imaging related to the imaging of the subject by the imaging unit 1 according to the number of face images collated by the face detection unit 7 and the amount of motion of the face image. Since the processing can be executed, it is possible to effectively capture a plurality of subjects by using the face recognition technology. That is, the comparison between the face image detected by the face detection unit 7 and the face image information registered in the personal face DB 4 and the group DB 5 can be performed for each individual and for each group. Can be taken automatically by taking a shutter release in a state in which the movement of the face image is eliminated. As a result, it is possible to appropriately capture the group photo without failing. For example, in group photo shooting, if all members except one gather in front of the camera, a warning will be made in advance knowing that if one of the other members gathers it will automatically be taken, etc. Even if all members are ready, a warning will be given if all members are not stationary, so it can stop moving at the necessary time, and all members Since the automatic shooting is performed when all the members are stationary and all the members are stationary, the camera operator does not take a picture in a still moving state just entering the shooting frame.

また、焼き増し数自動設定処理にて、所定のグループをグループDB5に登録しておくことにより、当該グループの認識を行ってグループ全体で必要とする焼き増し数を予め設定しておくことができ、例えば、同居している家族では人数分の写真を必要としないので一枚として設定するなどの面倒な焼き増し数の設定を自動的に行うことができる。   Further, by registering a predetermined group in the group DB 5 in the extra number setting automatic setting process, it is possible to recognize the group and set the extra number required for the entire group in advance. In the family living together, since the number of photos for the number of people is not required, it is possible to automatically set the troublesome number of extra prints such as setting as one sheet.

また、上記の自動シャッター処理にあっては、グループ一致度が80%以上で、その他の条件が揃った場合に、自動で撮像を行うようにしたが、これに限られるものではなく、顔検出部7により個人顔DB4に登録された複数の顔画像情報が全て照合された場合に撮像を行うようにしても良い。
これにより、自動シャッター処理をセルフタイマー撮影と組み合わせて行う場合に、より失敗のない記念撮影等を行うことができることとなって、撮像装置の利便性をより向上させることができる。
In the above-described automatic shutter processing, the image is automatically picked up when the group matching degree is 80% or more and other conditions are met. However, the present invention is not limited to this, and face detection is performed. Imaging may be performed when a plurality of pieces of face image information registered in the personal face DB 4 are collated by the unit 7.
As a result, when automatic shutter processing is performed in combination with self-timer shooting, commemorative shooting without failure can be performed, and the convenience of the imaging apparatus can be further improved.

さらに、上記の自動シャッター処理にあっては、登録してある顔以外の人がピンボケになってしまうことを防止するため、パンフォーカスモードに切り替えて撮影するようにしても良い。即ち、複数の人が写っている場合、奥行き方向に並んでしまうと、ピンボケを起こす可能性が高くなってしまうので、顔を検出し更に認識した顔の大きさを持って自動判定を行う。
具体的には、顔検出部7が、撮像装置に既に登録済みの顔画像を1個以上照合した場合には、検出した全ての顔サイズを取得する。そして、個人顔DB4との照合において、2個以上の顔画像が認識された場合には、登録済みの顔画像で、且つ、画像フレーム内に認識された顔サイズの一番小さいもの、つまり、一番遠いところにいる人と、個人顔DB4には登録されていないが、検出されたその他の顔画像のサイズとの比較を行う。ここで、登録していない顔画像の方が一つでもある一定以上の大きさの差があれば、パンフォーカスモードに切り替える。また、個人顔DB4との照合において、1個の顔画像が認識できた場合には、検出した全ての顔サイズとの比較を行い、認識できた顔画像よりも一つでも大きいサイズの顔画像が存在すればパンフォーカスモードに切り替える。
これにより、集合写真などで登録されていない人物がピンぼけになってしまう撮像を、パンフォーカスにすることにより回避することができ、より利便性の高い撮像装置を提供することができる。
Furthermore, in the above-described automatic shutter processing, in order to prevent a person other than the registered face from being out of focus, it may be switched to the pan focus mode and photographed. That is, when a plurality of people are photographed, if they are lined up in the depth direction, there is a high possibility that the image will be out of focus. Therefore, a face is detected and an automatic determination is performed with the recognized face size.
Specifically, when the face detection unit 7 collates one or more face images already registered in the imaging apparatus, all the detected face sizes are acquired. When two or more face images are recognized in the collation with the personal face DB 4, the registered face image and the smallest face size recognized in the image frame, that is, A comparison is made between the person who is farthest and the size of other face images that are not registered in the personal face DB 4 but are detected. Here, if there is a difference of a certain size or more in the face image which is not registered, the mode is switched to the pan focus mode. Further, when one face image can be recognized in the collation with the personal face DB 4, comparison is made with all the detected face sizes, and a face image that is at least one size larger than the recognized face image. If exists, switch to pan focus mode.
Accordingly, it is possible to avoid an imaging in which a person who is not registered in a group photo or the like is out of focus by using pan focus, and it is possible to provide a more convenient imaging apparatus.

また、上記実施形態にあっては、連写撮像中に、画像フレーム内に検出された顔画像が個人顔DB4に登録済みの顔画像である場合であって、当該顔画像がn個(n≧1)以上存在すると認識されると、登録済みと照合された顔画像に対してトラッキング処理を開始し、n個の顔画像がトラッキングできている間、自動シャッターで撮像を行う。そして、撮像終了直後に、トラッキングできているか否かを確認して、n個の顔がトラッキングできなくなるまで撮像を連続する。
これにより、顔画像をトラッキングできている間、撮像を連続して行うことができ、登録済みの顔画像の被写体の様々な表情を撮像し易くすることができる。
In the above embodiment, the face image detected in the image frame during continuous shooting is a face image registered in the personal face DB 4, and there are n face images (n If it is recognized that it is greater than or equal to 1), tracking processing is started on the face image that has been registered, and imaging is performed with an automatic shutter while n face images are being tracked. Then, immediately after the end of imaging, it is confirmed whether or not tracking is possible, and imaging is continued until n faces cannot be tracked.
Thereby, while the face image can be tracked, imaging can be continuously performed, and various facial expressions of the subject of the registered face image can be easily captured.

なお、上記実施形態にあっては、複数の判定条件901〜90nに応じた処理を自動シャッター処理や焼き増し数設定処理に適用して説明したが、これに限られるものではなく、例えば、モーションプリント処理、スチルインムービー処理、画像削除処理等の各種の処理に適用するようにしても良い。   In the above-described embodiment, the processing according to the plurality of determination conditions 901 to 90n has been described as being applied to the automatic shutter processing and the extra number setting processing. However, the present invention is not limited to this. You may make it apply to various processes, such as a process, a still-in movie process, and an image deletion process.

[実施形態6]
実施形態6は、実施形態1の撮像装置100を、各種撮影モード設定処理や各種撮影条件設定処理の自動化に適用したものであり、特に、撮影フレーム内に検出された複数の人物(顔)に対する個人特定(認識)やグループ特定の状況に応じて設定すべき撮影モードや撮影条件を自動決定するようにしたものである。
この実施形態6では、実施形態1における特定条件判定部9および処理実行部11の処理内容や設定内容が、上記処理の目的に特化されたものとなる。
[Embodiment 6]
In the sixth embodiment, the imaging apparatus 100 according to the first embodiment is applied to automation of various shooting mode setting processes and various shooting condition setting processes, and in particular, for a plurality of persons (faces) detected in a shooting frame. The photographing mode and the photographing conditions to be set are automatically determined according to the personal identification (recognition) and the group specific situation.
In the sixth embodiment, the processing contents and setting contents of the specific condition determination unit 9 and the processing execution unit 11 in the first embodiment are specialized for the purpose of the above processing.

実施形態6の撮像装置400は、図18に示すように、顔個別検出情報8a及び顔全体検出情報8bから顔情報ファイルを生成して記録する顔情報保存制御部12を備えている。
即ち、顔情報保存制御部12は、顔個別検出情報8a及び顔全体検出情報8bを他の撮像装置にて再利用可能な形態である顔情報ファイル12aとして記録保存する。具体的には、顔情報保存制御部12は、撮像装置400本体に対して着脱自在なメモリカード等を備え、当該メモリカードに、顔情報ファイル12a(顔個別検出情報8a及び顔全体検出情報8b)と、当該顔情報ファイル12aと対応付けられている画像ファイルを記憶するようになっている。
ここで、顔情報保存制御部12は、顔情報ファイル12aと画像ファイルを別ファイルとして記憶する別ファイル記憶手段を構成している。
As illustrated in FIG. 18, the imaging apparatus 400 according to the sixth embodiment includes a face information storage control unit 12 that generates and records a face information file from the individual face detection information 8 a and the entire face detection information 8 b.
In other words, the face information storage control unit 12 records and stores the face individual detection information 8a and the entire face detection information 8b as a face information file 12a that can be reused by another imaging apparatus. Specifically, the face information storage control unit 12 includes a memory card that is detachable from the main body of the imaging apparatus 400, and the face information file 12a (the face individual detection information 8a and the whole face detection information 8b) is stored in the memory card. ) And the image file associated with the face information file 12a.
Here, the face information storage control unit 12 constitutes another file storage means for storing the face information file 12a and the image file as separate files.

また、顔個別検出情報8a及び顔全体検出情報8bを顔情報ファイル12aとして統合した場合には、特定条件判定情報409aは、図19(a)に示すように、例えば、各条件番号(判定条件)と、顔検出総数、個人認識総数、グループ、グループ一致度、全体の動き、メイン人物、メイン人物の顔状態(優先度)、メイン人物のサイズ等が対応付けられたものである。また、各条件番号は、図19(b)に示すように、起動する各処理と、起動処理条件等が対応付けられている。
例えば、特定条件判定情報409aとして、条件番号1の判定条件は、顔検出総数「0」と、個人認識総数「0」と、起動する処理「風景撮影モード」等が対応付けられている。同様に、条件番号2の判定条件は、顔検出総数「1」と、個人認識総数「0」と、メイン人物のサイズ「20%以上」と、起動する処理「単数人物撮影モード」と、処理条件「認識された人物にピントを合わせる」等が対応付けられている。同様に、条件番号3の判定条件は、顔検出総数「2以上」と、個人認識総数「0」と、全体の動き「速い」と、起動する処理「スポーツ撮影モード」等が対応付けられている。同様に、条件番号4の判定条件は、顔検出総数「1以上」と、個人認識総数「1」と、起動する処理「スナップ撮影モード」と、処理条件「メイン人物にピントを合わせる」等が対応付けられている。同様に、条件番号5の判定条件は、個人認識総数「2以上」と、起動する処理「集合写真撮影モード」等が対応付けられている。同様に、条件番号6の判定条件は、個人認識総数「2以上」と、全体の動き「有り」と、起動する処理「自動連写可能モード」と、処理条件「一定時間毎に撮影繰り返す」等が対応付けられている。同様に、条件番号7の判定条件は、個人認識総数「1以上」と、メイン人物「不明」と、起動する処理「AFモード」と、処理条件「認識された個人とメイン人物の中間にフォーカスを設定」等が対応付けられている。同様に、条件番号8の判定条件は、グループ一致度「80%以上」と、メイン人物「不明」と、起動する処理「パンフォーカスモード」と、処理条件「グループ全員とメイン人物を含むようにフォーカスを設定」等が対応付けられている。
When the face individual detection information 8a and the whole face detection information 8b are integrated as the face information file 12a, the specific condition determination information 409a includes, for example, each condition number (determination condition) as shown in FIG. ), The total number of face detections, the total number of individual recognitions, the group, the group matching degree, the overall movement, the main person, the face state (priority) of the main person, the size of the main person, and the like. In addition, as shown in FIG. 19B, each condition number is associated with each process to be activated, the activation process condition, and the like.
For example, as the specific condition determination information 409a, the determination condition of condition number 1 is associated with the face detection total number “0”, the personal recognition total number “0”, the process “landscape shooting mode” to be started, and the like. Similarly, the determination condition of condition number 2 includes the face detection total number “1”, the personal recognition total number “0”, the size of the main person “20% or more”, the process to be started “single person photographing mode”, the process The condition “focus on the recognized person” is associated. Similarly, the determination condition of condition number 3 is associated with the face detection total number “2 or more”, the personal recognition total number “0”, the overall movement “fast”, the activation process “sports shooting mode”, and the like. Yes. Similarly, the determination condition of condition number 4 includes the face detection total number “1 or more”, the personal recognition total number “1”, the process “snap shooting mode” to be started, the processing condition “focus on the main person”, and the like. It is associated. Similarly, the determination condition of condition number 5 associates the total number of personal recognition “2 or more” with the process “group photo shooting mode” to be started. Similarly, the determination condition of condition number 6 is that the total number of personal recognition is “2 or more”, the entire movement is “present”, the process to be started “automatic continuous shooting possible mode”, and the processing condition “repeated photographing every fixed time”. Are associated with each other. Similarly, the determination condition of condition number 7 is that the total number of individual recognition is “1 or more”, the main person “unknown”, the process “AF mode” to be activated, and the process condition “focus between the recognized individual and the main person”. "Set" is associated. Similarly, the determination condition of condition number 8 includes the group matching degree “80% or more”, the main person “unknown”, the process “pan focus mode” to be activated, and the process condition “all the groups and the main person”. “Set focus” or the like is associated.

特定条件判定部9は、顔検出部7から出力された顔全体検出情報8bと特定条件判定情報409aとを常に比較し、一致する条件があった場合には、その一致する条件番号を出力する。   The specific condition determination unit 9 always compares the entire face detection information 8b output from the face detection unit 7 with the specific condition determination information 409a, and outputs a matching condition number if there is a matching condition. .

処理実行部11は、特定条件判定部9から条件番号が出力されると、その条件番号に対応する撮影モードまたは撮影条件への切り換えを行う。
図19に示すような特定条件判定情報409aが設定されている場合には、撮影フレーム内に1つも顔が検出されていない場合にはフォーカスを遠景に設定するなどの風景撮影モードに自動的に切り換え、ある程度の大きさの顔が1つ検出されている場合にはフォーカスを近景に設定するなどの単数人物撮影モードに自動的に切り換え、2人以上の動きの速い顔が検出されている場合にはシャッター速度を速めるなどのスポーツ撮影モードに自動的に切り換え、登録されている人物が1人認識されている場合には個人の撮影記録に適したスナップ撮影モードに自動的に切り換え、登録されている人物が複数認識されている場合には集合写真の撮影記録に適した集合写真撮影モードに自動的に切り換える。
When the condition number is output from the specific condition determination unit 9, the process execution unit 11 switches to the shooting mode or shooting condition corresponding to the condition number.
When the specific condition determination information 409a as shown in FIG. 19 is set, when no face is detected in the shooting frame, a landscape shooting mode such as setting the focus to a distant view is automatically set. When one face of a certain size is detected, the camera automatically switches to single-person shooting mode, such as setting the focus to the foreground, and when two or more fast-moving faces are detected Automatically switches to a sport shooting mode such as increasing the shutter speed, and if a registered person is recognized, it is automatically switched to a snap shooting mode suitable for personal shooting and recording. When a plurality of persons are recognized, the mode is automatically switched to a group photo shooting mode suitable for group photo recording.

このように、実施形態6の撮像装置400によれば、顔の検出数と、個人の認識数とを別々に特定し、それら特定された数の組み合わせに応じて撮影モードまたは撮影条件を切り換えるので、より柔軟に最適な撮影モードまたは撮影条件を自動的に設定することができる。
また、図19に示す特定条件判定情報409aの他の設定例では、登録されている人物が複数認識され、かつ、全体が動いている場合には、自動連写モードに自動的に切り換えることにより、全ての人物が正面を向いた瞬間の撮影画像を得ることが容易にできるようになる。また、登録されている個人の認識状況とメイン人物の認識状況に応じてフォーカスモードを柔軟かつ適切に設定することが可能になる。
As described above, according to the imaging apparatus 400 of the sixth embodiment, the number of face detections and the number of individual recognitions are specified separately, and the shooting mode or shooting conditions are switched according to the combination of the specified numbers. It is possible to automatically set the optimal shooting mode or shooting conditions more flexibly.
Further, in another setting example of the specific condition determination information 409a shown in FIG. 19, when a plurality of registered persons are recognized and the whole is moving, by automatically switching to the automatic continuous shooting mode. Thus, it becomes possible to easily obtain a photographed image at the moment when all persons face the front. In addition, the focus mode can be flexibly and appropriately set according to the registered personal recognition status and the main human recognition status.

[実施形態7]
実施形態7は、実施形態1の撮像装置100を、画像検索表示処理の自動化に適用したものである。
この実施形態7では、実施形態1における特定条件判定部9および処理実行部11の処理内容や設定内容が、上記処理の目的に特化されたものとなる。
[Embodiment 7]
In the seventh embodiment, the imaging apparatus 100 according to the first embodiment is applied to automation of image search / display processing.
In the seventh embodiment, the processing contents and setting contents of the specific condition determination unit 9 and the processing execution unit 11 in the first embodiment are specialized for the purpose of the above processing.

操作入力部6は、処理実行部11による画像検索処理や画像表示処理に係る処理条件を顔個別検出情報8a及び顔全体検出情報8b(顔関連情報)に係る条件に従って入力指定することができ、処理条件指定手段を構成している。   The operation input unit 6 can input and specify processing conditions related to image search processing and image display processing by the processing execution unit 11 according to the conditions related to the individual face detection information 8a and the entire face detection information 8b (face related information). It constitutes a processing condition designating means.

処理実行部11は、画像情報選択手段として、操作入力部6を介して指定された処理条件並びに、顔個別検出情報8a及び顔全体検出情報8b(顔関連情報)に基づいて、顔情報保存制御部12に記録された顔情報ファイル12aと関連付けられた複数の画像ファイルの中から、画像検索処理や画像表示処理等の処理対象を選択する。
即ち、処理実行部11は、画像検索手段として、画像記録部2に記録された複数の画像ファイルの中で、操作入力部6を介して指定された処理条件に応じた所望の画像ファイルを検索する。
また、処理実行部11は、画像表示制御手段として、画像記録部2に記録された複数の画像ファイルの中で、操作入力部6を介して指定された処理条件に応じた所望の画像ファイルを表示部10に表示させる。即ち、処理実行部11は、画像加工制御手段(処理実行部11)により拡大された被写体の顔部分を表示部10に表示させる。
The process execution unit 11 performs face information storage control based on the processing conditions specified via the operation input unit 6 and the individual face detection information 8a and the entire face detection information 8b (face related information) as image information selection means. A processing target such as an image search process and an image display process is selected from a plurality of image files associated with the face information file 12a recorded in the unit 12.
That is, the process execution unit 11 searches for a desired image file corresponding to the processing condition designated via the operation input unit 6 among the plurality of image files recorded in the image recording unit 2 as an image search unit. To do.
Further, the process execution unit 11 serves as an image display control unit to select a desired image file corresponding to the processing conditions designated via the operation input unit 6 from among the plurality of image files recorded in the image recording unit 2. It is displayed on the display unit 10. In other words, the process execution unit 11 causes the display unit 10 to display the face portion of the subject magnified by the image processing control unit (process execution unit 11).

次に、図20を参照して自動化された画像検索表示処理について説明する。
なお、記録保存されている画像データの検索や表示を自動化するためには、撮影された画像データに対して上述した顔個別検出情報8aや顔全体検出情報8bで示されるような顔情報を関連付けて記録しておく必要がある。
Next, an automated image search display process will be described with reference to FIG.
In order to automate the search and display of recorded and stored image data, the face information as indicated by the individual face detection information 8a and the whole face detection information 8b described above is associated with the captured image data. Must be recorded.

撮影時においては、先ず、撮像部1による被写体の撮影が開始され(ステップS101)、撮像部1から出力される画像フレーム内に顔画像(人)が存在すると、顔検出部7は、顔個別検出情報8aおよび顔全体検出情報8bを出力する(ステップS102)。   At the time of shooting, first, shooting of a subject by the imaging unit 1 is started (step S101), and when a face image (person) exists in the image frame output from the imaging unit 1, the face detection unit 7 The detection information 8a and the entire face detection information 8b are output (step S102).

顔情報保存制御部12は、この出力された顔個別検出情報8aおよび顔全体検出情報8bに基づく各種顔情報を「顔情報ファイル12a」として画像データと同じファイル名称で別拡張子のファイルとして保存する(ステップS103)。   The face information storage control unit 12 stores various face information based on the output individual face detection information 8a and the entire face detection information 8b as a “face information file 12a” as a file with a different file extension and the same file name as the image data. (Step S103).

その後、任意のタイミングで操作入力部6の所定操作に基づいて画像検索条件(例えば、大きい顔)および画像表示条件が特定条件判定情報9aとして設定され(ステップS104)、検索対象となる複数の画像データが指定されると、画像取得制御部3は、処理実行部11の指示に応じて検索対象として指定された複数の画像データを順番に出力する。顔検出部7および顔情報保存制御部12は、当該画像データに対応する顔情報ファイルがまだ記録されていない場合には、新たに顔個別検出情報8aおよび顔全体検出情報8bの出力および「顔情報ファイル12a」の保存を行う。
特定条件判定部9は、特定条件判定情報9aに設定されている検索条件と当該画像データに対応する顔情報ファイルの内容とを比較し、条件が一致する場合には、当該画像データを表示対象(検索画像)として指定する指示情報を出力する(ステップS105)。
そして、処理実行部11は、画像記録部2の複数の画像データのうち、表示対象(検索画像)として指定された画像データのみを取得する(ステップS106)、更に、処理実行部11は、表示対象(検索画像)として指定された画像データに対応する顔情報ファイルの内容と、特定条件判定情報9aに設定された画像表示条件に基づいて当該画像データを表示部10に出力して表示させる。具体的には、画像表示条件としてメイン人物の拡大表示が指定されている場合には、顔情報ファイルを参照してメイン人物の顔の位置とサイズを特定し、その部分を拡大して表示する(ステップS107)。
Thereafter, an image search condition (for example, a large face) and an image display condition are set as specific condition determination information 9a based on a predetermined operation of the operation input unit 6 at an arbitrary timing (step S104), and a plurality of images to be searched When data is specified, the image acquisition control unit 3 sequentially outputs a plurality of image data specified as search targets in accordance with instructions from the processing execution unit 11. When the face information file corresponding to the image data has not yet been recorded, the face detection unit 7 and the face information storage control unit 12 newly output the individual face detection information 8a and the entire face detection information 8b, The information file 12a "is saved.
The specific condition determination unit 9 compares the search condition set in the specific condition determination information 9a with the contents of the face information file corresponding to the image data. If the conditions match, the specific condition determination unit 9 displays the image data as a display target. Instruction information designated as (search image) is output (step S105).
Then, the process execution unit 11 acquires only the image data designated as the display target (search image) from among the plurality of image data in the image recording unit 2 (step S106). Based on the contents of the face information file corresponding to the image data designated as the target (search image) and the image display conditions set in the specific condition determination information 9a, the image data is output to the display unit 10 for display. Specifically, when enlargement display of the main person is designated as the image display condition, the face information file is referred to specify the position and size of the face of the main person, and the portion is enlarged and displayed. (Step S107).

以上のように、実施形態7の撮像装置400によれば、撮影した画像データ内に人物の顔が含まれている場合には、この人物の顔に係る様々な情報を利用して画像の検索や表示を制御することができる。また、画像データと関連付けて顔情報ファイル12aを記録することができ、操作入力部6により指定された処理条件に基づいて、顔画像ファイルと関連付けられた画像データを処理実行部11による画像関連処理の処理対象として決定することができるので、画像関連処理を効率良く行って、処理の高速化を図ることができる。
即ち、画像検索処理や画像表示処理等にて毎回画像データをRAM上に展開してから顔検出部7による顔検出や顔認識等を行わせる必要がなくなって、顔画像ファイルを参照することにより、顔を基点とした再生表示や顔をキーとした画像検索を効率良く行うことができる。
As described above, according to the imaging apparatus 400 of the seventh embodiment, when a photographed image data includes a person's face, image search is performed using various information related to the person's face. And display can be controlled. Further, the face information file 12a can be recorded in association with the image data, and the image data associated with the face image file is processed by the process execution unit 11 based on the processing conditions designated by the operation input unit 6. Therefore, the image-related processing can be efficiently performed to speed up the processing.
That is, it is not necessary to perform face detection or face recognition by the face detection unit 7 after image data is expanded on the RAM each time in image search processing or image display processing, and by referring to the face image file Thus, playback display based on the face and image search using the face as a key can be performed efficiently.

また、顔画像ファイルを画像データとともに別ファイルとして保存することにより、当該データを外部機器に容易に受け渡すことができ、カメラ機能を持たないビューワーなどで顔を基点とした検索を適正に行うことができる。   In addition, by saving the face image file as a separate file together with the image data, the data can be easily transferred to an external device, and the search based on the face can be properly performed by a viewer that does not have a camera function. Can do.

さらに、上記実施形態では、顔情報ファイル12aを別ファイルとして保存するようにしたが、画像ファイル内のヘッダーなどの管理領域に保存するようにしても良い。   Further, in the above embodiment, the face information file 12a is stored as a separate file, but may be stored in a management area such as a header in the image file.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、図21に示すように、個人顔DB4を人物毎に統合して個人顔統合DB13としても良い。
即ち、統合するためのレコードが足りないようであれば、実施形態4の撮像装置400により生成された顔情報ファイル12aを外部メモリから読み込んで個人顔DB4に追加する。そして、同じ名前の人物の複数のレコードに基づいて、顔の向きに関係しない個人の顔の特徴データを抽出して、当該特徴データを個人顔統合DB13に記憶する。その後、この人物の各優先度に対応して記憶されている複数の顔画像の各々の顔の向きを後述するような処理によって判定し、各優先度に対応する顔の向きの範囲を特定して記憶する。
具体的には、図21に示すように、個人顔統合DB13には、各人物の名前と、顔の向きに関係のない特徴データと、優先度1(ベスト)〜優先度5(ワースト)のデータ等が対応付けられて記憶されている。例えば、被写体として「Aさん」を例示して説明すると、Aさんの特徴データと、優先度1の顔の向きの範囲を示す情報として右15°から右30°が、優先度2の顔の向きの範囲を示す情報として右15°から左15°が、優先度5の顔の向きの範囲を示す情報として左30°から左90°等が対応付けられている。同様に、「Bさん」は、Bさんの特徴データと、優先度1の顔の向きの範囲を示す情報として右10°から左10°が、優先度2の顔の向きの範囲を示す情報として左20°から左40°が、優先度5の顔の向きの範囲を示す情報として右70°から右90°等が対応付けられている。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, as shown in FIG. 21, the personal face DB 4 may be integrated for each person to form the personal face integrated DB 13.
That is, if there are not enough records to be integrated, the face information file 12a generated by the imaging apparatus 400 according to the fourth embodiment is read from the external memory and added to the personal face DB 4. Then, based on a plurality of records of a person with the same name, feature data of an individual's face not related to the face orientation is extracted, and the feature data is stored in the personal face integration DB 13. After that, the face orientation of each of the plurality of face images stored corresponding to each priority of the person is determined by a process as described later, and the range of the face orientation corresponding to each priority is specified. And remember.
Specifically, as shown in FIG. 21, the personal face integration DB 13 includes each person's name, feature data not related to the face orientation, and priority 1 (best) to priority 5 (worst). Data and the like are stored in association with each other. For example, “Mr. A” will be described as an example of the subject. As the information indicating Mr. A's feature data and the range of the face orientation of priority 1, the right 15 ° to 30 ° right indicates the priority 2 face. Information indicating the range of orientation is associated with 15 ° from the right to 15 ° to the left, information indicating the range of the orientation of the face with priority 5 is associated with 30 ° from the left to 90 ° to the left. Similarly, “Mr. B” is information indicating the range of the face orientation of priority 2 from the right 10 ° to the left 10 ° as information indicating the feature data of Mr. B and the face orientation range of priority 1 The left 20 ° to the left 40 ° are associated with each other, and the right 70 ° to the right 90 ° and the like are associated with each other as information indicating the range of the face orientation with the priority 5.

なお、上記の個人顔統合DB13を用いて顔個別検出情報508aを生成する場合には、顔検出部7により検出された各顔画像部分を個人顔統合DB13と照合して、最も一致度の高いレコードに対応する人物の名前を記憶する。ここで、一致度が所定以上の人物が登録されていない場合には不明とする。また、顔検出部7は、顔画像の中に含まれる目、鼻、ロ等の顔パーツの顔の中心からのずれ量に基づいて顔の向きを判定して記憶するようになっている(図23参照)。なお、図22にあっては、顔個別検出情報508aのうち、図4の顔個別検出情報8aと異なる部分のみ表している。また、特定条件判定部9は、顔検出部7で判定された顔の向きが、個人顔統合DB13に記憶されている顔の向きの範囲に含まれているかによって、指定された顔の向きと検出された顔の向きが等しいか否かを判定する。   When the individual face detection information 508a is generated using the personal face integration DB 13 described above, each face image portion detected by the face detection unit 7 is collated with the personal face integration DB 13, and the degree of coincidence is highest. The name of the person corresponding to the record is stored. Here, it is determined as unknown if no person with a matching degree equal to or higher than a predetermined level is registered. In addition, the face detection unit 7 determines and stores the face direction based on the amount of deviation of the face parts such as eyes, nose, and rho included in the face image from the face center ( (See FIG. 23). In FIG. 22, only the portion different from the face individual detection information 8 a in FIG. 4 is represented in the face individual detection information 508 a. Further, the specific condition determination unit 9 determines whether the face direction determined by the face detection unit 7 is included in the range of the face direction stored in the personal face integration DB 13 according to the specified face direction. It is determined whether the detected face orientations are equal.

本発明を適用した実施形態1の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 1 to which this invention is applied. 図1の撮像装置の個人顔DBを模式的に示す図である。It is a figure which shows typically personal face DB of the imaging device of FIG. 図1の撮像装置のグループDBを模式的に示す図である。It is a figure which shows typically group DB of the imaging device of FIG. 図1の撮像装置の顔検出部により生成された顔個別検出情報を模式的に示す図である。It is a figure which shows typically the face individual detection information produced | generated by the face detection part of the imaging device of FIG. 図1の撮像装置の顔検出部により生成された顔全体検出情報を模式的に示す図である。It is a figure which shows typically the whole face detection information produced | generated by the face detection part of the imaging device of FIG. 図1の撮像装置の特定条件判定部による判定処理に係る特定条件判定情報を模式的に示す図である。It is a figure which shows typically the specific condition determination information which concerns on the determination process by the specific condition determination part of the imaging device of FIG. 本発明を適用した実施形態2の撮像装置の処理実行部によるスチルインムービー処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the still-in movie process by the process execution part of the imaging device of Embodiment 2 to which this invention is applied. 本発明を適用した実施形態3の撮像装置の処理実行部による画像削除処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the image deletion process by the process execution part of the imaging device of Embodiment 3 to which this invention is applied. 本発明を適用した実施形態4の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 4 to which this invention is applied. 図9の撮像装置の特定条件判定部による判定処理に係る特定条件判定情報を模式的に示す図である。It is a figure which shows typically the specific condition determination information which concerns on the determination process by the specific condition determination part of the imaging device of FIG. 図9の撮像装置の処理実行部によるモーションプリント処理により生成される合成画像を模式的に示す図である。It is a figure which shows typically the synthesized image produced | generated by the motion print process by the process execution part of the imaging device of FIG. 図11のモーションプリント処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the motion print process of FIG. 図12のモーションプリント処理の続きを示す図である。FIG. 13 is a diagram showing a continuation of the motion print process in FIG. 12. 本発明を適用した実施形態5の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 5 to which this invention is applied. 図14の撮像装置の特定条件判定部による判定処理に係る特定条件判定情報を模式的に示す図である。It is a figure which shows typically the specific condition determination information which concerns on the determination process by the specific condition determination part of the imaging device of FIG. 図14の撮像装置の処理実行部による自動シャッター処理に係る動作の一例を示すフローチャートである。15 is a flowchart illustrating an example of an operation related to an automatic shutter process performed by a process execution unit of the imaging apparatus in FIG. 図14の撮像装置の処理実行部による焼き増し数設定処理に係る動作の一例を示すフローチャートである。15 is a flowchart illustrating an example of an operation related to an extra number setting process by a process execution unit of the imaging apparatus of FIG. 本発明を適用した実施形態6の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 6 to which this invention is applied. 図18の撮像装置の特定条件判定部による判定処理に係る特定条件判定情報を模式的に示す図である。It is a figure which shows typically the specific condition determination information which concerns on the determination process by the specific condition determination part of the imaging device of FIG. 本発明を適用した実施形態7の撮像装置による画像検索表示処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the image search display process by the imaging device of Embodiment 7 to which this invention is applied. 変形例の撮像装置の個人顔統合DBを模式的に示す図である。It is a figure which shows typically personal face integration DB of the imaging device of a modification. 図21の撮像装置の顔検出部により生成された顔個別検出情報を模式的に示す図である。It is a figure which shows typically the face separate detection information produced | generated by the face detection part of the imaging device of FIG.

符号の説明Explanation of symbols

100、200、300、400 撮像装置(画像処理装置)
1 撮像部(撮像手段)
2 画像記録部
4 個人顔DB(顔画像情報登録手段)
5 グループDB
6 操作入力部(処理条件指定手段)
7 顔検出部(顔検出手段、顔照合手段、顔関連情報取得手段)
8 検出情報記憶部(顔関連情報記録手段)
9 特定条件判定部(処理対象決定手段、主画像決定手段、保存画像決定手段、削除画像決定手段)
10 表示部(画像表示手段)
11 処理実行部(撮像関連処理実行手段、画像情報選択手段、画像処理手段、合成画像生成手段、画像削除手段、焼き増し数設定手段、画像検索手段、画像加工制御手段画像表示制御手段)
100, 200, 300, 400 Imaging device (image processing device)
1 Imaging unit (imaging means)
2 Image recording unit 4 Personal face DB (face image information registration means)
5 Group DB
6 Operation input part (Processing condition designation means)
7 Face detection unit (face detection means, face collation means, face related information acquisition means)
8 Detection information storage unit (face-related information recording means)
9 Specific condition determination unit (processing object determination means, main image determination means, stored image determination means, deletion image determination means)
10 Display section (image display means)
11 Process execution unit (imaging related process execution means, image information selection means, image processing means, composite image generation means, image deletion means, extra number setting means, image search means, image processing control means, image display control means)

Claims (6)

所定のグループに属する複数の人物の顔の識別に用いる顔画像情報を登録する顔画像情報登録手段と、
被写体を撮像して画像情報を生成する撮像手段と、
前記撮像手段により生成された画像情報から複数の顔部分を検出する顔検出手段と、
前記顔検出手段により検出された複数の顔部分の各々について、前記顔画像情報登録手段に登録された顔画像情報との比較照合を行って前記所定のグループに属する人物であるか否かを判定する顔照合手段と、
前記顔照合手段により前記所定のグループに属する人物であると判定された人数と、当該グループ全員の人数との差判断する判断手段と、
前記所定のグループを対象とした集合写真の撮影における自動撮影動作または警告動作を、前記判断手段により判断される人数の差に応じて制御する撮影制御手段と、
を備えることを特徴とする撮像装置。
Face image information registration means for registering face image information used for identifying faces of a plurality of persons belonging to a predetermined group;
Imaging means for imaging a subject to generate image information;
Face detection means for detecting a plurality of face portions from the image information generated by the imaging means;
Each of the plurality of face portions detected by the face detection means is compared with face image information registered in the face image information registration means to determine whether or not the person belongs to the predetermined group. Face matching means to
Determining means for determining a difference between the number of persons determined to be a person belonging to the predetermined group by the face matching means and the number of persons of all the groups;
Shooting control means for controlling an automatic shooting operation or warning operation in shooting a group photo for the predetermined group according to a difference in the number of persons determined by the determination means;
An imaging apparatus comprising:
前記撮影制御手段は、前記所定のグループに属する人物であると判定された人数が、当該グループ全員の人数と等しくなった場合に自動撮影を行うことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the imaging control unit performs automatic imaging when the number of persons determined to be a person belonging to the predetermined group becomes equal to the number of persons in the group. . 前記撮影制御手段は、前記所定のグループに属する人物であると判定された人数が、当該グループ全員の人数よりも少ない場合に警告を行うことを特徴とする請求項1または2に記載の撮像装置。   3. The imaging apparatus according to claim 1, wherein the imaging control unit issues a warning when the number of persons determined to be a person belonging to the predetermined group is smaller than the number of persons in the group. . 前記撮影制御手段は、前記所定のグループに属する人物であると判定された人数が、当該グループ全員の人数よりも一人だけ少ない場合に警告を行うことを特徴とする請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the imaging control unit issues a warning when the number of persons determined to be a person belonging to the predetermined group is smaller by one than the number of persons of all the groups. . 前記撮影制御手段は、前記所定のグループに属する人物であると判定された人数が、当該グループ全員の人数と等しくなり、かつ、当該グループ全員が静止した場合に自動撮影を行うことを特徴とする請求項2乃至4のいずれかに記載の撮像装置。   The photographing control means performs automatic photographing when the number of persons determined to be a person belonging to the predetermined group is equal to the number of persons of all the groups and all of the groups are stationary. The imaging device according to claim 2. 被写体を撮像して画像情報を生成する撮像手段を備える撮像装置のコンピュータを、
所定のグループに属する複数の人物の顔の識別に用いる顔画像情報を登録する顔画像情報登録手段と、
前記撮像手段により生成された画像情報から複数の顔部分を検出する顔検出手段と、
前記顔検出手段により検出された複数の顔部分の各々について、前記顔画像情報登録手段に登録された顔画像情報との比較照合を行って前記所定のグループに属する人物であるか否かを判定する顔照合手段と、
前記顔照合手段により前記所定のグループに属する人物であると判定された人数と、当該グループ全員の人数との差判断する判断手段と、
前記所定のグループを対象とした集合写真の撮影における自動撮影動作または警告動作を、前記判断手段により判断される人数の差に応じて制御する撮影制御手段と、
して機能させることを特徴とするプログラム。
A computer of an imaging apparatus including an imaging unit that images a subject and generates image information,
Face image information registration means for registering face image information used for identifying faces of a plurality of persons belonging to a predetermined group;
Face detection means for detecting a plurality of face portions from the image information generated by the imaging means;
Each of the plurality of face portions detected by the face detection means is compared with face image information registered in the face image information registration means to determine whether or not the person belongs to the predetermined group. Face matching means to
Determining means for determining a difference between the number of persons determined to be a person belonging to the predetermined group by the face matching means and the number of persons of all the groups;
Shooting control means for controlling an automatic shooting operation or warning operation in shooting a group photo for the predetermined group according to a difference in the number of persons determined by the determination means;
A program characterized by making it function.
JP2007084335A 2007-03-28 2007-03-28 Imaging apparatus and program Expired - Fee Related JP5023757B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007084335A JP5023757B2 (en) 2007-03-28 2007-03-28 Imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007084335A JP5023757B2 (en) 2007-03-28 2007-03-28 Imaging apparatus and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012102241A Division JP5488639B2 (en) 2012-04-27 2012-04-27 Imaging apparatus, imaging method, and program

Publications (2)

Publication Number Publication Date
JP2008245007A JP2008245007A (en) 2008-10-09
JP5023757B2 true JP5023757B2 (en) 2012-09-12

Family

ID=39915767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007084335A Expired - Fee Related JP5023757B2 (en) 2007-03-28 2007-03-28 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP5023757B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010251866A (en) * 2009-04-10 2010-11-04 Canon Inc Image processor, method of controlling the same, and computer program
JP2010287985A (en) * 2009-06-10 2010-12-24 Sanyo Electric Co Ltd Image processor
JP5024434B2 (en) * 2010-07-30 2012-09-12 カシオ計算機株式会社 Imaging apparatus, control program, and display control method
JP6023577B2 (en) 2012-01-13 2016-11-09 キヤノン株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP6589900B2 (en) * 2017-01-27 2019-10-16 京セラドキュメントソリューションズ株式会社 Video processing device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344891A (en) * 2002-05-23 2003-12-03 Canon Inc Automatic photographing mode setting camera
JP2004336265A (en) * 2003-05-06 2004-11-25 Fuji Photo Film Co Ltd Imaging apparatus
JP2004362283A (en) * 2003-06-05 2004-12-24 Casio Comput Co Ltd Personal authentication device and program
JP2006085266A (en) * 2004-09-14 2006-03-30 Nec Personal Products Co Ltd Digital picture distribution system and digital picture distribution method
JP4441382B2 (en) * 2004-11-02 2010-03-31 三菱電機株式会社 Suspicious visitor threatening system
JP4574459B2 (en) * 2005-06-09 2010-11-04 キヤノン株式会社 Image capturing apparatus, control method therefor, program, and storage medium
JP4626425B2 (en) * 2005-07-11 2011-02-09 富士フイルム株式会社 Imaging apparatus, imaging method, and imaging program
JP4577275B2 (en) * 2006-06-07 2010-11-10 カシオ計算機株式会社 Imaging apparatus, image recording method, and program
JP4577445B2 (en) * 2009-05-19 2010-11-10 カシオ計算機株式会社 Imaging apparatus, image recording method, and program

Also Published As

Publication number Publication date
JP2008245007A (en) 2008-10-09

Similar Documents

Publication Publication Date Title
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP5056061B2 (en) Imaging device
JP4324170B2 (en) Imaging apparatus and display control method
JP4819001B2 (en) Imaging apparatus and method, program, image processing apparatus and method, and program
JP4605039B2 (en) Automatic photographing method, automatic photographing apparatus and automatic photographing program
TW200808044A (en) Imaging apparatus and computer readable recording medium
JP4910827B2 (en) Image processing apparatus and program
US8432474B2 (en) Image pickup apparatus
JP2008278350A (en) Imaging apparatus, imaging control program, and imaging control method
JP5023757B2 (en) Imaging apparatus and program
JP4967748B2 (en) Image processing apparatus and program
JP2011061703A (en) Image capturing apparatus and method of manufacturing the same
JP5124994B2 (en) Image reproduction system, digital camera, and image reproduction apparatus
JP5488639B2 (en) Imaging apparatus, imaging method, and program
JP4492273B2 (en) Imaging apparatus and program
JP2008242694A (en) Image processing apparatus and its program
JP5790724B2 (en) Imaging apparatus, imaging method, and program
JP2005323015A (en) Digital camera
JP5218841B2 (en) Imaging apparatus and program
JP2017192114A (en) Image processing apparatus and image processing method, program, and storage medium
JP4371219B2 (en) Digital camera
JP5594305B2 (en) Image processing apparatus, control method, and program
JP4948014B2 (en) Electronic camera
JP5024434B2 (en) Imaging apparatus, control program, and display control method
JP2014216658A (en) Imaging apparatus and imaging assist program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110725

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5023757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees