JP2007312249A - Unit and method for image processing - Google Patents
Unit and method for image processing Download PDFInfo
- Publication number
- JP2007312249A JP2007312249A JP2006140903A JP2006140903A JP2007312249A JP 2007312249 A JP2007312249 A JP 2007312249A JP 2006140903 A JP2006140903 A JP 2006140903A JP 2006140903 A JP2006140903 A JP 2006140903A JP 2007312249 A JP2007312249 A JP 2007312249A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- detection
- shooting
- image processing
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像中の被写体検出技術に関する。 The present invention relates to a subject detection technique in an image.
従来より、画像認識や音声認識の分野においては、特定の認識対象に特化した認識処理アルゴリズムを、コンピュータソフト、或いは専用並列画像処理プロセッサを用いたハードウェアにより実現することで認識対象を検出するものが知られている。 Conventionally, in the field of image recognition and speech recognition, a recognition target is detected by realizing a recognition processing algorithm specialized for a specific recognition target by computer software or hardware using a dedicated parallel image processor. Things are known.
特に顔を含む画像から、この顔を特定の認識対象として検出するものとしては、従来から幾つか知られている。 In particular, there are some known methods for detecting a face as a specific recognition target from an image including the face.
例えば、顔の各部品の形状データと入力画像とのマッチング結果から被写体を検出する技術が開示されている(特許文献1参照)。この技術では、目、口、鼻等の形状データを用意しておき、まず2つの目を求める。続いて口、鼻等を求める際にその目の位置に基づいて、口、鼻等の顔部品の検索領域を限定する。つまり、このアルゴリズムでは、目、口、鼻といった顔を構成する顔部品を並列的に検出するのではなく、目を最初に見つけ、その結果を使用して順に口、鼻という顔部品を検出している。 For example, a technique for detecting a subject from a matching result between shape data of each component of a face and an input image is disclosed (see Patent Document 1). In this technique, shape data such as eyes, mouth, and nose are prepared, and first two eyes are obtained. Subsequently, when obtaining the mouth, nose, etc., the search area for the facial parts such as the mouth, nose, etc. is limited based on the position of the eyes. In other words, this algorithm does not detect face parts that make up the face such as eyes, mouth, and nose in parallel, but first finds the eyes and uses the results to detect face parts such as mouth and nose in order. ing.
また、モニター用に得られた画像中から人物の顔に相当する領域を画像処理によって検出する機能を有するカメラが提案されている。このカメラによれば、人物の顔が撮影画像のいずれの位置に存在する場合でも、人物の顔に焦点を合わせ、人物の顔に最適な露出で撮影を行うことが可能となる。
しかしながら、上述した従来の方法では、撮影時の状況によっては、画像から顔を検出できない場合もある。例えば、撮影時にストロボ発光した時の画像では、発光時の閃光により人物の目は通常時よりも細くなっている場合があり、目として認識できないことがある。 However, in the conventional method described above, a face may not be detected from an image depending on the situation at the time of shooting. For example, in an image when a flash is emitted during photographing, a person's eyes may be thinner than normal due to a flashing light, and may not be recognized as eyes.
また、動画撮影や連続撮影時の画像は、顔がカメラを向いていないシーンがあり、その場合は、顔がカメラを向いている時と比べて、目と口などの位置関係が変わってくるので顔として認識できなことがある。 In addition, there are scenes where the face is not facing the camera when shooting movies or continuous shooting, in which case the positional relationship between the eyes and mouth changes compared to when the face is facing the camera. So it may not be recognized as a face.
また、検出した顔情報の位置情報により焦点や露出制御を行うカメラでは、主被写体だけでなく周辺人物も含めて検出した場合、主被写体でなく間違った人物について焦点や露出を合わせてしまうことがある。 In addition, in a camera that performs focus and exposure control based on the position information of the detected face information, if not only the main subject but also surrounding people are detected, the focus and exposure may be adjusted for the wrong person instead of the main subject. is there.
上記課題を解決するために、本発明は、撮影画像から被写体を検出する画像処理装置であって、撮影時の撮影情報を取得する取得手段と、前記撮影情報に応じて前記検出手段による被写体の検出条件を変更する変更手段と、前記撮影条件により撮影画像から被写体の特徴情報を抽出し、当該特徴情報から被写体を検出する検出手段と、を備える。 In order to solve the above-described problems, the present invention provides an image processing apparatus that detects a subject from a captured image, an acquisition unit that acquires shooting information at the time of shooting, and an object that is detected by the detection unit according to the shooting information. Changing means for changing the detection condition; and detecting means for extracting feature information of the subject from the photographed image based on the shooting condition and detecting the subject from the feature information.
また、本発明は、撮影画像から被写体を検出する画像処理方法であって、撮影時の撮影情報を取得するステップと、前記撮影情報に応じて被写体の検出条件を変更するステップと、前記検出条件により撮影画像から被写体の特徴情報を抽出し、当該特徴情報から被写体を検出する検出ステップと、を備える。 The present invention is also an image processing method for detecting a subject from a captured image, the step of acquiring shooting information at the time of shooting, the step of changing the detection condition of the subject according to the shooting information, and the detection condition To detect feature information of the subject from the photographed image and detect the subject from the feature information.
本発明によれば、撮影情報から予測した被写体の状況に応じた検出条件を選択して被写体を検出することで、検出率を向上させると共に、誤検出を低減することができる。 According to the present invention, it is possible to improve the detection rate and reduce false detection by selecting a detection condition according to the state of the subject predicted from the photographing information and detecting the subject.
以下に、添付図面を参照して本発明を実施するための最良の形態について詳細に説明する。 The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.
尚、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。 The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.
[第1の実施形態]
図1は、本発明に係る画像処理装置を実装した第1の実施形態の撮像装置の主要な構成要素を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing main components of an imaging apparatus according to a first embodiment in which an image processing apparatus according to the present invention is mounted.
図1において、マイクロコンピュータ(以下、CPUという。)100には、カメラの各種操作スイッチ群114を検知するための信号入力回路104、撮像センサ106、測光用センサ107、焦点検出用センサ108、ストロボ109、表示部110、外部メモリ102、映像信号処理回路103、画像処理回路101が接続されている。
In FIG. 1, a microcomputer (hereinafter referred to as CPU) 100 includes a
また、CPU100は、不図示の撮影レンズとの間でレンズ通信回路105を介してレンズ制御信号115の授受を行い、焦点位置や絞りの制御を行う。
Further, the
また、CPU100内には装置全体の動作を制御するプログラムを格納したROM111、一時的に変数を記憶するためのRAM112、各種パラメータを記憶するためのEEPROM113が内蔵されている。
The
カメラの各種モードの設定はスイッチ群114の設定で決定される。本実施形態の撮像装置は、様々な被写体に対して一般的な撮影を行うオートモードや、人物の撮影に適するようにプログラムされたポートレートモード、動きのある被写体に対して連続して撮影を行う連写モード、露出を通常よりもオーバー又はアンダーで撮影できる露出補正撮影モード、動画撮影モードなどの撮影モードを有する。 The setting of various camera modes is determined by the setting of the switch group 114. The imaging apparatus according to the present embodiment continuously shoots a moving subject, an auto mode in which general photographing is performed on various subjects, a portrait mode programmed to be suitable for photographing a person, and a moving subject. It has shooting modes such as a continuous shooting mode to be performed, an exposure correction shooting mode in which the exposure can be taken more or less than usual, and a moving image shooting mode.
CPU100は測光用センサ107、焦点検出用センサ108を制御することで、被写体の合焦具合や輝度を検出し、不図示の撮影レンズのフォーカスレンズ位置、絞り値や露光時間を決定する。また、ストロボ109による発光が必要か否かも判断する。
The
そして、レンズ通信回路105を介して絞り値を制御し、ストロボ109、撮像センサ106を制御することで撮影動作を行う。
The aperture value is controlled via the
撮像センサ106により撮影された画像信号は映像信号処理回路103において信号処理が行われ、外部メモリ102に記憶される。ここでの信号処理とはノイズ除去処理、ホワイトバランス処理、圧縮符号化処理、復号処理などが含まれる。
The image signal captured by the
表示部110は、映像信号処理回路103により信号処理が行われた画像や、各種メニューおよびユーザに対して警告や指示などの表示を行う。
The display unit 110 displays an image subjected to signal processing by the video
画像処理回路101は、被写体検出ブロック116、検出パラメータ選択ブロック117、検出パラメータ群118、判定ブロック119、判定レベル決定ブロック120、撮影情報入力ブロック121を備える。そして、画像処理回路101は、映像信号処理回路103から出力された画像信号の中から人物の顔に相当する位置情報や顔の特徴情報などの検出を行う。
The
撮影情報入力ブロック121は、スイッチ群114の設定により設定されたカメラの各種モードや、ストロボ発光の有無などの撮影情報を、検出パラメータ選択ブロック117や判定レベル決定ブロック120へ出力する。
The shooting information input block 121 outputs shooting information such as various camera modes set by the setting of the switch group 114 and the presence or absence of strobe light emission to the detection
検出パラメータ選択ブロック117は、撮影情報入力ブロック121から入力された撮影情報に応じて、予め複数用意している検出パラメータ群118の中から、少なくとも1つ以上の検出パラメータを選択する。検出パラメータ群118は、目の形状や、目と口の位置関係、肌色などの人物を判定するための情報である。
The detection
判定レベル決定ブロック120は、撮影情報入力ブロック121から入力された撮影情報に応じて、人物の顔の判定基準となる判定レベルを決定する。
The determination
被写体検出ブロック116では、画像から局所特徴(ここでは目や口)を抽出し、さらに検出パラメータ選択ブロック117で選択された検出パラメータについて画像を評価し、人物の顔に相当する位置情報や顔の特徴情報などをCPU100へ出力する。
In the
判定ブロック119は、被写体検出ブロック116で画像を評価した評価結果と判定レベル決定ブロック120で決定した判定レベルとを比較することで、人物の顔が存在するか否かの判定を行う。
The
ここで、検出パラメータ群118と判定レベルについて図4から図8を用いてより詳細に説明する。
Here, the
図8は、検出パラメータの項目と、一般的な撮影における各パラメータに対応した判定レベルを示した図であり、本実施形態では6項目のパラメータを例示的に挙げている。 FIG. 8 is a diagram showing detection parameter items and determination levels corresponding to parameters in general imaging. In the present embodiment, six parameter parameters are exemplified.
先ず、図8の検出パラメータの「目の縦横比」について図4を用いて説明する。 First, the “eye aspect ratio” of the detection parameters in FIG. 8 will be described with reference to FIG.
図4は、被写体検出ブロック116で検出した人物の目の拡大図であり、目頭から目尻までの間隔を横幅W、W方向とは直交する方向の間隔を縦幅Hとし、WとHの比W/Hを「目の縦横比」とする。
FIG. 4 is an enlarged view of a human eye detected by the
次に、図8の検出パラメータの「目と口の位置関係」について図5を用いて説明する。 Next, the “positional relationship between eyes and mouth” of the detection parameters in FIG. 8 will be described with reference to FIG.
図5は、被写体検出ブロック116で検出した人物の目と口の拡大図であり、一方の目から他方の目までの間隔をD1、両方の目から口まで間隔をそれぞれD2、D3とし、D1、D2、D3の比D1:D2、D1:D3を「目と口の位置関係」とする。
FIG. 5 is an enlarged view of a person's eyes and mouth detected by the
次に、図8の検出パラメータの「画面における目の水平度」について図6を用いて説明する。 Next, the detection parameter “eye level on the screen” in FIG. 8 will be described with reference to FIG.
図6は、被写体検出ブロック116で検出した人物の目と口の拡大図であり、画面下部に対して、一方の目から他方の目までを結んだ線分の傾きΘを「目の水平度」とする。
FIG. 6 is an enlarged view of a person's eyes and mouth detected by the
次に、図8の検出パラメータの「画面における顔の大きさ」について図7を用いて説明する。 Next, the detection parameter “face size on the screen” in FIG. 8 will be described with reference to FIG.
図7は、被写体検出ブロック116で検出した画面における顔の大きさの拡大図であり、目と口で囲まれた面積ΔS、画面全体の面積をSとし、ΔS/Sを「画面における顔の大きさ」とする。
FIG. 7 is an enlarged view of the size of the face on the screen detected by the
なお、「目の色情報」は瞳のRed、Green、Blueの各色情報であり、顔の色情報とは目と口で囲まれた部分のRed、Green、Blueの各肌色情報とする。 Note that “eye color information” is red, green, and blue color information of the pupil, and face color information is red, green, and blue skin color information of a portion surrounded by the eyes and mouth.
図8の判定レベルは、一般的な撮影における判定レベルであり、撮影条件によって値が変化する。 The determination level in FIG. 8 is a determination level in general shooting, and the value varies depending on shooting conditions.
また、ここでの検出パラメータや判定レベルは、一例でありこれらに限られるものではない。 The detection parameters and determination levels here are only examples and are not limited thereto.
<動作説明>
次に、第1の実施形態の撮像装置の動作について、図2のフローチャートを用いて詳細に説明する。
<Description of operation>
Next, the operation of the imaging apparatus according to the first embodiment will be described in detail with reference to the flowchart of FIG.
図2において、S201では、CPU100は、測光用センサ107、焦点検出用センサ108を制御して被写体の合焦度合や輝度を検出する。また、CPU100は、スイッチ群114の状態により設定された撮影モードに応じて、不図示の撮影レンズのフォーカスレンズ位置、絞り値や露光時間を決定する。そして、レンズ通信回路105を介して絞り値を制御し、ストロボ109、撮像センサ106を制御して撮影動作を行う。撮影された画像信号は映像信号処理回路103で所定の信号処理が施された後、表示部110に表示されると共に、外部メモリ102へ保存され、被写体検出ブロック116へ入力される。
In FIG. 2, in S <b> 201, the
S202では、撮影情報取得ブロック121が画像を撮影した時の撮影情報の取得を行う。撮影情報とは、スイッチ群114で設定されたカメラの各種モードや、ストロボ発光の有無などの情報である。これらの情報を検出パラメータ選択ブロック117と判定レベル決定ブロック120へ出力する。
In S202, the shooting information acquisition block 121 acquires shooting information when an image is shot. The imaging information is information such as various camera modes set by the switch group 114 and the presence or absence of flash emission. These pieces of information are output to the detection
S203では、検出パラメータ選択ブロック117が撮影情報入力ブロック121で取得した撮影情報に応じて、検出パラメータ群118の中から、少なくとも1つ以上の検出パラメータを選択する。
In S203, the detection
S204では、判定レベル決定ブロック120が撮影情報入力ブロック121で取得した撮影情報に応じて、各検出パラメータについての判定レベルを決定する。
In S <b> 204, the determination
ここで、S203の検出パラメータ選択動作およびS204の判定レベル決定動作について、より詳細に説明する。 Here, the detection parameter selection operation in S203 and the determination level determination operation in S204 will be described in more detail.
図9は、撮影情報と検出パラメータおよび評価値の判定レベルを示した図である。 FIG. 9 is a diagram showing the shooting information, detection parameters, and evaluation level determination levels.
図9において、ポートレート撮影モード時は、被写体と撮像装置が正対し、かつ主被写体を画面に対して大きく撮影することが多い。この場合、主被写体の周辺に存在する人物ではなく、主被写体に対して確実に検出を行う必要がある。従って、検出パラメータ選択ブロック117は検出パラメータ群118の全てを選択する。また、判定レベル決定ブロック120は、正対度を表す「目と口の位置関係」の判定レベルをより厳密に、「画面における顔の大きさ」の判定レベルをより大きな被写体を検出するように設定する。
In FIG. 9, in the portrait shooting mode, the subject and the imaging device are facing each other and the main subject is often photographed on the screen. In this case, it is necessary to reliably detect the main subject, not the person existing around the main subject. Therefore, the detection
ストロボ発光時は、ストロボ光より被写体の目が通常よりも細くなり、またストロボ光が瞳孔部で反射することにより赤目になることが多い。従って、検出パラメータ選択ブロック117は検出パラメータ群118のうち、「目の色情報」以外を選択する。また、判定レベル決定ブロック120は、「目の縦横比」の判定レベルを細目でも被写体を検出できるように設定する。なお、ポートレート撮影モードとストロボ発光が同時に設定された場合は「目の色情報」と「目の縦横比」はストロボ発光時の判定レベルが優先され、それ以外の検出パラメータはポートレート撮影モードの判定レベルが優先される。このように、それぞれの検出パラメータに対して、どの撮影モードの判定レベルが優先されるかが予め定められている。
When the flash is fired, the subject's eyes are thinner than usual, and the red light is often reflected by the pupil part, resulting in red eyes. Therefore, the detection
露出補正撮影時は、ユーザが意図して被写体輝度を低くしたり、高くしたりする場合があり、色情報による被写体検出ができないことが多い。従って、検出パラメータ選択ブロック117は検出パラメータ群118のうち「目の色情報」と「顔の色情報」以外を選択する。
During exposure compensation shooting, the user may intentionally lower or increase the subject brightness, and in many cases, the subject cannot be detected based on color information. Therefore, the detection
連続撮影や動画撮影モード時は、被写体が動いているので、被写体と撮像装置が正対していないことが多い。従って、判定レベル決定ブロック120は、正対度を表す「目と口の位置関係」と、「画面における目の水平度」の判定レベルをより緩和する。
In continuous shooting or moving image shooting mode, the subject is moving, so the subject and the imaging device often do not face each other. Therefore, the determination
その他の撮影情報では、検出パラメータ選択ブロック117は検出パラメータ群118の全てを選択する。また、判定レベル決定ブロック120は、図8に示したように標準的な判定レベルを設定する。
For other imaging information, the detection
S205では、被写体検出ブロック116は入力された画像を用いて、この画像中の顔の局所特徴である目と口に相当する形状部分の抽出を行う。図3(a)のような背景と人物を含んだ画像から、図3(b)に示すように人物の目と口の画像のみを抽出する。そして、S203で検出パラメータ選択ブロック117により選択した各検出パラメータについて演算を行う。
In S205, the
ここでの局所特徴の抽出方法は、例えば、特開2005−056387公報に記載されている。 The local feature extraction method here is described in, for example, JP-A-2005-056387.
S206では、S205で被写体検出ブロック116により演算した検出パラメータについて演算した評価結果について、判定ブロック119により判定を行う。ここでは、演算した全ての評価結果が、判定レベル決定ブロックで決定した判定レベル範囲内である場合は、被写体の顔が検出できたと判断してS207へ移行する。一方、演算した評価結果の1つでも判定レベル範囲外である場合は、被写体の顔が存在していないと判断して一連の動作を終了する。
In S206, the
S207では、S205で検出した目と口の位置から被写体の顔の位置や表情などの被写体情報をRAM112に記憶し、次回の撮影時の被写体位置を中心とした測光および焦点位置制御などに利用する。また、被写体情報を画像と関連付けて外部メモリ102へ記憶することで、画像を検索する際の条件として利用することもできる。
In S207, subject information such as the face position and facial expression of the subject from the eye and mouth positions detected in S205 is stored in the
また、これまでの説明では、1人の被写体について説明しているが、複数の被写体についても検出可能である。 In the above description, one subject is described, but a plurality of subjects can also be detected.
また、図9の検出パラメータと判定レベルは一例であり、これらに限られるのもではない。 Further, the detection parameters and determination levels in FIG. 9 are examples, and are not limited to these.
以上のように、撮影情報に応じて、最適な検出パラメータと判定レベルを選択することで、被写体の検出率を上げると共に誤検出を低減することができる。 As described above, by selecting the optimum detection parameter and determination level according to the shooting information, it is possible to increase the detection rate of the subject and reduce the false detection.
次に、図2のフローチャートとは別の動作について、図10のフローチャートを用いて詳細に説明する。 Next, an operation different from the flowchart of FIG. 2 will be described in detail with reference to the flowchart of FIG.
図10において、S1001では、CPU100は、測光用センサ107、焦点検出用センサ108を制御して被写体の合焦具合や輝度を検出する。また、CPU100は、スイッチ群114の状態により設定された撮影モードに応じて、不図示の撮影レンズのフォーカスレンズ位置、絞り値や露光時間を決定する。そして、レンズ通信回路105を介して絞り値を制御し、ストロボ109、撮像センサ106を制御して撮影動作を行う。撮影された画像信号は映像信号処理回路103で所定の信号処理が施された後、表示部110に表示されると共に、外部メモリ102へ保存され、被写体検出ブロック116へ出力する。
In FIG. 10, in S1001, the
S1002では、撮影情報入力ブロック121が画像を撮影した時の撮影情報の取得を行う。撮影情報とは、スイッチ群114で設定されたカメラの各種モードや、ストロボ発光の有無など情報、またRAM112に記憶されている前回の撮影した画像についての被写体情報である。これらの撮影情報を検出パラメータ選択ブロック117と判定レベル決定ブロック120へ出力する。
In S1002, shooting information when the shooting information input block 121 has shot an image is acquired. The shooting information is information such as various camera modes set by the switch group 114, the presence / absence of strobe light emission, and subject information about the last shot image stored in the
S1003では、判定ブロック119は、S1002で撮影情報入力ブロック121が取得した撮影情報が、連続撮影モードあるいは動画撮影モードであるか否かの判定を行う。連続撮影モードあるいは動画撮影モードである場合は、S1004へ移行し、それ以外の撮影情報である場合は、S1005へ移行する。
In S1003, the
S1004では、判定ブロック119は、前回の撮影した画像について被写体が検出できているか否かを判定する。被写体が検出できている場合は、S1007へ移行し、検出できていない場合は、S1005へ移行する。
In step S <b> 1004, the
S1005では、検出パラメータ選択ブロック117は、撮影情報入力ブロック121で取得した撮影情報に応じて、検出パラメータ群118の中から、第1パラメータを選択する。選択する第1パラメータについては、図9の検出パラメータと同一である。
In step S <b> 1005, the detection
S1006では、判定レベル決定ブロック120は、撮影情報入力ブロック121から入力された撮影情報に応じて、各検出パラメータについての第1判定レベルを決定する。第1判定レベルについては、図9の判定レベルと同一である。
In step S <b> 1006, the determination
S1007では、検出パラメータ選択ブロック117は、検出パラメータ群118の中から、第2パラメータを選択する。
In S1007, the detection
S1008では、判定レベル決定ブロック120は、各検出パラメータについての第2判定レベルを決定する。
In S1008, the determination
ここで、S1007での検出パラメータ選択処理及びS1008での判定レベル決定処理について、図11を用いて詳細に説明する。 Here, the detection parameter selection process in S1007 and the determination level determination process in S1008 will be described in detail with reference to FIG.
図11は、連続撮影や動画撮影モードで、かつ前回撮影した画像から被写体が検出できている場合の、検出パラメータと評価値の判定レベルを示す図である。 FIG. 11 is a diagram illustrating detection parameter and evaluation value determination levels when a subject can be detected from a previously captured image in continuous shooting or moving image shooting mode.
連続撮影や動画撮影モード時は、一旦画像から被写体を検出できた場合、次の画像でも同じ被写体が存在することが多い。従って、図9に示した連続撮影や動画撮影モード時における検出パラメータ数よりも少ない検出パラメータで被写体検出を行うことで、被写体が動いて顔の向きなどが大きく変わっても、被写体を検出し易くなる。また、検出パラメータの数を減らすことで、被写体検出に関わる時間を短縮することができる。 In continuous shooting or moving image shooting mode, if a subject can be detected from an image, the same subject often exists in the next image. Therefore, by performing subject detection with fewer detection parameters than the number of detection parameters in the continuous shooting and moving image shooting modes shown in FIG. 9, it is easy to detect the subject even if the subject moves and the face orientation changes greatly. Become. Also, by reducing the number of detection parameters, it is possible to shorten the time related to subject detection.
図10の説明に戻り、S1009では、被写体検出ブロック116は入力された画像を用いて、この画像中に顔の局所特徴である目と口に相当する形状部分の抽出を行う。そして、S1005あるいはS1007の動作で、検出パラメータ選択ブロック117により選択した各検出パラメータについて演算を行う。
Returning to the description of FIG. 10, in step S1009, the
S1010では、S1009で被写体検出ブロック116により演算した各検出パラメータについて演算した評価結果について、判定ブロック119により判定を行う。ここでは、演算した全ての評価結果が、判定レベル決定ブロックで決定した判定レベル範囲内である場合は、被写体の顔が検出できたと判断してS1011へ移行する。一方、演算した評価結果の1つでも判定レベル範囲外である場合は、被写体の顔が存在していないと判断して一連の動作を終了する。
In S1010, the
S1011では、S1009で検出した目と口の位置から被写体の顔の位置や、表情などの被写体情報をRAM112に記憶し、この後の撮影時の被写体位置を中心とした測光および焦点位置制御などに利用する。また、被写体情報を画像と関連付けて外部メモリ102へ記憶する。
In S1011, subject information such as the position of the subject's face and facial expression from the eye and mouth positions detected in S1009 is stored in the
以上のように、撮影情報に応じて、最適な検出パラメータおよび評価値の判定レベルを選択することで、検出率を上げると共に誤検出を低減することができる。更に、連続撮影や動画撮影モード時は、一旦画像から被写体を検出できた場合、検出パラメータや判定レベルを変更することで、被写体が動いて顔の向きなどが大きく変わっても、被写体に追従して検出することができる。 As described above, by selecting the optimum detection parameter and evaluation value determination level according to the photographing information, it is possible to increase the detection rate and reduce erroneous detection. Furthermore, in continuous shooting and movie shooting modes, if the subject can be detected once from the image, it can follow the subject even if the subject moves and the orientation of the face changes significantly by changing the detection parameters and judgment level. Can be detected.
また、検出パラメータの数を減らすことで、被写体検出に関わる時間を短縮することができ、連続撮影や動画撮影などで、撮影と撮影の時間間隔が短くても画像1枚(1フレーム)毎に被写体検出動作を行うことができる。
[第2の実施形態]
次に、第2の実施形態の顔検出処理について説明する。
In addition, by reducing the number of detection parameters, it is possible to shorten the time for subject detection. For continuous shooting or movie shooting, even if the time interval between shooting is short, every image (one frame) A subject detection operation can be performed.
[Second Embodiment]
Next, the face detection process of the second embodiment will be described.
図12は、本発明に係る画像処理装置を実装した第2の実施形態の撮像装置の主要な構成要素を示すブロック図である。 FIG. 12 is a block diagram illustrating main components of the imaging apparatus according to the second embodiment in which the image processing apparatus according to the present invention is mounted.
図12において、画像処理回路122は、被写体検出ブロック123、検出パラメータ群124、信頼性判定ブロック125、重み付けブロック126、撮影情報入力ブロック127を備える。そして、画像処理回路122は、映像信号処理回路103から入力された画像信号の中から被写体の顔に相当する位置情報や顔の特徴情報などの検出を行う。
12, the
撮影情報入力ブロック127は、スイッチ群114の設定により設定されたカメラの各種モードや、ストロボ発光の有無などの撮影情報を、重み付けブロック120へ出力する。
The shooting information input block 127 outputs shooting information such as various camera modes set by the setting of the switch group 114 and the presence or absence of flash emission to the
重み付けブロック126は、撮影情報入力ブロック121から出力された撮影情報に応じて、重み付け係数を決定して、その係数を判定ブロック125へ出力する。重み付け係数とは、後述する信頼性レベルの重要度を示す係数である。
The
被写体検出ブロック123では、画像から局所特徴(ここでは目や口)を抽出し、さらに検出パラメータ群124の検出パラメータについて画像を評価し、人物の顔に相当する位置情報や顔の特徴情報などをCPU100へ出力する。
In the
判定ブロック125は、被写体検出ブロック123で画像を評価した評価結果から被写体の顔であるか否かの判断基準である信頼性レベルと、重み付けブロック126から入力される重み付け係数から被写体の有無の判定を行う。
The
その他、図1と同一の構成については、同一の符号を付して説明を省略する。 In addition, about the structure same as FIG. 1, the same code | symbol is attached | subjected and description is abbreviate | omitted.
ここで検出パラメータ群124と信頼性レベルについて、図13を用いて詳細に説明する。
Here, the
図13は、検出パラメータと評価値、および信頼性レベルを示した図である。 FIG. 13 is a diagram showing detection parameters, evaluation values, and reliability levels.
検出パラメータの項目については、図8と同じであるので説明を省略する。 The detection parameter items are the same as those in FIG.
各パラメータについて演算した結果を評価結果とし、評価結果に応じた信頼性レベルを予め決定しておく。ここでは、信頼性レベルを2、1、0の3種類で表し、「2」が最も信頼性が高く、「0」が最も信頼性が低いものとする。 The result calculated for each parameter is used as an evaluation result, and a reliability level corresponding to the evaluation result is determined in advance. Here, the reliability levels are represented by three types of 2, 1, 0, and “2” is the highest reliability and “0” is the lowest reliability.
また、ここで説明した検出パラメータ、評価値、信頼性レベルは、一例でありこれに限るものではない。 The detection parameters, evaluation values, and reliability levels described here are merely examples, and the present invention is not limited thereto.
<動作説明>
次に、第2の実施形態の撮像装置の動作について、図14のフローチャートを用いて詳細に説明する。
<Description of operation>
Next, the operation of the imaging apparatus according to the second embodiment will be described in detail with reference to the flowchart of FIG.
図14において、S1401では、CPU100は、測光用センサ107、焦点検出用センサ108を制御することで、被写体の合焦具合や輝度を検出する。また、CPU100は、スイッチ群114の状態により設定された撮影モードに応じて、不図示の撮影レンズのフォーカスレンズ位置、絞り値や露光時間を決定する。そして、レンズ通信回路105を介して絞り値を制御し、ストロボ109、撮像センサ106を制御することで撮影動作を行う。撮影された画像信号は映像信号処理回路103で所定の信号処理が施された後、表示部110に表示されると共に、外部メモリ102へ保存され、被写体検出ブロック123へ出力される。
In FIG. 14, in S1401, the
S1402では、撮影情報入力ブロック127により、画像を撮影した時の撮影情報の取得を行う。撮影情報とは、スイッチ群114で設定されたカメラの各種モードや、ストロボ発光の有無など情報である。これらの情報を重み付けブロック126へ出力する。
In S1402, the shooting information input block 127 acquires shooting information when the image is shot. The shooting information is information such as various camera modes set by the switch group 114 and the presence or absence of flash emission. These pieces of information are output to the
S1403では、重み付けブロック126は、撮影情報入力ブロック123で取得した撮影情報に応じて重み付け係数を決定する。重み付け係数とは、判定ブロック125で決定した各検出パラメータについての信頼性レベルの重要度を表している。
In S1403, the
ここで、S1403での重み付け係数の決定動作についてより詳細に説明する。 Here, the determination operation of the weighting coefficient in S1403 will be described in more detail.
図15は、撮影情報と信頼性レベルの重み付け係数を示した図である。 FIG. 15 is a diagram showing weighting coefficients for the photographing information and the reliability level.
ポートレート撮影モード時は、被写体と撮像装置が正対し、かつ主被写体をメインに大きく撮影することが多い。この場合、主被写体の周辺に存在する人物ではなく確実に主被写体に対して検出を行う必要がある。従って、重み付けブロック126は、正対度を表す「目と口の位置関係」と「画面における顔の大きさ」の信頼性レベルの重要度を高くするように係数を決定する。
In the portrait shooting mode, the subject and the image pickup device face each other, and the main subject is often photographed mainly. In this case, it is necessary to reliably detect the main subject, not the person existing around the main subject. Therefore, the
ストロボ発光時は、ストロボ光より被写体の目が通常よりも細くなり、またストロボ光が瞳孔部で反射することで赤目になることが多い。従って、検出パラメータ選択ブロック117は検出パラメータ群118のうち、「目の色情報」と「目の縦横比」の信頼性レベルの重要度を低くし、赤目や細目でも被写体を検出できるように係数を決定する。
When the flash is fired, the subject's eyes are thinner than usual, and the red light is often reflected by the pupil and becomes red-eye. Therefore, the detection
露出補正撮影時は、ユーザが意図して被写体輝度を低くしたり、高くしたりする場合があり、色情報による被写体検出ができないことが多い。従って、「目の色情報」と「顔の色情報」の信頼性レベルの重要度を低く係数を決定する。 During exposure compensation shooting, the user may intentionally lower or increase the subject brightness, and in many cases, the subject cannot be detected based on color information. Accordingly, the coefficient is determined with a low importance level of the reliability level of “eye color information” and “face color information”.
連続撮影や動画撮影モード時は、被写体が動いているので、被写体と撮像装置が正対していないことが多い。従って、「目と口の位置関係」と、「画面における目の水平度」の信頼性レベルの重要度を低く係数を決定する。 In continuous shooting or moving image shooting mode, the subject is moving, so the subject and the imaging device often do not face each other. Accordingly, the coefficient is determined by lowering the importance of the reliability level of “the positional relationship between the eyes and the mouth” and “the level of the eyes on the screen”.
その他の撮影モードでは、全検出パラメータの信頼性レベルの重要度を同じになるように係数を決定する。 In other imaging modes, the coefficients are determined so that the reliability levels of all detection parameters have the same importance.
ここでは、各検出パラメータの重み付け係数を加算すると各撮影モードで同じ数値になっており、撮影モードにより被写体の状況を予測し、各検出パラメータに応じて信頼性レベルの重要度の比重を変えている。 Here, adding the weighting coefficient of each detection parameter results in the same numerical value in each shooting mode, predicts the situation of the subject according to the shooting mode, and changes the importance level of the reliability level according to each detection parameter. Yes.
S1405では、被写体検出ブロック123は入力された画像中から顔の局所特徴である目と口に相当する形状部分の抽出し、検出パラメータ群124ついて評価値の演算を行う。
In step S <b> 1405, the
S1406では、S1405で演算した各検出パラメータについて演算した評価結果とS1403の動作で決定した重み付け係数とから判定ブロック125により信頼性判定を行う。ここでは、検出パラメータ毎に、評価結果に対応した信頼性レベルと重み付け係数を乗算し、さらに乗算結果を全て加算演算し、総合信頼性レベルとする。総合信頼性レベルが所定レベル以上である場合は、被写体の顔が検出できたと判断してS1407へ移行する。一方、総合信頼性レベルが所定レベルより下である場合は、被写体の顔が存在していないと判断して一連の動作を終了する。 In S1406, reliability determination is performed by the determination block 125 from the evaluation result calculated for each detection parameter calculated in S1405 and the weighting coefficient determined in the operation of S1403. Here, for each detection parameter, the reliability level corresponding to the evaluation result is multiplied by the weighting coefficient, and all the multiplication results are added to obtain an overall reliability level. If the total reliability level is equal to or higher than the predetermined level, it is determined that the subject's face has been detected, and the process proceeds to S1407. On the other hand, when the total reliability level is lower than the predetermined level, it is determined that the face of the subject does not exist, and the series of operations is terminated.
S1407では、S1405で検出した目と口の位置から被写体の顔の位置や、表情などの被写体情報をRAM112に記憶し、次回撮影時に被写体位置を中心とした測光および焦点位置制御を行う。また、被写体情報を画像と関連付けて外部メモリ102へ記憶する。
In step S1407, subject information such as the position of the subject's face and facial expression detected from the eye and mouth positions detected in step S1405 is stored in the
また、図15の撮影情報と信頼性レベルの重み付け係数は一例であり、これらに限られるものではない。 Also, the imaging information and the reliability level weighting coefficients in FIG. 15 are examples, and the present invention is not limited to these.
以上のように、撮影情報に応じて、最適な信頼性レベルの重み付け係数を決定する事で被写体の検出率を上げると共に誤検出を低減することができる。 As described above, it is possible to increase the detection rate of the subject and reduce false detection by determining the weighting coefficient of the optimum reliability level according to the photographing information.
[他の実施形態]
本発明は、前述した実施形態の機能を実現するコンピュータプログラムを、システムあるいは装置に直接あるいは遠隔から供給することによって達成される場合も含む。その場合、システム等のコンピュータが該コンピュータプログラムを読み出して実行することになる。
[Other Embodiments]
The present invention includes a case where the computer program for realizing the functions of the above-described embodiments is achieved by supplying the system or apparatus directly or remotely. In that case, a computer such as a system reads and executes the computer program.
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるコンピュータプログラム自体も本発明を実現するものである。 Therefore, in order to realize the functional processing of the present invention with a computer, the computer program itself installed in the computer also implements the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。 In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.
プログラムを供給するための記録媒体(記憶媒体)としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク等がある。その他にも、MO、CD-ROM、CD-R、CD-RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD-ROM、DVD-R)等がある。 Examples of the recording medium (storage medium) for supplying the program include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. In addition, there are MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R) and the like.
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのものをダウンロードすることもできる。また圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するコンピュータプログラムを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 As another program supply method, a client computer browser can be used to connect to a homepage on the Internet, and the computer program itself of the present invention can be downloaded from the homepage. It can also be supplied by downloading a compressed file including an automatic installation function to a recording medium such as a hard disk. It can also be realized by dividing the computer program constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.
また、本発明のプログラムを暗号化してCD-ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザが、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードすることもできる。この場合、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現する。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and a user who satisfies predetermined conditions downloads key information for decryption from a homepage via the Internet. You can also. In this case, the downloaded key information is used to execute the encrypted program and install it on the computer.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOS等が、実際の処理の一部又は全部を行うことによっても実現され得る。 In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS or the like operating on the computer based on the instruction of the program may be a part of the actual processing. Alternatively, it can be realized by performing all of them.
更に、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットのメモリに書き込まれた後、該ボード等のCPU等が実際の処理の一部又は全部を行うことによっても実現される。 Furthermore, after the program read from the recording medium is written in the memory of a function expansion board inserted into the computer or a function expansion unit connected to the computer, the CPU of the board or the like performs a part of the actual processing. Alternatively, it can be realized by performing all of them.
100 CPU
101 画像処理回路
102 外部メモリ
103 映像信号処理回路
104 信号入力回路
105 レンズ通信回路
106 撮像センサ
107 測光用センサ
108 焦点検出用センサ
109 ストロボ
110 表示部
111 ROM
112 RAM
113 EEPROM
114 スイッチ群
115 レンズ制御信号
116 被写体検出ブロック
117 検出パラメータ選択ブロック
118 検出パラメータ群
119 判定ブロック
120 判定レベル決定ブロック
121 撮影情報入力ブロック
100 CPU
DESCRIPTION OF
112 RAM
113 EEPROM
114
Claims (22)
撮影時の撮影情報を取得する取得手段と、
前記撮影情報に応じて前記検出手段による被写体の検出条件を変更する変更手段と、
前記撮影条件により撮影画像から被写体の特徴情報を抽出し、当該特徴情報から被写体を検出する検出手段と、を備えることを特徴とする画像処理装置。 An image processing device for detecting a subject from a captured image,
Acquisition means for acquiring shooting information at the time of shooting;
Change means for changing the detection condition of the subject by the detection means according to the shooting information;
An image processing apparatus comprising: detection means for extracting feature information of a subject from a photographed image according to the photographing condition and detecting the subject from the feature information.
前記検出手段は、前記第1条件から被写体の特徴情報を抽出し、当該特徴情報の評価結果に基づいて被写体を特定することを特徴とした請求項2に記載の画像処理装置。 A first selection unit that selects at least one first condition from the plurality of detection conditions according to the photographing information;
The image processing apparatus according to claim 2, wherein the detection unit extracts feature information of the subject from the first condition and specifies the subject based on an evaluation result of the feature information.
前記第1判定レベルは前記撮影情報に応じて決定されることを特徴とした請求項1乃至3のいずれか1項に記載の画像処理装置。 A first determination means for determining the presence or absence of a subject by comparing the evaluation result with a first determination level;
The image processing apparatus according to claim 1, wherein the first determination level is determined according to the shooting information.
前記検出手段は、前記第2条件から被写体の特徴情報を抽出し、当該特徴情報の評価結果に基づいて被写体を特定することを特徴とした請求項3又は4に記載の画像処理装置。 A second selection unit that selects at least one second condition from the plurality of detection conditions when the subject is detected from the next photographed image after the subject is detected by the detection unit;
5. The image processing apparatus according to claim 3, wherein the detection unit extracts feature information of the subject from the second condition and specifies the subject based on an evaluation result of the feature information.
前記第2判定レベルは前記撮影情報に応じて決定されることを特徴とした請求項5又は6に記載の画像処理装置。 A second determination means for determining the presence or absence of a subject by comparing the evaluation result under the second condition and a second determination level;
The image processing apparatus according to claim 5, wherein the second determination level is determined according to the shooting information.
前記検出手段は、複数の検出条件を用いて被写体の特徴情報を抽出し、当該特徴情報の評価結果と、前記検出条件と前記重み付け係数とから求めた被写体の信頼性レベルとから被写体を特定することを特徴とする請求項1に記載の画像処理装置。 A determining unit that determines a weighting coefficient for the detection condition according to the imaging condition;
The detection unit extracts feature information of the subject using a plurality of detection conditions, and specifies the subject from the evaluation result of the feature information and the reliability level of the subject obtained from the detection condition and the weighting coefficient. The image processing apparatus according to claim 1.
撮影時の撮影情報を取得するステップと、
前記撮影情報に応じて被写体の検出条件を変更するステップと、
前記検出条件により撮影画像から被写体の特徴情報を抽出し、当該特徴情報から被写体を検出する検出ステップと、を備えることを特徴とする画像処理方法。 An image processing method for detecting a subject from a captured image,
Acquiring shooting information at the time of shooting;
Changing a subject detection condition in accordance with the shooting information;
An image processing method comprising: detecting feature information of a subject from a captured image according to the detection condition, and detecting the subject from the feature information.
前記検出ステップでは、前記第1条件から被写体の特徴情報を抽出し、当該特徴情報の評価結果に基づいて被写体を特定することを特徴とした請求項12に記載の画像処理方法。 A first selection step of selecting at least one first condition from the plurality of detection conditions according to the photographing information;
13. The image processing method according to claim 12, wherein in the detection step, feature information of the subject is extracted from the first condition, and the subject is specified based on an evaluation result of the feature information.
前記第1判定レベルは前記撮影情報に応じて決定されることを特徴とした請求項11乃至13のいずれか1項に記載の画像処理方法。 A first determination step of determining the presence or absence of a subject by comparing the evaluation result with a first determination level;
The image processing method according to claim 11, wherein the first determination level is determined according to the shooting information.
前記検出ステップでは、前記第2条件から被写体の特徴情報を抽出し、当該特徴情報の評価結果に基づいて被写体を特定することを特徴とした請求項13又は14に記載の画像処理方法。 A second selection step of selecting at least one second condition from the plurality of detection conditions when the subject is detected from the next captured image after the detection of the subject by the detection step;
15. The image processing method according to claim 13, wherein in the detection step, feature information of the subject is extracted from the second condition, and the subject is specified based on an evaluation result of the feature information.
前記第2判定レベルは前記撮影情報に応じて決定されることを特徴とした請求項15又は16に記載の画像処理方法。 A second determination step of determining the presence or absence of a subject by comparing the evaluation result under the second condition and a second determination level;
The image processing method according to claim 15 or 16, wherein the second determination level is determined according to the photographing information.
前記検出ステップでは、複数の検出条件を用いて被写体の特徴情報を抽出し、当該特徴情報の評価結果と、前記検出条件と前記重み付け係数とから求めた被写体の信頼性レベルとから被写体を特定することを特徴とする請求項11に記載の画像処理方法。 A determination step of determining a weighting coefficient for the detection condition according to the imaging condition;
In the detection step, the feature information of the subject is extracted using a plurality of detection conditions, and the subject is identified from the evaluation result of the feature information and the reliability level of the subject obtained from the detection condition and the weighting coefficient. The image processing method according to claim 11.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006140903A JP4777143B2 (en) | 2006-05-19 | 2006-05-19 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006140903A JP4777143B2 (en) | 2006-05-19 | 2006-05-19 | Image processing apparatus and image processing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2007312249A true JP2007312249A (en) | 2007-11-29 |
JP2007312249A5 JP2007312249A5 (en) | 2009-07-02 |
JP4777143B2 JP4777143B2 (en) | 2011-09-21 |
Family
ID=38844665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006140903A Expired - Fee Related JP4777143B2 (en) | 2006-05-19 | 2006-05-19 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4777143B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009212557A (en) * | 2008-02-29 | 2009-09-17 | Casio Comput Co Ltd | Imaging apparatus, imaging method and program |
JP2010015023A (en) * | 2008-07-04 | 2010-01-21 | Canon Inc | Image pickup apparatus, automatic focusing detection method and program |
JP2020118717A (en) * | 2019-01-18 | 2020-08-06 | キヤノン株式会社 | Imaging device and control method therefor |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001304855A (en) * | 2000-04-18 | 2001-10-31 | Olympus Optical Co Ltd | Range finder |
JP2001330882A (en) * | 2000-05-24 | 2001-11-30 | Canon Inc | Camera with subject recognizing function |
JP2006018523A (en) * | 2004-06-30 | 2006-01-19 | Canon Inc | Image processing device, image processing method, and computer program |
-
2006
- 2006-05-19 JP JP2006140903A patent/JP4777143B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001304855A (en) * | 2000-04-18 | 2001-10-31 | Olympus Optical Co Ltd | Range finder |
JP2001330882A (en) * | 2000-05-24 | 2001-11-30 | Canon Inc | Camera with subject recognizing function |
JP2006018523A (en) * | 2004-06-30 | 2006-01-19 | Canon Inc | Image processing device, image processing method, and computer program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009212557A (en) * | 2008-02-29 | 2009-09-17 | Casio Comput Co Ltd | Imaging apparatus, imaging method and program |
JP2010015023A (en) * | 2008-07-04 | 2010-01-21 | Canon Inc | Image pickup apparatus, automatic focusing detection method and program |
US8259214B2 (en) | 2008-07-04 | 2012-09-04 | Canon Kabushiki Kaisha | Image pickup apparatus and auto-focus detection method |
JP2020118717A (en) * | 2019-01-18 | 2020-08-06 | キヤノン株式会社 | Imaging device and control method therefor |
JP7277149B2 (en) | 2019-01-18 | 2023-05-18 | キヤノン株式会社 | Imaging device and its control method |
Also Published As
Publication number | Publication date |
---|---|
JP4777143B2 (en) | 2011-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5733952B2 (en) | IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD | |
JP4824627B2 (en) | Automatic focus adjustment device, automatic focus adjustment method, imaging device and imaging method | |
JP4350725B2 (en) | Image processing method, image processing apparatus, and program for causing computer to execute image processing method | |
JP4182117B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP4819001B2 (en) | Imaging apparatus and method, program, image processing apparatus and method, and program | |
JP4702418B2 (en) | Imaging apparatus, image region existence determination method and program | |
US7751615B2 (en) | Image processing apparatus and image processing method for changing color of pupil in photographic image | |
EP1950702B1 (en) | Imaging apparatus | |
US8411159B2 (en) | Method of detecting specific object region and digital camera | |
US8830374B2 (en) | Image capture device with first and second detecting sections for detecting features | |
JP5279635B2 (en) | Image processing apparatus, image processing method, and program | |
JP5759170B2 (en) | TRACKING DEVICE AND ITS CONTROL METHOD | |
JP6116277B2 (en) | Imaging apparatus and control method thereof | |
JP2008270896A (en) | Imaging device and program thereof | |
KR20100055938A (en) | Method and apparatus for displaying scene information, and digital photographing apparatus thereof | |
JP2009111716A (en) | Imaging apparatus, program and template generating method | |
JP2019121860A (en) | Image processing apparatus and control method therefor | |
JP4777143B2 (en) | Image processing apparatus and image processing method | |
JP2002311328A (en) | Electronic camera | |
JP2008064797A (en) | Optical device, imaging apparatus and method for controlling optical device | |
JP2011135510A (en) | Image processing method, image processing device, and imaging device | |
JP4841111B2 (en) | Digital camera device and program | |
JP5253184B2 (en) | Imaging apparatus, face detection method, and program | |
JP4781299B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP2008262305A (en) | Imaging device, control method therefor, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090515 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110624 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110629 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140708 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |