JP2008005438A - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP2008005438A JP2008005438A JP2006175788A JP2006175788A JP2008005438A JP 2008005438 A JP2008005438 A JP 2008005438A JP 2006175788 A JP2006175788 A JP 2006175788A JP 2006175788 A JP2006175788 A JP 2006175788A JP 2008005438 A JP2008005438 A JP 2008005438A
- Authority
- JP
- Japan
- Prior art keywords
- face
- information
- main
- main subject
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、主被写体となる人物の顔を選択する撮像装置及び撮像方法に関する。 The present invention relates to an imaging apparatus and an imaging method for selecting a person's face as a main subject.
被写体に自動的に焦点を合わせるAF(オートフォーカス)機能や露出を自動的に決定するAE(オートエクスポージャ)機能などを備える撮像装置(例えば、デジタルカメラ)が知られている。また、人物を被写体とする場合に、人物に合わせたAFやAEなど(以下、「AF等」と呼ぶ)をより正確に行うために、撮像範囲から人物や人物の顔を検出する機能を備える撮像装置も知られている。更に、撮像範囲に複数の人物が存在する場合でもより正確なAF等を行うために、複数の人物から主被写体となる人物や人物の顔を選択する機能を備える撮像装置も知られている(特許文献1乃至4参照)。
2. Description of the Related Art Image pickup apparatuses (for example, digital cameras) having an AF (autofocus) function for automatically focusing on a subject and an AE (auto exposure) function for automatically determining exposure are known. In addition, when a person is a subject, a function of detecting a person or a person's face from an imaging range is provided in order to more accurately perform AF, AE, etc. (hereinafter referred to as “AF etc.”) according to the person. Imaging devices are also known. Furthermore, an imaging apparatus having a function of selecting a person to be a main subject or a person's face from a plurality of persons is also known in order to perform more accurate AF or the like even when there are a plurality of persons in the imaging range ( (See
特許文献1乃至4に開示される撮像装置は、撮像範囲に存在する被写体の状態に基づいて、主被写体となる人物や人物の顔を選択していた。被写体の状態とは、例えば、撮像装置から被写体までの距離、撮像範囲における被写体の面積、撮像範囲における被写体の位置、被写体間の距離などを表す種々のパラメータを意味する。
従来の主被写体となる人物や人物の顔を選択する技術によれば、ある特定の時刻における被写体の状態のみに基づいて選択処理を行うため、以下に示す問題が発生しうる。 According to the conventional technology for selecting a person or a person's face as a main subject, the selection process is performed based only on the state of the subject at a specific time, and the following problems may occur.
図1は、時刻(タイミング)t=1〜4において撮像装置が検出した人物の顔及び主被写体となる人物の顔(以下、「主顔」と呼ぶ)を示す図である。実線の枠で示された部分(例えば、図1(a)左)が主顔であり、点線の枠で示された部分(例えば、図1(a)右)がそれ以外の顔である。図1(a)〜(d)に示すように、2つの顔の状態が略同じである場合、僅かな状態の変化によって主顔が頻繁に入れ替わる。 FIG. 1 is a diagram illustrating a person's face detected by the imaging apparatus at time (timing) t = 1 to 4 and a person's face as a main subject (hereinafter referred to as “main face”). The part indicated by the solid frame (for example, left of FIG. 1A) is the main face, and the part indicated by the dotted frame (for example, right of FIG. 1A) is the other face. As shown in FIGS. 1A to 1D, when the states of the two faces are substantially the same, the main face is frequently switched due to a slight change in the state.
表示装置213によるEVF(電子ビューファインダ)の表示が図1(a)〜(d)に示すように頻繁に変化することは、ユーザにとって煩わしい。また、主顔に合わせてAF等を行う場合、主顔が頻繁に入れ替わると、それに合わせてAFレンズ等も頻繁に駆動され、安定性、ひいては、精度が損なわれる場合もある。
It is troublesome for the user that the display of the EVF (electronic viewfinder) on the
本発明はこのような状況に鑑みてなされたものであり、撮像範囲から主顔を選択する際に、撮像範囲に存在する被写体の状態の変化を尊重しつつも、極端に頻繁に主顔が入れ替わることを抑制する技術を提供することを目的とする。 The present invention has been made in view of such a situation, and when selecting a main face from an imaging range, the main face is extremely frequently observed while respecting changes in the state of a subject existing in the imaging range. It aims at providing the technique which suppresses changing.
上記課題を解決するために、本発明の撮像装置は、画像データを取得する撮像手段と、前記撮像手段が取得した画像データから、人物の顔を検出する顔検出手段と、前記顔検出手段が検出した人物の顔から、主被写体となる顔を選択する選択手段とを有し、前記選択手段が、前記選択手段が過去に選択した主被写体となる顔についての情報が存在する場合には、当該過去の主被写体となる顔についての情報と、前記顔検出手段が検出した人物の顔についての情報から前記画像データにおける主被写体の顔を選択する第1のモードと、前記選択手段が過去に選択した主被写体となる顔についての情報が存在しない場合には、前記顔検出手段が検出した人物の顔についての情報から前記画像データにおける主被写体となる顔を選択する第2のモードとを有することを特徴とする。 In order to solve the above problems, an imaging apparatus according to the present invention includes an imaging unit that acquires image data, a face detection unit that detects a human face from the image data acquired by the imaging unit, and the face detection unit. A selection unit that selects a face to be a main subject from the detected face of the person, and when the selection unit has information on a face to be a main subject selected by the selection unit in the past, A first mode for selecting the face of the main subject in the image data from the information about the face as the main subject in the past and the information about the face of the person detected by the face detection means; and the selection means in the past If there is no information about the selected face as the main subject, the second mode for selecting the face as the main subject in the image data from the information about the face of the person detected by the face detection means. Characterized in that it has and.
また、本発明の撮像方法は、画像データを取得する撮像工程と、前記撮像工程で取得した画像データから、人物の顔を検出する顔検出工程と、前記顔検出工程で検出した人物の顔から、主被写体となる顔を選択する選択工程とを有し、前記選択工程が、前記選択工程で過去に選択した主被写体となる顔についての情報が存在する場合には、当該過去の主被写体となる顔についての情報と、前記顔検出工程で検出した人物の顔についての情報から前記画像データにおける主被写体の顔を選択する第1のモードと、前記選択工程で過去に選択した主被写体となる顔についての情報が存在しない場合には、前記顔検出工程で検出した人物の顔についての情報から前記画像データにおける主被写体となる顔を選択する第2のモードとを有することを特徴とする。 The imaging method of the present invention includes an imaging process for acquiring image data, a face detection process for detecting a human face from the image data acquired in the imaging process, and a human face detected in the face detection process. A selection step of selecting a face to be a main subject, and when the selection step includes information on the face to be a main subject selected in the past in the selection step, The first mode for selecting the face of the main subject in the image data from the information about the face and the information about the face of the person detected in the face detection step, and the main subject selected in the past in the selection step A second mode for selecting a face to be a main subject in the image data from information on the face of the person detected in the face detection step when no information about the face exists. To.
尚、その他の本発明の特徴は、添付図面及び以下の発明を実施するための最良の形態における記載によって更に明らかになるものである。 Other features of the present invention will become more apparent from the accompanying drawings and the following description of the best mode for carrying out the invention.
以上の構成により、本発明によれば、撮像範囲から主顔を選択する際に、撮像範囲に存在する被写体の状態の変化を尊重しつつも、極端に頻繁に主顔が入れ替わることを抑制することが可能となる。 With the above configuration, according to the present invention, when selecting a main face from the imaging range, it is possible to prevent the main face from being changed extremely frequently while respecting changes in the state of the subject existing in the imaging range. It becomes possible.
以下、添付図面を参照して、本発明の実施形態を説明する。以下で説明される個別の実施形態は、本発明の上位概念、中位概念および下位概念など種々の概念を理解するために役立つであろう。 Embodiments of the present invention will be described below with reference to the accompanying drawings. The individual embodiments described below will help to understand various concepts, such as the superordinate concept, intermediate concept and subordinate concept of the present invention.
尚、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。 The technical scope of the present invention is determined by the scope of the claims, and is not limited by the following individual embodiments. In addition, not all combinations of features described in the embodiments are essential to the present invention.
[第1の実施形態]
<撮像装置の構成及び動作>
図2は、実施形態に係る撮像装置の一例である、デジタルカメラ200の構成例を示すブロック図である。まず、電源が投入された後、シャッターボタン(不図示)が押下されていない状態でのデジタルカメラ200の動作を説明する。
[First Embodiment]
<Configuration and Operation of Imaging Device>
FIG. 2 is a block diagram illustrating a configuration example of a
デジタルカメラ200は、CCD201を種々のモード(後述)にて駆動し、例えば1/30秒毎に光電変換により画像信号を取得する。取得された画像信号は、OB部202に出力され、以降のブロックで順次信号処理が施される。本実施形態におけるCCD201は、図3(a)に示す通常のスチル読み出し(全画素読み出し)モードで動作できる。また、EVF(電子ビューファインダ)用あるいは動画用に、図3(b)に示すムービー読み出し(垂直方向2/8読み出し)等のモード(加算・間引きモード)で動作できる。EVF表示用には、電荷の読み出しを高速にする必要があり、一般的に、図3(b)に示す、加算・間引きモードでCCD201が駆動される。加算・間引きの種類は、図3(b)に示す以外にも色々あるが、本発明の主旨ではないため説明は省略する。
The
EVF用に駆動されたCCD201が取得した画像信号は、OB(オプチカルブラック)部202にて黒引きが実施される。そして、WB(ホワイトバランス)部203においてホワイトバランスが調整される。その後、色変換MTX206にてCrCb色差信号に変換される。そして、LPF(ローパスフィルタ)207で帯域が制限される。そして、CSUP回路208にて飽和部における色差信号が抑圧される。一方、ホワイトバランス調整後の画像信号は、輝度信号生成回路214に送られ輝度信号が作成される。その後、エッジ強調回路215にて輪郭補正が実施される。CSUP回路208における抑圧処理後の色差信号とエッジ強調された輝度信号は、RGB変換回路209にてRGB信号に変換される。そして、ガンマ補正回路210にてガンマ補正が施される。その後、色輝度変換回路211にてYUV信号に変換され、リサイズ回路223にてEVF表示用の画像サイズ、例えば320ピクセル×240ピクセルの画像サイズにリサイズされ、表示装置213に転送される。
The image signal acquired by the
一方、リサイズされたYUV信号は、顔検出モジュール(VBPF部217、目検出部218、非顔フィルタパターン認識部219)にも転送される。顔検出モジュールでは、定期的に、リサイズされたYUV信号を用いて顔検出処理を行う。そして、検出した顔情報(顔座標値、目座標値、信頼度情報など。詳細は後述。)を顔レジスタ224に書き込む。ここで、顔検出モジュールによる検出処理の周期と表示装置213によるEVFの更新周期は必ずしも一致せず、それぞれ独立に設定できる。尚、顔の検出方法は、本発明の主眼点ではないため詳細な説明は省略する。
On the other hand, the resized YUV signal is also transferred to the face detection module (
顔検出モジュールは、所定の画像処理により、画像データから人物の顔を検出することができる。例えば、瞳の色が黒色や茶色などの一定の色であり、かつ、一定の大きさであることを利用して、目が2つあるか否かを判断する。そして、検出された2つの目の間隔が一般的な顔における2つの目の間隔に近いか否かを判断する。更に、顔の色が肌色や黒色などの一定の色であることを利用して、一般的な顔の面積に近い面積の肌色領域が画像データに存在するか否かを判断してもよい。 The face detection module can detect a person's face from image data by predetermined image processing. For example, it is determined whether there are two eyes by using the fact that the pupil color is a certain color such as black or brown and has a certain size. Then, it is determined whether or not the detected interval between the two eyes is close to the interval between the two eyes in a general face. Further, it may be determined whether or not a skin color area having an area close to a general face area exists in the image data by using the fact that the face color is a constant color such as skin color or black.
次に、シャッターボタン(不図示)が半押しされた後のデジタルカメラ200の動作を説明する。
Next, the operation of the
ユーザによりシャッターボタン(不図示)が半押しされると、システムコントローラ220は顔レジスタ224より、その時点で最新の顔情報を読み込む。ここで、検出された顔が2つ以上ある場合には、その中から主被写体となる顔(主顔)を選択する主顔選択処理を実施する。主顔選択処理の詳細は後述する。尚、主顔選択処理は、シャッターボタン(不図示)が半押しされた時ではなく、デジタルカメラ200に電源が投入された時点で開始されてもよい。
When the user presses a shutter button (not shown) halfway, the
システムコントローラ220は、主顔選択処理で決定された主顔情報を用いて、AE/EF制御部221及びAF制御部222にAF用測距枠及びAEで使用する測光重みを設定する。そして、AF動作及びAE動作を行い、完了したら表示装置213等を介してユーザにその旨を通知する。AF及びAE動作の具体的な処理内容は本発明の主眼点ではないため説明は省略する。
The
ここで、シャッターボタンが押下される前も、半押しされた後も、CCD201は所定のタイミングで連続的に画像信号を取得し、表示装置213に表示したり主顔選択処理に使用したりする画像データを取得していることに注意されたい。
Here, before and after the shutter button is pressed halfway, the
<主顔選択処理>
図4は、第1の実施形態に係る、デジタルカメラ200による主顔選択処理の流れを示すフローチャートである。本フローチャートの各ステップの処理は、例えば、システムコントローラ220が不図示のROMに格納されているプログラムを実行することにより実現可能である。以下、特に断らなければ、システムコントローラ220が各ステップの処理を行うものとする。
<Main face selection process>
FIG. 4 is a flowchart showing a flow of main face selection processing by the
(ステップS401)
主顔選択処理が行われた回数をカウントする変数カウンターが0に初期化される。
(Step S401)
A variable counter that counts the number of times the main face selection process has been performed is initialized to zero.
(ステップS402)
所定のタイミングtにおける、顔検出結果が取得される。顔検出結果は、CCD201が取得した画像信号がその後リサイズ部223によってリサイズされて得られる画像データに存在する顔の情報である。
(Step S402)
A face detection result at a predetermined timing t is acquired. The face detection result is information on a face existing in image data obtained by the image signal acquired by the
図5は、顔情報の一例を示す図である。顔情報として、検出された顔の中心座標(x、y)、顔を正方形とした場合の一辺の長さを示す顔サイズsize、検出された顔が顔である確からしさを示す信頼度値が取得される。 FIG. 5 is a diagram illustrating an example of face information. As face information, there are a center coordinate (x, y) of a detected face, a face size size indicating the length of one side when the face is a square, and a reliability value indicating the probability that the detected face is a face. To be acquired.
顔サイズは、例えば、顔の大部分が肌色であることを利用して、所定のサイズの正方形に含まれる肌色領域の割合が所定の値となるようなサイズとすることができる。 The face size can be set to such a size that the ratio of the skin color area included in the square of a predetermined size becomes a predetermined value by utilizing the fact that most of the face is a skin color.
信頼度は、例えば、瞳の色が黒であることを利用して、目が2つあるか否か、2つの目の距離はどれくらいか、2つの目の間に鼻が存在するか否かなどに基づき決定される。本実施形態では、信頼度は、1乃至10の10段階で表現され、1が最も顔の確率が高いことを示す。 For example, the reliability is based on the fact that the pupil color is black, whether there are two eyes, how far the two eyes are, and whether there is a nose between the two eyes. Determined based on the above. In this embodiment, the reliability is expressed in 10 levels of 1 to 10, with 1 indicating the highest probability of the face.
(ステップS403)
検出された顔がひとつである場合はステップS417に進み、Counter=0とする。そして、ステップS402へ戻り、同様の処理を繰り返す。一方、検出された顔が複数ある場合には、ステップS404に進む。尚、ステップS417においては、Counterの値を1以上とし、検出された1つの顔を主顔として顔レジスタ224に主顔の顔情報を格納してもよい。
(Step S403)
If there is only one detected face, the process proceeds to step S417, where Counter = 0 is set. And it returns to step S402 and repeats the same process. On the other hand, if there are a plurality of detected faces, the process proceeds to step S404. In step S417, the counter value may be set to 1 or more, and the face information of the main face may be stored in the
(ステップS404)
Counter=0のとき、ステップS405に進み、そうでない場合はステップS409に進む。
(Step S404)
When Counter = 0, the process proceeds to step S405. Otherwise, the process proceeds to step S409.
(ステップS405)
ステップS405乃至ステップS408における計算処理は、ステップS102において読み込まれた全ての顔情報(即ち、検出された全ての顔の情報)に対して行われる。
(Step S405)
The calculation processing in steps S405 to S408 is performed on all face information read in step S102 (that is, information on all detected faces).
まず、検出された顔の信頼度と、図6に示す信頼度−重み特性グラフを用いて、第1の重みを算出する。図6は、入力(x軸)を検出された顔の信頼度、出力(y軸)を第1の重みとしたグラフである。本実施形態では、信頼度が3までは第1の重みを1とし、信頼度5において第1の重みが0となるように信頼度3から5までを直線で結び、信頼度が5以上の場合は第1の重みが0とする。
First, the first weight is calculated using the reliability of the detected face and the reliability-weight characteristic graph shown in FIG. FIG. 6 is a graph in which the input (x-axis) is the detected face reliability and the output (y-axis) is the first weight. In the present embodiment, the first weight is set to 1 until the reliability is 3, and the
(ステップS406)
検出された顔のサイズと、図7に示す顔サイズ−重み特性グラフを用いて、第2の重みを算出する。図7は、入力(x軸)を検出された顔のサイズ、出力(y軸)を第2の重みとしたグラフである。本実施形態では、顔サイズが0(単位は例えばピクセル。以下同様。)のときに重みを0、顔サイズが20のとき重みが0.2になるよう顔サイズ0から20までを直線で結ぶ。更に、顔サイズが30のときに重みが1になるよう顔サイズ20から30までを直線で結び、顔サイズ30以上は重みを1.0とする。
(Step S406)
The second weight is calculated using the detected face size and the face size-weight characteristic graph shown in FIG. FIG. 7 is a graph in which the input (x-axis) is the detected face size and the output (y-axis) is the second weight. In the present embodiment, the
(ステップS407)
検出された顔において、図5に示すような、検出された顔の中心座標値と例えば画面の中央座標値との距離情報distを算出し、その距離情報distと図8に示す距離−重み特性グラフを用いて、第3の重みを算出する。本実施形態では、顔検出対象の画像データは表示装置213のEVF表示用画像データであるためサイズが320ピクセル×240ピクセルである。そのため、中心座標(160,120)からの距離を三平方の定理を利用して算出する。そして、図8のグラフを利用して第3の重みを求める。本実施形態では、距離が10までは重みを1.0、距離80になると重みが0になるよう距離10から80までを直線で結び、距離80以上は重みが0となる。
(Step S407)
For the detected face, distance information dist between the center coordinate value of the detected face and, for example, the center coordinate value of the screen, as shown in FIG. 5, is calculated, and the distance information dist and the distance-weight characteristic shown in FIG. A third weight is calculated using the graph. In the present embodiment, the face detection target image data is the image data for EVF display of the
(ステップS408)
ステップS405乃至S407で算出した第1乃至第3の重みを乗算し、最終重みを算出し、ステップS415に進む。尚、最終重みの算出は、乗算に限られるものではなく、例えば、第1乃至第3の重みの総和によって求められてもよい。
(Step S408)
The final weight is calculated by multiplying the first to third weights calculated in steps S405 to S407, and the process proceeds to step S415. The calculation of the final weight is not limited to multiplication. For example, the final weight may be obtained by the sum of the first to third weights.
(ステップS409)
ステップS404からS409へ進むのは、Counterの値が0ではない時、即ち、前回の主顔選択処理において主顔が選択されており、主顔の情報が顔レジスタ224に格納されている時である。ステップS409では、前回選択された主顔の情報を顔レジスタ224から取得し、ステップS402において取得した顔情報それぞれとの距離を算出する。即ち、図9に示すように、タイミングtにおいて検出された複数の顔全てについて、前回のタイミングt−1において選択された主顔(以下、「前回主顔」と呼ぶ)の座標値との距離dist_preMainFaceを以下の式1を用いて算出する。
(Step S409)
The process proceeds from step S404 to S409 when the value of Counter is not 0, that is, when the main face is selected in the previous main face selection process and the main face information is stored in the
(ステップS410)
ステップS409において算出された前回主顔との距離を用いて、第4の重みを算出する。例えば、前回主顔と最も距離が短い顔を、タイミングtにおける主顔候補とし、主顔候補の補正重みとして予め設定された値kHoseiWeightMainFace(例えば1.5)を第4の重みとして割り当てる。更に、主顔候補以外の検出された顔に対しては、第4の重みとして、kHoseiWeightOtherFace(=1.0)を割り当てる。また、前回主顔との距離が最短である顔が複数存在する場合には、距離が最短である顔全てを主顔候補とし、第4の重みとしてkHoseiWeightMainFaceを割り当てる。
(Step S410)
A fourth weight is calculated using the distance from the previous main face calculated in step S409. For example, the face having the shortest distance from the previous main face is set as a main face candidate at timing t, and a value kHoseiWeightMainFace (for example, 1.5) preset as the main face candidate correction weight is assigned as the fourth weight. Furthermore, kHoseiWeightOtherFace (= 1.0) is assigned to the detected face other than the main face candidate as the fourth weight. When there are a plurality of faces having the shortest distance from the previous main face, all the faces having the shortest distance are set as main face candidates, and kHoseiWeightMainFace is assigned as the fourth weight.
また、図10のような、式1で算出した前回主顔からの距離dist_preMainFaceから第4の重みを決定する、前回距離−重み特性グラフを用いて、第4の重みを算出してもよい。
Alternatively, the fourth weight may be calculated using a previous distance-weight characteristic graph that determines the fourth weight from the distance dist_preMainFace from the previous main face calculated by
(ステップS411乃至S413)
ここでは、ステップS405乃至S407における処理と同じ処理が行われる。
(Steps S411 to S413)
Here, the same processing as the processing in steps S405 to S407 is performed.
(ステップS414)
式2に従って、ステップS410で算出された第4の重みとステップS411からS413で算出された第1から第3の重みを乗算し、検出された顔それぞれの最終重みを算出する。尚、最終重みの算出は、乗算に限られるものではなく、例えば、第1乃至第4の重みの総和によって求められてもよい。
(Step S414)
According to
(ステップS415)
ステップS408又はS414において算出された、検出された複数の顔それぞれに関する最終重みに従い、最も重みの大きい顔を、タイミングtにおける主顔として確定(選択)する。そして、選択した主顔の顔情報を顔レジスタ224に格納する。
(Step S415)
According to the final weights for each of the detected faces calculated in step S408 or S414, the face with the largest weight is determined (selected) as the main face at timing t. Then, the face information of the selected main face is stored in the
(ステップS416)
Counterの値を1増やし(Counter=Counter+1)、ステップS102に戻って同様の処理を繰り返す。
(Step S416)
The value of Counter is incremented by 1 (Counter = Counter + 1), and the process returns to step S102 to repeat the same processing.
ここで、図4には明示していないが、前回主顔が選択された時から所定の時間が経過した場合、Counterの値を0にリセットするようにデジタルカメラ200を構成してもよい。即ち、デジタルカメラ200は、原則として、前回主顔を利用して主顔を選択するが、前回主顔が時間的に古すぎる場合、前回主顔とは無関係に、ステップS405乃至S408及びS415に従って主顔を選択してもよい。
Here, although not explicitly shown in FIG. 4, the
<主顔選択処理の具体例>
以上、図4を参照して、主顔選択処理の流れを説明した。ここでは、図11のような連続するシーン(タイミングt=1から4)にて2つの顔(「顔1」「顔2」と呼ぶ)が検出された場合の主顔選択処理の具体例を、各タイミングにおける顔情報を示した図12と、上述のフローチャート(図4)とを用いて説明する。また、図13は、各タイミングにおける各々の顔に対する第1〜第4の重み、最終重み、前回主顔との距離、主顔選択結果を示す図である。
<Specific example of main face selection processing>
The flow of the main face selection process has been described above with reference to FIG. Here, a specific example of main face selection processing when two faces (referred to as “
(t=1における主顔選択)
図4のステップS101からS402に沿って動作し、ステップS403にて検出された顔が2個のためステップS404に進み、Counter=0のためステップS405に進む。
(Main face selection at t = 1)
The operation proceeds from step S101 to step S402 in FIG. 4. Since there are two faces detected in step S403, the process proceeds to step S404, and because Counter = 0, the process proceeds to step S405.
ステップS405において、検出された各顔における信頼度による第1の重み(Weight1)が算出される。本実施形態では、顔1、2共に信頼度が1のため、Weight1は1となる。
In step S405, a first weight (Weight1) based on the reliability of each detected face is calculated. In this embodiment, the reliability is 1 for both
ステップS406において、顔のサイズより第2の重み(Weight2)が算出され、図13に示すようになる。 In step S406, the second weight (Weight2) is calculated from the face size, as shown in FIG.
ステップS407において、中心からの距離により第3の重み(Weight3)が算出され、図13に示すようになる。 In step S407, a third weight (Weight 3) is calculated based on the distance from the center, as shown in FIG.
ステップS408において、重み1から3の値を乗算することで、それぞれの顔における最終重み(Total_Weight)が算出される。
In step S408, the final weight (Total_Weight) for each face is calculated by multiplying the values of
ステップS415において、顔1の最終重みが顔2の最終重みよりも大きいため、主顔として顔1が選択される。図13において、カラム「主顔」に1の値が入っているものが主顔であることを示す。
In step S415, since the final weight of
ステップS416において、Counterの値を1増やす。 In step S416, the value of Counter is increased by one.
(t=2における主顔選択)
ステップS402において顔情報が読み込まれ、ステップS403、S404を通り、ステップS409へと処理が進む。
(Main face selection at t = 2)
In step S402, face information is read, and the process proceeds to step S409 through steps S403 and S404.
ステップS409において、t=2において検出された顔の中心座標と、t=1のときの主顔(前回主顔で、ここでは顔1)の中心座標の距離を算出する。そして、距離が最も近い顔をt=2における主顔候補とする。図13より、顔1と前回主顔の距離が10、顔2と前回主顔の距離が105であり、顔1が主顔候補とされる。
In step S409, the distance between the center coordinates of the face detected at t = 2 and the center coordinates of the main face (previous main face, here face 1) at t = 1 is calculated. Then, the face with the shortest distance is set as a main face candidate at t = 2. From FIG. 13, the distance between
ステップS410において、ステップS409の結果に基づき、前回主顔と最も距離が近い顔(顔1)の第4の重みを例えば1.5、それ以外を1.0に設定する。 In step S410, based on the result of step S409, the fourth weight of the face closest to the previous main face (face 1) is set to 1.5, for example, and the others are set to 1.0.
ステップS411からS413において、それぞれの顔に対する第1乃至第3の重みが算出される。 In steps S411 to S413, first to third weights for each face are calculated.
ステップS14において、第1乃至第4の重みを用いてt=2における最終重みが算出される。図13より、顔1の最終重みは0.42、顔2の最終重みは0.35となる。
In step S14, the final weight at t = 2 is calculated using the first to fourth weights. From FIG. 13, the final weight of
従って、ステップS415において、主顔として顔1が選択される。
Accordingly, in step S415,
(t=3における主顔選択)
t=2における主顔選択処理と同様な処理経路となり、主顔として顔1が選択される。
(Main face selection at t = 3)
The processing path is the same as the main face selection process at t = 2, and
(t=4における主顔選択)
t=3における主顔選択処理と同様な処理経路となるが、顔1における中心からの距離に基づく第3の重みが0となるため、最終重みも0となり、主顔として顔2が選択される。
(Main face selection at t = 4)
The processing path is the same as the main face selection process at t = 3, but the third weight based on the distance from the center of
(第4の重みを利用しない場合)
ここで、比較のために、t=1〜4において、第4の重みを利用せずに主顔を選択した場合を、図1及び図14を参照して説明する。上述した図11及び図13の場合と全く同じ位置に2つの顔が存在しても、図1及び図14に示すように、主顔が頻繁に入れ替わることが分かる。
(When not using the fourth weight)
Here, for comparison, a case where the main face is selected without using the fourth weight at t = 1 to 4 will be described with reference to FIGS. 1 and 14. Even if two faces are present at exactly the same positions as in the case of FIGS. 11 and 13 described above, it can be seen that the main face frequently changes as shown in FIGS.
<第1の実施形態のまとめ>
以上説明したように、本実施形態によれば、デジタルカメラ200は、CCD201が取得した画像信号から得られる画像データから、主被写体となる人物の顔を選択する。選択処理に際しては、あるタイミングにおける複数の顔それぞれの状態に基づいて算出される重みに加えて、複数の顔それぞれと、それ以前のタイミングにおける主顔との距離に基づいて算出される重み(第4の重み)も利用する。第4の重みは、それ以前のタイミングにおける主顔との距離が近い顔ほど大きくなるように算出される。
<Summary of First Embodiment>
As described above, according to the present embodiment, the
これにより、撮像範囲から主顔を選択する際に、撮像範囲に存在する被写体の状態の変化を尊重しつつも、極端に頻繁に主顔が入れ替わることを抑制することが可能となる。 Thereby, when selecting the main face from the imaging range, it is possible to prevent the main face from being changed extremely frequently while respecting the change in the state of the subject existing in the imaging range.
[第2の実施形態]
第1の実施形態では、主顔選択処理に際して、検出された顔と前回主顔との距離を利用した。第2の実施形態では、更に、現在の画像データで検出された顔と、基準として用いられる過去に選択された主顔(以下、「リファレンス顔」と呼ぶ)との距離差及びサイズの差も利用して主顔を選択する。これは、一般的な撮影においては、主顔が撮像範囲の中央付近に存在する確率が高いことに着目した構成である。即ち、現在の画像データから選択される主顔が、リファレンス顔の位置からある程度移動した場合を考える。この場合は、前回主顔の位置を考慮せずに主顔の選択(図4のステップS405乃至S408、及び、S415)を行った方が、ユーザの意図に沿う確率が高いという検証データに基づいている。
[Second Embodiment]
In the first embodiment, the distance between the detected face and the previous main face is used in the main face selection process. In the second embodiment, the distance difference and the size difference between the face detected in the current image data and the main face selected in the past (hereinafter referred to as “reference face”) used as a reference are also included. Use to select the main face. This is a configuration focusing on the high probability that the main face exists in the vicinity of the center of the imaging range in general shooting. That is, consider a case where the main face selected from the current image data has moved to some extent from the position of the reference face. In this case, based on the verification data that the main face selection (steps S405 to S408 and S415 in FIG. 4) without considering the previous main face position has a higher probability of meeting the user's intention. ing.
尚、本実施形態において、デジタルカメラ200の構成(図2参照)は第1の実施形態と同様であるため、その説明を省略する。 In the present embodiment, the configuration of the digital camera 200 (see FIG. 2) is the same as that of the first embodiment, and thus the description thereof is omitted.
<主顔選択処理>
図15は、第2の実施形態に係る、デジタルカメラ200による主顔選択処理の流れを示すフローチャートである。本フローチャートの各ステップの処理は、例えば、システムコントローラ220が不図示のROMに格納されているプログラムを実行することにより実現可能である。以下、特に断らなければ、システムコントローラ220が各ステップの処理を行うものとする。また、第1の実施形態(図4)と同一の処理を行うステップには同一の符号を付し、説明を省略する。
<Main face selection process>
FIG. 15 is a flowchart showing a flow of main face selection processing by the
(ステップS1508〜S1510)
ステップS404においてCounter=0であれば、ステップS1508において、図4のステップS405乃至S408、及び、S415と同一の処理により、主顔を選択する。ステップS1509で、選択された主顔の顔情報は、リファレンス顔として顔レジスタ224に格納される。ステップS1510で、Counterの値が1になり、ステップS402に戻る。また、選択された主顔の顔情報は、前回主顔としても顔レジスタ224に格納される。
(Steps S1508 to S1510)
If Counter = 0 in step S404, the main face is selected in step S1508 by the same processing as in steps S405 to S408 and S415 in FIG. In step S1509, the face information of the selected main face is stored in the
尚、第1の実施形態と同様の考えに基づき、ステップS417において、1つの検出された顔を主顔とし、この主顔の顔情報をリファレンス顔として顔レジスタ224に格納してもよい。この場合、ステップS417では、Counter=1とする。また、選択された主顔の顔情報は、前回主顔としても顔レジスタ224に格納される。
Note that, based on the same idea as in the first embodiment, in step S417, one detected face may be set as the main face, and face information of this main face may be stored in the
(ステップS1501)
ステップS402で取得された各々の顔について、前回主顔との距離を算出し(図9参照)、前回主顔に近い順にソートする。そして、前回主顔に最も近い顔を主顔候補とする。
(Step S1501)
For each face acquired in step S402, the distance from the previous main face is calculated (see FIG. 9), and sorted in the order closer to the previous main face. The face closest to the previous main face is set as a main face candidate.
(ステップS1502)
リファレンス顔と主顔候補の中心座標間の距離を算出し、主顔移動距離(Δdis_MainFace)とする。算出方法は、前回主顔がリファレンス顔になる以外、図9に示すものと同様である。
(Step S1502)
A distance between the center coordinates of the reference face and the main face candidate is calculated and set as a main face moving distance (Δdis_MainFace). The calculation method is the same as that shown in FIG. 9 except that the previous main face becomes the reference face.
(ステップS1503)
ステップS1502で算出した主顔移動距離が、予め設定された距離Th_dis以下であればステップS1504に進む。そうでない場合は、主顔候補は実際には主顔ではないと判断し、ステップS1507に進む。ここで距離Th_disは、例えば式3のように、リファレンス顔のサイズに予め設定された係数をかけることで設定することができる。
(Step S1503)
If the main face moving distance calculated in step S1502 is less than or equal to the preset distance Th_dis, the process proceeds to step S1504. Otherwise, it is determined that the main face candidate is not actually the main face, and the process proceeds to step S1507. Here, the distance Th_dis can be set by multiplying the size of the reference face by a preset coefficient, for example, as shown in
Th_dis=RefFaceSize×kThHoseiVal1 (式3)
RefFaceSize: リファレンス顔のサイズ(一辺の長さ)
KthHoseiVal1: 定数
(ステップS1504)
リファレンス顔のサイズと主顔候補のサイズとの差分値ΔSを算出する。
Th_dis = RefFaceSize × kThHoseiVal1 (Formula 3)
RefFaceSize: Reference face size (length of one side)
KthHoseiVal1: constant (step S1504)
A difference value ΔS between the size of the reference face and the size of the main face candidate is calculated.
(ステップS1505)
差分値ΔSが予め設定された差分値Th_size以下であればステップS1506に進む。そうでない場合は、主顔候補は実際には主顔ではないと判断し、ステップS1507に進む。ここで、Th_sizeは、例えば式4のように、リファレンス顔のサイズに予め設定された係数をかけることで設定することができる。
(Step S1505)
If the difference value ΔS is less than or equal to the preset difference value Th_size, the process proceeds to step S1506. Otherwise, it is determined that the main face candidate is not actually the main face, and the process proceeds to step S1507. Here, Th_size can be set by multiplying the size of the reference face by a preset coefficient, for example, as shown in
Th_size=RefFaceSize×kThHoseiVal2 (式4)
RefFaceSize: リファレンス顔のサイズ(一辺の長さ)
KthHoseiVal2: 定数
(ステップS1506)
主顔候補を主顔として決定し、更に、前回主顔として顔レジスタ224に顔情報を格納する。
Th_size = RefFaceSize × kThHoseiVal2 (Formula 4)
RefFaceSize: Reference face size (length of one side)
KthHoseiVal2: constant (step S1506)
The main face candidate is determined as the main face, and the face information is stored in the
(ステップS1507)
ステップS1501においてソートされた順に従って、次に前回主顔から近い顔を主顔候補とし、ステップS1502に戻り、同様の処理を繰り返す。検出された全ての顔について処理を行った場合は、主顔の位置が大きく動いたため前回主顔の位置を利用することは適当でないと判断し、ステップS1508に進む。
(Step S1507)
In the order sorted in step S1501, the next closest face to the previous main face is set as a main face candidate, the process returns to step S1502, and the same processing is repeated. When processing has been performed for all detected faces, the main face position has moved greatly, so it is determined that it is not appropriate to use the previous main face position, and the process advances to step S1508.
<主顔選択処理の例>
以上、図15を参照して、主顔選択処理の流れを説明した。ここでは、第1の実施形態と同様、図11のような連続するシーン(タイミングt=1から4)にて2つの顔が検出された場合の主顔選択処理の例を、各タイミングにおける顔情報を示した図12と、上述のフローチャート(図15)とを用いて説明する。また、図16は、各タイミングにおける各々の顔に対する第1〜第3の重み、最終重み、リファレンス顔座標、リファレンス画像との距離、Th_dis、主顔選択結果を示す図である。尚、説明を簡単にするため、顔サイズに関する説明は省略する。
<Example of main face selection processing>
The flow of the main face selection process has been described above with reference to FIG. Here, as in the first embodiment, an example of main face selection processing when two faces are detected in a continuous scene (timing t = 1 to 4) as shown in FIG. This will be described with reference to FIG. 12 showing information and the above-described flowchart (FIG. 15). FIG. 16 is a diagram illustrating first to third weights, final weights, reference face coordinates, distances from a reference image, Th_dis, and main face selection results for each face at each timing. For the sake of simplicity, description regarding the face size is omitted.
(t=1における主顔選択)
図15のステップS401からS402に沿って動作し、ステップS403にて検出された顔が2個のためステップS404に進み、Counter=0のためステップS1508に進む。
(Main face selection at t = 1)
The operation proceeds from step S401 to step S402 in FIG. 15. Since there are two faces detected in step S403, the process proceeds to step S404, and because Counter = 0, the process proceeds to step S1508.
ステップS1508において、検出された各顔における信頼度による第1の重み(Weight1)、顔のサイズによる第2の重み(Weight2)、顔の中心位置による第3の重み(Weight3)が算出される。そして、これらを乗算して最終重みを算出し、最終重みが最も大きい顔をt=1における主顔とし、リファレンス顔として顔情報を顔レジスタ224に格納する。また、Counterを1にセットする。
In step S1508, a first weight (Weight1) based on the reliability of each detected face, a second weight (Weight2) based on the face size, and a third weight (Weight3) based on the center position of the face are calculated. Then, the final weight is calculated by multiplying them, the face with the largest final weight is set as the main face at t = 1, and the face information is stored in the
本実施形態では、顔1、顔2に対して上記計算がなされ、図16に示すように顔1の最終重みは0.42、顔2の最終重みは0.35となり、顔1が主顔に設定される。
In this embodiment, the above calculation is performed for
(t=2における主顔選択)
ステップS402において顔情報が読み込まれ、ステップS403、S404を通り、ステップS1501へと処理が進む。
(Main face selection at t = 2)
In step S402, face information is read, and the process proceeds to step S1501 through steps S403 and S404.
ステップS1501において、t=2において検出された複数の顔全てについて、中心座標と、リファレンス顔(本実施形態では、t=1における顔1)の中心座標との距離を算出する。そして、リファレンス顔との距離が近い順に、検出された複数の顔をソートする。本実施形態では、顔1とリファレンス顔との距離が10、顔2とリファレンス顔との距離が105となり、ソートの結果、顔1、顔2という順番になる。そこで、まず距離の近い顔1を主顔候補としてステップS1502以降の処理を行う。
In step S1501, the distance between the center coordinates and the center coordinates of the reference face (
ステップS1502において主顔候補とリファレンス顔との距離を算出する。ここでは、10である。 In step S1502, the distance between the main face candidate and the reference face is calculated. Here, it is 10.
ステップS1503において、予め設定した距離Th_dis(=30)と比較し、Th_dis以下であるため、ステップS1504に進む。 In step S1503, the distance is compared with a preset distance Th_dis (= 30) and is equal to or less than Th_dis, and thus the process proceeds to step S1504.
顔のサイズについては詳細を省略するが、差分値がTh_size以下であり、ステップS1505からS1506へと進む。 Although the details of the face size are omitted, the difference value is equal to or smaller than Th_size, and the process proceeds from step S1505 to S1506.
ステップS1506において、顔1が主顔と設定される。
In step S1506,
(t=3における主顔選択)
t=2における主顔選択処理と同様な処理により、顔1が主顔として選択される。
(Main face selection at t = 3)
(t=4における主顔選択)
ステップS1501まではt=3における主顔選択処理と同様な処理が行われる。
(Main face selection at t = 4)
Up to step S1501, processing similar to the main face selection processing at t = 3 is performed.
顔1とリファレンス顔との距離は70、顔2とリファレンス顔との距離は105であり、いずれもTh_disよりも大きい。そのため、ステップS1503からステップ1507へ処理が進み、更に、ステップS1508に進む。
The distance between the
ステップS1507では、t=1における主顔選択処理と同様、第1乃至第3の重みに基づいて主顔が選択される。ここでは、顔1の最終重みが0、顔2の最終重みが0.35であるため、顔2が主顔として選択される。
In step S1507, as in the main face selection process at t = 1, the main face is selected based on the first to third weights. Here, since the final weight of
<第2の実施形態のまとめ>
以上説明したように、本実施形態によれば、デジタルカメラ200は、検出された顔と前回主顔との距離に加えて、検出された顔とリファレンス顔との距離及びサイズの差も利用して主顔を選択する。
<Summary of Second Embodiment>
As described above, according to the present embodiment, the
これにより、デジタルカメラにおいては、主顔がより撮像範囲の中央に存在する確率が高いということも考慮しつつ、極端に頻繁に主顔が入れ替わることを抑制することが可能となる。 Thereby, in the digital camera, it is possible to prevent the main face from being changed extremely frequently while considering that the main face is more likely to exist in the center of the imaging range.
[その他の実施形態]
上述した各実施の形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或は装置に提供してもよい。そして、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現することができる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フロッピィ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスクなどを用いることができる。或いは、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることもできる。
[Other Embodiments]
The processing of each embodiment described above may provide a system or apparatus with a storage medium storing software program codes embodying each function. The functions of the above-described embodiments can be realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, or the like can be used. Alternatively, a CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含まれている。 The functions of the above-described embodiments are not only realized by executing the program code read by the computer. In some cases, an OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. include.
更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含むものである。 Furthermore, the program code read from the storage medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.
201 CCD
213 表示装置
217 VBPF部
218 目検出部
219 非顔フィルタパターン認識部
220 システムコントローラ
223 リサイズ回路
224 顔レジスタ
201 CCD
213
Claims (9)
前記撮像手段が取得した画像データから、人物の顔を検出する顔検出手段と、
前記顔検出手段が検出した人物の顔から、主被写体となる顔を選択する選択手段とを有し、
前記選択手段が、
前記選択手段が過去に選択した主被写体となる顔についての情報が存在する場合には、当該過去の主被写体となる顔についての情報と、前記顔検出手段が検出した人物の顔についての情報から前記画像データにおける主被写体の顔を選択する第1のモードと、
前記選択手段が過去に選択した主被写体となる顔についての情報が存在しない場合には、前記顔検出手段が検出した人物の顔についての情報から前記画像データにおける主被写体となる顔を選択する第2のモードとを有することを特徴とする撮像装置。 Imaging means for acquiring image data;
Face detection means for detecting a human face from the image data acquired by the imaging means;
Selecting means for selecting a face to be a main subject from the face of the person detected by the face detecting means;
The selecting means is
If there is information about the face that will be the main subject selected by the selection means in the past, information about the face that will be the main subject that has been selected in the past and information about the face of the person detected by the face detection means A first mode for selecting the face of the main subject in the image data;
When there is no information about the face that is the main subject selected in the past by the selection means, the face that becomes the main subject in the image data is selected from the information about the face of the person detected by the face detection means. 2. An imaging device having two modes.
前記選択手段が、前記第1のモードにおける選択のために、前記選択手段が過去に選択した主被写体となる顔と前記顔検出手段が検出した人物の顔との距離を用いることを特徴とする請求項1に記載の撮像装置。 The information about the face that is the main subject selected by the selection means in the past and the information about the face of the person detected by the face detection means include information about the position of the face,
For the selection in the first mode, the selection unit uses a distance between a face as a main subject selected by the selection unit in the past and a human face detected by the face detection unit. The imaging device according to claim 1.
前記選択手段が、前記第1のモードにおいて、前記顔検出手段が検出した人物の顔についての情報のうち、前記記憶手段が記憶している情報と予め定められた関係を満たすものが存在しない場合、前記第2のモードで主被写体となる顔を選択することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 A storage unit that stores information about the face that is the main subject selected by the selection unit in the second mode;
In the first mode, when there is no information satisfying a predetermined relationship with the information stored in the storage unit among the information about the face of the person detected by the face detection unit in the first mode The imaging apparatus according to claim 1, wherein a face to be a main subject is selected in the second mode.
前記予め定められた関係とは、前記顔検出手段が検出した人物の顔の位置が前記記憶手段が記憶している顔の位置から予め定められた範囲内に存在すること、及び、前記顔検出手段が検出した人物の顔のサイズと前記記憶手段が記憶している顔のサイズとの差が予め定められた範囲内であることのうち、少なくとも一方を含むことを特徴とする請求項5に記載の撮像装置。 The information stored in the storage means and the information about the face of the person detected by the face detection means include information about at least one of the face position and the face size,
The predetermined relationship means that the face position of the person detected by the face detection means is within a predetermined range from the face position stored in the storage means, and the face detection 6. The method according to claim 5, further comprising at least one of a difference between a face size detected by the means and a face size stored in the storage means being within a predetermined range. The imaging device described.
前記撮像工程で取得した画像データから、人物の顔を検出する顔検出工程と、
前記顔検出工程で検出した人物の顔から、主被写体となる顔を選択する選択工程とを有し、
前記選択工程が、
前記選択工程で過去に選択した主被写体となる顔についての情報が存在する場合には、当該過去の主被写体となる顔についての情報と、前記顔検出工程で検出した人物の顔についての情報から前記画像データにおける主被写体の顔を選択する第1のモードと、
前記選択工程で過去に選択した主被写体となる顔についての情報が存在しない場合には、前記顔検出工程で検出した人物の顔についての情報から前記画像データにおける主被写体となる顔を選択する第2のモードとを有することを特徴とする撮像方法。 An imaging process for acquiring image data;
A face detection step of detecting a human face from the image data acquired in the imaging step;
A selection step of selecting a face to be a main subject from the face of the person detected in the face detection step,
The selection step comprises:
If there is information about the face that will be the main subject selected in the past in the selection step, information about the face that will be the main subject in the past and information about the face of the person detected in the face detection step A first mode for selecting the face of the main subject in the image data;
When there is no information about the face that is the main subject selected in the past in the selection step, the face that is the main subject in the image data is selected from the information about the face of the person detected in the face detection step. 2. An imaging method comprising two modes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006175788A JP4771536B2 (en) | 2006-06-26 | 2006-06-26 | Imaging device and method of selecting face as main subject |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006175788A JP4771536B2 (en) | 2006-06-26 | 2006-06-26 | Imaging device and method of selecting face as main subject |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008005438A true JP2008005438A (en) | 2008-01-10 |
JP2008005438A5 JP2008005438A5 (en) | 2009-08-06 |
JP4771536B2 JP4771536B2 (en) | 2011-09-14 |
Family
ID=39009417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006175788A Expired - Fee Related JP4771536B2 (en) | 2006-06-26 | 2006-06-26 | Imaging device and method of selecting face as main subject |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4771536B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010141616A (en) * | 2008-12-11 | 2010-06-24 | Canon Inc | Image processor, method of processing image, and imaging apparatus |
WO2011111296A1 (en) * | 2010-03-09 | 2011-09-15 | パナソニック株式会社 | Imaging device and information detection method |
US8050464B2 (en) | 2006-12-27 | 2011-11-01 | Fujifilm Corporation | Image taking apparatus and image taking method |
WO2012099174A1 (en) * | 2011-01-18 | 2012-07-26 | 富士フイルム株式会社 | Autofocus system |
US8237800B2 (en) | 2008-12-15 | 2012-08-07 | Canon Kabushiki Kaisha | Main face choosing device, method for controlling same, and image capturing apparatus |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002333652A (en) * | 2001-05-10 | 2002-11-22 | Oki Electric Ind Co Ltd | Photographing device and reproducing apparatus |
JP2003107335A (en) * | 2001-09-28 | 2003-04-09 | Ricoh Co Ltd | Image pickup device, automatic focusing method, and program for making computer execute the method |
JP2004150814A (en) * | 2002-10-28 | 2004-05-27 | Toyota Motor Corp | Method and apparatus for adjusting imaging position |
JP2006508461A (en) * | 2002-11-29 | 2006-03-09 | ソニー・ユナイテッド・キングダム・リミテッド | Face detection and face tracking |
JP2007334779A (en) * | 2006-06-19 | 2007-12-27 | Fujifilm Corp | Target image retrieving device, and control method therefor |
-
2006
- 2006-06-26 JP JP2006175788A patent/JP4771536B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002333652A (en) * | 2001-05-10 | 2002-11-22 | Oki Electric Ind Co Ltd | Photographing device and reproducing apparatus |
JP2003107335A (en) * | 2001-09-28 | 2003-04-09 | Ricoh Co Ltd | Image pickup device, automatic focusing method, and program for making computer execute the method |
JP2004150814A (en) * | 2002-10-28 | 2004-05-27 | Toyota Motor Corp | Method and apparatus for adjusting imaging position |
JP2006508461A (en) * | 2002-11-29 | 2006-03-09 | ソニー・ユナイテッド・キングダム・リミテッド | Face detection and face tracking |
JP2007334779A (en) * | 2006-06-19 | 2007-12-27 | Fujifilm Corp | Target image retrieving device, and control method therefor |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8050464B2 (en) | 2006-12-27 | 2011-11-01 | Fujifilm Corporation | Image taking apparatus and image taking method |
US8345938B2 (en) | 2006-12-27 | 2013-01-01 | Fujifilm Corporation | Image taking apparatus and image taking method |
JP2010141616A (en) * | 2008-12-11 | 2010-06-24 | Canon Inc | Image processor, method of processing image, and imaging apparatus |
US8682040B2 (en) | 2008-12-11 | 2014-03-25 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and image capturing apparatus |
US8237800B2 (en) | 2008-12-15 | 2012-08-07 | Canon Kabushiki Kaisha | Main face choosing device, method for controlling same, and image capturing apparatus |
WO2011111296A1 (en) * | 2010-03-09 | 2011-09-15 | パナソニック株式会社 | Imaging device and information detection method |
US8982233B2 (en) | 2010-03-09 | 2015-03-17 | Panasonic Intellectual Property Management Co., Ltd. | Imaging apparatus for imaging an object subject to illuminating light on which information is overlaid and information detection method |
US9432573B2 (en) | 2010-03-09 | 2016-08-30 | Panasonic Intellectual Property Management Co., Ltd. | Apparatus for detecting information overlaid on light and system including the apparatus |
WO2012099174A1 (en) * | 2011-01-18 | 2012-07-26 | 富士フイルム株式会社 | Autofocus system |
Also Published As
Publication number | Publication date |
---|---|
JP4771536B2 (en) | 2011-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11172133B2 (en) | Zoom control device, control method of zoom control device, and recording medium | |
US10827127B2 (en) | Zoom control device, imaging apparatus, control method of zoom control device, and recording medium | |
JP4902562B2 (en) | Imaging apparatus, image processing apparatus, control method, and program | |
US10270978B2 (en) | Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith | |
JP6512810B2 (en) | Image pickup apparatus, control method and program | |
US9489747B2 (en) | Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor | |
JP5054063B2 (en) | Electronic camera, image processing apparatus, and image processing method | |
JP5029137B2 (en) | Imaging apparatus and program | |
US20070110417A1 (en) | Image processing apparatus and image processing method | |
US7868915B2 (en) | Photographing apparatus, method and computer program product | |
US8411159B2 (en) | Method of detecting specific object region and digital camera | |
US20140176612A1 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP5246078B2 (en) | Object location program and camera | |
US9865064B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US9811909B2 (en) | Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method | |
CN103297670A (en) | Subject determination apparatus and subject determination method | |
US10121067B2 (en) | Image processing apparatus that determines processing target area of an image based on degree of saliency, image processing method, and storage medium | |
JP4771536B2 (en) | Imaging device and method of selecting face as main subject | |
US20200177814A1 (en) | Image capturing apparatus and method of controlling image capturing apparatus | |
JP2008236015A (en) | Image processor, imaging apparatus and its program | |
JP6975144B2 (en) | Imaging processing device, electronic device, imaging processing method, imaging processing device control program | |
JP6493746B2 (en) | Image tracking device and image tracking method | |
JP7458723B2 (en) | Image processing device, imaging device, control method, and program | |
US20230186449A1 (en) | Image processing apparatus, image processing method, imaging apparatus, and storage medium | |
US20220292692A1 (en) | Image processing apparatus and method of processing image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090624 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110617 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110620 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140701 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4771536 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |