[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008005438A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2008005438A
JP2008005438A JP2006175788A JP2006175788A JP2008005438A JP 2008005438 A JP2008005438 A JP 2008005438A JP 2006175788 A JP2006175788 A JP 2006175788A JP 2006175788 A JP2006175788 A JP 2006175788A JP 2008005438 A JP2008005438 A JP 2008005438A
Authority
JP
Japan
Prior art keywords
face
information
main
main subject
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006175788A
Other languages
Japanese (ja)
Other versions
JP2008005438A5 (en
JP4771536B2 (en
Inventor
Eiichiro Ikeda
栄一郎 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006175788A priority Critical patent/JP4771536B2/en
Publication of JP2008005438A publication Critical patent/JP2008005438A/en
Publication of JP2008005438A5 publication Critical patent/JP2008005438A5/ja
Application granted granted Critical
Publication of JP4771536B2 publication Critical patent/JP4771536B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To suppress a main face from being extremely frequently switched while having respect for a change in the state of an object existent within an imaging range when selecting the main face from the imaging range. <P>SOLUTION: A digital camera 200 selects the face of a human figure to be a main object from image data obtained from an image signal captured by a CCD 201. In selection processing, in addition to a weight calculated based on the states of a plurality of faces in a certain timing, a weight (fourth weight) calculated based on the distance between each of the plurality of faces and the main face in the previous timing is also utilized. The fourth face is calculated so as to become larger for the face in the shorter distance to the main face in the previous timing. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、主被写体となる人物の顔を選択する撮像装置及び撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method for selecting a person's face as a main subject.

被写体に自動的に焦点を合わせるAF(オートフォーカス)機能や露出を自動的に決定するAE(オートエクスポージャ)機能などを備える撮像装置(例えば、デジタルカメラ)が知られている。また、人物を被写体とする場合に、人物に合わせたAFやAEなど(以下、「AF等」と呼ぶ)をより正確に行うために、撮像範囲から人物や人物の顔を検出する機能を備える撮像装置も知られている。更に、撮像範囲に複数の人物が存在する場合でもより正確なAF等を行うために、複数の人物から主被写体となる人物や人物の顔を選択する機能を備える撮像装置も知られている(特許文献1乃至4参照)。   2. Description of the Related Art Image pickup apparatuses (for example, digital cameras) having an AF (autofocus) function for automatically focusing on a subject and an AE (auto exposure) function for automatically determining exposure are known. In addition, when a person is a subject, a function of detecting a person or a person's face from an imaging range is provided in order to more accurately perform AF, AE, etc. (hereinafter referred to as “AF etc.”) according to the person. Imaging devices are also known. Furthermore, an imaging apparatus having a function of selecting a person to be a main subject or a person's face from a plurality of persons is also known in order to perform more accurate AF or the like even when there are a plurality of persons in the imaging range ( (See Patent Documents 1 to 4).

特許文献1乃至4に開示される撮像装置は、撮像範囲に存在する被写体の状態に基づいて、主被写体となる人物や人物の顔を選択していた。被写体の状態とは、例えば、撮像装置から被写体までの距離、撮像範囲における被写体の面積、撮像範囲における被写体の位置、被写体間の距離などを表す種々のパラメータを意味する。
特開平11−146405号公報 特開2001−215403号公報 特開2004−317699号公報 特開2002−51255号公報
The imaging devices disclosed in Patent Documents 1 to 4 select a person or a person's face as a main subject based on the state of the subject existing in the imaging range. The state of the subject means, for example, various parameters representing the distance from the imaging device to the subject, the area of the subject in the imaging range, the position of the subject in the imaging range, the distance between subjects, and the like.
Japanese Patent Laid-Open No. 11-146405 JP 2001-215403 A JP 2004-317699 A JP 2002-512255 A

従来の主被写体となる人物や人物の顔を選択する技術によれば、ある特定の時刻における被写体の状態のみに基づいて選択処理を行うため、以下に示す問題が発生しうる。   According to the conventional technology for selecting a person or a person's face as a main subject, the selection process is performed based only on the state of the subject at a specific time, and the following problems may occur.

図1は、時刻(タイミング)t=1〜4において撮像装置が検出した人物の顔及び主被写体となる人物の顔(以下、「主顔」と呼ぶ)を示す図である。実線の枠で示された部分(例えば、図1(a)左)が主顔であり、点線の枠で示された部分(例えば、図1(a)右)がそれ以外の顔である。図1(a)〜(d)に示すように、2つの顔の状態が略同じである場合、僅かな状態の変化によって主顔が頻繁に入れ替わる。   FIG. 1 is a diagram illustrating a person's face detected by the imaging apparatus at time (timing) t = 1 to 4 and a person's face as a main subject (hereinafter referred to as “main face”). The part indicated by the solid frame (for example, left of FIG. 1A) is the main face, and the part indicated by the dotted frame (for example, right of FIG. 1A) is the other face. As shown in FIGS. 1A to 1D, when the states of the two faces are substantially the same, the main face is frequently switched due to a slight change in the state.

表示装置213によるEVF(電子ビューファインダ)の表示が図1(a)〜(d)に示すように頻繁に変化することは、ユーザにとって煩わしい。また、主顔に合わせてAF等を行う場合、主顔が頻繁に入れ替わると、それに合わせてAFレンズ等も頻繁に駆動され、安定性、ひいては、精度が損なわれる場合もある。   It is troublesome for the user that the display of the EVF (electronic viewfinder) on the display device 213 changes frequently as shown in FIGS. In addition, when AF or the like is performed in accordance with the main face, if the main face is frequently changed, the AF lens or the like is also frequently driven in accordance therewith, and the stability and eventually the accuracy may be impaired.

本発明はこのような状況に鑑みてなされたものであり、撮像範囲から主顔を選択する際に、撮像範囲に存在する被写体の状態の変化を尊重しつつも、極端に頻繁に主顔が入れ替わることを抑制する技術を提供することを目的とする。   The present invention has been made in view of such a situation, and when selecting a main face from an imaging range, the main face is extremely frequently observed while respecting changes in the state of a subject existing in the imaging range. It aims at providing the technique which suppresses changing.

上記課題を解決するために、本発明の撮像装置は、画像データを取得する撮像手段と、前記撮像手段が取得した画像データから、人物の顔を検出する顔検出手段と、前記顔検出手段が検出した人物の顔から、主被写体となる顔を選択する選択手段とを有し、前記選択手段が、前記選択手段が過去に選択した主被写体となる顔についての情報が存在する場合には、当該過去の主被写体となる顔についての情報と、前記顔検出手段が検出した人物の顔についての情報から前記画像データにおける主被写体の顔を選択する第1のモードと、前記選択手段が過去に選択した主被写体となる顔についての情報が存在しない場合には、前記顔検出手段が検出した人物の顔についての情報から前記画像データにおける主被写体となる顔を選択する第2のモードとを有することを特徴とする。   In order to solve the above problems, an imaging apparatus according to the present invention includes an imaging unit that acquires image data, a face detection unit that detects a human face from the image data acquired by the imaging unit, and the face detection unit. A selection unit that selects a face to be a main subject from the detected face of the person, and when the selection unit has information on a face to be a main subject selected by the selection unit in the past, A first mode for selecting the face of the main subject in the image data from the information about the face as the main subject in the past and the information about the face of the person detected by the face detection means; and the selection means in the past If there is no information about the selected face as the main subject, the second mode for selecting the face as the main subject in the image data from the information about the face of the person detected by the face detection means. Characterized in that it has and.

また、本発明の撮像方法は、画像データを取得する撮像工程と、前記撮像工程で取得した画像データから、人物の顔を検出する顔検出工程と、前記顔検出工程で検出した人物の顔から、主被写体となる顔を選択する選択工程とを有し、前記選択工程が、前記選択工程で過去に選択した主被写体となる顔についての情報が存在する場合には、当該過去の主被写体となる顔についての情報と、前記顔検出工程で検出した人物の顔についての情報から前記画像データにおける主被写体の顔を選択する第1のモードと、前記選択工程で過去に選択した主被写体となる顔についての情報が存在しない場合には、前記顔検出工程で検出した人物の顔についての情報から前記画像データにおける主被写体となる顔を選択する第2のモードとを有することを特徴とする。   The imaging method of the present invention includes an imaging process for acquiring image data, a face detection process for detecting a human face from the image data acquired in the imaging process, and a human face detected in the face detection process. A selection step of selecting a face to be a main subject, and when the selection step includes information on the face to be a main subject selected in the past in the selection step, The first mode for selecting the face of the main subject in the image data from the information about the face and the information about the face of the person detected in the face detection step, and the main subject selected in the past in the selection step A second mode for selecting a face to be a main subject in the image data from information on the face of the person detected in the face detection step when no information about the face exists. To.

尚、その他の本発明の特徴は、添付図面及び以下の発明を実施するための最良の形態における記載によって更に明らかになるものである。   Other features of the present invention will become more apparent from the accompanying drawings and the following description of the best mode for carrying out the invention.

以上の構成により、本発明によれば、撮像範囲から主顔を選択する際に、撮像範囲に存在する被写体の状態の変化を尊重しつつも、極端に頻繁に主顔が入れ替わることを抑制することが可能となる。   With the above configuration, according to the present invention, when selecting a main face from the imaging range, it is possible to prevent the main face from being changed extremely frequently while respecting changes in the state of the subject existing in the imaging range. It becomes possible.

以下、添付図面を参照して、本発明の実施形態を説明する。以下で説明される個別の実施形態は、本発明の上位概念、中位概念および下位概念など種々の概念を理解するために役立つであろう。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The individual embodiments described below will help to understand various concepts, such as the superordinate concept, intermediate concept and subordinate concept of the present invention.

尚、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。   The technical scope of the present invention is determined by the scope of the claims, and is not limited by the following individual embodiments. In addition, not all combinations of features described in the embodiments are essential to the present invention.

[第1の実施形態]
<撮像装置の構成及び動作>
図2は、実施形態に係る撮像装置の一例である、デジタルカメラ200の構成例を示すブロック図である。まず、電源が投入された後、シャッターボタン(不図示)が押下されていない状態でのデジタルカメラ200の動作を説明する。
[First Embodiment]
<Configuration and Operation of Imaging Device>
FIG. 2 is a block diagram illustrating a configuration example of a digital camera 200 that is an example of the imaging apparatus according to the embodiment. First, the operation of the digital camera 200 when the shutter button (not shown) is not pressed after the power is turned on will be described.

デジタルカメラ200は、CCD201を種々のモード(後述)にて駆動し、例えば1/30秒毎に光電変換により画像信号を取得する。取得された画像信号は、OB部202に出力され、以降のブロックで順次信号処理が施される。本実施形態におけるCCD201は、図3(a)に示す通常のスチル読み出し(全画素読み出し)モードで動作できる。また、EVF(電子ビューファインダ)用あるいは動画用に、図3(b)に示すムービー読み出し(垂直方向2/8読み出し)等のモード(加算・間引きモード)で動作できる。EVF表示用には、電荷の読み出しを高速にする必要があり、一般的に、図3(b)に示す、加算・間引きモードでCCD201が駆動される。加算・間引きの種類は、図3(b)に示す以外にも色々あるが、本発明の主旨ではないため説明は省略する。   The digital camera 200 drives the CCD 201 in various modes (described later), and acquires an image signal by photoelectric conversion every 1/30 seconds, for example. The acquired image signal is output to the OB unit 202, and signal processing is sequentially performed in subsequent blocks. The CCD 201 in this embodiment can operate in the normal still readout (all pixel readout) mode shown in FIG. Further, it can operate in a mode (addition / decimation mode) such as movie reading (vertical direction 2/8 reading) shown in FIG. 3B for EVF (electronic viewfinder) or moving image. For EVF display, it is necessary to read out charges at high speed. Generally, the CCD 201 is driven in the addition / thinning mode shown in FIG. There are various types of addition / decimation other than those shown in FIG. 3B, but the description is omitted because it is not the gist of the present invention.

EVF用に駆動されたCCD201が取得した画像信号は、OB(オプチカルブラック)部202にて黒引きが実施される。そして、WB(ホワイトバランス)部203においてホワイトバランスが調整される。その後、色変換MTX206にてCrCb色差信号に変換される。そして、LPF(ローパスフィルタ)207で帯域が制限される。そして、CSUP回路208にて飽和部における色差信号が抑圧される。一方、ホワイトバランス調整後の画像信号は、輝度信号生成回路214に送られ輝度信号が作成される。その後、エッジ強調回路215にて輪郭補正が実施される。CSUP回路208における抑圧処理後の色差信号とエッジ強調された輝度信号は、RGB変換回路209にてRGB信号に変換される。そして、ガンマ補正回路210にてガンマ補正が施される。その後、色輝度変換回路211にてYUV信号に変換され、リサイズ回路223にてEVF表示用の画像サイズ、例えば320ピクセル×240ピクセルの画像サイズにリサイズされ、表示装置213に転送される。   The image signal acquired by the CCD 201 driven for EVF is subjected to blacking by an OB (optical black) unit 202. A white balance (WB) unit 203 adjusts the white balance. Thereafter, the color conversion MTX 206 converts it into a CrCb color difference signal. The band is limited by an LPF (low-pass filter) 207. The CSUP circuit 208 suppresses the color difference signal in the saturation portion. On the other hand, the image signal after white balance adjustment is sent to the luminance signal generation circuit 214 to create a luminance signal. Thereafter, the edge enhancement circuit 215 performs contour correction. The color difference signal and the edge-enhanced luminance signal after the suppression processing in the CSUP circuit 208 are converted into RGB signals by the RGB conversion circuit 209. The gamma correction circuit 210 performs gamma correction. After that, it is converted into a YUV signal by the color luminance conversion circuit 211, resized to an EVF display image size, for example, an image size of 320 pixels × 240 pixels, and transferred to the display device 213.

一方、リサイズされたYUV信号は、顔検出モジュール(VBPF部217、目検出部218、非顔フィルタパターン認識部219)にも転送される。顔検出モジュールでは、定期的に、リサイズされたYUV信号を用いて顔検出処理を行う。そして、検出した顔情報(顔座標値、目座標値、信頼度情報など。詳細は後述。)を顔レジスタ224に書き込む。ここで、顔検出モジュールによる検出処理の周期と表示装置213によるEVFの更新周期は必ずしも一致せず、それぞれ独立に設定できる。尚、顔の検出方法は、本発明の主眼点ではないため詳細な説明は省略する。   On the other hand, the resized YUV signal is also transferred to the face detection module (VBPF unit 217, eye detection unit 218, non-face filter pattern recognition unit 219). The face detection module periodically performs face detection processing using the resized YUV signal. Then, the detected face information (face coordinate value, eye coordinate value, reliability information, etc., details will be described later) is written in the face register 224. Here, the detection processing cycle by the face detection module and the EVF update cycle by the display device 213 do not necessarily match, and can be set independently. Since the face detection method is not the main point of the present invention, detailed description thereof is omitted.

顔検出モジュールは、所定の画像処理により、画像データから人物の顔を検出することができる。例えば、瞳の色が黒色や茶色などの一定の色であり、かつ、一定の大きさであることを利用して、目が2つあるか否かを判断する。そして、検出された2つの目の間隔が一般的な顔における2つの目の間隔に近いか否かを判断する。更に、顔の色が肌色や黒色などの一定の色であることを利用して、一般的な顔の面積に近い面積の肌色領域が画像データに存在するか否かを判断してもよい。   The face detection module can detect a person's face from image data by predetermined image processing. For example, it is determined whether there are two eyes by using the fact that the pupil color is a certain color such as black or brown and has a certain size. Then, it is determined whether or not the detected interval between the two eyes is close to the interval between the two eyes in a general face. Further, it may be determined whether or not a skin color area having an area close to a general face area exists in the image data by using the fact that the face color is a constant color such as skin color or black.

次に、シャッターボタン(不図示)が半押しされた後のデジタルカメラ200の動作を説明する。   Next, the operation of the digital camera 200 after a shutter button (not shown) is half pressed will be described.

ユーザによりシャッターボタン(不図示)が半押しされると、システムコントローラ220は顔レジスタ224より、その時点で最新の顔情報を読み込む。ここで、検出された顔が2つ以上ある場合には、その中から主被写体となる顔(主顔)を選択する主顔選択処理を実施する。主顔選択処理の詳細は後述する。尚、主顔選択処理は、シャッターボタン(不図示)が半押しされた時ではなく、デジタルカメラ200に電源が投入された時点で開始されてもよい。   When the user presses a shutter button (not shown) halfway, the system controller 220 reads the latest face information from the face register 224 at that time. Here, when there are two or more detected faces, main face selection processing for selecting a face (main face) to be a main subject from the detected faces is performed. Details of the main face selection process will be described later. The main face selection process may be started not when the shutter button (not shown) is pressed halfway but when the digital camera 200 is turned on.

システムコントローラ220は、主顔選択処理で決定された主顔情報を用いて、AE/EF制御部221及びAF制御部222にAF用測距枠及びAEで使用する測光重みを設定する。そして、AF動作及びAE動作を行い、完了したら表示装置213等を介してユーザにその旨を通知する。AF及びAE動作の具体的な処理内容は本発明の主眼点ではないため説明は省略する。   The system controller 220 uses the main face information determined in the main face selection process to set the AF distance measurement frame and the photometric weight used in the AE in the AE / EF control unit 221 and the AF control unit 222. Then, the AF operation and the AE operation are performed, and when completed, the user is notified through the display device 213 and the like. Since the specific processing contents of the AF and AE operations are not the main point of the present invention, description thereof will be omitted.

ここで、シャッターボタンが押下される前も、半押しされた後も、CCD201は所定のタイミングで連続的に画像信号を取得し、表示装置213に表示したり主顔選択処理に使用したりする画像データを取得していることに注意されたい。   Here, before and after the shutter button is pressed halfway, the CCD 201 continuously acquires image signals at a predetermined timing and displays them on the display device 213 or uses them for main face selection processing. Note that the image data is acquired.

<主顔選択処理>
図4は、第1の実施形態に係る、デジタルカメラ200による主顔選択処理の流れを示すフローチャートである。本フローチャートの各ステップの処理は、例えば、システムコントローラ220が不図示のROMに格納されているプログラムを実行することにより実現可能である。以下、特に断らなければ、システムコントローラ220が各ステップの処理を行うものとする。
<Main face selection process>
FIG. 4 is a flowchart showing a flow of main face selection processing by the digital camera 200 according to the first embodiment. The processing of each step of this flowchart can be realized by the system controller 220 executing a program stored in a ROM (not shown), for example. Hereinafter, it is assumed that the system controller 220 performs each step unless otherwise specified.

(ステップS401)
主顔選択処理が行われた回数をカウントする変数カウンターが0に初期化される。
(Step S401)
A variable counter that counts the number of times the main face selection process has been performed is initialized to zero.

(ステップS402)
所定のタイミングtにおける、顔検出結果が取得される。顔検出結果は、CCD201が取得した画像信号がその後リサイズ部223によってリサイズされて得られる画像データに存在する顔の情報である。
(Step S402)
A face detection result at a predetermined timing t is acquired. The face detection result is information on a face existing in image data obtained by the image signal acquired by the CCD 201 being resized by the resizing unit 223 thereafter.

図5は、顔情報の一例を示す図である。顔情報として、検出された顔の中心座標(x、y)、顔を正方形とした場合の一辺の長さを示す顔サイズsize、検出された顔が顔である確からしさを示す信頼度値が取得される。   FIG. 5 is a diagram illustrating an example of face information. As face information, there are a center coordinate (x, y) of a detected face, a face size size indicating the length of one side when the face is a square, and a reliability value indicating the probability that the detected face is a face. To be acquired.

顔サイズは、例えば、顔の大部分が肌色であることを利用して、所定のサイズの正方形に含まれる肌色領域の割合が所定の値となるようなサイズとすることができる。   The face size can be set to such a size that the ratio of the skin color area included in the square of a predetermined size becomes a predetermined value by utilizing the fact that most of the face is a skin color.

信頼度は、例えば、瞳の色が黒であることを利用して、目が2つあるか否か、2つの目の距離はどれくらいか、2つの目の間に鼻が存在するか否かなどに基づき決定される。本実施形態では、信頼度は、1乃至10の10段階で表現され、1が最も顔の確率が高いことを示す。   For example, the reliability is based on the fact that the pupil color is black, whether there are two eyes, how far the two eyes are, and whether there is a nose between the two eyes. Determined based on the above. In this embodiment, the reliability is expressed in 10 levels of 1 to 10, with 1 indicating the highest probability of the face.

(ステップS403)
検出された顔がひとつである場合はステップS417に進み、Counter=0とする。そして、ステップS402へ戻り、同様の処理を繰り返す。一方、検出された顔が複数ある場合には、ステップS404に進む。尚、ステップS417においては、Counterの値を1以上とし、検出された1つの顔を主顔として顔レジスタ224に主顔の顔情報を格納してもよい。
(Step S403)
If there is only one detected face, the process proceeds to step S417, where Counter = 0 is set. And it returns to step S402 and repeats the same process. On the other hand, if there are a plurality of detected faces, the process proceeds to step S404. In step S417, the counter value may be set to 1 or more, and the face information of the main face may be stored in the face register 224 with one detected face as the main face.

(ステップS404)
Counter=0のとき、ステップS405に進み、そうでない場合はステップS409に進む。
(Step S404)
When Counter = 0, the process proceeds to step S405. Otherwise, the process proceeds to step S409.

(ステップS405)
ステップS405乃至ステップS408における計算処理は、ステップS102において読み込まれた全ての顔情報(即ち、検出された全ての顔の情報)に対して行われる。
(Step S405)
The calculation processing in steps S405 to S408 is performed on all face information read in step S102 (that is, information on all detected faces).

まず、検出された顔の信頼度と、図6に示す信頼度−重み特性グラフを用いて、第1の重みを算出する。図6は、入力(x軸)を検出された顔の信頼度、出力(y軸)を第1の重みとしたグラフである。本実施形態では、信頼度が3までは第1の重みを1とし、信頼度5において第1の重みが0となるように信頼度3から5までを直線で結び、信頼度が5以上の場合は第1の重みが0とする。   First, the first weight is calculated using the reliability of the detected face and the reliability-weight characteristic graph shown in FIG. FIG. 6 is a graph in which the input (x-axis) is the detected face reliability and the output (y-axis) is the first weight. In the present embodiment, the first weight is set to 1 until the reliability is 3, and the reliability 3 to 5 are connected with a straight line so that the first weight becomes 0 at the reliability 5, and the reliability is 5 or more. In this case, the first weight is 0.

(ステップS406)
検出された顔のサイズと、図7に示す顔サイズ−重み特性グラフを用いて、第2の重みを算出する。図7は、入力(x軸)を検出された顔のサイズ、出力(y軸)を第2の重みとしたグラフである。本実施形態では、顔サイズが0(単位は例えばピクセル。以下同様。)のときに重みを0、顔サイズが20のとき重みが0.2になるよう顔サイズ0から20までを直線で結ぶ。更に、顔サイズが30のときに重みが1になるよう顔サイズ20から30までを直線で結び、顔サイズ30以上は重みを1.0とする。
(Step S406)
The second weight is calculated using the detected face size and the face size-weight characteristic graph shown in FIG. FIG. 7 is a graph in which the input (x-axis) is the detected face size and the output (y-axis) is the second weight. In the present embodiment, the face sizes 0 to 20 are connected by a straight line so that the weight is 0 when the face size is 0 (the unit is, for example, a pixel, and so on), and the weight is 0.2 when the face size is 20. . Further, the face sizes 20 to 30 are connected by a straight line so that the weight becomes 1 when the face size is 30, and the weight is set to 1.0 when the face size is 30 or more.

(ステップS407)
検出された顔において、図5に示すような、検出された顔の中心座標値と例えば画面の中央座標値との距離情報distを算出し、その距離情報distと図8に示す距離−重み特性グラフを用いて、第3の重みを算出する。本実施形態では、顔検出対象の画像データは表示装置213のEVF表示用画像データであるためサイズが320ピクセル×240ピクセルである。そのため、中心座標(160,120)からの距離を三平方の定理を利用して算出する。そして、図8のグラフを利用して第3の重みを求める。本実施形態では、距離が10までは重みを1.0、距離80になると重みが0になるよう距離10から80までを直線で結び、距離80以上は重みが0となる。
(Step S407)
For the detected face, distance information dist between the center coordinate value of the detected face and, for example, the center coordinate value of the screen, as shown in FIG. 5, is calculated, and the distance information dist and the distance-weight characteristic shown in FIG. A third weight is calculated using the graph. In the present embodiment, the face detection target image data is the image data for EVF display of the display device 213, and therefore the size is 320 pixels × 240 pixels. Therefore, the distance from the center coordinates (160, 120) is calculated using the three-square theorem. Then, the third weight is obtained using the graph of FIG. In the present embodiment, the distances 10 to 80 are connected by a straight line so that the weight is 1.0 when the distance is 10 and the weight is 0 when the distance is 80, and the weight is 0 when the distance is 80 or more.

(ステップS408)
ステップS405乃至S407で算出した第1乃至第3の重みを乗算し、最終重みを算出し、ステップS415に進む。尚、最終重みの算出は、乗算に限られるものではなく、例えば、第1乃至第3の重みの総和によって求められてもよい。
(Step S408)
The final weight is calculated by multiplying the first to third weights calculated in steps S405 to S407, and the process proceeds to step S415. The calculation of the final weight is not limited to multiplication. For example, the final weight may be obtained by the sum of the first to third weights.

(ステップS409)
ステップS404からS409へ進むのは、Counterの値が0ではない時、即ち、前回の主顔選択処理において主顔が選択されており、主顔の情報が顔レジスタ224に格納されている時である。ステップS409では、前回選択された主顔の情報を顔レジスタ224から取得し、ステップS402において取得した顔情報それぞれとの距離を算出する。即ち、図9に示すように、タイミングtにおいて検出された複数の顔全てについて、前回のタイミングt−1において選択された主顔(以下、「前回主顔」と呼ぶ)の座標値との距離dist_preMainFaceを以下の式1を用いて算出する。

Figure 2008005438
(Step S409)
The process proceeds from step S404 to S409 when the value of Counter is not 0, that is, when the main face is selected in the previous main face selection process and the main face information is stored in the face register 224. is there. In step S409, information on the main face selected last time is acquired from the face register 224, and a distance from each of the face information acquired in step S402 is calculated. That is, as shown in FIG. 9, the distance from the coordinate values of the main face selected at the previous timing t-1 (hereinafter referred to as “previous main face”) for all of the plurality of faces detected at the timing t. dist_preMainFace is calculated using Equation 1 below.
Figure 2008005438

(ステップS410)
ステップS409において算出された前回主顔との距離を用いて、第4の重みを算出する。例えば、前回主顔と最も距離が短い顔を、タイミングtにおける主顔候補とし、主顔候補の補正重みとして予め設定された値kHoseiWeightMainFace(例えば1.5)を第4の重みとして割り当てる。更に、主顔候補以外の検出された顔に対しては、第4の重みとして、kHoseiWeightOtherFace(=1.0)を割り当てる。また、前回主顔との距離が最短である顔が複数存在する場合には、距離が最短である顔全てを主顔候補とし、第4の重みとしてkHoseiWeightMainFaceを割り当てる。
(Step S410)
A fourth weight is calculated using the distance from the previous main face calculated in step S409. For example, the face having the shortest distance from the previous main face is set as a main face candidate at timing t, and a value kHoseiWeightMainFace (for example, 1.5) preset as the main face candidate correction weight is assigned as the fourth weight. Furthermore, kHoseiWeightOtherFace (= 1.0) is assigned to the detected face other than the main face candidate as the fourth weight. When there are a plurality of faces having the shortest distance from the previous main face, all the faces having the shortest distance are set as main face candidates, and kHoseiWeightMainFace is assigned as the fourth weight.

また、図10のような、式1で算出した前回主顔からの距離dist_preMainFaceから第4の重みを決定する、前回距離−重み特性グラフを用いて、第4の重みを算出してもよい。   Alternatively, the fourth weight may be calculated using a previous distance-weight characteristic graph that determines the fourth weight from the distance dist_preMainFace from the previous main face calculated by Formula 1 as shown in FIG.

(ステップS411乃至S413)
ここでは、ステップS405乃至S407における処理と同じ処理が行われる。
(Steps S411 to S413)
Here, the same processing as the processing in steps S405 to S407 is performed.

(ステップS414)
式2に従って、ステップS410で算出された第4の重みとステップS411からS413で算出された第1から第3の重みを乗算し、検出された顔それぞれの最終重みを算出する。尚、最終重みの算出は、乗算に限られるものではなく、例えば、第1乃至第4の重みの総和によって求められてもよい。

Figure 2008005438
(Step S414)
According to Equation 2, the final weight of each detected face is calculated by multiplying the fourth weight calculated in Step S410 by the first to third weights calculated in Steps S411 to S413. The calculation of the final weight is not limited to multiplication. For example, the final weight may be obtained by the sum of the first to fourth weights.
Figure 2008005438

(ステップS415)
ステップS408又はS414において算出された、検出された複数の顔それぞれに関する最終重みに従い、最も重みの大きい顔を、タイミングtにおける主顔として確定(選択)する。そして、選択した主顔の顔情報を顔レジスタ224に格納する。
(Step S415)
According to the final weights for each of the detected faces calculated in step S408 or S414, the face with the largest weight is determined (selected) as the main face at timing t. Then, the face information of the selected main face is stored in the face register 224.

(ステップS416)
Counterの値を1増やし(Counter=Counter+1)、ステップS102に戻って同様の処理を繰り返す。
(Step S416)
The value of Counter is incremented by 1 (Counter = Counter + 1), and the process returns to step S102 to repeat the same processing.

ここで、図4には明示していないが、前回主顔が選択された時から所定の時間が経過した場合、Counterの値を0にリセットするようにデジタルカメラ200を構成してもよい。即ち、デジタルカメラ200は、原則として、前回主顔を利用して主顔を選択するが、前回主顔が時間的に古すぎる場合、前回主顔とは無関係に、ステップS405乃至S408及びS415に従って主顔を選択してもよい。   Here, although not explicitly shown in FIG. 4, the digital camera 200 may be configured to reset the value of Counter to 0 when a predetermined time has elapsed since the last time the main face was selected. That is, in principle, the digital camera 200 selects the main face using the previous main face. If the previous main face is too old in time, the digital camera 200 follows steps S405 to S408 and S415 regardless of the previous main face. A main face may be selected.

<主顔選択処理の具体例>
以上、図4を参照して、主顔選択処理の流れを説明した。ここでは、図11のような連続するシーン(タイミングt=1から4)にて2つの顔(「顔1」「顔2」と呼ぶ)が検出された場合の主顔選択処理の具体例を、各タイミングにおける顔情報を示した図12と、上述のフローチャート(図4)とを用いて説明する。また、図13は、各タイミングにおける各々の顔に対する第1〜第4の重み、最終重み、前回主顔との距離、主顔選択結果を示す図である。
<Specific example of main face selection processing>
The flow of the main face selection process has been described above with reference to FIG. Here, a specific example of main face selection processing when two faces (referred to as “face 1” and “face 2”) are detected in a continuous scene (timing t = 1 to 4) as shown in FIG. This will be described with reference to FIG. 12 showing face information at each timing and the above-described flowchart (FIG. 4). FIG. 13 is a diagram showing first to fourth weights, final weights, distances from the previous main face, and main face selection results for each face at each timing.

(t=1における主顔選択)
図4のステップS101からS402に沿って動作し、ステップS403にて検出された顔が2個のためステップS404に進み、Counter=0のためステップS405に進む。
(Main face selection at t = 1)
The operation proceeds from step S101 to step S402 in FIG. 4. Since there are two faces detected in step S403, the process proceeds to step S404, and because Counter = 0, the process proceeds to step S405.

ステップS405において、検出された各顔における信頼度による第1の重み(Weight1)が算出される。本実施形態では、顔1、2共に信頼度が1のため、Weight1は1となる。   In step S405, a first weight (Weight1) based on the reliability of each detected face is calculated. In this embodiment, the reliability is 1 for both faces 1 and 2, so that Weight 1 is 1.

ステップS406において、顔のサイズより第2の重み(Weight2)が算出され、図13に示すようになる。   In step S406, the second weight (Weight2) is calculated from the face size, as shown in FIG.

ステップS407において、中心からの距離により第3の重み(Weight3)が算出され、図13に示すようになる。   In step S407, a third weight (Weight 3) is calculated based on the distance from the center, as shown in FIG.

ステップS408において、重み1から3の値を乗算することで、それぞれの顔における最終重み(Total_Weight)が算出される。   In step S408, the final weight (Total_Weight) for each face is calculated by multiplying the values of weights 1 to 3.

ステップS415において、顔1の最終重みが顔2の最終重みよりも大きいため、主顔として顔1が選択される。図13において、カラム「主顔」に1の値が入っているものが主顔であることを示す。   In step S415, since the final weight of face 1 is larger than the final weight of face 2, face 1 is selected as the main face. In FIG. 13, it is shown that a main face is one having a value of 1 in the column “main face”.

ステップS416において、Counterの値を1増やす。   In step S416, the value of Counter is increased by one.

(t=2における主顔選択)
ステップS402において顔情報が読み込まれ、ステップS403、S404を通り、ステップS409へと処理が進む。
(Main face selection at t = 2)
In step S402, face information is read, and the process proceeds to step S409 through steps S403 and S404.

ステップS409において、t=2において検出された顔の中心座標と、t=1のときの主顔(前回主顔で、ここでは顔1)の中心座標の距離を算出する。そして、距離が最も近い顔をt=2における主顔候補とする。図13より、顔1と前回主顔の距離が10、顔2と前回主顔の距離が105であり、顔1が主顔候補とされる。   In step S409, the distance between the center coordinates of the face detected at t = 2 and the center coordinates of the main face (previous main face, here face 1) at t = 1 is calculated. Then, the face with the shortest distance is set as a main face candidate at t = 2. From FIG. 13, the distance between face 1 and the previous main face is 10, the distance between face 2 and the previous main face is 105, and face 1 is the main face candidate.

ステップS410において、ステップS409の結果に基づき、前回主顔と最も距離が近い顔(顔1)の第4の重みを例えば1.5、それ以外を1.0に設定する。   In step S410, based on the result of step S409, the fourth weight of the face closest to the previous main face (face 1) is set to 1.5, for example, and the others are set to 1.0.

ステップS411からS413において、それぞれの顔に対する第1乃至第3の重みが算出される。   In steps S411 to S413, first to third weights for each face are calculated.

ステップS14において、第1乃至第4の重みを用いてt=2における最終重みが算出される。図13より、顔1の最終重みは0.42、顔2の最終重みは0.35となる。   In step S14, the final weight at t = 2 is calculated using the first to fourth weights. From FIG. 13, the final weight of face 1 is 0.42, and the final weight of face 2 is 0.35.

従って、ステップS415において、主顔として顔1が選択される。   Accordingly, in step S415, face 1 is selected as the main face.

(t=3における主顔選択)
t=2における主顔選択処理と同様な処理経路となり、主顔として顔1が選択される。
(Main face selection at t = 3)
The processing path is the same as the main face selection process at t = 2, and face 1 is selected as the main face.

(t=4における主顔選択)
t=3における主顔選択処理と同様な処理経路となるが、顔1における中心からの距離に基づく第3の重みが0となるため、最終重みも0となり、主顔として顔2が選択される。
(Main face selection at t = 4)
The processing path is the same as the main face selection process at t = 3, but the third weight based on the distance from the center of face 1 is 0, so the final weight is also 0, and face 2 is selected as the main face. The

(第4の重みを利用しない場合)
ここで、比較のために、t=1〜4において、第4の重みを利用せずに主顔を選択した場合を、図1及び図14を参照して説明する。上述した図11及び図13の場合と全く同じ位置に2つの顔が存在しても、図1及び図14に示すように、主顔が頻繁に入れ替わることが分かる。
(When not using the fourth weight)
Here, for comparison, a case where the main face is selected without using the fourth weight at t = 1 to 4 will be described with reference to FIGS. 1 and 14. Even if two faces are present at exactly the same positions as in the case of FIGS. 11 and 13 described above, it can be seen that the main face frequently changes as shown in FIGS.

<第1の実施形態のまとめ>
以上説明したように、本実施形態によれば、デジタルカメラ200は、CCD201が取得した画像信号から得られる画像データから、主被写体となる人物の顔を選択する。選択処理に際しては、あるタイミングにおける複数の顔それぞれの状態に基づいて算出される重みに加えて、複数の顔それぞれと、それ以前のタイミングにおける主顔との距離に基づいて算出される重み(第4の重み)も利用する。第4の重みは、それ以前のタイミングにおける主顔との距離が近い顔ほど大きくなるように算出される。
<Summary of First Embodiment>
As described above, according to the present embodiment, the digital camera 200 selects the face of the person who is the main subject from the image data obtained from the image signal acquired by the CCD 201. In the selection process, in addition to the weight calculated based on the state of each of a plurality of faces at a certain timing, a weight calculated based on the distance between each of the plurality of faces and the main face at the previous timing (first (Weight of 4) is also used. The fourth weight is calculated so that the face closer to the main face at the previous timing becomes larger.

これにより、撮像範囲から主顔を選択する際に、撮像範囲に存在する被写体の状態の変化を尊重しつつも、極端に頻繁に主顔が入れ替わることを抑制することが可能となる。   Thereby, when selecting the main face from the imaging range, it is possible to prevent the main face from being changed extremely frequently while respecting the change in the state of the subject existing in the imaging range.

[第2の実施形態]
第1の実施形態では、主顔選択処理に際して、検出された顔と前回主顔との距離を利用した。第2の実施形態では、更に、現在の画像データで検出された顔と、基準として用いられる過去に選択された主顔(以下、「リファレンス顔」と呼ぶ)との距離差及びサイズの差も利用して主顔を選択する。これは、一般的な撮影においては、主顔が撮像範囲の中央付近に存在する確率が高いことに着目した構成である。即ち、現在の画像データから選択される主顔が、リファレンス顔の位置からある程度移動した場合を考える。この場合は、前回主顔の位置を考慮せずに主顔の選択(図4のステップS405乃至S408、及び、S415)を行った方が、ユーザの意図に沿う確率が高いという検証データに基づいている。
[Second Embodiment]
In the first embodiment, the distance between the detected face and the previous main face is used in the main face selection process. In the second embodiment, the distance difference and the size difference between the face detected in the current image data and the main face selected in the past (hereinafter referred to as “reference face”) used as a reference are also included. Use to select the main face. This is a configuration focusing on the high probability that the main face exists in the vicinity of the center of the imaging range in general shooting. That is, consider a case where the main face selected from the current image data has moved to some extent from the position of the reference face. In this case, based on the verification data that the main face selection (steps S405 to S408 and S415 in FIG. 4) without considering the previous main face position has a higher probability of meeting the user's intention. ing.

尚、本実施形態において、デジタルカメラ200の構成(図2参照)は第1の実施形態と同様であるため、その説明を省略する。   In the present embodiment, the configuration of the digital camera 200 (see FIG. 2) is the same as that of the first embodiment, and thus the description thereof is omitted.

<主顔選択処理>
図15は、第2の実施形態に係る、デジタルカメラ200による主顔選択処理の流れを示すフローチャートである。本フローチャートの各ステップの処理は、例えば、システムコントローラ220が不図示のROMに格納されているプログラムを実行することにより実現可能である。以下、特に断らなければ、システムコントローラ220が各ステップの処理を行うものとする。また、第1の実施形態(図4)と同一の処理を行うステップには同一の符号を付し、説明を省略する。
<Main face selection process>
FIG. 15 is a flowchart showing a flow of main face selection processing by the digital camera 200 according to the second embodiment. The processing of each step of this flowchart can be realized by the system controller 220 executing a program stored in a ROM (not shown), for example. Hereinafter, it is assumed that the system controller 220 performs each step unless otherwise specified. In addition, steps that perform the same processing as in the first embodiment (FIG. 4) are denoted by the same reference numerals, and description thereof is omitted.

(ステップS1508〜S1510)
ステップS404においてCounter=0であれば、ステップS1508において、図4のステップS405乃至S408、及び、S415と同一の処理により、主顔を選択する。ステップS1509で、選択された主顔の顔情報は、リファレンス顔として顔レジスタ224に格納される。ステップS1510で、Counterの値が1になり、ステップS402に戻る。また、選択された主顔の顔情報は、前回主顔としても顔レジスタ224に格納される。
(Steps S1508 to S1510)
If Counter = 0 in step S404, the main face is selected in step S1508 by the same processing as in steps S405 to S408 and S415 in FIG. In step S1509, the face information of the selected main face is stored in the face register 224 as a reference face. In step S1510, the value of Counter becomes 1, and the process returns to step S402. The face information of the selected main face is also stored in the face register 224 as the previous main face.

尚、第1の実施形態と同様の考えに基づき、ステップS417において、1つの検出された顔を主顔とし、この主顔の顔情報をリファレンス顔として顔レジスタ224に格納してもよい。この場合、ステップS417では、Counter=1とする。また、選択された主顔の顔情報は、前回主顔としても顔レジスタ224に格納される。   Note that, based on the same idea as in the first embodiment, in step S417, one detected face may be set as the main face, and face information of this main face may be stored in the face register 224 as a reference face. In this case, Counter = 1 is set in step S417. The face information of the selected main face is also stored in the face register 224 as the previous main face.

(ステップS1501)
ステップS402で取得された各々の顔について、前回主顔との距離を算出し(図9参照)、前回主顔に近い順にソートする。そして、前回主顔に最も近い顔を主顔候補とする。
(Step S1501)
For each face acquired in step S402, the distance from the previous main face is calculated (see FIG. 9), and sorted in the order closer to the previous main face. The face closest to the previous main face is set as a main face candidate.

(ステップS1502)
リファレンス顔と主顔候補の中心座標間の距離を算出し、主顔移動距離(Δdis_MainFace)とする。算出方法は、前回主顔がリファレンス顔になる以外、図9に示すものと同様である。
(Step S1502)
A distance between the center coordinates of the reference face and the main face candidate is calculated and set as a main face moving distance (Δdis_MainFace). The calculation method is the same as that shown in FIG. 9 except that the previous main face becomes the reference face.

(ステップS1503)
ステップS1502で算出した主顔移動距離が、予め設定された距離Th_dis以下であればステップS1504に進む。そうでない場合は、主顔候補は実際には主顔ではないと判断し、ステップS1507に進む。ここで距離Th_disは、例えば式3のように、リファレンス顔のサイズに予め設定された係数をかけることで設定することができる。
(Step S1503)
If the main face moving distance calculated in step S1502 is less than or equal to the preset distance Th_dis, the process proceeds to step S1504. Otherwise, it is determined that the main face candidate is not actually the main face, and the process proceeds to step S1507. Here, the distance Th_dis can be set by multiplying the size of the reference face by a preset coefficient, for example, as shown in Equation 3.

Th_dis=RefFaceSize×kThHoseiVal1 (式3)
RefFaceSize: リファレンス顔のサイズ(一辺の長さ)
KthHoseiVal1: 定数
(ステップS1504)
リファレンス顔のサイズと主顔候補のサイズとの差分値ΔSを算出する。
Th_dis = RefFaceSize × kThHoseiVal1 (Formula 3)
RefFaceSize: Reference face size (length of one side)
KthHoseiVal1: constant (step S1504)
A difference value ΔS between the size of the reference face and the size of the main face candidate is calculated.

(ステップS1505)
差分値ΔSが予め設定された差分値Th_size以下であればステップS1506に進む。そうでない場合は、主顔候補は実際には主顔ではないと判断し、ステップS1507に進む。ここで、Th_sizeは、例えば式4のように、リファレンス顔のサイズに予め設定された係数をかけることで設定することができる。
(Step S1505)
If the difference value ΔS is less than or equal to the preset difference value Th_size, the process proceeds to step S1506. Otherwise, it is determined that the main face candidate is not actually the main face, and the process proceeds to step S1507. Here, Th_size can be set by multiplying the size of the reference face by a preset coefficient, for example, as shown in Equation 4.

Th_size=RefFaceSize×kThHoseiVal2 (式4)
RefFaceSize: リファレンス顔のサイズ(一辺の長さ)
KthHoseiVal2: 定数
(ステップS1506)
主顔候補を主顔として決定し、更に、前回主顔として顔レジスタ224に顔情報を格納する。
Th_size = RefFaceSize × kThHoseiVal2 (Formula 4)
RefFaceSize: Reference face size (length of one side)
KthHoseiVal2: constant (step S1506)
The main face candidate is determined as the main face, and the face information is stored in the face register 224 as the previous main face.

(ステップS1507)
ステップS1501においてソートされた順に従って、次に前回主顔から近い顔を主顔候補とし、ステップS1502に戻り、同様の処理を繰り返す。検出された全ての顔について処理を行った場合は、主顔の位置が大きく動いたため前回主顔の位置を利用することは適当でないと判断し、ステップS1508に進む。
(Step S1507)
In the order sorted in step S1501, the next closest face to the previous main face is set as a main face candidate, the process returns to step S1502, and the same processing is repeated. When processing has been performed for all detected faces, the main face position has moved greatly, so it is determined that it is not appropriate to use the previous main face position, and the process advances to step S1508.

<主顔選択処理の例>
以上、図15を参照して、主顔選択処理の流れを説明した。ここでは、第1の実施形態と同様、図11のような連続するシーン(タイミングt=1から4)にて2つの顔が検出された場合の主顔選択処理の例を、各タイミングにおける顔情報を示した図12と、上述のフローチャート(図15)とを用いて説明する。また、図16は、各タイミングにおける各々の顔に対する第1〜第3の重み、最終重み、リファレンス顔座標、リファレンス画像との距離、Th_dis、主顔選択結果を示す図である。尚、説明を簡単にするため、顔サイズに関する説明は省略する。
<Example of main face selection processing>
The flow of the main face selection process has been described above with reference to FIG. Here, as in the first embodiment, an example of main face selection processing when two faces are detected in a continuous scene (timing t = 1 to 4) as shown in FIG. This will be described with reference to FIG. 12 showing information and the above-described flowchart (FIG. 15). FIG. 16 is a diagram illustrating first to third weights, final weights, reference face coordinates, distances from a reference image, Th_dis, and main face selection results for each face at each timing. For the sake of simplicity, description regarding the face size is omitted.

(t=1における主顔選択)
図15のステップS401からS402に沿って動作し、ステップS403にて検出された顔が2個のためステップS404に進み、Counter=0のためステップS1508に進む。
(Main face selection at t = 1)
The operation proceeds from step S401 to step S402 in FIG. 15. Since there are two faces detected in step S403, the process proceeds to step S404, and because Counter = 0, the process proceeds to step S1508.

ステップS1508において、検出された各顔における信頼度による第1の重み(Weight1)、顔のサイズによる第2の重み(Weight2)、顔の中心位置による第3の重み(Weight3)が算出される。そして、これらを乗算して最終重みを算出し、最終重みが最も大きい顔をt=1における主顔とし、リファレンス顔として顔情報を顔レジスタ224に格納する。また、Counterを1にセットする。   In step S1508, a first weight (Weight1) based on the reliability of each detected face, a second weight (Weight2) based on the face size, and a third weight (Weight3) based on the center position of the face are calculated. Then, the final weight is calculated by multiplying them, the face with the largest final weight is set as the main face at t = 1, and the face information is stored in the face register 224 as the reference face. Also, Counter is set to 1.

本実施形態では、顔1、顔2に対して上記計算がなされ、図16に示すように顔1の最終重みは0.42、顔2の最終重みは0.35となり、顔1が主顔に設定される。   In this embodiment, the above calculation is performed for face 1 and face 2, and as shown in FIG. 16, the final weight of face 1 is 0.42, the final weight of face 2 is 0.35, and face 1 is the main face. Set to

(t=2における主顔選択)
ステップS402において顔情報が読み込まれ、ステップS403、S404を通り、ステップS1501へと処理が進む。
(Main face selection at t = 2)
In step S402, face information is read, and the process proceeds to step S1501 through steps S403 and S404.

ステップS1501において、t=2において検出された複数の顔全てについて、中心座標と、リファレンス顔(本実施形態では、t=1における顔1)の中心座標との距離を算出する。そして、リファレンス顔との距離が近い順に、検出された複数の顔をソートする。本実施形態では、顔1とリファレンス顔との距離が10、顔2とリファレンス顔との距離が105となり、ソートの結果、顔1、顔2という順番になる。そこで、まず距離の近い顔1を主顔候補としてステップS1502以降の処理を行う。   In step S1501, the distance between the center coordinates and the center coordinates of the reference face (face 1 at t = 1 in this embodiment) is calculated for all of the plurality of faces detected at t = 2. Then, the plurality of detected faces are sorted in order of increasing distance from the reference face. In this embodiment, the distance between the face 1 and the reference face is 10, and the distance between the face 2 and the reference face is 105. As a result of the sorting, the order is the face 1 and the face 2. Therefore, first, the process after step S1502 is performed with face 1 having a short distance as the main face candidate.

ステップS1502において主顔候補とリファレンス顔との距離を算出する。ここでは、10である。   In step S1502, the distance between the main face candidate and the reference face is calculated. Here, it is 10.

ステップS1503において、予め設定した距離Th_dis(=30)と比較し、Th_dis以下であるため、ステップS1504に進む。   In step S1503, the distance is compared with a preset distance Th_dis (= 30) and is equal to or less than Th_dis, and thus the process proceeds to step S1504.

顔のサイズについては詳細を省略するが、差分値がTh_size以下であり、ステップS1505からS1506へと進む。   Although the details of the face size are omitted, the difference value is equal to or smaller than Th_size, and the process proceeds from step S1505 to S1506.

ステップS1506において、顔1が主顔と設定される。   In step S1506, face 1 is set as the main face.

(t=3における主顔選択)
t=2における主顔選択処理と同様な処理により、顔1が主顔として選択される。
(Main face selection at t = 3)
Face 1 is selected as the main face by the same process as the main face selection process at t = 2.

(t=4における主顔選択)
ステップS1501まではt=3における主顔選択処理と同様な処理が行われる。
(Main face selection at t = 4)
Up to step S1501, processing similar to the main face selection processing at t = 3 is performed.

顔1とリファレンス顔との距離は70、顔2とリファレンス顔との距離は105であり、いずれもTh_disよりも大きい。そのため、ステップS1503からステップ1507へ処理が進み、更に、ステップS1508に進む。   The distance between the face 1 and the reference face is 70, and the distance between the face 2 and the reference face is 105, both of which are larger than Th_dis. Therefore, the process proceeds from step S1503 to step 1507, and further proceeds to step S1508.

ステップS1507では、t=1における主顔選択処理と同様、第1乃至第3の重みに基づいて主顔が選択される。ここでは、顔1の最終重みが0、顔2の最終重みが0.35であるため、顔2が主顔として選択される。   In step S1507, as in the main face selection process at t = 1, the main face is selected based on the first to third weights. Here, since the final weight of face 1 is 0 and the final weight of face 2 is 0.35, face 2 is selected as the main face.

<第2の実施形態のまとめ>
以上説明したように、本実施形態によれば、デジタルカメラ200は、検出された顔と前回主顔との距離に加えて、検出された顔とリファレンス顔との距離及びサイズの差も利用して主顔を選択する。
<Summary of Second Embodiment>
As described above, according to the present embodiment, the digital camera 200 uses the distance and the size difference between the detected face and the reference face in addition to the distance between the detected face and the previous main face. To select the main face.

これにより、デジタルカメラにおいては、主顔がより撮像範囲の中央に存在する確率が高いということも考慮しつつ、極端に頻繁に主顔が入れ替わることを抑制することが可能となる。   Thereby, in the digital camera, it is possible to prevent the main face from being changed extremely frequently while considering that the main face is more likely to exist in the center of the imaging range.

[その他の実施形態]
上述した各実施の形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或は装置に提供してもよい。そして、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現することができる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フロッピィ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスクなどを用いることができる。或いは、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることもできる。
[Other Embodiments]
The processing of each embodiment described above may provide a system or apparatus with a storage medium storing software program codes embodying each function. The functions of the above-described embodiments can be realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, or the like can be used. Alternatively, a CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含まれている。   The functions of the above-described embodiments are not only realized by executing the program code read by the computer. In some cases, an OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. include.

更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含むものである。   Furthermore, the program code read from the storage medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.

従来技術に従い、時刻t=1〜4において撮像装置が検出した人物の顔及び主被写体となる人物の顔を示す図である。It is a figure which shows the face of a person and the person who becomes a main subject which the imaging device detected in time t = 1-4 according to a prior art. 実施形態に係る撮像装置の一例である、デジタルカメラ200の構成及び動作を示すブロック図である。It is a block diagram which shows the structure and operation | movement of the digital camera 200 which is an example of the imaging device which concerns on embodiment. CCD201の電荷読み出し方法の一例を示す図である。6 is a diagram illustrating an example of a charge reading method of the CCD 201. FIG. 第1の実施形態に係る、デジタルカメラ200による主顔選択処理の流れを示すフローチャートである。6 is a flowchart showing a flow of main face selection processing by the digital camera 200 according to the first embodiment. 顔情報の一例を示す図である。It is a figure which shows an example of face information. 主顔選択処理に使用する第1の重みを、信頼度に基づいて決定するための、信頼度−重み特性グラフを示す図である。It is a figure which shows the reliability-weight characteristic graph for determining the 1st weight used for a main face selection process based on reliability. 主顔選択処理に使用する第2の重みを、顔のサイズに基づいて決定するための、顔サイズ−重み特性グラフを示す図である。It is a figure which shows the face weight-weight characteristic graph for determining the 2nd weight used for a main face selection process based on the size of a face. 主顔選択処理に使用する第3の重みを、距離情報distに基づいて決定するための、距離−重み特性グラフを示す図である。It is a figure which shows the distance-weight characteristic graph for determining the 3rd weight used for a main face selection process based on distance information dist. タイミングtにおいて検出された顔と、タイミングt−1において選択された主顔(前回主顔)との距離dist_preMainFaceを示す図である。It is a figure which shows distance dist_preMainFace of the face detected in the timing t, and the main face (previous main face) selected in the timing t-1. 主顔選択処理に使用する第4の重みを、前回主顔との距離に基づいて決定するための、前回距離−重み特性グラフを示す図である。It is a figure which shows the 4th weight used for a main face selection process based on the distance with the last main face based on the last distance-weight characteristic graph. 実施形態に従い、時刻t=1〜4において撮像装置が検出した人物の顔及び主被写体となる人物の顔を示す図である。It is a figure which shows the person's face and the person's face used as the main subject which the imaging device detected in time t = 1-4 according to embodiment. 時刻t=1〜4において撮像装置が検出した2つの顔それぞれの顔情報を示す図である。It is a figure which shows the face information of each of the two faces which the imaging device detected at the time t = 1-4. 時刻t=1〜4における、各々の顔に対する第1〜第4の重み、最終重み、前回主顔との距離、主顔選択結果を示す図である。It is a figure which shows the 1st-4th weight with respect to each face at the time t = 1-4, a final weight, the distance with the last main face, and a main face selection result. 第4の重みを利用しない場合の、時刻t=1〜4における、各々の顔に対する第1〜第4の重み、最終重み、前回主顔との距離、主顔選択結果を示す図である。It is a figure which shows the 1st-4th weight with respect to each face, the last weight, the distance with the last main face, and the main face selection result in the time t = 1-4 when not using a 4th weight. 第2の実施形態に係る、デジタルカメラ200による主顔選択処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the main face selection process by the digital camera 200 based on 2nd Embodiment. 各タイミングにおける各々の顔に対する第1〜第3の重み、最終重み、リファレンス顔座標、リファレンス画像との距離、Th_dis、主顔選択結果を示す図である。It is a figure which shows the 1st-3rd weight with respect to each face in each timing, a final weight, a reference face coordinate, the distance with a reference image, Th_dis, and a main face selection result.

符号の説明Explanation of symbols

201 CCD
213 表示装置
217 VBPF部
218 目検出部
219 非顔フィルタパターン認識部
220 システムコントローラ
223 リサイズ回路
224 顔レジスタ
201 CCD
213 Display device 217 VBPF unit 218 Eye detection unit 219 Non-face filter pattern recognition unit 220 System controller 223 Resize circuit 224 Face register

Claims (9)

画像データを取得する撮像手段と、
前記撮像手段が取得した画像データから、人物の顔を検出する顔検出手段と、
前記顔検出手段が検出した人物の顔から、主被写体となる顔を選択する選択手段とを有し、
前記選択手段が、
前記選択手段が過去に選択した主被写体となる顔についての情報が存在する場合には、当該過去の主被写体となる顔についての情報と、前記顔検出手段が検出した人物の顔についての情報から前記画像データにおける主被写体の顔を選択する第1のモードと、
前記選択手段が過去に選択した主被写体となる顔についての情報が存在しない場合には、前記顔検出手段が検出した人物の顔についての情報から前記画像データにおける主被写体となる顔を選択する第2のモードとを有することを特徴とする撮像装置。
Imaging means for acquiring image data;
Face detection means for detecting a human face from the image data acquired by the imaging means;
Selecting means for selecting a face to be a main subject from the face of the person detected by the face detecting means;
The selecting means is
If there is information about the face that will be the main subject selected by the selection means in the past, information about the face that will be the main subject that has been selected in the past and information about the face of the person detected by the face detection means A first mode for selecting the face of the main subject in the image data;
When there is no information about the face that is the main subject selected in the past by the selection means, the face that becomes the main subject in the image data is selected from the information about the face of the person detected by the face detection means. 2. An imaging device having two modes.
前記選択手段が過去に選択した主被写体となる顔についての情報と、前記顔検出手段が検出した人物の顔についての情報とが、顔の位置についての情報を含み、
前記選択手段が、前記第1のモードにおける選択のために、前記選択手段が過去に選択した主被写体となる顔と前記顔検出手段が検出した人物の顔との距離を用いることを特徴とする請求項1に記載の撮像装置。
The information about the face that is the main subject selected by the selection means in the past and the information about the face of the person detected by the face detection means include information about the position of the face,
For the selection in the first mode, the selection unit uses a distance between a face as a main subject selected by the selection unit in the past and a human face detected by the face detection unit. The imaging device according to claim 1.
前記顔検出手段が検出した人物の顔についての情報が、顔の確からしさを示す信頼度、顔のサイズ、及び、顔の位置を含むことを特徴とする請求項1又は2に記載の撮像装置。   3. The imaging apparatus according to claim 1, wherein the information about the face of the person detected by the face detecting unit includes a reliability indicating the likelihood of the face, a size of the face, and a position of the face. . 前記選択手段が、前記第1のモードにおいて、前記選択手段が過去に選択した主被写体となる顔が予め定められた時間よりも前に選択されたものである場合、前記第2のモードで主被写体となる顔を選択することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   In the first mode, in the first mode, when the face to be the main subject previously selected by the selection unit is selected before a predetermined time in the first mode, the main mode is selected in the second mode. The imaging apparatus according to any one of claims 1 to 3, wherein a face to be a subject is selected. 前記選択手段が前記第2のモードにおいて選択した主被写体となる顔についての情報を記憶する記憶手段を更に備え、
前記選択手段が、前記第1のモードにおいて、前記顔検出手段が検出した人物の顔についての情報のうち、前記記憶手段が記憶している情報と予め定められた関係を満たすものが存在しない場合、前記第2のモードで主被写体となる顔を選択することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
A storage unit that stores information about the face that is the main subject selected by the selection unit in the second mode;
In the first mode, when there is no information satisfying a predetermined relationship with the information stored in the storage unit among the information about the face of the person detected by the face detection unit in the first mode The imaging apparatus according to claim 1, wherein a face to be a main subject is selected in the second mode.
前記記憶手段が記憶している情報と、前記顔検出手段が検出した人物の顔についての情報とが、顔の位置及び顔のサイズのうち少なくとも一方についての情報を含み、
前記予め定められた関係とは、前記顔検出手段が検出した人物の顔の位置が前記記憶手段が記憶している顔の位置から予め定められた範囲内に存在すること、及び、前記顔検出手段が検出した人物の顔のサイズと前記記憶手段が記憶している顔のサイズとの差が予め定められた範囲内であることのうち、少なくとも一方を含むことを特徴とする請求項5に記載の撮像装置。
The information stored in the storage means and the information about the face of the person detected by the face detection means include information about at least one of the face position and the face size,
The predetermined relationship means that the face position of the person detected by the face detection means is within a predetermined range from the face position stored in the storage means, and the face detection 6. The method according to claim 5, further comprising at least one of a difference between a face size detected by the means and a face size stored in the storage means being within a predetermined range. The imaging device described.
画像データを取得する撮像工程と、
前記撮像工程で取得した画像データから、人物の顔を検出する顔検出工程と、
前記顔検出工程で検出した人物の顔から、主被写体となる顔を選択する選択工程とを有し、
前記選択工程が、
前記選択工程で過去に選択した主被写体となる顔についての情報が存在する場合には、当該過去の主被写体となる顔についての情報と、前記顔検出工程で検出した人物の顔についての情報から前記画像データにおける主被写体の顔を選択する第1のモードと、
前記選択工程で過去に選択した主被写体となる顔についての情報が存在しない場合には、前記顔検出工程で検出した人物の顔についての情報から前記画像データにおける主被写体となる顔を選択する第2のモードとを有することを特徴とする撮像方法。
An imaging process for acquiring image data;
A face detection step of detecting a human face from the image data acquired in the imaging step;
A selection step of selecting a face to be a main subject from the face of the person detected in the face detection step,
The selection step comprises:
If there is information about the face that will be the main subject selected in the past in the selection step, information about the face that will be the main subject in the past and information about the face of the person detected in the face detection step A first mode for selecting the face of the main subject in the image data;
When there is no information about the face that is the main subject selected in the past in the selection step, the face that is the main subject in the image data is selected from the information about the face of the person detected in the face detection step. 2. An imaging method comprising two modes.
請求項7に記載の撮像方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the imaging method according to claim 7. 請求項8に記載のプログラムを記録したコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium in which the program according to claim 8 is recorded.
JP2006175788A 2006-06-26 2006-06-26 Imaging device and method of selecting face as main subject Expired - Fee Related JP4771536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006175788A JP4771536B2 (en) 2006-06-26 2006-06-26 Imaging device and method of selecting face as main subject

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006175788A JP4771536B2 (en) 2006-06-26 2006-06-26 Imaging device and method of selecting face as main subject

Publications (3)

Publication Number Publication Date
JP2008005438A true JP2008005438A (en) 2008-01-10
JP2008005438A5 JP2008005438A5 (en) 2009-08-06
JP4771536B2 JP4771536B2 (en) 2011-09-14

Family

ID=39009417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006175788A Expired - Fee Related JP4771536B2 (en) 2006-06-26 2006-06-26 Imaging device and method of selecting face as main subject

Country Status (1)

Country Link
JP (1) JP4771536B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010141616A (en) * 2008-12-11 2010-06-24 Canon Inc Image processor, method of processing image, and imaging apparatus
WO2011111296A1 (en) * 2010-03-09 2011-09-15 パナソニック株式会社 Imaging device and information detection method
US8050464B2 (en) 2006-12-27 2011-11-01 Fujifilm Corporation Image taking apparatus and image taking method
WO2012099174A1 (en) * 2011-01-18 2012-07-26 富士フイルム株式会社 Autofocus system
US8237800B2 (en) 2008-12-15 2012-08-07 Canon Kabushiki Kaisha Main face choosing device, method for controlling same, and image capturing apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002333652A (en) * 2001-05-10 2002-11-22 Oki Electric Ind Co Ltd Photographing device and reproducing apparatus
JP2003107335A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic focusing method, and program for making computer execute the method
JP2004150814A (en) * 2002-10-28 2004-05-27 Toyota Motor Corp Method and apparatus for adjusting imaging position
JP2006508461A (en) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド Face detection and face tracking
JP2007334779A (en) * 2006-06-19 2007-12-27 Fujifilm Corp Target image retrieving device, and control method therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002333652A (en) * 2001-05-10 2002-11-22 Oki Electric Ind Co Ltd Photographing device and reproducing apparatus
JP2003107335A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic focusing method, and program for making computer execute the method
JP2004150814A (en) * 2002-10-28 2004-05-27 Toyota Motor Corp Method and apparatus for adjusting imaging position
JP2006508461A (en) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド Face detection and face tracking
JP2007334779A (en) * 2006-06-19 2007-12-27 Fujifilm Corp Target image retrieving device, and control method therefor

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8050464B2 (en) 2006-12-27 2011-11-01 Fujifilm Corporation Image taking apparatus and image taking method
US8345938B2 (en) 2006-12-27 2013-01-01 Fujifilm Corporation Image taking apparatus and image taking method
JP2010141616A (en) * 2008-12-11 2010-06-24 Canon Inc Image processor, method of processing image, and imaging apparatus
US8682040B2 (en) 2008-12-11 2014-03-25 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image capturing apparatus
US8237800B2 (en) 2008-12-15 2012-08-07 Canon Kabushiki Kaisha Main face choosing device, method for controlling same, and image capturing apparatus
WO2011111296A1 (en) * 2010-03-09 2011-09-15 パナソニック株式会社 Imaging device and information detection method
US8982233B2 (en) 2010-03-09 2015-03-17 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus for imaging an object subject to illuminating light on which information is overlaid and information detection method
US9432573B2 (en) 2010-03-09 2016-08-30 Panasonic Intellectual Property Management Co., Ltd. Apparatus for detecting information overlaid on light and system including the apparatus
WO2012099174A1 (en) * 2011-01-18 2012-07-26 富士フイルム株式会社 Autofocus system

Also Published As

Publication number Publication date
JP4771536B2 (en) 2011-09-14

Similar Documents

Publication Publication Date Title
US11172133B2 (en) Zoom control device, control method of zoom control device, and recording medium
US10827127B2 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
JP4902562B2 (en) Imaging apparatus, image processing apparatus, control method, and program
US10270978B2 (en) Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith
JP6512810B2 (en) Image pickup apparatus, control method and program
US9489747B2 (en) Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
JP5054063B2 (en) Electronic camera, image processing apparatus, and image processing method
JP5029137B2 (en) Imaging apparatus and program
US20070110417A1 (en) Image processing apparatus and image processing method
US7868915B2 (en) Photographing apparatus, method and computer program product
US8411159B2 (en) Method of detecting specific object region and digital camera
US20140176612A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP5246078B2 (en) Object location program and camera
US9865064B2 (en) Image processing apparatus, image processing method, and storage medium
US9811909B2 (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
CN103297670A (en) Subject determination apparatus and subject determination method
US10121067B2 (en) Image processing apparatus that determines processing target area of an image based on degree of saliency, image processing method, and storage medium
JP4771536B2 (en) Imaging device and method of selecting face as main subject
US20200177814A1 (en) Image capturing apparatus and method of controlling image capturing apparatus
JP2008236015A (en) Image processor, imaging apparatus and its program
JP6975144B2 (en) Imaging processing device, electronic device, imaging processing method, imaging processing device control program
JP6493746B2 (en) Image tracking device and image tracking method
JP7458723B2 (en) Image processing device, imaging device, control method, and program
US20230186449A1 (en) Image processing apparatus, image processing method, imaging apparatus, and storage medium
US20220292692A1 (en) Image processing apparatus and method of processing image

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110617

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4771536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees