[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016114785A - Imaging device, imaging method and imaging program - Google Patents

Imaging device, imaging method and imaging program Download PDF

Info

Publication number
JP2016114785A
JP2016114785A JP2014253308A JP2014253308A JP2016114785A JP 2016114785 A JP2016114785 A JP 2016114785A JP 2014253308 A JP2014253308 A JP 2014253308A JP 2014253308 A JP2014253308 A JP 2014253308A JP 2016114785 A JP2016114785 A JP 2016114785A
Authority
JP
Japan
Prior art keywords
phase difference
region
image
variation
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014253308A
Other languages
Japanese (ja)
Inventor
恵 近野
Megumi Konno
恵 近野
昌平 中潟
Shohei Nakagata
昌平 中潟
田中 竜太
Ryuta Tanaka
竜太 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014253308A priority Critical patent/JP2016114785A/en
Publication of JP2016114785A publication Critical patent/JP2016114785A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately focus on a subject.SOLUTION: An imaging device 10 comprises an imaging unit 20 that includes an image pick-up element 19 having a phase difference detection unit detecting a phase difference for calculating a focused position by an image plane phase difference AF arranged, and photographs a subject via a lens 12 capable of moving a focus position.The imaging device 10 also classifies a plurality of estimation windows 24 set so as to include mutually different phase difference detection units into a plurality of groups on the basis of a magnitude relation between the phase differences detected by the phase difference detection unit to be included in the individual estimation window 24, and comprises a specification unit 40 that specifies a main subject area 28 in accordance with a magnitude relation between a variation of a position of the estimation window 24 to be included in the classified individual group and a preliminarily set threshold and a calculation unit 50 that calculates a focused position on the basis of an average of the phase differences included in the main subject area 28 specified by the specification unit 40 and detected by the phase difference detection unit.SELECTED DRAWING: Figure 3

Description

開示の技術は、撮像装置、撮像方法、及び撮像プログラムに関する。   The disclosed technology relates to an imaging apparatus, an imaging method, and an imaging program.

近年、画像を撮像して被写体に合焦させるためのレンズ位置(合焦位置)を検出し、検出した合焦位置にレンズを移動させるオートフォーカス(AF:Auto Focus)技術が組み込まれたカメラ及びスマートフォン等が普及している。   In recent years, a camera incorporating an auto focus (AF) technique for detecting a lens position (focus position) for capturing an image and focusing on a subject and moving the lens to the detected focus position, and Smartphones are popular.

合焦位置を検出するためには、カメラ等から被写体までの距離を計測する必要がある。そこで、撮像素子の受光面に複数配置された光電変換セルで被写体からの反射光を取得し、光電変換セルの位置に応じて変化する光量を検知することで、被写体までの距離を計測する測距技術が開示されている。   In order to detect the in-focus position, it is necessary to measure the distance from the camera or the like to the subject. Therefore, a plurality of photoelectric conversion cells arranged on the light receiving surface of the image sensor are used to acquire reflected light from the subject and detect the amount of light that changes according to the position of the photoelectric conversion cell, thereby measuring the distance to the subject. Distance technology is disclosed.

特開2003−214847号公報JP 2003-214847 A 特開2009−3261号公報JP 2009-3261 A

しかし、従来の測距技術では、例えば撮像素子の特性のばらつき、及び撮像素子周辺の温度変化等によって生じる、撮像素子の出力に含まれるノイズが考慮されておらず、そのため、計測したカメラ等から被写体までの距離に誤差が生じることがある。   However, the conventional distance measurement technology does not take into account noise included in the output of the image sensor, which is caused by, for example, variations in characteristics of the image sensor and temperature changes around the image sensor. An error may occur in the distance to the subject.

一つの側面として、開示の技術は、撮像素子の出力にノイズが重畳した場合であっても、被写体に精度よく合焦できることを目的とする。   As one aspect, the disclosed technique aims to accurately focus on a subject even when noise is superimposed on an output of an image sensor.

一つの態様では、撮像装置は、像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が配置された撮像素子を備え、焦点位置を移動可能な光学系を介して撮像素子の受光面に入射される光により被写体を撮像する撮像部を備える。また、撮像装置は、互いに異なる位相差検出部を含むように設定された複数の第1領域を、個々の第1領域に含まれる位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類する。そして、撮像装置は、分類した個々のグループに含まれる第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定する特定部を備える。また、撮像装置は、特定部によって特定された第2領域に含まれる位相差検出部によって検出された位相差の平均に基づいて合焦位置を算出する算出部を備える。   In one aspect, an imaging apparatus includes an imaging device having a phase difference detection unit that detects a phase difference for calculating a focus position by an image plane phase difference detection method, and an optical system that can move a focal position An image pickup unit that picks up an image of a subject with light incident on the light receiving surface of the image pickup device. In addition, the imaging apparatus may select a plurality of first regions set to include different phase difference detection units based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. Classify into multiple groups. Then, the imaging apparatus specifies the second region that is estimated to correspond to the subject according to the magnitude relationship between the variation in the position of the first region included in each classified group and a preset threshold value. A part. In addition, the imaging apparatus includes a calculation unit that calculates an in-focus position based on an average of the phase differences detected by the phase difference detection unit included in the second region specified by the specifying unit.

一つの側面として、開示の技術は、撮像素子の出力にノイズが重畳した場合であっても、被写体に精度よく合焦できる、という効果を有する。   As one aspect, the disclosed technique has an effect that the subject can be focused with high accuracy even when noise is superimposed on the output of the image sensor.

焦点について説明する模式図である。It is a schematic diagram explaining a focus. 像面位相差AF方式における合焦の原理について説明する模式図である。It is a schematic diagram explaining the principle of focusing in an image plane phase difference AF method. 撮像装置の機能を示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the function of an imaging device. 光電変換セルの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a photoelectric conversion cell. 測距領域の一例を示す図である。It is a figure which shows an example of a ranging area. 推定窓の一例を示す図である。It is a figure which shows an example of an estimation window. 推定窓の分類方法について説明する模式図である。It is a schematic diagram explaining the classification | category method of an estimation window. 推定窓の位置の平均及びばらつきについて説明する模式図である。It is a schematic diagram explaining the average and the dispersion | variation in the position of an estimation window. 主要被写体領域について説明する模式図である。It is a schematic diagram explaining a main subject area. 撮像装置をコンピュータで実現する場合の構成の一例を示す図である。FIG. 25 is a diagram illustrating an example of a configuration when an imaging apparatus is realized by a computer. 撮像処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an imaging process. 推定窓の位相差の算出方法について説明する模式図である。It is a schematic diagram explaining the calculation method of the phase difference of an estimation window. 主要被写体領域選択処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of main subject area | region selection processing. 回転角テーブルの一例を示す図である。It is a figure which shows an example of a rotation angle table. 撮像画像の一例を示す図である。It is a figure which shows an example of a captured image. 他の推定窓の分類方法について説明する模式図である。It is a schematic diagram explaining the classification | category method of another estimation window.

以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。なお、機能が同じ働きを担う構成要素及び処理には、全図面を通して同じ符号を付与し、重複する説明を適宜省略する場合がある。   Hereinafter, an example of an embodiment of the disclosed technology will be described in detail with reference to the drawings. In addition, the same code | symbol is attached | subjected to the component and process which a function bears the same function through all the drawings, and the overlapping description may be abbreviate | omitted suitably.

まず、スマートフォン又はデジタルカメラ等の画像を撮像する機能を有する撮像装置で用いられるAF方式について説明する。   First, an AF method used in an imaging apparatus having a function of capturing an image such as a smartphone or a digital camera will be described.

撮像装置ではAF方式として、例えばコントラストAF方式及び像面位相差AF方式が用いられる場合が多い。   In an imaging apparatus, for example, a contrast AF method and an image plane phase difference AF method are often used as an AF method.

コントラストAF方式は、合焦位置では、画像のコントラスト、すなわち画像で最も暗い部分における輝度と、画像で最も明るい部分における輝度と、の差が最も大きくなるという原理を利用して、被写体に焦点を合わせる方式である。具体的には、レンズを移動させながら被写体のコントラストを演算し、被写体のコントラストが最も高くなるレンズ位置、すなわち合焦位置を検出する。   The contrast AF method focuses on the subject by using the principle that the difference between the contrast of the image, that is, the brightness in the darkest part of the image and the brightness in the brightest part of the image is the largest at the in-focus position. It is a method to match. Specifically, the contrast of the subject is calculated while moving the lens, and the lens position where the contrast of the subject is highest, that is, the focus position is detected.

一方、像面位相差AF方式は、被写体からの反射光のうち、被写体の複数箇所の特定部分における反射光の各々によって得られる被写体の画像の位置ずれ(位相差ともいう)を利用して、被写体に焦点を合わせる方式である。なお、以降では、反射光を単に「光」という場合がある。   On the other hand, the image plane phase difference AF method uses the positional deviation (also referred to as phase difference) of the image of the subject obtained by each of the reflected light at a specific portion of a plurality of locations of the subject among the reflected light from the subject, This method focuses on the subject. Hereinafter, the reflected light may be simply referred to as “light”.

ここで、撮像装置における被写体の画像の位相差について説明する。   Here, the phase difference of the image of the subject in the imaging apparatus will be described.

図1は、撮像装置で撮像される被写体の画像の状態を示す図である。被写体からの光はレンズ12によって屈折され、撮像素子の受光面に被写体の画像が結像される。なお、被写体からの光により撮像素子の受光面に形成される画像を結像画像といい、以降では単に「画像」と称する。   FIG. 1 is a diagram illustrating a state of a subject image captured by the imaging apparatus. Light from the subject is refracted by the lens 12, and an image of the subject is formed on the light receiving surface of the image sensor. An image formed on the light receiving surface of the image sensor by light from the subject is referred to as a formed image, and hereinafter simply referred to as “image”.

撮像素子の受光面には、受光面の左右方向及び上下方向に光電変換セルが2次元状に並べられて配置され、撮像素子は、個々の光電変換セルが各々の光電変換セルで受光した光量に応じた電気信号を画像の画素値として出力することで画像を撮像する。   On the light receiving surface of the image sensor, photoelectric conversion cells are arranged two-dimensionally in the left-right direction and the vertical direction of the light receiving surface, and the image sensor receives the amount of light received by each photoelectric conversion cell. An image is picked up by outputting an electric signal corresponding to the pixel value of the image.

図1に示すように、レンズ12が合焦位置にある場合には、例えばレンズ12の右側部分を通過する光Rと、レンズ12の左側部分を通過する光Lと、の受光面上における受光位置が一致する。従って、光Rによる画像と光Lによる画像とが重なり、鮮鋭度の高い画像が得られる。この場合、光Rによる被写体の画像と、光Lによる被写体の画像と、の位相差は“0”になる。   As shown in FIG. 1, when the lens 12 is in the in-focus position, for example, the light R that passes through the right part of the lens 12 and the light L that passes through the left part of the lens 12 are received on the light receiving surface. The position matches. Therefore, the image by the light R and the image by the light L overlap, and an image with high sharpness is obtained. In this case, the phase difference between the subject image by the light R and the subject image by the light L is “0”.

一方、光の入射方向において、レンズ12が合焦位置よりも被写体に近い位置にある場合には、レンズ12が合焦位置にある場合に比べて、受光面における光Rによる画像と、光Lによる画像と、が離れた位置に形成される。従って、レンズ12が合焦位置にある場合に比べて、光電変換セルから出力される画素値がなだらかに変化するため画像がぼやけ、画像の鮮鋭度が低くなる。この様に、レンズ12が合焦位置よりも被写体に近い位置にある状態を、焦点ずれ(前)という。なお、光Rによる被写体の画像を右画像、光Lによる被写体の画像を左画像という場合がある。   On the other hand, in the light incident direction, when the lens 12 is closer to the subject than the in-focus position, the image of the light R on the light receiving surface and the light L are compared to when the lens 12 is in the in-focus position. Are formed at positions apart from each other. Therefore, compared with the case where the lens 12 is in the in-focus position, the pixel value output from the photoelectric conversion cell changes gently, so the image is blurred and the sharpness of the image is lowered. In this way, a state where the lens 12 is closer to the subject than the in-focus position is referred to as defocus (front). In some cases, the subject image by the light R is called a right image, and the subject image by the light L is called a left image.

また、光の入射方向において、レンズ12が合焦位置よりも被写体から遠い位置にある場合にも、焦点ずれ(前)と同じ理由により、レンズ12が合焦位置にある場合に比べて、画像の鮮鋭度が低くなる。この様に、レンズ12が、レンズ12が合焦位置よりも被写体から遠い位置にある状態を、焦点ずれ(後)という。   Further, when the lens 12 is located farther from the subject than the in-focus position in the light incident direction, the image is compared with the case where the lens 12 is in the in-focus position for the same reason as the defocus (previous). The sharpness is low. In this way, the state in which the lens 12 is located farther from the subject than the in-focus position is referred to as defocus (rear).

すなわち、受光面における右画像と左画像との距離、すなわち右画像と左画像との位相差ができるだけ“0”に近づく位置にレンズ12を移動させることにより、被写体に合焦させることができる。   That is, the subject can be focused by moving the lens 12 to a position where the distance between the right image and the left image on the light receiving surface, that is, the phase difference between the right image and the left image is as close to “0” as possible.

そこで、像面位相差AF方式では、受光面に右画像及び左画像を形成するため、例えば撮像素子の受光面の前面にマイクロレンズが配置される。なお、レンズ12の右側部分を通過した光Rはマイクロレンズの右側を通過し、レンズ12の左側部分を通過した光Lはマイクロレンズの左側を通過する。マイクロレンズには光の透過範囲が異なる複数の種類が存在する。   Therefore, in the image plane phase difference AF method, in order to form a right image and a left image on the light receiving surface, for example, a microlens is disposed on the front surface of the light receiving surface of the image sensor. The light R that has passed through the right part of the lens 12 passes through the right side of the microlens, and the light L that has passed through the left part of the lens 12 passes through the left side of the microlens. There are a plurality of types of microlenses having different light transmission ranges.

マイクロレンズの中には、マイクロレンズの左側部分が遮光され、マイクロレンズの右側部分に入射する光、すなわち光Rを透過させるマイクロレンズが存在する。また、マイクロレンズの中には、例えばマイクロレンズの右側部分が遮光され、マイクロレンズの左側部分に入射する光、すなわち光Lを透過させるマイクロレンズが存在する。更に、マイクロレンズの中には、マイクロレンズの何れの部分に入射する光も遮光せずに透過させるマイクロレンズが存在する。   Among the microlenses, there is a microlens that blocks light on the left side of the microlens and transmits light incident on the right side of the microlens, that is, light R. In addition, among the microlenses, for example, there is a microlens that transmits light that is incident on the left side portion of the microlens, that is, the light L, by blocking the right side portion of the microlens. Furthermore, among the microlenses, there is a microlens that allows light incident on any part of the microlens to pass through without being blocked.

図2は、像面位相差AF方式を用いる撮像装置における合焦の原理を模式的に説明するための図である。マイクロレンズ14Rの左側部分14RLは遮光され、右側部分14RRは光Rを透過する。また、マイクロレンズ14Lの右側部分14LRは遮光され、左側部分14LLは光Lを透過する。   FIG. 2 is a diagram for schematically explaining the principle of focusing in the imaging apparatus using the image plane phase difference AF method. The left portion 14RL of the micro lens 14R is shielded from light, and the right portion 14RR transmits the light R. Further, the right side portion 14LR of the micro lens 14L is shielded from light, and the left side portion 14LL transmits the light L.

この場合、マイクロレンズ14Rを透過する光Rを受光した光電変換セル(位相差検出用セル)は、右画像に含まれる各画素の画素値を出力する。また、マイクロレンズ14Lを透過する光Lを受光した光電変換セル(位相差検出用セル)は、左画像に含まれる各画素の画素値を出力する。   In this case, the photoelectric conversion cell (phase difference detection cell) that has received the light R transmitted through the microlens 14R outputs the pixel value of each pixel included in the right image. The photoelectric conversion cell (phase difference detection cell) that receives the light L that passes through the microlens 14L outputs the pixel value of each pixel included in the left image.

なお、図2における右画像の画素値は、説明の便宜上、受光面の左右方向に並んだ所定の列の複数の光電変換セルが光Rを受光した際の出力を示している。また、左画像の画素値は、右画像の画素値を出力した光電変換セルと同じ列に含まれる別の複数の光電変換セルが光Lを受光した際の出力を示している。   The pixel value of the right image in FIG. 2 indicates an output when a plurality of photoelectric conversion cells in a predetermined column aligned in the left-right direction of the light receiving surface receive the light R for convenience of explanation. The pixel value of the left image indicates an output when a plurality of photoelectric conversion cells included in the same column as the photoelectric conversion cell that outputs the pixel value of the right image receive the light L.

そして、撮像装置は、右画像と左画像との位相差を算出し、算出した位相差に応じて位相差を“0”に補正する補正距離だけレンズ12を移動させることで、レンズ12を合焦位置の近辺に配置して、被写体に焦点を合わせる。   Then, the imaging apparatus calculates the phase difference between the right image and the left image, and moves the lens 12 by a correction distance for correcting the phase difference to “0” according to the calculated phase difference, thereby aligning the lens 12. Place it near the focal position to focus on the subject.

このように像面位相差AF方式では、右画像と左画像との位相差から得られる補正距離を用いてレンズ12を現在の位置から合焦位置まで移動させることができるため、コントラストAF方式に比べて、被写体に高速に合焦できる場合がある。一方、コントラストAF方式は、レンズ12を連続的に移動させながら各々のレンズ12の位置で被写体のコントラストを演算するため、像面位相差AF方式に比べて、被写体に焦点を合わせるまでに要する時間が長くなる場合がある。しかし、既に述べたように、コントラストAF方式は、レンズ12を連続的に移動させながらコントラストが最も高くなるレンズ12の位置を検出するため、像面位相差AF方式に比べて、被写体に精度よく合焦できる場合がある。   Thus, in the image plane phase difference AF method, the lens 12 can be moved from the current position to the in-focus position using the correction distance obtained from the phase difference between the right image and the left image. In comparison, the subject may be focused at high speed. On the other hand, in the contrast AF method, the contrast of the subject is calculated at the position of each lens 12 while continuously moving the lens 12, so that the time required to focus on the subject compared to the image plane phase difference AF method. May become longer. However, as already described, the contrast AF method detects the position of the lens 12 at which the contrast is highest while continuously moving the lens 12, so that the subject is more accurate than the image plane phase difference AF method. It may be possible to focus.

そこで、本実施形態に係る撮像装置では、コントラストAF方式及び像面位相差AF方式を組み合わせ、互いの方式の利点を取り入れたAF方式を採用する。すなわち、本実施形態に係る撮像装置は、像面位相差AF方式によりレンズ12を合焦位置近辺に移動させた後、コントラストAF方式によって合焦位置近辺でレンズ12を連続的に移動させながら、更に被写体に焦点が合うレンズ12の位置を検出する。   Therefore, the imaging apparatus according to the present embodiment employs an AF method that combines the contrast AF method and the image plane phase difference AF method and takes advantage of the mutual method. That is, the image pickup apparatus according to the present embodiment moves the lens 12 near the in-focus position by the image plane phase difference AF method, and then continuously moves the lens 12 in the vicinity of the in-focus position by the contrast AF method. Further, the position of the lens 12 in focus on the subject is detected.

しかしながら、撮像素子の光電変換セルの個体差による特性のばらつき、及び撮像素子周辺の温度の影響等により、撮像素子の光電変換セルが出力する画素値にノイズが重畳する場合がある。像面位相差AF方式では、右画像と左画像との位相差を用いてレンズ12の補正距離を算出するため、撮像素子の光電変換セルが出力する画素値に重畳するノイズが大きくなるに従って、撮像装置の合焦精度が低下する傾向にある。   However, noise may be superimposed on the pixel value output from the photoelectric conversion cell of the image sensor due to variations in characteristics due to individual differences between the photoelectric conversion cells of the image sensor and the influence of the temperature around the image sensor. In the image plane phase difference AF method, since the correction distance of the lens 12 is calculated using the phase difference between the right image and the left image, as the noise superimposed on the pixel value output from the photoelectric conversion cell of the image sensor increases, The focusing accuracy of the image pickup apparatus tends to decrease.

従って、以降では光電変換セルが出力する画素値にノイズが重畳した場合であっても、被写体に精度よく焦点を合わせることができる撮像装置について説明する。   Therefore, hereinafter, an imaging device that can focus on a subject with high accuracy even when noise is superimposed on a pixel value output from a photoelectric conversion cell will be described.

図3は、本実施形態に係る撮像装置10の機能を示す機能ブロック図の一例である。   FIG. 3 is an example of a functional block diagram illustrating functions of the imaging apparatus 10 according to the present embodiment.

撮像装置10は、撮像部20、設定部30、特定部40、算出部50、駆動部60、及びコントラストAF部70を含む。   The imaging device 10 includes an imaging unit 20, a setting unit 30, a specifying unit 40, a calculating unit 50, a driving unit 60, and a contrast AF unit 70.

撮像部20は、撮像素子を備え、レンズ12を通過して撮像素子の受光面に入光する光を受光し、受光した光の光量に応じて撮像素子から出力される電気信号を撮像した画像の画素値として設定部30に出力する。   The imaging unit 20 includes an imaging device, receives light that passes through the lens 12 and enters the light receiving surface of the imaging device, and images an electrical signal output from the imaging device according to the amount of received light Is output to the setting unit 30 as a pixel value.

図4は、撮像素子の受光面に配置される光電変換セルの一例を示す図である。   FIG. 4 is a diagram illustrating an example of a photoelectric conversion cell arranged on the light receiving surface of the image sensor.

図4に示すように、撮像素子の受光面には、複数の光電変換セルが2次元状に並べられている。なお、光電変換セルには、光電変換セル16、光電変換セル17、及び光電変換セル18の種類が存在する。   As shown in FIG. 4, a plurality of photoelectric conversion cells are arranged two-dimensionally on the light receiving surface of the image sensor. Note that the photoelectric conversion cell includes the types of the photoelectric conversion cell 16, the photoelectric conversion cell 17, and the photoelectric conversion cell 18.

光電変換セル16は、光を遮光せずに透過させるマイクロレンズからの光を受光する光電変換セルである。従って、光電変換セル16は、被写体からの光が遮光されずそのまま受光されるため、被写体の撮像に用いられる。   The photoelectric conversion cell 16 is a photoelectric conversion cell that receives light from a microlens that transmits light without blocking light. Therefore, the photoelectric conversion cell 16 is used for imaging a subject because light from the subject is received without being blocked.

光電変換セル17は、受光面の右側部分を遮光し、受光面の左側部分に入射する光Lを透過させるマイクロレンズ14Lからの光を受光する光電変換セル(位相差検出用セル)である。従って、光電変換セル17は、被写体の左画像の撮像に用いられる。なお、以降では光電変換セルの種類を明確にするため、光電変換セル17を特に「位相差検出用セル17」と記載する。   The photoelectric conversion cell 17 is a photoelectric conversion cell (phase difference detection cell) that blocks light on the right side of the light receiving surface and receives light from the microlens 14L that transmits light L incident on the left side of the light receiving surface. Therefore, the photoelectric conversion cell 17 is used for capturing a left image of the subject. Hereinafter, in order to clarify the type of photoelectric conversion cell, the photoelectric conversion cell 17 is particularly referred to as “phase difference detection cell 17”.

光電変換セル18は、受光面の左側部分を遮光し、受光面の右側部分に入射する光Rを透過させるマイクロレンズ14Rからの光を受光する光電変換セル(位相差検出用セル)である。従って、光電変換セル18は、被写体の右画像の撮像に用いられる。なお、以降では光電変換セルの種類を明確にするため、光電変換セル18を特に「位相差検出用セル18」と記載する。   The photoelectric conversion cell 18 is a photoelectric conversion cell (phase difference detection cell) that receives light from the microlens 14R that shields the left portion of the light receiving surface and transmits the light R incident on the right portion of the light receiving surface. Therefore, the photoelectric conversion cell 18 is used for capturing the right image of the subject. Hereinafter, in order to clarify the type of the photoelectric conversion cell, the photoelectric conversion cell 18 is particularly referred to as a “phase difference detection cell 18”.

図4に示すように、撮像素子は、光電変換セル16が部分的に位相差検出用セル17と位相差検出用セル18とに置き換えられて配置された受光面を有する。なお、位相差検出用セル17と位相差検出用セル18とは対で受光面に配置される。なお、図4において、位相差検出用セル17及び位相差検出用セル18の網掛け部分は、光の遮光部分を示す。   As shown in FIG. 4, the imaging element has a light receiving surface in which the photoelectric conversion cell 16 is partially replaced with a phase difference detection cell 17 and a phase difference detection cell 18. The phase difference detection cell 17 and the phase difference detection cell 18 are arranged in pairs on the light receiving surface. In FIG. 4, shaded portions of the phase difference detection cell 17 and the phase difference detection cell 18 indicate light shielding portions.

図3の設定部30は、測距領域設定部32及び位相差算出領域設定部34を含み、撮像部20から出力された画像の画素値は測距領域設定部32に入力される。   The setting unit 30 in FIG. 3 includes a ranging area setting unit 32 and a phase difference calculation area setting unit 34, and the pixel value of the image output from the imaging unit 20 is input to the ranging area setting unit 32.

測距領域設定部32は、画像上に測距領域を設定する。測距領域とは合焦に利用される領域であり、撮像装置10は、測距領域に含まれる画素の画素値を用いて被写体に焦点を合わせる。すなわち、撮像装置10は、測距領域に含まれる被写体に対して焦点を合わせる。   The ranging area setting unit 32 sets a ranging area on the image. The distance measurement area is an area used for focusing, and the imaging apparatus 10 focuses on the subject using the pixel values of the pixels included in the distance measurement area. That is, the imaging device 10 focuses on the subject included in the distance measurement area.

図5は測距領域の一例を示す図である。ここでは説明の便宜上、画像を、画像の画素と1対1に対応する光電変換セル16、位相差検出用セル17、及び位相差検出用セル18の配置に置き換えて表している。また、後ほど説明する図6も同様の表現を用いている。   FIG. 5 is a diagram illustrating an example of a distance measurement area. Here, for convenience of explanation, the image is represented by replacing the photoelectric conversion cell 16, the phase difference detection cell 17, and the phase difference detection cell 18 that correspond one-to-one with the image pixel. The same expression is used in FIG. 6 described later.

図5では画像の中央部分に測距領域22が設定されているが、測距領域22の設定位置に制限はない。   In FIG. 5, the distance measurement area 22 is set at the center of the image, but the setting position of the distance measurement area 22 is not limited.

図3の位相差算出領域設定部34は、図6に示すように、測距領域設定部32が設定した測距領域22内に推定窓24を複数設定する。推定窓24とは、内部に含まれる位相差検出用セル17で検出される左画像と、位相差検出用セル18で検出される右画像と、から位相差を算出するために設けられる領域である。従って、位相差算出領域設定部34は、複数の位相差検出用セル17及び位相差検出用セル18の対を含むように推定窓24を設定する。   As shown in FIG. 6, the phase difference calculation area setting unit 34 in FIG. 3 sets a plurality of estimation windows 24 within the distance measurement area 22 set by the distance measurement area setting unit 32. The estimation window 24 is an area provided for calculating the phase difference from the left image detected by the phase difference detection cell 17 included therein and the right image detected by the phase difference detection cell 18. is there. Therefore, the phase difference calculation region setting unit 34 sets the estimation window 24 so as to include a plurality of pairs of the phase difference detection cell 17 and the phase difference detection cell 18.

特定部40は、位相差算出領域設定部34で測距領域22内に設定された推定窓24を用いて、測距領域22の中から撮像の対象である主要被写体を含むものと推測される領域を特定する。そのため、特定部40は、位相差取得部42、分類部44、ばらつき算出部46、及び主要被写体領域特定部48を含む。   Using the estimation window 24 set in the distance measurement area 22 by the phase difference calculation area setting unit 34, the specifying unit 40 is estimated to include the main subject that is the object of imaging from the distance measurement area 22. Identify the area. Therefore, the specification unit 40 includes a phase difference acquisition unit 42, a classification unit 44, a variation calculation unit 46, and a main subject region specification unit 48.

位相差取得部42は、各々の推定窓24における右画像と左画像との位相差を算出し、各々の推定窓24の位相差の平均値(平均位相差)を算出して分類部44に出力する。   The phase difference acquisition unit 42 calculates the phase difference between the right image and the left image in each estimation window 24, calculates the average value (average phase difference) of the phase differences in each estimation window 24, and outputs it to the classification unit 44. Output.

分類部44は、測距領域22に設定された複数の推定窓24を、位相差が平均位相差未満の推定窓24と、位相差が平均位相差以上の推定窓24と、に分類し、分類結果をばらつき算出部46へ出力する。なお、説明の便宜上、位相差が平均位相差未満の推定窓24のグループをS群、位相差が平均位相差以上の推定窓24のグループをL群という。   The classification unit 44 classifies the plurality of estimation windows 24 set in the distance measurement area 22 into an estimation window 24 whose phase difference is less than the average phase difference and an estimation window 24 whose phase difference is equal to or greater than the average phase difference. The classification result is output to the variation calculation unit 46. For convenience of explanation, a group of estimation windows 24 whose phase difference is less than the average phase difference is referred to as S group, and a group of estimation windows 24 whose phase difference is equal to or greater than the average phase difference is referred to as L group.

図7は、分類部44の機能を模式的に示す図である。   FIG. 7 is a diagram schematically illustrating the function of the classification unit 44.

図7に示すグラフ26は、Oを原点とし、横軸に位相差、縦軸に推定窓24の数をとった場合の位相差の分布例を示す図である。また、Wは平均位相差を示す。この場合、平均位相差W未満の位相差を有する推定窓24がS群に分類され、平均位相差W以上の位相差を有する推定窓24がL群に分類される。なお、推定窓24のうち、S群に分類される推定窓24を推定窓24S、L群に分類される推定窓24を推定窓24Lとする。また、以降では推定窓24を、推定窓24S及び推定窓24Lの総称の意味で使用する。 A graph 26 illustrated in FIG. 7 is a diagram illustrating a distribution example of the phase difference when O is the origin, the phase difference is taken on the horizontal axis, and the number of estimation windows 24 is taken on the vertical axis. W 0 represents an average phase difference. In this case, the estimation window 24 having a phase difference less than the average phase difference W 0 is classified into the S group, and the estimation window 24 having a phase difference greater than or equal to the average phase difference W 0 is classified into the L group. Of the estimation windows 24, the estimation window 24 classified into the S group is referred to as an estimation window 24S, and the estimation window 24 classified into the L group is referred to as an estimation window 24L. Further, hereinafter, the estimation window 24 is used as a generic meaning of the estimation window 24S and the estimation window 24L.

図3のばらつき算出部46は、測距領域22における推定窓24S、及び推定窓24Lの配置から、S群及びL群毎に、各群に含まれる推定窓の位置の平均と、推定窓の位置のばらつきと、を算出する。以降では、S群における推定窓24Sの位置の平均をμ、S群における推定窓24Sの位置のばらつきをσと表す。また、L群における推定窓24Lの位置の平均をμ、L群における推定窓24Lの位置のばらつきをσと表す。 The variation calculation unit 46 in FIG. 3 calculates the average of the positions of the estimation windows included in each group from the arrangement of the estimation windows 24S and the estimation windows 24L in the ranging area 22 and the S and L groups. The position variation is calculated. Hereinafter, the average of the positions of the estimation windows 24S in the S group is represented as μ S , and the variation in the positions of the estimation windows 24S in the S group is represented as σ S. In addition, the average position of the estimation window 24L in the L group is denoted by μ L , and the variation in the position of the estimation window 24L in the L group is denoted by σ L.

図8は、ばらつき算出部46の機能を模式的に示す図である。図8では説明の便宜上、測距領域22に含まれるS群の推定窓24Sと、L群の推定窓24Lと、を分けて記載している。   FIG. 8 is a diagram schematically illustrating the function of the variation calculation unit 46. In FIG. 8, for convenience of explanation, the S group estimation window 24 </ b> S and the L group estimation window 24 </ b> L included in the ranging area 22 are separately illustrated.

推定窓24S及び推定窓24Lの位置は、例えば測距領域22の1つの頂点Pを原点としたXY座標で表される。なお、XY座標上において、推定窓24S及び推定窓24Lのどの部分の位置を推定窓24S及び推定窓24Lの位置とするかについての制限はなく、推定窓24S及び推定窓24Lの各々において、推定窓24S及び推定窓24Lの位置の定義が同じであればよい。例えば推定窓24S及び推定窓24Lの重心点、又は推定窓24S及び推定窓24Lの右上の点(例えば点P1)等を、各推定窓24S及び各推定窓24Lの位置と定めてもよい。   The positions of the estimation window 24S and the estimation window 24L are represented by XY coordinates with one vertex P of the distance measurement area 22 as the origin, for example. It should be noted that there is no restriction on which part of the estimation window 24S and the estimation window 24L is the position of the estimation window 24S and the estimation window 24L on the XY coordinates. The definition of the position of the window 24S and the estimation window 24L may be the same. For example, the barycentric points of the estimation window 24S and the estimation window 24L, or the upper right point (for example, the point P1) of the estimation window 24S and the estimation window 24L may be determined as the positions of the estimation windows 24S and the estimation windows 24L.

なお、図8に示す各々の推定窓24に点P1は存在するが、図面が煩雑となるため一部の推定窓24に対して点P1を図示している。   In addition, although point P1 exists in each estimation window 24 shown in FIG. 8, since drawing becomes complicated, point P1 is illustrated with respect to some estimation windows 24. FIG.

そして、図3のばらつき算出部46は、各々の推定窓24の位置から、推定窓24Sの位置の平均μ、推定窓24Sの位置のばらつきσ、推定窓24Lの位置の平均μ、及び推定窓24Lの位置のばらつきσを算出し、主要被写体領域特定部48に出力する。 3 calculates the average μ S of the position of the estimation window 24S, the variation σ S of the position of the estimation window 24S, and the average μ L of the position of the estimation window 24L from the position of each estimation window 24. And the variation σ L of the position of the estimation window 24L is calculated and output to the main subject region specifying unit 48.

主要被写体領域特定部48は、予め定めた閾値Tと、ばらつきσ及びばらつきσと、の大小関係に従って、S群及びL群の中から主要被写体の画像が含まれる確率が高い方の推定窓24のグループを選択する。なお、推定窓24のグループの具体的な選択方法については後ほど説明する。 The main subject region specifying unit 48 estimates the higher probability that the image of the main subject is included from the S group and the L group according to the magnitude relationship between the predetermined threshold T and the variations σ S and σ L. A group of windows 24 is selected. A specific method for selecting the group of the estimation window 24 will be described later.

更に、主要被写体領域特定部48は、選択した分類に属する推定窓24の各々を包含する所定形状の閉領域を画像に設定し、閉領域に含まれる選択したグループの推定窓24の各々の位置の平均μ、及び推定窓24の位置のばらつきσを算出する。   Further, the main subject region specifying unit 48 sets a closed region having a predetermined shape including each of the estimated windows 24 belonging to the selected classification in the image, and positions of the estimated windows 24 of the selected group included in the closed region. And the variation σ of the position of the estimation window 24 are calculated.

そして、主要被写体領域特定部48は、測距領域22において平均μを中心としたμ±σの範囲の領域を、主要被写体が含まれる領域に特定する。なお、測距領域22において主要被写体が含まれるものと考えられる領域を主要被写体領域という。   Then, the main subject region specifying unit 48 specifies a region in the range of μ ± σ centering on the average μ in the distance measuring region 22 as a region including the main subject. Note that an area considered to include the main subject in the distance measurement area 22 is referred to as a main subject area.

図9は、主要被写体領域特定部48により設定される主要被写体領域を示す図であり、一例として、主要被写体領域特定部48がS群を選択した場合の主要被写体領域28を示している。なお、図9では、S群に含まれる推定窓24Sの各々を包含する閉領域27と、主要被写体領域28と、が同じ領域の場合を示しているが、平均μ及びばらつきσの値によっては、閉領域27と主要被写体領域28とは異なる範囲を示す場合がある。   FIG. 9 is a diagram showing the main subject area set by the main subject area specifying unit 48. As an example, the main subject area 28 when the main subject area specifying unit 48 selects the S group is shown. FIG. 9 shows a case where the closed region 27 including each of the estimation windows 24S included in the S group and the main subject region 28 are the same region, but depending on the values of the average μ and the variation σ. The closed region 27 and the main subject region 28 may indicate different ranges.

そして、図3の主要被写体領域特定部48は、特定した主要被写体領域28を算出部50に出力する。   Then, the main subject area specifying unit 48 in FIG. 3 outputs the specified main subject area 28 to the calculating unit 50.

算出部50は、主要被写体領域28に含まれる推定窓24の各々における位相差の平均値μを算出する。そして、算出部50は、平均値μを0に近づけるために必要なレンズ12の移動距離である補正距離に対応するモータの回転角を算出し、算出した回転角を駆動部60に出力する。 The calculation unit 50 calculates the average value μ 0 of the phase difference in each of the estimation windows 24 included in the main subject region 28. Then, the calculation unit 50 calculates the rotation angle of the motor corresponding to the correction distance that is the movement distance of the lens 12 necessary to bring the average value μ 0 close to 0, and outputs the calculated rotation angle to the drive unit 60. .

駆動部60は、算出部50で算出された回転角に応じてモータを駆動して、レンズ12を現在の位置から合焦位置に移動させ、被写体に焦点を合わせる。そして、駆動部60は、像面位相差AF方式による合焦処理が終了したことをコントラストAF部70に通知する。   The drive unit 60 drives the motor according to the rotation angle calculated by the calculation unit 50, moves the lens 12 from the current position to the in-focus position, and focuses on the subject. Then, the driving unit 60 notifies the contrast AF unit 70 that the focusing process by the image plane phase difference AF method has been completed.

コントラストAF部70は、公知のコントラストAF方式による合焦技術を用いて、更にレンズ12の合焦位置を調整する。   The contrast AF unit 70 further adjusts the in-focus position of the lens 12 using a known focus AF method.

次に、図10に、撮像装置10をコンピュータで実現する場合の構成図を示す。   Next, FIG. 10 shows a configuration diagram when the imaging apparatus 10 is realized by a computer.

コンピュータ100は、CPU102、メモリ104、及び不揮発性の記憶部106を含む。CPU102、メモリ104、及び不揮発性の記憶部106は、バス108を介して互いに接続される。また、コンピュータ100は、他の装置とコンピュータ100とを接続し、互いにデータを送受信するためのI/O(Input/Output)110を備え、I/O110はバス108に接続される。   The computer 100 includes a CPU 102, a memory 104, and a nonvolatile storage unit 106. The CPU 102, the memory 104, and the nonvolatile storage unit 106 are connected to each other via a bus 108. The computer 100 also includes an I / O (Input / Output) 110 for connecting other devices and the computer 100 and transmitting / receiving data to / from each other, and the I / O 110 is connected to the bus 108.

そして、I/O110には、例えば入力装置112、表示装置114、撮像素子19、及びモータ116が接続される。入力装置112は、例えば各種スイッチ、ボタン、及びタッチパネル等の、ユーザが撮像装置10に指示を与えるためのデバイスを含む。また、入力装置112は、例えばCD−ROM又はフラッシュメモリ等の記録媒体150に記録されるデータを読み取るための読み取り装置を含む。表示装置114は、例えばユーザに対して撮像装置10の状態や撮像画像を表示するディスプレイ等の表示デバイスを含む。撮像素子19は、コンピュータ100の指示に従って、レンズ12を介して受光した光の光量を電気信号に変換する。モータ116は、コンピュータ100の指示に従って、ギヤ等を介して連結されたレンズ12の位置を変更する。なお、記憶部106はHDD(Hard Disk Drive)やフラッシュメモリ等によって実現できる。   For example, an input device 112, a display device 114, an image sensor 19, and a motor 116 are connected to the I / O 110. The input device 112 includes devices for giving instructions to the imaging device 10 by the user, such as various switches, buttons, and a touch panel. The input device 112 includes a reading device for reading data recorded on the recording medium 150 such as a CD-ROM or a flash memory. The display device 114 includes, for example, a display device such as a display that displays the state of the imaging device 10 and the captured image to the user. The image sensor 19 converts the amount of light received through the lens 12 into an electrical signal in accordance with an instruction from the computer 100. The motor 116 changes the position of the lens 12 connected via a gear or the like in accordance with an instruction from the computer 100. The storage unit 106 can be realized by an HDD (Hard Disk Drive), a flash memory, or the like.

記憶部106には、コンピュータ100を図3に示す撮像装置10として機能させるための撮像プログラム120が記憶される。記憶部106に記憶される撮像プログラム120は、測距領域設定プロセス122、位相差算出領域設定プロセス124、位相差取得プロセス126、分類プロセス128、ばらつき算出プロセス130、及び主要被写体領域特定プロセス132を含む。更に、撮像プログラム120は、算出プロセス134、駆動プロセス136、及びコントラストAFプロセス138を含む。   The storage unit 106 stores an imaging program 120 for causing the computer 100 to function as the imaging device 10 illustrated in FIG. The imaging program 120 stored in the storage unit 106 includes a ranging area setting process 122, a phase difference calculation area setting process 124, a phase difference acquisition process 126, a classification process 128, a variation calculation process 130, and a main subject area specifying process 132. Including. Further, the imaging program 120 includes a calculation process 134, a driving process 136, and a contrast AF process 138.

CPU102は、撮像プログラム120を記憶部106から読み出してメモリ104に展開し、撮像プログラム120が有する各プロセスを実行する。   The CPU 102 reads out the imaging program 120 from the storage unit 106 and develops it in the memory 104, and executes each process included in the imaging program 120.

CPU102が、撮像プログラム120を記憶部106から読み出してメモリ104に展開し、撮像プログラム120を実行することで、コンピュータ100が図3に示す撮像装置10として動作する。また、CPU102が測距領域設定プロセス122を実行することで、コンピュータ100が図3に示す測距領域設定部32として動作する。また、CPU102が位相差算出領域設定プロセス124を実行することで、コンピュータ100が図3に示す位相差算出領域設定部34として動作する。また、CPU102が位相差取得プロセス126を実行することで、コンピュータ100が図3に示す位相差取得部42として動作する。また、CPU102が分類プロセス128を実行することで、コンピュータ100が図3に示す分類部44として動作する。また、CPU102がばらつき算出プロセス130を実行することで、コンピュータ100が図3に示すばらつき算出部46として動作する。また、CPU102が主要被写体領域特定プロセス132を実行することで、コンピュータ100が図3に示す主要被写体領域特定部48として動作する。また、CPU102が算出プロセス134を実行することで、コンピュータ100が図3に示す算出部50として動作する。また、CPU102が駆動プロセス136を実行することで、コンピュータ100が図3に示す駆動部60として動作する。更に、CPU102がコントラストAFプロセス138を実行することで、コンピュータ100が図3に示すコントラストAF部70として動作する。   The CPU 102 reads out the imaging program 120 from the storage unit 106, expands it in the memory 104, and executes the imaging program 120, whereby the computer 100 operates as the imaging device 10 illustrated in FIG. 3. Further, when the CPU 102 executes the ranging area setting process 122, the computer 100 operates as the ranging area setting unit 32 shown in FIG. Further, when the CPU 102 executes the phase difference calculation area setting process 124, the computer 100 operates as the phase difference calculation area setting unit 34 illustrated in FIG. Further, when the CPU 102 executes the phase difference acquisition process 126, the computer 100 operates as the phase difference acquisition unit 42 illustrated in FIG. Further, when the CPU 102 executes the classification process 128, the computer 100 operates as the classification unit 44 illustrated in FIG. Further, when the CPU 102 executes the variation calculation process 130, the computer 100 operates as the variation calculation unit 46 illustrated in FIG. Further, when the CPU 102 executes the main subject region specifying process 132, the computer 100 operates as the main subject region specifying unit 48 shown in FIG. Further, when the CPU 102 executes the calculation process 134, the computer 100 operates as the calculation unit 50 illustrated in FIG. Further, when the CPU 102 executes the driving process 136, the computer 100 operates as the driving unit 60 shown in FIG. Furthermore, when the CPU 102 executes the contrast AF process 138, the computer 100 operates as the contrast AF unit 70 shown in FIG.

なお、CPU102が測距領域設定プロセス122及び位相差算出領域設定プロセス124を実行することで、コンピュータ100が図3に示す設定部30として動作する。また、CPU102が位相差取得プロセス126、分類プロセス128、ばらつき算出プロセス130、及び主要被写体領域特定プロセス132を実行することで、コンピュータ100が図3に示す特定部40として動作する。   The CPU 102 executes the distance measurement area setting process 122 and the phase difference calculation area setting process 124 so that the computer 100 operates as the setting unit 30 illustrated in FIG. Further, when the CPU 102 executes the phase difference acquisition process 126, the classification process 128, the variation calculation process 130, and the main subject region specifying process 132, the computer 100 operates as the specifying unit 40 illustrated in FIG.

更に、CPU102が、閾値格納領域140に含まれる閾値をメモリ104に展開することで、メモリ104に推定窓24の位置のばらつきを分類するための閾値Tが記憶される。また、CPU102が、撮像素子情報格納領域142に含まれる撮像素子情報をメモリ104に展開することで、メモリ104に撮像素子配置テーブルが記憶される。なお、撮像素子配置テーブルとは、撮像素子19の受光面における光電変換セル16、位相差検出用セル17、及び位相差検出用セル18の配置を示すテーブルであり、画像の各画素が何れの種類のセルに対応した画素であるかを取得できる。   Further, the CPU 102 develops the threshold value included in the threshold value storage area 140 in the memory 104, whereby the threshold value T for classifying the variation in the position of the estimation window 24 is stored in the memory 104. Further, the CPU 102 expands the image sensor information included in the image sensor information storage area 142 in the memory 104, whereby the image sensor arrangement table is stored in the memory 104. The imaging element arrangement table is a table showing the arrangement of the photoelectric conversion cells 16, the phase difference detection cells 17, and the phase difference detection cells 18 on the light receiving surface of the imaging element 19, and each pixel of the image is any of the pixels. Whether the pixel corresponds to the type of cell can be acquired.

なお、コンピュータ100は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。   The computer 100 can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit) or the like.

次に、本実施形態に係る撮像装置10の作用について説明する。本実施形態に係る撮像装置10は、例えばユーザの操作に伴い、入力装置112から撮像を開始する指示を受け付けた場合に撮像処理を実行する。   Next, the operation of the imaging device 10 according to the present embodiment will be described. The imaging device 10 according to the present embodiment performs imaging processing when an instruction to start imaging is received from the input device 112, for example, in response to a user operation.

図11は、本実施形態に係る撮像装置10の撮像処理の流れの一例を示すフローチャートである。   FIG. 11 is a flowchart illustrating an example of the flow of imaging processing of the imaging apparatus 10 according to the present embodiment.

まず、ステップS10において、測距領域設定部32は、撮像素子19の各セルから出力される画素値を取得する。そして、測距領域設定部32は、取得した画素値の各々を、画素値を出力したセルの受光面における位置と対応させて、メモリ104の予め定めた領域に記憶する。このように、メモリ104に記憶された画素値の集合が画像となる。   First, in step S <b> 10, the ranging area setting unit 32 acquires pixel values output from each cell of the image sensor 19. Then, the distance measurement area setting unit 32 stores each acquired pixel value in a predetermined area of the memory 104 in association with the position on the light receiving surface of the cell that outputs the pixel value. Thus, a set of pixel values stored in the memory 104 becomes an image.

次に、測距領域設定部32は画像上に測距領域22を設定する。図5の例では、測距領域設定部32は測距領域22を矩形状に設定しているが、測距領域22の形状に制限はない。また、既に述べたように、画像上における測距領域22の設定位置にも制限はない。しかしながら、測距領域設定部32は、例えば公知の画像認識技術等を用いて、動物、植物、及び建物等、何らかの物体が写っていると推測される領域に測距領域22を設定することが好ましい。   Next, the ranging area setting unit 32 sets the ranging area 22 on the image. In the example of FIG. 5, the ranging area setting unit 32 sets the ranging area 22 in a rectangular shape, but the shape of the ranging area 22 is not limited. Further, as already described, there is no restriction on the set position of the distance measurement area 22 on the image. However, the distance measurement area setting unit 32 may set the distance measurement area 22 in an area where it is estimated that some object, such as an animal, a plant, or a building, is captured using, for example, a known image recognition technique. preferable.

ステップS20において、位相差算出領域設定部34は、図6に示すようにステップS10の処理で設定した測距領域22内に、複数の推定窓24を設定する。位相差算出領域設定部34は推定窓24を設定する際、推定窓24の各々に位相差検出用セル17に対応する画素と、位相差検出用セル18に対応する画素と、の対が含まれるように、各推定窓24を設定する。これは、位相差取得部42が推定窓24の各々で、位相差検出用セル17に対応する画素の画素値から得られる左画像と、位相差検出用セル18に対応する画素の画素値から得られる右画像と、を取得できるようにするためである。   In step S20, the phase difference calculation area setting unit 34 sets a plurality of estimation windows 24 in the distance measurement area 22 set in the process of step S10 as shown in FIG. When the phase difference calculation area setting unit 34 sets the estimation window 24, each estimation window 24 includes a pair of a pixel corresponding to the phase difference detection cell 17 and a pixel corresponding to the phase difference detection cell 18. Each estimation window 24 is set so as to be This is because the phase difference acquisition unit 42 uses the left image obtained from the pixel value of the pixel corresponding to the phase difference detection cell 17 and the pixel value of the pixel corresponding to the phase difference detection cell 18 in each of the estimation windows 24. This is because the right image obtained can be acquired.

なお、位相差算出領域設定部34は、メモリ104に予め記憶される撮像素子配置テーブルを参照して、位相差検出用セル17及び位相差検出用セル18に対応する画素を選択すればよい。   Note that the phase difference calculation region setting unit 34 may select pixels corresponding to the phase difference detection cell 17 and the phase difference detection cell 18 with reference to the image sensor arrangement table stored in advance in the memory 104.

ステップS30において、位相差取得部42は、ステップS20の処理で設定した推定窓24の各々で、右画像と左画像との位相差を算出したか否かを判定する。そして、否定判定の場合にはステップS40に移行する。   In step S30, the phase difference acquisition unit 42 determines whether or not the phase difference between the right image and the left image has been calculated in each of the estimation windows 24 set in the process of step S20. If the determination is negative, the process proceeds to step S40.

ステップS40において、位相差取得部42は、ステップS20の処理で設定した推定窓24の各々の中から、未選択の推定窓24を1つ選択する。そして、位相差取得部42は、選択した推定窓24に含まれる位相差検出用セル17に対応する画素の画素値を読み込んで左画像を取得すると共に、選択した推定窓24に含まれる位相差検出用セル18に対応する画素の画素値を読み込んで右画像を取得する。   In step S40, the phase difference acquisition unit 42 selects one unselected estimation window 24 from each of the estimation windows 24 set in the process of step S20. Then, the phase difference acquisition unit 42 reads the pixel value of the pixel corresponding to the phase difference detection cell 17 included in the selected estimation window 24 and acquires the left image, and also includes the phase difference included in the selected estimation window 24. The pixel value of the pixel corresponding to the detection cell 18 is read to acquire the right image.

次に、ステップS50において、位相差取得部42は、画像の左右方向に沿って、ステップS40の処理で取得した右画像を、予め定めた画素数の範囲内で1画素ずつ移動させる。そして、位相差取得部42は、移動毎の各位置における右画像と左画像との差分絶対値和(SAD:Sum of Absolute Difference)を算出する。具体的には、右画像と左画像との差分絶対値和とは、対となる位相差検出用セル17及び位相差検出用セル18毎の、位相差検出用セル17に対応する画素の画素値と、位相差検出用セル18に対応する画素の画素値と、の差分の絶対値の和で表される。   Next, in step S50, the phase difference acquisition unit 42 moves the right image acquired in the process of step S40 pixel by pixel within a predetermined number of pixels along the left-right direction of the image. Then, the phase difference acquisition unit 42 calculates a sum of absolute differences (SAD: Sum of Absolute Difference) between the right image and the left image at each position for each movement. Specifically, the sum of absolute differences between the right image and the left image is the pixel of the pixel corresponding to the phase difference detection cell 17 for each of the phase difference detection cell 17 and the phase difference detection cell 18 that form a pair. It is represented by the sum of the absolute values of the differences between the value and the pixel value of the pixel corresponding to the phase difference detection cell 18.

そして、位相差取得部42は、予め定めた画素数の範囲内における各位置での差分絶対値和を参照し、右画像の移動前の位置から差分絶対値和が最も小さくなる位置までの移動画素数を、右画像と左画像との位相差として算出する。   Then, the phase difference acquisition unit 42 refers to the sum of absolute differences at each position within a predetermined number of pixels, and moves from the position before the movement of the right image to the position where the sum of absolute differences is smallest. The number of pixels is calculated as a phase difference between the right image and the left image.

そして、位相差取得部42は、算出した位相差を位相差の算出元である推定窓24の情報と対応づけてメモリ104の予め定めた領域に記憶すると共に、位相差の算出元である推定窓24の情報に選択済みの識別子を設定する。従って、ステップS30及びステップS40の処理において、位相差を算出した推定窓24であるか否かの判定は、推定窓24に設定される選択済みの識別子の有無に従って判定される。   Then, the phase difference acquisition unit 42 associates the calculated phase difference with the information of the estimation window 24 that is the phase difference calculation source, stores the phase difference in a predetermined area of the memory 104, and estimates the phase difference calculation source. The selected identifier is set in the information of the window 24. Accordingly, in the processing of step S30 and step S40, whether or not the estimation window 24 has calculated the phase difference is determined according to the presence or absence of the selected identifier set in the estimation window 24.

なお、予め定めた画素数とは右画像を移動する際の移動画素数の最大値を表し、撮像装置10の実機による実験や撮像装置10の設計仕様に基づくコンピュータシミュレーション等により予め求められる数値である。   The predetermined number of pixels represents a maximum value of the number of moving pixels when moving the right image, and is a numerical value obtained in advance by an experiment with an actual apparatus of the imaging apparatus 10 or a computer simulation based on a design specification of the imaging apparatus 10. is there.

また、本実施形態では、左画像の位置を固定して右画像を移動する例を説明したが、右画像の位置を固定して左画像を移動するようにしても、同じ差分絶対値和が得られることは言うまでもない。   Further, in this embodiment, the example in which the position of the left image is fixed and the right image is moved has been described. However, even if the position of the right image is fixed and the left image is moved, the same difference absolute value sum is obtained. It goes without saying that it is obtained.

図12は、ステップS50の処理を模式的に示す図である。図12に示すように、右画像を、予め定めた画素数の範囲内で画像の左右方向を示す矢印ARの方向に移動させることで、移動位置毎の差分絶対値和を示すグラフ52が得られる。原点Qは右画像の移動前における位置を表し、例えば右画像をAR1方向に移動させる場合の位相差を“+”、右画像をAR2方向に移動させる場合の位相差を“−”で表す。   FIG. 12 is a diagram schematically showing the process of step S50. As shown in FIG. 12, by moving the right image in the direction of the arrow AR indicating the left-right direction of the image within a predetermined number of pixels, a graph 52 showing the sum of absolute differences for each moving position is obtained. It is done. The origin Q represents the position of the right image before the movement. For example, the phase difference when the right image is moved in the AR1 direction is represented by “+”, and the phase difference when the right image is moved in the AR2 direction is represented by “−”.

一方、ステップS30の処理において肯定判定の場合、すなわち、各々の推定窓24に対してステップS40及びステップS50の処理を実行し、各々の推定窓24における位相差を算出した場合には、ステップS60に移行する。   On the other hand, if the determination in step S30 is affirmative, that is, if the processing in steps S40 and S50 is executed for each estimation window 24 and the phase difference in each estimation window 24 is calculated, step S60 is performed. Migrate to

ステップS60において、特定部40は、測距領域22の中から主要被写体領域28を選択する主要被写体領域選択処理を実行する。従って、以下では主要被写体領域選択処理について説明し、説明終了の後、図11の撮像処理の説明に戻る。   In step S <b> 60, the specifying unit 40 performs a main subject area selection process for selecting the main subject area 28 from the distance measurement area 22. Accordingly, the main subject area selection process will be described below, and after the description is finished, the description returns to the imaging process in FIG.

図13は、ステップS60の処理で実行される主要被写体領域選択処理の流れの一例を示すフローチャートである。   FIG. 13 is a flowchart showing an example of the flow of the main subject area selection process executed in the process of step S60.

まず、ステップS600において、位相差取得部42は、ステップS50の処理で算出した各々の推定窓24の位相差をメモリ104から読み込み、位相差を読み込んだ全ての推定窓24の平均位相差を算出する。そして、位相差取得部42は、算出した平均位相差をメモリ104の予め定めた領域に記憶する。   First, in step S600, the phase difference acquisition unit 42 reads the phase difference of each estimation window 24 calculated in the process of step S50 from the memory 104, and calculates the average phase difference of all the estimation windows 24 that read the phase difference. To do. Then, the phase difference acquisition unit 42 stores the calculated average phase difference in a predetermined area of the memory 104.

ステップS610において、分類部44は、ステップS50の処理で算出した各々の推定窓24の位相差、及びステップS600の処理で算出した平均位相差をメモリ104から読み込む。そして、分類部44は、ステップS20の処理で測距領域22に設定された複数の推定窓24を、位相差が平均位相差未満のS群の推定窓24と、位相差が平均位相差以上のL群の推定窓24と、に分類する。分類部44は、S群に分類した推定窓24SにS群であることを示す識別子を、また、L群に分類した推定窓24LにL群であることを示す識別子を対応づけて、メモリ104の予め定めた領域に記憶する。なお、推定窓24がS群かL群かを示す識別子を分類識別子という。   In step S610, the classification unit 44 reads from the memory 104 the phase difference of each estimation window 24 calculated in the process of step S50 and the average phase difference calculated in the process of step S600. Then, the classification unit 44 sets the plurality of estimation windows 24 set in the ranging area 22 in the process of step S20, the estimation window 24 of the S group whose phase difference is less than the average phase difference, and the phase difference equal to or greater than the average phase difference. And the estimation window 24 of the L group. The classification unit 44 associates an identifier indicating the S group with the estimation window 24 </ b> S classified into the S group, and associates an identifier indicating the L group with the estimation window 24 </ b> L classified into the L group. Is stored in a predetermined area. An identifier indicating whether the estimation window 24 is the S group or the L group is referred to as a classification identifier.

このように、推定窓24をS群とL群に分類する理由は、測距領域22に主要被写体と、主要被写体でない被写体(非主要被写体)が含まれる場合に対応するためである。ここでは一例として、分類部44は平均位相差を用いて推定窓24を複数の種類に分類する。なお、推定窓24の分類に用いる基準として平均位相差を採用する理由は、平均位相差を境界にして、主要被写体と非主要被写体とを分離できる傾向にあるためである。   As described above, the reason why the estimation window 24 is classified into the S group and the L group is to cope with the case where the distance measurement area 22 includes a main subject and a subject (non-main subject) that is not the main subject. Here, as an example, the classification unit 44 classifies the estimation window 24 into a plurality of types using the average phase difference. The reason why the average phase difference is adopted as a reference used for classification of the estimation window 24 is that the main subject and the non-main subject tend to be separated with the average phase difference as a boundary.

ステップS620において、ばらつき算出部46は、図8に示す頂点Pのように、測距領域22の予め定めた点を原点とした場合における各々の推定窓24の位置を取得する。例えば、ばらつき算出部46は、測距領域22の頂点Pを原点とするXY座標において、各推定窓24の右上の点P1を各々の推定窓24の位置と定義して、推定窓24の位置を取得する。   In step S620, the variation calculation unit 46 acquires the position of each estimation window 24 when a predetermined point of the distance measurement area 22 is set as the origin, as indicated by a vertex P shown in FIG. For example, the variation calculation unit 46 defines the upper right point P1 of each estimation window 24 as the position of each estimation window 24 in the XY coordinates with the vertex P of the ranging area 22 as the origin, and the position of the estimation window 24 To get.

そして、ばらつき算出部46は、ステップS610の処理で設定された推定窓24の分類識別子を参照し、S群に含まれる推定窓24Sの位置の平均μ、推定窓24Sの位置のばらつきσを算出する。また、ばらつき算出部46は、ステップS610の処理で設定された推定窓24の分類識別子を参照し、推定窓24Lの位置の平均μ、及び推定窓24Lの位置のばらつきσを算出する。 Then, the variation calculation unit 46 refers to the classification identifier of the estimation window 24 set in the process of step S610, and the average μ S of the positions of the estimation windows 24S included in the S group, and the variation σ S of the positions of the estimation windows 24S. Is calculated. Further, the variation calculation unit 46 refers to the classification identifier of the estimation window 24 set in the process of step S610, and calculates the average μ L of the position of the estimation window 24L and the variation σ L of the position of the estimation window 24L.

なお、一例として、ばらつき算出部46は推定窓24の位置のばらつきを標準偏差として算出するが、これに限定されない。ばらつき算出部46は、推定窓24の位置のばらつきを定量的に表すことができる指標であればどの様な指標を用いてもよい。例えば、ばらつき算出部46は、各群に含まれる推定窓24の位置の平均から最も離れた推定窓24までの距離を、当該群に含まれる推定窓24の位置のばらつきとしてもよい。また、ばらつき算出部46は、分散値を推定窓24の位置のばらつきとしてもよい。   As an example, the variation calculation unit 46 calculates the variation in the position of the estimation window 24 as a standard deviation, but is not limited thereto. The variation calculation unit 46 may use any index as long as it can quantitatively represent the variation in the position of the estimation window 24. For example, the variation calculation unit 46 may use the distance from the average of the positions of the estimation windows 24 included in each group to the estimation window 24 farthest as the variation in the positions of the estimation windows 24 included in the group. Further, the variation calculation unit 46 may use the variance value as the variation in the position of the estimation window 24.

そして、ばらつき算出部46は、算出した平均μ、ばらつきσ、平均μ、及びばらつきσを、メモリ104の予め定めた領域に記憶する。 The variation calculation unit 46 stores the calculated average μ S , variation σ S , average μ L , and variation σ L in a predetermined area of the memory 104.

ステップS630において、主要被写体領域特定部48は、メモリ104から閾値T、平均μ、ばらつきσ、平均μ、及びばらつきσを取得する。そして、主要被写体領域特定部48は、ばらつきσ及びばらつきσが共に閾値Tより小さいか否かを判定し、肯定判定の場合にはステップS640に移行し、否定判定の場合にはステップS650へ移行する。 In step S <b> 630, the main subject region specifying unit 48 acquires the threshold value T, the average μ S , the variation σ S , the average μ L , and the variation σ L from the memory 104. Then, the main subject region specifying unit 48 determines whether or not the variation σ S and the variation σ L are both smaller than the threshold T. If the determination is affirmative, the process proceeds to step S640. If the determination is negative, step S650 is performed. Migrate to

なお、閾値Tは、予め定めた標準偏差σを引数とする関数f)によって与えられる値であり、測距領域22における主要被写体の撮像位置の推定に影響を与える、画像の画素値に重畳するノイズの基準量を規定する。標準偏差σ及び関数f)は、撮像装置10の実機による実験や撮像装置10の設計仕様に基づくコンピュータシミュレーション等により予め求められ、例えばメモリ104の予め定めた領域に予め記憶されている値である。 The threshold value T is a value given by a function f 10 ) having a predetermined standard deviation σ 0 as an argument, and affects the estimation of the imaging position of the main subject in the distance measurement area 22. Defines the reference amount of noise to be superimposed on the pixel value. The standard deviation σ 0 and the function f 10 ) are obtained in advance by an experiment using the actual apparatus of the imaging apparatus 10 or a computer simulation based on the design specifications of the imaging apparatus 10, and are stored in advance in a predetermined area of the memory 104, for example. It is a value.

次に、主要被写体領域特定部48は、ばらつきσ及びばらつきσと、閾値Tと、の大小関係により測距領域22における主要被写体の撮像位置を推定する。 Next, the main subject area specifying unit 48 estimates the imaging position of the main subject in the distance measurement area 22 based on the magnitude relationship between the variation σ S and the variation σ L and the threshold value T.

例えば、ばらつきσ及びばらつきσが共に閾値Tより小さい場合には、画像の画素値に重畳するノイズは、基準量より少ない状態にあると考えられる。主要被写体は、非主要被写体より大きく撮影される傾向にあるため、こうしたノイズが基準値より少ない状況においては、S群及びL群のうち、ばらつきσ、σがより大きい方の群に含まれる推定窓24の分布範囲に存在している可能性が高い。 For example, when the variation σ S and the variation σ L are both smaller than the threshold value T, it is considered that the noise superimposed on the pixel value of the image is less than the reference amount. Since the main subject tends to be photographed larger than the non-main subject, in such a situation where the noise is less than the reference value, the main subjects are included in the group having the larger variations σ S and σ L among the S group and the L group. There is a high possibility that it exists in the distribution range of the estimated window 24.

従って、ステップS640において、主要被写体領域特定部48は、S群及びL群のうち、ばらつきσ、σがより大きい方(推定窓24の分布範囲が広い方)の群を選択する。 Therefore, in step S640, the main subject region specifying unit 48 selects a group having a larger variation σ S , σ L (one having a wider distribution range of the estimation window 24) out of the S group and the L group.

一方、ばらつきσ及びばらつきσの少なくとも一方が閾値T以上の場合は、ノイズが影響している可能性が高く、画像の画素値に重畳するノイズは、基準量より多い状態にあると考えられる。こうしたノイズが基準値より多い状況では、S群及びL群の各群に含まれる推定窓24の分布範囲が、対応する画像上の被写体の分布範囲に対して誤差を含むことになる。従って、主要被写体領域特定部48は、主要被写体と非主要被写体との大きさの関係から主要被写体の位置を正しく判断することが困難となる。しかし、主要被写体は、推定窓24の位置の平均付近にまとまって存在する傾向にある。従って、こうしたノイズが基準値より多い状況では、主要被写体は、S群及びL群のうち、ばらつきがより小さい方の群に含まれる推定窓24の分布範囲に存在している可能性が高い。 On the other hand, when at least one of the variation σ S and the variation σ L is equal to or greater than the threshold T, it is highly likely that the noise has an influence, and the noise superimposed on the pixel value of the image is in a state larger than the reference amount. It is done. In a situation where such noise is larger than the reference value, the distribution range of the estimation window 24 included in each group of the S group and the L group includes an error with respect to the distribution range of the subject on the corresponding image. Accordingly, it is difficult for the main subject region specifying unit 48 to correctly determine the position of the main subject from the size relationship between the main subject and the non-main subject. However, the main subject tends to exist in the vicinity of the average position of the estimation window 24. Therefore, in a situation where there is more noise than the reference value, there is a high possibility that the main subject is present in the distribution range of the estimation window 24 included in the group with the smaller variation of the S group and the L group.

従って、ステップS650において、主要被写体領域特定部48は、S群及びL群のうち、ばらつきがより小さい方(推定窓24の分布範囲が狭い方)の群を選択する。   Therefore, in step S650, the main subject region specifying unit 48 selects a group having a smaller variation (a distribution range of the estimation window 24 is narrower) out of the S group and the L group.

ステップS660において、主要被写体領域特定部48は、ステップS640又はステップS650の処理で選択した群に属する推定窓24の各々を包含する所定形状かつ最小の大きさを有する閉領域27を測距領域22に設定する。そして、主要被写体領域特定部48は、選択した推定窓24の位置の偏り状態を反映するため、閉領域27において、選択した推定窓24の各々の位置の平均μ、及び推定窓24の位置のばらつきσを算出する。   In step S660, the main subject area specifying unit 48 determines the closed area 27 having a predetermined shape and the minimum size that includes each of the estimation windows 24 belonging to the group selected in the process of step S640 or step S650. Set to. Then, in order to reflect the biased state of the position of the selected estimation window 24, the main subject area specifying unit 48 reflects the average μ of each position of the selected estimation window 24 and the position of the estimation window 24 in the closed area 27. The variation σ is calculated.

すなわち、図9に示したように、閉領域27には、S群に含まれる推定窓24S及びL群に含まれる推定窓24Lが共に含まれる場合がある。しかし、主要被写体領域特定部48は、閉領域27に含まれる推定窓24のうち、ステップS640又はステップS650で選択した推定窓24のみを用いて、閉領域27における推定窓24の位置の平均μ、及び推定窓24の位置のばらつきσを算出する。
なお、既にステップS620の処理で算出した、推定窓24Sの位置の平均μ及び推定窓24Sの位置のばらつきσ、若しくは、推定窓24Lの位置の平均μ及び推定窓24Lの位置のばらつきσを流用してもよい。
That is, as shown in FIG. 9, the closed region 27 may include both the estimation window 24S included in the S group and the estimation window 24L included in the L group. However, the main subject region specifying unit 48 uses only the estimation window 24 selected in Step S640 or Step S650 among the estimation windows 24 included in the closed region 27, and uses the average μ of the positions of the estimation windows 24 in the closed region 27. And a variation σ of the position of the estimation window 24 is calculated.
Note that the average μ S of the position of the estimation window 24S and the variation σ S of the position of the estimation window 24S, or the variation of the average μ L of the position of the estimation window 24L and the position of the estimation window 24L, which have already been calculated in the process of step S620. σ L may be used.

そして、主要被写体領域特定部48は、測距領域22において平均μを中心としたμ±σの範囲の領域を主要被写体領域28として特定する。なお、主要被写体領域28が推定窓24の一部分を含むように設定される場合には、一部分が含まれる推定窓24の全体を包含するように主要被写体領域28を設定し直すか、一部分が含まれる推定窓24を取り除くように主要被写体領域28を設定し直す。これは、後述する図11のステップS70の処理で、推定窓24単位で位相差の平均を算出する必要があるためである。   Then, the main subject region specifying unit 48 specifies a region in the range of μ ± σ around the average μ as the main subject region 28 in the distance measuring region 22. When the main subject area 28 is set so as to include a part of the estimation window 24, the main subject area 28 is reset so as to include the entire estimation window 24 including the part or the part is included. The main subject area 28 is reset so as to remove the estimated window 24. This is because it is necessary to calculate the average of the phase difference in units of the estimation window 24 in the process of step S70 in FIG.

以上により、図11に示すステップS60の主要被写体領域選択処理が終了し、測距領域22の中から、主要被写体の撮像位置を表す主要被写体領域28が選択される。   As described above, the main subject area selection process in step S60 shown in FIG. 11 is completed, and the main subject area 28 representing the imaging position of the main subject is selected from the distance measurement area 22.

説明を、図11に示す撮像装置10の撮像処理に戻す。   The description returns to the imaging process of the imaging apparatus 10 shown in FIG.

ステップS70において、算出部50は、ステップS60の処理で選択した主要被写体領域28に含まれる推定窓24の各々における位相差の平均値μを算出する。なお、主要被写体領域28に含まれる推定窓24の各々における位相差は、ステップS50の処理によって既に位相差取得部42が算出した各推定窓24の位相差を利用することができる。 In step S70, the calculation unit 50 calculates an average value μ 0 of the phase difference in each of the estimation windows 24 included in the main subject region 28 selected in the process of step S60. As the phase difference in each of the estimation windows 24 included in the main subject region 28, the phase difference of each estimation window 24 that has already been calculated by the phase difference acquisition unit 42 by the process in step S50 can be used.

平均値μは、主要被写体の撮像位置における推定窓24の焦点ずれの量を示す値であるため、平均値μが0に近づくようにレンズ12を移動させることで、レンズ12の焦点を主要被写体に合わせることができる。 Since the average value μ 0 is a value indicating the amount of defocus of the estimation window 24 at the imaging position of the main subject, the lens 12 is moved so that the average value μ 0 approaches 0, so that the focus of the lens 12 is adjusted. Can be adjusted to the main subject.

従って、算出部50は、位相差の平均値μと、レンズ12を平均値μに対応する補正距離だけ移動させるためのモータ116の回転角と、を対応づける回転角テーブルを参照して、モータ116の回転角を取得する。なお、回転角テーブルは、撮像装置10の実機による実験や撮像装置10の設計仕様に基づくコンピュータシミュレーション等により予め求められ、メモリ104の予め定めた領域に記憶される。 Therefore, the calculation unit 50 refers to the rotation angle table that associates the average value μ 0 of the phase difference with the rotation angle of the motor 116 for moving the lens 12 by the correction distance corresponding to the average value μ 0. The rotation angle of the motor 116 is acquired. Note that the rotation angle table is obtained in advance by an experiment with an actual apparatus of the imaging apparatus 10 or a computer simulation based on the design specification of the imaging apparatus 10 and is stored in a predetermined area of the memory 104.

図14に、回転角テーブル80の一例を示す。なお、例示した回転角テーブル80の各値は回転角テーブル80の説明のための値であり、実際に撮像装置10で用いられる値とは異なる。回転角テーブル80における回転角の正負の符号は、モータ116の回転方向を表す。例えば正値の回転角は、レンズ12を受光面に近づける方向に移動させるモータ116の回転方向に、回転角の絶対値で表される角度だけモータ116を回転させることを表す。また、負値の回転角は、レンズ12を受光面から遠ざける方向に移動させるモータ116の回転方向に、回転角の絶対値で表される角度だけモータ116を回転させることを表す。   FIG. 14 shows an example of the rotation angle table 80. Each value of the illustrated rotation angle table 80 is a value for explaining the rotation angle table 80 and is different from a value actually used in the imaging device 10. The sign of the rotation angle in the rotation angle table 80 represents the rotation direction of the motor 116. For example, a positive rotation angle indicates that the motor 116 is rotated by an angle represented by the absolute value of the rotation angle in the rotation direction of the motor 116 that moves the lens 12 in a direction to approach the light receiving surface. The negative rotation angle indicates that the motor 116 is rotated by an angle represented by the absolute value of the rotation angle in the rotation direction of the motor 116 that moves the lens 12 away from the light receiving surface.

そして、算出部50は、回転角テーブル80から取得した回転角をメモリ104の予め定めた領域に記憶する。   Then, the calculation unit 50 stores the rotation angle acquired from the rotation angle table 80 in a predetermined area of the memory 104.

なお、平均値μは、推定窓24が属する群に関係なく、主要被写体領域28に含まれる推定窓24から算出した位相差の平均であるため、一方の群に含まれる推定窓24から算出した位相差の平均値に比べて、主要被写体に対する焦点のずれ量を精度よく表す。 The average value μ 0 is the average of the phase differences calculated from the estimation window 24 included in the main subject region 28 regardless of the group to which the estimation window 24 belongs, and thus is calculated from the estimation window 24 included in one group. Compared to the average value of the phase differences, the amount of focus shift with respect to the main subject is accurately represented.

また、ステップS70の処理では、算出部50は、回転角テーブル80を用いて平均値μに対応する回転角を算出したが、例えば平均値μを引数とする関数f)を用いて平均値μに対応する回転角を算出してもよいことは言うまでもない。 In the processes of the step S70, the calculating unit 50 has been calculated rotation angle corresponding to the average value mu 0 with the rotation angle table 80, the function f 2 (μ 0) of the average value mu 0 and argument e.g. It goes without saying that the rotation angle corresponding to the average value μ 0 may be calculated using.

ステップS80において、駆動部60は、メモリ104からステップS70の処理で算出したモータ116の回転角を取得する。そして、駆動部60は、取得した回転角に従って、モータ116を駆動する。   In step S80, the drive unit 60 acquires the rotation angle of the motor 116 calculated in the process of step S70 from the memory 104. And the drive part 60 drives the motor 116 according to the acquired rotation angle.

以上、説明した図11のステップS10からS80までの撮像処理により、レンズ12が主要被写体の合焦位置近辺に移動する。この後、コントラストAF部70は、公知のコントラストAF方式による合焦技術を用いてレンズ12の合焦位置を調整することで、像面位相差AF方式だけで合焦する場合に比べて、合焦精度が向上する。   As described above, the lens 12 moves to the vicinity of the in-focus position of the main subject by the imaging processing from step S10 to S80 in FIG. Thereafter, the contrast AF unit 70 adjusts the focusing position of the lens 12 using a focusing technique based on a known contrast AF method, so that the in-focus state is adjusted only by the image plane phase difference AF method. Improves focus accuracy.

ここで、図15に示すように、測距領域22に主要被写体である人物72と、人物72の背後に位置する非主要被写体である車両74と、が含まれる場合の撮像について検討する。   Here, as shown in FIG. 15, imaging in the case where a person 72 as a main subject and a vehicle 74 as a non-main subject located behind the person 72 are included in the distance measurement area 22 will be considered.

図15の測距領域22には、被写体距離が異なる人物72と車両74が含まれる。従って、単に測距領域22に含まれる各々の推定窓24の平均位相差から補正距離を算出してしまうと、何れの被写体にも焦点が合わないという状況が発生する場合が考えられる。   15 includes a person 72 and a vehicle 74 having different subject distances. Therefore, if the correction distance is simply calculated from the average phase difference of each estimation window 24 included in the distance measurement area 22, there may be a situation in which no subject is focused.

しかし、本実施形態に係る撮像装置10では、測距領域22の中から、他の領域に比べて主要被写体の像が含まれる可能性の高い主要被写体領域28を特定し、主要被写体領域28に含まれる各推定窓24の平均位相差から補正距離を算出する。従って、撮像装置10は、測距領域22に含まれる各々の推定窓24の平均位相差から補正距離を算出する場合と比較して、主要被写体に精度よく合焦できる。例えば図15の場合、撮像装置10は人物72に合焦することができる。   However, in the imaging apparatus 10 according to the present embodiment, the main subject area 28 that is more likely to include the image of the main subject than the other areas is identified from the distance measurement area 22, and the main subject area 28 is identified. A correction distance is calculated from the average phase difference of each estimation window 24 included. Therefore, the imaging apparatus 10 can focus on the main subject with higher accuracy than when the correction distance is calculated from the average phase difference of the estimation windows 24 included in the distance measurement area 22. For example, in the case of FIG. 15, the imaging apparatus 10 can focus on the person 72.

更に、本実施形態に係る撮像装置10では、測距領域22に含まれる推定窓24をS群とL群とに分割し、各群における推定窓24の位置のばらつきの度合いと、閾値Tとの大小関係に応じて、一方の群より主要被写体の像が含まれる可能性が高い群を選択する。すなわち、本実施形態に係る撮像装置10では、光電変換セルが出力する画素値に含まれるノイズの重畳量に応じて、何れの群に主要被写体の像が含まれる可能性が高いかを判定する。従って、例えば推定窓24の位置のばらつきの度合いが大きい方の群を含む領域に主要被写体の像が含まれると固定的に判断する場合と比較して、更に被写体に精度よく焦点を合わせることができる。   Furthermore, in the imaging apparatus 10 according to the present embodiment, the estimation window 24 included in the ranging area 22 is divided into the S group and the L group, the degree of variation in the position of the estimation window 24 in each group, the threshold T, and the like. Depending on the size relationship, a group that is more likely to contain the image of the main subject than one group is selected. That is, in the imaging device 10 according to the present embodiment, it is determined which group is likely to contain the image of the main subject according to the amount of noise superposition included in the pixel value output by the photoelectric conversion cell. . Therefore, for example, the subject can be more accurately focused as compared to a case where it is fixedly determined that the image of the main subject is included in the region including the group with the larger degree of variation in the position of the estimation window 24. it can.

なお、図13に示すステップS610の処理において、分類部44は、測距領域22に含まれる推定窓24を、推定窓24の位相差が測距領域22に含まれる推定窓24の各々の平均位相差W未満か否かによってS群とL群とに分類した。しかし、測距領域22に含まれる推定窓24の分類方法はこれに限定されない。 In the process of step S610 illustrated in FIG. 13, the classification unit 44 calculates the average of the estimation windows 24 included in the ranging area 22 and the estimation windows 24 in which the phase difference of the estimation window 24 is included in the ranging area 22. They were classified into the S group and L groups according to whether less than a phase difference W 0. However, the classification method of the estimation window 24 included in the distance measurement area 22 is not limited to this.

図16は、図7からグラフ26を抽出した図である。例示したグラフ26には、位相差に関して2つのピーク値W及びWが存在する。この様な場合、一方のピーク値が主要被写体に対する位相差の分布のピーク値を表し、他方のピーク値が非主要被写体に対する位相差の分布のピーク値を表すものと考えることができる。従って、分類部44は、ピーク値Wとピーク値Wとの間に存在する極小点での位相差Wを基準値とし、測距領域22に含まれる推定窓24を、推定窓24の位相差が位相差W未満か否かによってS群とL群とに分類してもよい。 FIG. 16 is a diagram obtained by extracting the graph 26 from FIG. The graph 26 illustrated, two peak values W 2 and W 3 are present in phase difference. In such a case, it can be considered that one peak value represents the peak value of the phase difference distribution for the main subject, and the other peak value represents the peak value of the phase difference distribution for the non-main subject. Therefore, the classification unit 44 uses the phase difference W 1 at the minimum point existing between the peak value W 2 and the peak value W 3 as a reference value, and uses the estimation window 24 included in the distance measurement area 22 as the estimation window 24. it may be classified into a group S and L groups phase difference depending on whether less than a phase difference W 1 of.

以上、実施形態を用いて開示の技術を説明したが、開示の技術は各々の実施形態に記載の範囲には限定されない。開示の技術の要旨を逸脱しない範囲で各々の実施形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も開示の技術の技術的範囲に含まれる。例えば、開示の技術の要旨を逸脱しない範囲で処理の順序を変更してもよい。   Although the disclosed technology has been described using the embodiments, the disclosed technology is not limited to the scope described in each embodiment. Various modifications or improvements can be added to each embodiment without departing from the spirit of the disclosed technique, and forms to which the modifications or improvements are added are also included in the technical scope of the disclosed technique. For example, the processing order may be changed without departing from the scope of the disclosed technology.

また、実施形態では、撮像プログラム120が記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されるものではない。開示の技術に係る撮像プログラム120は、コンピュータ読取可能な記録媒体150に記録されている形態で提供することも可能である。例えば、開示の技術に係る撮像プログラム120は、CD−ROM、DVD−ROM、及びUSBメモリ等の可搬型記録媒体に記録されている形態で提供することも可能である。また、開示の技術に係る撮像プログラム120は、フラッシュメモリ等の半導体メモリ等に記録されている形態で提供することも可能である。   In the embodiment, the aspect in which the imaging program 120 is stored (installed) in the storage unit in advance has been described, but the present invention is not limited to this. The imaging program 120 according to the disclosed technique can also be provided in a form recorded on a computer-readable recording medium 150. For example, the imaging program 120 according to the disclosed technology can be provided in a form recorded on a portable recording medium such as a CD-ROM, a DVD-ROM, and a USB memory. The imaging program 120 according to the disclosed technique can also be provided in a form recorded in a semiconductor memory such as a flash memory.

以上の実施形態に関し、更に以下の付記を開示する。   Regarding the above embodiment, the following additional notes are disclosed.

(付記1)
像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子を備え、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光により被写体を撮像する撮像部と、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定する特定部と、
前記特定部によって特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する算出部と、
を含む撮像装置。
(Appendix 1)
The phase difference detection unit for detecting the phase difference for calculating the in-focus position by the image plane phase difference detection method includes imaging elements arranged at a plurality of positions in the light receiving surface, and through an optical system that can move the focal position. An imaging unit that images a subject with light incident on a light receiving surface of the imaging element;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And a specifying unit that specifies a second region estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value When,
A calculating unit that calculates the in-focus position based on an average of phase differences detected by the phase difference detecting unit included in the second region specified by the specifying unit;
An imaging apparatus including:

(付記2)
前記特定部は、前記個々のグループに含まれる前記第1領域の位置のばらつきの各々が前記予め設定した閾値より小さい場合は、前記個々のグループのうち前記第1領域の位置のばらつきがより大きいグループを選択し、前記個々のグループに含まれる前記第1領域の位置のばらつきのうち、少なくとも1つが前記予め設定した閾値より大きい場合は、前記個々のグループのうち前記前記第1領域の位置のばらつきがより小さいグループを選択し、選択したグループに属する前記第1領域の各々の位置の平均値及びばらつきから前記第2領域を特定する
付記1記載の撮像装置。
(Appendix 2)
In the case where each variation in the position of the first region included in the individual group is smaller than the preset threshold value, the specifying unit has a larger variation in the position of the first region in the individual group. When at least one of the variations in the position of the first region included in the individual group is larger than the preset threshold, the position of the first region in the individual group is selected. The imaging apparatus according to claim 1, wherein a group having a smaller variation is selected, and the second region is identified from an average value and a variation of each position of the first region belonging to the selected group.

(付記3)
前記特定部は、前記選択したグループに属する前記第1領域の位置の平均値で表される点を基準とした、前記選択したグループに属する前記第1領域の位置のばらつきで表される範囲内の領域を、前記第2領域として特定する
付記2記載の撮像装置。
(Appendix 3)
The specifying unit is within a range represented by a variation in the position of the first region belonging to the selected group, based on a point represented by an average value of the position of the first region belonging to the selected group. The imaging device according to claim 2, wherein the region is specified as the second region.

(付記4)
前記特定部は、前記第1領域の各々の位相差と、前記第1領域の各々の位相差の平均値と、を比較して、前記第1領域の各々を前記複数のグループに分類する
付記1〜付記3の何れか1項に記載の撮像装置。
(Appendix 4)
The identifying unit compares each phase difference of the first region with an average value of each phase difference of the first region, and classifies each of the first regions into the plurality of groups. The imaging apparatus according to any one of 1 to appendix 3.

(付記5)
前記第1領域の位置のばらつきの度合いを標準偏差で表す
付記1〜付記4の何れか1項に記載の撮像装置。
(Appendix 5)
The imaging device according to any one of Supplementary Note 1 to Supplementary Note 4, wherein the degree of variation in position of the first region is expressed by a standard deviation.

(付記6)
コンピュータに、
像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子により、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光で表される被写体を撮像し、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定し、
特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する
ことを含む処理を実行させる撮像方法。
(Appendix 6)
On the computer,
Through an optical system that can move the focal position by image sensors with multiple phase difference detectors that detect the phase difference for calculating the in-focus position using the image plane phase difference detection method. Image a subject represented by light incident on a light receiving surface of the image sensor;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And specifying a second region that is estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value,
An imaging method for executing a process including calculating the in-focus position based on an average of phase differences detected by the phase difference detection unit included in the identified second region.

(付記7)
前記個々のグループに含まれる前記第1領域の位置のばらつきの各々が前記予め設定した閾値より小さい場合は、前記個々のグループのうち前記第1領域の位置のばらつきがより大きいグループを選択し、前記個々のグループに含まれる前記第1領域の位置のばらつきのうち、少なくとも1つが前記予め設定した閾値より大きい場合は、前記個々のグループのうち前記前記第1領域の位置のばらつきがより小さいグループを選択し、選択したグループに属する前記第1領域の各々の位置の平均値及びばらつきから前記第2領域を特定する
付記6記載の撮像方法。
(Appendix 7)
When each variation in position of the first region included in the individual group is smaller than the preset threshold value, a group having a larger variation in position of the first region is selected from the individual groups, If at least one of the variations in the position of the first region included in the individual group is greater than the preset threshold, the group in which the variation in the position of the first region is smaller among the individual groups The imaging method according to claim 6, wherein the second region is specified from an average value and variation of positions of the first regions belonging to the selected group.

(付記8)
前記選択したグループに属する前記第1領域の位置の平均値で表される点を基準とした、前記選択したグループに属する前記第1領域の位置のばらつきで表される範囲内の領域を、前記第2領域として特定する
付記7記載の撮像方法。
(Appendix 8)
A region within a range represented by a variation in the position of the first region belonging to the selected group, based on a point represented by an average value of the positions of the first region belonging to the selected group, The imaging method according to appendix 7, which is specified as the second region.

(付記9)
前記第1領域の各々の位相差と、前記第1領域の各々の位相差の平均値と、を比較して、前記第1領域の各々を前記複数のグループに分類する
付記6〜付記8の何れか1項に記載の撮像方法。
(Appendix 9)
The phase difference of each of the first regions is compared with the average value of the phase difference of each of the first regions, and each of the first regions is classified into the plurality of groups. The imaging method according to any one of the above.

(付記10)
前記第1領域の位置のばらつきの度合いを標準偏差で表す
付記6〜付記9の何れか1項に記載の撮像方法。
(Appendix 10)
The imaging method according to any one of appendix 6 to appendix 9, wherein the degree of variation in the position of the first region is expressed by a standard deviation.

(付記11)
コンピュータに、
像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子により、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光で表される被写体を撮像し、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定し、
特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する
ことを含む処理を実行させるための撮像プログラム。
(Appendix 11)
On the computer,
Through an optical system that can move the focal position by image sensors with multiple phase difference detectors that detect the phase difference for calculating the in-focus position using the image plane phase difference detection method. Image a subject represented by light incident on a light receiving surface of the image sensor;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And specifying a second region that is estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value,
An imaging program for executing processing including calculating the in-focus position based on an average of phase differences detected by the phase difference detection unit included in the specified second region.

(付記12)
前記個々のグループに含まれる前記第1領域の位置のばらつきの各々が前記予め設定した閾値より小さい場合は、前記個々のグループのうち前記第1領域の位置のばらつきがより大きいグループを選択し、前記個々のグループに含まれる前記第1領域の位置のばらつきのうち、少なくとも1つが前記予め設定した閾値より大きい場合は、前記個々のグループのうち前記前記第1領域の位置のばらつきがより小さいグループを選択し、選択したグループに属する前記第1領域の各々の位置の平均値及びばらつきから前記第2領域を特定する
付記11記載の撮像プログラム。
(Appendix 12)
When each variation in position of the first region included in the individual group is smaller than the preset threshold value, a group having a larger variation in position of the first region is selected from the individual groups, If at least one of the variations in the position of the first region included in the individual group is greater than the preset threshold, the group in which the variation in the position of the first region is smaller among the individual groups The imaging program according to claim 11, wherein the second region is specified from an average value and variation of positions of the first regions belonging to the selected group.

(付記13)
前記選択したグループに属する前記第1領域の位置の平均値で表される点を基準とした、前記選択したグループに属する前記第1領域の位置のばらつきで表される範囲内の領域を、前記第2領域として特定する
付記12記載の撮像プログラム。
(Appendix 13)
A region within a range represented by a variation in the position of the first region belonging to the selected group, based on a point represented by an average value of the positions of the first region belonging to the selected group, The imaging program according to attachment 12, which is specified as the second region.

(付記14)
前記第1領域の各々の位相差と、前記第1領域の各々の位相差の平均値と、を比較して、前記第1領域の各々を前記複数のグループに分類する
付記11〜付記13の何れか1項に記載の撮像プログラム。
(Appendix 14)
The phase difference of each of the first regions is compared with the average value of the phase difference of each of the first regions, and each of the first regions is classified into the plurality of groups. The imaging program according to any one of the above.

(付記15)
前記第1領域の位置のばらつきの度合いを標準偏差で表す
付記11〜付記14の何れか1項に記載の撮像プログラム。
(Appendix 15)
The imaging program according to any one of appendices 11 to 14, wherein the degree of variation in the position of the first region is expressed by a standard deviation.

(付記16)
コンピュータに、
像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子により、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光で表される被写体を撮像し、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定し、
特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する
ことを含む処理を実行させるための撮像プログラムを記録したコンピュータ読み取り可能な記録媒体。
(Appendix 16)
On the computer,
Through an optical system that can move the focal position by image sensors with multiple phase difference detectors that detect the phase difference for calculating the in-focus position using the image plane phase difference detection method. Image a subject represented by light incident on a light receiving surface of the image sensor;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And specifying a second region that is estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value,
Computer-readable recording of an imaging program for executing processing including calculating the in-focus position based on an average of phase differences detected by the phase difference detection unit included in the specified second region Recording medium.

10…撮像装置、12…レンズ、14L、14R…マイクロレンズ、16、17、18…光電変換セル、19…撮像素子、20…撮像部、22…測距領域、24…推定窓、27…閉領域、28…主要被写体領域、30…設定部、32…測距領域設定部、34…位相差算出領域設定部、40…特定部、42…位相差取得部、44…分類部、46…算出部、48…主要被写体領域特定部、50…算出部、60…駆動部、70…コントラストAF部、100…コンピュータ、102…CPU、104…メモリ、106…記憶部、108…バス、112…入力装置、114…表示装置、116…モータ、120…撮像プログラム、150…記録媒体 DESCRIPTION OF SYMBOLS 10 ... Imaging device, 12 ... Lens, 14L, 14R ... Micro lens, 16, 17, 18 ... Photoelectric conversion cell, 19 ... Imaging element, 20 ... Imaging part, 22 ... Distance measuring area, 24 ... Estimation window, 27 ... Closed Area 28... Main subject area 30. Setting section 32. Ranging area setting section 34. Phase difference calculation area setting section 40. Identification section 42. Phase difference acquisition section 44. Classification section 46. , 48 ... main subject region specifying part, 50 ... calculating part, 60 ... driving part, 70 ... contrast AF part, 100 ... computer, 102 ... CPU, 104 ... memory, 106 ... storage part, 108 ... bus, 112 ... input Device 114, display device 116, motor 120, imaging program 150, recording medium

Claims (7)

像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子を備え、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光により被写体を撮像する撮像部と、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定する特定部と、
前記特定部によって特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する算出部と、
を含む撮像装置。
The phase difference detection unit for detecting the phase difference for calculating the in-focus position by the image plane phase difference detection method includes imaging elements arranged at a plurality of positions in the light receiving surface, and through an optical system that can move the focal position. An imaging unit that images a subject with light incident on a light receiving surface of the imaging element;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And a specifying unit that specifies a second region estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value When,
A calculating unit that calculates the in-focus position based on an average of phase differences detected by the phase difference detecting unit included in the second region specified by the specifying unit;
An imaging apparatus including:
前記特定部は、前記個々のグループに含まれる前記第1領域の位置のばらつきの各々が前記予め設定した閾値より小さい場合は、前記個々のグループのうち前記第1領域の位置のばらつきがより大きいグループを選択し、前記個々のグループに含まれる前記第1領域の位置のばらつきのうち、少なくとも1つが前記予め設定した閾値より大きい場合は、前記個々のグループのうち前記前記第1領域の位置のばらつきがより小さいグループを選択し、選択したグループに属する前記第1領域の各々の位置の平均値及びばらつきから前記第2領域を特定する
請求項1記載の撮像装置。
In the case where each variation in the position of the first region included in the individual group is smaller than the preset threshold value, the specifying unit has a larger variation in the position of the first region in the individual group. When at least one of the variations in the position of the first region included in the individual group is larger than the preset threshold, the position of the first region in the individual group is selected. The imaging apparatus according to claim 1, wherein a group having a smaller variation is selected, and the second region is identified from an average value and a variation of each position of the first region belonging to the selected group.
前記特定部は、前記選択したグループに属する前記第1領域の位置の平均値で表される点を基準とした、前記選択したグループに属する前記第1領域の位置のばらつきで表される範囲内の領域を、前記第2領域として特定する
請求項2記載の撮像装置。
The specifying unit is within a range represented by a variation in the position of the first region belonging to the selected group, based on a point represented by an average value of the position of the first region belonging to the selected group. The imaging device according to claim 2, wherein the region is specified as the second region.
前記特定部は、前記第1領域の各々の位相差と、前記第1領域の各々の位相差の平均値と、を比較して、前記第1領域の各々を前記複数のグループに分類する
請求項1〜請求項3の何れか1項に記載の撮像装置。
The specifying unit compares each phase difference of the first region with an average value of each phase difference of the first region, and classifies each of the first regions into the plurality of groups. The imaging device according to any one of claims 1 to 3.
前記第1領域の位置のばらつきの度合いを標準偏差で表す
請求項1〜請求項4の何れか1項に記載の撮像装置。
The imaging device according to any one of claims 1 to 4, wherein a degree of variation in the position of the first region is expressed by a standard deviation.
コンピュータに、
像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子により、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光で表される被写体を撮像し、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定し、
特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する
ことを含む処理を実行させる撮像方法。
On the computer,
Through an optical system that can move the focal position by image sensors with multiple phase difference detectors that detect the phase difference for calculating the in-focus position using the image plane phase difference detection method. Image a subject represented by light incident on a light receiving surface of the image sensor;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And specifying a second region that is estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value,
An imaging method for executing a process including calculating the in-focus position based on an average of phase differences detected by the phase difference detection unit included in the identified second region.
コンピュータに、
像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子により、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光で表される被写体を撮像し、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定し、
特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する
ことを含む処理を実行させるための撮像プログラム。
On the computer,
Through an optical system that can move the focal position by image sensors with multiple phase difference detectors that detect the phase difference for calculating the in-focus position using the image plane phase difference detection method. Image a subject represented by light incident on a light receiving surface of the image sensor;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And specifying a second region that is estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value,
An imaging program for executing processing including calculating the in-focus position based on an average of phase differences detected by the phase difference detection unit included in the specified second region.
JP2014253308A 2014-12-15 2014-12-15 Imaging device, imaging method and imaging program Withdrawn JP2016114785A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014253308A JP2016114785A (en) 2014-12-15 2014-12-15 Imaging device, imaging method and imaging program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014253308A JP2016114785A (en) 2014-12-15 2014-12-15 Imaging device, imaging method and imaging program

Publications (1)

Publication Number Publication Date
JP2016114785A true JP2016114785A (en) 2016-06-23

Family

ID=56139938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014253308A Withdrawn JP2016114785A (en) 2014-12-15 2014-12-15 Imaging device, imaging method and imaging program

Country Status (1)

Country Link
JP (1) JP2016114785A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106161952A (en) * 2016-08-08 2016-11-23 广东欧珀移动通信有限公司 A kind of focusing method, device and mobile terminal
JP2020032952A (en) * 2018-08-31 2020-03-05 スズキ株式会社 Motor unit support structure

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106161952A (en) * 2016-08-08 2016-11-23 广东欧珀移动通信有限公司 A kind of focusing method, device and mobile terminal
CN106161952B (en) * 2016-08-08 2019-06-11 Oppo广东移动通信有限公司 A kind of focusing method, device and mobile terminal
JP2020032952A (en) * 2018-08-31 2020-03-05 スズキ株式会社 Motor unit support structure
JP7180213B2 (en) 2018-08-31 2022-11-30 スズキ株式会社 Motor unit support structure

Similar Documents

Publication Publication Date Title
US10698308B2 (en) Ranging method, automatic focusing method and device
US10334151B2 (en) Phase detection autofocus using subaperture images
US9444989B2 (en) Image pickup apparatus, image pickup system, signal processing apparatus, and non-transitory computer-readable storage medium
US10326927B2 (en) Distance information producing apparatus, image capturing apparatus, distance information producing method and storage medium storing distance information producing program
US9489747B2 (en) Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
US11682131B2 (en) Image capturing apparatus and method of controlling image capturing apparatus
JP2014057303A (en) System and method for utilizing enhanced scene detection in depth estimation procedure
RU2014119389A (en) IMAGE CAPTURE DEVICE
US9759549B2 (en) Distance detecting device
US20220084189A1 (en) Information processing apparatus, information processing method, and storage medium
CN107005655A (en) Image processing method
US20160035099A1 (en) Depth estimation apparatus, imaging device, and depth estimation method
US8994874B2 (en) Image capture apparatus and control method therefor
JP5737929B2 (en) Image processing apparatus and image processing method
JP5857712B2 (en) Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation
JP6967464B2 (en) Image processing device
JP6395429B2 (en) Image processing apparatus, control method thereof, and storage medium
JP2020021126A (en) Image processing device and control method thereof, distance detection device, imaging device, program
US20170064189A1 (en) Imaging apparatus, focus position detection apparatus, and focus position detection method
US9781331B2 (en) Imaging apparatus, and control method thereof
US9791599B2 (en) Image processing method and imaging device
US9739604B2 (en) Information processing apparatus, information processing method, and storage medium
JP2016114785A (en) Imaging device, imaging method and imaging program
US9232132B1 (en) Light field image processing
US10321043B2 (en) Focus detection apparatus, focus control apparatus, image-capturing apparatus and focus detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171113

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20171225