JP2016114785A - Imaging device, imaging method and imaging program - Google Patents
Imaging device, imaging method and imaging program Download PDFInfo
- Publication number
- JP2016114785A JP2016114785A JP2014253308A JP2014253308A JP2016114785A JP 2016114785 A JP2016114785 A JP 2016114785A JP 2014253308 A JP2014253308 A JP 2014253308A JP 2014253308 A JP2014253308 A JP 2014253308A JP 2016114785 A JP2016114785 A JP 2016114785A
- Authority
- JP
- Japan
- Prior art keywords
- phase difference
- region
- image
- variation
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
開示の技術は、撮像装置、撮像方法、及び撮像プログラムに関する。 The disclosed technology relates to an imaging apparatus, an imaging method, and an imaging program.
近年、画像を撮像して被写体に合焦させるためのレンズ位置(合焦位置)を検出し、検出した合焦位置にレンズを移動させるオートフォーカス(AF:Auto Focus)技術が組み込まれたカメラ及びスマートフォン等が普及している。 In recent years, a camera incorporating an auto focus (AF) technique for detecting a lens position (focus position) for capturing an image and focusing on a subject and moving the lens to the detected focus position, and Smartphones are popular.
合焦位置を検出するためには、カメラ等から被写体までの距離を計測する必要がある。そこで、撮像素子の受光面に複数配置された光電変換セルで被写体からの反射光を取得し、光電変換セルの位置に応じて変化する光量を検知することで、被写体までの距離を計測する測距技術が開示されている。 In order to detect the in-focus position, it is necessary to measure the distance from the camera or the like to the subject. Therefore, a plurality of photoelectric conversion cells arranged on the light receiving surface of the image sensor are used to acquire reflected light from the subject and detect the amount of light that changes according to the position of the photoelectric conversion cell, thereby measuring the distance to the subject. Distance technology is disclosed.
しかし、従来の測距技術では、例えば撮像素子の特性のばらつき、及び撮像素子周辺の温度変化等によって生じる、撮像素子の出力に含まれるノイズが考慮されておらず、そのため、計測したカメラ等から被写体までの距離に誤差が生じることがある。 However, the conventional distance measurement technology does not take into account noise included in the output of the image sensor, which is caused by, for example, variations in characteristics of the image sensor and temperature changes around the image sensor. An error may occur in the distance to the subject.
一つの側面として、開示の技術は、撮像素子の出力にノイズが重畳した場合であっても、被写体に精度よく合焦できることを目的とする。 As one aspect, the disclosed technique aims to accurately focus on a subject even when noise is superimposed on an output of an image sensor.
一つの態様では、撮像装置は、像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が配置された撮像素子を備え、焦点位置を移動可能な光学系を介して撮像素子の受光面に入射される光により被写体を撮像する撮像部を備える。また、撮像装置は、互いに異なる位相差検出部を含むように設定された複数の第1領域を、個々の第1領域に含まれる位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類する。そして、撮像装置は、分類した個々のグループに含まれる第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定する特定部を備える。また、撮像装置は、特定部によって特定された第2領域に含まれる位相差検出部によって検出された位相差の平均に基づいて合焦位置を算出する算出部を備える。 In one aspect, an imaging apparatus includes an imaging device having a phase difference detection unit that detects a phase difference for calculating a focus position by an image plane phase difference detection method, and an optical system that can move a focal position An image pickup unit that picks up an image of a subject with light incident on the light receiving surface of the image pickup device. In addition, the imaging apparatus may select a plurality of first regions set to include different phase difference detection units based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. Classify into multiple groups. Then, the imaging apparatus specifies the second region that is estimated to correspond to the subject according to the magnitude relationship between the variation in the position of the first region included in each classified group and a preset threshold value. A part. In addition, the imaging apparatus includes a calculation unit that calculates an in-focus position based on an average of the phase differences detected by the phase difference detection unit included in the second region specified by the specifying unit.
一つの側面として、開示の技術は、撮像素子の出力にノイズが重畳した場合であっても、被写体に精度よく合焦できる、という効果を有する。 As one aspect, the disclosed technique has an effect that the subject can be focused with high accuracy even when noise is superimposed on the output of the image sensor.
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。なお、機能が同じ働きを担う構成要素及び処理には、全図面を通して同じ符号を付与し、重複する説明を適宜省略する場合がある。 Hereinafter, an example of an embodiment of the disclosed technology will be described in detail with reference to the drawings. In addition, the same code | symbol is attached | subjected to the component and process which a function bears the same function through all the drawings, and the overlapping description may be abbreviate | omitted suitably.
まず、スマートフォン又はデジタルカメラ等の画像を撮像する機能を有する撮像装置で用いられるAF方式について説明する。 First, an AF method used in an imaging apparatus having a function of capturing an image such as a smartphone or a digital camera will be described.
撮像装置ではAF方式として、例えばコントラストAF方式及び像面位相差AF方式が用いられる場合が多い。 In an imaging apparatus, for example, a contrast AF method and an image plane phase difference AF method are often used as an AF method.
コントラストAF方式は、合焦位置では、画像のコントラスト、すなわち画像で最も暗い部分における輝度と、画像で最も明るい部分における輝度と、の差が最も大きくなるという原理を利用して、被写体に焦点を合わせる方式である。具体的には、レンズを移動させながら被写体のコントラストを演算し、被写体のコントラストが最も高くなるレンズ位置、すなわち合焦位置を検出する。 The contrast AF method focuses on the subject by using the principle that the difference between the contrast of the image, that is, the brightness in the darkest part of the image and the brightness in the brightest part of the image is the largest at the in-focus position. It is a method to match. Specifically, the contrast of the subject is calculated while moving the lens, and the lens position where the contrast of the subject is highest, that is, the focus position is detected.
一方、像面位相差AF方式は、被写体からの反射光のうち、被写体の複数箇所の特定部分における反射光の各々によって得られる被写体の画像の位置ずれ(位相差ともいう)を利用して、被写体に焦点を合わせる方式である。なお、以降では、反射光を単に「光」という場合がある。 On the other hand, the image plane phase difference AF method uses the positional deviation (also referred to as phase difference) of the image of the subject obtained by each of the reflected light at a specific portion of a plurality of locations of the subject among the reflected light from the subject, This method focuses on the subject. Hereinafter, the reflected light may be simply referred to as “light”.
ここで、撮像装置における被写体の画像の位相差について説明する。 Here, the phase difference of the image of the subject in the imaging apparatus will be described.
図1は、撮像装置で撮像される被写体の画像の状態を示す図である。被写体からの光はレンズ12によって屈折され、撮像素子の受光面に被写体の画像が結像される。なお、被写体からの光により撮像素子の受光面に形成される画像を結像画像といい、以降では単に「画像」と称する。
FIG. 1 is a diagram illustrating a state of a subject image captured by the imaging apparatus. Light from the subject is refracted by the
撮像素子の受光面には、受光面の左右方向及び上下方向に光電変換セルが2次元状に並べられて配置され、撮像素子は、個々の光電変換セルが各々の光電変換セルで受光した光量に応じた電気信号を画像の画素値として出力することで画像を撮像する。 On the light receiving surface of the image sensor, photoelectric conversion cells are arranged two-dimensionally in the left-right direction and the vertical direction of the light receiving surface, and the image sensor receives the amount of light received by each photoelectric conversion cell. An image is picked up by outputting an electric signal corresponding to the pixel value of the image.
図1に示すように、レンズ12が合焦位置にある場合には、例えばレンズ12の右側部分を通過する光Rと、レンズ12の左側部分を通過する光Lと、の受光面上における受光位置が一致する。従って、光Rによる画像と光Lによる画像とが重なり、鮮鋭度の高い画像が得られる。この場合、光Rによる被写体の画像と、光Lによる被写体の画像と、の位相差は“0”になる。
As shown in FIG. 1, when the
一方、光の入射方向において、レンズ12が合焦位置よりも被写体に近い位置にある場合には、レンズ12が合焦位置にある場合に比べて、受光面における光Rによる画像と、光Lによる画像と、が離れた位置に形成される。従って、レンズ12が合焦位置にある場合に比べて、光電変換セルから出力される画素値がなだらかに変化するため画像がぼやけ、画像の鮮鋭度が低くなる。この様に、レンズ12が合焦位置よりも被写体に近い位置にある状態を、焦点ずれ(前)という。なお、光Rによる被写体の画像を右画像、光Lによる被写体の画像を左画像という場合がある。
On the other hand, in the light incident direction, when the
また、光の入射方向において、レンズ12が合焦位置よりも被写体から遠い位置にある場合にも、焦点ずれ(前)と同じ理由により、レンズ12が合焦位置にある場合に比べて、画像の鮮鋭度が低くなる。この様に、レンズ12が、レンズ12が合焦位置よりも被写体から遠い位置にある状態を、焦点ずれ(後)という。
Further, when the
すなわち、受光面における右画像と左画像との距離、すなわち右画像と左画像との位相差ができるだけ“0”に近づく位置にレンズ12を移動させることにより、被写体に合焦させることができる。
That is, the subject can be focused by moving the
そこで、像面位相差AF方式では、受光面に右画像及び左画像を形成するため、例えば撮像素子の受光面の前面にマイクロレンズが配置される。なお、レンズ12の右側部分を通過した光Rはマイクロレンズの右側を通過し、レンズ12の左側部分を通過した光Lはマイクロレンズの左側を通過する。マイクロレンズには光の透過範囲が異なる複数の種類が存在する。
Therefore, in the image plane phase difference AF method, in order to form a right image and a left image on the light receiving surface, for example, a microlens is disposed on the front surface of the light receiving surface of the image sensor. The light R that has passed through the right part of the
マイクロレンズの中には、マイクロレンズの左側部分が遮光され、マイクロレンズの右側部分に入射する光、すなわち光Rを透過させるマイクロレンズが存在する。また、マイクロレンズの中には、例えばマイクロレンズの右側部分が遮光され、マイクロレンズの左側部分に入射する光、すなわち光Lを透過させるマイクロレンズが存在する。更に、マイクロレンズの中には、マイクロレンズの何れの部分に入射する光も遮光せずに透過させるマイクロレンズが存在する。 Among the microlenses, there is a microlens that blocks light on the left side of the microlens and transmits light incident on the right side of the microlens, that is, light R. In addition, among the microlenses, for example, there is a microlens that transmits light that is incident on the left side portion of the microlens, that is, the light L, by blocking the right side portion of the microlens. Furthermore, among the microlenses, there is a microlens that allows light incident on any part of the microlens to pass through without being blocked.
図2は、像面位相差AF方式を用いる撮像装置における合焦の原理を模式的に説明するための図である。マイクロレンズ14Rの左側部分14RLは遮光され、右側部分14RRは光Rを透過する。また、マイクロレンズ14Lの右側部分14LRは遮光され、左側部分14LLは光Lを透過する。
FIG. 2 is a diagram for schematically explaining the principle of focusing in the imaging apparatus using the image plane phase difference AF method. The left portion 14RL of the
この場合、マイクロレンズ14Rを透過する光Rを受光した光電変換セル(位相差検出用セル)は、右画像に含まれる各画素の画素値を出力する。また、マイクロレンズ14Lを透過する光Lを受光した光電変換セル(位相差検出用セル)は、左画像に含まれる各画素の画素値を出力する。
In this case, the photoelectric conversion cell (phase difference detection cell) that has received the light R transmitted through the
なお、図2における右画像の画素値は、説明の便宜上、受光面の左右方向に並んだ所定の列の複数の光電変換セルが光Rを受光した際の出力を示している。また、左画像の画素値は、右画像の画素値を出力した光電変換セルと同じ列に含まれる別の複数の光電変換セルが光Lを受光した際の出力を示している。 The pixel value of the right image in FIG. 2 indicates an output when a plurality of photoelectric conversion cells in a predetermined column aligned in the left-right direction of the light receiving surface receive the light R for convenience of explanation. The pixel value of the left image indicates an output when a plurality of photoelectric conversion cells included in the same column as the photoelectric conversion cell that outputs the pixel value of the right image receive the light L.
そして、撮像装置は、右画像と左画像との位相差を算出し、算出した位相差に応じて位相差を“0”に補正する補正距離だけレンズ12を移動させることで、レンズ12を合焦位置の近辺に配置して、被写体に焦点を合わせる。
Then, the imaging apparatus calculates the phase difference between the right image and the left image, and moves the
このように像面位相差AF方式では、右画像と左画像との位相差から得られる補正距離を用いてレンズ12を現在の位置から合焦位置まで移動させることができるため、コントラストAF方式に比べて、被写体に高速に合焦できる場合がある。一方、コントラストAF方式は、レンズ12を連続的に移動させながら各々のレンズ12の位置で被写体のコントラストを演算するため、像面位相差AF方式に比べて、被写体に焦点を合わせるまでに要する時間が長くなる場合がある。しかし、既に述べたように、コントラストAF方式は、レンズ12を連続的に移動させながらコントラストが最も高くなるレンズ12の位置を検出するため、像面位相差AF方式に比べて、被写体に精度よく合焦できる場合がある。
Thus, in the image plane phase difference AF method, the
そこで、本実施形態に係る撮像装置では、コントラストAF方式及び像面位相差AF方式を組み合わせ、互いの方式の利点を取り入れたAF方式を採用する。すなわち、本実施形態に係る撮像装置は、像面位相差AF方式によりレンズ12を合焦位置近辺に移動させた後、コントラストAF方式によって合焦位置近辺でレンズ12を連続的に移動させながら、更に被写体に焦点が合うレンズ12の位置を検出する。
Therefore, the imaging apparatus according to the present embodiment employs an AF method that combines the contrast AF method and the image plane phase difference AF method and takes advantage of the mutual method. That is, the image pickup apparatus according to the present embodiment moves the
しかしながら、撮像素子の光電変換セルの個体差による特性のばらつき、及び撮像素子周辺の温度の影響等により、撮像素子の光電変換セルが出力する画素値にノイズが重畳する場合がある。像面位相差AF方式では、右画像と左画像との位相差を用いてレンズ12の補正距離を算出するため、撮像素子の光電変換セルが出力する画素値に重畳するノイズが大きくなるに従って、撮像装置の合焦精度が低下する傾向にある。
However, noise may be superimposed on the pixel value output from the photoelectric conversion cell of the image sensor due to variations in characteristics due to individual differences between the photoelectric conversion cells of the image sensor and the influence of the temperature around the image sensor. In the image plane phase difference AF method, since the correction distance of the
従って、以降では光電変換セルが出力する画素値にノイズが重畳した場合であっても、被写体に精度よく焦点を合わせることができる撮像装置について説明する。 Therefore, hereinafter, an imaging device that can focus on a subject with high accuracy even when noise is superimposed on a pixel value output from a photoelectric conversion cell will be described.
図3は、本実施形態に係る撮像装置10の機能を示す機能ブロック図の一例である。
FIG. 3 is an example of a functional block diagram illustrating functions of the
撮像装置10は、撮像部20、設定部30、特定部40、算出部50、駆動部60、及びコントラストAF部70を含む。
The
撮像部20は、撮像素子を備え、レンズ12を通過して撮像素子の受光面に入光する光を受光し、受光した光の光量に応じて撮像素子から出力される電気信号を撮像した画像の画素値として設定部30に出力する。
The
図4は、撮像素子の受光面に配置される光電変換セルの一例を示す図である。 FIG. 4 is a diagram illustrating an example of a photoelectric conversion cell arranged on the light receiving surface of the image sensor.
図4に示すように、撮像素子の受光面には、複数の光電変換セルが2次元状に並べられている。なお、光電変換セルには、光電変換セル16、光電変換セル17、及び光電変換セル18の種類が存在する。
As shown in FIG. 4, a plurality of photoelectric conversion cells are arranged two-dimensionally on the light receiving surface of the image sensor. Note that the photoelectric conversion cell includes the types of the
光電変換セル16は、光を遮光せずに透過させるマイクロレンズからの光を受光する光電変換セルである。従って、光電変換セル16は、被写体からの光が遮光されずそのまま受光されるため、被写体の撮像に用いられる。
The
光電変換セル17は、受光面の右側部分を遮光し、受光面の左側部分に入射する光Lを透過させるマイクロレンズ14Lからの光を受光する光電変換セル(位相差検出用セル)である。従って、光電変換セル17は、被写体の左画像の撮像に用いられる。なお、以降では光電変換セルの種類を明確にするため、光電変換セル17を特に「位相差検出用セル17」と記載する。
The
光電変換セル18は、受光面の左側部分を遮光し、受光面の右側部分に入射する光Rを透過させるマイクロレンズ14Rからの光を受光する光電変換セル(位相差検出用セル)である。従って、光電変換セル18は、被写体の右画像の撮像に用いられる。なお、以降では光電変換セルの種類を明確にするため、光電変換セル18を特に「位相差検出用セル18」と記載する。
The
図4に示すように、撮像素子は、光電変換セル16が部分的に位相差検出用セル17と位相差検出用セル18とに置き換えられて配置された受光面を有する。なお、位相差検出用セル17と位相差検出用セル18とは対で受光面に配置される。なお、図4において、位相差検出用セル17及び位相差検出用セル18の網掛け部分は、光の遮光部分を示す。
As shown in FIG. 4, the imaging element has a light receiving surface in which the
図3の設定部30は、測距領域設定部32及び位相差算出領域設定部34を含み、撮像部20から出力された画像の画素値は測距領域設定部32に入力される。
The setting
測距領域設定部32は、画像上に測距領域を設定する。測距領域とは合焦に利用される領域であり、撮像装置10は、測距領域に含まれる画素の画素値を用いて被写体に焦点を合わせる。すなわち、撮像装置10は、測距領域に含まれる被写体に対して焦点を合わせる。
The ranging area setting unit 32 sets a ranging area on the image. The distance measurement area is an area used for focusing, and the
図5は測距領域の一例を示す図である。ここでは説明の便宜上、画像を、画像の画素と1対1に対応する光電変換セル16、位相差検出用セル17、及び位相差検出用セル18の配置に置き換えて表している。また、後ほど説明する図6も同様の表現を用いている。
FIG. 5 is a diagram illustrating an example of a distance measurement area. Here, for convenience of explanation, the image is represented by replacing the
図5では画像の中央部分に測距領域22が設定されているが、測距領域22の設定位置に制限はない。
In FIG. 5, the
図3の位相差算出領域設定部34は、図6に示すように、測距領域設定部32が設定した測距領域22内に推定窓24を複数設定する。推定窓24とは、内部に含まれる位相差検出用セル17で検出される左画像と、位相差検出用セル18で検出される右画像と、から位相差を算出するために設けられる領域である。従って、位相差算出領域設定部34は、複数の位相差検出用セル17及び位相差検出用セル18の対を含むように推定窓24を設定する。
As shown in FIG. 6, the phase difference calculation
特定部40は、位相差算出領域設定部34で測距領域22内に設定された推定窓24を用いて、測距領域22の中から撮像の対象である主要被写体を含むものと推測される領域を特定する。そのため、特定部40は、位相差取得部42、分類部44、ばらつき算出部46、及び主要被写体領域特定部48を含む。
Using the
位相差取得部42は、各々の推定窓24における右画像と左画像との位相差を算出し、各々の推定窓24の位相差の平均値(平均位相差)を算出して分類部44に出力する。
The phase
分類部44は、測距領域22に設定された複数の推定窓24を、位相差が平均位相差未満の推定窓24と、位相差が平均位相差以上の推定窓24と、に分類し、分類結果をばらつき算出部46へ出力する。なお、説明の便宜上、位相差が平均位相差未満の推定窓24のグループをS群、位相差が平均位相差以上の推定窓24のグループをL群という。
The
図7は、分類部44の機能を模式的に示す図である。
FIG. 7 is a diagram schematically illustrating the function of the
図7に示すグラフ26は、Oを原点とし、横軸に位相差、縦軸に推定窓24の数をとった場合の位相差の分布例を示す図である。また、W0は平均位相差を示す。この場合、平均位相差W0未満の位相差を有する推定窓24がS群に分類され、平均位相差W0以上の位相差を有する推定窓24がL群に分類される。なお、推定窓24のうち、S群に分類される推定窓24を推定窓24S、L群に分類される推定窓24を推定窓24Lとする。また、以降では推定窓24を、推定窓24S及び推定窓24Lの総称の意味で使用する。
A
図3のばらつき算出部46は、測距領域22における推定窓24S、及び推定窓24Lの配置から、S群及びL群毎に、各群に含まれる推定窓の位置の平均と、推定窓の位置のばらつきと、を算出する。以降では、S群における推定窓24Sの位置の平均をμS、S群における推定窓24Sの位置のばらつきをσSと表す。また、L群における推定窓24Lの位置の平均をμL、L群における推定窓24Lの位置のばらつきをσLと表す。
The
図8は、ばらつき算出部46の機能を模式的に示す図である。図8では説明の便宜上、測距領域22に含まれるS群の推定窓24Sと、L群の推定窓24Lと、を分けて記載している。
FIG. 8 is a diagram schematically illustrating the function of the
推定窓24S及び推定窓24Lの位置は、例えば測距領域22の1つの頂点Pを原点としたXY座標で表される。なお、XY座標上において、推定窓24S及び推定窓24Lのどの部分の位置を推定窓24S及び推定窓24Lの位置とするかについての制限はなく、推定窓24S及び推定窓24Lの各々において、推定窓24S及び推定窓24Lの位置の定義が同じであればよい。例えば推定窓24S及び推定窓24Lの重心点、又は推定窓24S及び推定窓24Lの右上の点(例えば点P1)等を、各推定窓24S及び各推定窓24Lの位置と定めてもよい。
The positions of the
なお、図8に示す各々の推定窓24に点P1は存在するが、図面が煩雑となるため一部の推定窓24に対して点P1を図示している。
In addition, although point P1 exists in each
そして、図3のばらつき算出部46は、各々の推定窓24の位置から、推定窓24Sの位置の平均μS、推定窓24Sの位置のばらつきσS、推定窓24Lの位置の平均μL、及び推定窓24Lの位置のばらつきσLを算出し、主要被写体領域特定部48に出力する。
3 calculates the average μ S of the position of the
主要被写体領域特定部48は、予め定めた閾値Tと、ばらつきσS及びばらつきσLと、の大小関係に従って、S群及びL群の中から主要被写体の画像が含まれる確率が高い方の推定窓24のグループを選択する。なお、推定窓24のグループの具体的な選択方法については後ほど説明する。
The main subject
更に、主要被写体領域特定部48は、選択した分類に属する推定窓24の各々を包含する所定形状の閉領域を画像に設定し、閉領域に含まれる選択したグループの推定窓24の各々の位置の平均μ、及び推定窓24の位置のばらつきσを算出する。
Further, the main subject
そして、主要被写体領域特定部48は、測距領域22において平均μを中心としたμ±σの範囲の領域を、主要被写体が含まれる領域に特定する。なお、測距領域22において主要被写体が含まれるものと考えられる領域を主要被写体領域という。
Then, the main subject
図9は、主要被写体領域特定部48により設定される主要被写体領域を示す図であり、一例として、主要被写体領域特定部48がS群を選択した場合の主要被写体領域28を示している。なお、図9では、S群に含まれる推定窓24Sの各々を包含する閉領域27と、主要被写体領域28と、が同じ領域の場合を示しているが、平均μ及びばらつきσの値によっては、閉領域27と主要被写体領域28とは異なる範囲を示す場合がある。
FIG. 9 is a diagram showing the main subject area set by the main subject
そして、図3の主要被写体領域特定部48は、特定した主要被写体領域28を算出部50に出力する。
Then, the main subject
算出部50は、主要被写体領域28に含まれる推定窓24の各々における位相差の平均値μ0を算出する。そして、算出部50は、平均値μ0を0に近づけるために必要なレンズ12の移動距離である補正距離に対応するモータの回転角を算出し、算出した回転角を駆動部60に出力する。
The
駆動部60は、算出部50で算出された回転角に応じてモータを駆動して、レンズ12を現在の位置から合焦位置に移動させ、被写体に焦点を合わせる。そして、駆動部60は、像面位相差AF方式による合焦処理が終了したことをコントラストAF部70に通知する。
The
コントラストAF部70は、公知のコントラストAF方式による合焦技術を用いて、更にレンズ12の合焦位置を調整する。
The
次に、図10に、撮像装置10をコンピュータで実現する場合の構成図を示す。
Next, FIG. 10 shows a configuration diagram when the
コンピュータ100は、CPU102、メモリ104、及び不揮発性の記憶部106を含む。CPU102、メモリ104、及び不揮発性の記憶部106は、バス108を介して互いに接続される。また、コンピュータ100は、他の装置とコンピュータ100とを接続し、互いにデータを送受信するためのI/O(Input/Output)110を備え、I/O110はバス108に接続される。
The
そして、I/O110には、例えば入力装置112、表示装置114、撮像素子19、及びモータ116が接続される。入力装置112は、例えば各種スイッチ、ボタン、及びタッチパネル等の、ユーザが撮像装置10に指示を与えるためのデバイスを含む。また、入力装置112は、例えばCD−ROM又はフラッシュメモリ等の記録媒体150に記録されるデータを読み取るための読み取り装置を含む。表示装置114は、例えばユーザに対して撮像装置10の状態や撮像画像を表示するディスプレイ等の表示デバイスを含む。撮像素子19は、コンピュータ100の指示に従って、レンズ12を介して受光した光の光量を電気信号に変換する。モータ116は、コンピュータ100の指示に従って、ギヤ等を介して連結されたレンズ12の位置を変更する。なお、記憶部106はHDD(Hard Disk Drive)やフラッシュメモリ等によって実現できる。
For example, an
記憶部106には、コンピュータ100を図3に示す撮像装置10として機能させるための撮像プログラム120が記憶される。記憶部106に記憶される撮像プログラム120は、測距領域設定プロセス122、位相差算出領域設定プロセス124、位相差取得プロセス126、分類プロセス128、ばらつき算出プロセス130、及び主要被写体領域特定プロセス132を含む。更に、撮像プログラム120は、算出プロセス134、駆動プロセス136、及びコントラストAFプロセス138を含む。
The
CPU102は、撮像プログラム120を記憶部106から読み出してメモリ104に展開し、撮像プログラム120が有する各プロセスを実行する。
The
CPU102が、撮像プログラム120を記憶部106から読み出してメモリ104に展開し、撮像プログラム120を実行することで、コンピュータ100が図3に示す撮像装置10として動作する。また、CPU102が測距領域設定プロセス122を実行することで、コンピュータ100が図3に示す測距領域設定部32として動作する。また、CPU102が位相差算出領域設定プロセス124を実行することで、コンピュータ100が図3に示す位相差算出領域設定部34として動作する。また、CPU102が位相差取得プロセス126を実行することで、コンピュータ100が図3に示す位相差取得部42として動作する。また、CPU102が分類プロセス128を実行することで、コンピュータ100が図3に示す分類部44として動作する。また、CPU102がばらつき算出プロセス130を実行することで、コンピュータ100が図3に示すばらつき算出部46として動作する。また、CPU102が主要被写体領域特定プロセス132を実行することで、コンピュータ100が図3に示す主要被写体領域特定部48として動作する。また、CPU102が算出プロセス134を実行することで、コンピュータ100が図3に示す算出部50として動作する。また、CPU102が駆動プロセス136を実行することで、コンピュータ100が図3に示す駆動部60として動作する。更に、CPU102がコントラストAFプロセス138を実行することで、コンピュータ100が図3に示すコントラストAF部70として動作する。
The
なお、CPU102が測距領域設定プロセス122及び位相差算出領域設定プロセス124を実行することで、コンピュータ100が図3に示す設定部30として動作する。また、CPU102が位相差取得プロセス126、分類プロセス128、ばらつき算出プロセス130、及び主要被写体領域特定プロセス132を実行することで、コンピュータ100が図3に示す特定部40として動作する。
The
更に、CPU102が、閾値格納領域140に含まれる閾値をメモリ104に展開することで、メモリ104に推定窓24の位置のばらつきを分類するための閾値Tが記憶される。また、CPU102が、撮像素子情報格納領域142に含まれる撮像素子情報をメモリ104に展開することで、メモリ104に撮像素子配置テーブルが記憶される。なお、撮像素子配置テーブルとは、撮像素子19の受光面における光電変換セル16、位相差検出用セル17、及び位相差検出用セル18の配置を示すテーブルであり、画像の各画素が何れの種類のセルに対応した画素であるかを取得できる。
Further, the
なお、コンピュータ100は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。
The
次に、本実施形態に係る撮像装置10の作用について説明する。本実施形態に係る撮像装置10は、例えばユーザの操作に伴い、入力装置112から撮像を開始する指示を受け付けた場合に撮像処理を実行する。
Next, the operation of the
図11は、本実施形態に係る撮像装置10の撮像処理の流れの一例を示すフローチャートである。
FIG. 11 is a flowchart illustrating an example of the flow of imaging processing of the
まず、ステップS10において、測距領域設定部32は、撮像素子19の各セルから出力される画素値を取得する。そして、測距領域設定部32は、取得した画素値の各々を、画素値を出力したセルの受光面における位置と対応させて、メモリ104の予め定めた領域に記憶する。このように、メモリ104に記憶された画素値の集合が画像となる。
First, in step S <b> 10, the ranging area setting unit 32 acquires pixel values output from each cell of the
次に、測距領域設定部32は画像上に測距領域22を設定する。図5の例では、測距領域設定部32は測距領域22を矩形状に設定しているが、測距領域22の形状に制限はない。また、既に述べたように、画像上における測距領域22の設定位置にも制限はない。しかしながら、測距領域設定部32は、例えば公知の画像認識技術等を用いて、動物、植物、及び建物等、何らかの物体が写っていると推測される領域に測距領域22を設定することが好ましい。
Next, the ranging area setting unit 32 sets the ranging
ステップS20において、位相差算出領域設定部34は、図6に示すようにステップS10の処理で設定した測距領域22内に、複数の推定窓24を設定する。位相差算出領域設定部34は推定窓24を設定する際、推定窓24の各々に位相差検出用セル17に対応する画素と、位相差検出用セル18に対応する画素と、の対が含まれるように、各推定窓24を設定する。これは、位相差取得部42が推定窓24の各々で、位相差検出用セル17に対応する画素の画素値から得られる左画像と、位相差検出用セル18に対応する画素の画素値から得られる右画像と、を取得できるようにするためである。
In step S20, the phase difference calculation
なお、位相差算出領域設定部34は、メモリ104に予め記憶される撮像素子配置テーブルを参照して、位相差検出用セル17及び位相差検出用セル18に対応する画素を選択すればよい。
Note that the phase difference calculation
ステップS30において、位相差取得部42は、ステップS20の処理で設定した推定窓24の各々で、右画像と左画像との位相差を算出したか否かを判定する。そして、否定判定の場合にはステップS40に移行する。
In step S30, the phase
ステップS40において、位相差取得部42は、ステップS20の処理で設定した推定窓24の各々の中から、未選択の推定窓24を1つ選択する。そして、位相差取得部42は、選択した推定窓24に含まれる位相差検出用セル17に対応する画素の画素値を読み込んで左画像を取得すると共に、選択した推定窓24に含まれる位相差検出用セル18に対応する画素の画素値を読み込んで右画像を取得する。
In step S40, the phase
次に、ステップS50において、位相差取得部42は、画像の左右方向に沿って、ステップS40の処理で取得した右画像を、予め定めた画素数の範囲内で1画素ずつ移動させる。そして、位相差取得部42は、移動毎の各位置における右画像と左画像との差分絶対値和(SAD:Sum of Absolute Difference)を算出する。具体的には、右画像と左画像との差分絶対値和とは、対となる位相差検出用セル17及び位相差検出用セル18毎の、位相差検出用セル17に対応する画素の画素値と、位相差検出用セル18に対応する画素の画素値と、の差分の絶対値の和で表される。
Next, in step S50, the phase
そして、位相差取得部42は、予め定めた画素数の範囲内における各位置での差分絶対値和を参照し、右画像の移動前の位置から差分絶対値和が最も小さくなる位置までの移動画素数を、右画像と左画像との位相差として算出する。
Then, the phase
そして、位相差取得部42は、算出した位相差を位相差の算出元である推定窓24の情報と対応づけてメモリ104の予め定めた領域に記憶すると共に、位相差の算出元である推定窓24の情報に選択済みの識別子を設定する。従って、ステップS30及びステップS40の処理において、位相差を算出した推定窓24であるか否かの判定は、推定窓24に設定される選択済みの識別子の有無に従って判定される。
Then, the phase
なお、予め定めた画素数とは右画像を移動する際の移動画素数の最大値を表し、撮像装置10の実機による実験や撮像装置10の設計仕様に基づくコンピュータシミュレーション等により予め求められる数値である。
The predetermined number of pixels represents a maximum value of the number of moving pixels when moving the right image, and is a numerical value obtained in advance by an experiment with an actual apparatus of the
また、本実施形態では、左画像の位置を固定して右画像を移動する例を説明したが、右画像の位置を固定して左画像を移動するようにしても、同じ差分絶対値和が得られることは言うまでもない。 Further, in this embodiment, the example in which the position of the left image is fixed and the right image is moved has been described. However, even if the position of the right image is fixed and the left image is moved, the same difference absolute value sum is obtained. It goes without saying that it is obtained.
図12は、ステップS50の処理を模式的に示す図である。図12に示すように、右画像を、予め定めた画素数の範囲内で画像の左右方向を示す矢印ARの方向に移動させることで、移動位置毎の差分絶対値和を示すグラフ52が得られる。原点Qは右画像の移動前における位置を表し、例えば右画像をAR1方向に移動させる場合の位相差を“+”、右画像をAR2方向に移動させる場合の位相差を“−”で表す。
FIG. 12 is a diagram schematically showing the process of step S50. As shown in FIG. 12, by moving the right image in the direction of the arrow AR indicating the left-right direction of the image within a predetermined number of pixels, a
一方、ステップS30の処理において肯定判定の場合、すなわち、各々の推定窓24に対してステップS40及びステップS50の処理を実行し、各々の推定窓24における位相差を算出した場合には、ステップS60に移行する。
On the other hand, if the determination in step S30 is affirmative, that is, if the processing in steps S40 and S50 is executed for each
ステップS60において、特定部40は、測距領域22の中から主要被写体領域28を選択する主要被写体領域選択処理を実行する。従って、以下では主要被写体領域選択処理について説明し、説明終了の後、図11の撮像処理の説明に戻る。
In step S <b> 60, the specifying
図13は、ステップS60の処理で実行される主要被写体領域選択処理の流れの一例を示すフローチャートである。 FIG. 13 is a flowchart showing an example of the flow of the main subject area selection process executed in the process of step S60.
まず、ステップS600において、位相差取得部42は、ステップS50の処理で算出した各々の推定窓24の位相差をメモリ104から読み込み、位相差を読み込んだ全ての推定窓24の平均位相差を算出する。そして、位相差取得部42は、算出した平均位相差をメモリ104の予め定めた領域に記憶する。
First, in step S600, the phase
ステップS610において、分類部44は、ステップS50の処理で算出した各々の推定窓24の位相差、及びステップS600の処理で算出した平均位相差をメモリ104から読み込む。そして、分類部44は、ステップS20の処理で測距領域22に設定された複数の推定窓24を、位相差が平均位相差未満のS群の推定窓24と、位相差が平均位相差以上のL群の推定窓24と、に分類する。分類部44は、S群に分類した推定窓24SにS群であることを示す識別子を、また、L群に分類した推定窓24LにL群であることを示す識別子を対応づけて、メモリ104の予め定めた領域に記憶する。なお、推定窓24がS群かL群かを示す識別子を分類識別子という。
In step S610, the
このように、推定窓24をS群とL群に分類する理由は、測距領域22に主要被写体と、主要被写体でない被写体(非主要被写体)が含まれる場合に対応するためである。ここでは一例として、分類部44は平均位相差を用いて推定窓24を複数の種類に分類する。なお、推定窓24の分類に用いる基準として平均位相差を採用する理由は、平均位相差を境界にして、主要被写体と非主要被写体とを分離できる傾向にあるためである。
As described above, the reason why the
ステップS620において、ばらつき算出部46は、図8に示す頂点Pのように、測距領域22の予め定めた点を原点とした場合における各々の推定窓24の位置を取得する。例えば、ばらつき算出部46は、測距領域22の頂点Pを原点とするXY座標において、各推定窓24の右上の点P1を各々の推定窓24の位置と定義して、推定窓24の位置を取得する。
In step S620, the
そして、ばらつき算出部46は、ステップS610の処理で設定された推定窓24の分類識別子を参照し、S群に含まれる推定窓24Sの位置の平均μS、推定窓24Sの位置のばらつきσSを算出する。また、ばらつき算出部46は、ステップS610の処理で設定された推定窓24の分類識別子を参照し、推定窓24Lの位置の平均μL、及び推定窓24Lの位置のばらつきσLを算出する。
Then, the
なお、一例として、ばらつき算出部46は推定窓24の位置のばらつきを標準偏差として算出するが、これに限定されない。ばらつき算出部46は、推定窓24の位置のばらつきを定量的に表すことができる指標であればどの様な指標を用いてもよい。例えば、ばらつき算出部46は、各群に含まれる推定窓24の位置の平均から最も離れた推定窓24までの距離を、当該群に含まれる推定窓24の位置のばらつきとしてもよい。また、ばらつき算出部46は、分散値を推定窓24の位置のばらつきとしてもよい。
As an example, the
そして、ばらつき算出部46は、算出した平均μS、ばらつきσS、平均μL、及びばらつきσLを、メモリ104の予め定めた領域に記憶する。
The
ステップS630において、主要被写体領域特定部48は、メモリ104から閾値T、平均μS、ばらつきσS、平均μL、及びばらつきσLを取得する。そして、主要被写体領域特定部48は、ばらつきσS及びばらつきσLが共に閾値Tより小さいか否かを判定し、肯定判定の場合にはステップS640に移行し、否定判定の場合にはステップS650へ移行する。
In step S <b> 630, the main subject
なお、閾値Tは、予め定めた標準偏差σ0を引数とする関数f1(σ0)によって与えられる値であり、測距領域22における主要被写体の撮像位置の推定に影響を与える、画像の画素値に重畳するノイズの基準量を規定する。標準偏差σ0及び関数f1(σ0)は、撮像装置10の実機による実験や撮像装置10の設計仕様に基づくコンピュータシミュレーション等により予め求められ、例えばメモリ104の予め定めた領域に予め記憶されている値である。
The threshold value T is a value given by a function f 1 (σ 0 ) having a predetermined standard deviation σ 0 as an argument, and affects the estimation of the imaging position of the main subject in the
次に、主要被写体領域特定部48は、ばらつきσS及びばらつきσLと、閾値Tと、の大小関係により測距領域22における主要被写体の撮像位置を推定する。
Next, the main subject
例えば、ばらつきσS及びばらつきσLが共に閾値Tより小さい場合には、画像の画素値に重畳するノイズは、基準量より少ない状態にあると考えられる。主要被写体は、非主要被写体より大きく撮影される傾向にあるため、こうしたノイズが基準値より少ない状況においては、S群及びL群のうち、ばらつきσS、σLがより大きい方の群に含まれる推定窓24の分布範囲に存在している可能性が高い。
For example, when the variation σ S and the variation σ L are both smaller than the threshold value T, it is considered that the noise superimposed on the pixel value of the image is less than the reference amount. Since the main subject tends to be photographed larger than the non-main subject, in such a situation where the noise is less than the reference value, the main subjects are included in the group having the larger variations σ S and σ L among the S group and the L group. There is a high possibility that it exists in the distribution range of the estimated
従って、ステップS640において、主要被写体領域特定部48は、S群及びL群のうち、ばらつきσS、σLがより大きい方(推定窓24の分布範囲が広い方)の群を選択する。
Therefore, in step S640, the main subject
一方、ばらつきσS及びばらつきσLの少なくとも一方が閾値T以上の場合は、ノイズが影響している可能性が高く、画像の画素値に重畳するノイズは、基準量より多い状態にあると考えられる。こうしたノイズが基準値より多い状況では、S群及びL群の各群に含まれる推定窓24の分布範囲が、対応する画像上の被写体の分布範囲に対して誤差を含むことになる。従って、主要被写体領域特定部48は、主要被写体と非主要被写体との大きさの関係から主要被写体の位置を正しく判断することが困難となる。しかし、主要被写体は、推定窓24の位置の平均付近にまとまって存在する傾向にある。従って、こうしたノイズが基準値より多い状況では、主要被写体は、S群及びL群のうち、ばらつきがより小さい方の群に含まれる推定窓24の分布範囲に存在している可能性が高い。
On the other hand, when at least one of the variation σ S and the variation σ L is equal to or greater than the threshold T, it is highly likely that the noise has an influence, and the noise superimposed on the pixel value of the image is in a state larger than the reference amount. It is done. In a situation where such noise is larger than the reference value, the distribution range of the
従って、ステップS650において、主要被写体領域特定部48は、S群及びL群のうち、ばらつきがより小さい方(推定窓24の分布範囲が狭い方)の群を選択する。
Therefore, in step S650, the main subject
ステップS660において、主要被写体領域特定部48は、ステップS640又はステップS650の処理で選択した群に属する推定窓24の各々を包含する所定形状かつ最小の大きさを有する閉領域27を測距領域22に設定する。そして、主要被写体領域特定部48は、選択した推定窓24の位置の偏り状態を反映するため、閉領域27において、選択した推定窓24の各々の位置の平均μ、及び推定窓24の位置のばらつきσを算出する。
In step S660, the main subject
すなわち、図9に示したように、閉領域27には、S群に含まれる推定窓24S及びL群に含まれる推定窓24Lが共に含まれる場合がある。しかし、主要被写体領域特定部48は、閉領域27に含まれる推定窓24のうち、ステップS640又はステップS650で選択した推定窓24のみを用いて、閉領域27における推定窓24の位置の平均μ、及び推定窓24の位置のばらつきσを算出する。
なお、既にステップS620の処理で算出した、推定窓24Sの位置の平均μS及び推定窓24Sの位置のばらつきσS、若しくは、推定窓24Lの位置の平均μL及び推定窓24Lの位置のばらつきσLを流用してもよい。
That is, as shown in FIG. 9, the
Note that the average μ S of the position of the
そして、主要被写体領域特定部48は、測距領域22において平均μを中心としたμ±σの範囲の領域を主要被写体領域28として特定する。なお、主要被写体領域28が推定窓24の一部分を含むように設定される場合には、一部分が含まれる推定窓24の全体を包含するように主要被写体領域28を設定し直すか、一部分が含まれる推定窓24を取り除くように主要被写体領域28を設定し直す。これは、後述する図11のステップS70の処理で、推定窓24単位で位相差の平均を算出する必要があるためである。
Then, the main subject
以上により、図11に示すステップS60の主要被写体領域選択処理が終了し、測距領域22の中から、主要被写体の撮像位置を表す主要被写体領域28が選択される。
As described above, the main subject area selection process in step S60 shown in FIG. 11 is completed, and the
説明を、図11に示す撮像装置10の撮像処理に戻す。
The description returns to the imaging process of the
ステップS70において、算出部50は、ステップS60の処理で選択した主要被写体領域28に含まれる推定窓24の各々における位相差の平均値μ0を算出する。なお、主要被写体領域28に含まれる推定窓24の各々における位相差は、ステップS50の処理によって既に位相差取得部42が算出した各推定窓24の位相差を利用することができる。
In step S70, the
平均値μ0は、主要被写体の撮像位置における推定窓24の焦点ずれの量を示す値であるため、平均値μ0が0に近づくようにレンズ12を移動させることで、レンズ12の焦点を主要被写体に合わせることができる。
Since the average value μ 0 is a value indicating the amount of defocus of the
従って、算出部50は、位相差の平均値μ0と、レンズ12を平均値μ0に対応する補正距離だけ移動させるためのモータ116の回転角と、を対応づける回転角テーブルを参照して、モータ116の回転角を取得する。なお、回転角テーブルは、撮像装置10の実機による実験や撮像装置10の設計仕様に基づくコンピュータシミュレーション等により予め求められ、メモリ104の予め定めた領域に記憶される。
Therefore, the
図14に、回転角テーブル80の一例を示す。なお、例示した回転角テーブル80の各値は回転角テーブル80の説明のための値であり、実際に撮像装置10で用いられる値とは異なる。回転角テーブル80における回転角の正負の符号は、モータ116の回転方向を表す。例えば正値の回転角は、レンズ12を受光面に近づける方向に移動させるモータ116の回転方向に、回転角の絶対値で表される角度だけモータ116を回転させることを表す。また、負値の回転角は、レンズ12を受光面から遠ざける方向に移動させるモータ116の回転方向に、回転角の絶対値で表される角度だけモータ116を回転させることを表す。
FIG. 14 shows an example of the rotation angle table 80. Each value of the illustrated rotation angle table 80 is a value for explaining the rotation angle table 80 and is different from a value actually used in the
そして、算出部50は、回転角テーブル80から取得した回転角をメモリ104の予め定めた領域に記憶する。
Then, the
なお、平均値μ0は、推定窓24が属する群に関係なく、主要被写体領域28に含まれる推定窓24から算出した位相差の平均であるため、一方の群に含まれる推定窓24から算出した位相差の平均値に比べて、主要被写体に対する焦点のずれ量を精度よく表す。
The average value μ 0 is the average of the phase differences calculated from the
また、ステップS70の処理では、算出部50は、回転角テーブル80を用いて平均値μ0に対応する回転角を算出したが、例えば平均値μ0を引数とする関数f2(μ0)を用いて平均値μ0に対応する回転角を算出してもよいことは言うまでもない。
In the processes of the step S70, the calculating
ステップS80において、駆動部60は、メモリ104からステップS70の処理で算出したモータ116の回転角を取得する。そして、駆動部60は、取得した回転角に従って、モータ116を駆動する。
In step S80, the
以上、説明した図11のステップS10からS80までの撮像処理により、レンズ12が主要被写体の合焦位置近辺に移動する。この後、コントラストAF部70は、公知のコントラストAF方式による合焦技術を用いてレンズ12の合焦位置を調整することで、像面位相差AF方式だけで合焦する場合に比べて、合焦精度が向上する。
As described above, the
ここで、図15に示すように、測距領域22に主要被写体である人物72と、人物72の背後に位置する非主要被写体である車両74と、が含まれる場合の撮像について検討する。
Here, as shown in FIG. 15, imaging in the case where a
図15の測距領域22には、被写体距離が異なる人物72と車両74が含まれる。従って、単に測距領域22に含まれる各々の推定窓24の平均位相差から補正距離を算出してしまうと、何れの被写体にも焦点が合わないという状況が発生する場合が考えられる。
15 includes a
しかし、本実施形態に係る撮像装置10では、測距領域22の中から、他の領域に比べて主要被写体の像が含まれる可能性の高い主要被写体領域28を特定し、主要被写体領域28に含まれる各推定窓24の平均位相差から補正距離を算出する。従って、撮像装置10は、測距領域22に含まれる各々の推定窓24の平均位相差から補正距離を算出する場合と比較して、主要被写体に精度よく合焦できる。例えば図15の場合、撮像装置10は人物72に合焦することができる。
However, in the
更に、本実施形態に係る撮像装置10では、測距領域22に含まれる推定窓24をS群とL群とに分割し、各群における推定窓24の位置のばらつきの度合いと、閾値Tとの大小関係に応じて、一方の群より主要被写体の像が含まれる可能性が高い群を選択する。すなわち、本実施形態に係る撮像装置10では、光電変換セルが出力する画素値に含まれるノイズの重畳量に応じて、何れの群に主要被写体の像が含まれる可能性が高いかを判定する。従って、例えば推定窓24の位置のばらつきの度合いが大きい方の群を含む領域に主要被写体の像が含まれると固定的に判断する場合と比較して、更に被写体に精度よく焦点を合わせることができる。
Furthermore, in the
なお、図13に示すステップS610の処理において、分類部44は、測距領域22に含まれる推定窓24を、推定窓24の位相差が測距領域22に含まれる推定窓24の各々の平均位相差W0未満か否かによってS群とL群とに分類した。しかし、測距領域22に含まれる推定窓24の分類方法はこれに限定されない。
In the process of step S610 illustrated in FIG. 13, the
図16は、図7からグラフ26を抽出した図である。例示したグラフ26には、位相差に関して2つのピーク値W2及びW3が存在する。この様な場合、一方のピーク値が主要被写体に対する位相差の分布のピーク値を表し、他方のピーク値が非主要被写体に対する位相差の分布のピーク値を表すものと考えることができる。従って、分類部44は、ピーク値W2とピーク値W3との間に存在する極小点での位相差W1を基準値とし、測距領域22に含まれる推定窓24を、推定窓24の位相差が位相差W1未満か否かによってS群とL群とに分類してもよい。
FIG. 16 is a diagram obtained by extracting the
以上、実施形態を用いて開示の技術を説明したが、開示の技術は各々の実施形態に記載の範囲には限定されない。開示の技術の要旨を逸脱しない範囲で各々の実施形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も開示の技術の技術的範囲に含まれる。例えば、開示の技術の要旨を逸脱しない範囲で処理の順序を変更してもよい。 Although the disclosed technology has been described using the embodiments, the disclosed technology is not limited to the scope described in each embodiment. Various modifications or improvements can be added to each embodiment without departing from the spirit of the disclosed technique, and forms to which the modifications or improvements are added are also included in the technical scope of the disclosed technique. For example, the processing order may be changed without departing from the scope of the disclosed technology.
また、実施形態では、撮像プログラム120が記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されるものではない。開示の技術に係る撮像プログラム120は、コンピュータ読取可能な記録媒体150に記録されている形態で提供することも可能である。例えば、開示の技術に係る撮像プログラム120は、CD−ROM、DVD−ROM、及びUSBメモリ等の可搬型記録媒体に記録されている形態で提供することも可能である。また、開示の技術に係る撮像プログラム120は、フラッシュメモリ等の半導体メモリ等に記録されている形態で提供することも可能である。
In the embodiment, the aspect in which the
以上の実施形態に関し、更に以下の付記を開示する。 Regarding the above embodiment, the following additional notes are disclosed.
(付記1)
像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子を備え、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光により被写体を撮像する撮像部と、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定する特定部と、
前記特定部によって特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する算出部と、
を含む撮像装置。
(Appendix 1)
The phase difference detection unit for detecting the phase difference for calculating the in-focus position by the image plane phase difference detection method includes imaging elements arranged at a plurality of positions in the light receiving surface, and through an optical system that can move the focal position. An imaging unit that images a subject with light incident on a light receiving surface of the imaging element;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And a specifying unit that specifies a second region estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value When,
A calculating unit that calculates the in-focus position based on an average of phase differences detected by the phase difference detecting unit included in the second region specified by the specifying unit;
An imaging apparatus including:
(付記2)
前記特定部は、前記個々のグループに含まれる前記第1領域の位置のばらつきの各々が前記予め設定した閾値より小さい場合は、前記個々のグループのうち前記第1領域の位置のばらつきがより大きいグループを選択し、前記個々のグループに含まれる前記第1領域の位置のばらつきのうち、少なくとも1つが前記予め設定した閾値より大きい場合は、前記個々のグループのうち前記前記第1領域の位置のばらつきがより小さいグループを選択し、選択したグループに属する前記第1領域の各々の位置の平均値及びばらつきから前記第2領域を特定する
付記1記載の撮像装置。
(Appendix 2)
In the case where each variation in the position of the first region included in the individual group is smaller than the preset threshold value, the specifying unit has a larger variation in the position of the first region in the individual group. When at least one of the variations in the position of the first region included in the individual group is larger than the preset threshold, the position of the first region in the individual group is selected. The imaging apparatus according to claim 1, wherein a group having a smaller variation is selected, and the second region is identified from an average value and a variation of each position of the first region belonging to the selected group.
(付記3)
前記特定部は、前記選択したグループに属する前記第1領域の位置の平均値で表される点を基準とした、前記選択したグループに属する前記第1領域の位置のばらつきで表される範囲内の領域を、前記第2領域として特定する
付記2記載の撮像装置。
(Appendix 3)
The specifying unit is within a range represented by a variation in the position of the first region belonging to the selected group, based on a point represented by an average value of the position of the first region belonging to the selected group. The imaging device according to claim 2, wherein the region is specified as the second region.
(付記4)
前記特定部は、前記第1領域の各々の位相差と、前記第1領域の各々の位相差の平均値と、を比較して、前記第1領域の各々を前記複数のグループに分類する
付記1〜付記3の何れか1項に記載の撮像装置。
(Appendix 4)
The identifying unit compares each phase difference of the first region with an average value of each phase difference of the first region, and classifies each of the first regions into the plurality of groups. The imaging apparatus according to any one of 1 to appendix 3.
(付記5)
前記第1領域の位置のばらつきの度合いを標準偏差で表す
付記1〜付記4の何れか1項に記載の撮像装置。
(Appendix 5)
The imaging device according to any one of Supplementary Note 1 to Supplementary Note 4, wherein the degree of variation in position of the first region is expressed by a standard deviation.
(付記6)
コンピュータに、
像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子により、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光で表される被写体を撮像し、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定し、
特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する
ことを含む処理を実行させる撮像方法。
(Appendix 6)
On the computer,
Through an optical system that can move the focal position by image sensors with multiple phase difference detectors that detect the phase difference for calculating the in-focus position using the image plane phase difference detection method. Image a subject represented by light incident on a light receiving surface of the image sensor;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And specifying a second region that is estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value,
An imaging method for executing a process including calculating the in-focus position based on an average of phase differences detected by the phase difference detection unit included in the identified second region.
(付記7)
前記個々のグループに含まれる前記第1領域の位置のばらつきの各々が前記予め設定した閾値より小さい場合は、前記個々のグループのうち前記第1領域の位置のばらつきがより大きいグループを選択し、前記個々のグループに含まれる前記第1領域の位置のばらつきのうち、少なくとも1つが前記予め設定した閾値より大きい場合は、前記個々のグループのうち前記前記第1領域の位置のばらつきがより小さいグループを選択し、選択したグループに属する前記第1領域の各々の位置の平均値及びばらつきから前記第2領域を特定する
付記6記載の撮像方法。
(Appendix 7)
When each variation in position of the first region included in the individual group is smaller than the preset threshold value, a group having a larger variation in position of the first region is selected from the individual groups, If at least one of the variations in the position of the first region included in the individual group is greater than the preset threshold, the group in which the variation in the position of the first region is smaller among the individual groups The imaging method according to claim 6, wherein the second region is specified from an average value and variation of positions of the first regions belonging to the selected group.
(付記8)
前記選択したグループに属する前記第1領域の位置の平均値で表される点を基準とした、前記選択したグループに属する前記第1領域の位置のばらつきで表される範囲内の領域を、前記第2領域として特定する
付記7記載の撮像方法。
(Appendix 8)
A region within a range represented by a variation in the position of the first region belonging to the selected group, based on a point represented by an average value of the positions of the first region belonging to the selected group, The imaging method according to appendix 7, which is specified as the second region.
(付記9)
前記第1領域の各々の位相差と、前記第1領域の各々の位相差の平均値と、を比較して、前記第1領域の各々を前記複数のグループに分類する
付記6〜付記8の何れか1項に記載の撮像方法。
(Appendix 9)
The phase difference of each of the first regions is compared with the average value of the phase difference of each of the first regions, and each of the first regions is classified into the plurality of groups. The imaging method according to any one of the above.
(付記10)
前記第1領域の位置のばらつきの度合いを標準偏差で表す
付記6〜付記9の何れか1項に記載の撮像方法。
(Appendix 10)
The imaging method according to any one of appendix 6 to appendix 9, wherein the degree of variation in the position of the first region is expressed by a standard deviation.
(付記11)
コンピュータに、
像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子により、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光で表される被写体を撮像し、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定し、
特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する
ことを含む処理を実行させるための撮像プログラム。
(Appendix 11)
On the computer,
Through an optical system that can move the focal position by image sensors with multiple phase difference detectors that detect the phase difference for calculating the in-focus position using the image plane phase difference detection method. Image a subject represented by light incident on a light receiving surface of the image sensor;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And specifying a second region that is estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value,
An imaging program for executing processing including calculating the in-focus position based on an average of phase differences detected by the phase difference detection unit included in the specified second region.
(付記12)
前記個々のグループに含まれる前記第1領域の位置のばらつきの各々が前記予め設定した閾値より小さい場合は、前記個々のグループのうち前記第1領域の位置のばらつきがより大きいグループを選択し、前記個々のグループに含まれる前記第1領域の位置のばらつきのうち、少なくとも1つが前記予め設定した閾値より大きい場合は、前記個々のグループのうち前記前記第1領域の位置のばらつきがより小さいグループを選択し、選択したグループに属する前記第1領域の各々の位置の平均値及びばらつきから前記第2領域を特定する
付記11記載の撮像プログラム。
(Appendix 12)
When each variation in position of the first region included in the individual group is smaller than the preset threshold value, a group having a larger variation in position of the first region is selected from the individual groups, If at least one of the variations in the position of the first region included in the individual group is greater than the preset threshold, the group in which the variation in the position of the first region is smaller among the individual groups The imaging program according to claim 11, wherein the second region is specified from an average value and variation of positions of the first regions belonging to the selected group.
(付記13)
前記選択したグループに属する前記第1領域の位置の平均値で表される点を基準とした、前記選択したグループに属する前記第1領域の位置のばらつきで表される範囲内の領域を、前記第2領域として特定する
付記12記載の撮像プログラム。
(Appendix 13)
A region within a range represented by a variation in the position of the first region belonging to the selected group, based on a point represented by an average value of the positions of the first region belonging to the selected group, The imaging program according to
(付記14)
前記第1領域の各々の位相差と、前記第1領域の各々の位相差の平均値と、を比較して、前記第1領域の各々を前記複数のグループに分類する
付記11〜付記13の何れか1項に記載の撮像プログラム。
(Appendix 14)
The phase difference of each of the first regions is compared with the average value of the phase difference of each of the first regions, and each of the first regions is classified into the plurality of groups. The imaging program according to any one of the above.
(付記15)
前記第1領域の位置のばらつきの度合いを標準偏差で表す
付記11〜付記14の何れか1項に記載の撮像プログラム。
(Appendix 15)
The imaging program according to any one of appendices 11 to 14, wherein the degree of variation in the position of the first region is expressed by a standard deviation.
(付記16)
コンピュータに、
像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子により、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光で表される被写体を撮像し、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定し、
特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する
ことを含む処理を実行させるための撮像プログラムを記録したコンピュータ読み取り可能な記録媒体。
(Appendix 16)
On the computer,
Through an optical system that can move the focal position by image sensors with multiple phase difference detectors that detect the phase difference for calculating the in-focus position using the image plane phase difference detection method. Image a subject represented by light incident on a light receiving surface of the image sensor;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And specifying a second region that is estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value,
Computer-readable recording of an imaging program for executing processing including calculating the in-focus position based on an average of phase differences detected by the phase difference detection unit included in the specified second region Recording medium.
10…撮像装置、12…レンズ、14L、14R…マイクロレンズ、16、17、18…光電変換セル、19…撮像素子、20…撮像部、22…測距領域、24…推定窓、27…閉領域、28…主要被写体領域、30…設定部、32…測距領域設定部、34…位相差算出領域設定部、40…特定部、42…位相差取得部、44…分類部、46…算出部、48…主要被写体領域特定部、50…算出部、60…駆動部、70…コントラストAF部、100…コンピュータ、102…CPU、104…メモリ、106…記憶部、108…バス、112…入力装置、114…表示装置、116…モータ、120…撮像プログラム、150…記録媒体
DESCRIPTION OF
Claims (7)
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定する特定部と、
前記特定部によって特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する算出部と、
を含む撮像装置。 The phase difference detection unit for detecting the phase difference for calculating the in-focus position by the image plane phase difference detection method includes imaging elements arranged at a plurality of positions in the light receiving surface, and through an optical system that can move the focal position. An imaging unit that images a subject with light incident on a light receiving surface of the imaging element;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And a specifying unit that specifies a second region estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value When,
A calculating unit that calculates the in-focus position based on an average of phase differences detected by the phase difference detecting unit included in the second region specified by the specifying unit;
An imaging apparatus including:
請求項1記載の撮像装置。 In the case where each variation in the position of the first region included in the individual group is smaller than the preset threshold value, the specifying unit has a larger variation in the position of the first region in the individual group. When at least one of the variations in the position of the first region included in the individual group is larger than the preset threshold, the position of the first region in the individual group is selected. The imaging apparatus according to claim 1, wherein a group having a smaller variation is selected, and the second region is identified from an average value and a variation of each position of the first region belonging to the selected group.
請求項2記載の撮像装置。 The specifying unit is within a range represented by a variation in the position of the first region belonging to the selected group, based on a point represented by an average value of the position of the first region belonging to the selected group. The imaging device according to claim 2, wherein the region is specified as the second region.
請求項1〜請求項3の何れか1項に記載の撮像装置。 The specifying unit compares each phase difference of the first region with an average value of each phase difference of the first region, and classifies each of the first regions into the plurality of groups. The imaging device according to any one of claims 1 to 3.
請求項1〜請求項4の何れか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 4, wherein a degree of variation in the position of the first region is expressed by a standard deviation.
像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子により、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光で表される被写体を撮像し、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定し、
特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する
ことを含む処理を実行させる撮像方法。 On the computer,
Through an optical system that can move the focal position by image sensors with multiple phase difference detectors that detect the phase difference for calculating the in-focus position using the image plane phase difference detection method. Image a subject represented by light incident on a light receiving surface of the image sensor;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And specifying a second region that is estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value,
An imaging method for executing a process including calculating the in-focus position based on an average of phase differences detected by the phase difference detection unit included in the identified second region.
像面位相差検出方式で合焦位置を算出するための位相差を検出する位相差検出部が受光面内の複数個所に配置された撮像素子により、焦点位置を移動可能な光学系を介して前記撮像素子の受光面に入射される光で表される被写体を撮像し、
互いに異なる前記位相差検出部を含むように設定された複数の第1領域を、個々の前記第1領域に含まれる前記位相差検出部によって検出された位相差の大小関係に基づいて複数のグループに分類し、分類した個々のグループに含まれる前記第1領域の位置のばらつきと、予め設定した閾値と、の大小関係に応じて、被写体に対応すると推定される第2領域を特定し、
特定された前記第2領域に含まれる前記位相差検出部によって検出された位相差の平均に基づいて前記合焦位置を算出する
ことを含む処理を実行させるための撮像プログラム。 On the computer,
Through an optical system that can move the focal position by image sensors with multiple phase difference detectors that detect the phase difference for calculating the in-focus position using the image plane phase difference detection method. Image a subject represented by light incident on a light receiving surface of the image sensor;
A plurality of first regions set so as to include the phase difference detection units different from each other are grouped into a plurality of groups based on the magnitude relationship of the phase differences detected by the phase difference detection units included in the individual first regions. And specifying a second region that is estimated to correspond to the subject according to a magnitude relationship between a variation in position of the first region included in each classified group and a preset threshold value,
An imaging program for executing processing including calculating the in-focus position based on an average of phase differences detected by the phase difference detection unit included in the specified second region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014253308A JP2016114785A (en) | 2014-12-15 | 2014-12-15 | Imaging device, imaging method and imaging program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014253308A JP2016114785A (en) | 2014-12-15 | 2014-12-15 | Imaging device, imaging method and imaging program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016114785A true JP2016114785A (en) | 2016-06-23 |
Family
ID=56139938
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014253308A Withdrawn JP2016114785A (en) | 2014-12-15 | 2014-12-15 | Imaging device, imaging method and imaging program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016114785A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106161952A (en) * | 2016-08-08 | 2016-11-23 | 广东欧珀移动通信有限公司 | A kind of focusing method, device and mobile terminal |
JP2020032952A (en) * | 2018-08-31 | 2020-03-05 | スズキ株式会社 | Motor unit support structure |
-
2014
- 2014-12-15 JP JP2014253308A patent/JP2016114785A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106161952A (en) * | 2016-08-08 | 2016-11-23 | 广东欧珀移动通信有限公司 | A kind of focusing method, device and mobile terminal |
CN106161952B (en) * | 2016-08-08 | 2019-06-11 | Oppo广东移动通信有限公司 | A kind of focusing method, device and mobile terminal |
JP2020032952A (en) * | 2018-08-31 | 2020-03-05 | スズキ株式会社 | Motor unit support structure |
JP7180213B2 (en) | 2018-08-31 | 2022-11-30 | スズキ株式会社 | Motor unit support structure |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10698308B2 (en) | Ranging method, automatic focusing method and device | |
US10334151B2 (en) | Phase detection autofocus using subaperture images | |
US9444989B2 (en) | Image pickup apparatus, image pickup system, signal processing apparatus, and non-transitory computer-readable storage medium | |
US10326927B2 (en) | Distance information producing apparatus, image capturing apparatus, distance information producing method and storage medium storing distance information producing program | |
US9489747B2 (en) | Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor | |
US11682131B2 (en) | Image capturing apparatus and method of controlling image capturing apparatus | |
JP2014057303A (en) | System and method for utilizing enhanced scene detection in depth estimation procedure | |
RU2014119389A (en) | IMAGE CAPTURE DEVICE | |
US9759549B2 (en) | Distance detecting device | |
US20220084189A1 (en) | Information processing apparatus, information processing method, and storage medium | |
CN107005655A (en) | Image processing method | |
US20160035099A1 (en) | Depth estimation apparatus, imaging device, and depth estimation method | |
US8994874B2 (en) | Image capture apparatus and control method therefor | |
JP5737929B2 (en) | Image processing apparatus and image processing method | |
JP5857712B2 (en) | Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation | |
JP6967464B2 (en) | Image processing device | |
JP6395429B2 (en) | Image processing apparatus, control method thereof, and storage medium | |
JP2020021126A (en) | Image processing device and control method thereof, distance detection device, imaging device, program | |
US20170064189A1 (en) | Imaging apparatus, focus position detection apparatus, and focus position detection method | |
US9781331B2 (en) | Imaging apparatus, and control method thereof | |
US9791599B2 (en) | Image processing method and imaging device | |
US9739604B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2016114785A (en) | Imaging device, imaging method and imaging program | |
US9232132B1 (en) | Light field image processing | |
US10321043B2 (en) | Focus detection apparatus, focus control apparatus, image-capturing apparatus and focus detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171113 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20171225 |