JP6566800B2 - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP6566800B2 JP6566800B2 JP2015176551A JP2015176551A JP6566800B2 JP 6566800 B2 JP6566800 B2 JP 6566800B2 JP 2015176551 A JP2015176551 A JP 2015176551A JP 2015176551 A JP2015176551 A JP 2015176551A JP 6566800 B2 JP6566800 B2 JP 6566800B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- subject
- image
- unit
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 195
- 238000001514 detection method Methods 0.000 claims description 58
- 238000006243 chemical reaction Methods 0.000 claims description 38
- 230000003287 optical effect Effects 0.000 claims description 36
- 210000001747 pupil Anatomy 0.000 claims description 24
- 238000000034 method Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 10
- 230000001678 irradiating effect Effects 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 41
- 238000004364 calculation method Methods 0.000 description 40
- 238000005259 measurement Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 22
- 238000007906 compression Methods 0.000 description 8
- 230000006835 compression Effects 0.000 description 7
- 230000006399 behavior Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000011514 reflex Effects 0.000 description 5
- 230000007704 transition Effects 0.000 description 4
- 238000002834 transmittance Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 230000002427 irreversible effect Effects 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 238000002366 time-of-flight method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/10—Beam splitting or combining systems
- G02B27/1066—Beam splitting or combining systems for enhancing image performance, like resolution, pixel numbers, dual magnifications or dynamic range, by tiling, slicing or overlapping fields of view
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/71—Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
- H04N25/75—Circuitry for providing, modifying or processing image signals from the pixel array
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/78—Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Studio Devices (AREA)
- Automatic Focus Adjustment (AREA)
- Focusing (AREA)
- Structure And Mechanism Of Cameras (AREA)
Description
本発明は、撮像装置及び撮像方法に関する。 The present invention relates to an imaging apparatus and an imaging method.
従来、一眼レフカメラにおいて、レンズを通った光をミラーを使って反射させてAFセンサに導いてオートフォーカスを行い、次いでミラーを動作させて撮像センサに光を導いて被写体像を撮像するレフレックス構造が多く採用されている。 Conventionally, in a single-lens reflex camera, light that has passed through a lens is reflected by a mirror and guided to an AF sensor to perform autofocus, and then the mirror is operated to guide the light to an image sensor to capture a subject image. Many structures are adopted.
一方、仮想的に焦点面を移動させること(リフォーカス)が可能な画像データを生成するライトフィールドカメラ(以下、「LFカメラ」という)がある(非特許文献1参照)。 On the other hand, there is a light field camera (hereinafter referred to as “LF camera”) that generates image data capable of virtually moving the focal plane (refocusing) (see Non-Patent Document 1).
また、物体までの距離を計測する方法として、光パルスを物体に照射した後、その物体からの反射光が撮像素子により受光されるまでの時間を測定して距離を算出するTOF法(Time−of−Flight法)がある(特許文献1参照)。 Further, as a method of measuring the distance to an object, a TOF method (Time−) that calculates the distance by irradiating the object with a light pulse and measuring the time until the reflected light from the object is received by the image sensor. of-Flight method) (see Patent Document 1).
また特許文献2によれば、映像用撮像素子の出力から得られる像ずれ量に対して変数係数を乗じることで被写体像のピントずれ量(デフォーカス量)を算出することが可能である。 According to Patent Document 2, it is possible to calculate the focus shift amount (defocus amount) of the subject image by multiplying the image shift amount obtained from the output of the imaging device for video by a variable coefficient.
上記非特許文献1の方法では、カメラがレフレックス構造である場合に映像用の撮像素子に光を入射させるためには、ミラーアップの挙動が必要となり、判定結果を得るまでには、ミラーアップの余分な時間がかかってしまう。また、LFカメラからの出力に基づいて被写体がリフォーカス可能な位置に存在しているかどうかの判定を行うのは、データ量が多く、処理コストが大きい。 In the method of Non-Patent Document 1, when the camera has a reflex structure, in order to allow light to enter the image pickup device for video, a mirror-up behavior is required. Will take extra time. Further, it is a large amount of data and high processing cost to determine whether or not the subject exists at a refocusable position based on the output from the LF camera.
そこで本発明の目的は、映像用の撮像素子からの出力とは別の情報に基づいて、当該映像用の撮像素子から得られるデータにおいて被写体がリフォーカス可能な位置に存在するかどうかの判定を可能にする撮像装置及び撮像方法を提供することである。 Accordingly, an object of the present invention is to determine whether or not the subject exists at a refocusable position in the data obtained from the video image sensor based on information different from the output from the video image sensor. It is an object to provide an imaging apparatus and an imaging method that make it possible.
本発明の一観点によれば、異なる瞳領域を通過した被写体からの光束をそれぞれ受光する複数の光電変換部を有する撮像手段と、前記被写体からの光を検出して前記被写体の距離に関する距離情報を生成する距離情報生成手段と、前記距離情報と前記複数の光電変換部の瞳分割構成に基づいて、前記被写体が撮像後の処理でリフォーカス可能な距離範囲にあるかどうかを判定する判定手段と、前記判定手段による判定の結果に従って、前記撮像手段による前記被写体の撮像を制御する制御手段とを備え、前記撮像手段は、前記被写体の光学像を撮像する第1の撮像素子であって、前記複数の光電変換部により構成される第1の撮像素子を有し、前記距離情報生成手段は、前記被写体の光学像を撮像する第2の撮像素子を有し、前記距離情報生成手段は、前記第2の撮像素子により、焦点検出を行うための像信号を生成し、前記像信号を用いて前記第2の撮像素子における像ずれ量を生成し、前記像ずれ量に基づいて前記距離情報を生成し、前記第1の撮像素子の画素ピッチと前記第2の撮像素子の画素ピッチの情報とに基づいて前記撮像手段の最大リフォーカス量の情報を生成することを特徴とする撮像装置が提供される。 According to one aspect of the present invention, imaging means having a plurality of photoelectric conversion units that respectively receive light beams from subjects that have passed through different pupil regions, and distance information relating to the distance of the subject by detecting light from the subject A distance information generating means for generating the information, and a determination means for determining whether the subject is within a distance range that can be refocused in the post-imaging processing based on the distance information and the pupil division configuration of the plurality of photoelectric conversion units. And a control means for controlling the imaging of the subject by the imaging means according to the result of the determination by the determination means , the imaging means being a first imaging element that captures an optical image of the subject, The distance information generation unit includes a second image pickup device that picks up an optical image of the subject, and includes the first image pickup device configured by the plurality of photoelectric conversion units. The means generates an image signal for performing focus detection by the second image sensor, generates an image shift amount in the second image sensor using the image signal, and based on the image shift amount generating the distance information, a feature that you generate information of the maximum refocus amount of the imaging unit based on the information of the pixel pitch of said first pixel pitch and said second imaging element of the imaging device An imaging device is provided.
本発明の他の観点によれば、共通光学系の異なる瞳領域からの光束を受光する複数の光電変換部を有する第1の撮像素子と、複数のマイクロレンズと、各マイクロレンズに対応し、前記共通光学系の異なる瞳領域からの光束を受光する複数の光電変換部と、を有する第2の撮像素子と、前記第1の撮像素子からの信号に基づいて、前記第2の撮像素子で当該被写体が撮像される場合に被写体がリフォーカス可能な範囲にあるか否かを判定する判定手段と、前記判定手段による判定の結果に従って、前記第2の撮像素子による撮像を制御する制御手段とを備えることを特徴とする撮像装置が提供される。 According to another aspect of the present invention, the first imaging device having a plurality of photoelectric conversion units that receive light beams from different pupil regions of the common optical system, a plurality of microlenses, and each microlens, A second imaging device having a plurality of photoelectric conversion units that receive light beams from different pupil regions of the common optical system; and a second imaging device based on a signal from the first imaging device. A determination unit that determines whether or not the subject is within a refocusable range when the subject is imaged, and a control unit that controls imaging by the second image sensor according to a result of the determination by the determination unit; An imaging device is provided.
本発明のさらに他の観点によれば、赤外光を照射する赤外光照射手段と、赤外光を受光して受光情報を出力する赤外光受光手段と、複数のマイクロレンズと、各マイクロレンズに対応し、光学系の異なる瞳領域からの光束を受光する複数の光電変換部と、を有する第2の撮像素子と、前記受光情報に基づいて被写体の距離情報を生成し、当該距離情報に基づいて前記第2の撮像素子で当該被写体が撮像される場合に被写体がリフォーカス可能な範囲にあるか否かを判定する判定手段と、前記判定手段による判定の結果に従って、前記第2の撮像素子による撮像を制御する制御手段とを備えることを特徴とする撮像装置が提供される。 According to still another aspect of the present invention, infrared light irradiating means for irradiating infrared light, infrared light receiving means for receiving infrared light and outputting received light information, a plurality of microlenses, A second imaging element corresponding to the microlens and having a plurality of photoelectric conversion units that receive light beams from different pupil regions of the optical system; and generating distance information of the subject based on the light reception information; When the subject is imaged by the second image sensor based on the information, a determination unit that determines whether or not the subject is within a refocusable range, and the second determination unit according to a determination result by the determination unit. There is provided an image pickup apparatus comprising a control unit that controls image pickup by the image pickup element.
本発明のさらに他の観点によれば、異なる瞳領域を通過した被写体からの光束をそれぞれ受光する複数の光電変換部を有する撮像手段を有する撮像装置を用いる撮像方法であって、前記被写体からの光を検出して前記被写体の距離に関する距離情報を生成する工程と、前記距離情報と前記複数の光電変換部の瞳分割構成に基づいて、前記被写体が撮像後の処理でリフォーカス可能な距離範囲にあるかどうかを判定する工程と、前記判定工程での判定の結果に従って、前記撮像手段による前記被写体の撮像を制御する工程とを備え、前記撮像手段は、前記被写体の光学像を撮像する第1の撮像素子であって、前記複数の光電変換部により構成される第1の撮像素子を有し、前記距離情報を生成する工程は、前記被写体の光学像を撮像する第2の撮像素子により、焦点検出を行うための像信号を生成し、前記像信号を用いて前記第2の撮像素子における像ずれ量を生成し、前記像ずれ量に基づいて前記距離情報を生成し、前記第1の撮像素子の画素ピッチと前記第2の撮像素子の画素ピッチの情報とに基づいて前記撮像手段の最大リフォーカス量の情報を生成することを特徴とする撮像方法が提供される。 According to still another aspect of the present invention, there is provided an imaging method using an imaging device having an imaging unit having a plurality of photoelectric conversion units that respectively receive light beams from subjects that have passed through different pupil regions, A distance range in which the subject can be refocused by processing after imaging based on the step of detecting light and generating distance information related to the distance of the subject, and the distance information and a pupil division configuration of the plurality of photoelectric conversion units And a step of controlling imaging of the subject by the imaging unit according to a result of the determination in the determination step , wherein the imaging unit captures an optical image of the subject. A first imaging element configured by the plurality of photoelectric conversion units, and the step of generating the distance information includes a second imaging unit that captures an optical image of the subject. An image signal for performing focus detection is generated by the image element, an image shift amount in the second image sensor is generated using the image signal, and the distance information is generated based on the image shift amount, imaging method is provided which is characterized that you generate information of the maximum refocus amount of the imaging unit based on the information of the pixel pitch of said first pixel pitch and said second imaging element of the imaging device .
LFカメラでは、被写体がリフォーカス可能な位置に存在するかどうかの判定、つまり映像用の撮像素子における像ずれ量に関する判定は、最大リフォーカス量の算出結果に基づいて行うことが可能である。 In the LF camera, the determination as to whether or not the subject exists at a refocusable position, that is, the determination regarding the image shift amount in the image sensor for video can be performed based on the calculation result of the maximum refocus amount.
最大リフォーカス量の算出について図14を用いて説明する。図14は最大リフォーカス量の算出を説明するための図である。図14には、マイクロレンズ1401、撮像素子の画素1402が示されており、マイクロレンズ1401を通して画素1402に至る実線が被写体から撮像素子に入射する光を示している。角度分解能Δθ、角度分割数Nθ、画素ピッチΔxとすると、最大リフォーカス量dmaxは次の式(1)で計算される。
dmax=Nθ・Δx/tan(Δθ) (1)
The calculation of the maximum refocus amount will be described with reference to FIG. FIG. 14 is a diagram for explaining the calculation of the maximum refocus amount. FIG. 14 shows a microlens 1401 and a pixel 1402 of the image sensor, and a solid line reaching the pixel 1402 through the microlens 1401 indicates light incident on the image sensor from the subject. Assuming that the angle resolution Δθ, the number of angle divisions Nθ, and the pixel pitch Δx, the maximum refocus amount dmax is calculated by the following equation (1).
dmax = Nθ · Δx / tan (Δθ) (1)
つまりリフォーカス可能な画像データが得られる撮影をした時のフォーカスした距離(合焦位置)を中心として光軸方向の前後それぞれにおいて距離dmaxの範囲内に存在する被写体はリフォーカスが可能であると判定できる。つまり映像用撮像素子の出力から得られる被写体の撮像信号の像ずれ量を算出できる。 In other words, an object existing within the distance dmax before and after the optical axis direction around the focused distance (focus position) when shooting is performed to obtain refocusable image data can be refocused. Can be judged. That is, the image shift amount of the imaging signal of the subject obtained from the output of the video image sensor can be calculated.
以下、本発明の実施の形態を添付の図面を参照して詳細に説明する。 Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
[第1実施形態]
本発明の第1実施形態を図1〜図6Cを用いて説明する。
[First Embodiment]
A first embodiment of the present invention will be described with reference to FIGS. 1 to 6C.
図1は、本実施形態に係る撮像装置100の要部の構成を示すブロック図であり、本実施形態に直接係わりがない構成部分は省略してある。図1において、外部から入射される光(入射光)101が示されている。フォーカスレンズを含むレンズ群102は、被写体の光学像を形成する撮影光学系を構成する。レンズ群102の光軸上に進退可能に設けられたミラー103は、光軸上に位置するときに、レンズ群102を通過した被写体からの光の光路を変更する。 FIG. 1 is a block diagram illustrating a configuration of a main part of the imaging apparatus 100 according to the present embodiment, and omits components that are not directly related to the present embodiment. In FIG. 1, light (incident light) 101 incident from the outside is shown. A lens group 102 including a focus lens constitutes a photographing optical system that forms an optical image of a subject. A mirror 103 provided so as to be able to advance and retract on the optical axis of the lens group 102 changes the optical path of light from the subject that has passed through the lens group 102 when positioned on the optical axis.
映像用撮像素子104は、フォーカスレンズを含むレンズ群102で形成された被写体の光学像を撮像するものである。映像用撮像素子104は、図14に示すように、複数のマイクロレンズ1401を含むマイクロレンズ1401の配列と、複数の画素1402を含む画素配列を有している。映像用撮像素子104では、同一のマイクロレンズ1401を所定数の画素(分割画素)1402が共有している。すなわち、複数のマイクロレンズ1401の各々に対応して、所定数の画素1402が配列されている。複数の画素1402は、それぞれ光電変換部(光電変換素子)を有している。映像用撮像素子104における複数の画素1402の光電変換部は、共通光学系の異なる瞳領域を通過した被写体からの光束を受光するように構成されている。こうして、映像用撮像素子104は、マイクロレンズ1401と所定数の画素1402とにより形成される、リフォーカス可能な画像データの生成を可能にする瞳分割構成を有する。 The image pickup device 104 for image picks up an optical image of a subject formed by the lens group 102 including a focus lens. As shown in FIG. 14, the video image sensor 104 has an array of microlenses 1401 including a plurality of microlenses 1401 and a pixel array including a plurality of pixels 1402. In the image pickup device 104 for video, a predetermined number of pixels (divided pixels) 1402 share the same microlens 1401. That is, a predetermined number of pixels 1402 are arranged corresponding to each of the plurality of microlenses 1401. Each of the plurality of pixels 1402 includes a photoelectric conversion unit (photoelectric conversion element). The photoelectric conversion units of the plurality of pixels 1402 in the image pickup device 104 are configured to receive a light beam from a subject that has passed through different pupil regions of the common optical system. In this way, the image pickup device 104 for video has a pupil division configuration that enables generation of refocusable image data formed by the microlens 1401 and the predetermined number of pixels 1402.
焦点検出用撮像素子105は、映像用撮像素子104と同様の瞳分割構成を有し、その複数の画素は、それぞれ光電変換部(光電変換素子)を有する。焦点検出用撮像素子105における複数の画素の光電変換部は、共通光学系の異なる瞳領域からの光束を受光するように構成されている。なお、焦点検出用撮像素子105の画素ピッチと映像用撮像素子104の画素ピッチとは、互いに同一であっても異なっていてもよいが、通常、映像用撮像素子104の画素ピッチの方が狭い。なお、焦点検出用撮像素子105は必ずしも映像用撮像素子104と同一である必要はなく、瞳分割構成を取った撮像素子であれば良い。例えばAFセンサであって自然画の撮像を主目的とするものでなくても良い。光路変更手段であるミラー103が光軸上まで下りているときは、入射光101は焦点検出用撮像素子105に導かれ、ミラー103が上がっているときには、入射光101は映像用撮像素子104に導かれる。焦点検出用撮像素子105は、被写体からの光を検出し、光学系を通る一対の焦点検出光束が形成する一対の像を撮像して一対の像信号を生成する。また、本実施形態では、焦点検出用撮像素子105からの信号は焦点調節に用いることを主目的としている。すなわち、本実施形態による撮像装置は、焦点検出用撮像素子105からの信号に基づき焦点検出を行う焦点検出手段を有するとともに、焦点検出手段の検出結果に基づき、共通光学系であるレンズ群102の焦点位置を制御する焦点制御手段を有している。この焦点制御手段は、焦点検出用撮像素子105からの信号に基づく焦点検出の検出結果に基づき、レンズ群102の焦点位置を制御する。しかし、焦点検出用撮像素子105は映像用撮像素子104による映像の表示・記録のための本撮影の前後で、本撮影のための準備として焦点調節、露出制御などを可能とするために設けられており、信号の用途は特に限定されない。 The focus detection imaging element 105 has the same pupil division configuration as the video imaging element 104, and each of the plurality of pixels has a photoelectric conversion unit (photoelectric conversion element). The photoelectric conversion units of the plurality of pixels in the focus detection imaging element 105 are configured to receive light beams from different pupil regions of the common optical system. Note that the pixel pitch of the focus detection image sensor 105 and the pixel pitch of the video image sensor 104 may be the same or different from each other, but usually the pixel pitch of the video image sensor 104 is narrower. . The focus detection image sensor 105 is not necessarily the same as the image sensor 104 and may be an image sensor having a pupil division configuration. For example, an AF sensor may not be used mainly for capturing natural images. When the mirror 103, which is the optical path changing means, is lowered to the optical axis, the incident light 101 is guided to the focus detection image sensor 105, and when the mirror 103 is raised, the incident light 101 is directed to the image sensor 104. Led. The focus detection imaging element 105 detects light from the subject, captures a pair of images formed by a pair of focus detection light fluxes passing through the optical system, and generates a pair of image signals. In this embodiment, the main purpose is to use the signal from the focus detection image sensor 105 for focus adjustment. That is, the imaging apparatus according to the present embodiment has a focus detection unit that performs focus detection based on a signal from the focus detection image sensor 105, and based on the detection result of the focus detection unit, the lens group 102 that is a common optical system. Focus control means for controlling the focus position is provided. The focus control unit controls the focus position of the lens group 102 based on the detection result of the focus detection based on the signal from the focus detection image sensor 105. However, the focus detection image sensor 105 is provided to enable focus adjustment, exposure control, and the like as preparation for the main shooting before and after the main shooting for displaying and recording the video by the video image sensor 104. The use of the signal is not particularly limited.
測距情報算出部106は、焦点検出用撮像素子105で撮像された被写体の光学像の像ずれ量からフォーカスレンズの位置情報を算出して生成するものである。ここでいう像ずれ量とは、焦点検出用撮像素子105において生成される一対の像信号間のずれ量を意味する。一般的には、SAD(Sum of Absolute Difference)を用いて像ずれ量の評価値を求め、最も評価値の小さい値を与える像ずれ量を合焦点とし、像ずれ量に基づいたデフォーカス量に従って測距を行う距離情報生成手段が知られている。測距情報算出部106は、このような方法により焦点検出用撮像素子105の出力に基づき測距を行って被写体の奥行き方向の距離に関する距離情報を生成する。判定部107は、測距情報算出部106の結果に基づいて、現在のフォーカスレンズの位置が任意の焦点位置からリフォーカス可能な範囲内に存在するかどうかを判定するものである。すなわち、判定部107は、被写体が撮像後の処理でリフォーカス可能な距離範囲にあるかどうかを判定するものである。撮像制御部108は、判定部107の結果に従って、撮像のシステムを制御するものである。信号処理部109は、映像用撮像素子104からの信号を処理するものであり、例えば映像用撮像素子104が生成する画像データからリフォーカス画像を生成する。撮像装置100の各部は、撮像制御部108(CPUを含む)によって制御される。撮像制御部108は、制御プログラムを格納するメモリを有し、そのメモリに格納されている制御プログラムをロードして実行することで撮像装置100が有する機能を実現する。指示部112は、例えばシャッターボタンであり、撮像を指示するものである。 The distance measurement information calculation unit 106 calculates and generates position information of the focus lens from the image shift amount of the optical image of the subject imaged by the focus detection image sensor 105. The image shift amount here means a shift amount between a pair of image signals generated in the focus detection imaging element 105. In general, an evaluation value of an image shift amount is obtained using SAD (Sum of Absolute Difference), an image shift amount giving the smallest evaluation value is set as a focal point, and a defocus amount based on the image shift amount is determined. Distance information generating means for performing distance measurement is known. The distance measurement information calculation unit 106 performs distance measurement based on the output of the focus detection imaging element 105 by such a method, and generates distance information related to the distance in the depth direction of the subject. The determination unit 107 determines whether or not the current focus lens position is within a refocusable range from an arbitrary focal position based on the result of the distance measurement information calculation unit 106. That is, the determination unit 107 determines whether or not the subject is within a distance range that can be refocused by the processing after imaging. The imaging control unit 108 controls the imaging system according to the result of the determination unit 107. The signal processing unit 109 processes a signal from the video image sensor 104, and generates a refocus image from image data generated by the video image sensor 104, for example. Each unit of the imaging apparatus 100 is controlled by an imaging control unit 108 (including a CPU). The imaging control unit 108 has a memory for storing a control program, and realizes the function of the imaging apparatus 100 by loading and executing the control program stored in the memory. The instructing unit 112 is, for example, a shutter button, and instructs to take an image.
表示部110、記録部111は、信号処理部109にて処理された画像信号をそれぞれ表示、記録する。この際、信号処理部109では予め出力先に適した形式に画像信号を変換して、各部に出力する。 The display unit 110 and the recording unit 111 display and record the image signals processed by the signal processing unit 109, respectively. At this time, the signal processing unit 109 converts the image signal into a format suitable for the output destination in advance and outputs it to each unit.
図2は、本実施形態に係る撮像装置100の撮像動作のフローチャートを示す図である。本動作は、撮像制御部108が制御プログラムを実行して図1に示す各部を制御することで行われる。 FIG. 2 is a diagram illustrating a flowchart of the imaging operation of the imaging apparatus 100 according to the present embodiment. This operation is performed by the imaging control unit 108 executing a control program to control each unit shown in FIG.
ステップS202において、焦点検出用撮像素子105が、外部から入射された光101をレンズ群102、ミラー103を介して受光して上述した一対の像信号を生成する。 In step S <b> 202, the focus detection imaging element 105 receives the light 101 incident from the outside through the lens group 102 and the mirror 103 and generates the above-described pair of image signals.
ステップS203では、測距情報算出部106が、焦点検出用撮像素子105の出力信号から像ずれ量を求め、当該像ずれ量に基づいてデフォーカス量を求める。さらに、測距情報算出部106は、求めたデフォーカス量に従って、フォーカスレンズを含むレンズ群102の位置、被写体の位置、及びレンズ群102の位置と被写体の位置との間の距離を算出する。本実施形態では、上記のように測距情報算出部106が被写体の奥行き方向の距離を求めているが、被写体の距離に関する情報がわかればよく、距離情報の段階では像ずれ量、デフォーカス量、奥行き方向の距離いずれの形態であってもよい。 In step S <b> 203, the distance measurement information calculation unit 106 obtains an image shift amount from the output signal of the focus detection image sensor 105, and obtains a defocus amount based on the image shift amount. Further, the distance measurement information calculation unit 106 calculates the position of the lens group 102 including the focus lens, the position of the subject, and the distance between the position of the lens group 102 and the position of the subject according to the obtained defocus amount. In the present embodiment, the distance measurement information calculation unit 106 obtains the distance in the depth direction of the subject as described above. However, it is only necessary to know information related to the distance of the subject. The distance in the depth direction may be any form.
次いでステップS204において、測距情報算出部106は、映像用撮像素子104から出力される画像信号における最大リフォーカス量を決定する。すなわち、測距情報算出部106は、映像用撮像素子104の画素ピッチ(光電変換部のピッチ)と焦点検出用撮像素子105の画素ピッチ(光電変換部のピッチ)の比率、及び式(1)を用いて最大リフォーカス量を算出する。例えば、映像用撮像素子104の画素ピッチがD、焦点検出用撮像素子105の画素ピッチがdであった時、映像用撮像素子104における最大リフォーカス量を以下の式(2)で算出することができる。すなわち、最大リフォーカス量は、映像用撮像素子104の複数の光電変換部の瞳分割構成及び焦点検出用撮像素子105の複数の光電変換部の瞳分割構成に従って決定される。
dmax=(Nθ・Δx/tan(Δθ))・(D/d) (2)
式(2)のNθ、Δx、Δθは、それぞれ焦点検出用撮像素子105の角度分割数、画素ピッチ、角度分解能を示している。式(2)に示すように、映像用撮像素子104の画素ピッチD、焦点検出用撮像素子105の画素ピッチdの比率から、映像用撮像素子104における最大リフォーカス量を求める。
Next, in step S <b> 204, the distance measurement information calculation unit 106 determines the maximum refocus amount in the image signal output from the video image sensor 104. That is, the distance measurement information calculation unit 106 calculates the ratio between the pixel pitch of the image pickup device 104 (pitch of the photoelectric conversion unit) and the pixel pitch of the focus detection image pickup device 105 (pitch of the photoelectric conversion unit), and Equation (1). Is used to calculate the maximum refocus amount. For example, when the pixel pitch of the image pickup device 104 is D and the pixel pitch of the focus detection image pickup device 105 is d, the maximum refocus amount in the image pickup device 104 is calculated by the following equation (2). Can do. That is, the maximum refocus amount is determined according to the pupil division configuration of the plurality of photoelectric conversion units of the video image sensor 104 and the pupil division configuration of the plurality of photoelectric conversion units of the focus detection image sensor 105.
dmax = (Nθ · Δx / tan (Δθ)) · (D / d) (2)
Nθ, Δx, and Δθ in Expression (2) indicate the number of angle divisions, the pixel pitch, and the angle resolution of the focus detection imaging element 105, respectively. As shown in Expression (2), the maximum refocus amount in the image pickup device 104 is obtained from the ratio of the pixel pitch D of the image pickup device 104 and the pixel pitch d of the focus detection image pickup device 105.
ステップS205において判定部107は、前述のレンズ群102の位置と被写体の位置との距離及び最大リフォーカス量に基づいて、現在のフォーカスレンズの位置が、任意の焦点位置からリフォーカス可能な範囲にあるかどうかを判定する。すなわち、判定部107は、被写体がリフォーカス可能な距離範囲にあるかどうかを判定する。 In step S205, the determination unit 107 determines that the current focus lens position is within a refocusable range from an arbitrary focus position based on the distance between the position of the lens group 102 and the subject and the maximum refocus amount. Determine if it exists. That is, the determination unit 107 determines whether or not the subject is within a refocusable distance range.
撮像制御部108は、判定部107による判定の結果に従って、すなわち、被写体の位置がリフォーカス可能な範囲にあるか否かによって信号処理や映像用撮像素子104の撮像を制御する。撮像の制御とは、例えば、被写体を撮像する映像記録用の本撮像(の指示)の可否の決定、本撮像のタイミングを制御することである。また、撮像の制御には、焦点検出用撮像素子105に導かれていた入射光101が映像用撮像素子104に導かれるようにミラー103による光路を変更する動作を制御することが含まれる。また、このとき、撮像制御部108は、リフォーカス可能な距離範囲に被写体があるかどうかの判定部107による判定の結果を、表示部110による画面中の表示や音等でユーザーに報知してもよい。 The imaging control unit 108 controls signal processing and imaging of the imaging element 104 for video according to the determination result by the determination unit 107, that is, depending on whether or not the position of the subject is within a refocusable range. The imaging control is, for example, determining whether or not to perform main imaging (instruction) for video recording for imaging a subject and controlling the timing of main imaging. In addition, the imaging control includes controlling the operation of changing the optical path by the mirror 103 so that the incident light 101 guided to the focus detection imaging element 105 is guided to the video imaging element 104. At this time, the imaging control unit 108 informs the user of the result of the determination by the determination unit 107 as to whether or not the subject is within the refocusable distance range by display on the screen or sound on the display unit 110. Also good.
ステップS205において判定部107が、被写体がリフォーカス可能な距離範囲にあると判定した場合は、ステップS206においては、フォーカスレンズ駆動中に撮像を指示する指示が指示部112によりなされたかどうかを判定する。すなわち、例えば、指示部112であるシャッターボタン(図示せず)が押されたかどうかを判定する。シャッターボタンが押されている場合は、ステップS207において映像用撮像素子104による被写体の撮像を行い、撮像動作を終了する。ステップS206でシャッターボタンが押されていない場合は、押されるまで待機する。ステップS205で被写体がリフォーカス可能な距離範囲でないと判定された場合は、リフォーカス可能な距離範囲となるまで判定を繰り返して待機する。このように、本実施形態においては、被写体がリフォーカス可能な距離範囲に入るまで映像の記録を伴う本撮像を行うことができないように制御し、リフォーカス可能な距離範囲に入ったら、即座に被写体の撮像を行うよう撮像のタイミングを制御する。 If the determination unit 107 determines in step S205 that the subject is within the refocusable distance range, in step S206, it is determined whether or not the instruction unit 112 has instructed imaging while the focus lens is being driven. . That is, for example, it is determined whether or not a shutter button (not shown) as the instruction unit 112 has been pressed. If the shutter button is pressed, the subject is imaged by the image sensor 104 in step S207, and the imaging operation is terminated. If the shutter button is not pressed in step S206, the process waits until it is pressed. When it is determined in step S205 that the subject is not within the refocusable distance range, the determination is repeated until the refocusable distance range is reached. As described above, in the present embodiment, control is performed so that the main imaging with video recording cannot be performed until the subject enters the refocusable distance range. The imaging timing is controlled so that the subject is imaged.
上述した本実施形態における撮像の制御動作と効果について具体的に図3及び図4を用いて説明する。 The above-described imaging control operation and effect in the present embodiment will be specifically described with reference to FIGS.
図3は従来のカメラによる撮影の場合のフォーカスレンズの焦点と被写体との位置関係の推移を示す図である。図3において、縦軸はカメラからの距離を表わし、横軸は撮像動作の経過時間を表わす。 FIG. 3 is a diagram showing the transition of the positional relationship between the focus of the focus lens and the subject in the case of shooting with a conventional camera. In FIG. 3, the vertical axis represents the distance from the camera, and the horizontal axis represents the elapsed time of the imaging operation.
図3に示すように、まず、時間T1において、被写体301に対して、フォーカスレンズの焦点302が、被写体301とカメラとの間の被写体301に対応する位置にあったとする。横軸の時間が進むにつれて、フォーカスレンズが焦点調節動作することにより、被写体距離に対応する合焦位置303に向かって焦点302が移動する。これにより、焦点302が徐々に被写体301の位置に近づき、被写体301と焦点302との距離Yが短くなる。 As shown in FIG. 3, first, it is assumed that the focus 302 of the focus lens is at a position corresponding to the subject 301 between the subject 301 and the camera with respect to the subject 301 at time T1. As the time on the horizontal axis advances, the focus lens performs a focus adjustment operation, whereby the focus 302 moves toward the in-focus position 303 corresponding to the subject distance. As a result, the focal point 302 gradually approaches the position of the subject 301 and the distance Y between the subject 301 and the focal point 302 becomes shorter.
時間T1から時間Tだけ経過した時間T2において、焦点302が合焦位置303に到達して被写体301に対する合焦が達成され、その後シャッターボタンを押下することで、被写体301にピントがあった撮像ができる。しかし、時間T2より早い段階でシャッターボタンを押下した場合、従来のカメラでは被写体301に対しピントがずれた状態での撮像になる。また、リフォーカス可能な撮像装置であっても、確実にリフォーカスできる範囲に被写体301が存在するかはわからないため、撮影後に被写体301のリフォーカス画像が生成できるかどうかの保証はない。 At time T2 when time T has elapsed from time T1, the focal point 302 reaches the in-focus position 303, focusing on the subject 301 is achieved, and then the subject 301 is focused by pressing the shutter button. it can. However, when the shutter button is pressed at an earlier stage than time T2, the conventional camera takes an image in a state where the subject 301 is out of focus. Further, even an imaging device capable of refocusing cannot know whether the subject 301 exists within a range where it can be reliably refocused, so there is no guarantee that a refocus image of the subject 301 can be generated after shooting.
次に、本実施形態に係る撮像装置において、リフォーカス可能な距離範囲に被写体が存在するか否かの判定の結果に基づいて撮像動作が制御された場合の例を図4を用いて説明する。図4は、本実施形態に係る撮像装置による撮影におけるフォーカスレンズの焦点と被写体との位置関係の推移を示す図である。図4において図3と同様の要素は同じ符号を付して示す。図4において、焦点302とともに、リフォーカス可能な距離範囲401が示されている。なお、リフォーカス可能な距離範囲401は、焦点302を中心として光軸方向の前後それぞれにおいて最大リフォーカス量dmaxの距離以内の範囲である。 Next, in the imaging apparatus according to the present embodiment, an example in which the imaging operation is controlled based on the determination result of whether or not the subject exists within the refocusable distance range will be described with reference to FIG. . FIG. 4 is a diagram illustrating the transition of the positional relationship between the focus of the focus lens and the subject in photographing by the imaging apparatus according to the present embodiment. 4, elements similar to those in FIG. 3 are denoted by the same reference numerals. In FIG. 4, a refocusable distance range 401 is shown along with the focal point 302. The refocusable distance range 401 is a range within the distance of the maximum refocus amount dmax before and after the focal point 302 in the optical axis direction.
図4において、時間T1から時間t(ただし、t<T)だけ経過した時間T3の時点で、焦点302が位置402に移動して、リフォーカス可能な距離範囲401に被写体301が入る。リフォーカス可能な距離範囲401に被写体301が存在していない時間T1から時間T3の間でシャッターボタンが押下された場合は、焦点302が位置402に移動するまでフォーカスレンズを駆動した時点で、撮像が行われる。また、リフォーカス可能な距離範囲401に被写体301が存在していれば、合焦位置303まで焦点302が移動するようにフォーカスレンズが駆動されてなくてもシャッターボタンが押下されれば撮像が行われるように制御する。 In FIG. 4, at time T3 when time t (where t <T) has elapsed from time T1, the focal point 302 moves to the position 402, and the subject 301 enters the refocusable distance range 401. When the shutter button is pressed between time T1 and time T3 when the subject 301 does not exist within the refocusable distance range 401, imaging is performed when the focus lens is driven until the focal point 302 moves to the position 402. Is done. Also, if the subject 301 exists within the refocusable distance range 401, imaging is performed if the shutter button is pressed even if the focus lens is not driven so that the focal point 302 moves to the in-focus position 303. To be controlled.
以上の制御を行うことで、撮像が可能となるまでの時間を従来の時間Tから時間tに短縮することが可能となる。本実施形態では、映像用撮像素子104ではなく、焦点検出用撮像素子105に被写体からの光101を入射して、被写体が撮像後の処理でリフォーカス可能な距離範囲にあるかどうかを判定する。従って、映像用撮像素子上でリフォーカス可能な範囲を判定するのにミラーを上げる挙動を必要としていたレフレックスカメラに本実施形態を適用すれば、その判定のために被写体からの光を映像用撮像素子に入射する必要がなくなる。すなわち、ミラーを上げる挙動が不要になる。また同時に、撮像可能までの時間を短縮することが可能となる。 By performing the above control, it is possible to shorten the time until imaging is possible from the conventional time T to time t. In this embodiment, the light 101 from the subject is incident on the focus detection image sensor 105 instead of the video image sensor 104, and it is determined whether or not the subject is within a refocusable distance range in the post-imaging processing. . Therefore, if this embodiment is applied to a reflex camera that required the behavior of raising the mirror to determine the refocusable range on the image sensor for video, the light from the subject is used for video for the determination. There is no need to enter the image sensor. That is, the behavior of raising the mirror is not necessary. At the same time, it is possible to shorten the time until imaging is possible.
また、リフォーカス可能な距離範囲に被写体が存在しない場合にシャッターボタンが押下されても撮像が行われないのではなく、判定部107の結果に応じて、ユーザーに任意の被写体へのリフォーカスが可能か否かを通知するようにしてもよい。また、判定部107の結果に従って、複数の被写体に対してリフォーカス可能な被写体と不可能な被写体を識別可能にライブビューに表示するようにしてもよい。その場合、通知方法及び表示形態は適宜設定することができる設計的事項であり、特定の構成に限定されるものではない。また、判定部107の結果に従って信号処理部109の信号処理(例えば撮像、記録後にリフォーカス画像の生成、表示、記録)を制御するようにしてもよい。 In addition, when there is no subject within the refocusable distance range, imaging is not performed even when the shutter button is pressed, and the user can refocus to an arbitrary subject according to the result of the determination unit 107. You may make it notify whether it is possible. Further, according to the result of the determination unit 107, a refocusable subject and a impossible subject may be displayed in a live view so as to be distinguishable from each other. In this case, the notification method and the display form are design matters that can be set as appropriate, and are not limited to a specific configuration. In addition, the signal processing of the signal processing unit 109 (for example, generation, display, and recording of a refocus image after imaging and recording) may be controlled according to the result of the determination unit 107.
ここで、図5A及び図5Bを用いて本実施形態に係る撮像装置により取得されるライトフィールドデータについて説明を行う。本実施形態に係る撮像装置により取得されるライトフィールドデータは、LFカメラ(プレノプティックカメラ)で撮影されたデータである。 Here, the light field data acquired by the imaging apparatus according to the present embodiment will be described with reference to FIGS. 5A and 5B. The light field data acquired by the imaging apparatus according to the present embodiment is data captured by an LF camera (plenoptic camera).
図5Aは、LFカメラの有する撮像素子、すなわち、本実施形態に係る撮像装置100における映像用撮像素子104の単位画素セルの例を示す図である。図5Bは、LFカメラにより取得される視差の異なる画像及びリフォーカス画像の例を示す図である。 FIG. 5A is a diagram illustrating an example of an image sensor included in the LF camera, that is, a unit pixel cell of the image sensor 104 for video in the image capturing apparatus 100 according to the present embodiment. FIG. 5B is a diagram illustrating an example of an image with different parallax and a refocus image acquired by the LF camera.
図5Aに示すように、LFカメラの有する撮像素子である映像用撮像素子104は、複数のマイクロレンズ501が配列されてなるマイクロレンズアレイと、複数の画素502が配列されてなる画素配列とを有している。複数のマイクロレンズ501は格子状に配列されている。また、複数の画素502は格子状に配列されている。 As shown in FIG. 5A, an image pickup device 104 for an image, which is an image pickup device of an LF camera, includes a microlens array in which a plurality of microlenses 501 are arranged and a pixel array in which a plurality of pixels 502 are arranged. Have. The plurality of microlenses 501 are arranged in a lattice pattern. The plurality of pixels 502 are arranged in a grid pattern.
映像用撮像素子104の単位画素セル500は、マイクロレンズアレイに含まれる1つのマイクロレンズ当たりの複数の画素(分割画素)502の集合により構成される。こここでは、説明の簡便さのため、単位画素セル500が6×6の画素502を有する場合を例として説明を行う。また、単位画素セル500における画素502の画素位置を特定する場合、「画素502(XY)」の表記を用いる。ただし、Xは6×6の画素配列における列を示す1〜6のいずれかであり、Yは6×6の画素配列における行を示すA〜Fのいずれかである。 The unit pixel cell 500 of the image pickup device 104 for video is configured by a set of a plurality of pixels (divided pixels) 502 per one microlens included in the microlens array. Here, for the sake of simplicity of explanation, a case where the unit pixel cell 500 has 6 × 6 pixels 502 will be described as an example. Further, when specifying the pixel position of the pixel 502 in the unit pixel cell 500, the notation of “pixel 502 (XY)” is used. Here, X is any one of 1 to 6 indicating a column in the 6 × 6 pixel array, and Y is any one of A to F indicating a row in the 6 × 6 pixel array.
このような単位画素セル500が二次元状にベイヤー配列で映像用撮像素子104に配置されている。なお、焦点検出用撮像素子105にも、映像用撮像素子104の単位画素セル500と同様の単位画素セルが同様に配置されている。 Such unit pixel cells 500 are arranged in the image pickup device 104 for video in a two-dimensional Bayer array. It should be noted that unit pixel cells similar to the unit pixel cells 500 of the image pickup device 104 for video are similarly arranged in the focus detection image pickup device 105.
各マイクロレンズ501の同一画素位置に存在する画素502のみで構成された二次元画像は、他の同一画素位置に存在する画素502のみで構成された二次元画像に対して視差を有する。つまり、例えば、各マイクロレンズ501の画素502(1A)のみで構成された二次元画像と各マイクロレンズ501の画素502(2A)に対応する画素のみで構成された二次元画像とは、互いに異なる視差を有する。つまり、6×6の画素502を単位画素セル500に有する映像用撮像素子104からは、図5Bに示すように、合計36枚の異なる視差の二次元画像が得られることとなる。 A two-dimensional image composed only of pixels 502 existing at the same pixel position of each microlens 501 has a parallax with respect to a two-dimensional image composed only of pixels 502 present at other same pixel positions. That is, for example, a two-dimensional image composed of only the pixel 502 (1A) of each microlens 501 is different from a two-dimensional image composed of only the pixel corresponding to the pixel 502 (2A) of each microlens 501. Has parallax. That is, as shown in FIG. 5B, a total of 36 two-dimensional images with different parallaxes are obtained from the image pickup device 104 having 6 × 6 pixels 502 in the unit pixel cell 500.
一般的に、LFカメラでは、図5Bに示すように、これらの単位画素セルが有する画素数に応じた異なる視差の二次元画像を合成してリフォーカス画像を得る。 In general, in the LF camera, as shown in FIG. 5B, a refocus image is obtained by synthesizing two-dimensional images having different parallaxes according to the number of pixels of these unit pixel cells.
リフォーカス画像を得るための原理について図5Bを用いて説明する。図5Bに示すように花及び葉を撮像した場合、花の位置に視差を有しないように異なる視差の二次元画像を合成すると、花位置に合焦したリフォーカス画像を得ることになる。この場合、葉の位置には視差を有している画像同士を加算して合成するため、葉の位置はボケたものになる。また、葉の位置に視差を有さないように合成すると、葉の位置に合焦しており、花の位置がボケたリフォーカス画像を得ることが可能となる。 The principle for obtaining a refocus image will be described with reference to FIG. 5B. When flowers and leaves are imaged as shown in FIG. 5B, if a two-dimensional image with different parallax is synthesized so that there is no parallax at the flower position, a refocus image focused on the flower position is obtained. In this case, since the images having parallax are added and synthesized at the leaf position, the leaf position is blurred. Further, if the leaves are combined so that there is no parallax, it is possible to obtain a refocus image in which the leaves are in focus and the positions of the flowers are blurred.
また、移動させたい像面距離があらかじめ決まっている際には、各画素502間で定義されるK値と呼ばれる固定値に基づいて各画素502による二次元画像をシフト加算する。これにより、仮想的に焦点面を移動させたリフォーカス画像を得ることが可能である。前記K値は、LFカメラを用いた相関演算処理を行う際の、像ずれ量からデフォーカス量を求めるための固定値と同一である。 When the image plane distance to be moved is determined in advance, the two-dimensional image of each pixel 502 is shift-added based on a fixed value called a K value defined between the pixels 502. Thereby, it is possible to obtain a refocus image in which the focal plane is virtually moved. The K value is the same as a fixed value for obtaining the defocus amount from the image shift amount when performing the correlation calculation process using the LF camera.
また、本実施形態において測距に際して用いられるデフォーカス量の算出方法の一例について図6A〜図6Cを用いて説明する。 An example of a defocus amount calculation method used for distance measurement in the present embodiment will be described with reference to FIGS. 6A to 6C.
図6A〜図6Cには、それぞれ被写体601からの光が撮影光学系602を経て焦点検出用撮像素子105に入射する様子を示している。なお、撮影光学系602は、レンズ群102を含むものである。また、図6A〜図6Cにおいて、レフレックス構造におけるミラー103は省略している。図6Aは合焦状態を示している。図6Bは後ピン状態を示している。図6Cは前ピン状態を示している。 FIGS. 6A to 6C each show a state in which light from the subject 601 is incident on the focus detection image sensor 105 via the photographing optical system 602. Note that the photographing optical system 602 includes the lens group 102. 6A to 6C, the mirror 103 in the reflex structure is omitted. FIG. 6A shows a focused state. FIG. 6B shows the rear pin state. FIG. 6C shows the front pin state.
焦点検出用撮像素子105は、図5Aに示す映像用撮像素子104と同様の単位画素セル500を有している。焦点検出用撮像素子105は、複数のマイクロレンズ501を有するマイクロレンズアレイにおける各マイクロレンズ501の下に複数の画素502を有している。マイクロレンズ501の下のa、bで示す2つの画素502は、それぞれ図5Aで説明を行った画素502(1A)、画素502(6F)に対応するものとする。なお、図6A〜図6Cでは、焦点検出用撮像素子105における単位画素セル500の位置をP1〜P13で示している。 The focus detection imaging element 105 includes a unit pixel cell 500 similar to the video imaging element 104 shown in FIG. 5A. The focus detection imaging element 105 has a plurality of pixels 502 under each microlens 501 in a microlens array having a plurality of microlenses 501. Two pixels 502 indicated by a and b below the microlens 501 correspond to the pixel 502 (1A) and the pixel 502 (6F) described in FIG. 5A, respectively. 6A to 6C, the positions of the unit pixel cells 500 in the focus detection image sensor 105 are indicated by P1 to P13.
測距時には、aで示す画素502(1A)により構成されるA像用画素群の出力、及びbで示す画素502(6F)により構成されるB像用画素群の出力を、各々列方向(又は行方向)に組み合わせる。そして、これらの出力を同色単位画素セル群の出力として、それぞれA像及びB像を生成・データ化し、各々の対応点のずれをSAD演算によって求める。SAD演算の結果は下記式(3)によって相関量Cとして求められる。 At the time of distance measurement, the output of the A image pixel group constituted by the pixel 502 (1A) indicated by a and the output of the B image pixel group constituted by the pixel 502 (6F) indicated by b are respectively displayed in the column direction ( Or in the row direction). Then, using these outputs as outputs of the unit pixel cell group of the same color, A image and B image are generated and converted into data, respectively, and the shift of each corresponding point is obtained by SAD calculation. The result of the SAD calculation is obtained as the correlation amount C by the following equation (3).
ここで、YAn及びYBnは、それぞれ水平のマイクロレンズのn個の画素数を含んだ数列である。YAnおよびYBnのnは測距を行う瞳分割方向の配置されたマイクロレンズの数(単位画素セルの数と同意)とする。ただし、nの値は配置されたマイクロレンズの数よりも少なければ良い。これは測距する範囲に依存するためである。iは各画素位置を表しており、画素をずらしながら差の絶対値を算出するずらし量をmとする。このとき、最も値の小さな相関量Cを取るmの位置が合焦位置であり、そのmが像ずれ量Nである。 Here, YAn and YBn are each a number sequence including the number of n pixels of the horizontal microlens. N in YAn and YBn is the number of microlenses arranged in the pupil division direction for distance measurement (the same as the number of unit pixel cells). However, the value of n should be smaller than the number of arranged microlenses. This is because it depends on the range to be measured. i represents each pixel position, and m is a shift amount for calculating the absolute value of the difference while shifting the pixel. At this time, the position of m taking the smallest correlation value C is the in-focus position, and m is the image shift amount N.
まず、図6Aに示す合焦状態のときには、撮影光学系602が結像する位置がP7のマイクロレンズ501下の画素(光電変換素子)になる。このため、図6Aの下段に示すように、A像用画素群の出力とB像用画素群の出力とはほぼ一致する。この時、SAD演算で求められるA像用画素群による被写体像とB像用画素群による被写体像との像ずれ量N(a)は、0に近似することができる。 First, in the in-focus state shown in FIG. 6A, the position where the imaging optical system 602 forms an image is a pixel (photoelectric conversion element) under the P7 microlens 501. For this reason, as shown in the lower part of FIG. 6A, the output of the A image pixel group and the output of the B image pixel group substantially coincide. At this time, the image shift amount N (a) between the subject image by the A image pixel group and the subject image by the B image pixel group obtained by the SAD calculation can be approximated to zero.
また、図6Bに示す後ピン状態のときには、撮影光学系602が結像する位置として、A像用画素がP9、B像用画素がP5のマイクロレンズ501下の画素(光電変換素子)になる。このため、図6Bの下段に示すように、A像用画素群の出力とB像用画素群の出力との間にずれが生じる。この時、A像用画素群による被写体像とB像用画素群による被写体像との間には、SAD演算で求められる像ずれ量N(b)が発生する。 Further, in the rear pin state shown in FIG. 6B, the position where the imaging optical system 602 forms an image is a pixel (photoelectric conversion element) under the micro lens 501 in which the A image pixel is P9 and the B image pixel is P5. . For this reason, as shown in the lower part of FIG. 6B, a deviation occurs between the output of the A image pixel group and the output of the B image pixel group. At this time, an image shift amount N (b) determined by the SAD calculation occurs between the subject image by the A image pixel group and the subject image by the B image pixel group.
また、図6Cに示す前ピン状態のときには、撮影光学系602が結像する位置として、A像用画素がP5、B像用画素がP9のマイクロレンズ501下の画素(光電変換素子)になる。このため、図6Cの下段に示すように、A像用画素群の出力とB像用画素群の出力との間に後ピン状態とは逆方向にずれが生じる。この時、SAD演算で求められるA像用画素群による被写体像とB像用画素群による被写体像との間には、SAD演算で求められる後ピン状態とは逆方向の像ずれ量N(c)が発生する。 Further, in the front pin state shown in FIG. 6C, the pixel (photoelectric conversion element) under the microlens 501 in which the A image pixel is P5 and the B image pixel is P9 is the position where the imaging optical system 602 forms an image. . For this reason, as shown in the lower part of FIG. 6C, a shift occurs in the opposite direction to the rear pin state between the output of the A image pixel group and the output of the B image pixel group. At this time, between the subject image by the A image pixel group obtained by the SAD calculation and the subject image by the B image pixel group, an image shift amount N (c in the direction opposite to the rear pin state obtained by the SAD calculation is obtained. ) Occurs.
上述したことは、合焦状態においてはA及びB像用画素群が同一の被写体を見ているが、後ピン状態及び前ピン状態においてはA及びB像用画素群がそれぞれ像ずれ量N(b)、N(c)だけずれた被写体を見ているということを意味している。 As described above, in the in-focus state, the A and B image pixel groups are viewing the same subject, but in the rear pin state and the front pin state, the A and B image pixel groups respectively have an image shift amount N ( b) means that the subject is shifted by N (c).
この時、デフォーカス量dは公知の技術で求めることが可能である。例えば、像ずれ量Nと受光素子に至るまでの光学状態によって一意に決まる係数Kを用いて、下記式(4)によってデフォーカス量dを求めることが可能である。
d=N×K (4)
At this time, the defocus amount d can be obtained by a known technique. For example, the defocus amount d can be obtained by the following equation (4) using a coefficient K that is uniquely determined by the image shift amount N and the optical state up to the light receiving element.
d = N × K (4)
なお、ここでいう係数Kは光学状態によって予め決められた係数であって、画素502(1A)と画素502(6F)との間の相対的な像ずれ量をデフォーカス量に換算する変換係数のことを指している。このようなKの値を各画素間で有することで、リフォーカス処理の画素加算時の像ずれ量を算出することが可能である。図6A、図6B及び図6Cの下段には、それぞれ合焦状態におけるデフォーカス量d(a)、後ピン状態におけるデフォーカス量d(b)、及び前ピン状態におけるデフォーカス量d(c)を絶対値で示している。 The coefficient K here is a coefficient determined in advance according to the optical state, and is a conversion coefficient for converting the relative image shift amount between the pixel 502 (1A) and the pixel 502 (6F) into a defocus amount. It points to that. By having such a value of K between the pixels, it is possible to calculate the image shift amount at the time of pixel addition in the refocus processing. 6A, 6B, and 6C, the defocus amount d (a) in the focused state, the defocus amount d (b) in the rear pin state, and the defocus amount d (c) in the front pin state, respectively. Is shown as an absolute value.
なお、上記では、焦点検出用撮像素子105の信号に基づき距離情報を生成し、その距離情報に基づき被写体がリフォーカス可能な範囲にあるか否かを判定する場合について説明したが、判定の態様はこれに限定されるものではない。 In the above description, a case has been described in which distance information is generated based on a signal from the focus detection image sensor 105 and whether or not the subject is within a refocusable range is determined based on the distance information. Is not limited to this.
例えば、判定の他の態様では、まず、焦点検出用撮像素子105の複数の光電変換部からの信号に基づいて像ずれ量を算出する。次いで、その像ずれ量を焦点検出用撮像素子105の複数の光電変換部の配置間隔(ピッチ)と、映像用撮像素子104の複数の光電変換部の配置間隔(ピッチ)とに基づいて映像用撮像素子104における像ずれ量に換算する。次いで、換算した像ずれ量をリフォーカス可能な範囲と比較することで判定を行う。 For example, in another aspect of determination, first, an image shift amount is calculated based on signals from a plurality of photoelectric conversion units of the focus detection imaging element 105. Next, the image shift amount is determined based on the arrangement interval (pitch) of the plurality of photoelectric conversion units of the focus detection image sensor 105 and the arrangement interval (pitch) of the plurality of photoelectric conversion units of the image sensor 104 for video. This is converted into an image shift amount in the image sensor 104. Next, determination is performed by comparing the converted image shift amount with a refocusable range.
また、例えば、判定のさらに他の態様では、まず、焦点検出用撮像素子105の複数の光電変換部からの信号に基づいてデフォーカス量を算出する。次いで、そのデフォーカス量をリフォーカス可能な範囲と比較することで判定を行う。 For example, in still another aspect of the determination, first, a defocus amount is calculated based on signals from a plurality of photoelectric conversion units of the focus detection imaging element 105. Next, a determination is made by comparing the defocus amount with a refocusable range.
[第2実施形態]
本発明の第2実施形態を図7〜図9Bを用いて説明する。
[Second Embodiment]
A second embodiment of the present invention will be described with reference to FIGS.
第1実施形態では、フォーカスレンズの位置と被写体の位置との距離、すなわち被写体に関する距離情報を焦点検出用撮像素子105の出力を用いて検出していたが、本実施形態では、赤外光受光手段である赤外線素子を用いて検出する。本実施形態は、この点で第1実施形態と異なり、すなわち、被写体までの距離を測定する手段が第1実施形態とは異なる他の汎用的な測定手段であった場合の実施形態である。本実施形態の他の構成については第1実施形態と同様である。 In the first embodiment, the distance between the position of the focus lens and the position of the subject, that is, the distance information about the subject is detected using the output of the focus detection imaging element 105. In the present embodiment, infrared light reception is performed. It detects using the infrared element which is a means. This embodiment is different from the first embodiment in this respect, that is, an embodiment in which the means for measuring the distance to the subject is another general-purpose measuring means different from the first embodiment. Other configurations of the present embodiment are the same as those of the first embodiment.
図7は、本実施形態に係る撮像装置の要部の構成を示すブロック図である。図7において、図1と同様の要素には同じ符号を付して示し、ここでの説明は省略する。 FIG. 7 is a block diagram illustrating a configuration of a main part of the imaging apparatus according to the present embodiment. In FIG. 7, elements similar to those in FIG. 1 are denoted by the same reference numerals and description thereof is omitted here.
図7において、赤外光照射部701は、被写体へ赤外光を照射する赤外光照射手段である。反射光702は、赤外光照射部701から照射された赤外光の被写体からの反射光である。赤外線素子703は、反射光702を受光し受光情報を出力する赤外光受光手段である。測距情報算出部706は、赤外線素子703で受光された情報から、被写体に関する距離情報として被写体までの距離を求めるものである。 In FIG. 7, an infrared light irradiation unit 701 is an infrared light irradiation unit that irradiates a subject with infrared light. The reflected light 702 is reflected light from the subject of infrared light emitted from the infrared light irradiation unit 701. The infrared element 703 is an infrared light receiving unit that receives the reflected light 702 and outputs light reception information. The distance measurement information calculation unit 706 obtains the distance to the subject as distance information about the subject from the information received by the infrared element 703.
上述した本実施形態に係る撮像装置の撮像動作を、図8を用いて説明する。図8は、本実施形態に係る撮像装置の撮像動作のフローチャートを示す図である。図8において、図2と同様のステップには同じ符号を付して示し、ここでの説明は省略する。 The imaging operation of the imaging apparatus according to the present embodiment described above will be described with reference to FIG. FIG. 8 is a diagram illustrating a flowchart of the imaging operation of the imaging apparatus according to the present embodiment. In FIG. 8, the same steps as those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted here.
ステップS801で、赤外光照射部701から赤外光を被写体に投光する。次いで、ステップS802において、ステップS801で投光した赤外光の被写体からの反射光を赤外線素子703で受光する。次いで、ステップS203において、測距情報算出部706が赤外線素子703の出力を用いて被写体との距離を算出して、被写体に関する距離情報を生成する。ステップS203に続くステップS204以降の処理は第1実施形態と同様である。 In step S801, infrared light is projected from the infrared light irradiation unit 701 onto the subject. Next, in step S802, reflected light from the subject of the infrared light projected in step S801 is received by the infrared element 703. Next, in step S203, the distance measurement information calculation unit 706 calculates the distance to the subject using the output of the infrared element 703, and generates distance information about the subject. The processes after step S204 following step S203 are the same as those in the first embodiment.
ここで、測距情報算出部706による被写体との距離の算出方法を、図9A及び図9Bを用いて説明する。なお、図9A及び図9Bにおいて図7と同様の要素は同じ符号を付して示す。 Here, a method of calculating the distance to the subject by the distance measurement information calculation unit 706 will be described with reference to FIGS. 9A and 9B. 9A and 9B, the same elements as those in FIG. 7 are denoted by the same reference numerals.
図9Aは、TOF方式による距離計測の構成を説明するための図である。図9Aにおいて、赤外線投光レンズ901、赤外線受光レンズ902が示されている。赤外光照射部701から照射された赤外光(照射光)903が、被写体である物体Xで反射される。物体Xで反射された反射光904は、赤外線素子703で受光される。赤外光照射から反射光の受光までの時間、即ちカメラから対象までの往復に要した時間から距離を計測する。光の速度は秒速約30万キロメートルのため、時間から距離を算出することができる。 FIG. 9A is a diagram for explaining the configuration of distance measurement by the TOF method. In FIG. 9A, an infrared light projecting lens 901 and an infrared light receiving lens 902 are shown. The infrared light (irradiation light) 903 emitted from the infrared light irradiation unit 701 is reflected by the object X that is the subject. The reflected light 904 reflected by the object X is received by the infrared element 703. The distance is measured from the time from the infrared light irradiation to the reception of the reflected light, that is, the time required for the round trip from the camera to the object. Since the speed of light is about 300,000 kilometers per second, the distance can be calculated from the time.
時間の計測方法を、図9Bを用いて説明する。図9Bは照射光と反射光それぞれの位相を示した図である。光は横波で周期をもっているため、時間のずれを位相のずれから測定することが可能となる。そこで時間の測定には、光の位相差を利用する。図9Bの場合、照射光903に対する反射光904の位相のずれから時間Txが分かるので物体Xとの距離が算出される。算出された距離からは、デフォーカス量を算出する。特許文献2より、デフォーカス量は映像用撮像素子104の像ずれ量からも算出が可能であるので、算出されたデフォーカス量から逆算により映像用撮像素子104の像ずれ量を算出する。第1実施形態においても記載した式(1)により求まる最大リフォーカス量と像ずれ量から、現在のフォーカスレンズの位置が任意の焦点位置からリフォーカス可能な範囲であるかどうかを判定する。 A time measuring method will be described with reference to FIG. 9B. FIG. 9B is a diagram illustrating the phases of the irradiation light and the reflected light. Since light has a period of a transverse wave, it is possible to measure a time shift from a phase shift. Therefore, the phase difference of light is used for time measurement. In the case of FIG. 9B, since the time Tx is known from the phase shift of the reflected light 904 with respect to the irradiation light 903, the distance to the object X is calculated. A defocus amount is calculated from the calculated distance. According to Patent Document 2, since the defocus amount can be calculated from the image shift amount of the image pickup device 104, the image shift amount of the image pickup device 104 is calculated from the calculated defocus amount by back calculation. Whether or not the current focus lens position is within a refocusable range from an arbitrary focal position is determined from the maximum refocus amount and image shift amount obtained by the equation (1) described in the first embodiment.
以上の処理方法により、第1実施形態で用いた焦点検出用撮像素子105を必要とせずに映像用撮像素子104上でのリフォーカス可能な範囲を判定することが可能となる。また、映像用撮像素子104上でのリフォーカス可能な範囲を判定するのにミラーを上げる挙動を必要とするレフレックスカメラに本発明を適用した場合、第1実施形態と同様に、ミラーを上げる挙動は不要になる。そのため、撮像可能までの時間を短縮することが可能となる。 With the above processing method, it is possible to determine a refocusable range on the image pickup device 104 for video without using the focus detection image pickup device 105 used in the first embodiment. Further, when the present invention is applied to a reflex camera that requires the behavior of raising the mirror to determine the refocusable range on the image pickup device 104 for video, the mirror is raised as in the first embodiment. No behavior is required. Therefore, it is possible to shorten the time until imaging is possible.
判定部107の結果に応じた撮像装置の制御方法ついては、第1実施形態において記載したのと同様である。 The method for controlling the imaging apparatus according to the result of the determination unit 107 is the same as that described in the first embodiment.
なお、本実施形態では焦点検出用撮像素子を用いない測距方法として赤外線素子を用いたが、被写体に関する距離情報が得られる方法であればこの限りではない。 In the present embodiment, an infrared element is used as a distance measuring method that does not use a focus detection imaging element. However, the present invention is not limited to this as long as distance information about a subject can be obtained.
以上詳細に説明した本発明の実施の形態によれば、映像用の撮像素子に光を入射させることなく、被写体がリフォーカス可能な位置に存在するかどうかの判定することができ、撮影時間の短縮が可能な撮像素子を提供することができる。 According to the embodiment of the present invention described in detail above, it is possible to determine whether or not the subject exists at a refocusable position without causing light to enter the image pickup device for video. An image sensor that can be shortened can be provided.
[第3実施形態]
第1実施形態では、ミラー103によって映像用撮像素子104への入射光が遮断されている状況において、焦点検出用撮像素子105の出力に基づいてリフォーカス可能かどうかの判定を行う場合について説明した。第1実施形態によれば、撮影のレスポンスを向上させることができる。
[Third Embodiment]
In the first embodiment, a case has been described in which it is determined whether or not refocusing is possible based on the output of the focus detection image sensor 105 in a situation where incident light to the image sensor 104 for video is blocked by the mirror 103. . According to the first embodiment, the response of shooting can be improved.
第1実施形態に対して、ライブビュー画像をユーザーに表示することを目的に、ミラー103を半透過ミラーで構成することで映像用撮像素子104への入射光を確保することが可能である。このような構成においても、第1実施形態と同様に焦点検出用撮像素子105を用いてリフォーカス可能かどうかの判定を行うことで、省電力及び高精度の判定を実現することが可能である。 In contrast to the first embodiment, for the purpose of displaying a live view image to the user, it is possible to secure incident light to the image pickup device 104 by configuring the mirror 103 with a semi-transmissive mirror. Even in such a configuration, it is possible to realize power saving and highly accurate determination by determining whether or not refocusing is possible using the focus detection imaging element 105 as in the first embodiment. .
例えば、映像用撮像素子104でリフォーカス可能な距離範囲に被写体が存在するかどうかを判定するためには、視差を有した画素1402(図14参照)の読み出しを行い測距する必要がある。そのため、異なる2つの視差像をA像とB像とすると、本来の撮像用画像の2倍の読み出しを行う必要がある。一般的に焦点検出用撮像素子105に比べ、映像用撮像素子104の方が画素数が多いため、多くの電力が必要となる課題が存在する。 For example, in order to determine whether or not a subject exists within a distance range that can be refocused by the image pickup device 104 for video, it is necessary to read out a pixel 1402 (see FIG. 14) having parallax and perform distance measurement. Therefore, if two different parallax images are an A image and a B image, it is necessary to read twice as much as the original image for imaging. In general, since the image pickup device 104 for video has a larger number of pixels than the image pickup device 105 for focus detection, there is a problem that requires a lot of power.
さらに、映像用撮像素子104の読み出しフレームレートは、表示部110の表示レートに同期することが望ましい。このため、映像用撮像素子104を用いて測距を行ったのでは、低照度時に測距に最も適した露光量を得ることが困難な場合が存在する。 Furthermore, it is desirable that the readout frame rate of the video image sensor 104 be synchronized with the display rate of the display unit 110. For this reason, there are cases where it is difficult to obtain an exposure amount that is most suitable for distance measurement at low illuminance when distance measurement is performed using the image pickup device 104 for video.
第3実施形態ではこのような課題の解決方法について図10を用いて説明を行う。図10は、本実施形態に係る撮像装置を示すブロック図である。第3実施形態に係る撮像装置は、図1に示す第1実施形態の構成におけるミラー103を半透過ミラー803に変更した構成で実現される。 In the third embodiment, a solution for such a problem will be described with reference to FIG. FIG. 10 is a block diagram illustrating the imaging apparatus according to the present embodiment. The imaging apparatus according to the third embodiment is realized by a configuration in which the mirror 103 in the configuration of the first embodiment shown in FIG.
図10に示すように、ミラー103に代えて、入射光101を分配する光分配手段として機能する半透過ミラー803が設けられている。半透過ミラー803は、入射光101の光量を透過率に基づいて、映像用撮像素子104と焦点検出用撮像素子105に分配する。例えば、透過率50%のペリクルミラーで半透過ミラー803が構成されている場合、映像用撮像素子104には50%の光量の入射光101が入射して結像される。また、焦点検出用撮像素子105には残りの50%の光量の入射光101が入射して結像される。なお、半透過ミラー803の透過率は、50%に限定されるものではなく、適宜選定することができる。 As shown in FIG. 10, instead of the mirror 103, a semi-transmissive mirror 803 that functions as a light distribution unit that distributes the incident light 101 is provided. The semi-transmissive mirror 803 distributes the amount of incident light 101 to the image pickup device 104 for video and the image pickup device 105 for focus detection based on the transmittance. For example, when the semi-transmissive mirror 803 is configured by a pellicle mirror having a transmittance of 50%, incident light 101 having a light amount of 50% is incident on the image pickup device 104 for image formation. Further, the remaining 50% of incident light 101 is incident on the focus detection image sensor 105 to form an image. Note that the transmittance of the semi-transmissive mirror 803 is not limited to 50%, and can be appropriately selected.
映像用撮像素子104は、同一のマイクロレンズ1401(図14参照)を共有する所定数の画素1402を単位として画素加算を行う。さらに、ライブビュー動作中は、ライブビュー表示を行う表示部110の表示画素数に合わせて映像用撮像素子104から同色画素同士を加算し、又は間引いて読み出しを行う。このように処理することで、ライブビュー動作中に映像用撮像素子104の全画素読み出しを行わなくてもよいため、消費電力を低減することが可能となる。 The image pickup device 104 for video performs pixel addition with a predetermined number of pixels 1402 sharing the same microlens 1401 (see FIG. 14) as a unit. Further, during the live view operation, the same color pixels are added or thinned out from the image pickup device 104 in accordance with the number of display pixels of the display unit 110 that performs live view display. By performing the processing in this manner, it is not necessary to read out all the pixels of the image pickup device 104 during the live view operation, so that power consumption can be reduced.
映像用撮像素子104から読みだされた電荷は、不図示のA/D変換部を介して信号処理部109に出力される。信号処理部109は、ライブビューで使用する表示用画像を生成し、表示部110に出力する。表示部110は、入力された表示用画像を例えばLCDに代表されるパネルに表示を行い、ユーザーに対して現在の被写体状態を通知する。 The electric charges read from the image pickup device 104 are output to the signal processing unit 109 via an A / D conversion unit (not shown). The signal processing unit 109 generates a display image used in the live view and outputs it to the display unit 110. The display unit 110 displays the input display image on a panel represented by, for example, an LCD, and notifies the user of the current subject state.
一方、焦点検出用撮像素子105は、第1実施形態と同様に半透過ミラー803によって光量の減った入射光101を受光する。測距情報算出部106は、第1実施形態と同様に、焦点検出用撮像素子105の出力信号に基づきデフォーカス量を求める。 On the other hand, the focus detection imaging element 105 receives the incident light 101 whose light amount is reduced by the semi-transmissive mirror 803 as in the first embodiment. The distance measurement information calculation unit 106 obtains the defocus amount based on the output signal of the focus detection image sensor 105 as in the first embodiment.
なお、焦点検出用撮像素子105は、映像用撮像素子104とは独立して露光制御が可能である。 The focus detection image sensor 105 can perform exposure control independently of the video image sensor 104.
例えば、表示部110が50fpsで表示用画像を表示している時には、映像用撮像素子104は、表示部110とほぼ同じフレームレートで撮像することが一般的である。そのため、1/50秒以上の露光時間を得ることは困難である。さらに、正しく測距処理を行うためには、ノイズの少ない良好な信号が望ましい。しかしながら、半透過ミラー803を経た入射光101は通常よりも光量が少なくなってしまうため、ノイズが多くなりうる。これらの理由のため、露光時間を伸ばして露光量を確保したい場合が存在する。そのため、測距を行うために適した露光時間を表示部110のフレームレートと独立して設定できることが望ましい。 For example, when the display unit 110 displays a display image at 50 fps, the video image sensor 104 generally captures images at substantially the same frame rate as the display unit 110. For this reason, it is difficult to obtain an exposure time of 1/50 second or longer. Furthermore, a good signal with less noise is desirable in order to perform distance measurement correctly. However, the incident light 101 that has passed through the semi-transmissive mirror 803 has a smaller amount of light than usual, and thus noise can increase. For these reasons, there are cases where it is desired to extend the exposure time and secure the exposure amount. Therefore, it is desirable that an exposure time suitable for distance measurement can be set independently of the frame rate of the display unit 110.
また、測距に適した露光量は、必ずしも表示用画像を得るために設定された露光量と一致しない。そのため、測距に用いる露光量は、表示用画像と独立して設定できることが望ましい。 Further, the exposure amount suitable for distance measurement does not necessarily match the exposure amount set for obtaining the display image. Therefore, it is desirable that the exposure amount used for distance measurement can be set independently of the display image.
本実施形態では、上述のように、焦点検出用撮像素子105が、撮像制御部108により不図示の露光用の測光センサに基づいて映像用撮像素子104とは独立して露光制御が可能になっている。これにより、測距を行うのに適した露光量を設定することができる。なお、露光制御を行うための構成としては、特に限定されるものではなく、種々の構成を用いることができる。 In the present embodiment, as described above, the focus detection imaging device 105 can be controlled by the imaging control unit 108 independently of the video imaging device 104 based on an exposure photometric sensor (not shown). ing. Thereby, it is possible to set an exposure amount suitable for distance measurement. The configuration for performing the exposure control is not particularly limited, and various configurations can be used.
次に、第1実施形態と同様にして、リフォーカス可能な距離範囲に被写体が存在しているかどうかを判定部107で判定する。リフォーカス可能な距離範囲に被写体が存在すると判定された場合は、半透過ミラー803のアップ動作を行い、映像用撮像素子104に入射光101のほぼ全光量を入射し、静止画の撮像動作を行う。 Next, as in the first embodiment, the determination unit 107 determines whether or not the subject exists within a refocusable distance range. If it is determined that the subject exists within the refocusable distance range, the semi-transparent mirror 803 is moved up so that almost all the light quantity of the incident light 101 is incident on the image pickup device 104 for image capturing. Do.
このように処理を行うことで、ミラー103を半透過ミラー803に変更した場合においても、省電力かつ高精度にリフォーカス可能かどうかを適切に判断し、撮像動作を行うことが可能である。 By performing the processing in this manner, even when the mirror 103 is changed to the semi-transmissive mirror 803, it is possible to appropriately determine whether or not refocusing can be performed with high power and high accuracy, and an imaging operation can be performed.
[第4実施形態]
第3実施形態では、ミラー103を半透過ミラー803に変更した場合の構成について説明するとともに、その構成において、映像用撮像素子104及び焦点検出用撮像素子105の両方が撮像動作する処理について説明した。
[Fourth Embodiment]
In the third embodiment, the configuration when the mirror 103 is changed to the semi-transmissive mirror 803 is described, and the processing in which both the image pickup device 104 for video and the image pickup device 105 for focus detection perform an imaging operation in the configuration is described. .
第4実施形態では、複数の映像用撮像素子を備える撮像装置において、異なる目的で各映像用撮像素子を使用する際のリフォーカス可能範囲を判定する動作について説明を行う。 In the fourth embodiment, an operation of determining a refocusable range when using each image pickup device for different purposes in an image pickup apparatus including a plurality of image pickup devices will be described.
具体的に図11を用いて説明を行う。図11は、本実施形態に係る撮像装置を示すブロック図である。なお、第1及び第3実施形態と変更のない要素は、同じ符号を付し説明を省略する。 This will be specifically described with reference to FIG. FIG. 11 is a block diagram illustrating the imaging apparatus according to the present embodiment. In addition, the same code | symbol is attached | subjected to the element which does not change with 1st and 3rd embodiment, and description is abbreviate | omitted.
本実施形態に係る撮像装置1100には、映像用撮像素子として、静止画を取得するための静止画用撮像素子1101と、動画を取得するための動画用撮像素子1102が設けられている。静止画用撮像素子1101及び動画用撮像素子1102は、それぞれ後述するように瞳分割構成を有している。 In the imaging apparatus 1100 according to the present embodiment, a still image sensor 1101 for acquiring a still image and a moving image sensor 1102 for acquiring a moving image are provided as a video image sensor. The still image pickup device 1101 and the moving image pickup device 1102 each have a pupil division configuration as will be described later.
第3実施形態と同様に、ミラー103に代えて半透過ミラー803が設けられている。半透過ミラー803は、第3実施形態と同様に光分配手段として機能し、例えば、入射光101のうちの光量の半分を静止画用撮像素子1101、もう半分を動画用撮像素子1102に分配する。 Similar to the third embodiment, a semi-transmissive mirror 803 is provided instead of the mirror 103. The semi-transmissive mirror 803 functions as a light distribution unit as in the third embodiment. For example, half of the amount of incident light 101 is distributed to the still image sensor 1101 and the other half to the moving image sensor 1102. .
静止画用撮像素子1101に対しては、第1実施形態と同様の信号処理部109が設けられている。一方、動画用撮像素子1102に対しては、信号処理部1103が設けられている。 A signal processing unit 109 similar to that of the first embodiment is provided for the still image sensor 1101. On the other hand, a signal processing unit 1103 is provided for the moving image sensor 1102.
静止画用撮像素子1101及び動画用撮像素子1102について図12を用いて説明する。図12は、静止画用撮像素子1101及び動画用撮像素子1102の詳細を示す図である。 The still image sensor 1101 and the moving image sensor 1102 will be described with reference to FIG. FIG. 12 is a diagram showing details of the still image sensor 1101 and the moving image sensor 1102.
静止画用撮像素子1101には、ベイヤー配列で単位画素セル1201sが二次元状に配列されている。単位画素セル1201sは、セルピッチsdで配列されている。単位画素セル1201s内では、図14で説明したように、マイクロレンズを共有するように例えば6×6の画素1202sが配列されている。 In the still image pickup element 1101, unit pixel cells 1201s are two-dimensionally arranged in a Bayer array. The unit pixel cells 1201s are arranged at a cell pitch sd. In the unit pixel cell 1201s, as described in FIG. 14, for example, 6 × 6 pixels 1202s are arranged so as to share a microlens.
動画用撮像素子1102には、静止画用撮像素子1101と同様に、ベイヤー配列で単位画素セル1201mが二次元状に配列されている。単位画素セル1201mは、セルピッチmdで配列されている。単位画素セル1201m内では、静止画用撮像素子1101と同様に、マイクロレンズを共有するように例えば6×6の画素1202mが配列されている。 Similar to the still image pickup device 1101, the moving image pickup device 1102 has unit pixel cells 1201m arranged two-dimensionally in a Bayer arrangement. The unit pixel cells 1201m are arranged at a cell pitch md. In the unit pixel cell 1201m, similarly to the still image pickup device 1101, for example, 6 × 6 pixels 1202m are arranged so as to share a microlens.
動画用撮像素子1102と比較して、静止画用撮像素子1101は、精細な画像を撮像するために、単位画素セルのセルピッチ、及び単位画素セルに含まれる画素の画素ピッチが狭いという特徴を有している。その分、静止画用撮像素子1101の方が動画用撮像素子1102よりも画素数が多くなっている。また、静止画用撮像素子1101の単位画素セル1201sに含まれる画素1202sの数と、動画用撮像素子1102の単位画素セル1201mに含まれる画素1202mの数とは互いに同数になっている。このため、画素1202sの画素ピッチと画素1202mの画素ピッチとの比率は、セルピッチsdとセルピッチmdとの比率とほぼ同一である。 Compared with the moving image pickup device 1102, the still image pickup device 1101 has a feature that the pixel pitch of the unit pixel cell and the pixel pitch of the pixel included in the unit pixel cell are narrower in order to pick up a fine image. doing. Accordingly, the number of pixels of the still image sensor 1101 is larger than that of the moving image sensor 1102. Further, the number of pixels 1202s included in the unit pixel cell 1201s of the still image sensor 1101 and the number of pixels 1202m included in the unit pixel cell 1201m of the moving image sensor 1102 are the same. For this reason, the ratio between the pixel pitch of the pixel 1202s and the pixel pitch of the pixel 1202m is substantially the same as the ratio between the cell pitch sd and the cell pitch md.
信号処理部109は、静止画用撮像素子1101の出力に対して、第1実施形態と同様の処理を行う。 The signal processing unit 109 performs the same processing as that of the first embodiment on the output of the still image sensor 1101.
一方、信号処理部1103は、動画用撮像素子1102の出力に対して、画像処理を行って圧縮された動画データを記録部111に出力するとともに、記録中の画像データを表示部110に出力する。また、画素1402(図14参照)のように配列された画素1202mを用いて、デフォーカス量を算出する等の第1実施形態の測距情報算出部106と同様の処理を行い、処理結果を判定部107に出力する。 On the other hand, the signal processing unit 1103 performs image processing on the output of the moving image sensor 1102 and outputs the compressed moving image data to the recording unit 111 and also outputs the image data being recorded to the display unit 110. . Further, using the pixel 1202m arranged as the pixel 1402 (see FIG. 14), the same processing as the distance measurement information calculation unit 106 of the first embodiment such as calculating the defocus amount is performed, and the processing result is obtained. The data is output to the determination unit 107.
信号処理部1103の具体的な構成について図13を用いて説明する。 A specific configuration of the signal processing unit 1103 will be described with reference to FIG.
信号処理部1103は、画素補正部1300、デモザイク処理部1301、画素加算部1302、動画像圧縮部1303、及び測距演算部1304を有している。動画用撮像素子1102の出力は、画素補正部1300に入力される。 The signal processing unit 1103 includes a pixel correction unit 1300, a demosaic processing unit 1301, a pixel addition unit 1302, a moving image compression unit 1303, and a ranging calculation unit 1304. The output of the moving image sensor 1102 is input to the pixel correction unit 1300.
画素補正部1300は、動画用撮像素子1102の出力に含まれる欠陥画素に代表される画素不良に対する補正処理を行い、補正処理を行った出力をデモザイク処理部1301に出力する。 The pixel correction unit 1300 performs correction processing for pixel defects typified by defective pixels included in the output of the moving image pickup device 1102, and outputs the output subjected to the correction processing to the demosaic processing unit 1301.
デモザイク処理部1301は、ベイヤー状に配列された画素1202mの色補間を行い出力画像の色空間をYUV空間に変換した上で、画素加算部1302、動画像圧縮部1303、及び測距演算部1304にそれぞれ出力する。この時、色補間の単位として、1つのマイクロレンズを共有する複数の画素1202mを1単位とし、各単位内における相対的な位置が同一である画素1202mを用いて色補間を行う。つまり、6×6の画素1202mを有する場合、デモザイク処理部1031は、36枚の画像を生成し後段に位置する上記各部に出力を行う。 The demosaic processing unit 1301 performs color interpolation of the pixels 1202m arranged in a Bayer shape and converts the color space of the output image to a YUV space, and then adds a pixel addition unit 1302, a moving image compression unit 1303, and a ranging calculation unit 1304. Respectively. At this time, as a unit of color interpolation, a plurality of pixels 1202m sharing one microlens are set as one unit, and color interpolation is performed using pixels 1202m having the same relative position in each unit. That is, in the case of having 6 × 6 pixels 1202m, the demosaic processing unit 1031 generates 36 images and outputs them to each of the above-described units.
画素加算部1302は、1つのマイクロレンズを共有する複数の画素1202mからなる画素群単位で画像の加算処理を行って被写界深度の浅い画像信号を生成し、生成した画像信号を動画像圧縮部1303に出力する。 The pixel addition unit 1302 performs image addition processing in units of pixel groups including a plurality of pixels 1202m sharing one microlens to generate an image signal with a shallow depth of field, and the generated image signal is compressed into a moving image. Output to the unit 1303.
動画像圧縮部1303は、画素加算部1302の出力に対して、H264に代表される動画圧縮規格に基づき非可逆動画圧縮処理を行い、圧縮処理した画像信号を記録部111に出力する。この非可逆圧縮処理により得られる画像信号は、プロキシ画像と呼ばれ、編集処理に用いられる軽量な動画像データである。 The moving image compression unit 1303 performs irreversible moving image compression processing on the output of the pixel addition unit 1302 based on the moving image compression standard represented by H264, and outputs the compressed image signal to the recording unit 111. An image signal obtained by the irreversible compression process is called a proxy image, and is lightweight moving image data used for the editing process.
また、動画像圧縮部1303は、デモザイク処理部1301からの出力の画像群である36枚の画像データを可逆圧縮処理し、圧縮処理した画像データを記録部111に出力する。この可逆圧縮された画像データは、任意の視点を得られる仮想視点動画やリフォーカス処理を行うリフォーカス動画の生成に用いられる。 In addition, the moving image compression unit 1303 performs lossless compression processing on 36 pieces of image data that is an image group output from the demosaic processing unit 1301, and outputs the compressed image data to the recording unit 111. This losslessly compressed image data is used to generate a virtual viewpoint moving image that can obtain an arbitrary viewpoint and a refocus moving image that performs refocus processing.
測距演算部1304は、画素1202m同士でSAD演算によりデフォーカス量を求め、判定部107に出力する。SAD演算に使用する画素としては、画素1202mの中から1対の画素を選んでもよいし、S/N向上を目的として、複数の画素1202mを加算することで左目用の画素と右目用の画素とを生成してもよい。 The ranging calculation unit 1304 obtains a defocus amount by SAD calculation between the pixels 1202 m and outputs the defocus amount to the determination unit 107. As a pixel used for the SAD calculation, a pair of pixels may be selected from the pixels 1202m. For the purpose of improving the S / N, a plurality of pixels 1202m are added to the left eye pixel and the right eye pixel. And may be generated.
判定部107は、算出されたデフォーカス量、並びにmd及びsdの比率に基づいて、現フレームのレンズ群102のフォーカスレンズ位置において、静止画用撮像素子1101上でのリフォーカス可能な距離範囲に被写体が存在するかどうかを判定する。本実施形態においても、第1実施形態と同様に判定部107による判定を行うことができる。 Based on the calculated defocus amount and the ratio of md and sd, the determination unit 107 sets the distance range within which the refocus can be performed on the still image sensor 1101 at the focus lens position of the lens group 102 of the current frame. It is determined whether or not a subject exists. Also in the present embodiment, determination by the determination unit 107 can be performed as in the first embodiment.
以上のように処理することで、異なる目的で複数の映像用撮像素子を使用する際においても、一方の撮像素子を用いた測距演算により、他方の撮像素子についてリフォーカス可能な距離範囲に被写体が存在するかどうかを判定することが可能となる。 By processing as described above, even when a plurality of image sensors for video are used for different purposes, the subject within the distance range that can be refocused on the other image sensor by distance measurement using one image sensor. It is possible to determine whether or not exists.
なお、本実施形態では、md及びsdの比率に基づいてリフォーカス可能な範囲かどうかの判定を行ったがそれに限ったものではない。例えば、md及びsdに基づいて得られるリフォーカス可能なデフォーカス量をあらかじめ求めておいて、デフォーカス量同士の比較処理によって判定処理を行ってもよい。 In the present embodiment, it is determined whether or not the refocusable range is based on the ratio of md and sd. However, the present invention is not limited to this. For example, the refocusable defocus amount obtained based on md and sd may be obtained in advance, and the determination process may be performed by comparing the defocus amounts.
なお、本実施形態では、上述した判定のほか、位相差画素間の相関演算による像ずれ量をデフォーカス量に変換するための固定係数K値の比較に基づいて判定を行ってもよい。また、SAD演算によって得られる像ずれ量をデフォーカス量に換算するための固定係数K値の比較によって被写体がリフォーカス可能な範囲に存在するかどうかを像ずれ量の換算によって判定してもよい。 In the present embodiment, in addition to the above-described determination, the determination may be performed based on a comparison of a fixed coefficient K value for converting an image shift amount by a correlation calculation between phase difference pixels into a defocus amount. Further, it may be determined by conversion of the image shift amount whether or not the subject exists in a refocusable range by comparing a fixed coefficient K value for converting the image shift amount obtained by the SAD calculation into the defocus amount. .
また、本実施形態では、動画用撮像素子1102は全単位画素セルにおいて画素(副画素)を有する構成で説明を行ったが、動画用撮像素子1102の構成はその限りではない。動画用撮像素子1102として、一部に焦点検出用画素を有している撮像素子を用いてもよい。 In this embodiment, the moving image sensor 1102 has been described as having a pixel (sub-pixel) in all unit pixel cells. However, the moving image sensor 1102 is not limited thereto. As the moving image pickup element 1102, an image pickup element having a focus detection pixel in part may be used.
また、本実施形態では、動画用撮像素子1102の出力に基づいて静止画用撮像素子1101のリフォーカス可能範囲に被写体が存在するかどうかを判定したが、その限りではない。上記とは逆に、静止画用撮像素子1101で動画用撮像素子1102のリフォーカス可能範囲を判定してもよい。 In the present embodiment, it is determined whether or not the subject exists in the refocusable range of the still image pickup device 1101 based on the output of the moving image pickup device 1102. However, the present invention is not limited to this. Conversely, the refocusable range of the moving image sensor 1102 may be determined by the still image sensor 1101.
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
本発明の実施形態によれば、映像用の撮像素子からの出力とは別の情報に基づいて、当該映像用の撮像素子から得られるデータにおいて被写体がリフォーカス可能な位置に存在するかどうかを判定することができる。したがって、本発明の実施形態によれば、撮影時間の短縮あるいは処理負荷の軽減が可能な撮像装置を提供することができる。 According to the embodiment of the present invention, based on information different from the output from the image sensor for video, whether or not the subject exists at a refocusable position in the data obtained from the image sensor for video is determined. Can be determined. Therefore, according to the embodiment of the present invention, it is possible to provide an imaging apparatus capable of reducing the photographing time or the processing load.
100 撮像装置
104 映像用撮像素子
105 焦点検出用撮像素子
106 測距情報算出部
107 判定部
108 撮像制御部
701 赤外光照射部
703 赤外線素子
706 測距情報算出部
DESCRIPTION OF SYMBOLS 100 Imaging device 104 Image pick-up element 105 Image sensor 106 for focus detection Distance information calculation part 107 Determination part 108 Imaging control part 701 Infrared light irradiation part 703 Infrared element 706 Distance information calculation part
Claims (12)
前記被写体からの光を検出して前記被写体の距離に関する距離情報を生成する距離情報生成手段と、
前記距離情報と前記複数の光電変換部の瞳分割構成に基づいて、前記被写体が撮像後の処理でリフォーカス可能な距離範囲にあるかどうかを判定する判定手段と、
前記判定手段による判定の結果に従って、前記撮像手段による前記被写体の撮像を制御する制御手段と
を備え、
前記撮像手段は、前記被写体の光学像を撮像する第1の撮像素子であって、前記複数の光電変換部により構成される第1の撮像素子を有し、
前記距離情報生成手段は、前記被写体の光学像を撮像する第2の撮像素子を有し、
前記距離情報生成手段は、前記第2の撮像素子により、焦点検出を行うための像信号を生成し、前記像信号を用いて前記第2の撮像素子における像ずれ量を生成し、前記像ずれ量に基づいて前記距離情報を生成し、前記第1の撮像素子の画素ピッチと前記第2の撮像素子の画素ピッチの情報とに基づいて前記撮像手段の最大リフォーカス量の情報を生成することを特徴とする撮像装置。 An imaging unit having a plurality of photoelectric conversion units that respectively receive light beams from subjects that have passed through different pupil regions;
Distance information generating means for detecting light from the subject and generating distance information related to the distance of the subject;
A determination unit configured to determine whether the subject is within a distance range that can be refocused in a process after imaging based on the distance information and a pupil division configuration of the plurality of photoelectric conversion units;
Control means for controlling the imaging of the subject by the imaging means according to the result of the determination by the determination means ,
The imaging means is a first imaging element that captures an optical image of the subject, and includes a first imaging element configured by the plurality of photoelectric conversion units,
The distance information generating unit includes a second imaging element that captures an optical image of the subject,
The distance information generation means generates an image signal for focus detection by the second image sensor, generates an image shift amount in the second image sensor using the image signal, and generates the image shift. based on the amount and generating the distance information, that generates the information of the maximum refocus amount of the imaging unit based on the information of the pixel pitch of said first pixel pitch and said second imaging element of the imaging device An imaging apparatus characterized by that.
前記制御手段は、前記判定手段が前記被写体が前記リフォーカス可能な距離範囲にないと判定しているときに前記指示手段による前記被写体の撮像の指示があった場合は、前記被写体が前記リフォーカス可能な距離範囲にあると判定された時に前記撮像手段に前記被写体の撮像を行わせることを特徴とする請求項3に記載の撮像装置。 Instructing means for instructing the imaging means to image the subject,
When the determination unit determines that the subject is not within the refocusable distance range and the instruction unit instructs to capture the subject, the control unit determines that the subject is to be refocused. The imaging apparatus according to claim 3, wherein the imaging unit causes the imaging unit to perform imaging when it is determined that the distance is within a possible range.
前記制御手段は、複数の前記被写体に対する前記判定手段による判定の結果を、被写体ごとに識別できるように前記表示手段に表示することを特徴とする請求項2乃至4のいずれか1項に記載の撮像装置。 A display unit for displaying a result of determination by the determination unit;
The said control means displays the result of determination by the said determination means with respect to the said several subject on the said display means so that identification can be carried out for every to-be-photographed object, The Claim 1 thru | or 4 characterized by the above-mentioned. Imaging device.
赤外光を受光して受光情報を出力する赤外光受光手段をさらに備え、
前記距離情報生成手段は、前記赤外光照射手段によって前記被写体に照射された前記赤外光の反射光を前記赤外光受光手段が受光して出力する前記受光情報に基づいて前記距離情報を生成し、前記瞳分割構成に基づいて前記撮像手段の最大リフォーカス量の情報を生成することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。 Infrared light irradiation means for irradiating infrared light;
Infrared light receiving means for receiving infrared light and outputting received light information is further provided,
The distance information generating means receives the distance information based on the received light information that is received and output by the infrared light receiving means by receiving the reflected light of the infrared light irradiated on the subject by the infrared light irradiating means. 6. The imaging apparatus according to claim 1, wherein the information is generated and information on a maximum refocus amount of the imaging unit is generated based on the pupil division configuration.
前記被写体からの光を検出して前記被写体の距離に関する距離情報を生成する工程と、
前記距離情報と前記複数の光電変換部の瞳分割構成に基づいて、前記被写体が撮像後の処理でリフォーカス可能な距離範囲にあるかどうかを判定する工程と、
前記判定の結果に従って、前記撮像手段による前記被写体の撮像を制御する工程と
を備え、
前記撮像手段は、前記被写体の光学像を撮像する第1の撮像素子であって、前記複数の光電変換部により構成される第1の撮像素子を有し、
前記距離情報を生成する工程は、前記被写体の光学像を撮像する第2の撮像素子により、焦点検出を行うための像信号を生成し、前記像信号を用いて前記第2の撮像素子における像ずれ量を生成し、前記像ずれ量に基づいて前記距離情報を生成し、前記第1の撮像素子の画素ピッチと前記第2の撮像素子の画素ピッチの情報とに基づいて前記撮像手段の最大リフォーカス量の情報を生成することを特徴とする撮像方法。 An imaging method using an imaging device having an imaging means having a plurality of photoelectric conversion units that respectively receive light beams from subjects that have passed through different pupil regions,
Detecting light from the subject to generate distance information regarding the distance of the subject;
Determining whether or not the subject is within a distance range that can be refocused in a post-imaging process based on the distance information and a pupil division configuration of the plurality of photoelectric conversion units;
Controlling the imaging of the subject by the imaging means according to the result of the determination ,
The imaging means is a first imaging element that captures an optical image of the subject, and includes a first imaging element configured by the plurality of photoelectric conversion units,
In the step of generating the distance information, an image signal for focus detection is generated by a second image sensor that captures an optical image of the subject, and an image on the second image sensor is used by using the image signal. A shift amount is generated, the distance information is generated based on the image shift amount, and the maximum of the imaging unit is determined based on the pixel pitch of the first image sensor and the pixel pitch information of the second image sensor. imaging method characterized that you generate information refocus amount.
コンピュータを、
前記被写体からの光を検出して前記被写体の距離に関する距離情報を生成する距離情報生成手段、
前記距離情報と前記複数の光電変換部の瞳分割構成に基づいて、前記被写体が撮像後の処理でリフォーカス可能な距離範囲にあるかどうかを判定する判定手段、及び
前記判定手段による判定の結果に従って、前記撮像手段による前記被写体の撮像を制御する制御手段
として機能させ、
前記撮像手段は、前記被写体の光学像を撮像する第1の撮像素子であって、前記複数の光電変換部により構成される第1の撮像素子を有し、
前記距離情報生成手段は、前記被写体の光学像を撮像する第2の撮像素子を有し、
前記距離情報生成手段は、前記第2の撮像素子により、焦点検出を行うための像信号を生成し、前記像信号を用いて前記第2の撮像素子における像ずれ量を生成し、前記像ずれ量に基づいて前記距離情報を生成し、前記第1の撮像素子の画素ピッチと前記第2の撮像素子の画素ピッチの情報とに基づいて前記撮像手段の最大リフォーカス量の情報を生成するプログラム。 A program for controlling an imaging apparatus having an imaging means having a plurality of photoelectric conversion units that respectively receive light beams from subjects that have passed through different pupil regions,
Computer
Distance information generating means for detecting light from the subject and generating distance information relating to the distance of the subject;
Based on the distance information and the pupil division configuration of the plurality of photoelectric conversion units, a determination unit that determines whether or not the subject is within a distance range that can be refocused in a process after imaging, and a result of determination by the determination unit To function as a control means for controlling the imaging of the subject by the imaging means ,
The imaging means is a first imaging element that captures an optical image of the subject, and includes a first imaging element configured by the plurality of photoelectric conversion units,
The distance information generating unit includes a second imaging element that captures an optical image of the subject,
The distance information generation means generates an image signal for focus detection by the second image sensor, generates an image shift amount in the second image sensor using the image signal, and generates the image shift. based on the amount and generating the distance information, that generates the information of the maximum refocus amount of the imaging unit based on the information of the pixel pitch of said first pixel pitch and said second imaging element of the imaging device program.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/859,493 US9967451B2 (en) | 2014-09-30 | 2015-09-21 | Imaging apparatus and imaging method that determine whether an object exists in a refocusable range on the basis of distance information and pupil division of photoelectric converters |
EP15187305.6A EP3002940A1 (en) | 2014-09-30 | 2015-09-29 | Imaging apparatus and imaging method |
KR1020150137287A KR101839357B1 (en) | 2014-09-30 | 2015-09-30 | Imaging apparatus and imaging method |
CN201510642157.9A CN105472237B (en) | 2014-09-30 | 2015-09-30 | Picture pick-up device and image capture method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014202273 | 2014-09-30 | ||
JP2014202273 | 2014-09-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016072968A JP2016072968A (en) | 2016-05-09 |
JP6566800B2 true JP6566800B2 (en) | 2019-08-28 |
Family
ID=55865098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015176551A Active JP6566800B2 (en) | 2014-09-30 | 2015-09-08 | Imaging apparatus and imaging method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6566800B2 (en) |
KR (1) | KR101839357B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210058363A (en) * | 2019-11-14 | 2021-05-24 | 삼성전자주식회사 | Electronic device for using depth information and operating method thereof |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8289440B2 (en) * | 2008-12-08 | 2012-10-16 | Lytro, Inc. | Light field data acquisition devices, and methods of using and manufacturing same |
JP6305053B2 (en) * | 2013-01-15 | 2018-04-04 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
JP6162971B2 (en) * | 2013-02-06 | 2017-07-12 | キヤノン株式会社 | Image processing apparatus, image processing method, imaging apparatus, and control method thereof |
-
2015
- 2015-09-08 JP JP2015176551A patent/JP6566800B2/en active Active
- 2015-09-30 KR KR1020150137287A patent/KR101839357B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR101839357B1 (en) | 2018-03-16 |
KR20160038842A (en) | 2016-04-07 |
JP2016072968A (en) | 2016-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6222908B2 (en) | Image processing apparatus, method and program, and imaging apparatus having image processing apparatus | |
US20140184883A1 (en) | Imaging device, semiconductor integrated circuit and imaging method | |
JP6220148B2 (en) | Imaging apparatus and control method thereof | |
US9967451B2 (en) | Imaging apparatus and imaging method that determine whether an object exists in a refocusable range on the basis of distance information and pupil division of photoelectric converters | |
JP6095266B2 (en) | Image processing apparatus and control method thereof | |
JP5826901B2 (en) | Imaging apparatus and optical axis position calculation method | |
JP6152772B2 (en) | Imaging apparatus, semiconductor integrated circuit, and imaging method | |
US9591202B2 (en) | Image processing apparatus and image processing method for generating recomposed images | |
JP2017158018A (en) | Image processing apparatus, control method of the same, and imaging apparatus | |
US9503661B2 (en) | Imaging apparatus and image processing method | |
JP6608194B2 (en) | Image processing apparatus, control method therefor, and program | |
JP6478587B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
JP6566800B2 (en) | Imaging apparatus and imaging method | |
JP6270400B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2018010245A (en) | Signal processor and control method therefor | |
JP6585890B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
JP2019208214A (en) | Image processing apparatus, image processing method, program, and imaging apparatus | |
JP2019074634A (en) | Imaging apparatus | |
JP6727856B2 (en) | Imaging device and control method thereof | |
JP2017134154A (en) | Focus control device, imaging device, and focus control program | |
JP2018050147A (en) | Imaging apparatus, imaging method and program | |
JP2015175905A (en) | Image processor, image processing method, program, and imaging device | |
JP2015094871A (en) | Image capturing device, image capturing system, method of controlling image capturing device, program, and storage medium | |
JP2018050231A (en) | Imaging apparatus, imaging method and imaging control program | |
JP2019041300A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20171214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190730 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6566800 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |