JP6497977B2 - Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium - Google Patents
Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium Download PDFInfo
- Publication number
- JP6497977B2 JP6497977B2 JP2015040020A JP2015040020A JP6497977B2 JP 6497977 B2 JP6497977 B2 JP 6497977B2 JP 2015040020 A JP2015040020 A JP 2015040020A JP 2015040020 A JP2015040020 A JP 2015040020A JP 6497977 B2 JP6497977 B2 JP 6497977B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- component
- unnecessary component
- unnecessary
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、撮影画像の画質を向上させる画像処理方法に関する。 The present invention relates to an image processing method for improving the quality of a captured image.
カメラなどの撮像装置により撮像を行うと、光学系に入射した光の一部がレンズの界面やレンズを保持する部材により反射し、撮像面に不要光として到達する場合がある。撮像面に到達した不要光は、ゴーストやフレアなどの不要成分として撮影画像中に現れる。また、望遠レンズにおいて、軸上色収差や倍率色収差の補正のために回折光学素子を用いると、撮像画角外に存在する太陽などの高強度物体からの光が回折光学素子に当たることで、画像全体に渡って不要光が現れる場合がある。このような不要光も、不要成分として撮影画像中に現れる。そこで従来から、不要成分をデジタル画像処理により除去する方法が知られている。 When imaging is performed by an imaging device such as a camera, part of light incident on the optical system may be reflected by the lens interface or a member holding the lens and reach the imaging surface as unnecessary light. Unnecessary light reaching the imaging surface appears in the captured image as unnecessary components such as ghosts and flares. In a telephoto lens, when a diffractive optical element is used to correct axial chromatic aberration and lateral chromatic aberration, light from a high-intensity object such as the sun outside the imaging angle of view strikes the diffractive optical element. Unnecessary light may appear across the screen. Such unnecessary light also appears in the captured image as an unnecessary component. Therefore, conventionally, a method for removing unnecessary components by digital image processing is known.
特許文献1および特許文献2には、単眼立体撮像による複数の視点画像を比較することでゴーストを検出する方法が開示されている。特許文献1および特許文献2の方法によれば、1回の撮像で複数の視差画像を得られるため、動きのある被写体の静止画撮像や動画撮像にも対応可能である。 Patent Document 1 and Patent Document 2 disclose a method for detecting a ghost by comparing a plurality of viewpoint images obtained by monocular stereoscopic imaging. According to the methods of Patent Literature 1 and Patent Literature 2, since a plurality of parallax images can be obtained by one imaging, it is possible to cope with still image imaging and moving image imaging of a moving subject.
しかしながら、特許文献1の方法は、視差成分が予め補正されていることを前提としており、視差成分が残存している場合にゴーストを正確に検出することはできない。 However, the method of Patent Document 1 is based on the premise that the parallax component is corrected in advance, and a ghost cannot be accurately detected when the parallax component remains.
一方、特許文献2には、視差成分が残存している場合にゴーストを検出する方法が開示されている。風景写真などの遠景で比較的視差成分量が少ない場合、視差画像にローパスフィルタを適用することにより視差成分を除去することができる。しかしながら、近距離の被写体にピントを合わせた場合などで視差成分量が多いと、視差成分を除去するにはローパスフィルタを適用するだけでは不十分である。一方、ローパスフィルタを強く適用すると、検出対象のゴーストも減少し、ゴーストを適切に検出することは困難である。 On the other hand, Patent Document 2 discloses a method for detecting a ghost when a parallax component remains. When the amount of parallax component is relatively small in a distant view such as a landscape photograph, the parallax component can be removed by applying a low-pass filter to the parallax image. However, if the amount of parallax component is large, such as when focusing on a subject at a short distance, it is not sufficient to apply a low-pass filter to remove the parallax component. On the other hand, if the low-pass filter is strongly applied, the ghost to be detected is also reduced, and it is difficult to detect the ghost appropriately.
そこで本実施例は、複数の撮像を行うことなく撮影画像の第1不要成分を決定し、第1不要成分から被写体視差成分を低減させた第2不要成分を決定可能な画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体を提供する。 Therefore, in this embodiment, an image processing apparatus and an imaging apparatus capable of determining a first unnecessary component of a captured image without performing a plurality of imaging operations and determining a second unnecessary component obtained by reducing the subject parallax component from the first unnecessary component. An image processing method, an image processing program, and a storage medium are provided.
本発明の一側面としての画像処理装置は、複数の視差画像の差分情報に基づいて第1不要成分を決定する第1決定手段と、前記第1不要成分から視差成分を低減して第2不要成分を決定する第2決定手段とを有し、前記第2決定手段は、前記第1不要成分と、該第1不要成分に基づいて作成されたマスクとに基づいて、前記第2不要成分を決定する。 An image processing apparatus according to one aspect of the present invention includes a first determination unit that determines a first unnecessary component based on difference information of a plurality of parallax images, and a second unnecessary component by reducing the parallax component from the first unnecessary component. have a second determining means for determining a component, the second determining means, said first required component, based on the mask created based on the first required component, the second required component To decide .
本発明の他の側面としての撮像装置は、光学系を介して形成された光学像を光電変換して複数の視差画像を出力する撮像手段と、前記複数の視差画像の差分情報に基づいて第1不要成分を決定する第1決定手段と、前記第1不要成分から視差成分を低減して第2不要成分を決定する第2決定手段とを有し、前記第2決定手段は、前記第1不要成分と、該第1不要成分に基づいて作成されたマスクとに基づいて、前記第2不要成分を決定する。 An imaging apparatus according to another aspect of the present invention includes an imaging unit that photoelectrically converts an optical image formed through an optical system and outputs a plurality of parallax images, and a first unit based on difference information between the plurality of parallax images. 1 possess a first determining means for determining a required component, and a second determining means for determining a second required component by reducing the parallax component from the first unwanted component, the second determining means, said first The second unnecessary component is determined based on the unnecessary component and a mask created based on the first unnecessary component .
本発明の他の側面としての画像処理方法は、複数の視差画像の差分情報に基づいて第1不要成分を決定するステップと、前記第1不要成分から視差成分を低減して第2不要成分を決定するステップとを有し、前記第2不要成分は、前記第1不要成分と、該第1不要成分に基づいて作成されたマスクとに基づいて決定される。 An image processing method according to another aspect of the present invention includes a step of determining a first unnecessary component based on difference information of a plurality of parallax images, and reducing a parallax component from the first unnecessary component to obtain a second unnecessary component. possess a step of determining, the second required component, said first required component is determined based on the mask created based on the first unnecessary components.
本発明の他の側面としての画像処理プログラムは、前記画像処理方法をコンピュータに実行させるように構成されている。 An image processing program according to another aspect of the present invention is configured to cause a computer to execute the image processing method .
本発明の他の側面としての記憶媒体は、前記画像処理プログラムを記憶している。 A storage medium according to another aspect of the present invention stores the image processing program.
本発明の他の目的及び特徴は、以下の実施例において説明される。 Other objects and features of the present invention are illustrated in the following examples.
本発明によれば、複数の撮像を行うことなく撮影画像の第1不要成分を決定し、第1不要成分から被写体視差成分を低減させた第2不要成分を決定可能な画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体を提供することができる。 According to the present invention, an image processing apparatus and an imaging apparatus capable of determining a first unnecessary component of a captured image without performing a plurality of imaging operations and determining a second unnecessary component obtained by reducing a subject parallax component from the first unnecessary component. An image processing method, an image processing program, and a storage medium can be provided.
以下、本発明の実施例について、図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
各実施例において、複数の視差画像を生成可能な撮像装置は、光学系(撮像光学系)の瞳のうち互いに異なる領域を通過した複数の光束を、撮像素子における互いに異なる受光部(画素)に導いて光電変換を行わせる撮像系を有する。 In each embodiment, an imaging apparatus capable of generating a plurality of parallax images causes a plurality of light beams that have passed through different regions of the pupil of an optical system (imaging optical system) to different light receiving units (pixels) in the imaging device. An imaging system that guides and performs photoelectric conversion is included.
まず、本発明の実施例1について説明する。図3は、本実施例の撮像系における撮像素子の受光部と光学系の瞳との関係を示す図である。図3において、MLはマイクロレンズであり、CFはカラーフィルタである。EXPは光学系の射出瞳(瞳)であり、P1、P2は射出瞳EXPの領域である。G1、G2は画素(受光部)であり、1つの画素G1と1つの画素G2とが互いに対をなしている(画素G1、G2は1つのマイクロレンズMLを共有するように設けられている)。撮像素子には、画素G1と画素G2の対(画素対)が複数配列されている。対の画素G1と画素G2は、共通の(すなわち、画素対ごとに1つずつ設けられた)マイクロレンズMLを介して、射出瞳EXPと共役な関係を有する。各実施例において、撮像素子に配列された複数の画素G1、G2を、それぞれまとめて画素群G1、G2という場合がある。 First, Example 1 of the present invention will be described. FIG. 3 is a diagram illustrating the relationship between the light receiving unit of the image sensor and the pupil of the optical system in the imaging system of the present embodiment. In FIG. 3, ML is a microlens, and CF is a color filter. EXP is an exit pupil (pupil) of the optical system, and P1 and P2 are areas of the exit pupil EXP. G1 and G2 are pixels (light receiving units), and one pixel G1 and one pixel G2 are paired with each other (the pixels G1 and G2 are provided so as to share one microlens ML). . In the imaging device, a plurality of pairs of pixel G1 and pixel G2 (pixel pairs) are arranged. The pair of pixels G1 and G2 have a conjugate relationship with the exit pupil EXP through a common microlens ML (that is, one for each pixel pair). In each embodiment, the plurality of pixels G1 and G2 arranged in the image sensor may be collectively referred to as a pixel group G1 and G2, respectively.
図4は、本実施例における撮像系の模式図であり、撮像している物点OSP、射出瞳EXP、および、撮像素子の結像関係を示している。画素G1は、射出瞳EXPのうち領域P1を通過した光束を受光する。画素G2は、射出瞳EXPのうち領域P2を通過した光束を受光する。OSPは、撮像している物点である。物点OSPには、必ずしも物体が存在している必要はない。物点OSPを通った光束は、その光束が通過する瞳(射出瞳EXP)内での位置(本実施例では領域P1または領域P2)に応じて、画素G1または画素G2のいずれかの画素に入射する。瞳内の互いに異なる領域を光束が通過することは、物点OSPからの入射光が角度(視差)によって分離されることに相当する。すなわち、各マイクロレンズMLに対して設けられた画素G1、G2のうち、画素G1からの出力信号を用いて生成された画像と、画素G2からの出力信号を用いて生成された画像とが、互いに視差を有する複数(ここでは一対)の視差画像となる。以下の説明において、瞳内の互いに異なる領域を通過した光束を互いに異なる受光部(画素)により受光することを、瞳分割という場合がある。 FIG. 4 is a schematic diagram of the imaging system in the present embodiment, and shows an imaging relationship between the object point OSP, the exit pupil EXP, and the imaging element that are imaging. The pixel G1 receives the light beam that has passed through the region P1 in the exit pupil EXP. The pixel G2 receives the light beam that has passed through the region P2 in the exit pupil EXP. The OSP is an object point being imaged. The object point OSP does not necessarily have an object. The light beam passing through the object point OSP is applied to either the pixel G1 or the pixel G2 according to the position (region P1 or region P2 in this embodiment) in the pupil (exit pupil EXP) through which the light beam passes. Incident. The passage of light beams through different regions in the pupil corresponds to the separation of incident light from the object point OSP by the angle (parallax). That is, among the pixels G1 and G2 provided for each microlens ML, an image generated using the output signal from the pixel G1 and an image generated using the output signal from the pixel G2 are: It becomes a plurality (here, a pair) of parallax images having parallax with each other. In the following description, receiving light beams that have passed through different regions in the pupil by different light receiving units (pixels) may be referred to as pupil division.
また、図3および図4に示される射出瞳EXPの位置ずれなどにより、前述の共役関係が完全でなくなる場合や、領域P1、P2が部分的に互いに重複(オーバーラップ)する場合でも、各実施例において、得られた複数の画像を視差画像として扱う。また、画像を構成する最小要素を画素(ピクセル)と呼び(以降、撮像素子上の画素と区別するためにピクセルと呼ぶ)、各ピクセルは、数値によって光の強さや色を表す。各ピクセルの値を画素値という。画素値はモノクロ画像であれば画素値=輝度値とし、本発明の各実施例では簡単に説明するためにモノクロ画像として説明する。よってここでは画素値と輝度値は同じ意味を示す。RGBカラー画像の場合は各色の画素値について色ごとに同様の計算を行えばよい。以下の各実施例についても同様である。 Further, even when the above-described conjugate relationship is not perfect due to the positional deviation of the exit pupil EXP shown in FIGS. 3 and 4, or when the regions P1 and P2 partially overlap (overlap) with each other, In the example, a plurality of obtained images are treated as parallax images. In addition, a minimum element constituting an image is referred to as a pixel (hereinafter referred to as a pixel in order to distinguish it from a pixel on the image sensor), and each pixel represents light intensity and color by a numerical value. The value of each pixel is called a pixel value. If the pixel value is a monochrome image, the pixel value is set to the luminance value. In each embodiment of the present invention, the pixel value will be described as a monochrome image for simple explanation. Therefore, here, the pixel value and the luminance value have the same meaning. In the case of an RGB color image, the same calculation may be performed for each color for the pixel value of each color. The same applies to each of the following embodiments.
次に、図5を参照して、本実施例における画像処理方法を実行する撮像装置について説明する。図5は、本実施例における撮像装置200の構成を示すブロック図である。光学系201(撮像光学系)は、絞り201aおよびフォーカスレンズ201bを含み、不図示の被写体からの光を撮像素子202上に結像(集光)させる。撮像素子202(撮像手段)は、CCDセンサやCMOSセンサなどの光電変換素子により構成され、図3および図4を参照して説明した瞳内の互いに異なる領域を通過した光束を、各領域に対応する画素(受光部)にて受光する(瞳分割を行う)。このように撮像素子202は、光学系201を介して形成された被写体像(光学像)を光電変換し、複数の視差画像である画像信号(アナログ電気信号)を出力する。A/Dコンバータ203は、撮像素子202から出力されたアナログ電気信号をデジタル信号に変換し、デジタル信号を画像処理部204に出力する。 Next, with reference to FIG. 5, an imaging apparatus that executes the image processing method in the present embodiment will be described. FIG. 5 is a block diagram illustrating a configuration of the imaging apparatus 200 in the present embodiment. The optical system 201 (imaging optical system) includes a stop 201a and a focus lens 201b, and focuses (condenses) light from a subject (not shown) on the imaging element 202. The imaging element 202 (imaging means) is composed of a photoelectric conversion element such as a CCD sensor or a CMOS sensor, and corresponds to each region of light beams that have passed through different areas in the pupil described with reference to FIGS. Receive light (perform pupil division). As described above, the image sensor 202 photoelectrically converts the subject image (optical image) formed via the optical system 201 and outputs image signals (analog electrical signals) that are a plurality of parallax images. The A / D converter 203 converts the analog electric signal output from the image sensor 202 into a digital signal, and outputs the digital signal to the image processing unit 204.
画像処理部204は、デジタル信号に対して、一般的に行われる画像処理を行うとともに、不要光(不要成分)の決定処理および不要光を低減または除去する補正処理を行う。また画像処理部204は、不要成分領域の抽出処理を行う。本実施例において、画像処理部204は、撮像装置200に搭載された画像処理装置に相当する。また画像処理部204は、不要成分検出部204a(第1決定手段)、抽出処理部204b(第2決定手段)、および、不要成分低減部204c(低減手段)を有する。 The image processing unit 204 performs image processing that is generally performed on the digital signal, and performs unnecessary light (unnecessary component) determination processing and correction processing that reduces or eliminates unnecessary light. The image processing unit 204 performs an unnecessary component region extraction process. In this embodiment, the image processing unit 204 corresponds to an image processing device mounted on the imaging device 200. The image processing unit 204 includes an unnecessary component detection unit 204a (first determination unit), an extraction processing unit 204b (second determination unit), and an unnecessary component reduction unit 204c (reduction unit).
不要成分検出部204aは、視差画像を生成(取得)し、その視差画像から不要成分を検出(決定)する。抽出処理部204bは、検出された不要成分から視差成分を低減し、ゴーストなどの不要成分領域を抽出する。不要成分低減部204cは、各視差画像から不要成分を低減させる。なお本実施例において、視差画像の生成方法として、「画素群G1のみからなる画像」と「画素群G2のみからなる画像」のように最初から2つに分離した形で出力して生成することができる。または、「画素群G1のみからなる画像」と「画素群G1と画素群G2との合成画像」を最初に出力し、合成画像から画素群G1のみからなる画像を差し引くことにより画素群G2のみからなる画像に相当する画像を演算で求めてもよい。 The unnecessary component detection unit 204a generates (acquires) a parallax image and detects (determines) an unnecessary component from the parallax image. The extraction processing unit 204b reduces the parallax component from the detected unnecessary component and extracts an unnecessary component region such as a ghost. The unnecessary component reduction unit 204c reduces unnecessary components from each parallax image. In the present embodiment, as a method of generating a parallax image, output is generated in the form of being separated into two from the beginning, such as “an image including only the pixel group G1” and “an image including only the pixel group G2”. Can do. Alternatively, the “image composed only of the pixel group G1” and the “composite image of the pixel group G1 and the pixel group G2” are first output, and the image composed only of the pixel group G1 is subtracted from the composite image, so that only the pixel group G2 An image corresponding to the image may be obtained by calculation.
画像処理部204で処理された出力画像(画像データ)は、半導体メモリや光ディスクなどの画像記録媒体209に保存される。また、画像処理部204からの出力画像を表示部205に表示することもできる。記憶部208は、画像処理部204による画像処理に必要な画像処理プログラムや各種情報などを記憶している。 The output image (image data) processed by the image processing unit 204 is stored in an image recording medium 209 such as a semiconductor memory or an optical disk. Further, the output image from the image processing unit 204 can be displayed on the display unit 205. The storage unit 208 stores an image processing program and various information necessary for image processing by the image processing unit 204.
システムコントローラ210(制御手段)は、撮像素子202の動作、画像処理部204での処理、および、光学系201(絞り201aおよびフォーカスレンズ201b)の制御を行う。光学系制御部206は、システムコントローラ210からの制御指示に応じて、光学系201の絞り201aおよびフォーカスレンズ201bの機械的な駆動を行う。絞り201aは、設定された絞り値(Fナンバー)に応じて、その開口径が制御される。フォーカスレンズ201bは、被写体距離に応じてピント調整(フォーカス制御)を行うために、不図示のオートフォーカス(AF)システムやマニュアルフォーカス機構によってその位置が制御される。状態検知部207は、システムコントローラ210の制御指示に応じて、現在の撮影条件情報を取得する。なお本実施例において、光学系201は、撮像素子202を備えた撮像装置200の一部として(撮像装置200と一体的に)構成されているが、これに限定されるものではない。本実施例は、一眼レフカメラのように、交換式の光学系(交換レンズ)を撮像装置本体に着脱可能に構成された撮像装置にも適用可能である。 A system controller 210 (control means) controls the operation of the image sensor 202, processing in the image processing unit 204, and control of the optical system 201 (aperture 201a and focus lens 201b). The optical system control unit 206 mechanically drives the aperture 201a and the focus lens 201b of the optical system 201 in accordance with a control instruction from the system controller 210. The aperture of the aperture 201a is controlled according to the set aperture value (F number). The position of the focus lens 201b is controlled by an auto focus (AF) system (not shown) or a manual focus mechanism in order to perform focus adjustment (focus control) according to the subject distance. The state detection unit 207 acquires current shooting condition information in accordance with a control instruction from the system controller 210. In this embodiment, the optical system 201 is configured as a part of the imaging apparatus 200 including the imaging element 202 (integrated with the imaging apparatus 200), but is not limited thereto. The present embodiment can also be applied to an imaging apparatus in which an interchangeable optical system (interchangeable lens) is detachably attached to the imaging apparatus body, such as a single-lens reflex camera.
図6は、光学系201の構成および光学系201にて発生する不要光の説明図である。図6(A)は、光学系201の具体的な構成例を示す。図6(A)において、STPは絞り(絞り201aに相当)、IMGは撮像面である。撮像面IMGの位置には、図5に示される撮像素子202が配置される。図6(B)は、光学系201に高輝度物体の例としての太陽SUNから強い光が入射し、光学系201を構成するレンズの界面で反射した光が不要成分A(ゴーストやフレアなどの不要光)として撮像面IMGに到達する様子を示している。図6(C)は、図6(B)と同様に強い光が入射し、不要光Aとは異なるレンズの界面で反射した光が不要成分B(ゴーストやフレアなどの不要光)として撮像面IMGに到達する様子を示している。 FIG. 6 is an explanatory diagram of the configuration of the optical system 201 and unnecessary light generated in the optical system 201. FIG. 6A shows a specific configuration example of the optical system 201. In FIG. 6A, STP is a diaphragm (corresponding to the diaphragm 201a), and IMG is an imaging surface. The image sensor 202 shown in FIG. 5 is arranged at the position of the imaging surface IMG. In FIG. 6B, strong light is incident on the optical system 201 from the sun SUN as an example of a high-luminance object, and the light reflected by the lens interface constituting the optical system 201 is converted into unnecessary components A (ghost, flare, etc.). The state of reaching the imaging surface IMG as unnecessary light) is shown. FIG. 6C shows an imaging surface in which strong light is incident as in FIG. 6B, and light reflected at the lens interface different from unnecessary light A is used as unnecessary component B (unnecessary light such as ghost and flare). It shows how the IMG is reached.
図7は、絞りSTPのうち、図4に示される画素G1、G2に入射する光束が通過する領域P1、P2(瞳領域または瞳分割領域)を示している。なお、絞りSTPは、光学系201の射出瞳EXP(光学系201の像面位置から見た虚像)に相当するものとして考えることができるが、実際には絞りSTPと射出瞳EXPは互いに異なる。高輝度物体(太陽SUN)からの光束は、絞りSTPのほぼ全域を通過するが、画素G1、G2に入射する光束が通過する領域は、領域P1、P2(瞳領域)に分割される。図6(B)、(C)に示される例では、高輝度物体からの光束は絞りSTPの略下半分の領域を通過しており、図4を参照すると、領域P1に一部の光束が通過し、領域P2に残りの全ての光束が通過している。領域P1を通過した光束は画素G1に入射し、領域P2を通過した光束は画素G2に入射する。 FIG. 7 shows regions P1 and P2 (pupil regions or pupil division regions) through which the light beams incident on the pixels G1 and G2 shown in FIG. The stop STP can be considered as corresponding to the exit pupil EXP of the optical system 201 (virtual image viewed from the image plane position of the optical system 201), but actually the stop STP and the exit pupil EXP are different from each other. The light beam from the high-intensity object (sun SUN) passes through almost the entire area of the stop STP, but the region through which the light beam incident on the pixels G1 and G2 passes is divided into regions P1 and P2 (pupil regions). In the example shown in FIGS. 6B and 6C, the light beam from the high-intensity object passes through a substantially lower half area of the stop STP. Referring to FIG. 4, a part of the light beam is in the area P1. All the remaining light fluxes pass through the region P2. The light beam that has passed through the region P1 enters the pixel G1, and the light beam that has passed through the region P2 enters the pixel G2.
続いて、図1および図2を参照して、撮像装置200により生成される撮影画像において、不要光が光電変換されることで現れる画像成分である不要成分を決定する方法について説明する。図1は、本実施例における画像処理方法の手順を示す図である。図2は、本実施例における画像処理方法による出力画像の一例である。なお、図6(A)の光学系201で撮像すると、図6(B)の光路で発生する不要成分Aと図6(C)の光路で発生する不要成分Bとが互いに重なり合って撮像される。このため図1および図2においては、不要成分Aと不要成分Bとを重ねて描いている。ただし、複数の不要成分が重なっていても分離していても、本実施例の趣旨や基本的な考え方は変わらず、後述する不要成分の決定方法も変わらない。 Next, with reference to FIGS. 1 and 2, a method of determining an unnecessary component that is an image component that appears in a captured image generated by the imaging apparatus 200 by photoelectric conversion of unnecessary light will be described. FIG. 1 is a diagram illustrating a procedure of an image processing method in the present embodiment. FIG. 2 is an example of an output image by the image processing method in the present embodiment. When imaging is performed with the optical system 201 in FIG. 6A, the unnecessary component A generated in the optical path in FIG. 6B and the unnecessary component B generated in the optical path in FIG. . For this reason, in FIG. 1 and FIG. 2, the unnecessary component A and the unnecessary component B are drawn in an overlapping manner. However, even if a plurality of unnecessary components are overlapped or separated, the spirit and basic idea of the present embodiment are not changed, and the method for determining unnecessary components described later is not changed.
図2は、「瞳分割を行わない撮像」により生成された撮影画像を示し、簡単のために細かい被写体は省略されている。この撮影画像には、背景のグレー部分、ピントが合っている三角の被写体A、被写体Aよりも奥に位置してピントがぼけている被写体B、および、ゴーストを意味する二つの四角(被写体や背景よりも輝度が高く、互いに重なっている不要成分A、B)が写っている。実際には、これらの不要成分の背景には、被写体がある程度透けている。また、不要成分は、撮影被写体に不要光が被った状態であるため、撮影被写体よりも高輝度化する部分である。このため、背景のグレー部分よりも輝度を高くして示している。この点は、後述する他の実施例における図でも同様である。 FIG. 2 shows a captured image generated by “imaging without pupil division”, and fine objects are omitted for simplicity. The photographed image includes a gray portion of the background, a triangular subject A that is in focus, a subject B that is located behind the subject A and is out of focus, and two squares (ghost and subject) Unnecessary components A and B) that are higher in luminance than the background and overlap each other are shown. Actually, the subject is transparent to some extent in the background of these unnecessary components. Further, the unnecessary component is a portion where the photographic subject is covered with unnecessary light, and thus the luminance is higher than that of the photographic subject. For this reason, the luminance is shown to be higher than the gray portion of the background. This also applies to the drawings in other embodiments described later.
図1(A−1)、(B−1)は、それぞれ、領域P1、P2(瞳領域)を通過した光束を画素群G1、G2にて光電変換した結果として得られた一対の視差画像を示す。一対の視差画像には、画像成分の視差に応じた差(被写体視差成分)が存在する。このため、図1(A−1)、(B−1)の被写体Bは、互いに左右にずれている(視差ずれしている)。また、一対の視差画像にも均一な輝度のグレーの四角として模式的に示す不要成分Aと不要成分Bが含まれているが、その輝度は視差画像間で互いに異なる。ここでは、前述のように不要成分Aと不要成分Bとが互いに重なり合っている状態の例を示しているが、これらが重なり合うことなく分離された状態であってもよい。すなわち、不要成分の位置や輝度が視差画像間で互いに異なった状態であればよい。 FIGS. 1A-1 and 1B-1 show a pair of parallax images obtained as a result of photoelectric conversion of light beams that have passed through the regions P1 and P2 (pupil regions) by the pixel groups G1 and G2, respectively. Show. In the pair of parallax images, there is a difference (subject parallax component) corresponding to the parallax of the image components. For this reason, the subject B in FIGS. 1A-1 and 1B-1 is shifted to the left and right (parallax shift). The pair of parallax images also include an unnecessary component A and an unnecessary component B, which are schematically shown as gray squares with uniform luminance, but the luminance differs between the parallax images. Here, an example in which the unnecessary component A and the unnecessary component B overlap with each other as described above is shown, but a state in which they are separated without overlapping may be used. That is, it is only necessary that the position and luminance of the unnecessary component are different between the parallax images.
図1(A−2)、(B−2)は、図1(A−1)、(B−1)中の破線部に沿った一対の視差画像の輝度断面をそれぞれ示す。図1(A−2)、(B−2)のグラフ内の数値は、不要成分の輝度値Yである。例えば図1(A−2)において、背景輝度値は50、視差ずれを有する被写体Bの輝度値は100である。図1(C−1)は、図1(A−1)と図1(B−1)を加算合成した画像(視差合成画像)を示す。図1(C−2)は、図1(C−1)中の破線部に沿った視差合成画像の輝度断面を示す。この視差合成画像は、「瞳分割を行わない撮像」により生成された撮影画像(図2)と等価である。本実施例では、一対の視差画像を加算合成することにより、「瞳分割を行わない撮像」により生成された撮影画像と同等の明るさになる。一対の視差画像を加算平均することにより、「瞳分割を行わない撮像」により生成された撮影画像と同等の明るさになるような撮像装置を用いても構わない。その場合に関しては、実施例5にて後述する。 FIGS. 1A-2 and 1B-2 show luminance cross sections of a pair of parallax images along broken line portions in FIGS. 1A-1 and 1B-1, respectively. The numerical values in the graphs of FIGS. 1A-2 and B-2 are luminance values Y of unnecessary components. For example, in FIG. 1A-2, the background luminance value is 50, and the luminance value of the subject B having a parallax shift is 100. FIG. 1C-1 shows an image (parallax composite image) obtained by adding and synthesizing FIGS. 1A-1 and 1B-1. FIG. 1C-2 shows a luminance cross section of the parallax composite image along the broken line portion in FIG. This parallax composite image is equivalent to a captured image (FIG. 2) generated by “imaging without pupil division”. In the present embodiment, by adding and synthesizing a pair of parallax images, the brightness is equivalent to that of a captured image generated by “imaging without pupil division”. You may use the imaging device which becomes the brightness equivalent to the picked-up image produced | generated by "the imaging which does not perform pupil division" by carrying out the averaging of a pair of parallax image. Such a case will be described later in a fifth embodiment.
図1(D−1)は、一対の視差画像に関し、図1(A−1)から図1(B−1)の画像を差し引いた状態の画像と、図1(B−1)から図1(A−1)の画像を差し引いた状態の画像とを加算合成した画像(差分合成画像、第1不要成分画像)を示す。図1(D−2)は、図1(D−1)中の破線部に沿った輝度断面を示す。このように、図1(D−1)の差分合成画像は、図1(C−1)から被写体や背景が取り除かれた画像であり、図1(C−1)に含まれる不要成分および被写体視差成分のみを含む。 FIG. 1D-1 relates to a pair of parallax images, an image in a state where the image of FIG. 1B-1 is subtracted from FIG. 1A-1, and FIG. An image (difference synthesized image, first unnecessary component image) obtained by adding and synthesizing an image obtained by subtracting the image of (A-1) is shown. FIG. 1D-2 shows a luminance cross section along the broken line portion in FIG. 1D-1 is an image obtained by removing the subject and the background from FIG. 1C-1, and the unnecessary component and subject included in FIG. Contains only the parallax component.
本実施例は、図1(D−1)を算出するため、前述のように2回差分を取ってから加算合成を行っているが、以下の式(1)のように、差分の絶対値を得る演算を行っても等価である。 In this embodiment, in order to calculate FIG. 1 (D-1), the difference is taken twice as described above, and then addition synthesis is performed. However, the absolute value of the difference is obtained as in the following equation (1). Even if an operation for obtaining is performed, it is equivalent.
Fig1D1(x,y)=│Fig1A1(x,y)−Fig1B1(x,y)│ … (1)
式(1)において、Fig1D1(x,y)、Fig1A1(x,y)、Fig1B1(x,y)は、それぞれ、図1(D−1)、図1(A−1)、図1(B−1)の各座標での輝度値を表す。この結果、1度の演算で図1(D−1)の結果が得られる。これにより、第1不要成分が決定され、図1(D−1)は第1不要成分を画像化した第1不要成分画像である。
FIG1D1 (x, y) = | FIG1A1 (x, y) −FIG1B1 (x, y) | (1)
In Expression (1), FIG. 1D1 (x, y), FIG. 1A1 (x, y), and FIG. 1B1 (x, y) are respectively shown in FIG. 1 (D-1), FIG. 1 (A-1), and FIG. -1) represents the luminance value at each coordinate. As a result, the result of FIG. 1 (D-1) is obtained by one calculation. Thus, the first unnecessary component is determined, and FIG. 1D-1 is a first unnecessary component image obtained by imaging the first unnecessary component.
このように、各視差画像について差分計算を行うことにより、不要成分のみを残存させ(換言すると、分離または抽出し)、第1不要成分(第1不要成分画像)を決定することができる。ただし、本実施例のように被写体視差成分が存在する場合、第1不要成分画像には不要成分と被写体視差成分とが混在している。このため、不要成分を高精度に決定するには、被写体視差成分を低減または除去する必要がある。そこで本実施例では、第1不要成分から被写体視差成分を低減する。なお本実施例では、第1不要成分に基づいて後述の各処理を行うが、後で表示してユーザが確認できるような、いわゆる「画像」として第1不要成分画像を保存する必要はない。第1不要成分画像は、処理フローの中において、数値データとして利用できればよい。 In this way, by performing the difference calculation for each parallax image, only the unnecessary component remains (in other words, separated or extracted), and the first unnecessary component (first unnecessary component image) can be determined. However, when the subject parallax component exists as in the present embodiment, the unnecessary component and the subject parallax component are mixed in the first unnecessary component image. For this reason, it is necessary to reduce or remove the subject parallax component in order to determine the unnecessary component with high accuracy. Therefore, in this embodiment, the subject parallax component is reduced from the first unnecessary component. In the present embodiment, each process described later is performed based on the first unnecessary component. However, it is not necessary to store the first unnecessary component image as a so-called “image” that can be displayed and confirmed by the user later. The first unnecessary component image may be used as numerical data in the processing flow.
次に、前述のようにして決定された第1不要成分から被写体視差成分を除去または低減する方法について説明する。被写体視差成分は、複数の視差画像間の差分に関する成分である。このため被写体視差成分は、エッジのような線状の成分であるか、または、ある程度広い面であっても輝度値が小さい成分であることが多い。一方、ゴーストなどの撮影画像から本来低減させたい不要成分は、ある程度広い面であって、かつ輝度値が比較的大きい成分であることが多い。このため、被写体視差成分を低減するには、エッジのような線状の成分はぼかすことにより輝度値を小さくし、輝度値の小さい部分に関してはコントラストを高める処理を行うことにより、被写体視差成分をゼロへ近づける(低減する)ことができる。また、最後に残存したノイズ成分については、ある程度の閾値処理を行うことにより低減可能である。そして、これらの処理を行った後に残存した成分が不要成分であると決定することができる。しかし、線状の成分をぼかし、または、輝度値の小さい部分のコントラストを高める処理を行うことにより、不要成分も若干減少してしまう場合がある。そこで本実施例では、最後まで残存した領域について、領域拡大処理を行う(以降、これらの処理をまとめて抽出処理という)。これにより、不要成分領域(第1不要成分領域)を自動的に決定することができる。本実施例は、第1不要成分に対して抽出処理を行うことにより、被写体視差成分を低減する。 Next, a method for removing or reducing the subject parallax component from the first unnecessary component determined as described above will be described. The subject parallax component is a component related to a difference between a plurality of parallax images. For this reason, the subject parallax component is often a linear component such as an edge, or a component having a small luminance value even if the surface is somewhat wide. On the other hand, an unnecessary component that is originally desired to be reduced from a captured image such as a ghost is often a component that has a relatively large surface and a relatively large luminance value. For this reason, in order to reduce the subject parallax component, the luminance value is reduced by blurring a linear component such as an edge, and the contrast of the subject parallax component is increased by performing processing for increasing the contrast of a portion having a small luminance value. It can approach (reduce) to zero. Further, the last remaining noise component can be reduced by performing a certain threshold processing. And it can determine with the component which remained after performing these processes being an unnecessary component. However, unnecessary components may be slightly reduced by blurring the linear component or increasing the contrast of a portion having a small luminance value. Therefore, in the present embodiment, the region enlargement process is performed on the remaining region (hereinafter, these processes are collectively referred to as an extraction process). Thereby, an unnecessary component area | region (1st unnecessary component area | region) can be determined automatically. In this embodiment, the subject parallax component is reduced by performing the extraction process on the first unnecessary component.
次に、図8を参照して、本実施例における画像処理方法(被写体視差成分の低減処理)について説明する。図8は、画像処理方法を示すフローチャートである。図8の各ステップは、システムコントローラ210または画像処理部204により、コンピュータプログラムとしての画像処理プログラムに従って実行される。 Next, an image processing method (subject parallax component reduction processing) in the present embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing an image processing method. Each step in FIG. 8 is executed by the system controller 210 or the image processing unit 204 in accordance with an image processing program as a computer program.
まずステップS101において、システムコントローラ210は、光学系201および撮像素子202により構成される撮像部を制御して被写体を撮像する。画像処理部204は、撮影画像を入力画像として取得する。 First, in step S <b> 101, the system controller 210 controls the image capturing unit configured by the optical system 201 and the image sensor 202 to image the subject. The image processing unit 204 acquires a captured image as an input image.
続いてステップS102において、画像処理部204は、撮像素子202(画素群G1、G2)から出力されてA/Dコンバータ203にてA/D変換されたデジタル信号を用いて、一対の視差画像を生成する。ここで画像処理部204では、視差画像を生成するため、通常の現像処理や各種の画像補正処理を実施してもよい。 Subsequently, in step S102, the image processing unit 204 uses the digital signal output from the image sensor 202 (pixel group G1, G2) and A / D converted by the A / D converter 203 to generate a pair of parallax images. Generate. Here, the image processing unit 204 may perform normal development processing and various image correction processing in order to generate a parallax image.
続いてステップS103において、画像処理部204(不要成分検出部204a)は、一対の視差画像の差分情報を求める。すなわち画像処理部204は、図1(A−1)から図1(B−1)を差し引いた差分画像と、図1(B−1)から図1(A−1)を差し引いた差分画像とを加算合成して、図1(D−1)の差分合成画像を生成する。このように単純な差分計算では、不要成分の差分値は正および負の値をとる。例えば本実施例では、図1(D−1)の差分合成画像を生成するために図1(A−1)から図1(B−1)を差し引いた場合、図1(A−1)に含まれる不要成分の輝度値のほうが図1(B−1)に含まれる不要成分の輝度値よりも大きい。このため、差分値は正値となる。同様に、図1(B−1)から図1(A−1)を差し引いた場合、その差分値は負の値となる。ここで本実施例では、後段で説明する不要成分低減処理の簡易化のため、前記の負の値を切り捨ててゼロ値とする処理を行う。 Subsequently, in step S103, the image processing unit 204 (unnecessary component detection unit 204a) obtains difference information between the pair of parallax images. That is, the image processing unit 204 includes a difference image obtained by subtracting FIG. 1 (B-1) from FIG. 1 (A-1), and a difference image obtained by subtracting FIG. 1 (A-1) from FIG. 1 (B-1). Are added and combined to generate the difference composite image of FIG. Thus, in the simple difference calculation, the difference value of the unnecessary component takes a positive value and a negative value. For example, in this embodiment, when FIG. 1 (B-1) is subtracted from FIG. 1 (A-1) in order to generate the difference composite image of FIG. 1 (D-1), FIG. The luminance value of the unnecessary component included is larger than the luminance value of the unnecessary component included in FIG. For this reason, the difference value becomes a positive value. Similarly, when FIG. 1A-1 is subtracted from FIG. 1B-1, the difference value becomes a negative value. Here, in this embodiment, in order to simplify the unnecessary component reduction process described later, the negative value is rounded down to a zero value.
続いてステップS104において、画像処理部204(不要成分検出部204a)は、ステップS103にて得られた差分画像(差分合成画像)中に残存した成分を第1不要成分と決定する。ここで、第1不要成分を画像化したものが第1不要成分画像である。具体的には、図1(A−1)と図1(B−1)に含まれる不要成分の差分値のみが正値として検出される。不要成分検出部204aは、これを第1不要成分と決定し、第1不要成分画像(図1(D−1))を生成する。ただし、ユーザが確認できるようないわゆる「画像データ」として、第1不要成分画像を生成または保存する必要はなく、処理の計算上で利用可能にしておけばよい。前述の式(1)のように、差分画像を差分の絶対値で計算すれば、1回の差分計算でよい。また、更なる処理速度向上のため、差分画像を第1不要成分と扱うことにより、ステップ104をスキップし、ステップS103に続いてステップS105へ進んでもよい。 Subsequently, in step S104, the image processing unit 204 (unnecessary component detection unit 204a) determines the component remaining in the difference image (difference composite image) obtained in step S103 as the first unnecessary component. Here, the first unnecessary component image is obtained by imaging the first unnecessary component. Specifically, only a difference value between unnecessary components included in FIGS. 1A-1 and 1B-1 is detected as a positive value. The unnecessary component detection unit 204a determines this as the first unnecessary component and generates a first unnecessary component image (FIG. 1 (D-1)). However, the first unnecessary component image does not need to be generated or stored as so-called “image data” that can be confirmed by the user, and may be used for calculation of processing. If the difference image is calculated with the absolute value of the difference as in the above equation (1), the difference calculation may be performed once. Further, in order to further improve the processing speed, the difference image may be treated as the first unnecessary component to skip step 104 and proceed to step S105 following step S103.
続いてステップS105において、画像処理部204は、視差画像を加算合成処理することにより、1枚の「瞳分割を行わない撮像」により生成された撮影画像と等価の画像(視差合成画像)を生成する。例えば、ステップS102にて生成された図1(A−1)の視差画像と、図1(B−1)の視差画像とを足し合わせる処理を実行することにより、図1(C−1)に示される加算合成処理された視差合成画像が生成される。または、ステップS105は、視差画像を生成するステップ(S102)を経ずに、撮像素子202(画素群G1、G2)から出力されてA/Dコンバータ203にてA/D変換されたデジタル信号を加算することで生成してもよい。また、ステップS105は、必ずしもこの位置で実行される必要はなく、後段のステップS107で視差合成画像が使用できるようにステップS107よりも前に実行されていれば、このステップの実行位置は特に限定されるものではない。 Subsequently, in step S <b> 105, the image processing unit 204 generates an image (parallax composite image) equivalent to the captured image generated by one “imaging without pupil division” by performing an additive synthesis process on the parallax images. To do. For example, by executing a process of adding the parallax image of FIG. 1A-1 generated in step S102 and the parallax image of FIG. 1B-1 to FIG. The added and synthesized parallax composite image shown is generated. Alternatively, in step S105, the digital signal output from the image sensor 202 (pixel group G1, G2) and A / D converted by the A / D converter 203 without passing through the step (S102) of generating a parallax image is obtained. You may produce | generate by adding. Further, step S105 is not necessarily executed at this position, and the execution position of this step is particularly limited as long as it is executed before step S107 so that the parallax composite image can be used in subsequent step S107. Is not to be done.
続くステップS108(S120〜S125)は、ステップS104にて決定された第1不要成分に基づいて不要成分領域(マスクとしての第1不要成分領域)を決定するステップ(抽出処理ステップ)である。ステップS108は、画像処理部204(抽出処理部204b)により実行される。まずステップS120において、画像処理部204(抽出処理部204b)は、第1不要成分について平滑化処理を行う。図1(E−1)は、平滑化処理を行った画像を示す。図1(E−2)は、図14(E−1)中の破線部に沿った輝度断面を示す。これにより、被写体視差成分のエッジ部分をぼかすことができ、被写体視差成分の全体的な輝度値を小さくすることが可能となる。具体的には、平滑化処理として、移動平均処理やガウシアンフィルタ処理などを行う。 The subsequent step S108 (S120 to S125) is a step (extraction process step) for determining an unnecessary component region (first unnecessary component region as a mask) based on the first unnecessary component determined in step S104. Step S108 is executed by the image processing unit 204 (extraction processing unit 204b). First, in step S120, the image processing unit 204 (extraction processing unit 204b) performs a smoothing process on the first unnecessary component. FIG. 1E-1 shows an image that has been smoothed. FIG. 1E-2 shows a luminance cross section taken along the broken line in FIG. Thereby, the edge portion of the subject parallax component can be blurred, and the overall luminance value of the subject parallax component can be reduced. Specifically, moving average processing, Gaussian filter processing, and the like are performed as the smoothing processing.
続いてステップS121において、画像処理部204(抽出処理部204b)は、ステップS120の平滑化処理でぼかした画像に対して、コントラストを高める処理(コントラストアップ処理)を行う。図1(F−1)は、コントラストを高めた画像を示す。図1(F−2)は、図1(F−1)中の破線部に沿った輝度断面を示す。これにより、ぼけた部分の輝度値はより小さくなり、不要成分のような輝度値が比較的高い部分の輝度値はより高くなる。 Subsequently, in step S121, the image processing unit 204 (extraction processing unit 204b) performs processing for increasing contrast (contrast increasing processing) on the image blurred by the smoothing processing in step S120. FIG. 1F-1 shows an image with increased contrast. FIG. 1F-2 shows a luminance cross section along the broken line portion in FIG. As a result, the luminance value of the blurred portion becomes smaller, and the luminance value of the portion having a relatively high luminance value such as an unnecessary component becomes higher.
続いてステップS122において、画像処理部204(抽出処理部204b)は、閾値処理を行う。具体的には、例えば輝度値が30以下の領域における輝度値を全てゼロにする処理を行う。本実施例では説明を簡単にするため、輝度値が30という比較的大きな輝度値が残っている。ただし実際には、平滑化処理をより積極的に行い、閾値処理により(8ビット画像において)2〜10程度の輝度値をゼロにすることが好ましい。これにより、本来残したい不要成分をこのステップ(ステップS122)で誤って除去することを回避することができる。その結果、被写体視差成分やノイズ成分を効果的に除去することができ、最終的に不要成分のみを残すことが可能となる。図1(G−1)は、不要成分のみが残存した画像を示す。図1(G−2)は、図1(G−1)中の破線部に沿った輝度断面を示す。 Subsequently, in step S122, the image processing unit 204 (extraction processing unit 204b) performs threshold processing. Specifically, for example, a process of setting all luminance values in an area where the luminance value is 30 or less to zero is performed. In this embodiment, for the sake of simplicity, a relatively large luminance value of 30 remains. However, in practice, it is preferable that the smoothing process is more aggressively performed and the luminance value of about 2 to 10 is made zero by the threshold process (in the 8-bit image). As a result, it is possible to avoid erroneously removing unnecessary components originally desired to be left in this step (step S122). As a result, the subject parallax component and the noise component can be effectively removed, and finally only the unnecessary component can be left. FIG. 1G-1 shows an image in which only unnecessary components remain. FIG. 1G-2 shows a luminance cross section taken along the broken line in FIG.
ステップS122の閾値処理後、まだ多くの被写体視差成分が残存している場合、ステップS120に戻り、ステップS120、S121を繰り返してもよい。これにより、被写体視差成分を段階的に低減させることができる。 If many subject parallax components still remain after the threshold processing in step S122, the process may return to step S120 and repeat steps S120 and S121. Thereby, the subject parallax component can be reduced stepwise.
続いてステップS123において、画像処理部204(抽出処理部204b)は、残存する不要成分に対して2値化処理を行う。2値化処理とは、輝度値がゼロの領域については輝度値をゼロのままにし、輝度値が1以上(または、所定の閾値以上)の領域については輝度値を全て1に(または、8ビットグレースケール画像であれば255に)する処理である。これにより、残存する不要成分を「領域(不要成分が存在する領域)」として捉えることができる。図1(H−1)は、2値化処理後の画像を示す。図1(H−2)は、図1(H−1)中の破線部に沿った輝度断面を示す。 Subsequently, in step S123, the image processing unit 204 (extraction processing unit 204b) performs binarization processing on the remaining unnecessary components. In the binarization processing, the luminance value is left as zero for the region where the luminance value is zero, and all the luminance values are set to 1 (or 8 for the region where the luminance value is 1 or more (or a predetermined threshold value or more). If it is a bit grayscale image, the processing is performed to 255). Thereby, the remaining unnecessary components can be regarded as “regions (regions where unnecessary components exist)”. FIG. 1 (H-1) shows an image after binarization processing. FIG. 1 (H-2) shows a luminance cross section along the broken line in FIG. 1 (H-1).
続いてステップS124において、画像処理部204(抽出処理部204b)は、ステップS123にて2値化した「不要成分が存在する領域」を拡大する処理(領域拡大処理)を行う。図1(I−1)は、領域拡大処理後の画像を示す。図1(I−2)は、図1(I−1)中の破線部に沿った輝度断面を示す。ステップS120の平滑化処理、ステップS121のコントラストアップ処理、および、ステップ122の閾値処理を行うことにより、被写体視差成分を除去または低減することができる。ただし同時に、不要成分もある程度減少してしまう。この場合、2値化して最終的に残存する「不要成分が存在する領域」が、実際に不要成分を含む領域の全てをカバーできていない可能性がある。そこでステップS124では、実際に不要成分を含む領域の全てをカバーするように、平滑化処理などで減少した不要成分が存在する領域を拡大する。なお、ゴーストのような不要成分は、エッジがはっきりしているものもあればボケているものもあり、実際に輪郭を定義しにくい不要成分も多い。このため、不要成分の輪郭を厳密に抽出するのではなく、本実施例のように実際の不要成分よりもある程度広い不要成分領域を設定したほうが後段の不要成分低減処理を行う場合に自然な画像が得られる。従って、不要成分の周辺部が少し多めに抽出されていても構わない。 Subsequently, in step S124, the image processing unit 204 (extraction processing unit 204b) performs processing (region expansion processing) for expanding the “region where unnecessary components exist” binarized in step S123. FIG. 1 (I-1) shows an image after the area enlargement process. FIG. 1 (I-2) shows a luminance cross section along the broken line in FIG. 1 (I-1). By performing the smoothing process in step S120, the contrast increasing process in step S121, and the threshold process in step 122, the subject parallax component can be removed or reduced. At the same time, however, unnecessary components are reduced to some extent. In this case, there is a possibility that the “region where the unnecessary component exists” that is finally left after binarization does not completely cover the entire region including the unnecessary component. Therefore, in step S124, the region where the unnecessary component reduced by the smoothing process or the like is expanded so as to cover the entire region actually including the unnecessary component. Note that unnecessary components such as ghosts may have sharp edges or blurs, and there are many unnecessary components in which it is difficult to actually define the contour. For this reason, instead of strictly extracting the outline of the unnecessary component, it is more natural to set the unnecessary component region that is somewhat wider than the actual unnecessary component as in this embodiment when the unnecessary component reduction process is performed later. Is obtained. Therefore, the peripheral part of the unnecessary component may be extracted a little more.
続いてステップS125において、画像処理部204(抽出処理部204b)は、ステップS124の結果に基づいて不要成分領域(第1不要成分領域)を決定する。第1不要成分領域は、第1不要成分に含まれる視差成分を低減または除去するためのマスクとして利用される。 Subsequently, in step S125, the image processing unit 204 (extraction processing unit 204b) determines an unnecessary component region (first unnecessary component region) based on the result of step S124. The first unnecessary component region is used as a mask for reducing or removing the parallax component included in the first unnecessary component.
次に、ステップS106において、画像処理部204(抽出処理部204b)は、ステップS104にて決定された第1不要成分と、ステップS125にて決定された第1不要成分領域(マスク)とに基づいて、第2不要成分を決定する。具体的には、抽出処理部204bは、第1不要成分に対して第1不要成分領域(マスク)を用いたマスキング処理を行い、第1不要成分からゴーストなどの不要成分が含まれる領域のみを第2不要成分として抽出する。例えば、図1(I−1)の輝度値が255の領域に関しては、図1(D−1)の同じ領域の輝度値を維持する。一方、図1(I−1)の輝度値がゼロの領域に関しては、図1(D−1)の同じ領域の輝度値をゼロに置き換える。これにより、図1(D−1)の第1不要成分画像から被写体視差成分を低減した図1(J−1)の画像が得られる。 Next, in step S106, the image processing unit 204 (extraction processing unit 204b) is based on the first unnecessary component determined in step S104 and the first unnecessary component region (mask) determined in step S125. Thus, the second unnecessary component is determined. Specifically, the extraction processing unit 204b performs a masking process using the first unnecessary component region (mask) on the first unnecessary component, and only the region including unnecessary components such as ghosts from the first unnecessary component. Extracted as a second unnecessary component. For example, for the region having the luminance value of 255 in FIG. 1 (I-1), the luminance value of the same region in FIG. 1 (D-1) is maintained. On the other hand, regarding the region where the luminance value in FIG. 1 (I-1) is zero, the luminance value in the same region in FIG. 1 (D-1) is replaced with zero. Thereby, the image of FIG. 1 (J-1) obtained by reducing the subject parallax component from the first unnecessary component image of FIG. 1 (D-1) is obtained.
このように、第1不要成分(第1不要成分画像)から被写体視差成分を低減または除去した成分を第2不要成分といい、第2不要成分を画像化したものを第2不要成分画像(図1(J−1))という。本実施例では、図1(I−1)に示されるようにはっきりと領域が分かれたマスクを作成しているが、図1(I−1)の輝度値がゼロと255の境界部分をぼかしてグラデーションマスクとしてもよい。この場合、グラデーション部分を重み係数として、図1(D−1)に対してマスキング処理を行う。 As described above, a component obtained by reducing or removing the subject parallax component from the first unnecessary component (first unnecessary component image) is referred to as a second unnecessary component, and an image obtained by imaging the second unnecessary component is a second unnecessary component image (FIG. 1 (J-1)). In this embodiment, a mask with clearly divided regions is created as shown in FIG. 1 (I-1), but the boundary between the luminance values of zero and 255 in FIG. 1 (I-1) is blurred. Or a gradation mask. In this case, masking processing is performed on FIG. 1D-1 using the gradation portion as a weighting coefficient.
最後に、ステップS107において、画像処理部204(不要成分低減部204d)は、ステップS106にて決定された第2不要成分とステップS105にて生成された視差合成画像とに基づいて、不要成分低減処理を行う。具体的には、不要成分低減部204dは、図1(C−1)の視差合成画像から図1(J−1)の第2不要成分(第2不要成分画像)を差し引く。これにより、図1(K−1)に示される不要成分低減画像が生成される。 Finally, in step S107, the image processing unit 204 (unnecessary component reduction unit 204d) reduces unnecessary components based on the second unnecessary component determined in step S106 and the parallax composite image generated in step S105. Process. Specifically, the unnecessary component reduction unit 204d subtracts the second unnecessary component (second unnecessary component image) in FIG. 1 (J-1) from the parallax composite image in FIG. 1 (C-1). Thereby, the unnecessary component reduced image shown in FIG. 1 (K-1) is generated.
本実施例において、平滑化処理における平滑化量(ぼかし量)、コントラストアップ処理におけるコントラスト変更量、閾値処理における閾値、および、領域拡大処理における拡大量は、それぞれ適宜変更可能である。また本実施例において、平滑化処理、コントラストアップ処理、および、閾値処理は、これらに限定されるものではなく、同様の効果を有する処理であれば他の処理を用いてもよい。なお本実施例では、説明簡略化のため、グレースケール画像の例を示しているが、カラー画像でも同様に適用可能である。この場合、各色チャンネルで独立して前述の処理を行い、最終的に各色を合成して1枚の画像にすればよい。 In the present embodiment, the smoothing amount (blurring amount) in the smoothing process, the contrast change amount in the contrast-up process, the threshold value in the threshold process, and the enlargement amount in the area enlargement process can be changed as appropriate. In the present embodiment, the smoothing process, the contrast increasing process, and the threshold process are not limited to these, and other processes may be used as long as they have similar effects. In this embodiment, an example of a gray scale image is shown for the sake of simplicity of explanation, but a color image can be similarly applied. In this case, the above-described processing is performed independently for each color channel, and the respective colors are finally combined into one image.
本実施例によれば、被写体視差成分を含む第1不要成分から、被写体視差成分を低減させた第2不要成分を決定することができる。また本実施例によれば、視差合成画像から第2不要成分を低減させた不要成分低減画像を生成することができる。 According to the present embodiment, it is possible to determine the second unnecessary component in which the subject parallax component is reduced from the first unnecessary component including the subject parallax component. Further, according to the present embodiment, it is possible to generate an unnecessary component reduced image in which the second unnecessary component is reduced from the parallax composite image.
次に、本発明の実施例2について説明する。本実施例は、抽出処理の方法に関して実施例1と異なる。本実施例において、撮像装置の基本構成は、図5を参照して説明した実施例1の撮像装置200と同様であるため、その説明は省略する。また本実施例の画像処理方法は、実施例1と処理フローや算出方法が異なるだけであり、その結果は同様である。 Next, a second embodiment of the present invention will be described. The present embodiment is different from the first embodiment with respect to the extraction processing method. In this embodiment, the basic configuration of the imaging apparatus is the same as that of the imaging apparatus 200 of Embodiment 1 described with reference to FIG. Further, the image processing method of the present embodiment is different from the first embodiment only in the processing flow and the calculation method, and the result is the same.
本実施例は、実施例1の抽出処理の前半において、第1不要成分中のエッジ成分を抽出して低減する処理を加えている。実施例1にて説明したように、被写体視差成分は視差ずれ量であり、そのずれ量はピントが合っている被写体からの距離に応じて決定される。ピントが合っている被写体から近い場合、視差ずれ量は小さく、第1不要成分中に現れる被写体視差成分は線状になる。一方、ピントが合っている被写体から遠い場合、視差ずれ量は大きく、第1不要成分中に現れる被写体視差成分は少し幅を有する面状になる。 In the present embodiment, processing for extracting and reducing edge components in the first unnecessary component is added in the first half of the extraction processing of the first embodiment. As described in the first embodiment, the subject parallax component is the amount of parallax shift, and the amount of shift is determined according to the distance from the subject in focus. When the subject is close to the focused subject, the amount of parallax deviation is small, and the subject parallax component appearing in the first unnecessary component is linear. On the other hand, when the subject is far from the focused subject, the amount of parallax deviation is large, and the subject parallax component appearing in the first unnecessary component has a planar shape with a little width.
それに対して、ゴーストなどの不要成分は大きな面状であることが多いため、被写体視差成分と不要成分とは、その形状に特徴的な相違を有することが多い。このため、実施例1にて図8を参照して説明したステップS120の平滑化処理などを行う前に、線状の被写体視差成分などのエッジ成分を低減させると、後段の平滑化処理などの負荷を軽減することができるため、好ましい。そこで本実施例は、第1不要成分中のエッジ成分を抽出して低減する処理を加えている。 On the other hand, unnecessary components such as ghosts are often large planes, and thus subject parallax components and unnecessary components often have characteristic differences in their shapes. For this reason, if edge components such as a linear subject parallax component are reduced before performing the smoothing process in step S120 described with reference to FIG. 8 in the first embodiment, the subsequent smoothing process, etc. This is preferable because the load can be reduced. In this embodiment, therefore, processing for extracting and reducing edge components in the first unnecessary component is added.
図10乃至図12を参照して、撮像装置200により生成される撮影画像において、不要光が光電変換されることで現れる画像成分である不要成分を決定する方法について説明する。図10乃至図12は、画像処理方法の手順を示す図である。 With reference to FIG. 10 to FIG. 12, a method for determining an unnecessary component that is an image component that appears in a captured image generated by the imaging apparatus 200 by photoelectric conversion of unnecessary light will be described. 10 to 12 are diagrams illustrating a procedure of the image processing method.
本実施例において、被写体視差成分は、ボケている被写体Bに存在している。図10(A−1)、(B−1)の視差画像間において、被写体Bは左右に視差ずれしている。図10(A−2)、(B−2)は、図10(A−1)、(B−1)中の破線部に沿った一対の視差画像の輝度断面をそれぞれ示す。図10(A−2)、(B−2)のグラフ内の数値は、不要成分の輝度値Yである。例えば図10(A−2)において、背景輝度値は50、視差ずれを有する被写体Bの輝度値は100である。図10(A−3)、(B−3)は、図10(A−1)、(B−1)中の一点鎖線部に沿った一対の視差画像の輝度断面をそれぞれ示す。図10(A−3)、(B−3)のグラフ内の数値は、不要成分の輝度値Yである。例えば図10(A−3)において、被写体Aの輝度値は100、不要成分Aの輝度値は160、不要成分Bの輝度値は130である。 In the present embodiment, the subject parallax component exists in the blurred subject B. Between the parallax images in FIGS. 10A-1 and 10B-1, the subject B is deviated from side to side. FIGS. 10A-2 and 10B-2 show luminance cross sections of a pair of parallax images along the broken line portions in FIGS. 10A-1 and 10B-1, respectively. The numerical values in the graphs of FIGS. 10A-2 and B-2 are the luminance value Y of the unnecessary component. For example, in FIG. 10A-2, the background luminance value is 50, and the luminance value of the subject B having a parallax shift is 100. FIGS. 10A-3 and 10B-3 show luminance cross sections of a pair of parallax images taken along the alternate long and short dash line in FIGS. 10A-1 and 10B-1, respectively. The numerical values in the graphs of FIGS. 10A-3 and B-3 are the luminance values Y of unnecessary components. For example, in FIG. 10A-3, the luminance value of the subject A is 100, the luminance value of the unnecessary component A is 160, and the luminance value of the unnecessary component B is 130.
図10(C−1)は、図10(A−1)と図10(B−1)を加算合成した画像(視差合成画像)を示す。図10(C−2)、(C−3)は、図10(C−1)中の破線部および一点鎖線部に沿った視差合成画像の輝度断面をそれぞれ示す。この視差合成画像は、「瞳分割を行わない撮像」により生成された撮影画像と等価である。本実施例では、一対の視差画像を加算合成することにより、「瞳分割を行わない撮像」により生成された撮影画像と同等の明るさになる。一対の視差画像を加算平均することにより、「瞳分割を行わない撮像」により生成された撮影画像と同等の明るさになるような撮像装置を用いても構わない。その場合に関しては、実施例5にて後述する。 FIG. 10C-1 shows an image (parallax composite image) obtained by adding and synthesizing FIGS. 10A-1 and 10B-1. FIGS. 10C-2 and 10C-3 respectively show the luminance cross sections of the parallax composite image along the broken line portion and the alternate long and short dash line portion in FIG. This parallax composite image is equivalent to a captured image generated by “imaging without pupil division”. In the present embodiment, by adding and synthesizing a pair of parallax images, the brightness is equivalent to that of a captured image generated by “imaging without pupil division”. You may use the imaging device which becomes the brightness equivalent to the picked-up image produced | generated by "the imaging which does not perform pupil division" by carrying out the averaging of a pair of parallax image. Such a case will be described later in a fifth embodiment.
図10(D−1)は、一対の視差画像に関し、図10(A−1)から図10(B−1)の画像を差し引いた状態の画像と、図10(B−1)から図10(A−1)の画像を差し引いた状態の画像とを加算合成した画像(差分合成画像、第1不要成分画像)を示す。図10(D−2)、(D−3)は、図10(D−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面を示す。このように、図10(D−1)の差分合成画像は、図10(C−1)から被写体や背景が取り除かれた画像であり、図10(C−1)に含まれる不要成分および被写体視差成分のみを含む。 FIG. 10D-1 relates to a pair of parallax images, an image in a state where the image of FIG. 10B-1 is subtracted from FIG. 10A-1, and FIG. 10B-1 to FIG. An image (difference synthesized image, first unnecessary component image) obtained by adding and synthesizing an image obtained by subtracting the image of (A-1) is shown. 10D-2 and 10D-3 illustrate luminance cross sections along each of the broken line portion and the alternate long and short dash line portion in FIG. 10D-1 is an image obtained by removing the subject and the background from FIG. 10C-1, and the unnecessary component and the subject included in FIG. Contains only the parallax component.
このように、各視差画像について差分計算を行うことにより、不要成分のみを残存させ(換言すると、分離または抽出し)、第1不要成分(第1不要成分画像)を決定することができる。ただし、本実施例のように被写体視差成分が存在する場合、第1不要成分画像には不要成分と被写体視差成分とが混在している。このため、不要成分を高精度に決定するには、被写体視差成分を低減または除去する必要がある。そこで本実施例では、第1不要成分から被写体視差成分を低減する。 In this way, by performing the difference calculation for each parallax image, only the unnecessary component remains (in other words, separated or extracted), and the first unnecessary component (first unnecessary component image) can be determined. However, when the subject parallax component exists as in the present embodiment, the unnecessary component and the subject parallax component are mixed in the first unnecessary component image. For this reason, it is necessary to reduce or remove the subject parallax component in order to determine the unnecessary component with high accuracy. Therefore, in this embodiment, the subject parallax component is reduced from the first unnecessary component.
次に、図9を参照して、本実施例における画像処理方法(被写体視差成分の低減処理)について説明する。図9は、画像処理方法を示すフローチャートである。図9の各ステップは、システムコントローラ210または画像処理部204により、コンピュータプログラムとしての画像処理プログラムに従って実行される。 Next, an image processing method (subject parallax component reduction process) in the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing an image processing method. Each step in FIG. 9 is executed by the system controller 210 or the image processing unit 204 in accordance with an image processing program as a computer program.
図9のステップS201〜S207は、図8を参照して説明した実施例1のステップS101〜S107とそれぞれ同様である。また、図9のステップS208(S220〜S225)は、図8を参照して説明した実施例1のステップS108(S120〜S125)とそれぞれ同様である。このため、これらのステップに関する説明は省略する。本実施例は、ステップS204とステップS220との間にステップS210〜S213が挿入されている(実施例1の抽出処理にステップS210〜S213が付加されている)点で、実施例1とは異なる。 Steps S201 to S207 in FIG. 9 are the same as steps S101 to S107 in the first embodiment described with reference to FIG. Further, step S208 (S220 to S225) in FIG. 9 is the same as step S108 (S120 to S125) in the first embodiment described with reference to FIG. For this reason, the description regarding these steps is omitted. The present embodiment is different from the first embodiment in that steps S210 to S213 are inserted between steps S204 and S220 (steps S210 to S213 are added to the extraction process of the first embodiment). .
ステップS210において、画像処理部204(抽出処理部204b)は、視差合成画像から不要成分を低減または除去する補正処理を行い、不要成分低減画像(第1不要成分低減画像)を生成する。図10(E−1)は、第1不要成分低減画像を示す。図10(E−2)、(E−3)は、図10(E−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面を示す。具体的には、抽出処理部204bは、図10(C−1)の画像から図10(D−1)の画像を差し引くことにより、第1不要成分を低減または除去することができる。この処理を行うと、被写体視差成分についても除去されてしまうため、視差ずれを有する丸い被写体Bの形が変化する(この例では、被写体Bは視差ずれ分だけ小さくなる)。 In step S210, the image processing unit 204 (extraction processing unit 204b) performs a correction process for reducing or removing unnecessary components from the parallax composite image, and generates an unnecessary component reduced image (first unnecessary component reduced image). FIG. 10E-1 shows the first unnecessary component reduced image. FIGS. 10E-2 and 10E-3 show luminance cross sections along the broken line portion and the alternate long and short dash line portion in FIG. Specifically, the extraction processing unit 204b can reduce or remove the first unnecessary component by subtracting the image of FIG. 10D-1 from the image of FIG. 10C-1. When this processing is performed, the subject parallax component is also removed, so that the shape of the round subject B having a parallax shift changes (in this example, the subject B is reduced by the amount of the parallax shift).
続いてステップS211において、画像処理部204(抽出処理部204b)は、第1不要成分低減画像にボケを付加し、ボケ画像を生成する。図10(F−1)は、ボケ画像を示す。図10(F−2)、(F−3)は、図10(F−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面を示す。具体的には、抽出処理部204bは、第1不要成分低減画像に対してぼかし効果のあるフィルタによるフィルタ処理を実行する。本実施例では、例えば、ぼかし量を調整可能なガウシアンフィルタが用いられる。被写体Bのボケ量が既知の場合、ぼかし量としてのフィルタ係数にガウス分布の標準偏差を被写体視差成分に対して十分大きくなるように設定してもよい。一方、状態検知部207から得られる光学系201の焦点距離や絞り値Fnoなどの撮影条件を参照することにより、ぼかし量を決定することもできる。ぼかし量とは、ガウス分布の標準偏差量などのボケの強さを制御するパラメータやフィルタサイズによるボケの範囲を制御するパラメータに応じて決定される量である。光学系201の焦点距離や絞り値Fnoに応じて被写体の視差ずれ量(被写体視差成分の領域サイズに対応)が異なるため、撮影条件を参照することにより適切なぼかし量を決定することができ、フィルタサイズを削減することが可能となる。 Subsequently, in step S211, the image processing unit 204 (extraction processing unit 204b) adds blur to the first unnecessary component reduced image to generate a blur image. FIG. 10F-1 shows a blurred image. FIGS. 10F-2 and F-3 show luminance cross sections along broken line portions and dashed-dotted line portions in FIG. Specifically, the extraction processing unit 204b performs filter processing using a filter having a blurring effect on the first unnecessary component reduced image. In the present embodiment, for example, a Gaussian filter capable of adjusting the blur amount is used. When the blur amount of the subject B is known, the standard deviation of the Gaussian distribution may be set to be sufficiently larger than the subject parallax component in the filter coefficient as the blur amount. On the other hand, the blurring amount can be determined by referring to photographing conditions such as the focal length of the optical system 201 and the aperture value Fno obtained from the state detection unit 207. The blur amount is an amount determined according to a parameter for controlling the intensity of blur, such as a standard deviation amount of a Gaussian distribution, or a parameter for controlling a blur range by a filter size. Since the amount of parallax deviation of the subject (corresponding to the region size of the subject parallax component) differs according to the focal length and aperture value Fno of the optical system 201, an appropriate blur amount can be determined by referring to the shooting conditions. It is possible to reduce the filter size.
本実施例では、画面全体に対して同一のぼかし量を設定しているが、被写体距離情報が既知であれば、被写体ごとに距離に応じてぼかし量を変更してもよい。被写体距離に応じて被写体の視差ずれ量が異なるため、被写体ごとに距離に応じてぼかし量を変更することにより、各被写体に適切なぼかし量を決定することができ、フィルタサイズを削減することが可能となる。フィルタサイズを削減することにより、ボケ付加処理の処理負荷を低減することができる。ここで、被写体距離情報に関しては、例えば一対の視差画像に対して一般的に知られているブロックマッチング法で被写体の対応点を抽出し、視差画像間の対応点画素の画素位置差分として視差量を算出することができる。そして、算出された視差量と既知の情報である撮像系の焦点距離と瞳分割による基線長データとに基づいて、撮影被写体に対する距離情報(被写体距離情報)を算出することができる。本実施例において、このような被写体距離情報算出ステップを追加しても構わない。なお本実施例では、被写体Bのボケ量(視差ずれ量)は未知であるとし、ぼかし量としてのフィルタ係数にガウス分布の標準偏差を被写体視差成分に対して少なくなるように設定している。 In the present embodiment, the same blur amount is set for the entire screen. However, if the subject distance information is known, the blur amount may be changed according to the distance for each subject. Since the amount of parallax deviation of the subject varies depending on the subject distance, the blur amount appropriate for each subject can be determined by changing the blur amount according to the distance for each subject, and the filter size can be reduced. It becomes possible. By reducing the filter size, the processing load of the blur addition process can be reduced. Here, regarding subject distance information, for example, corresponding points of a subject are extracted by a block matching method generally known for a pair of parallax images, and the amount of parallax is calculated as a pixel position difference of corresponding point pixels between parallax images. Can be calculated. Then, based on the calculated parallax amount, the focal length of the imaging system, which is known information, and the baseline length data obtained by pupil division, distance information (subject distance information) with respect to the photographic subject can be calculated. In this embodiment, such a subject distance information calculation step may be added. In this embodiment, the blur amount (parallax deviation amount) of the subject B is unknown, and the standard deviation of the Gaussian distribution is set to be smaller than the subject parallax component in the filter coefficient as the blur amount.
続いてステップS212において、画像処理部204(抽出処理部204b)は、ステップS211にて生成されたボケ画像と、ステップS210にて生成された第1不要成分低減画像との差分を求め、ボケ差分画像を生成する。図10(G−1)は、ボケ差分画像を示す。図10(G−2)、(G−3)は、図10(G−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面を示す。これにより、第1不要成分低減画像のエッジ部分を抽出することができる。続いてステップS213において、画像処理部204(抽出処理部204b)は、ステップS204にて決定された第1不要成分画像と、ステップS212にて生成されたボケ差分画像との差分により、エッジ低減画像を生成する。 Subsequently, in step S212, the image processing unit 204 (extraction processing unit 204b) obtains a difference between the blurred image generated in step S211 and the first unnecessary component reduced image generated in step S210. Generate an image. FIG. 10G-1 shows a blurred difference image. FIGS. 10G-2 and G-3 illustrate luminance cross sections along the broken line portion and the alternate long and short dash line portion in FIG. Thereby, the edge portion of the first unnecessary component reduced image can be extracted. Subsequently, in step S213, the image processing unit 204 (extraction processing unit 204b) determines an edge reduced image based on a difference between the first unnecessary component image determined in step S204 and the blur difference image generated in step S212. Is generated.
ここで、図12を参照して、第1不要成分低減画像にボケを付加してボケ画像を生成し、かつ、ボケ画像と第1不要成分低減画像との差分を求めることにより、エッジを抽出することができる理由について説明する。図12(A−1)〜(H−1)は、視差ずれを有する被写体Bに着目した図であり、各図中に不要成分は描かれていない。また、図12(A−2)〜(H−2)は、不要成分Bに着目した図であり、各図中に被写体視差成分は描かれていない。図12は画像の輝度断面図に相当し、縦軸は輝度、横軸は座標をそれぞれ示す。 Here, referring to FIG. 12, a blur image is generated by adding blur to the first unnecessary component reduced image, and an edge is extracted by obtaining a difference between the blur image and the first unnecessary component reduced image. Explain why you can. 12A-1 to 12H-1 are views focusing on the subject B having a parallax shift, and unnecessary components are not drawn in each drawing. 12A to 12H are diagrams focusing on the unnecessary component B, and the subject parallax component is not drawn in each diagram. FIG. 12 corresponds to a luminance cross-sectional view of an image, where the vertical axis represents luminance and the horizontal axis represents coordinates.
図12(A−1)、(B−1)、および、図12(A−2)、(B−2)は、それぞれ、一対の視差画像(第1視差画像、第2視差画像)を示す。特に、図12(A−1)、(B−1)は、被写体Bが視差ずれしている様子を示している。図12(C−1)、(C−2)は、図10(C−1)の視差合成画像を示す。図12(D−1)は、図9のステップS204にて決定された第1不要成分画像(第1不要成分)を示す。図12(E−1)は、ステップS210にて生成された第1不要成分低減画像を示す。図12(E−1)は、図12(C−1)と図12(D−1)との差分に相当する。図12(F−1)は、ステップS211にて生成されたボケ画像を示す。ここでは理解を容易にするため、図10(F−1)の状態とは異なる量のボケ量を与えて描かれている。図12(G−1)は、ステップS212にて生成されたボケ差分画像を示す。図12(G−1)は、図12(F−1)と図12(E−1)との差分に相当する。なお、差分を求めた際の負値はゼロ値に置き換えられており、以下も同様である。図12(H−1)は、ステップS213にて生成されたエッジ低減画像を示す。図12(H−1)は、図12(D−1)と図12(G−1)との差分に相当する。これにより、第1不要成分画像の被写体視差成分の輝度値を小さくすることできる。図12(D−2)〜(H−2)は、前述の図12(D−1)〜(H−1)と同様の処理を不要成分Bに対して行った結果をそれぞれ示す。 FIGS. 12A-1 and 12B-1 and FIGS. 12A-2 and 12B-2 each show a pair of parallax images (first parallax image and second parallax image). . In particular, FIGS. 12A-1 and 12B-1 illustrate a state in which the subject B is shifted in parallax. 12 (C-1) and (C-2) show the parallax composite image of FIG. 10 (C-1). FIG. 12D-1 shows the first unnecessary component image (first unnecessary component) determined in step S204 of FIG. FIG. 12E-1 shows the first unnecessary component reduced image generated in step S210. FIG. 12E-1 corresponds to the difference between FIG. 12C-1 and FIG. 12D-1. FIG. 12 (F-1) shows the blurred image generated in step S211. Here, for ease of understanding, a blur amount different from the state of FIG. 10F-1 is given. FIG. 12G-1 shows the blurred difference image generated in step S212. FIG. 12G-1 corresponds to the difference between FIG. 12F-1 and FIG. In addition, the negative value at the time of calculating | requiring a difference is substituted by the zero value, and the following is also the same. FIG. 12 (H-1) shows the edge reduced image generated in step S213. FIG. 12H-1 corresponds to the difference between FIG. 12D-1 and FIG. 12G-1. Thereby, the luminance value of the subject parallax component of the first unnecessary component image can be reduced. 12 (D-2) to (H-2) show the results of performing the same processing as that of FIGS. 12 (D-1) to (H-1) on the unnecessary component B, respectively.
図10(H−1)は、このようなエッジ低減処理の結果を示す。図10(H−2)、(H−3)は、図10(H−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面を示す。 FIG. 10H-1 shows the result of such edge reduction processing. FIGS. 10H-2 and 10H-3 show luminance cross sections along the broken line portion and the alternate long and short dash line portion in FIG.
本実施例では、ボケ差分画像を用いてエッジ低減画像を生成しているが、ボケ差分画像に対して実施例1で説明したような2値化処理を行い、2値化したボケ差分画像に基づいて第1不要成分画像に対するマスキング処理を行ってもよい。本実施例によれば、抽出処理としてステップS210〜S213を付加することにより、第1不要成分の輝度に実質的な影響を与えることなく被写体視差成分の輝度を低下させることができる。 In the present embodiment, the edge reduction image is generated using the blur difference image. However, the binarization process described in the first embodiment is performed on the blur difference image, and the binarized blur difference image is converted into the binarized blur difference image. Based on this, masking processing may be performed on the first unnecessary component image. According to the present embodiment, by adding steps S210 to S213 as extraction processing, the luminance of the subject parallax component can be reduced without substantially affecting the luminance of the first unnecessary component.
続くステップS220〜S225は、図8を参照して説明した実施例1のステップS120〜S125とそれぞれ同様であるため、それらの詳細な説明は省略する。図10(I−1)〜(L−1)、図11(A−1)は、ステップS220〜S225の各処理で得られた図にそれぞれ対応する。図10(I−2)、(I−3)は、図10(I−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面を示す。図10(J−2)、(J−3)は、図10(J−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面を示す。図10(K−2)、(K−3)は、図10(K−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面を示す。図10(L−2)、(L−3)は、図10(L−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面を示す。図11(A−2)、(A−3)は、図11(A−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面を示す。 The subsequent steps S220 to S225 are the same as steps S120 to S125 of the first embodiment described with reference to FIG. 8, and thus detailed description thereof is omitted. FIGS. 10 (I-1) to (L-1) and FIG. 11 (A-1) correspond to the diagrams obtained by the processes of steps S220 to S225, respectively. 10 (I-2) and (I-3) show luminance cross sections along the broken line portion and the alternate long and short dash line portion in FIG. 10 (I-1), respectively. 10 (J-2) and (J-3) show luminance cross sections along the broken line portion and the alternate long and short dash line portion in FIG. 10 (J-1), respectively. FIGS. 10K-2 and 10K-3 illustrate luminance cross sections along the broken line portion and the alternate long and short dash line portion in FIG. FIGS. 10 (L-2) and (L-3) show luminance cross sections along the broken line portion and the alternate long and short dash line portion in FIG. 10 (L-1). 11A-2 and 11A-3 illustrate luminance cross sections along each of the broken line portion and the alternate long and short dash line portion in FIG.
次に、ステップS206において、第1不要成分と第1不要成分領域に基づいて、第2不要成分を決定する。具体的には第1不要成分に対して第1不要成分領域をマスキング処理し、ゴーストなどの不要成分が含まれる部分のみを第2不要成分として抽出する。図11(B−1)は、第2不要成分(第2不要成分画像)を示す。図11(B−2)、(B−3)は、図11(B−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面を示す。 Next, in step S206, a second unnecessary component is determined based on the first unnecessary component and the first unnecessary component region. Specifically, the first unnecessary component region is masked with respect to the first unnecessary component, and only a portion including an unnecessary component such as a ghost is extracted as the second unnecessary component. FIG. 11B-1 shows the second unnecessary component (second unnecessary component image). 11B-2 and 11B-3 show luminance cross sections along the broken line portion and the alternate long and short dash line portion in FIG.
最後に、ステップS207において、画像処理部204(不要成分低減部204d)は、ステップS206にて決定された第2不要成分とステップS205にて生成された視差合成画像とに基づいて、不要成分低減処理を行う。具体的には、不要成分低減部204dは、図10(C−1)の視差合成画像から図11(B−1)の第2不要成分(第2不要成分画像)を差し引く。これにより、不要成分低減画像(第2不要成分低減画像)が生成される。図11(C−1)は、第2不要成分低減画像を示す。図11(C−2)、(C−3)は、図11(C−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面を示す。 Finally, in step S207, the image processing unit 204 (unnecessary component reduction unit 204d) reduces unnecessary components based on the second unnecessary component determined in step S206 and the parallax composite image generated in step S205. Process. Specifically, the unnecessary component reduction unit 204d subtracts the second unnecessary component (second unnecessary component image) in FIG. 11 (B-1) from the parallax composite image in FIG. 10 (C-1). Thereby, an unnecessary component reduced image (second unnecessary component reduced image) is generated. FIG. 11C-1 shows a second unnecessary component reduced image. 11C-2 and 11C-3 illustrate luminance cross sections along each of the broken line portion and the alternate long and short dash line portion in FIG.
本実施例によれば、被写体視差成分を含む第1不要成分から、被写体視差成分を低減させた第2不要成分を決定することができる。また本実施例によれば、視差合成画像から第2不要成分を低減させた不要成分低減画像(第2不要成分低減画像)を生成することができる。 According to the present embodiment, it is possible to determine the second unnecessary component in which the subject parallax component is reduced from the first unnecessary component including the subject parallax component. Moreover, according to the present Example, the unnecessary component reduced image (2nd unnecessary component reduced image) which reduced the 2nd unnecessary component from the parallax synthetic | combination image can be produced | generated.
本実施例において、ノイズ成分やオフセット成分を低減させるため、ステップS212のエッジ抽出結果の各座標の輝度値に対して係数を掛け、または、エッジの幅を拡張し、エッジを更に強調させてからステップS213のエッジ低減画像を生成してもよい。 In the present embodiment, in order to reduce the noise component and the offset component, the luminance value of each coordinate of the edge extraction result in step S212 is multiplied by a coefficient, or the edge width is expanded to further enhance the edge. The edge reduced image of step S213 may be generated.
次に、本発明の実施例3について説明する。本実施例は、抽出処理の方法に関して実施例1、2と異なる。本実施例において、撮像装置の基本構成は、図5を参照して説明した実施例1の撮像装置200と同様であるため、その説明は省略する。また本実施例の画像処理方法は、実施例1と処理フローや算出方法が異なるだけであり、その結果は同様である。 Next, Embodiment 3 of the present invention will be described. The present embodiment is different from the first and second embodiments with respect to the extraction processing method. In this embodiment, the basic configuration of the imaging apparatus is the same as that of the imaging apparatus 200 of Embodiment 1 described with reference to FIG. Further, the image processing method of the present embodiment is different from the first embodiment only in the processing flow and the calculation method, and the result is the same.
図13乃至図15を参照して、本実施例における画像処理方法(被写体視差成分の低減処理)について説明する。図13は、画像処理方法を示すフローチャートである。図13の各ステップは、システムコントローラ210または画像処理部204により、コンピュータプログラムとしての画像処理プログラムに従って実行される。図14および図15は、画像処理方法の手順を示す図である。 The image processing method (subject parallax component reduction processing) in the present embodiment will be described with reference to FIGS. FIG. 13 is a flowchart showing an image processing method. Each step in FIG. 13 is executed by the system controller 210 or the image processing unit 204 in accordance with an image processing program as a computer program. 14 and 15 are diagrams illustrating the procedure of the image processing method.
図13のステップS301〜S307は、図9を参照して説明した実施例2のステップS201〜S207とそれぞれ同様である。また、図13のステップS311〜S325は、図9を参照して説明した実施例2のステップS211〜S225とそれぞれ同様である。このため、これらのステップに関する説明は省略する。本実施例は、ステップS210に対応するステップがなく、第1不要成分(第1不要成分画像)に直接ボケを付加してボケ差分画像を生成する点で、実施例2とは異なる。本実施例では、ステップS210に対応するステップがないため、実施例2のように第1不要成分低減画像を生成しない。しかし、実施例2との比較を容易にするため、最後のステップS307にて生成される不要成分低減画像を「第2不要成分低減画像」とする。図14(A−1)〜(D−1)は、実施例2の図10(A−1)〜(D−1)にそれぞれ対応している。 Steps S301 to S307 in FIG. 13 are the same as steps S201 to S207 in the second embodiment described with reference to FIG. Further, steps S311 to S325 in FIG. 13 are the same as steps S211 to S225 in the second embodiment described with reference to FIG. For this reason, the description regarding these steps is omitted. The present embodiment is different from the second embodiment in that there is no step corresponding to step S210 and a blur difference image is generated by adding blur directly to the first unnecessary component (first unnecessary component image). In the present embodiment, since there is no step corresponding to step S210, the first unnecessary component reduced image is not generated as in the second embodiment. However, in order to facilitate the comparison with the second embodiment, the unnecessary component reduced image generated in the last step S307 is referred to as a “second unnecessary component reduced image”. 14A-1 to 14D correspond to FIGS. 10A-1 to 10D-1 of the second embodiment, respectively.
図15を参照して、実施例2のステップS210に対応するステップをなくし、第1不要成分(第1不要成分画像)に直接ボケを付加してボケ差分画像を生成することにより、被写体視差成分を低減できる理由について説明する。図15(A)〜(D)は、実施例2の図12(A−1)〜(D−1)にそれぞれ対応している。実施例2では、図12(E−1)に示されるように、第1不要成分低減画像を生成するが、本実施例では、図15(D)の第1不要成分画像にボケを付加し、図15(E)のボケ画像を生成する。本実施例のボケ付加方法は、実施例2のようにガウシアンフィルタ処理を用いるが、他のボケ付加方法を用いてもよい。 Referring to FIG. 15, the step corresponding to step S210 of the second embodiment is eliminated, and the subject parallax component is generated by adding the blur directly to the first unnecessary component (first unnecessary component image) to generate the blur difference image. The reason why can be reduced will be described. 15A to 15D correspond to FIGS. 12A-1 to 12D-1 of the second embodiment, respectively. In the second embodiment, the first unnecessary component reduced image is generated as shown in FIG. 12E-1, but in this embodiment, blur is added to the first unnecessary component image in FIG. The blurred image in FIG. 15E is generated. Although the blur addition method of the present embodiment uses Gaussian filter processing as in the second embodiment, other blur addition methods may be used.
本実施例は、ボケ差分画像を生成する方法が実施例2とは異なる。本実施例では、ステップS304にて決定された第1不要成分画像からステップS311にて生成されたボケ画像を差し引くことにより、ボケ差分画像を生成する。このとき、差分をとる方向は、実施例2とは逆となる。具体的には、図15(D)の第1不要成分画像から図15(E)のボケ画像を差し引く。その結果、図15(F)に示されるようなボケ差分画像が得られる。また、第1不要成分画像からボケ差分画像を差し引くことにより、エッジ低減画像が得られる。具体的には、図15(D)の第1不要成分画像から図15(F)のボケ差分画像を差し引く。その結果、図15(G)に示されるようなエッジ低減画像が得られる。これにより、第1不要成分画像のエッジ部分を低減することが可能となる。 The present embodiment is different from the second embodiment in the method for generating the blurred difference image. In the present embodiment, the blur difference image is generated by subtracting the blur image generated in step S311 from the first unnecessary component image determined in step S304. At this time, the direction in which the difference is taken is opposite to that in the second embodiment. Specifically, the blurred image in FIG. 15E is subtracted from the first unnecessary component image in FIG. As a result, a blur difference image as shown in FIG. 15F is obtained. Further, an edge reduced image is obtained by subtracting the blur difference image from the first unnecessary component image. Specifically, the blur difference image in FIG. 15F is subtracted from the first unnecessary component image in FIG. As a result, an edge reduced image as shown in FIG. 15G is obtained. As a result, the edge portion of the first unnecessary component image can be reduced.
図14(E−1)、(F−1)、(G−1)は、図15(E)、(F)、(G)にそれぞれ対応し、図13のステップS311、S312、S313の処理でそれぞれ得られた画像である。図14(E−2)、(E−3)は、図14(E−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面である。図14(F−2)、(F−3)は、図14(F−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面である。図14(G−2)、(G−3)は、図14(G−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面である。 14 (E-1), (F-1), and (G-1) correspond to FIGS. 15 (E), (F), and (G), respectively, and the processes in steps S311, S312 and S313 in FIG. These images are obtained respectively. 14E-2 and 14E-3 are luminance cross sections along the broken line portion and the alternate long and short dash line portion in FIG. 14 (F-2) and 14 (F-3) are luminance cross sections along the broken line portion and the alternate long and short dash line portion in FIG. 14 (F-1). 14 (G-2) and (G-3) are luminance cross sections along the broken line portion and the alternate long and short dash line portion in FIG. 14 (G-1), respectively.
続くステップS308(S320〜S325)は、図9を参照して説明した実施例2のステップS208(S220〜S225)とそれぞれ同様であるため、それらの詳細な説明は省略する。図14(H−1)〜(M−1)は、ステップS320〜S325の処理によりそれぞれ得られた画像である。図14(H−2)、(H−3)は、図14(H−1)中の破線部および一点鎖線部のそれぞれに沿った輝度断面である。図14(I−2)、(I−3)、図14(J−1)、(J−2)、図14(K−1)、(K−2)、図14(L−2)、(L−3)についても、同様に、図14(I−1)〜(L−1)のそれぞれに対応する輝度断面である。 Subsequent steps S308 (S320 to S325) are the same as steps S208 (S220 to S225) of the second embodiment described with reference to FIG. 9, and thus detailed description thereof is omitted. 14 (H-1) to (M-1) are images obtained by the processes of steps S320 to S325, respectively. 14 (H-2) and (H-3) are luminance cross sections along the broken line portion and the alternate long and short dash line portion in FIG. 14 (H-1). 14 (I-2), (I-3), FIG. 14 (J-1), (J-2), FIG. 14 (K-1), (K-2), FIG. 14 (L-2), Similarly, (L-3) is a luminance cross section corresponding to each of FIGS. 14 (I-1) to (L-1).
次に、ステップS306において、第1不要成分と第1不要成分領域に基づいて、第2不要成分を決定する。具体的には第1不要成分に対して第1不要成分領域をマスキング処理し、ゴーストなどの不要成分が含まれる部分のみを第2不要成分として抽出する。 Next, in step S306, a second unnecessary component is determined based on the first unnecessary component and the first unnecessary component region. Specifically, the first unnecessary component region is masked with respect to the first unnecessary component, and only a portion including an unnecessary component such as a ghost is extracted as the second unnecessary component.
最後に、ステップS307において、画像処理部204(不要成分低減部204d)は、ステップS306にて決定された第2不要成分とステップS305にて生成された視差合成画像とに基づいて、不要成分低減処理を行う。具体的には、不要成分低減部204dは、図14(C−1)の視差合成画像から図14(M−1)の第2不要成分(第2不要成分画像)を差し引く。これにより、図14(N−1)に示されるような不要成分低減画像(第2不要成分低減画像)が生成される。 Finally, in step S307, the image processing unit 204 (unnecessary component reduction unit 204d) reduces unnecessary components based on the second unnecessary component determined in step S306 and the parallax composite image generated in step S305. Process. Specifically, the unnecessary component reduction unit 204d subtracts the second unnecessary component (second unnecessary component image) in FIG. 14 (M-1) from the parallax composite image in FIG. 14 (C-1). Thereby, an unnecessary component reduced image (second unnecessary component reduced image) as shown in FIG. 14 (N-1) is generated.
本実施例によれば、被写体視差成分を含む第1不要成分から、被写体視差成分を低減させた第2不要成分を決定することができる。また本実施例によれば、視差合成画像から第2不要成分を低減させた不要成分低減画像(第2不要成分低減画像)を生成することができる。 According to the present embodiment, it is possible to determine the second unnecessary component in which the subject parallax component is reduced from the first unnecessary component including the subject parallax component. Moreover, according to the present Example, the unnecessary component reduced image (2nd unnecessary component reduced image) which reduced the 2nd unnecessary component from the parallax synthetic | combination image can be produced | generated.
次に、本発明の実施例4について説明する。本実施例は、抽出処理の結果を表示部205(表示手段)に表示させる点で、実施例1〜3と異なる。本実施例において、撮像装置の基本構成は、図5を参照して説明した実施例1の撮像装置200と同様であるため、その説明は省略する。また、本実施例の画像処理方法のうち抽出処理としては、実施例1〜3と同様の抽出処理が適用可能である。 Next, a fourth embodiment of the present invention will be described. The present embodiment is different from Embodiments 1 to 3 in that the result of the extraction process is displayed on the display unit 205 (display means). In this embodiment, the basic configuration of the imaging apparatus is the same as that of the imaging apparatus 200 of Embodiment 1 described with reference to FIG. In addition, as the extraction process in the image processing method of the present embodiment, the same extraction process as in the first to third embodiments can be applied.
図16および図17を参照して、本実施例における画像処理方法(被写体視差成分の低減処理および不要成分抽出結果の表示処理)について説明する。図16は、画像処理方法を示すフローチャートである。図16の各ステップは、システムコントローラ210、画像処理部204、または、表示部205により、コンピュータプログラムとしての画像処理プログラムに従って実行される。図17は、画像処理方法による出力画像の一例である。 The image processing method (subject parallax component reduction processing and unnecessary component extraction result display processing) in the present embodiment will be described with reference to FIGS. FIG. 16 is a flowchart showing an image processing method. Each step in FIG. 16 is executed by the system controller 210, the image processing unit 204, or the display unit 205 in accordance with an image processing program as a computer program. FIG. 17 is an example of an output image obtained by the image processing method.
図16のステップS401〜S405は、実施例1のステップS101〜S105とそれぞれ同様である。また、抽出処理のステップS408として、実施例1のステップS108(S120〜S125)を適用可能である。これに代えて、実施例2のステップS208(S210〜S225)、または、実施例3のステップS308(S311〜S325)を適用してもよい。本実施例は、第1不要成分領域を決定した後にステップS450において第2不要成分領域を決定する点、および、ステップS451において表示部205は視差合成画像と共に第2不要成分領域を表示する点で、実施例1〜3と異なる。 Steps S401 to S405 in FIG. 16 are the same as steps S101 to S105 in the first embodiment, respectively. Further, step S108 (S120 to S125) of the first embodiment can be applied as step S408 of the extraction process. Instead of this, step S208 (S210 to S225) of the second embodiment or step S308 (S311 to S325) of the third embodiment may be applied. In this embodiment, the second unnecessary component region is determined in step S450 after the first unnecessary component region is determined, and the display unit 205 displays the second unnecessary component region together with the parallax composite image in step S451. , Different from Examples 1-3.
ステップS450において、画像処理部204(抽出処理部204b)は、ステップS408にて決定された第1不要成分領域に基づいて、第2不要成分領域(表示部205に表示される不要成分領域)を決定する。第2不要成分領域を決定する一番単純な方法は、第1不要成分領域をそのまま第2不要成分領域とすることである。具体的には、例えば実施例1〜3のそれぞれの図1(I−1)、図11(A−1)、図14(L−1)の輝度値が255である領域を、第2不要成分領域とする。これにより、容易に第2不要成分領域を決定することができる。または、第1不要成分領域を拡張または縮小するなどにより、後段のステップで表示部205に表示した際にユーザが判別しやすいように第1不要成分領域を加工した結果を、第2不要成分領域として決定してもよい。 In step S450, the image processing unit 204 (extraction processing unit 204b) determines a second unnecessary component region (an unnecessary component region displayed on the display unit 205) based on the first unnecessary component region determined in step S408. decide. The simplest method for determining the second unnecessary component region is to use the first unnecessary component region as it is as the second unnecessary component region. Specifically, for example, the regions where the luminance values in FIGS. 1 (I-1), 11 (A-1), and 14 (L-1) of Examples 1 to 3 are 255 are not necessary. The component area. Thereby, a 2nd unnecessary component area | region can be determined easily. Alternatively, the result of processing the first unnecessary component area so that the user can easily discriminate the result when the first unnecessary component area is expanded or reduced, for example, when the first unnecessary component area is displayed on the display unit 205 in the subsequent step. May be determined as
続いてステップS451において、システムコントローラ210および画像処理部204は、ステップS450にて決定された第2不要成分領域を、ステップS405にて生成された視差合成画像と共に表示部205に表示する。具体的には、図17(A)に示されるように、視差合成画像の上に第2不要成分領域を合成して表示部205に表示する。第2不要成分領域の表示方法は、ユーザにわかりやすいように、例えば領域内を着色、点滅させる、または、背景の視差合成画像を透かして表示させるなどにより行うことができる。例えば図17(B)に示されるように、撮影直後に、撮像装置200の背面ディスプレイ20(表示手段)に表示させてユーザが確認できるようにしてもよい。 Subsequently, in step S451, the system controller 210 and the image processing unit 204 display the second unnecessary component region determined in step S450 on the display unit 205 together with the parallax composite image generated in step S405. Specifically, as shown in FIG. 17A, the second unnecessary component region is synthesized on the parallax composite image and displayed on the display unit 205. The method for displaying the second unnecessary component region can be performed by, for example, coloring or blinking the region or displaying the background parallax composite image in a watermark so as to be easily understood by the user. For example, as shown in FIG. 17B, immediately after shooting, the image may be displayed on the rear display 20 (display unit) of the imaging apparatus 200 so that the user can check.
本実施例によれば、視差合成画像と共に不要成分領域(第2不要成分領域)を表示手段に表示することにより、ユーザにゴーストなどの不要成分が発生していることを認識させることが可能である。なお本実施例は、第2不要成分領域を表示させるように構成されていれば十分であり、第1不要成分から被写体視差成分を低減させた第2不要成分を決定することを必須とするものではない。 According to the present embodiment, the unnecessary component region (second unnecessary component region) is displayed on the display unit together with the parallax composite image, thereby allowing the user to recognize that an unnecessary component such as a ghost is generated. is there. In this embodiment, it is sufficient that the second unnecessary component region is configured to be displayed, and it is essential to determine the second unnecessary component obtained by reducing the subject parallax component from the first unnecessary component. is not.
次に、本発明の実施例5(複数の瞳分割)について説明する。本実施例は、視差の数が前述の実施例1〜4とは異なる。また、本実施例の画像処理方法は、視差画像を生成して第1不要成分を決定するステップまでの処理ステップは前述の各実施例とは異なるが、その後の処理ステップは各実施例と同様であるため、その説明は省略する。また本実施例において、撮像装置の基本構成は、図5を参照して説明した実施例1の撮像装置200と同様であるため、その説明は省略する。 Next, Example 5 (plural pupil division) of the present invention will be described. In this embodiment, the number of parallaxes is different from those of the first to fourth embodiments. In the image processing method of this embodiment, the processing steps up to the step of generating the parallax image and determining the first unnecessary component are different from those of the above-described embodiments, but the subsequent processing steps are the same as those of the embodiments. Therefore, the description thereof is omitted. In this embodiment, the basic configuration of the imaging apparatus is the same as that of the imaging apparatus 200 of Embodiment 1 described with reference to FIG.
図18は、本実施例における撮像素子(受光部)を示す図である。図18において、MLはマイクロレンズ、G1、G2、G3、G4は受光部(画素)であり、各画素は互いに組をなしている。撮像素子には、画素組G1、G2、G3、G4が複数配列されている。画素組は、共通の(すなわち、画素組ごとに1つずつ設けられた)マイクロレンズMLを介して射出瞳EXPと共役な関係を有する。本実施例では、「瞳分割を行わない撮像」により生成された撮影画像と等価な画像を出力する際には、4つの画素組G1、G2、G3、G4から得られた信号を加算平均処理することにより、1つの信号値を生成する。なお本実施例において、光学系の具体的な構成例は、図6を参照して説明した実施例1の光学系201と同様であるため、その説明は省略する。 FIG. 18 is a diagram illustrating an image sensor (light receiving unit) in the present embodiment. In FIG. 18, ML is a microlens, G1, G2, G3, and G4 are light receiving portions (pixels), and each pixel forms a pair. A plurality of pixel sets G1, G2, G3, and G4 are arranged on the image sensor. The pixel group has a conjugate relationship with the exit pupil EXP through a common microlens ML (that is, one pixel group is provided for each pixel group). In this embodiment, when an image equivalent to a captured image generated by “imaging without pupil division” is output, the signals obtained from the four pixel sets G1, G2, G3, and G4 are added and averaged. By doing so, one signal value is generated. In this embodiment, a specific configuration example of the optical system is the same as that of the optical system 201 of Embodiment 1 described with reference to FIG.
図19は、絞りSTPのうち、図18に示される画素G1、G2、G3、G4に入射する光束が通過する領域P1、P2、P3、P4(瞳領域または瞳分割領域)を示している。なお、絞りSTPは、光学系201の射出瞳EXP(光学系201の像面位置から見た虚像)に相当するものとして考えることができるが、実際には絞りSTPと射出瞳EXPは互いに異なる。高輝度物体(太陽SUN)からの光束は、絞りSTPを通過して各画素に入射する場合、領域P1、P2、P3、P4(瞳領域)に分割される。 FIG. 19 shows regions P1, P2, P3, and P4 (pupil regions or pupil division regions) through which light beams incident on the pixels G1, G2, G3, and G4 shown in FIG. The stop STP can be considered as corresponding to the exit pupil EXP of the optical system 201 (virtual image viewed from the image plane position of the optical system 201), but actually the stop STP and the exit pupil EXP are different from each other. When the light beam from the high-intensity object (sun SUN) passes through the stop STP and enters each pixel, it is divided into regions P1, P2, P3, and P4 (pupil regions).
続いて、図20および図21を参照して、撮像装置200により生成される撮影画像において、不要光が光電変換されることで現れる画像成分である不要成分を決定する方法について説明する。図20および図21は、本実施例における画像処理方法の手順を示す図である。 Next, with reference to FIGS. 20 and 21, a method for determining an unnecessary component that is an image component that appears in a captured image generated by the imaging apparatus 200 as a result of photoelectric conversion of unnecessary light will be described. 20 and 21 are diagrams showing the procedure of the image processing method in the present embodiment.
図20(A−1)、(B−1)、(C−1)、(D−1)は、それぞれ、領域P1、P2、P3、P4を通過した光束を画素群G1、G2、G3、G4にて光電変換した結果として得られた一組の視差画像を示す。また、一組の視差画像には、三角の被写体A、丸の被写体B、四角として模式的に示される不要成分Aおよび不要成分Bが含まれている。これらの視差画像において、被写体Aにピントが合っており、被写体Bは被写体Aの奥にあるため、所定の視差量だけずれて写っている。視差画像間での各不要成分は、図20(A−1)、(B−1)、(C−1)、(D−1)において、互いに同じ位置に存在し、それらの輝度は互いに異なっている。 20 (A-1), (B-1), (C-1), and (D-1) respectively show the luminous fluxes that have passed through the regions P1, P2, P3, and P4 as pixel groups G1, G2, G3, A set of parallax images obtained as a result of photoelectric conversion in G4 is shown. The set of parallax images includes a triangular subject A, a round subject B, and an unnecessary component A and an unnecessary component B, which are schematically shown as squares. In these parallax images, the subject A is in focus and the subject B is located behind the subject A, so that the subject A is shifted by a predetermined amount of parallax. Each unnecessary component between parallax images exists in the same position in FIGS. 20A-1, B-1, C- 1, and D- 1, and their luminances are different from each other. ing.
図20(E−1)は、図20(A−1)、(B−1)、(C−1)、(D−1)に示される視差画像に対して加算平均処理を行って合成した画像である。具体的には、図20(A−1)、(B−1)、(C−1)、(D−1)の各座標の輝度値を足して4で割ることにより、図20(E−1)の各座標の輝度値を算出する。図20(E−1)の画像は、本実施例の撮像装置において、「瞳分割を行わない撮像」により生成された撮影画像と等価である。また、図20(E−1)の画像は、ユーザが撮影画像を確認するために表示部205に表示する表示画像である。 20E-1 is synthesized by performing an averaging process on the parallax images shown in FIGS. 20A-1, (B-1), (C-1), and (D-1). It is an image. Specifically, the luminance values of the coordinates in FIGS. 20A-1, B-1, C- 1, and D- 1 are added and divided by 4 to obtain FIG. The luminance value of each coordinate of 1) is calculated. The image in FIG. 20E-1 is equivalent to a captured image generated by “imaging without pupil division” in the imaging apparatus of the present embodiment. In addition, the image in FIG. 20E-1 is a display image displayed on the display unit 205 so that the user can confirm the captured image.
図21(A−1)、(B−1)、(C−1)は、一組の視差画像に対して、図20(A−1)を基準画像として図20(B−1)、(C−1)、(D−1)の画像を差し引いた差分画像である。これらの差分画像には、実施例1と同様に、差分情報として不要成分が含まれている。また、実施例1と同様に、差分計算により、図21(A−1)、(B−1)、(C−1)に含まれる不要成分が負値として算出される部分があるが、ここでも後段の不要成分低減処理の簡易化のため、負値を切り捨てて0に置き換えている。これは、他の全ての差分画像についても同様である。図21(D−1)は、2次元データとして取得されている差分情報である図21(A−1)、(B−1)、(C−1)の差分画像内の各画素位置における差分情報間の最大値を抽出した情報(差分最大値情報または差分最大値画像)である。 21 (A-1), (B-1), and (C-1) show a set of parallax images, with FIG. 20 (A-1) as a reference image, and FIGS. C-1) is a difference image obtained by subtracting the images of (D-1). Similar to the first embodiment, these difference images include unnecessary components as difference information. Further, as in the first embodiment, there is a portion where unnecessary components included in FIGS. 21A-1, B-1 and C-1 are calculated as negative values by difference calculation. However, in order to simplify the unnecessary component reduction process in the latter stage, negative values are rounded down and replaced with 0. The same applies to all other difference images. FIG. 21D-1 is the difference information acquired as two-dimensional data, and the difference at each pixel position in the difference image of FIGS. 21A-1, (B-1), and (C-1). This is information obtained by extracting the maximum value between information (difference maximum value information or difference maximum value image).
図21(A−2)、(B−2)、(C−2)は、一組の視差画像に対して、図20(B−1)を基準画像として図20(A−1)、(C−1)、(D−1)の画像を差し引いた差分画像である。図21(D−2)は、2次元データとして取得されている差分情報である図21(A−2)、(B−2)、(C−2)の差分画像内の各画素位置における差分情報間の差分最大値情報である。 21 (A-2), (B-2), and (C-2) show a set of parallax images with FIG. 20 (B-1) as a reference image. C-1) is a difference image obtained by subtracting the images of (D-1). FIG. 21D-2 shows the difference information acquired as two-dimensional data, and the difference at each pixel position in the difference image of FIGS. 21A-2, B-2, and C-2. It is the difference maximum value information between information.
図21(A−3)、(B−3)、(C−3)は、一組の視差画像に対して、図20(C−1)を基準画像として図20(A−1)、(B−1)、(D−1)の画像を差し引いた差分画像である。図21(D−3)は、2次元データとして取得されている差分情報である図21(A−3)、(B−3)、(C−3)の差分画像内の各画素位置における差分情報間の差分最大値情報である。 21 (A-3), (B-3), and (C-3) show a set of parallax images with FIG. 20 (C-1) as a reference image. B-1) is a difference image obtained by subtracting the images of (D-1). FIG. 21 (D-3) is the difference information acquired as two-dimensional data, and the difference at each pixel position in the difference image of FIGS. 21 (A-3), (B-3), and (C-3). It is the difference maximum value information between information.
図21(A−4)、(B−4)、(C−4)は、一組の視差画像に対して、図20(D−1)を基準画像として図20(A−1)、(B−1)、(C−1)の画像を差し引いた差分画像である。図21(D−4)は、2次元データとして取得されている差分情報である図21(A−4)、(B−4)、(C−4)の差分画像内の各画素位置における差分情報間の差分最大値情報である。これらの差分最大値情報は、各視差画像から不要成分を抽出した結果である。 21 (A-4), (B-4), and (C-4) show a set of parallax images with reference to FIG. 20 (D-1) as a reference image. B-1) is a difference image obtained by subtracting the images of (C-1). FIG. 21 (D-4) shows the difference information at each pixel position in the difference image of FIGS. 21 (A-4), (B-4), and (C-4), which is difference information acquired as two-dimensional data. It is the difference maximum value information between information. The difference maximum value information is a result of extracting an unnecessary component from each parallax image.
ここで、実施例1〜4にて説明したように、第1不要成分(第1不要成分を画像化したものが第1不要成分画像)を決定する場合について考える。このとき、前述のように、差分最大値情報として視差画像ごとに不要成分が抽出されているため、一つの手法として各差分最大値情報が各々第1不要成分画像に対応すると考えられる。しかしながら、画像として以降の処理を視差画像枚数分だけ実行する必要があり、処理工程の複雑さを招く。そこで本実施例では、各差分最大値情報を1つに合成することにより、以降の処理を簡略化する。具体的には、図21(D−1)、(D−2)、(D−3)、(D−4)に対して加算平均処理を行い、これらの画像を合成する。図21(F−1)はその合成結果である。 Here, as described in the first to fourth embodiments, consider the case where the first unnecessary component (the first unnecessary component image obtained by imaging the first unnecessary component) is determined. At this time, as described above, an unnecessary component is extracted for each parallax image as the difference maximum value information. Therefore, it is considered that each difference maximum value information corresponds to the first unnecessary component image as one method. However, it is necessary to perform the subsequent processing as images for the number of parallax images, resulting in a complicated processing process. Therefore, in this embodiment, the subsequent processing is simplified by combining the maximum difference information into one. Specifically, addition averaging processing is performed on FIGS. 21D-1, D-2, D-3, and D-4 to synthesize these images. FIG. 21 (F-1) shows the synthesis result.
また本実施例において、差分画像内の各画素位置における差分情報間の差分最小値情報を抽出してもよい。図21(E−1)は、2次元データとして取得されている差分情報である図21(A−1)、(B−1)、(C−1)の差分画像内の各画素位置における差分情報間の最小値を抽出した情報(差分最小値情報または差分最小値画像)である。図21(E−2)は、2次元データとして取得されている差分情報である図21(A−2)、(B−2)、(C−2)の差分画像内の各画素位置における差分情報間の差分最小値情報である。図21(E−3)は、2次元データとして取得されている差分情報である図21(A−3)、(B−3)、(C−3)の差分画像内の各画素位置における差分情報間の差分最小値情報である。図21(E−4)は、2次元データとして取得されている差分情報である図21(A−4)、(B−4)、(C−4)の差分画像内の各画素位置における差分情報間の差分最小値情報である。図21(G−1)は、以降の処理を簡略化するために、図21(E−1)、(E−2)、(E−3)、(E−4)に対して加算平均処理を行い、各差分最小値情報を1つに合成した結果である。 In this embodiment, minimum value information between difference information at each pixel position in the difference image may be extracted. FIG. 21 (E-1) shows the difference information at each pixel position in the difference image of FIGS. 21 (A-1), (B-1), and (C-1), which is difference information acquired as two-dimensional data. It is information (difference minimum value information or difference minimum value image) obtained by extracting the minimum value between information. FIG. 21E-2 shows the difference information acquired as two-dimensional data, and the difference at each pixel position in the difference image of FIGS. 21A-2, B-2, and C-2. It is the difference minimum value information between information. FIG. 21E-3 shows the difference information at each pixel position in the difference image of FIGS. 21A-3, B-3, and C-3, which is difference information acquired as two-dimensional data. It is the difference minimum value information between information. FIG. 21E-4 is the difference information acquired as two-dimensional data. The difference at each pixel position in the difference image of FIGS. 21A-4, B-4, and C-4. It is the difference minimum value information between information. FIG. 21 (G-1) shows an addition averaging process for FIGS. 21 (E-1), (E-2), (E-3), and (E-4) in order to simplify the subsequent processing. This is the result of combining each difference minimum value information into one.
これらの差分最小値情報は、各視差画像から不要成分を抽出した結果である。差分最小値情報に基づいて低減処理を行うと、差分最大値情報を用いる場合と比べて、不要成分の低減量は減少するが、被写体視差成分の影響も少なくなる。このため、実施例1〜4の各処理フローを適用することにより、簡単に被写体視差成分を低減することができる。以降の処理フローは、実施例1〜4の各フローを適用可能であるため、ここでの説明は省略する。このように、視差数が増えた場合でも、「視差合成画像」および「第1不要成分画像」を算出することができる。以降の処理フローや基本的な取り扱い方は実施例1〜4と同様であるため、それらの詳細は省略する。 The minimum difference information is a result of extracting unnecessary components from each parallax image. When the reduction process is performed based on the difference minimum value information, the amount of reduction of the unnecessary component is reduced as compared with the case of using the difference maximum value information, but the influence of the subject parallax component is also reduced. For this reason, the subject parallax component can be easily reduced by applying each processing flow of the first to fourth embodiments. Since the subsequent processing flows can be applied to the flows of the first to fourth embodiments, description thereof is omitted here. Thus, even when the number of parallaxes increases, the “parallax composite image” and the “first unnecessary component image” can be calculated. Since the subsequent processing flow and basic handling are the same as in the first to fourth embodiments, their details are omitted.
本実施例によれば、1回の撮像で得られた複数の視差画像に基づく差分画像から不要光(ゴーストやフレア)により形成された不要成分を決定することができる。すなわち、複数回の撮像を行うことなく撮影画像に含まれる不要成分を決定することが可能である。また本実施例によれば、視差合成画像から不要成分を低減させた不要成分低減画像を得ることができる。なお本実施例では、説明簡略化のため、グレースケール画像の例を示しているが、カラー画像でも同様に適用可能である。この場合、各色チャンネルで独立して前述の処理を行い、最終的に各色を合成して1枚の画像にすればよい。 According to the present embodiment, an unnecessary component formed by unnecessary light (ghost or flare) can be determined from a difference image based on a plurality of parallax images obtained by one imaging. That is, it is possible to determine an unnecessary component included in a captured image without performing multiple imaging. Moreover, according to the present Example, the unnecessary component reduced image which reduced the unnecessary component from the parallax composite image can be obtained. In this embodiment, an example of a gray scale image is shown for the sake of simplicity of explanation, but a color image can be similarly applied. In this case, the above-described processing is performed independently for each color channel, and the respective colors are finally combined into one image.
次に、本発明の実施例6について説明する。Ren.Ng等の「Light Field Photography with a Hand−held Plenoptic Camera」(Stanford Tech Report CTSR 2005−2)において、「Plenoptic Camera」が提案されている。「Plenoptic Camera」において「Light Field Photography」という手法を用いることで、物体側からの光線の位置と角度の情報を取り込むことができる。 Next, a sixth embodiment of the present invention will be described. Ren. "Plenoptic Camera" has been proposed in "Light Field Photographic with a Hand-Held Plenoptic Camera" (Stanford Tech Report CTSR 2005-2) of Ng et al. By using the method “Light Field Photography” in “Plenoptic Camera”, it is possible to capture information on the position and angle of the light beam from the object side.
図22は、本実施例における撮像装置の撮像系を示す図であり、「Plenoptic Camera」の撮像系の構成を示している。光学系301は、主レンズ(撮影レンズ)301bと開口絞り301aとを備えて構成される。光学系301の結像位置には、マイクロレンズアレイ301cが配置されており、さらにその後方(像側)に撮像素子302が配置されている。マイクロレンズアレイ301cは、例えば点Aのような被写体空間のある一点を通る光線群と、点Aの近傍の点を通る光線とが撮像素子302上で混ざらないようにセパレータ(分離手段)としての機能を有する。図22から分かるように、点Aからの上線、主光線および下線は、それぞれ異なる画素によって受光される。このため、点Aを通る光線群を光線の角度ごとに分離して取得することができる。 FIG. 22 is a diagram illustrating an imaging system of the imaging apparatus according to the present embodiment, and illustrates a configuration of an imaging system of “Plenoptic Camera”. The optical system 301 includes a main lens (photographing lens) 301b and an aperture stop 301a. A microlens array 301c is disposed at the imaging position of the optical system 301, and an imaging element 302 is disposed behind (on the image side) of the microlens array 301c. The microlens array 301c serves as a separator (separating means) so that a ray group passing through a certain point in the subject space such as the point A and a ray passing through a point near the point A are not mixed on the image sensor 302. It has a function. As can be seen from FIG. 22, the upper line, chief ray and underline from point A are received by different pixels. For this reason, a group of rays passing through the point A can be obtained separately for each angle of rays.
また、Todor Georgive等による「Full Resolution Light Field Rendering」(Adobe Technical Report January 2008)が知られている。この文献では、光線の位置と角度の情報(Light Field)を取得する方法として、図23および図24に示される撮像系を提案している。 Also, “Full Resolution Light Field Rendering” (Adobe Technical Report January 2008) by Todor George et al. Is known. This document proposes an imaging system shown in FIG. 23 and FIG. 24 as a method of acquiring light position and angle information (Light Field).
図23に示される撮像系の構成では、マイクロレンズアレイ301cを主レンズ301bの結像位置よりも後方(像側)に配置し、点Aを通る光線群を撮像素子302上に再結像させることで、光線群を光線の角度ごとに分離して取得することができる。また、図24に示される撮像系の構成では、マイクロレンズアレイ301cを主レンズ301bの結像位置よりも前方(物体側)に配置し、点Aを通る光線群を撮像素子302上に結像させることで、光線群を光線の角度ごとに分離して取得することができる。いずれの構成も、光学系301の瞳を通過する光束を瞳内での通過領域(通過位置)に応じて分割する点は同じである。そして、これらの構成では、撮像素子302は、図25に示されるように、1つのマイクロレンズML(マイクロレンズアレイ301cとは異なる)と1つの受光部G1とがカラーフィルタCFを介して対になっている従来の撮像素子を用いることができる。 In the configuration of the imaging system shown in FIG. 23, the microlens array 301c is arranged behind (image side) the imaging position of the main lens 301b, and the light ray group passing through the point A is re-imaged on the imaging element 302. Thus, the light beam group can be obtained separately for each light beam angle. In the configuration of the imaging system shown in FIG. 24, the microlens array 301c is arranged in front of the imaging position of the main lens 301b (on the object side), and a light beam passing through the point A is imaged on the imaging device 302. By doing so, the light beam group can be obtained separately for each angle of the light beam. Both configurations are the same in that the light beam passing through the pupil of the optical system 301 is divided according to the passing region (passing position) in the pupil. In these configurations, as shown in FIG. 25, the image sensor 302 includes one microlens ML (different from the microlens array 301c) and one light receiving unit G1 in pairs via the color filter CF. A conventional imaging device can be used.
図22に示される光学系301を用いると、図26(a)に示されるような画像が得られる。図26(b)は、図26(a)中に多数並んだ円のうち1つを拡大して示している。1つの円は絞りSTPに相当し、その内側は複数の画素Pj(j=1、2、3、…)により分割されている。これにより、1つの円内で瞳の強度分布が得られる。また、図23および図24に示される光学系301を用いると、図27に示されるような視差画像が得られる。図26(a)に示される画像において、各円(絞りSTP)内の複数の画素Pjを並べて再構成することによっても、図27に示すような複数の視差画像が得られる。 When the optical system 301 shown in FIG. 22 is used, an image as shown in FIG. 26A is obtained. FIG. 26B shows an enlarged view of one of many circles arranged in FIG. One circle corresponds to the stop STP, and the inside thereof is divided by a plurality of pixels Pj (j = 1, 2, 3,...). Thereby, the intensity distribution of the pupil is obtained within one circle. Further, when the optical system 301 shown in FIGS. 23 and 24 is used, a parallax image as shown in FIG. 27 is obtained. In the image shown in FIG. 26A, a plurality of parallax images as shown in FIG. 27 can also be obtained by rearranging a plurality of pixels Pj in each circle (aperture STP) side by side.
実施例1〜5で説明したように、ゴーストなどの不要光は、瞳内で偏りを持って瞳を通過する。このため、本実施例のように瞳を分割して撮像する撮像装置において実施例1〜5にて説明した画像処理方法を使用することにより、不要成分を決定することができる。 As described in the first to fifth embodiments, unnecessary light such as ghost passes through the pupil with a bias in the pupil. For this reason, an unnecessary component can be determined by using the image processing method demonstrated in Examples 1-5 in the imaging device which divides | segments and images a pupil like a present Example.
また、別の例として、図28に示されるような複数のカメラを用いて同一被写体を撮像する場合でも、視差画像が得られる。このため、このような複数のカメラにおいても、実施例1〜5にて説明した画像処理方法を用いることができる。C1、C2、C3は、実際には別々の撮像装置であるが、大きな瞳を3つに分割して撮像する一体の撮像装置と見なすことができる。また、図29に示されるように、1つの撮像装置に複数の光学系OSj(j=1、2、3、…)を設けることで瞳分割を行うことも可能である。本実施例の撮像装置においても、第1不要成分から被写体視差成分を除去または低減させた第2不要成分を決定することができる。また、視差合成画像から第2不要成分を低減させた不要成分低減画像を得ることができる。 As another example, a parallax image can be obtained even when the same subject is imaged using a plurality of cameras as shown in FIG. For this reason, the image processing method described in the first to fifth embodiments can be used in such a plurality of cameras. C1, C2, and C3 are actually separate imaging devices, but can be regarded as an integrated imaging device that divides a large pupil into three images. In addition, as shown in FIG. 29, pupil division can be performed by providing a plurality of optical systems OSj (j = 1, 2, 3,...) In one imaging apparatus. Also in the imaging apparatus of the present embodiment, the second unnecessary component obtained by removing or reducing the subject parallax component from the first unnecessary component can be determined. In addition, an unnecessary component reduced image in which the second unnecessary component is reduced can be obtained from the parallax composite image.
上記各実施例では、画像処理方法を実行する撮像装置について説明したが、各実施例で説明した画像処理方法は、コンピュータ機器(画像処理装置)にインストールされる画像処理プログラムによっても実行可能である。この場合については、撮像システムとして後述の実施例7にて説明する。 In each of the above embodiments, the imaging apparatus that executes the image processing method has been described. However, the image processing method described in each embodiment can also be executed by an image processing program installed in a computer device (image processing apparatus). . This case will be described in Example 7 to be described later as an imaging system.
次に、図30を参照して、本発明の実施例7における撮像システムについて説明する。図30は、本実施例における撮像システム700の構成図である。図30に示されるように、撮像システム700は、撮像装置701、画像処理装置702、および、表示装置703を備えて構成される。 Next, with reference to FIG. 30, the imaging system in Example 7 of this invention is demonstrated. FIG. 30 is a configuration diagram of an imaging system 700 in the present embodiment. As illustrated in FIG. 30, the imaging system 700 includes an imaging device 701, an image processing device 702, and a display device 703.
撮像装置701は、前述の各実施例の撮像装置200に相当する。画像処理装置702は、各実施例の画像処理方法を実行するコンピュータ機器である。画像処理装置702は、不図示の通信部を有する。通信部は、撮像装置701から撮影画像(視差画像)を受信する。通信部を介した画像処理装置702と撮像装置701との接続は、有線または無線のいずれの接続方法を用いてもよい。 The imaging device 701 corresponds to the imaging device 200 of each of the above-described embodiments. The image processing apparatus 702 is a computer device that executes the image processing method of each embodiment. The image processing apparatus 702 has a communication unit (not shown). The communication unit receives a captured image (parallax image) from the imaging device 701. The connection between the image processing apparatus 702 and the imaging apparatus 701 via the communication unit may use either a wired or wireless connection method.
画像処理装置702により視差画像に基づいて算出された表示画像、または、視差画像にマスク画像の一部を付加した表示画像は、画像処理装置702に設けられた記憶部(不図示)に保存されるか、または、表示装置703に表示される。表示装置703は、例えば液晶ディスプレイやプロジェクタなどである。ユーザは、表示装置703を介して、画像処理途中の画像を確認しながら作業を行うことができる。ユーザは、この作業中に、第1不要成分領域や第2不要成分領域を指定してもよい。これによりユーザは、撮影画像中に不要成分が含まれるか否かに関する情報を、表示装置703を介して確認することができる。 The display image calculated based on the parallax image by the image processing device 702 or the display image obtained by adding a part of the mask image to the parallax image is stored in a storage unit (not shown) provided in the image processing device 702. Or displayed on the display device 703. The display device 703 is, for example, a liquid crystal display or a projector. The user can perform work while confirming an image in the middle of image processing via the display device 703. The user may specify the first unnecessary component region and the second unnecessary component region during this work. Accordingly, the user can check information regarding whether or not an unnecessary component is included in the captured image via the display device 703.
このように各実施例において、画像処理装置(画像処理部204)は、第1決定手段(不要成分検出部204a)および第2決定手段(抽出処理部204b)を有する。第1決定手段は、複数の視差画像の差分情報(例えば、差分画像または差分合成画像)に基づいて第1不要成分を決定する。第2決定手段は、第1不要成分から視差成分(被写体視差成分)を低減して第2不要成分を決定する。 As described above, in each embodiment, the image processing apparatus (image processing unit 204) includes the first determination unit (unnecessary component detection unit 204a) and the second determination unit (extraction processing unit 204b). The first determination unit determines a first unnecessary component based on difference information (for example, a difference image or a difference composite image) of a plurality of parallax images. The second determining means determines the second unnecessary component by reducing the parallax component (subject parallax component) from the first unnecessary component.
好ましくは、第2決定手段は、第1不要成分と、第1不要成分に基づいて作成されたマスク(第1不要成分領域)とに基づいて、第2不要成分を決定する。より好ましくは、第2決定手段は、第1不要成分の輝度値を変更してマスクを作成し、第1不要成分に対してマスクを用いたマスキング処理を行うことにより、第2不要成分を決定する。より好ましくは、第2決定手段は、第1不要成分に対して平滑化処理、コントラスト変更処理(コントラストアップ処理)、および、閾値処理の少なくとも一つを行うことにより、輝度値を変更する(S120、S121、S122)。より好ましくは、第2決定手段は、平滑化処理、コントラスト変更処理、および、閾値処理の少なくとも一つを行った後の第1不要成分に対して2値化処理を行う(S123)。より好ましくは、第2決定手段は、2値化処理後の第1不要成分に対して拡大処理を行う(S124)。より好ましくは、第2決定手段は、拡大処理後の第1不要成分に基づいてマスクを作成する(S125)。 Preferably, the second determining means determines the second unnecessary component based on the first unnecessary component and a mask (first unnecessary component region) created based on the first unnecessary component. More preferably, the second determining means determines the second unnecessary component by creating a mask by changing the luminance value of the first unnecessary component and performing a masking process using the mask on the first unnecessary component. To do. More preferably, the second determining unit changes the luminance value by performing at least one of a smoothing process, a contrast changing process (contrast increasing process), and a threshold process on the first unnecessary component (S120). , S121, S122). More preferably, the second determining means performs binarization processing on the first unnecessary component after performing at least one of smoothing processing, contrast changing processing, and threshold processing (S123). More preferably, the second determination unit performs an enlargement process on the first unnecessary component after the binarization process (S124). More preferably, the second determination unit creates a mask based on the first unnecessary component after the enlargement process (S125).
好ましくは、第2決定手段は、視差画像と第1不要成分とに基づいて不要成分低減画像(第1不要成分低減画像)を生成する(S210)。また第2決定手段は、不要成分低減画像にボケを付加したボケ画像と不要成分低減画像との差分に基づいてエッジ成分を決定する(S211、S212)。そして第2決定手段は、第1不要成分からエッジ成分を低減する(S213)。 Preferably, the second determination unit generates an unnecessary component reduced image (first unnecessary component reduced image) based on the parallax image and the first unnecessary component (S210). The second determining means determines an edge component based on the difference between the blurred image obtained by adding blur to the unnecessary component reduced image and the unnecessary component reduced image (S211 and S212). Then, the second determination unit reduces the edge component from the first unnecessary component (S213).
好ましくは、第2決定手段は、第1不要成分に基づいて第1不要成分画像を生成する(S304)。また第2決定手段は、第1不要成分画像にボケを付加したボケ画像と第1不要成分画像との差分に基づいてエッジ成分を決定する(S311、S312)。そして第2決定手段は、第1不要成分からエッジ成分を低減する(S313)。 Preferably, the second determination unit generates a first unnecessary component image based on the first unnecessary component (S304). The second determining unit determines an edge component based on the difference between the blurred image obtained by adding blur to the first unnecessary component image and the first unnecessary component image (S311 and S312). Then, the second determination unit reduces the edge component from the first unnecessary component (S313).
好ましくは、画像処理装置は、複数の視差画像に基づく画像から第2不要成分を低減する低減手段(不要成分低減部204c)を有する。より好ましくは、複数の視差画像に基づく画像は、複数の視差画像を合成した視差合成画像である。 Preferably, the image processing apparatus includes a reduction unit (unnecessary component reduction unit 204c) that reduces a second unnecessary component from an image based on a plurality of parallax images. More preferably, the image based on the plurality of parallax images is a parallax composite image obtained by combining the plurality of parallax images.
好ましくは、撮像装置は、第2不要成分を決定するために第1不要成分に基づいて作成されたマスクに関する情報を表示する表示手段(表示部205、背面ディスプレイ20)を有する。 Preferably, the imaging apparatus includes display means (display unit 205, rear display 20) for displaying information on a mask created based on the first unnecessary component in order to determine the second unnecessary component.
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
各実施例によれば、複数の撮像を行うことなく撮影画像の第1不要成分を決定し、第1不要成分から被写体視差成分を低減させた第2不要成分を決定可能な画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体を提供することができる。 According to each embodiment, the first unnecessary component of the photographed image is determined without performing a plurality of imaging, and the second unnecessary component in which the subject parallax component is reduced from the first unnecessary component can be determined. An apparatus, an image processing method, an image processing program, and a storage medium can be provided.
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although the preferable Example of this invention was described, this invention is not limited to these Examples, A various deformation | transformation and change are possible within the range of the summary.
204 画像処理部(画像処理装置)
204a 不要成分検出部(第1決定手段)
204b 抽出処理部(第2決定手段)
204 Image processing unit (image processing apparatus)
204a Unnecessary component detection unit (first determination means)
204b Extraction processing unit (second determining means)
Claims (17)
前記第1不要成分から視差成分を低減して第2不要成分を決定する第2決定手段と、を有し、
前記第2決定手段は、前記第1不要成分と、該第1不要成分に基づいて作成されたマスクとに基づいて、前記第2不要成分を決定することを特徴とする画像処理装置。 First determining means for determining a first unnecessary component based on difference information of a plurality of parallax images;
Have a, a second determining means for determining a second required component by reducing the parallax component from the first unwanted components,
The image processing apparatus according to claim 2, wherein the second determining unit determines the second unnecessary component based on the first unnecessary component and a mask created based on the first unnecessary component .
前記第1不要成分の輝度値を変更して前記マスクを作成し、
前記第1不要成分に対して前記マスクを用いたマスキング処理を行うことにより、前記第2不要成分を決定することを特徴とする請求項1に記載の画像処理装置。 The second determining means includes
Changing the luminance value of the first unnecessary component to create the mask;
Wherein by performing the masking process using the mask with respect to the first unwanted components, the image processing apparatus according to claim 1, characterized in that determining the second required component.
前記視差画像と前記第1不要成分とに基づいて不要成分低減画像を生成し、
前記不要成分低減画像にボケを付加したボケ画像と該不要成分低減画像との差分に基づいてエッジ成分を決定し、
前記第1不要成分から前記エッジ成分を低減することを特徴とする請求項2乃至6のいずれか1項に記載の画像処理装置。 The second determining means includes
Generating an unnecessary component reduced image based on the parallax image and the first unnecessary component;
Determining an edge component based on a difference between a blur image obtained by adding blur to the unnecessary component reduced image and the unnecessary component reduced image;
The image processing apparatus according to any one of claims 2 to 6, characterized in that to reduce the edge component from the first required component.
前記第1不要成分に基づいて第1不要成分画像を生成し、
前記第1不要成分画像にボケを付加したボケ画像と該第1不要成分画像との差分に基づいてエッジ成分を決定し、
前記第1不要成分から前記エッジ成分を低減することを特徴とする請求項2乃至6のいずれか1項に記載の画像処理装置。 The second determining means includes
Generating a first unnecessary component image based on the first unnecessary component;
Determining an edge component based on a difference between a blur image obtained by adding blur to the first unnecessary component image and the first unnecessary component image;
The image processing apparatus according to any one of claims 2 to 6, characterized in that to reduce the edge component from the first required component.
前記複数の視差画像の差分情報に基づいて第1不要成分を決定する第1決定手段と、
前記第1不要成分から視差成分を低減して第2不要成分を決定する第2決定手段と、を有し、
前記第2決定手段は、前記第1不要成分と、該第1不要成分に基づいて作成されたマスクとに基づいて、前記第2不要成分を決定することを特徴とする撮像装置。 An imaging means for photoelectrically converting an optical image formed via the optical system and outputting a plurality of parallax images;
First determination means for determining a first unnecessary component based on difference information of the plurality of parallax images;
Have a, a second determining means for determining a second required component by reducing the parallax component from the first unwanted components,
The imaging apparatus according to claim 2, wherein the second determining unit determines the second unnecessary component based on the first unnecessary component and a mask created based on the first unnecessary component .
前記撮像手段は、一つのマイクロレンズを共有する複数の画素を有し、
前記複数の画素は、前記光学系の瞳のうち互いに異なる領域を通過した光束を受光するように構成されていることを特徴とする請求項11または12に記載の撮像装置。 The plurality of parallax images are a plurality of images generated based on light beams that have passed through different regions of the pupil of the optical system,
The imaging means has a plurality of pixels sharing one microlens,
The imaging device according to claim 11 or 12 , wherein the plurality of pixels are configured to receive light beams that have passed through different regions of the pupil of the optical system.
前記第1不要成分から視差成分を低減して第2不要成分を決定するステップと、を有し、
前記第2不要成分は、前記第1不要成分と、該第1不要成分に基づいて作成されたマスクとに基づいて決定されることを特徴とする画像処理方法。 Determining a first unnecessary component based on difference information of a plurality of parallax images;
Have a, and determining a second required component by reducing the parallax component from the first unwanted components,
2. The image processing method according to claim 1, wherein the second unnecessary component is determined based on the first unnecessary component and a mask created based on the first unnecessary component .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015040020A JP6497977B2 (en) | 2015-03-02 | 2015-03-02 | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium |
US14/683,333 US10063829B2 (en) | 2014-04-18 | 2015-04-10 | Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015040020A JP6497977B2 (en) | 2015-03-02 | 2015-03-02 | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016162171A JP2016162171A (en) | 2016-09-05 |
JP2016162171A5 JP2016162171A5 (en) | 2018-04-12 |
JP6497977B2 true JP6497977B2 (en) | 2019-04-10 |
Family
ID=56845342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015040020A Active JP6497977B2 (en) | 2014-04-18 | 2015-03-02 | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6497977B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7160041B2 (en) * | 2017-08-31 | 2022-10-25 | ソニーグループ株式会社 | Medical image processing apparatus, medical image processing system, and driving method for medical image processing apparatus |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013179564A (en) * | 2012-02-01 | 2013-09-09 | Canon Inc | Image processing method, image processing device, and imaging device |
JP6265640B2 (en) * | 2013-07-18 | 2018-01-24 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
-
2015
- 2015-03-02 JP JP2015040020A patent/JP6497977B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016162171A (en) | 2016-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6253380B2 (en) | Image processing method, image processing apparatus, and imaging apparatus | |
US20130194387A1 (en) | Image processing method, image processing apparatus and image-pickup apparatus | |
JP5947601B2 (en) | FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE | |
JP6239855B2 (en) | Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus | |
KR101983047B1 (en) | Image processing method, image processing apparatus and image capturing apparatus | |
KR20180123117A (en) | Image processing apparatus, image pickup apparatus, control method therefor, storage medium | |
JP2018107654A (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP6516510B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
EP2934005B1 (en) | Image processing method, image processing apparatus, image pickup apparatus, image processing program, and storage medium | |
US10063829B2 (en) | Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium | |
JP6497977B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
JP2019071596A (en) | Imaging apparatus and control method therefor | |
JP6478711B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
JP6198664B2 (en) | Image processing method, image processing apparatus, imaging apparatus, image processing program, and storage medium | |
JP6494328B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
JP6448324B2 (en) | Image processing apparatus, imaging apparatus, image processing system, image processing method, and image processing program | |
JP6198663B2 (en) | Image processing method, image processing apparatus, imaging apparatus, image processing program, and storage medium | |
JP2017118293A (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
JP2013149043A (en) | Image processing device | |
JP6331279B2 (en) | Imaging apparatus, imaging method, and program | |
JP2020038319A (en) | Imaging apparatus and control method of the same | |
JP2019068377A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2019032484A (en) | Focus detection device and method and imaging device | |
JP2016212178A (en) | Image processing apparatus, control method of the same, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180301 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190312 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6497977 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |