[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6559020B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6559020B2
JP6559020B2 JP2015172261A JP2015172261A JP6559020B2 JP 6559020 B2 JP6559020 B2 JP 6559020B2 JP 2015172261 A JP2015172261 A JP 2015172261A JP 2015172261 A JP2015172261 A JP 2015172261A JP 6559020 B2 JP6559020 B2 JP 6559020B2
Authority
JP
Japan
Prior art keywords
value
color
pixel
edge
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015172261A
Other languages
Japanese (ja)
Other versions
JP2017050691A5 (en
JP2017050691A (en
Inventor
正人 内原
正人 内原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015172261A priority Critical patent/JP6559020B2/en
Publication of JP2017050691A publication Critical patent/JP2017050691A/en
Publication of JP2017050691A5 publication Critical patent/JP2017050691A5/ja
Application granted granted Critical
Publication of JP6559020B2 publication Critical patent/JP6559020B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Description

本発明は、光学系を通して撮像された画像を処理する画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for processing an image captured through an optical system.

デジタルカメラ等の撮像装置は、光学系を通した被写体像等を撮像素子の撮像面上に結像させて画像を撮像する。このとき、光学系を通して撮像面上に結像された画像には、光学系の倍率色収差により色成分の位相ズレ(各色成分の位置関係のズレ、以下、色ズレと表記する。)が生じていることが多い。このため、倍率色収差による色ズレを、画像処理により補正することで画質を改善するような技術が提案されている。その一例として、特許文献1には、撮影画像のR,Bの色成分の位相を、Gの色成分に対して設計値から得られる倍率色収差による色ズレ量(色成分の位相ズレ量に相当する色ズレ量、)分だけずらして画像を補正する技術が開示されている。以下、倍率色収差による色成分の位相ズレ量分だけ画像をずらすような補正を、色ズレ補正と呼ぶ。   An image pickup apparatus such as a digital camera picks up an image by forming a subject image or the like passing through an optical system on an image pickup surface of an image pickup element. At this time, in the image formed on the imaging surface through the optical system, a phase shift of color components (a positional shift of each color component, hereinafter referred to as a color shift) occurs due to lateral chromatic aberration of the optical system. There are many. For this reason, a technique for improving the image quality by correcting the color shift due to the chromatic aberration of magnification through image processing has been proposed. As an example, Patent Document 1 discloses that the phase of the R and B color components of the photographed image is the amount of color shift due to the chromatic aberration of magnification obtained from the design value with respect to the G color component (corresponding to the phase shift amount of the color component). There is disclosed a technique for correcting an image by shifting it by the amount of color misregistration. Hereinafter, correction that shifts the image by the amount of phase shift of the color component due to chromatic aberration of magnification is referred to as color shift correction.

また、倍率色収差による色ズレ量は、カメラの個体差等により、設計値から得られる色ズレ量とは必ずしも一致しないことがあり、この場合、色ズレ補正の精度が低下する虞がある。このため、倍率色収差による色ズレ量を、撮影画像の特徴点(主にエッジ部)から検出することにより、カメラの個体差によるバラつきがある場合でも、色ズレ補正を高精度に実現可能にする技術が提案されている。例えば、特許文献2には、画像のエッジ部を中心に設定した局所的なウインドウから取得したG信号と、そのウインドウを動径方向にずらしながら取得したR,B信号との相関値を求めて、G信号に対するR,B信号の色ズレ量を推定する技術が開示されている。このとき、ウインドウのサイズは、例えば、検出したエッジの幅の約4倍の大きさとなされる。そして、特許文献2に記載の技術は、そのウインドウから取得したG信号とR,B信号の平均値が一致するように、R,B信号のレベル合わせを行うことにより、色ズレ量の検出精度を向上させている。   In addition, the amount of color misregistration due to lateral chromatic aberration may not always match the amount of color misregistration obtained from the design value due to individual differences between cameras, and in this case, the accuracy of color misregistration correction may be reduced. For this reason, by detecting the amount of color misregistration due to chromatic aberration of magnification from the feature points (mainly the edge portion) of the photographed image, even when there are variations due to individual differences in the camera, it is possible to realize color misregistration correction with high accuracy. Technology has been proposed. For example, Patent Document 2 obtains a correlation value between a G signal acquired from a local window set around an edge portion of an image and an R and B signal acquired while shifting the window in the radial direction. A technique for estimating the color misregistration amount of the R and B signals with respect to the G signal is disclosed. At this time, the size of the window is, for example, about four times the width of the detected edge. Then, the technique described in Patent Document 2 adjusts the levels of the R and B signals so that the average values of the G signal and the R and B signals acquired from the window match, thereby detecting the color misregistration amount. Has improved.

特開2008−15946号公報JP 2008-15946 A 特許第4706635号公報Japanese Patent No. 4706635

しかしながら、上述の特許文献2に記載の技術は、ウインドウのずらし位置を変えてR,B信号を取得する度にレベル合わせのための係数を算出する必要があり、処理時間が長くなってしまうという問題がある。また、特許文献2に記載の技術は、ウインドウ内に、例えば同じ模様等が繰り返される繰り返しパターンが含まれている場合や、色付きのエッジが含まれている場合には、色ズレ量の検出精度が低下してしまうという問題がある。   However, the technique described in Patent Document 2 described above requires that the coefficient for level adjustment be calculated every time the R and B signals are acquired by changing the window shift position, resulting in a longer processing time. There's a problem. In addition, the technique described in Patent Document 2 is based on the detection accuracy of the amount of color misregistration when the window includes a repeated pattern in which the same pattern or the like is repeated, or when a colored edge is included. There is a problem that will decrease.

本発明はこのような問題点に鑑みてなされたものであり、撮影画像から、短時間且つ高い精度で色ズレ量を検出可能とする画像処理装置、画像処理方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of such a problem, and provides an image processing apparatus, an image processing method, and a program capable of detecting a color shift amount from a captured image in a short time and with high accuracy. Objective.

本発明の画像処理装置は、光学系を介して撮像された撮影画像から、前記撮影画像の各画素を複数の色成分に分けて各画素が同一の色成分からなる複数の色プレーンの画像を生成する生成手段と、前記複数の色プレーンを基に、画像のエッジ領域と、前記エッジ領域の周辺に画素値の変化量が所定の変化判定値より小さい各画素が続く小変化領域と、を検出する領域検出手段と、前記検出されたエッジ領域と小変化領域の各画素の色成分の値に基づいて、前記複数の色プレーンのうち基準色となされた色プレーンに対する、基準色以外の各色プレーンのズレ量を検出するズレ検出手段とを有することを特徴とする。 The image processing apparatus of the present invention divides each pixel of the photographed image into a plurality of color components from a photographed image captured through an optical system, and obtains images of a plurality of color planes in which each pixel has the same color component. Generating means for generating, based on the plurality of color planes, an edge region of the image, and a small change region in which each pixel value change amount is smaller than a predetermined change determination value around the edge region. a detection region detecting means, based on the value of the color component of each pixel before dangerous out edge regions and the small change area, for the color plane has been made with reference color among the plurality of color planes, than the reference color And a deviation detecting means for detecting a deviation amount of each color plane.

本発明によれば、撮影画像から、短時間且つ高い精度で色ズレ量を検出可能となる。   According to the present invention, it is possible to detect the amount of color misregistration from a captured image in a short time and with high accuracy.

実施形態のデジタルカメラの概略構成を示す図である。It is a figure which shows schematic structure of the digital camera of embodiment. 色ズレ検出部の一構成例を示す図である。It is a figure which shows the example of 1 structure of a color shift detection part. ベイヤー配列の説明に用いる図である。It is a figure used for description of a Bayer arrangement. 色ズレ検出方向の説明に用いる図である。It is a figure used for description of a color shift detection direction. 像高別の色ズレ代表値の説明に用いる図である。It is a figure used for description of the color shift representative value according to image height. 入力データ補間処理の説明に用いる図である。It is a figure used for description of input data interpolation processing. 入力データ補間処理の際のローパスフィルタの説明に用いる図である。It is a figure used for description of a low pass filter in the case of input data interpolation processing. 第1,第2の実施形態におけるエッジ検出処理のフローチャートである。It is a flowchart of the edge detection process in 1st, 2nd embodiment. 第1の実施形態における色ズレ検出対象の信号値の一例を示す図である。It is a figure which shows an example of the signal value of the color shift detection target in 1st Embodiment. 色ズレ検出の詳細説明に用いる図である。It is a figure used for detailed explanation of color shift detection. エッジ検出用のフィルタの説明に用いる図である。It is a figure used for description of the filter for edge detection. 相関値取得結果の説明に用いる図である。It is a figure used for description of a correlation value acquisition result. 像高別の色ズレ量集計結果の説明に用いる図である。It is a figure used for description of the color shift amount total result according to image height. 第2の実施形態における色ズレ検出対象の信号値を示した図である。It is the figure which showed the signal value of the color shift detection target in 2nd Embodiment. 第3の実施形態におけるエッジ検出処理のフローチャートである。It is a flowchart of the edge detection process in 3rd Embodiment. エッジマップ変数の説明に用いる図である。It is a figure used for description of an edge map variable. 検出方向制御パラメータの説明に用いる図である。It is a figure used for description of a detection direction control parameter.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
以下の説明では、本実施形態の画像処理装置の一例としてデジタルカメラを例に挙げているが、例えば、タブレット端末やスマートフォン、電子ゲーム機、ナビゲーション装置、パーソナルコンピュータなど様々な情報処理装置であってもよい。この場合の情報処理装置は、その装置自身に搭載されているカメラ機能により撮影された撮影画像、又は、デジタルカメラ等により撮影された撮影画像を取得し、その撮影画像に対して後述する本実施形態に係る各処理を実行する。また、情報処理装置における本実施形態に係る処理は、内部のCPU等においてコンピュータプログラムを実行することにより実現される。本実施形態に係る処理を実現するためのコンピュータプログラムは、記録媒体や各種ネットワークや通信回線を介して情報処理装置に提供される。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
In the following description, a digital camera is exemplified as an example of the image processing apparatus of the present embodiment, but for example, various information processing apparatuses such as a tablet terminal, a smartphone, an electronic game machine, a navigation apparatus, and a personal computer. Also good. In this case, the information processing apparatus acquires a photographed image photographed by a camera function mounted on the apparatus itself or a photographed image photographed by a digital camera or the like, and this embodiment described later on the photographed image. Each process according to the form is executed. The processing according to the present embodiment in the information processing apparatus is realized by executing a computer program in an internal CPU or the like. A computer program for realizing the processing according to the present embodiment is provided to the information processing apparatus via a recording medium, various networks, or a communication line.

図1には、本実施形態の画像処理装置の一例としてのデジタルカメラ100の概略構成を示す。なお、図1には本実施形態に係る主要な構成要素のみが示されており、一般的なデジタルカメラが備えている他の構成の図示については省略している。また、図2には、図1のデジタルカメラ100の色ズレ検出部105の概略構成を示す。図2の色ズレ検出部105の説明は後述する。   FIG. 1 shows a schematic configuration of a digital camera 100 as an example of an image processing apparatus of the present embodiment. FIG. 1 shows only main components according to the present embodiment, and illustration of other components included in a general digital camera is omitted. FIG. 2 shows a schematic configuration of the color misregistration detection unit 105 of the digital camera 100 of FIG. The description of the color misregistration detection unit 105 in FIG. 2 will be described later.

撮像レンズ101は、ズームレンズ、フォーカスレンズを含むレンズ群からなる光学系である。撮像素子102は、撮像レンズ101からの入射光を電気信号に変換するためのCCDやCMOS素子である。撮像素子102の撮像面上には、入射光を赤(R)、緑(G)、青(B)の色成分に分離するためのカラーフィルタが配されている。図3には、カラーフィルタにおけるRとG(G1,G2)とBの各色成分に対応した各フィルタ素子の配列を表しており、この配列はいわゆるベイヤー配列と呼ばれている。これら各フィルタ素子は、撮像素子102の各画素位置に各々対応している。なお、図3の例は、カラーフィルタの一部分のみを示している。   The imaging lens 101 is an optical system including a lens group including a zoom lens and a focus lens. The imaging element 102 is a CCD or CMOS element for converting incident light from the imaging lens 101 into an electrical signal. A color filter for separating incident light into red (R), green (G), and blue (B) color components is disposed on the imaging surface of the imaging element 102. FIG. 3 shows an array of filter elements corresponding to R, G (G1, G2), and B color components in the color filter, and this array is called a so-called Bayer array. Each of these filter elements corresponds to each pixel position of the image sensor 102. Note that the example of FIG. 3 shows only a part of the color filter.

A/D変換器103は、撮像素子102から出力されるアナログ画像信号をデジタル画像信号に変換する。A/D変換器103から出力されるデジタル画像信号は、いわゆるRAW(生)画像データであり、一時記憶メモリであるRAM104に記憶される。   The A / D converter 103 converts the analog image signal output from the image sensor 102 into a digital image signal. The digital image signal output from the A / D converter 103 is so-called RAW (raw) image data, and is stored in the RAM 104 which is a temporary storage memory.

色ズレ検出部105は、RAM104に記憶されたRAW画像データを、例えば水平,垂直方向(x,y方向)にそれぞれ複数画素からなるブロック単位で読み出し、それらブロック毎に、R,G,Bの各色成分の間の位相ズレ量を表す色ズレ量の検出を行う。ここで、本実施形態では、撮像レンズ101の倍率色収差により生ずる色ズレ量を検出することを想定している。撮像レンズ101のような光学系の倍率色収差は、一般にレンズの光軸を中心とした点対称の色収差として現れるため、色ズレ量の検出は、光軸を中心とした放射状の方向について行われる。   The color misregistration detection unit 105 reads out the RAW image data stored in the RAM 104, for example, in units of blocks each consisting of a plurality of pixels in the horizontal and vertical directions (x and y directions), and R, G, and B for each block. A color shift amount representing a phase shift amount between the color components is detected. Here, in the present embodiment, it is assumed that the amount of color misregistration caused by the chromatic aberration of magnification of the imaging lens 101 is detected. Since the chromatic aberration of magnification of an optical system such as the imaging lens 101 generally appears as point-symmetric chromatic aberration with the optical axis of the lens as the center, detection of the color misregistration amount is performed in a radial direction with the optical axis as the center.

このため、本実施形態の場合、色ズレ検出部105は、読み出したブロックの中心画素が、図4(a)に示すRAW画像40の中心41を基点とした、例えば8領域(領域d0〜d7)のいずれの領域に含まれるかに応じて、色ズレ量を検出する方向を決める。図4(b)は、ブロックの中心画素が図4(a)の各領域d0〜d7に含まれている場合の、各領域d0〜d7別の一つのブロックを表している。図4(b)の各ブロック内の矢印の方向は、それら各ブロックにおいて色ズレ量の検出が行われる方向を表しており、図4(a)の各領域d0〜d7に描かれている矢印の方向とそれぞれ対応している。これら図4(a)、図4(b)に示すように、色ズレ検出部105は、各ブロックについて1方向にのみ色ズレ量の検出を行う。色ズレ検出部105にて行われる色ズレ検出処理の詳細な内容についての説明は後述する。   For this reason, in the present embodiment, the color misregistration detection unit 105 uses, for example, eight regions (regions d0 to d7) in which the central pixel of the read block is based on the center 41 of the RAW image 40 illustrated in FIG. ), The direction in which the amount of color misregistration is detected is determined. FIG. 4B shows one block for each of the areas d0 to d7 when the central pixel of the block is included in each of the areas d0 to d7 in FIG. The direction of the arrow in each block in FIG. 4B represents the direction in which the color misregistration amount is detected in each block, and the arrows drawn in the regions d0 to d7 in FIG. Correspond to each direction. As shown in FIGS. 4A and 4B, the color misregistration detection unit 105 detects the color misregistration amount only in one direction for each block. The detailed content of the color misregistration detection process performed by the color misregistration detection unit 105 will be described later.

なお、撮影レンズ101が例えばチルトレンズやシフトレンズ、いわゆるレンズシフト式の手振れ補正機能付きのレンズ等である場合、色収差は、点対称の色収差とはならない。また、色ズレ検出の対象となっている画像が、例えばトリミング等された画像である場合には、レンズの光軸に対応した位置を特定できない可能性がある。このような場合は、それら使用されたレンズの情報や、トリミングされた範囲の情報などを基に、色収差の方向を算出して、その算出された色収差の方向に基づいて色ズレ量の検出が行われてもよい。   When the photographing lens 101 is, for example, a tilt lens or a shift lens, a lens with a so-called lens shift type camera shake correction function, the chromatic aberration is not a point-symmetric chromatic aberration. In addition, when the image that is the target of color misregistration detection is, for example, a trimmed image, the position corresponding to the optical axis of the lens may not be specified. In such a case, the direction of chromatic aberration is calculated based on the information on the lenses used, the information on the trimmed range, etc., and the amount of color misregistration can be detected based on the calculated direction of chromatic aberration. It may be done.

また、図4(b)の升目はそれぞれが画素を表しているが、図4(b)の例では、ブロックを構成する水平,垂直方向の画素数は、図示を簡略化するために実際の画素数よりも少なく描かれている。このような図示の簡略化は、後述する他の各図に示されたRAW画像やプレーン、ブロック等について同様になされ、各図のブロックの画素数と升目の数、図示されたRAW画像やプレーン等のブロック数と升目の数は、実際の数より少なく描かれている。   Further, each cell in FIG. 4B represents a pixel, but in the example of FIG. 4B, the number of pixels in the horizontal and vertical directions constituting the block is an actual number to simplify the illustration. It is drawn less than the number of pixels. Such simplification of illustration is similarly applied to RAW images, planes, blocks, and the like shown in other figures described later, and the number of pixels and the number of cells in each figure, and the illustrated RAW images and planes are shown. The number of blocks and the number of cells are drawn less than the actual number.

また、色ズレ検出部105は、図5(a)に示すように、RAW画像データ50について図中升目で表されるブロック毎に検出した各色ズレ量を、画像中心51からの像高を一定の間隔で分割した像高区間h1〜h5毎に集計(合計)する。色ズレ検出部105は、それら各像高区間h1〜h5でそれぞれ集計した値を、各像高区間h1〜h5における色ズレ量の代表値とする。そして、色ズレ検出部105は、図5(b)に示すように、それら像高区間h1〜h5について集計した色ズレ量の代表値を、サンプル数とともにRAM104に出力して記憶させる。   Further, as shown in FIG. 5A, the color misregistration detection unit 105 maintains the image height from the image center 51 for each color misregistration amount detected for each block represented by the squares in the drawing of the RAW image data 50. Are summed (totaled) for each of the image height sections h1 to h5 divided at intervals of. The color misregistration detection unit 105 sets the values obtained in the respective image height sections h1 to h5 as representative values of the color misregistration amounts in the image height sections h1 to h5. Then, as shown in FIG. 5B, the color misregistration detection unit 105 outputs and stores the representative values of the color misregistration amounts for the image height sections h1 to h5 together with the number of samples to the RAM 104.

色ズレ補正部106は、RAM104からRAW画像データと、各像高区間h1〜h5の色ズレ量の代表値及びサンプル数の情報とを読み出す。そして、色ズレ補正部106は、各像高区間h1〜h5の色ズレ量の代表値を用い、RAW画像データに対して、像高区間h1〜h5毎に色ズレ補正を行う。倍率色収差に対する色ズレ補正処理は、RAW画像におけるR,G,Bの各色成分の位相を色ズレ量(色成分の位相ズレ量)分だけずらして位相合わせ(位置合わせ)を行うような処理である。このような色ズレ補正処理は、例えば前述した特許文献1や特許文献2等に記載されている既存の技術であるため、本実施形態では、その詳細な説明については省略する。   The color misregistration correction unit 106 reads out the RAW image data, the representative value of the color misregistration amount in each image height section h1 to h5, and information on the number of samples from the RAM 104. Then, the color misregistration correction unit 106 performs color misregistration correction on the RAW image data for each image height section h1 to h5 using the representative value of the color misregistration amount of each image height section h1 to h5. The color misregistration correction process for the lateral chromatic aberration is a process in which the phases of R, G, and B color components in the RAW image are shifted by a color misregistration amount (color component phase misregistration amount) to perform phase alignment (position alignment). is there. Such a color misregistration correction process is an existing technique described in, for example, Patent Document 1 and Patent Document 2 described above, and therefore detailed description thereof is omitted in the present embodiment.

なお、色ズレ検出のサンプル数が極端に少ない像高区間については、色ズレ検出の信頼度が低いと考えられる。このため、色ズレ補正部106は、サンプル数が極端に少なく信頼度が低い像高区間については、隣接する像高区間の色ズレ量の代表値を用いて色ズレ量を補間し、その補間による色ズレ量を用いて色ズレ補正を行う。また、各像高区間h1〜h5に対応して予め設計値データとして色ズレ量が用意されている場合には、色ズレ補正部106は、サンプル数が極端に少ない像高区間については、その設計値のデータを用いて色ズレ補正を行ってもよい。   Note that it is considered that the reliability of color misregistration detection is low for an image height section in which the number of samples for color misregistration detection is extremely small. Therefore, the color misregistration correction unit 106 interpolates the color misregistration amount using the representative value of the color misregistration amount of the adjacent image height interval for the image height interval in which the number of samples is extremely small and the reliability is low, and the interpolation is performed. The color misregistration correction is performed using the color misregistration amount by. In addition, when a color shift amount is prepared in advance as design value data corresponding to each of the image height sections h1 to h5, the color shift correction unit 106 determines the image height section with an extremely small number of samples. Color shift correction may be performed using design value data.

画像処理部107は、色ズレ補正部106による色ズレ補正後のRAW画像データに対して、現像処理やノイズリダクション処理等の各種の画像処理を施す。画像処理部107による画像処理が施された後の画像データは、外部メモリ制御部108を介して外部メモリ109等に保存される。   The image processing unit 107 performs various types of image processing such as development processing and noise reduction processing on the RAW image data after the color shift correction by the color shift correction unit 106. The image data after the image processing by the image processing unit 107 is stored in the external memory 109 or the like via the external memory control unit 108.

<第1の実施形態>
以下、第1の実施形態として、図1に示したデジタルカメラ100の色ズレ検出部105にて行われる色ズレ量検出処理の詳細について説明する。
図1に示したデジタルカメラ100の色ズレ検出部105は、図2に示すように、入力データ変換部201と検出部202と代表値算出部203とローカルメモリ204とを有して構成されている。
<First Embodiment>
Hereinafter, as the first embodiment, details of the color misregistration amount detection processing performed by the color misregistration detection unit 105 of the digital camera 100 illustrated in FIG. 1 will be described.
As shown in FIG. 2, the color misregistration detection unit 105 of the digital camera 100 shown in FIG. 1 includes an input data conversion unit 201, a detection unit 202, a representative value calculation unit 203, and a local memory 204. Yes.

入力データ変換部201は、色プレーン生成手段として、RAW画像データに対して以下に説明するようなデータ変換処理を行って、R,G,Bの各色成分の色プレーンのデータを生成する。ここで、プレーンとは、各画素位置のデータがR,G,Bのそれぞれ同一の色成分のデータのみで形成された画像である。R,G,Bの各色成分の色プレーン生成の一例を、図6(a)〜図6(d)と図7を用いて説明する。   The input data conversion unit 201 performs color conversion processing as described below on the RAW image data as color plane generation means, and generates color plane data for each of the R, G, and B color components. Here, a plane is an image in which data at each pixel position is formed only from data of the same color components of R, G, and B, respectively. An example of color plane generation for each of the R, G, and B color components will be described with reference to FIGS. 6 (a) to 6 (d) and FIG.

図6(a)は、入力データ変換部201が、図1のRAM104から読み出したRAW画像の一部を示している。入力データ変換部201は、図6(a)に示したRAW画像から、図6(b)に示すように同一色成分の画素値を抜き出す。図6(b)の例は、図6(a)のRAW画像からR成分の画素値のみを抜き出した例を示している。入力データ変換部201は、図6(b)のように同一色成分の画素値を抜き出した後、図6(c)に示すように、色成分の信号値が無い画素位置に対してゼロ値を挿入する。   FIG. 6A shows a part of the RAW image read out from the RAM 104 in FIG. 1 by the input data conversion unit 201. The input data conversion unit 201 extracts pixel values of the same color component from the RAW image shown in FIG. 6A as shown in FIG. The example in FIG. 6B shows an example in which only the R component pixel value is extracted from the RAW image in FIG. After extracting the pixel values of the same color component as shown in FIG. 6B, the input data conversion unit 201 extracts a zero value for the pixel position where there is no signal value of the color component as shown in FIG. 6C. Insert.

次に、入力データ変換部201は、図6(c)のように色成分の信号値が無い画素位置に対してゼロ値が挿入された後の画像に対し、図7に示すような各フィルタ係数(係数1〜係数4)が配されたローパスフィルタを用いて補間処理を行う。図6(d)は、入力データ変換部201が、図6(c)の画像に対して図7のローパスフィルタを用いた補間処理を行って生成されたRプレーンを示している。入力データ変換部201は、図6(a)のRAW画像のGとBの色成分についても図6(b)〜図6(d)で説明したのと同様の処理を行うことにより、GプレーンとBプレーンを生成する。なお、RAW画像のGの色成分はG1とG2からなるため、Gプレーンについては、R及びBプレーンと合わせるために、図6(a)のG1,G2のいずれか一方の画素値のみを用いて生成する。このようにして作成されたR,G,Bの各色成分の色プレーンのデータは、ローカルメモリ204に記憶される。   Next, the input data conversion unit 201 applies each filter as shown in FIG. 7 to the image after the zero value is inserted into the pixel position where there is no signal value of the color component as shown in FIG. Interpolation processing is performed using a low-pass filter in which coefficients (coefficients 1 to 4) are arranged. FIG. 6D shows an R plane generated by the input data conversion unit 201 performing an interpolation process using the low-pass filter of FIG. 7 on the image of FIG. The input data conversion unit 201 performs the same processing as described with reference to FIGS. 6B to 6D on the G and B color components of the RAW image in FIG. And B plane. Since the G color component of the RAW image is composed of G1 and G2, only one pixel value of G1 and G2 in FIG. 6A is used for the G plane in order to match the R and B planes. To generate. The color plane data of the R, G, B color components created in this way is stored in the local memory 204.

検出部202は、領域検出手段とズレ量検出手段の一例である。検出部202は、ローカルメモリ204に記憶されたR,G,Bの各色プレーンのうち、何れかを基準色のプレーンとする。本実施形態では、例えばGプレーンを基準色プレーンとし、R,Bプレーンを基準色以外の色プレーンとする。また、検出部202は、R,G,Bの各色プレーンについて、それぞれ1ブロックにつき前述した色ズレ検出方向に抽出した1列分の画素値を取得する。そして、検出部202は、基準色のGプレーンのブロックから抽出した1列分の画素値と、基準色以外のR,BプレーンのうちGプレーンのブロックに対応したブロックからそれぞれ抽出した1列分の画素値とを用いて、色ズレ量を検出する。   The detection unit 202 is an example of a region detection unit and a deviation amount detection unit. The detection unit 202 sets one of the R, G, and B color planes stored in the local memory 204 as a reference color plane. In the present embodiment, for example, the G plane is a reference color plane, and the R and B planes are color planes other than the reference color. Further, the detection unit 202 acquires pixel values for one column extracted in the above-described color shift detection direction for each block for each of the R, G, and B color planes. Then, the detection unit 202 extracts the pixel value for one column extracted from the G plane block of the reference color and one column extracted from the block corresponding to the G plane block among the R and B planes other than the reference color. The amount of color misregistration is detected using the pixel value.

詳細については後述するが、このような色ズレ量の検出を実現するため、検出部202は、R,G,Bの各色プレーンから抽出した1列分の画素列の各画素値を用いて、エッジ領域(以下、エッジ部と表記する。)を検出する。また同様に詳細は後述するが、検出部202は、エッジ部の周辺において、例えばエッジ部の色ズレ検出方向の幅の両端から外側に向かって画素値の変化が小さい各画素が続く小変化領域(以下、ベタ部と表記する。)を検出する。さらに、同様に詳細は後述するが、検出部202は、ベタ部から基準色(G)のプレーンに対する基準色以外(R,B)のプレーンの位相ズレ量(色ズレ量)を検出する。例えば、検出部202は、ベタ部の画素値に応じて、GプレーンとR,Bプレーンの少なくとも一方の画素値のレベルに合わせ、そのレベル合わせがなされた後のGプレーンの画素値とR,Bプレーンの画素値とに基づいてズレ量を検出する。なお、以下の説明では、エッジ部の色ズレ検出方向における幅の両端を、単に「エッジ部の両端」と表記する。また、以下の説明では、エッジ部の両端から外側の領域を、単に「エッジ部の両端の外側領域」と表記する。   Although details will be described later, in order to realize such detection of the color misregistration amount, the detection unit 202 uses each pixel value of the pixel column for one column extracted from each R, G, B color plane, An edge region (hereinafter referred to as an edge portion) is detected. Similarly, although details will be described later, the detection unit 202 is a small change region in which each pixel whose change in the pixel value is small from the both ends of the width of the edge portion in the color shift detection direction, for example, continues around the edge portion. (Hereinafter referred to as a solid part) is detected. Further, although details will be described later, the detection unit 202 detects the phase shift amount (color shift amount) of the planes other than the reference color (R, B) with respect to the reference color (G) plane from the solid portion. For example, the detection unit 202 matches the level of at least one of the G plane and the R and B planes according to the pixel value of the solid portion, and the G plane pixel value and R, The amount of deviation is detected based on the pixel value of the B plane. In the following description, both ends of the width of the edge portion in the color misregistration detection direction are simply expressed as “both ends of the edge portion”. Further, in the following description, a region outside from both ends of the edge portion is simply referred to as “outer region at both ends of the edge portion”.

図8は、本実施形態の検出部202における処理の流れを示したフローチャートである。図8の各ステップの処理の内容について、図9に示すようなR,G,Bの各信号値を例に挙げて説明する。図9は、各画素位置におけるR,G,Bの各信号値(各画素位置の各画素における各色成分の値)を表した図である。   FIG. 8 is a flowchart showing the flow of processing in the detection unit 202 of the present embodiment. The contents of the processing of each step in FIG. 8 will be described by taking each signal value of R, G, B as shown in FIG. 9 as an example. FIG. 9 is a diagram showing R, G, and B signal values at each pixel position (values of each color component at each pixel at each pixel position).

図8のフローチャートにおいて、検出部202は、先ずステップS801の処理として、ローカルメモリ204に記憶された各プレーンについて、1ブロックにつき前述の色ズレ検出方向に抽出した1列分の各画素のR,G,Bの信号を用いてエッジ検出を行う。エッジ検出は、図9に示したような各画素位置のR,G,Bの信号値から以下の式(1)により作成した輝度値(以下、Y信号と表記する。)を用いて行われる。   In the flowchart of FIG. 8, the detection unit 202 first performs R, R, and R of each pixel for one column extracted in the above-described color misregistration detection direction per block for each plane stored in the local memory 204 as processing in step S801. Edge detection is performed using G and B signals. Edge detection is performed using a luminance value (hereinafter referred to as a Y signal) created by the following equation (1) from the R, G, and B signal values at each pixel position as shown in FIG. .

Y[n]=0.3×R[n]+0.6×G[n]+0.1×B[n] ・・・・式(1)   Y [n] = 0.3 × R [n] + 0.6 × G [n] + 0.1 × B [n] (1)

なお、式(1)中のnは、ローカルメモリ204に記憶されたR,G,Bの各プレーンについて、それぞれ1ブロックにつき色ズレ検出方向に抽出された1列分のR,G,Bの各信号の画素位置を表す数である。図10(a)、図10(b)、図10(c)には、図9の各画素位置におけるR,G,Bの各信号値を各々画素位置に対応させて配列した図を示す。図10(d)には、式(1)を用いて算出されたY信号の各値を各々画素位置に対応させて配列した図を示す。   Note that n in Expression (1) represents R, G, and B of one column extracted in the color misregistration detection direction for each block for each of the R, G, and B planes stored in the local memory 204. It is a number representing the pixel position of each signal. FIGS. 10A, 10B, and 10C are diagrams in which R, G, and B signal values at the pixel positions in FIG. 9 are arranged in correspondence with the pixel positions. FIG. 10D shows a diagram in which each value of the Y signal calculated using the equation (1) is arranged corresponding to each pixel position.

また、検出部202は、図11のようなフィルタ係数(−1,0,1)が設定されたエッジ検出フィルタを用いて、Y信号に対するエッジ検出フィルタ処理を行う。図10(e)には、Y信号に対するエッジ検出フィルタ処理後の信号値を各画素位置に対応させて配列した図を示す。さらに、検出部202は、エッジ検出フィルタのフィルタ出力レベルの絶対値と、予め設定されたエッジレベル判定値EdgeThLevelとを比較する。そして、検出部202は、フィルタ処理後のフィルタ出力レベルの絶対値がエッジレベル判定値EdgeThLevelよりも大きくなっている画素位置を求める。なお、以下の説明では、エッジ検出フィルタ処理後のフィルタ出力レベルの絶対値を「信号絶対値」と表記する。   Further, the detection unit 202 performs edge detection filter processing on the Y signal using an edge detection filter in which filter coefficients (−1, 0, 1) as shown in FIG. 11 are set. FIG. 10E shows a diagram in which signal values after edge detection filter processing for the Y signal are arranged in correspondence with the respective pixel positions. Furthermore, the detection unit 202 compares the absolute value of the filter output level of the edge detection filter with a preset edge level determination value EdgeThLevel. Then, the detection unit 202 obtains a pixel position where the absolute value of the filter output level after the filter processing is larger than the edge level determination value EdgeThLevel. In the following description, the absolute value of the filter output level after the edge detection filter processing is expressed as “signal absolute value”.

さらに、検出部202は、信号絶対値がエッジレベル判定値EdgeThLevelより大きい各画素位置の連続する領域の幅(エッジ幅方向の長さ)と、予め設定されたエッジ長さ判定値EdgeThLengthとを比較する。そして、検出部202は、それら各画素位置の連続した領域の幅(幅方向の長さ)が、エッジ長さ判定値EdgeThLength以上となっている領域(連続した領域の幅がエッジ長さ判定値以上連続している領域)を、エッジ部として検出する。例えば、エッジレベル判定値EdgeThLevelを「300」、エッジ長さ判定値EdgeThLengthを「3」とした場合、図10(e)の例において、検出部202は、画素位置「4〜7」の領域をエッジ部として検出する。ステップS801の後、検出部202は、ステップS802に処理を進める。   Further, the detection unit 202 compares the width of the continuous region (length in the edge width direction) of each pixel position where the signal absolute value is larger than the edge level determination value EdgeThLevel with a preset edge length determination value EdgeThLength. To do. Then, the detection unit 202 has a region in which the width (length in the width direction) of the continuous regions at each pixel position is equal to or greater than the edge length determination value EdgeThLength (the width of the continuous region is the edge length determination value). The above continuous area) is detected as an edge portion. For example, when the edge level determination value EdgeThLevel is “300” and the edge length determination value EdgeThLength is “3”, in the example of FIG. 10E, the detection unit 202 detects the region of the pixel position “4-7”. Detect as an edge part. After step S801, the detection unit 202 advances the process to step S802.

ステップS802において、検出部202は、ステップS801で検出されたエッジ部の両端から外側方向に向かって、隣接する画素位置の画素間でY信号値の変化量が小さい各画素が所定の数以上続いた領域(ベタ部)が存在しているか否かを判定する。具体的には、検出部202は、エッジ部の両端に含まれる画素位置の1画素分だけ外側の画素位置から、所定の数であるベタ部長さ判定値Betaとして予め設定されている幅(長さ)に相当する画素位置までの画素領域(画素数)を決める。さらに、検出部202は、ベタ部長さ判定値Betaに対応した画素領域内の各画素位置において、図10(e)に示した信号絶対値と、所定の変化判定値として予め設定されたベタ部レベル判定値BetaThLevelとを比較する。   In step S802, the detection unit 202 continues a predetermined number or more of pixels each having a small amount of change in the Y signal value between pixels at adjacent pixel positions from the both ends of the edge portion detected in step S801 toward the outer side. It is determined whether or not a region (solid portion) exists. Specifically, the detection unit 202 has a width (length) set in advance as a solid portion length determination value Beta, which is a predetermined number, from a pixel position that is one pixel outside the pixel positions included at both ends of the edge portion. The pixel area (the number of pixels) up to the pixel position corresponding to (a) is determined. Furthermore, the detection unit 202 has a signal absolute value shown in FIG. 10E and a solid part preset as a predetermined change judgment value at each pixel position in the pixel region corresponding to the solid part length judgment value Beta. The level judgment value BetaThLevel is compared.

そして、検出部202は、ベタ部長さ判定値Betaの画素領域内の全ての画素位置において、信号絶対値がベタ部レベル判定値BetaThLevelより小さい場合、ステップS801で検出したエッジ部は有効なエッジ部であると判定する。例えば、ベタ部長さ判定値Betaを「3」、ベタ部レベル判定値BetaThLevelを「100」とした場合、検出部202は、図10(g)のように、画素位置「1〜3」の領域と、画素位置「8〜10」の領域をそれぞれベタ部として検出する。そして、検出部202は、それら画素位置「1〜3」と「8〜10」のベタ部内の全画素位置において、信号絶対値がベタ部レベル判定値BetaThLevelより小さい場合、画素位置「4〜7」のエッジ部は有効なエッジ部であると判定する。このように、ベタ部長さ判定値Betaの画素領域内の全ての画素位置において、信号絶対値がベタ部レベル判定値BetaThLevelより小さい場合、エッジ部の両端の外側領域は、隣接画素位置間で信号値の変化が小さいベタ部になっていると考えられる。検出部202は、ステップS802において、エッジ部の両端の外側領域がベタ部として検出されて、そのエッジ部が有効であると判定した場合には、ステップS803に処理を進める。ステップS803以降の処理は、ズレ量検出のための処理である。   When the signal absolute value is smaller than the solid portion level determination value BetaThLevel at all pixel positions in the pixel region of the solid portion length determination value Beta, the detection unit 202 determines that the edge portion detected in step S801 is an effective edge portion. It is determined that For example, when the solid part length determination value Beta is “3” and the solid part level determination value BetaThLevel is “100”, the detection unit 202 has an area of pixel positions “1 to 3” as illustrated in FIG. Then, the area of the pixel position “8 to 10” is detected as a solid part. Then, when the signal absolute value is smaller than the solid part level determination value BetaThLevel at all the pixel positions in the solid parts of the pixel positions “1 to 3” and “8 to 10”, the detection unit 202 sets the pixel positions “4 to 7”. Is determined to be an effective edge portion. In this way, when the signal absolute value is smaller than the solid portion level determination value BetaThLevel at all pixel positions in the solid region length determination value Beta, the outer region at both ends of the edge portion is a signal between adjacent pixel positions. It is thought that the change of the value is a small solid part. If the detection unit 202 detects that the outer region at both ends of the edge portion is a solid portion in step S802 and determines that the edge portion is valid, the detection unit 202 advances the process to step S803. The processing after step S803 is processing for detecting a deviation amount.

一方、ステップS802において、検出部202は、ベタ部長さ判定値Betaの画素領域内の各画素位置のうち、信号絶対値がベタ部レベル判定値BetaThLevel以上となる画素位置が一つでも存在した場合には、図8の処理を終了する。ここで、信号絶対値がベタ部レベル判定値BetaThLevel以上となる画素位置が存在している領域は、例えば細かい模様等が繰り返される繰り返しパターンのような画像領域になっている可能性があると考えられる。したがって、検出部202は、ステップ802において、信号絶対値がベタ部レベル判定値BetaThLevel以上となる画素位置が存在していると判定した場合には、有効なエッジ部は存在しないとして、図8のフローチャートの処理を終了する。   On the other hand, in step S <b> 802, the detection unit 202 determines that at least one pixel position having a signal absolute value equal to or greater than the solid part level determination value BetaThLevel among the pixel positions in the pixel area of the solid part length determination value Beta exists. Then, the process of FIG. 8 ends. Here, the region where the pixel position where the signal absolute value is equal to or greater than the solid portion level determination value BetaThLevel may be an image region such as a repetitive pattern in which a fine pattern or the like is repeated. It is done. Therefore, if the detection unit 202 determines in step 802 that there is a pixel position where the signal absolute value is equal to or greater than the solid portion level determination value BetaThLevel, it is determined that there is no valid edge portion, and FIG. The process of the flowchart ends.

ステップS803の処理に進んだ場合、検出部202は、エッジ部の両端の外側領域のベタ部についてR,G,Bの各信号値をそれぞれ積分する。さらに、検出部202は、基準色の色成分であるGの積分値に対して基準色以外の色成分であるRの積分値の割合(ゲイン値)と、同じく基準色のGの積分値に対して基準色以外の色成分であるBの積分値の割合(ゲイン値)とを求める。そして、検出部202は、エッジ部を挟んで、画素位置の値が小さい方(色ズレ検出方向の始点側)のベタ部を第1ベタ部とし、画素位置の値が大きい方(色ズレ検出方向の終点側)のベタ部を第2ベタ部とし、式(2)〜式(5)により各ゲイン値を求める。   When the processing proceeds to step S803, the detection unit 202 integrates the R, G, and B signal values for the solid portion in the outer region at both ends of the edge portion. Further, the detection unit 202 sets the ratio (gain value) of the R integrated value that is a color component other than the reference color to the G integrated value that is the color component of the reference color, and the G integrated value of the reference color. On the other hand, the ratio (gain value) of the integral value of B, which is a color component other than the reference color, is obtained. Then, the detection unit 202 uses the solid portion with the smaller pixel position value (starting point side in the color misregistration detection direction) across the edge portion as the first solid portion, and the larger pixel position value (color misregistration detection). The solid portion on the end point side of the direction is set as the second solid portion, and each gain value is obtained by Expressions (2) to (5).

gainR1=sumG1/sumR1 ・・・式(2)
gainR2=sumG2/sumR2 ・・・式(3)
gainB1=sumG1/sumB1 ・・・式(4)
gainB2=sumG2/sumB2 ・・・式(5)
sumG1:第1ベタ部におけるG信号の積分値
sumG2:第2ベタ部におけるG信号の積分値
sumR1:第1ベタ部におけるR信号の積分値
sumR2:第2ベタ部におけるR信号の積分値
sumB1:第1ベタ部におけるB信号の積分値
sumB2:第2ベタ部におけるB信号の積分値
gainR1:第1ベタ部におけるGの積分値に対するRの積分値の割合(ゲイン値)
gainR2:第2ベタ部におけるGの積分値に対するRの積分値の割合(ゲイン値)
gainB1:第1ベタ部におけるGの積分値に対するBの積分値の割合(ゲイン値)
gainB2:第2ベタ部におけるGの積分値に対するBの積分値の割合(ゲイン値)
gainR1 = sumG1 / sumR1 Formula (2)
gainR2 = sumG2 / sumR2 Formula (3)
gainB1 = sumG1 / sumB1 Formula (4)
gainB2 = sumG2 / sumB2 Formula (5)
sumG1: Integral value of the G signal in the first solid part sumG2: Integral value of the G signal in the second solid part sumR1: Integral value of the R signal in the first solid part sumR2: Integral value of the R signal in the second solid part sumB1: Integral value of B signal in first solid part sumB2: Integral value of B signal in second solid part gainR1: Ratio of R integral value to integral value of G in first solid part (gain value)
gainR2: Ratio of R integrated value to G integrated value in second solid portion (gain value)
gainB1: Ratio of B integrated value to G integrated value in first solid portion (gain value)
gainB2: Ratio of B integrated value to G integrated value in second solid portion (gain value)

図10(h)には、図10(a)〜図10(c)の例において、第1ベタ部と第2ベタ部の各積分値とゲイン値の算出結果を示している。一例として、第1ベタ部を挙げた場合、sumR1は「2400」、sumG1は「3000」、sumB1は「1500」となり、gainR1は「1.25」、gainB1は「2.00」となる。ステップS803の後、検出部202は、ステップS804に処理を進める。   FIG. 10 (h) shows the calculation results of the integral values and gain values of the first and second solid portions in the examples of FIGS. 10 (a) to 10 (c). As an example, when the first solid part is given, sumR1 is “2400”, sumG1 is “3000”, sumB1 is “1500”, gainR1 is “1.25”, and gainB1 is “2.00”. After step S803, the detection unit 202 advances the process to step S804.

ステップS804では、検出部202は、エッジ部の両端の外側領域のR信号のゲイン値を比較し、同様に、エッジ部の両端の外側領域のB信号のゲイン値を比較する。ここで例えば、エッジ部の両端の外側領域のR信号やB信号のゲイン値が大きく異なっている場合には、エッジ部に色付きが生じている可能性が高いと考えられる。そして、このようにエッジ部に色付きが生じている場合には、G信号に対するR,B信号の相関が低くなっていると考えられる。このように、エッジ部に色付きが生じていて、エッジ部の両端の外側領域でG信号に対するR,B信号の相関が低くなっている場合には、倍率色収差補正のための色ズレ量検出精度は低下してしまう可能性が高くなる。このため、検出部202は、式(6)と式(7)のように、R信号とB信号のそれぞれについて、エッジ部の両端の外側領域のゲイン値の差分の絶対値が、ゲイン値に対するしきい値として予め設定されているゲイン判定値より小さいか否かを判定する。   In step S804, the detection unit 202 compares the gain value of the R signal in the outer region at both ends of the edge portion, and similarly compares the gain value of the B signal in the outer region at both ends of the edge portion. Here, for example, when the gain values of the R signal and B signal in the outer regions at both ends of the edge portion are greatly different, it is considered that the edge portion is likely to be colored. When the edge portion is colored in this way, it is considered that the correlation between the R and B signals with respect to the G signal is low. As described above, when the edge portion is colored and the correlation between the R and B signals with respect to the G signal is low in the outer region at both ends of the edge portion, the color shift amount detection accuracy for correcting the lateral chromatic aberration is corrected. Is likely to decline. For this reason, as shown in Equation (6) and Equation (7), the detection unit 202 determines that the absolute value of the difference between the gain values of the outer regions at both ends of the edge portion is relative to the gain value for each of the R signal and the B signal. It is determined whether or not the gain determination value is preset as a threshold value.

abs(gainR1−gainR2)<ThDiffGainR ・・・式(6)
abs(gainB1−gainB2)<ThDiffGainB ・・・式(7)
abs (gainR1-gainR2) <ThDiffGainR (6)
abs (gainB1-gainB2) <ThDiffGainB (7)

なお、式(6)のabs(gainR1−gainR2)は、前述の式(2)と式(3)で得られたR信号におけるエッジ部の両端の外側領域の各ゲイン値(gainR1とgainR2)の差分の絶対値である。また、式(7)のabs(gainB1−gainB2)は、式(3)と式(4)で得られたB信号におけるエッジ部の両端の外側領域の各ゲイン値(gainB1とgainB2)の差分の絶対値である。式(6)のThDiffGainRは、R信号に対するゲイン値のしきい値として設定されているゲイン判定値であり、ThDiffGainBは、B信号に対するゲイン値のしきい値として設定されているゲイン判定値である。以下の説明では、R信号とB信号における差分絶対値abs(gainR1−gainR2)とabs(gainB1−gainB2)を、単に「差分絶対値abs」と表記する。また、ゲイン判定値ThDiffGainR,ThDiffGainBを、単に「ゲイン判定値ThDiffGain」と表記する。   Note that abs (gainR1-gainR2) in equation (6) is the gain value (gainR1 and gainR2) of the outer region at both ends of the edge portion in the R signal obtained by equations (2) and (3) described above. The absolute value of the difference. Also, abs (gainB1-gainB2) in equation (7) is the difference between the gain values (gainB1 and gainB2) of the outer regions at both ends of the edge portion in the B signal obtained by equations (3) and (4). Absolute value. In the equation (6), ThDiffGainR is a gain determination value set as a gain value threshold for the R signal, and ThDiffGainB is a gain determination value set as a gain value threshold for the B signal. . In the following description, the difference absolute values abs (gainR1-gainR2) and abs (gainB1-gainB2) in the R signal and the B signal are simply expressed as “difference absolute value abs”. Further, the gain determination values ThDiffGainR and ThDiffGainB are simply expressed as “gain determination values ThDiffGain”.

ここで、R,B信号における差分絶対値absが、それぞれ対応したゲイン判定値ThDiffGainより小さい場合には、エッジ部に色付きは生じていないと考えられる。この場合、倍率色収差補正のための色ズレ量は、高い精度で検出可能になると考えられる。これに対し、R,B信号における差分絶対値absの少なくとも一方が、対応したゲイン判定値ThDiffGain以上の場合には、エッジ部に色付きが生じていると考えられる。この場合、倍率色収差補正のための色ズレ量は、高い精度では検出できないと考えられる。このため、検出部202は、ステップS804において、R,B信号における差分絶対値absが、それぞれ対応したゲイン判定値ThDiffGainより小さいと判定した場合には、ステップS805に処理を進める。一方、検出部202は、ステップS804において、R,B信号における差分絶対値absの少なくとも一方が、対応したゲイン判定値ThDiffGain以上になっていると判定した場合には、図8の色ズレ量の検出処理を終了する。   Here, when the difference absolute value abs in the R and B signals is smaller than the corresponding gain determination value ThDiffGain, it is considered that the edge portion is not colored. In this case, it is considered that the color shift amount for correcting the lateral chromatic aberration can be detected with high accuracy. On the other hand, when at least one of the absolute difference values abs in the R and B signals is equal to or greater than the corresponding gain determination value ThDiffGain, it is considered that the edge portion is colored. In this case, it is considered that the color misregistration amount for correcting the lateral chromatic aberration cannot be detected with high accuracy. Therefore, if the detection unit 202 determines in step S804 that the absolute difference value abs in the R and B signals is smaller than the corresponding gain determination value ThDiffGain, the process proceeds to step S805. On the other hand, when the detection unit 202 determines in step S804 that at least one of the absolute difference values abs in the R and B signals is equal to or greater than the corresponding gain determination value ThDiffGain, the color shift amount of FIG. The detection process ends.

ステップS805では、検出部202は、RとBの信号を、色ズレ検出方向にそれぞれ1画素分ずつずらしながらローカルメモリ204から読み出して、エッジ部の信号値について基準色のGプレーンの対応する画素の信号値との相関値をそれぞれ求める。式(8)、式(9)には、Gプレーンの対応する画素の信号値との相関値としての差分絶対値和であるSAD値(sadR[k],sadB[k])の算出式を示す。   In step S805, the detection unit 202 reads out the R and B signals from the local memory 204 while shifting the R and B signals by one pixel each in the color misregistration detection direction, and corresponds to the pixel value corresponding to the G plane of the reference color for the signal value of the edge portion. Correlation values with the signal values of are respectively obtained. In Expressions (8) and (9), a calculation expression of SAD values (sadR [k], sadB [k]) that is a sum of absolute differences as a correlation value with the signal value of the corresponding pixel of the G plane is used. Show.

Figure 0006559020
Figure 0006559020

なお、式(8)と式(9)において、kはR,B信号を取得する際の画素のずらし位置を示す値であり、その値は検出したい色ズレ量の最大値に合わせて変更される。また、gainRは、エッジ部の両端の外側領域でR信号について前述の式(2)と式(3)でそれぞれ求めたゲイン値gainR1とgainR2の平均値である。同様に、gainBは、エッジ部の両端の外側領域でB信号について前述の式(4)と式(5)でそれぞれ求めたゲイン値gainB1とgainB2の平均値である。以下の説明では、差分絶対値和のSAD値(sadR[k],sadB[k])を、単に「SAD値」と表記する。ステップS805の後、検出部202は、ステップS806に処理を進める。   In Expressions (8) and (9), k is a value indicating the pixel shift position when acquiring the R and B signals, and the value is changed according to the maximum value of the amount of color misregistration to be detected. The Further, gainR is an average value of the gain values gainR1 and gainR2 respectively obtained by the above-described equations (2) and (3) for the R signal in the outer region at both ends of the edge portion. Similarly, gainB is an average value of the gain values gainB1 and gainB2 obtained by the above-described equations (4) and (5) for the B signal in the outer region at both ends of the edge portion. In the following description, the SAD value (sadR [k], sadB [k]) of the sum of absolute differences is simply expressed as “SAD value”. After step S805, the detection unit 202 advances the process to step S806.

ステップS806では、検出部202は、前述のようにして求めたSAD値を、検出した色ズレ量の情報として、図12に示すように、像高とエッジ検出方向の情報とともにローカルメモリ204に記憶させる。なお、図12の検出方向の数値は、前述の図4の領域d0〜d7における0〜7に対応する。
検出部202は、以上の各処理を全てのブロックの各列について行う。全てのブロックの各列についての処理が終わると、検出部202は、図8のフローチャートの処理を終了する。
In step S806, the detection unit 202 stores the SAD value obtained as described above as information on the detected amount of color misregistration in the local memory 204 together with information on the image height and the edge detection direction as shown in FIG. Let 12 corresponds to 0 to 7 in the areas d0 to d7 in FIG. 4 described above.
The detection unit 202 performs the above processes for each column of all blocks. When the process for each column of all the blocks is completed, the detection unit 202 ends the process of the flowchart of FIG.

以下、代表値算出部203について詳細に説明する。
代表値算出部203は、検出部202による全てのブロックについての色ズレ量の検出が完了した後、ローカルメモリ204に記憶されている各サンプルのSAD値を参照して色ズレ量を推定する。
Hereinafter, the representative value calculation unit 203 will be described in detail.
The representative value calculation unit 203 estimates the color misregistration amount with reference to the SAD value of each sample stored in the local memory 204 after the detection unit 202 detects the color misregistration amount for all the blocks.

具体的には、代表値算出部203は、先ず、SAD値が最少となるずらし位置K0とその前後のずらし位置(K0−1),(K0+1)におけるSAD値とから、以下の式(10)を用い、1画素分を構成するR,G,Bの各サブピクセル単位の色ズレ量を求める。   Specifically, the representative value calculation unit 203 first calculates the following equation (10) from the shift position K0 at which the SAD value is minimized and the SAD values at the shift positions (K0-1) and (K0 + 1) before and after the shift position. Is used to determine the amount of color misregistration for each R, G, B subpixel constituting one pixel.

x=−[S(K0+1)-S(K0-1)]/[2S(K0-1)-4S(K0)+2S(K0+1)] ・・・式(10)
ここで、xは色ズレ量の推定値、S(K)は各ずらし位置におけるSAD値のsadR[k]又はsadB[k]である。
x =-[S (K0 + 1) -S (K0-1)] / [2S (K0-1) -4S (K0) + 2S (K0 + 1)] (10)
Here, x is an estimated value of the color misregistration amount, and S (K) is sadR [k] or sadB [k] of the SAD value at each shift position.

さらに、代表値算出部203は、前述のようにサブピクセル単位で算出した色ズレ量を、図13のように像高区間(h1〜h5)別に集計(合計)し、全てのサンプルについて集計が完了した後、像高区間別の色ズレ量の平均値を算出する。そして、代表値算出部203は、算出した平均値を、図5(b)に示した色ズレ量の代表値として、サンプル数とともにRAM104に記憶させる。   Further, the representative value calculation unit 203 aggregates (totals) the color misregistration amount calculated in units of subpixels as described above for each image height interval (h1 to h5) as shown in FIG. After the completion, an average value of color misregistration amounts for each image height section is calculated. Then, the representative value calculation unit 203 stores the calculated average value in the RAM 104 together with the number of samples as the representative value of the color misregistration amount shown in FIG.

以上説明したように、本実施形態によれば、色ズレ検出部105は、前述したように有効なエッジ部を確実に検出でき、また有効なエッジ部の検出により、そのエッジ部の両端の外側領域のベタ部をも確実に検出できる。すなわち、本実施形態によれば、有効なエッジ部とベタ部から、色ズレ量の検出に使用されるゲイン値を1度だけ算出すればよいことになる。このように、本実施形態によれば、従来はずらし位置を変更する度に行われていたレベル合わせのためのゲイン値算出を、エッジ部の両端の外側のベタ部から1度だけ算出すればよいため、短時間に色ズレ量を検出可能となる。また、本実施形態では、エッジ部の両端の外側のベタ部判定及びゲイン値の比較を行うことで、エッジ部に色付きが生じている場合や、ベタ部が存在せず繰り返しパターン等になっている領域を、色ズレ量検出の際に使用しないようにすることができる。このため、本実施形態によれば、色ズレ量の検出を高い精度で行うことができる。   As described above, according to the present embodiment, the color misregistration detection unit 105 can reliably detect an effective edge portion as described above, and by detecting the effective edge portion, the outside of both ends of the edge portion can be detected. The solid part of the region can also be reliably detected. That is, according to the present embodiment, the gain value used for detecting the color misregistration amount needs to be calculated only once from the effective edge portion and the solid portion. As described above, according to the present embodiment, if the gain value calculation for level adjustment, which is conventionally performed every time the shift position is changed, is calculated only once from the solid portions outside the both ends of the edge portion. Therefore, the amount of color misregistration can be detected in a short time. Further, in this embodiment, by performing determination of the solid portion outside the both ends of the edge portion and comparison of the gain values, when the edge portion is colored or there is no solid portion, a repetitive pattern or the like is obtained. This area can be prevented from being used when detecting the amount of color misregistration. For this reason, according to this embodiment, the amount of color misregistration can be detected with high accuracy.

<第2の実施形態>
以下、第2の実施形態について説明する。
第2の実施形態のデジタルカメラ100は、基本的な構成については前述の図1のデジタルカメラ100と同じであるが、色ズレ検出部105における色ズレ量検出処理が第1の実施形態とは異なる。第2の実施形態の場合、色ズレ検出部105は、エッジ検出をR,G,B信号別に行うことで色ずれ量の検出精度を向上させている。以下、第1の実施形態とは異なる部分のみ説明する。
<Second Embodiment>
Hereinafter, the second embodiment will be described.
The digital camera 100 of the second embodiment has the same basic configuration as the digital camera 100 of FIG. 1 described above, but the color misregistration detection processing in the color misregistration detection unit 105 is different from the first embodiment. Different. In the case of the second embodiment, the color misregistration detection unit 105 improves the detection accuracy of the color misregistration amount by performing edge detection for each of the R, G, and B signals. Only the parts different from the first embodiment will be described below.

前述した第1の実施形態では、R,G,B信号から算出したY信号を用いてエッジ検出を行っている。ここで、例えばR,G,Bの各信号の何れかの信号が他の信号に対して大きくずれているような場合(例えば色ズレ量が画素位置に換算して10画素分近くにまで及ぶような場合)、Y信号では、R,B信号のエッジ部を正確に検出できない可能性がある。例えば図14には、各画素位置Nsg,Nsr,Neg,Ner,Nsb,Nsbのうち、例えばG,B信号に対してB信号が大きくずれている例を示している。この図14の例のような場合、前述の第1の実施形態のようにY信号のみを用いたのでは、色ズレ量の検出精度が低下してしまう虞がある。このように色ズレ量が大きい場合において、色ズレ量の検出を行う場合には、第2の実施形態のように、R,G,B信号それぞれでエッジ検出を行う方法が有効である。   In the first embodiment described above, edge detection is performed using the Y signal calculated from the R, G, and B signals. Here, for example, when any one of the R, G, B signals is greatly deviated from the other signals (for example, the amount of color misregistration is converted to a pixel position and reaches nearly 10 pixels). In such a case, there is a possibility that the edge portions of the R and B signals cannot be accurately detected with the Y signal. For example, FIG. 14 shows an example in which the B signal is largely deviated from, for example, the G and B signals among the pixel positions Nsg, Nsr, Neg, Ner, Nsb, and Nsb. In the case of the example of FIG. 14, if only the Y signal is used as in the first embodiment described above, the detection accuracy of the color misregistration amount may be lowered. When the amount of color misregistration is large in this way, when detecting the amount of color misregistration, a method of performing edge detection for each of the R, G, and B signals is effective as in the second embodiment.

第2の実施形態において、色ズレ検出処理の全体の処理の流れは、前述の第1の実施形態で説明した図8のフローチャートに示した処理と概ね同じである。ただし、第2の実施形態の場合は、ベタ部判定及びゲイン値の算出を、R,G,Bそれぞれにおけるエッジ部両端の始点と終点の画素位置の外側の画素領域を参照して行う。図14の例の場合、NsgとNegはGにおけるエッジ部の始点と終点の画素位置であり、同様に、NsrとNerはRにおける始点と終点、NsbとNebはBにおける始点と終点の画素位置である。したがって、第2の実施形態では、それら画素位置Nsg,Nsr,Neg,Ner,Nsb,Nebを除いた外側の画素領域のR,G,Bの各信号値を参照してベタ部判定及びゲイン値の算出を行う。   In the second embodiment, the overall process flow of the color misregistration detection process is substantially the same as the process shown in the flowchart of FIG. 8 described in the first embodiment. However, in the case of the second embodiment, the solid portion determination and the gain value calculation are performed with reference to the pixel regions outside the start point and end point pixel positions at both ends of the edge portion in each of R, G, and B. In the case of the example of FIG. 14, Nsg and Neg are the pixel positions of the start point and end point of the edge portion in G. Similarly, Nsr and Ner are the start point and end point of R, and Nsb and Neb are the pixel positions of the start point and end point of B It is. Therefore, in the second embodiment, the solid portion determination and the gain value are performed by referring to the R, G, and B signal values of the outer pixel area excluding the pixel positions Nsg, Nsr, Neg, Ner, Nsb, and Neb. Is calculated.

そして、第2の実施形態の場合、色ズレ検出部105は、式(11)〜式(16)により、第1ベタ部と第2ベタ部のR,G,Bの各々について各積分値sumG1,sumG2,sumR1,sumR2,sumB1,sumB2を求める。   In the case of the second embodiment, the color misregistration detection unit 105 calculates each integral value sumG1 for each of R, G, and B of the first solid part and the second solid part according to Expressions (11) to (16). , SumG2, sumR1, sumR2, sumB1, and sumB2.

Figure 0006559020
Figure 0006559020

ここで、式(11)〜式(16)の「Bata」は第1の実施形態の場合と同様に、エッジ両端のベタ部長さ判定値である。
さらに、色ズレ検出部105は、それら各積分値sumG1,sumG2,sumR1,sumR2,sumB1,sumB2を用いて、前述の式(2)〜式(5)によりゲイン値gainR1,gainR2,gainB1,gainB2を求める。そして、色ズレ検出部105は、これらゲイン値を用い、以下、前述の第1の実施形態で説明したのと同様にして色ズレ量を求める。これにより、第2の実施形態においても、第1の実施形態の場合と同様に、短時間に高い精度で色ズレ量を検出可能となる。さらに第2の実施形態の場合は、R,G,B信号において色ズレ量が大きい場合であっても、高精度の色ズレ量検出が可能である。
Here, “Bata” in Expressions (11) to (16) is a solid portion length determination value at both ends of the edge, as in the case of the first embodiment.
Further, the color misregistration detection unit 105 uses the integrated values sumG1, sumG2, sumR1, sumR2, sumB1, and sumB2 to obtain the gain values gainR1, gainR2, gainB1, and gainB2 according to the above formulas (2) to (5). Ask. Then, the color misregistration detection unit 105 uses these gain values to obtain the color misregistration amount in the same manner as described in the first embodiment. Thereby, also in the second embodiment, the amount of color misregistration can be detected with high accuracy in a short time, as in the case of the first embodiment. Furthermore, in the case of the second embodiment, even when the amount of color misregistration is large in the R, G, and B signals, it is possible to detect the amount of color misregistration with high accuracy.

<第3の実施形態>
以下、第3の実施形態について説明する。
第3の実施形態のデジタルカメラ100は、基本的な構成については前述の図1のデジタルカメラ100と同じであるが、色ズレ検出部105における色ズレ量検出処理が第1の実施形態とは異なる。第3の実施形態の色ズレ検出部105は、色ズレ検出方向で抽出した複数列の画素値を用いて複数のエッジ部を検出し、それら複数のエッジ部で検出したベタ部の積分値を加算した値を用いてゲイン値を算出することで、色ズレ量の検出精度を向上させている。
<Third Embodiment>
Hereinafter, a third embodiment will be described.
The digital camera 100 of the third embodiment has the same basic configuration as the digital camera 100 of FIG. 1 described above, but the color misregistration detection processing in the color misregistration detection unit 105 is different from the first embodiment. Different. The color misregistration detection unit 105 according to the third embodiment detects a plurality of edge portions using a plurality of columns of pixel values extracted in the color misregistration detection direction, and calculates an integral value of the solid portion detected at the plurality of edge portions. By calculating the gain value using the added value, the detection accuracy of the color misregistration amount is improved.

前述の第1の実施形態では、検出したエッジ部の両端の外側のベタ部から取得したR,G,B信号の積分値のみを用いてゲイン算出を行っている。ただし、第1の実施形態の場合、例えば高感度で撮像が行われて取得された撮影画像等のように、ノイズの影響が大きくなっている場合には、エッジ部が正しく検出されずゲイン値算出の精度が低下してしまう虞がある。このようにノイズの影響が大きい撮影画像を用いて色ズレ検出を行う場合には、第3の実施形態のように、複数のエッジ部に対するベタ部で取得した積分値を集計した値を用いてゲイン値の算出を行う方法が有効である。以下、第1の実施形態とは異なる部分のみ説明する。   In the first embodiment described above, gain calculation is performed using only the integral values of the R, G, and B signals acquired from the solid portions outside both ends of the detected edge portion. However, in the case of the first embodiment, for example, when the influence of noise is large, such as a captured image obtained by imaging with high sensitivity, the edge portion is not detected correctly, and the gain value There is a possibility that the accuracy of the calculation is lowered. When color misregistration detection is performed using a photographed image having a large influence of noise in this way, as in the third embodiment, a value obtained by summing up integral values acquired with a solid portion with respect to a plurality of edge portions is used. A method of calculating the gain value is effective. Only the parts different from the first embodiment will be described below.

図15には、第3の実施形態の場合の色ズレ検出部105の検出部202における処理のフローチャートを示す。なお、図15のフローチャートにおいて、ステップS1501のエッジ検出からステップS1504のゲイン値比較までの処理は、図8のステップS801からステップS804までの処理と同じであるため、それらの説明は省略する。また、図15のステップS1509とステップS1510は、図8のステップS805とステップS806と同じ処理であるため、それらの説明についても省略する。   FIG. 15 shows a flowchart of processing in the detection unit 202 of the color misregistration detection unit 105 in the case of the third embodiment. In the flowchart of FIG. 15, the processing from edge detection in step S1501 to gain value comparison in step S1504 is the same as the processing from step S801 to step S804 in FIG. Further, step S1509 and step S1510 in FIG. 15 are the same processes as step S805 and step S806 in FIG.

ただし、第3の実施形態の場合、検出部202は、ステップS1502において有効なエッジ部が存在しないと判定した場合には、ステップS1507に処理を進める。また、検出部202は、ステップS1504においてエッジ両端のゲイン値の差分絶対値absがゲイン判定値ThDiffGainR,ThDiffGainB以上であると判定した場合には、ステップS1507に処理を進める。一方、検出部202は、ステップS1504において差分絶対値absがゲイン判定値ThDiffGainR,ThDiffGainBより小さいと判定した場合には、ステップS1505に処理を進める。   However, in the case of the third embodiment, when the detection unit 202 determines in step S1502 that there is no valid edge portion, the detection unit 202 advances the processing to step S1507. If the detection unit 202 determines in step S1504 that the difference absolute value abs of the gain values at both ends of the edge is greater than or equal to the gain determination values ThDiffGainR and ThDiffGainB, the process proceeds to step S1507. On the other hand, if the detection unit 202 determines in step S1504 that the absolute difference value abs is smaller than the gain determination values ThDiffGainR and ThDiffGainB, the process proceeds to step S1505.

第3の実施形態の場合、ステップS1505では、検出部202は、前述したベタ部の積分値sumG1,sumG2,sumR1,sumR2,sumB1,sumB2を、変数sumG_blk,sumR_blk,sumB_blkに加算する。このときの計算式は、式(17)〜式(19)により表される。なお、変数sumG_blk,sumR_blk,sumB_blkは、ブロック毎の色ズレ検出を開始する前には「0」に初期化されているものとする。   In the case of the third embodiment, in step S1505, the detection unit 202 adds the above-described integral values sumG1, sumG2, sumR1, sumR2, sumB1, and sumB2 to the variables sumG_blk, sumR_blk, and sumB_blk. The calculation formula at this time is expressed by formula (17) to formula (19). Note that the variables sumG_blk, sumR_blk, and sumB_blk are initialized to “0” before starting color misregistration detection for each block.

sumG_blk=sumG_blk+(sumG1+sumG2)・・・式(17)
sumR_blk=sumR_blk+(sumR1+sumR2)・・・式(18)
sumB_blk=sumB_blk+(sumB1+sumB2)・・・式(19)
sumG_blk = sumG_blk + (sumG1 + sumG2) (17)
sumR_blk = sumR_blk + (sumR1 + sumR2) (18)
sumB_blk = sumB_blk + (sumB1 + sumB2) Expression (19)

ステップS1505の後、検出部202は、ステップS1506に処理を進める。
ステップS1506では、検出部202は、色ズレ検出の対象ブロックと同じ画素数サイズとなされている図16のようなエッジマップ変数EdgeMapについて、Gプレーンから検出されたエッジ部に対応した小領域の各座標位置の要素に「1」をセットする。ここで、エッジマップ変数EdgeMapは、各要素が2次元配列されて形成された変数マップであり、ブロック毎の色ズレ検出が開始する前には全ての要素が「0」に初期化されているものとする。ステップS1506の後、検出部202は、ステップS1507に処理を進める。
After step S1505, the detection unit 202 advances the process to step S1506.
In step S1506, the detection unit 202 sets each of the small regions corresponding to the edge portion detected from the G plane with respect to the edge map variable EdgeMap as shown in FIG. 16 that has the same pixel size as the target block for color misregistration detection. “1” is set in the element of the coordinate position. Here, the edge map variable EdgeMap is a variable map formed by arranging each element two-dimensionally, and all the elements are initialized to “0” before the color shift detection for each block is started. Shall. After step S1506, the detection unit 202 advances the process to step S1507.

ステップS1507では、検出部202は、ブロック内で色ズレ検出方向の全列の画素値についてステップS1501〜S1506の処理が完了したか否かを判定する。ステップS1507において、検出部202は、ブロック内の全列についての処理が完了したと判定した場合にはステップS1508に処理を進め、一方、処理が完了していないと判定した場合にはステップS1501に処理を戻されて次の画素列の処理が行われる。   In step S1507, the detection unit 202 determines whether or not the processing in steps S1501 to S1506 has been completed for the pixel values of all columns in the color misregistration detection direction in the block. In step S1507, if the detection unit 202 determines that the processing has been completed for all the columns in the block, the detection unit 202 proceeds to step S1508. If it is determined that the processing has not been completed, the detection unit 202 proceeds to step S1501. The process is returned and the next pixel column is processed.

ステップS1508の処理に進んだ場合、検出部202は、式(20)と式(21)を用いて、ゲイン値gainR_blk,gainB_blkを算出する。これにより、エッジマップ変数EdgeMap内で用素が「1」となされた小領域の中で、複数のエッジ部について各々算出された複数の積分値が加算され、それら複数の積分値を加算した値から算出されたゲイン値が得られることになる。   When the process proceeds to step S1508, the detection unit 202 calculates gain values gainR_blk and gainB_blk using Expression (20) and Expression (21). As a result, a plurality of integration values calculated for each of the plurality of edge portions are added in the small region where the element is “1” in the edge map variable EdgeMap, and the value obtained by adding the plurality of integration values is added. The gain value calculated from the above is obtained.

gainR_blk=sumG_blk/sumR_blk ・・・式(20)
gainB_blk=sumG_blk/sumB_blk ・・・式(21)
gainR_blk = sumG_blk / sumR_blk (20)
gainB_blk = sumG_blk / sumB_blk (21)

ステップS1508の後、検出部202は、ステップS1509に処理を進める。
ステップS1509では、検出部202は、ゲイン値gainR_blk,gainB_blkとエッジマップ変数EdgeMapとを用い、式(22)、式(23)によりブロック単位のSAD値(sadR[k],sadB[k])を求める。
After step S1508, the detection unit 202 advances the process to step S1509.
In step S1509, the detection unit 202 uses the gain values gainR_blk, gainB_blk and the edge map variable EdgeMap, and calculates the SAD values (sadR [k], sadB [k]) in units of blocks using Expressions (22) and (23). Ask.

Figure 0006559020
Figure 0006559020

ここで、Nhはブロックの水平方向画素数、Nvはブロックの垂直方向画素数である。kはR,B信号を取得するずらし位置である。また、α,βはずらし位置で取得するR,B信号の方向を決定するパラメータであり、図17に示すように色ズレ検出方向に応じて一意に決まる値である。ステップS1508の後、検出部202は、図8のステップS805と同じ処理であるステップS1509に処理を進める。以下の処理は、前述の図8のステップS806,S806と同じであるため説明は省略する。   Here, Nh is the number of pixels in the horizontal direction of the block, and Nv is the number of pixels in the vertical direction of the block. k is a shift position for acquiring the R and B signals. Further, α and β are parameters for determining the directions of the R and B signals acquired at the shifted position, and are values uniquely determined according to the color misregistration detection direction as shown in FIG. After step S1508, the detection unit 202 advances the process to step S1509, which is the same process as step S805 in FIG. The following processing is the same as steps S806 and S806 of FIG.

なお、検出部202は、ステップS1504による各エッジのゲイン値を記憶し、ブロック全体で得られたゲイン値のばらつきが所定範囲内に収まる(ブロック全体で均一色と判断できる)場合のみ、ステップS1508のゲイン値算出を行うようにしてもよい。   Note that the detection unit 202 stores the gain value of each edge obtained in step S1504, and only when the variation of the gain value obtained in the entire block is within a predetermined range (can be determined as a uniform color in the entire block), in step S1508. The gain value may be calculated.

以上説明したように、第3の実施形態においては、複数のエッジ部で検出されたベタ部の積分値をブロック単位で加算した結果を用いてゲイン値算出することにより、ノイズに対するゲイン算出の敏感度を抑え、高い検出精度を維持することが可能となる。   As described above, in the third embodiment, the gain value is calculated using a result obtained by adding the integral values of the solid portions detected at the plurality of edge portions in units of blocks, thereby making the gain calculation sensitive to noise. The degree of detection can be suppressed and high detection accuracy can be maintained.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100 デジタルカメラ、101 撮像レンズ、102 撮像素子、103 A/D変換器、104 RAM、105 色ズレ検出部、106 色ズレ補正部、107 画像処理部、108 外部メモリ制御部、109 外部メモリ、201 入力データ変換部、202 ズレ量検出部、203 代表値算出部   DESCRIPTION OF SYMBOLS 100 Digital camera, 101 Imaging lens, 102 Image sensor, 103 A / D converter, 104 RAM, 105 Color shift detection part, 106 Color shift correction part, 107 Image processing part, 108 External memory control part, 109 External memory, 201 Input data conversion unit, 202 Deviation amount detection unit, 203 Representative value calculation unit

Claims (14)

光学系を介して撮像された撮影画像から、前記撮影画像の各画素を複数の色成分に分けて各画素が同一の色成分からなる複数の色プレーンの画像を生成する生成手段と、
前記複数の色プレーンを基に、画像のエッジ領域と、前記エッジ領域の周辺に画素値の変化量が所定の変化判定値より小さい各画素が続く小変化領域と、を検出する領域検出手段と、
記検出されたエッジ領域と小変化領域の各画素の色成分の値に基づいて、前記複数の色プレーンのうち基準色となされた色プレーンに対する、基準色以外の各色プレーンのズレ量を検出するズレ検出手段と
を有することを特徴とする画像処理装置。
Generating means for dividing each pixel of the photographed image into a plurality of color components and generating images of a plurality of color planes, each pixel having the same color component, from a photographed image captured through an optical system;
An area detecting means for detecting, based on the plurality of color planes, an edge area of the image and a small change area in which each pixel has a change amount smaller than a predetermined change determination value around the edge area; ,
Based on the value of the color component of each pixel before dangerous out edge regions and the small change area, for the color plane has been made with reference color among the plurality of color planes, other than the reference color shift amount of each color plane An image processing apparatus comprising: a deviation detecting unit that detects the deviation.
前記領域検出手段は、
前記複数の色プレーンから、前記撮影画像の撮像がなされた際に用いられた光学系により生ずる色収差に対応した検出方向の各画素からなる画素列を抽出し、前記抽出した画素列の各画素値に基づいて、前記画像のエッジ領域を検出し、
前記検出されたエッジ領域の前記検出方向の幅の両端からそれぞれ外側に向かって、前記検出方向に隣接する画素間の画素値の変化量が所定の変化判定値より小さい各画素が続く領域を、前記小変化領域として検出することを特徴とする請求項1に記載の画像処理装置。
The region detecting means includes
Extracting from the plurality of color planes a pixel column composed of pixels in the detection direction corresponding to chromatic aberration caused by the optical system used when the captured image was captured, and each pixel value of the extracted pixel column To detect an edge region of the image based on
An area in which the amount of change in the pixel value between pixels adjacent in the detection direction continues from each end of the width of the detected edge region in the detection direction is smaller than a predetermined change determination value. The image processing apparatus according to claim 1, wherein the image processing apparatus detects the small change area.
前記領域検出手段は、前記検出方向について前記抽出した画素列の各画素の複数の色成分から各画素に対応した各輝度値を生成し、前記生成した各輝度値に対して所定のエッジ検出フィルタ処理を施したフィルタ出力レベルの絶対値が所定のエッジレベル判定値より大きい画素が、所定のエッジ長さ判定値以上連続して存在する領域を、前記エッジ領域として検出することを特徴とする請求項2に記載の画像処理装置。 The area detection unit generates each luminance value corresponding to each pixel from a plurality of color components of each pixel of the extracted pixel row in the detection direction, and a predetermined edge detection filter for each of the generated luminance values An area in which pixels having an absolute value of a processed filter output level larger than a predetermined edge level determination value continuously exist for a predetermined edge length determination value or more is detected as the edge region. Item 3. The image processing apparatus according to Item 2. 前記領域検出手段は、前記検出方向について前記抽出した画素列の各画素の各色成分の値に対して所定のエッジ検出フィルタ処理を施したフィルタ出力レベルの絶対値が所定のエッジレベル判定値より大きい画素が、所定のエッジ長さ判定値以上連続して存在する領域を、前記エッジ領域として検出することを特徴とする請求項2に記載の画像処理装置。 The region detecting means is configured such that the absolute value of the filter output level obtained by performing predetermined edge detection filter processing on the value of each color component of each pixel of the extracted pixel row in the detection direction is based on a predetermined edge level determination value. The image processing apparatus according to claim 2, wherein an area in which large pixels continuously exist for a predetermined edge length determination value or more is detected as the edge area. 前記領域検出手段は、前記エッジ領域の前記両端からそれぞれ外側に向かって前記隣接する画素間の画素値の変化量が所定の変化判定値より小さい各画素が所定の数以上続く場合に、前記所定の数以上続いた各画素からなる領域を前記小変化領域として検出することを特徴とする請求項3又は4に記載の画像処理装置。   The region detection means is configured to detect the predetermined value when the amount of change in the pixel value between the adjacent pixels from the both ends of the edge region is smaller than a predetermined change determination value. 5. The image processing apparatus according to claim 3, wherein an area composed of each pixel that continues for a number of times is detected as the small change area. 6. 前記領域検出手段は、前記検出した前記小変化領域の各画素の全てが、前記所定のエッジ検出フィルタ処理を施したフィルタ出力レベルの絶対値が所定の変化判定値より小さい場合にのみ、前記検出したエッジ領域を有効なエッジ領域とし、
前記ズレ検出手段は、前記エッジ領域が有効なエッジ領域である場合にのみ、前記ズレ量の検出を行うことを特徴とする請求項5に記載の画像処理装置。
The region detecting means detects the detection only when the absolute value of the filter output level subjected to the predetermined edge detection filter processing is smaller than a predetermined change determination value for all the pixels of the detected small change region. The selected edge area as an effective edge area,
The image processing apparatus according to claim 5, wherein the deviation detection unit detects the deviation amount only when the edge area is an effective edge area.
前記領域検出手段は、前記検出したエッジ領域の前記両端に各々対応した小変化領域の各画素について各色成分の値をそれぞれ積分して積分値を算出し、前記基準色となされた色プレーンの色成分の積分値に対する前記基準色以外の色プレーンの色成分の積分値の割合を表すゲイン値を求め、前記エッジ領域の前記両端に各々対応した小変化領域の前記ゲイン値の差分の絶対値が、所定のゲイン判定値より小さい場合にのみ、前記検出したエッジ領域を有効なエッジ領域とし、
前記ズレ検出手段は、前記エッジ領域が有効なエッジ領域である場合にのみ、前記ズレ量の検出を行うことを特徴とする請求項5又は6に記載の画像処理装置。
Said region detecting means, wherein each the corresponding For each pixel of the small change area the value of each color component by integrating respectively calculates the integrated value to the ends of the detected edge region, the color plane has been made to the reference color Obtaining a gain value representing a ratio of an integral value of a color component of a color plane other than the reference color to an integral value of the color component, and calculating an absolute difference between the gain values of the small change regions respectively corresponding to the both ends of the edge region Only when the value is smaller than a predetermined gain determination value, the detected edge region is set as a valid edge region,
The image processing apparatus according to claim 5, wherein the deviation detection unit detects the deviation amount only when the edge area is an effective edge area.
前記ズレ検出手段は、前記検出された小変化領域における画素値に応じて、前記基準色の色プレーンと前記基準色以外の色プレーンの少なくとも一方の画素値のレベルに合わせ、前記レベルが合わされた後の、前記基準色の色プレーンの画素値と前記基準色以外の各色プレーンの画素値とに基づいて、前記ズレ量を検出することを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。   The deviation detecting means matches the level of at least one of the color plane of the reference color and the color plane other than the reference color according to the pixel value in the detected small change area, and the level is adjusted. 8. The shift amount is detected based on a pixel value of a color plane of the reference color and a pixel value of each color plane other than the reference color later. The image processing apparatus described. 前記領域検出手段は、前記検出したエッジ領域を含む所定の小領域の中で、前記検出方向に対応した複数の画素列を抽出して、前記複数の画素列の各画素に基づいて複数のエッジ領域を検出し、前記複数のエッジ領域に対して前記積分値を各々算出し、前記複数のエッジ領域に対して各々算出した複数の積分値を加算し、前記加算された積分値を用いて前記所定の小領域に対応した前記ゲイン値を求めることを特徴とする請求項7に記載の画像処理装置。   The region detecting means extracts a plurality of pixel columns corresponding to the detection direction from a predetermined small region including the detected edge region, and a plurality of edges based on each pixel of the plurality of pixel columns. Detecting an area, calculating each of the integral values for the plurality of edge areas, adding a plurality of integral values calculated for the plurality of edge areas, and using the added integral value The image processing apparatus according to claim 7, wherein the gain value corresponding to a predetermined small area is obtained. 前記領域検出手段は、前記検出したエッジ領域を含む所定の小領域の中で、前記検出方向に対応した複数の画素列を抽出して、前記複数の画素列の各画素に基づいて複数のエッジ領域を検出し、前記複数のエッジ領域に対して前記積分値を各々算出し、前記複数のエッジ領域に対してそれぞれ算出した積分値を用いて前記ゲイン値を求め、前記複数のエッジ領域について各々求められた複数のゲイン値のばらつきが、所定の範囲内に収まる場合に、前記複数のエッジ領域に対して各々算出した複数の積分値を加算して、前記加算された積分値を用いて前記所定の小領域に対応した前記ゲイン値を求めることを特徴とする請求項7に記載の画像処理装置。   The region detecting means extracts a plurality of pixel columns corresponding to the detection direction from a predetermined small region including the detected edge region, and a plurality of edges based on each pixel of the plurality of pixel columns. Detecting an area, calculating each of the integral values for the plurality of edge areas, determining the gain value using the calculated integral values for the plurality of edge areas, and each of the plurality of edge areas. When the obtained variation of the plurality of gain values falls within a predetermined range, the plurality of integral values calculated for each of the plurality of edge regions are added, and the added integral value is used to The image processing apparatus according to claim 7, wherein the gain value corresponding to a predetermined small area is obtained. 前記ズレ検出手段により検出された前記ズレ量に基づいて、前記各色プレーンの画像の位相合わせを行うズレ補正手段を有することを特徴とする請求項1〜10のいずれか1項に記載の画像処理装置。 On the basis of the deviation amount detected by the displacement detecting means, before machine according to any one of claims 1 to 10, characterized in that it comprises a deviation correction means for performing phase alignment of the image of each color plane Image processing device. 前記複数の色成分は、赤、緑、青であることを特徴とする請求項1〜11のいずれか1項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the plurality of color components are red, green, and blue. 生成手段が、光学系を介して撮像された撮影画像から、前記撮影画像の各画素を複数の色成分に分けて各画素が同一の色成分からなる複数の色プレーンの画像を生成するステップと、
領域検出手段が、前記複数の色プレーンを基に、画像のエッジ領域と、前記エッジ領域の周辺に画素値の変化量が所定の変化判定値より小さい各画素が続く小変化領域と、を検出するステップと、
ズレ検出手段が、前記検出されたエッジ領域と小変化領域の各画素の色成分の値に基づいて、前記複数の色プレーンのうち基準色となされた色プレーンに対する、基準色以外の各色プレーンのズレ量を検出するステップと
を含むことを特徴とする画像処理方法。
A step of generating a plurality of color plane images in which each pixel is composed of the same color component by dividing each pixel of the photographed image into a plurality of color components from a captured image captured via an optical system; ,
Based on the plurality of color planes, an area detection unit detects an edge area of the image and a small change area in which each pixel has a change amount of a pixel value smaller than a predetermined change determination value around the edge area. And steps to
Deviation detection means, based on the value of the color component of each pixel before dangerous out edge regions and the small change area, for the color plane has been made with reference color among the plurality of color planes, each other than the reference color color And a step of detecting an amount of plane misalignment.
コンピュータを、請求項1〜12のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 Program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 12.
JP2015172261A 2015-09-01 2015-09-01 Image processing apparatus, image processing method, and program Expired - Fee Related JP6559020B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015172261A JP6559020B2 (en) 2015-09-01 2015-09-01 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015172261A JP6559020B2 (en) 2015-09-01 2015-09-01 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2017050691A JP2017050691A (en) 2017-03-09
JP2017050691A5 JP2017050691A5 (en) 2018-10-04
JP6559020B2 true JP6559020B2 (en) 2019-08-14

Family

ID=58280343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015172261A Expired - Fee Related JP6559020B2 (en) 2015-09-01 2015-09-01 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6559020B2 (en)

Also Published As

Publication number Publication date
JP2017050691A (en) 2017-03-09

Similar Documents

Publication Publication Date Title
US8131067B2 (en) Image processing apparatus, image processing method, and computer-readable media for attaining image processing
KR101368715B1 (en) Image processing apparatus, image processing method, and storage medium
US10348989B2 (en) Image processing device, image processing method, and image processing system
JP5517803B2 (en) Image processing apparatus, image processing method, and program
US8774551B2 (en) Image processing apparatus and image processing method for reducing noise
CN103444183B (en) Color imaging element and imaging device
US10389952B2 (en) Image-processing device which generates a high-resolution image by combining images, imaging device, image-processing method, and storage-medium
JP2005159957A (en) Color interpolation method
US9679358B2 (en) Pixel interpolation processing apparatus, imaging apparatus, interpolation processing method, and integrated circuit
JP4717371B2 (en) Image processing apparatus and image processing program
JP2014032214A (en) Imaging apparatus and focus position detection method
JP5665451B2 (en) Image processing apparatus, magnification chromatic aberration correction method thereof, imaging apparatus, magnification chromatic aberration correction program, and recording medium
JP5528139B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2011160255A5 (en)
EP3276944B1 (en) Image processing apparatus, image capturing apparatus, image processing method, and image processing program
JP5309940B2 (en) Image processing apparatus and imaging apparatus
JP6559020B2 (en) Image processing apparatus, image processing method, and program
CN103460702A (en) Color image capturing element, image capturing device, and image capturing program
JP6976789B2 (en) Imaging device and imaging method
JP6552248B2 (en) IMAGE PROCESSING APPARATUS AND METHOD, IMAGING APPARATUS, AND PROGRAM
JP2009147762A (en) Image processing apparatus, image processing method, and program
JP2019029834A (en) Imaging apparatus
JP5057134B2 (en) Distance image generating apparatus, distance image generating method and program
JP5348253B2 (en) Image processing apparatus and image processing method, imaging apparatus and imaging method, program, and recording medium
JP5147577B2 (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190716

R151 Written notification of patent or utility model registration

Ref document number: 6559020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees