JP6559020B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP6559020B2 JP6559020B2 JP2015172261A JP2015172261A JP6559020B2 JP 6559020 B2 JP6559020 B2 JP 6559020B2 JP 2015172261 A JP2015172261 A JP 2015172261A JP 2015172261 A JP2015172261 A JP 2015172261A JP 6559020 B2 JP6559020 B2 JP 6559020B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- color
- pixel
- edge
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 60
- 238000003672 processing method Methods 0.000 title description 3
- 238000001514 detection method Methods 0.000 claims description 138
- 230000008859 change Effects 0.000 claims description 28
- 230000004075 alteration Effects 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 18
- 238000003708 edge detection Methods 0.000 claims description 18
- 230000003287 optical effect Effects 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 5
- 238000006073 displacement reaction Methods 0.000 claims 1
- 239000007787 solid Substances 0.000 description 53
- 238000000034 method Methods 0.000 description 42
- 230000008569 process Effects 0.000 description 33
- 238000004364 calculation method Methods 0.000 description 15
- 230000014509 gene expression Effects 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 10
- 230000010363 phase shift Effects 0.000 description 5
- 101100256071 Salmonella typhimurium (strain LT2 / SGSC1412 / ATCC 700720) sadB gene Proteins 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 241001175904 Labeo bata Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
Description
本発明は、光学系を通して撮像された画像を処理する画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program for processing an image captured through an optical system.
デジタルカメラ等の撮像装置は、光学系を通した被写体像等を撮像素子の撮像面上に結像させて画像を撮像する。このとき、光学系を通して撮像面上に結像された画像には、光学系の倍率色収差により色成分の位相ズレ(各色成分の位置関係のズレ、以下、色ズレと表記する。)が生じていることが多い。このため、倍率色収差による色ズレを、画像処理により補正することで画質を改善するような技術が提案されている。その一例として、特許文献1には、撮影画像のR,Bの色成分の位相を、Gの色成分に対して設計値から得られる倍率色収差による色ズレ量(色成分の位相ズレ量に相当する色ズレ量、)分だけずらして画像を補正する技術が開示されている。以下、倍率色収差による色成分の位相ズレ量分だけ画像をずらすような補正を、色ズレ補正と呼ぶ。
An image pickup apparatus such as a digital camera picks up an image by forming a subject image or the like passing through an optical system on an image pickup surface of an image pickup element. At this time, in the image formed on the imaging surface through the optical system, a phase shift of color components (a positional shift of each color component, hereinafter referred to as a color shift) occurs due to lateral chromatic aberration of the optical system. There are many. For this reason, a technique for improving the image quality by correcting the color shift due to the chromatic aberration of magnification through image processing has been proposed. As an example,
また、倍率色収差による色ズレ量は、カメラの個体差等により、設計値から得られる色ズレ量とは必ずしも一致しないことがあり、この場合、色ズレ補正の精度が低下する虞がある。このため、倍率色収差による色ズレ量を、撮影画像の特徴点(主にエッジ部)から検出することにより、カメラの個体差によるバラつきがある場合でも、色ズレ補正を高精度に実現可能にする技術が提案されている。例えば、特許文献2には、画像のエッジ部を中心に設定した局所的なウインドウから取得したG信号と、そのウインドウを動径方向にずらしながら取得したR,B信号との相関値を求めて、G信号に対するR,B信号の色ズレ量を推定する技術が開示されている。このとき、ウインドウのサイズは、例えば、検出したエッジの幅の約4倍の大きさとなされる。そして、特許文献2に記載の技術は、そのウインドウから取得したG信号とR,B信号の平均値が一致するように、R,B信号のレベル合わせを行うことにより、色ズレ量の検出精度を向上させている。
In addition, the amount of color misregistration due to lateral chromatic aberration may not always match the amount of color misregistration obtained from the design value due to individual differences between cameras, and in this case, the accuracy of color misregistration correction may be reduced. For this reason, by detecting the amount of color misregistration due to chromatic aberration of magnification from the feature points (mainly the edge portion) of the photographed image, even when there are variations due to individual differences in the camera, it is possible to realize color misregistration correction with high accuracy. Technology has been proposed. For example,
しかしながら、上述の特許文献2に記載の技術は、ウインドウのずらし位置を変えてR,B信号を取得する度にレベル合わせのための係数を算出する必要があり、処理時間が長くなってしまうという問題がある。また、特許文献2に記載の技術は、ウインドウ内に、例えば同じ模様等が繰り返される繰り返しパターンが含まれている場合や、色付きのエッジが含まれている場合には、色ズレ量の検出精度が低下してしまうという問題がある。
However, the technique described in
本発明はこのような問題点に鑑みてなされたものであり、撮影画像から、短時間且つ高い精度で色ズレ量を検出可能とする画像処理装置、画像処理方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of such a problem, and provides an image processing apparatus, an image processing method, and a program capable of detecting a color shift amount from a captured image in a short time and with high accuracy. Objective.
本発明の画像処理装置は、光学系を介して撮像された撮影画像から、前記撮影画像の各画素を複数の色成分に分けて各画素が同一の色成分からなる複数の色プレーンの画像を生成する生成手段と、前記複数の色プレーンを基に、画像のエッジ領域と、前記エッジ領域の周辺に画素値の変化量が所定の変化判定値より小さい各画素が続く小変化領域と、を検出する領域検出手段と、前記検出されたエッジ領域と小変化領域の各画素の色成分の値に基づいて、前記複数の色プレーンのうち基準色となされた色プレーンに対する、基準色以外の各色プレーンのズレ量を検出するズレ検出手段とを有することを特徴とする。 The image processing apparatus of the present invention divides each pixel of the photographed image into a plurality of color components from a photographed image captured through an optical system, and obtains images of a plurality of color planes in which each pixel has the same color component. Generating means for generating, based on the plurality of color planes, an edge region of the image, and a small change region in which each pixel value change amount is smaller than a predetermined change determination value around the edge region. a detection region detecting means, based on the value of the color component of each pixel before dangerous out edge regions and the small change area, for the color plane has been made with reference color among the plurality of color planes, than the reference color And a deviation detecting means for detecting a deviation amount of each color plane.
本発明によれば、撮影画像から、短時間且つ高い精度で色ズレ量を検出可能となる。 According to the present invention, it is possible to detect the amount of color misregistration from a captured image in a short time and with high accuracy.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
以下の説明では、本実施形態の画像処理装置の一例としてデジタルカメラを例に挙げているが、例えば、タブレット端末やスマートフォン、電子ゲーム機、ナビゲーション装置、パーソナルコンピュータなど様々な情報処理装置であってもよい。この場合の情報処理装置は、その装置自身に搭載されているカメラ機能により撮影された撮影画像、又は、デジタルカメラ等により撮影された撮影画像を取得し、その撮影画像に対して後述する本実施形態に係る各処理を実行する。また、情報処理装置における本実施形態に係る処理は、内部のCPU等においてコンピュータプログラムを実行することにより実現される。本実施形態に係る処理を実現するためのコンピュータプログラムは、記録媒体や各種ネットワークや通信回線を介して情報処理装置に提供される。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
In the following description, a digital camera is exemplified as an example of the image processing apparatus of the present embodiment, but for example, various information processing apparatuses such as a tablet terminal, a smartphone, an electronic game machine, a navigation apparatus, and a personal computer. Also good. In this case, the information processing apparatus acquires a photographed image photographed by a camera function mounted on the apparatus itself or a photographed image photographed by a digital camera or the like, and this embodiment described later on the photographed image. Each process according to the form is executed. The processing according to the present embodiment in the information processing apparatus is realized by executing a computer program in an internal CPU or the like. A computer program for realizing the processing according to the present embodiment is provided to the information processing apparatus via a recording medium, various networks, or a communication line.
図1には、本実施形態の画像処理装置の一例としてのデジタルカメラ100の概略構成を示す。なお、図1には本実施形態に係る主要な構成要素のみが示されており、一般的なデジタルカメラが備えている他の構成の図示については省略している。また、図2には、図1のデジタルカメラ100の色ズレ検出部105の概略構成を示す。図2の色ズレ検出部105の説明は後述する。
FIG. 1 shows a schematic configuration of a
撮像レンズ101は、ズームレンズ、フォーカスレンズを含むレンズ群からなる光学系である。撮像素子102は、撮像レンズ101からの入射光を電気信号に変換するためのCCDやCMOS素子である。撮像素子102の撮像面上には、入射光を赤(R)、緑(G)、青(B)の色成分に分離するためのカラーフィルタが配されている。図3には、カラーフィルタにおけるRとG(G1,G2)とBの各色成分に対応した各フィルタ素子の配列を表しており、この配列はいわゆるベイヤー配列と呼ばれている。これら各フィルタ素子は、撮像素子102の各画素位置に各々対応している。なお、図3の例は、カラーフィルタの一部分のみを示している。
The
A/D変換器103は、撮像素子102から出力されるアナログ画像信号をデジタル画像信号に変換する。A/D変換器103から出力されるデジタル画像信号は、いわゆるRAW(生)画像データであり、一時記憶メモリであるRAM104に記憶される。
The A /
色ズレ検出部105は、RAM104に記憶されたRAW画像データを、例えば水平,垂直方向(x,y方向)にそれぞれ複数画素からなるブロック単位で読み出し、それらブロック毎に、R,G,Bの各色成分の間の位相ズレ量を表す色ズレ量の検出を行う。ここで、本実施形態では、撮像レンズ101の倍率色収差により生ずる色ズレ量を検出することを想定している。撮像レンズ101のような光学系の倍率色収差は、一般にレンズの光軸を中心とした点対称の色収差として現れるため、色ズレ量の検出は、光軸を中心とした放射状の方向について行われる。
The color
このため、本実施形態の場合、色ズレ検出部105は、読み出したブロックの中心画素が、図4(a)に示すRAW画像40の中心41を基点とした、例えば8領域(領域d0〜d7)のいずれの領域に含まれるかに応じて、色ズレ量を検出する方向を決める。図4(b)は、ブロックの中心画素が図4(a)の各領域d0〜d7に含まれている場合の、各領域d0〜d7別の一つのブロックを表している。図4(b)の各ブロック内の矢印の方向は、それら各ブロックにおいて色ズレ量の検出が行われる方向を表しており、図4(a)の各領域d0〜d7に描かれている矢印の方向とそれぞれ対応している。これら図4(a)、図4(b)に示すように、色ズレ検出部105は、各ブロックについて1方向にのみ色ズレ量の検出を行う。色ズレ検出部105にて行われる色ズレ検出処理の詳細な内容についての説明は後述する。
For this reason, in the present embodiment, the color
なお、撮影レンズ101が例えばチルトレンズやシフトレンズ、いわゆるレンズシフト式の手振れ補正機能付きのレンズ等である場合、色収差は、点対称の色収差とはならない。また、色ズレ検出の対象となっている画像が、例えばトリミング等された画像である場合には、レンズの光軸に対応した位置を特定できない可能性がある。このような場合は、それら使用されたレンズの情報や、トリミングされた範囲の情報などを基に、色収差の方向を算出して、その算出された色収差の方向に基づいて色ズレ量の検出が行われてもよい。
When the photographing
また、図4(b)の升目はそれぞれが画素を表しているが、図4(b)の例では、ブロックを構成する水平,垂直方向の画素数は、図示を簡略化するために実際の画素数よりも少なく描かれている。このような図示の簡略化は、後述する他の各図に示されたRAW画像やプレーン、ブロック等について同様になされ、各図のブロックの画素数と升目の数、図示されたRAW画像やプレーン等のブロック数と升目の数は、実際の数より少なく描かれている。 Further, each cell in FIG. 4B represents a pixel, but in the example of FIG. 4B, the number of pixels in the horizontal and vertical directions constituting the block is an actual number to simplify the illustration. It is drawn less than the number of pixels. Such simplification of illustration is similarly applied to RAW images, planes, blocks, and the like shown in other figures described later, and the number of pixels and the number of cells in each figure, and the illustrated RAW images and planes are shown. The number of blocks and the number of cells are drawn less than the actual number.
また、色ズレ検出部105は、図5(a)に示すように、RAW画像データ50について図中升目で表されるブロック毎に検出した各色ズレ量を、画像中心51からの像高を一定の間隔で分割した像高区間h1〜h5毎に集計(合計)する。色ズレ検出部105は、それら各像高区間h1〜h5でそれぞれ集計した値を、各像高区間h1〜h5における色ズレ量の代表値とする。そして、色ズレ検出部105は、図5(b)に示すように、それら像高区間h1〜h5について集計した色ズレ量の代表値を、サンプル数とともにRAM104に出力して記憶させる。
Further, as shown in FIG. 5A, the color
色ズレ補正部106は、RAM104からRAW画像データと、各像高区間h1〜h5の色ズレ量の代表値及びサンプル数の情報とを読み出す。そして、色ズレ補正部106は、各像高区間h1〜h5の色ズレ量の代表値を用い、RAW画像データに対して、像高区間h1〜h5毎に色ズレ補正を行う。倍率色収差に対する色ズレ補正処理は、RAW画像におけるR,G,Bの各色成分の位相を色ズレ量(色成分の位相ズレ量)分だけずらして位相合わせ(位置合わせ)を行うような処理である。このような色ズレ補正処理は、例えば前述した特許文献1や特許文献2等に記載されている既存の技術であるため、本実施形態では、その詳細な説明については省略する。
The color
なお、色ズレ検出のサンプル数が極端に少ない像高区間については、色ズレ検出の信頼度が低いと考えられる。このため、色ズレ補正部106は、サンプル数が極端に少なく信頼度が低い像高区間については、隣接する像高区間の色ズレ量の代表値を用いて色ズレ量を補間し、その補間による色ズレ量を用いて色ズレ補正を行う。また、各像高区間h1〜h5に対応して予め設計値データとして色ズレ量が用意されている場合には、色ズレ補正部106は、サンプル数が極端に少ない像高区間については、その設計値のデータを用いて色ズレ補正を行ってもよい。
Note that it is considered that the reliability of color misregistration detection is low for an image height section in which the number of samples for color misregistration detection is extremely small. Therefore, the color
画像処理部107は、色ズレ補正部106による色ズレ補正後のRAW画像データに対して、現像処理やノイズリダクション処理等の各種の画像処理を施す。画像処理部107による画像処理が施された後の画像データは、外部メモリ制御部108を介して外部メモリ109等に保存される。
The
<第1の実施形態>
以下、第1の実施形態として、図1に示したデジタルカメラ100の色ズレ検出部105にて行われる色ズレ量検出処理の詳細について説明する。
図1に示したデジタルカメラ100の色ズレ検出部105は、図2に示すように、入力データ変換部201と検出部202と代表値算出部203とローカルメモリ204とを有して構成されている。
<First Embodiment>
Hereinafter, as the first embodiment, details of the color misregistration amount detection processing performed by the color
As shown in FIG. 2, the color
入力データ変換部201は、色プレーン生成手段として、RAW画像データに対して以下に説明するようなデータ変換処理を行って、R,G,Bの各色成分の色プレーンのデータを生成する。ここで、プレーンとは、各画素位置のデータがR,G,Bのそれぞれ同一の色成分のデータのみで形成された画像である。R,G,Bの各色成分の色プレーン生成の一例を、図6(a)〜図6(d)と図7を用いて説明する。
The input
図6(a)は、入力データ変換部201が、図1のRAM104から読み出したRAW画像の一部を示している。入力データ変換部201は、図6(a)に示したRAW画像から、図6(b)に示すように同一色成分の画素値を抜き出す。図6(b)の例は、図6(a)のRAW画像からR成分の画素値のみを抜き出した例を示している。入力データ変換部201は、図6(b)のように同一色成分の画素値を抜き出した後、図6(c)に示すように、色成分の信号値が無い画素位置に対してゼロ値を挿入する。
FIG. 6A shows a part of the RAW image read out from the
次に、入力データ変換部201は、図6(c)のように色成分の信号値が無い画素位置に対してゼロ値が挿入された後の画像に対し、図7に示すような各フィルタ係数(係数1〜係数4)が配されたローパスフィルタを用いて補間処理を行う。図6(d)は、入力データ変換部201が、図6(c)の画像に対して図7のローパスフィルタを用いた補間処理を行って生成されたRプレーンを示している。入力データ変換部201は、図6(a)のRAW画像のGとBの色成分についても図6(b)〜図6(d)で説明したのと同様の処理を行うことにより、GプレーンとBプレーンを生成する。なお、RAW画像のGの色成分はG1とG2からなるため、Gプレーンについては、R及びBプレーンと合わせるために、図6(a)のG1,G2のいずれか一方の画素値のみを用いて生成する。このようにして作成されたR,G,Bの各色成分の色プレーンのデータは、ローカルメモリ204に記憶される。
Next, the input
検出部202は、領域検出手段とズレ量検出手段の一例である。検出部202は、ローカルメモリ204に記憶されたR,G,Bの各色プレーンのうち、何れかを基準色のプレーンとする。本実施形態では、例えばGプレーンを基準色プレーンとし、R,Bプレーンを基準色以外の色プレーンとする。また、検出部202は、R,G,Bの各色プレーンについて、それぞれ1ブロックにつき前述した色ズレ検出方向に抽出した1列分の画素値を取得する。そして、検出部202は、基準色のGプレーンのブロックから抽出した1列分の画素値と、基準色以外のR,BプレーンのうちGプレーンのブロックに対応したブロックからそれぞれ抽出した1列分の画素値とを用いて、色ズレ量を検出する。
The
詳細については後述するが、このような色ズレ量の検出を実現するため、検出部202は、R,G,Bの各色プレーンから抽出した1列分の画素列の各画素値を用いて、エッジ領域(以下、エッジ部と表記する。)を検出する。また同様に詳細は後述するが、検出部202は、エッジ部の周辺において、例えばエッジ部の色ズレ検出方向の幅の両端から外側に向かって画素値の変化が小さい各画素が続く小変化領域(以下、ベタ部と表記する。)を検出する。さらに、同様に詳細は後述するが、検出部202は、ベタ部から基準色(G)のプレーンに対する基準色以外(R,B)のプレーンの位相ズレ量(色ズレ量)を検出する。例えば、検出部202は、ベタ部の画素値に応じて、GプレーンとR,Bプレーンの少なくとも一方の画素値のレベルに合わせ、そのレベル合わせがなされた後のGプレーンの画素値とR,Bプレーンの画素値とに基づいてズレ量を検出する。なお、以下の説明では、エッジ部の色ズレ検出方向における幅の両端を、単に「エッジ部の両端」と表記する。また、以下の説明では、エッジ部の両端から外側の領域を、単に「エッジ部の両端の外側領域」と表記する。
Although details will be described later, in order to realize such detection of the color misregistration amount, the
図8は、本実施形態の検出部202における処理の流れを示したフローチャートである。図8の各ステップの処理の内容について、図9に示すようなR,G,Bの各信号値を例に挙げて説明する。図9は、各画素位置におけるR,G,Bの各信号値(各画素位置の各画素における各色成分の値)を表した図である。
FIG. 8 is a flowchart showing the flow of processing in the
図8のフローチャートにおいて、検出部202は、先ずステップS801の処理として、ローカルメモリ204に記憶された各プレーンについて、1ブロックにつき前述の色ズレ検出方向に抽出した1列分の各画素のR,G,Bの信号を用いてエッジ検出を行う。エッジ検出は、図9に示したような各画素位置のR,G,Bの信号値から以下の式(1)により作成した輝度値(以下、Y信号と表記する。)を用いて行われる。
In the flowchart of FIG. 8, the
Y[n]=0.3×R[n]+0.6×G[n]+0.1×B[n] ・・・・式(1) Y [n] = 0.3 × R [n] + 0.6 × G [n] + 0.1 × B [n] (1)
なお、式(1)中のnは、ローカルメモリ204に記憶されたR,G,Bの各プレーンについて、それぞれ1ブロックにつき色ズレ検出方向に抽出された1列分のR,G,Bの各信号の画素位置を表す数である。図10(a)、図10(b)、図10(c)には、図9の各画素位置におけるR,G,Bの各信号値を各々画素位置に対応させて配列した図を示す。図10(d)には、式(1)を用いて算出されたY信号の各値を各々画素位置に対応させて配列した図を示す。
Note that n in Expression (1) represents R, G, and B of one column extracted in the color misregistration detection direction for each block for each of the R, G, and B planes stored in the
また、検出部202は、図11のようなフィルタ係数(−1,0,1)が設定されたエッジ検出フィルタを用いて、Y信号に対するエッジ検出フィルタ処理を行う。図10(e)には、Y信号に対するエッジ検出フィルタ処理後の信号値を各画素位置に対応させて配列した図を示す。さらに、検出部202は、エッジ検出フィルタのフィルタ出力レベルの絶対値と、予め設定されたエッジレベル判定値EdgeThLevelとを比較する。そして、検出部202は、フィルタ処理後のフィルタ出力レベルの絶対値がエッジレベル判定値EdgeThLevelよりも大きくなっている画素位置を求める。なお、以下の説明では、エッジ検出フィルタ処理後のフィルタ出力レベルの絶対値を「信号絶対値」と表記する。
Further, the
さらに、検出部202は、信号絶対値がエッジレベル判定値EdgeThLevelより大きい各画素位置の連続する領域の幅(エッジ幅方向の長さ)と、予め設定されたエッジ長さ判定値EdgeThLengthとを比較する。そして、検出部202は、それら各画素位置の連続した領域の幅(幅方向の長さ)が、エッジ長さ判定値EdgeThLength以上となっている領域(連続した領域の幅がエッジ長さ判定値以上連続している領域)を、エッジ部として検出する。例えば、エッジレベル判定値EdgeThLevelを「300」、エッジ長さ判定値EdgeThLengthを「3」とした場合、図10(e)の例において、検出部202は、画素位置「4〜7」の領域をエッジ部として検出する。ステップS801の後、検出部202は、ステップS802に処理を進める。
Further, the
ステップS802において、検出部202は、ステップS801で検出されたエッジ部の両端から外側方向に向かって、隣接する画素位置の画素間でY信号値の変化量が小さい各画素が所定の数以上続いた領域(ベタ部)が存在しているか否かを判定する。具体的には、検出部202は、エッジ部の両端に含まれる画素位置の1画素分だけ外側の画素位置から、所定の数であるベタ部長さ判定値Betaとして予め設定されている幅(長さ)に相当する画素位置までの画素領域(画素数)を決める。さらに、検出部202は、ベタ部長さ判定値Betaに対応した画素領域内の各画素位置において、図10(e)に示した信号絶対値と、所定の変化判定値として予め設定されたベタ部レベル判定値BetaThLevelとを比較する。
In step S802, the
そして、検出部202は、ベタ部長さ判定値Betaの画素領域内の全ての画素位置において、信号絶対値がベタ部レベル判定値BetaThLevelより小さい場合、ステップS801で検出したエッジ部は有効なエッジ部であると判定する。例えば、ベタ部長さ判定値Betaを「3」、ベタ部レベル判定値BetaThLevelを「100」とした場合、検出部202は、図10(g)のように、画素位置「1〜3」の領域と、画素位置「8〜10」の領域をそれぞれベタ部として検出する。そして、検出部202は、それら画素位置「1〜3」と「8〜10」のベタ部内の全画素位置において、信号絶対値がベタ部レベル判定値BetaThLevelより小さい場合、画素位置「4〜7」のエッジ部は有効なエッジ部であると判定する。このように、ベタ部長さ判定値Betaの画素領域内の全ての画素位置において、信号絶対値がベタ部レベル判定値BetaThLevelより小さい場合、エッジ部の両端の外側領域は、隣接画素位置間で信号値の変化が小さいベタ部になっていると考えられる。検出部202は、ステップS802において、エッジ部の両端の外側領域がベタ部として検出されて、そのエッジ部が有効であると判定した場合には、ステップS803に処理を進める。ステップS803以降の処理は、ズレ量検出のための処理である。
When the signal absolute value is smaller than the solid portion level determination value BetaThLevel at all pixel positions in the pixel region of the solid portion length determination value Beta, the
一方、ステップS802において、検出部202は、ベタ部長さ判定値Betaの画素領域内の各画素位置のうち、信号絶対値がベタ部レベル判定値BetaThLevel以上となる画素位置が一つでも存在した場合には、図8の処理を終了する。ここで、信号絶対値がベタ部レベル判定値BetaThLevel以上となる画素位置が存在している領域は、例えば細かい模様等が繰り返される繰り返しパターンのような画像領域になっている可能性があると考えられる。したがって、検出部202は、ステップ802において、信号絶対値がベタ部レベル判定値BetaThLevel以上となる画素位置が存在していると判定した場合には、有効なエッジ部は存在しないとして、図8のフローチャートの処理を終了する。
On the other hand, in step S <b> 802, the
ステップS803の処理に進んだ場合、検出部202は、エッジ部の両端の外側領域のベタ部についてR,G,Bの各信号値をそれぞれ積分する。さらに、検出部202は、基準色の色成分であるGの積分値に対して基準色以外の色成分であるRの積分値の割合(ゲイン値)と、同じく基準色のGの積分値に対して基準色以外の色成分であるBの積分値の割合(ゲイン値)とを求める。そして、検出部202は、エッジ部を挟んで、画素位置の値が小さい方(色ズレ検出方向の始点側)のベタ部を第1ベタ部とし、画素位置の値が大きい方(色ズレ検出方向の終点側)のベタ部を第2ベタ部とし、式(2)〜式(5)により各ゲイン値を求める。
When the processing proceeds to step S803, the
gainR1=sumG1/sumR1 ・・・式(2)
gainR2=sumG2/sumR2 ・・・式(3)
gainB1=sumG1/sumB1 ・・・式(4)
gainB2=sumG2/sumB2 ・・・式(5)
sumG1:第1ベタ部におけるG信号の積分値
sumG2:第2ベタ部におけるG信号の積分値
sumR1:第1ベタ部におけるR信号の積分値
sumR2:第2ベタ部におけるR信号の積分値
sumB1:第1ベタ部におけるB信号の積分値
sumB2:第2ベタ部におけるB信号の積分値
gainR1:第1ベタ部におけるGの積分値に対するRの積分値の割合(ゲイン値)
gainR2:第2ベタ部におけるGの積分値に対するRの積分値の割合(ゲイン値)
gainB1:第1ベタ部におけるGの積分値に対するBの積分値の割合(ゲイン値)
gainB2:第2ベタ部におけるGの積分値に対するBの積分値の割合(ゲイン値)
gainR1 = sumG1 / sumR1 Formula (2)
gainR2 = sumG2 / sumR2 Formula (3)
gainB1 = sumG1 / sumB1 Formula (4)
gainB2 = sumG2 / sumB2 Formula (5)
sumG1: Integral value of the G signal in the first solid part sumG2: Integral value of the G signal in the second solid part sumR1: Integral value of the R signal in the first solid part sumR2: Integral value of the R signal in the second solid part sumB1: Integral value of B signal in first solid part sumB2: Integral value of B signal in second solid part gainR1: Ratio of R integral value to integral value of G in first solid part (gain value)
gainR2: Ratio of R integrated value to G integrated value in second solid portion (gain value)
gainB1: Ratio of B integrated value to G integrated value in first solid portion (gain value)
gainB2: Ratio of B integrated value to G integrated value in second solid portion (gain value)
図10(h)には、図10(a)〜図10(c)の例において、第1ベタ部と第2ベタ部の各積分値とゲイン値の算出結果を示している。一例として、第1ベタ部を挙げた場合、sumR1は「2400」、sumG1は「3000」、sumB1は「1500」となり、gainR1は「1.25」、gainB1は「2.00」となる。ステップS803の後、検出部202は、ステップS804に処理を進める。
FIG. 10 (h) shows the calculation results of the integral values and gain values of the first and second solid portions in the examples of FIGS. 10 (a) to 10 (c). As an example, when the first solid part is given, sumR1 is “2400”, sumG1 is “3000”, sumB1 is “1500”, gainR1 is “1.25”, and gainB1 is “2.00”. After step S803, the
ステップS804では、検出部202は、エッジ部の両端の外側領域のR信号のゲイン値を比較し、同様に、エッジ部の両端の外側領域のB信号のゲイン値を比較する。ここで例えば、エッジ部の両端の外側領域のR信号やB信号のゲイン値が大きく異なっている場合には、エッジ部に色付きが生じている可能性が高いと考えられる。そして、このようにエッジ部に色付きが生じている場合には、G信号に対するR,B信号の相関が低くなっていると考えられる。このように、エッジ部に色付きが生じていて、エッジ部の両端の外側領域でG信号に対するR,B信号の相関が低くなっている場合には、倍率色収差補正のための色ズレ量検出精度は低下してしまう可能性が高くなる。このため、検出部202は、式(6)と式(7)のように、R信号とB信号のそれぞれについて、エッジ部の両端の外側領域のゲイン値の差分の絶対値が、ゲイン値に対するしきい値として予め設定されているゲイン判定値より小さいか否かを判定する。
In step S804, the
abs(gainR1−gainR2)<ThDiffGainR ・・・式(6)
abs(gainB1−gainB2)<ThDiffGainB ・・・式(7)
abs (gainR1-gainR2) <ThDiffGainR (6)
abs (gainB1-gainB2) <ThDiffGainB (7)
なお、式(6)のabs(gainR1−gainR2)は、前述の式(2)と式(3)で得られたR信号におけるエッジ部の両端の外側領域の各ゲイン値(gainR1とgainR2)の差分の絶対値である。また、式(7)のabs(gainB1−gainB2)は、式(3)と式(4)で得られたB信号におけるエッジ部の両端の外側領域の各ゲイン値(gainB1とgainB2)の差分の絶対値である。式(6)のThDiffGainRは、R信号に対するゲイン値のしきい値として設定されているゲイン判定値であり、ThDiffGainBは、B信号に対するゲイン値のしきい値として設定されているゲイン判定値である。以下の説明では、R信号とB信号における差分絶対値abs(gainR1−gainR2)とabs(gainB1−gainB2)を、単に「差分絶対値abs」と表記する。また、ゲイン判定値ThDiffGainR,ThDiffGainBを、単に「ゲイン判定値ThDiffGain」と表記する。 Note that abs (gainR1-gainR2) in equation (6) is the gain value (gainR1 and gainR2) of the outer region at both ends of the edge portion in the R signal obtained by equations (2) and (3) described above. The absolute value of the difference. Also, abs (gainB1-gainB2) in equation (7) is the difference between the gain values (gainB1 and gainB2) of the outer regions at both ends of the edge portion in the B signal obtained by equations (3) and (4). Absolute value. In the equation (6), ThDiffGainR is a gain determination value set as a gain value threshold for the R signal, and ThDiffGainB is a gain determination value set as a gain value threshold for the B signal. . In the following description, the difference absolute values abs (gainR1-gainR2) and abs (gainB1-gainB2) in the R signal and the B signal are simply expressed as “difference absolute value abs”. Further, the gain determination values ThDiffGainR and ThDiffGainB are simply expressed as “gain determination values ThDiffGain”.
ここで、R,B信号における差分絶対値absが、それぞれ対応したゲイン判定値ThDiffGainより小さい場合には、エッジ部に色付きは生じていないと考えられる。この場合、倍率色収差補正のための色ズレ量は、高い精度で検出可能になると考えられる。これに対し、R,B信号における差分絶対値absの少なくとも一方が、対応したゲイン判定値ThDiffGain以上の場合には、エッジ部に色付きが生じていると考えられる。この場合、倍率色収差補正のための色ズレ量は、高い精度では検出できないと考えられる。このため、検出部202は、ステップS804において、R,B信号における差分絶対値absが、それぞれ対応したゲイン判定値ThDiffGainより小さいと判定した場合には、ステップS805に処理を進める。一方、検出部202は、ステップS804において、R,B信号における差分絶対値absの少なくとも一方が、対応したゲイン判定値ThDiffGain以上になっていると判定した場合には、図8の色ズレ量の検出処理を終了する。
Here, when the difference absolute value abs in the R and B signals is smaller than the corresponding gain determination value ThDiffGain, it is considered that the edge portion is not colored. In this case, it is considered that the color shift amount for correcting the lateral chromatic aberration can be detected with high accuracy. On the other hand, when at least one of the absolute difference values abs in the R and B signals is equal to or greater than the corresponding gain determination value ThDiffGain, it is considered that the edge portion is colored. In this case, it is considered that the color misregistration amount for correcting the lateral chromatic aberration cannot be detected with high accuracy. Therefore, if the
ステップS805では、検出部202は、RとBの信号を、色ズレ検出方向にそれぞれ1画素分ずつずらしながらローカルメモリ204から読み出して、エッジ部の信号値について基準色のGプレーンの対応する画素の信号値との相関値をそれぞれ求める。式(8)、式(9)には、Gプレーンの対応する画素の信号値との相関値としての差分絶対値和であるSAD値(sadR[k],sadB[k])の算出式を示す。
In step S805, the
なお、式(8)と式(9)において、kはR,B信号を取得する際の画素のずらし位置を示す値であり、その値は検出したい色ズレ量の最大値に合わせて変更される。また、gainRは、エッジ部の両端の外側領域でR信号について前述の式(2)と式(3)でそれぞれ求めたゲイン値gainR1とgainR2の平均値である。同様に、gainBは、エッジ部の両端の外側領域でB信号について前述の式(4)と式(5)でそれぞれ求めたゲイン値gainB1とgainB2の平均値である。以下の説明では、差分絶対値和のSAD値(sadR[k],sadB[k])を、単に「SAD値」と表記する。ステップS805の後、検出部202は、ステップS806に処理を進める。
In Expressions (8) and (9), k is a value indicating the pixel shift position when acquiring the R and B signals, and the value is changed according to the maximum value of the amount of color misregistration to be detected. The Further, gainR is an average value of the gain values gainR1 and gainR2 respectively obtained by the above-described equations (2) and (3) for the R signal in the outer region at both ends of the edge portion. Similarly, gainB is an average value of the gain values gainB1 and gainB2 obtained by the above-described equations (4) and (5) for the B signal in the outer region at both ends of the edge portion. In the following description, the SAD value (sadR [k], sadB [k]) of the sum of absolute differences is simply expressed as “SAD value”. After step S805, the
ステップS806では、検出部202は、前述のようにして求めたSAD値を、検出した色ズレ量の情報として、図12に示すように、像高とエッジ検出方向の情報とともにローカルメモリ204に記憶させる。なお、図12の検出方向の数値は、前述の図4の領域d0〜d7における0〜7に対応する。
検出部202は、以上の各処理を全てのブロックの各列について行う。全てのブロックの各列についての処理が終わると、検出部202は、図8のフローチャートの処理を終了する。
In step S806, the
The
以下、代表値算出部203について詳細に説明する。
代表値算出部203は、検出部202による全てのブロックについての色ズレ量の検出が完了した後、ローカルメモリ204に記憶されている各サンプルのSAD値を参照して色ズレ量を推定する。
Hereinafter, the representative
The representative
具体的には、代表値算出部203は、先ず、SAD値が最少となるずらし位置K0とその前後のずらし位置(K0−1),(K0+1)におけるSAD値とから、以下の式(10)を用い、1画素分を構成するR,G,Bの各サブピクセル単位の色ズレ量を求める。
Specifically, the representative
x=−[S(K0+1)-S(K0-1)]/[2S(K0-1)-4S(K0)+2S(K0+1)] ・・・式(10)
ここで、xは色ズレ量の推定値、S(K)は各ずらし位置におけるSAD値のsadR[k]又はsadB[k]である。
x =-[S (K0 + 1) -S (K0-1)] / [2S (K0-1) -4S (K0) + 2S (K0 + 1)] (10)
Here, x is an estimated value of the color misregistration amount, and S (K) is sadR [k] or sadB [k] of the SAD value at each shift position.
さらに、代表値算出部203は、前述のようにサブピクセル単位で算出した色ズレ量を、図13のように像高区間(h1〜h5)別に集計(合計)し、全てのサンプルについて集計が完了した後、像高区間別の色ズレ量の平均値を算出する。そして、代表値算出部203は、算出した平均値を、図5(b)に示した色ズレ量の代表値として、サンプル数とともにRAM104に記憶させる。
Further, the representative
以上説明したように、本実施形態によれば、色ズレ検出部105は、前述したように有効なエッジ部を確実に検出でき、また有効なエッジ部の検出により、そのエッジ部の両端の外側領域のベタ部をも確実に検出できる。すなわち、本実施形態によれば、有効なエッジ部とベタ部から、色ズレ量の検出に使用されるゲイン値を1度だけ算出すればよいことになる。このように、本実施形態によれば、従来はずらし位置を変更する度に行われていたレベル合わせのためのゲイン値算出を、エッジ部の両端の外側のベタ部から1度だけ算出すればよいため、短時間に色ズレ量を検出可能となる。また、本実施形態では、エッジ部の両端の外側のベタ部判定及びゲイン値の比較を行うことで、エッジ部に色付きが生じている場合や、ベタ部が存在せず繰り返しパターン等になっている領域を、色ズレ量検出の際に使用しないようにすることができる。このため、本実施形態によれば、色ズレ量の検出を高い精度で行うことができる。
As described above, according to the present embodiment, the color
<第2の実施形態>
以下、第2の実施形態について説明する。
第2の実施形態のデジタルカメラ100は、基本的な構成については前述の図1のデジタルカメラ100と同じであるが、色ズレ検出部105における色ズレ量検出処理が第1の実施形態とは異なる。第2の実施形態の場合、色ズレ検出部105は、エッジ検出をR,G,B信号別に行うことで色ずれ量の検出精度を向上させている。以下、第1の実施形態とは異なる部分のみ説明する。
<Second Embodiment>
Hereinafter, the second embodiment will be described.
The
前述した第1の実施形態では、R,G,B信号から算出したY信号を用いてエッジ検出を行っている。ここで、例えばR,G,Bの各信号の何れかの信号が他の信号に対して大きくずれているような場合(例えば色ズレ量が画素位置に換算して10画素分近くにまで及ぶような場合)、Y信号では、R,B信号のエッジ部を正確に検出できない可能性がある。例えば図14には、各画素位置Nsg,Nsr,Neg,Ner,Nsb,Nsbのうち、例えばG,B信号に対してB信号が大きくずれている例を示している。この図14の例のような場合、前述の第1の実施形態のようにY信号のみを用いたのでは、色ズレ量の検出精度が低下してしまう虞がある。このように色ズレ量が大きい場合において、色ズレ量の検出を行う場合には、第2の実施形態のように、R,G,B信号それぞれでエッジ検出を行う方法が有効である。 In the first embodiment described above, edge detection is performed using the Y signal calculated from the R, G, and B signals. Here, for example, when any one of the R, G, B signals is greatly deviated from the other signals (for example, the amount of color misregistration is converted to a pixel position and reaches nearly 10 pixels). In such a case, there is a possibility that the edge portions of the R and B signals cannot be accurately detected with the Y signal. For example, FIG. 14 shows an example in which the B signal is largely deviated from, for example, the G and B signals among the pixel positions Nsg, Nsr, Neg, Ner, Nsb, and Nsb. In the case of the example of FIG. 14, if only the Y signal is used as in the first embodiment described above, the detection accuracy of the color misregistration amount may be lowered. When the amount of color misregistration is large in this way, when detecting the amount of color misregistration, a method of performing edge detection for each of the R, G, and B signals is effective as in the second embodiment.
第2の実施形態において、色ズレ検出処理の全体の処理の流れは、前述の第1の実施形態で説明した図8のフローチャートに示した処理と概ね同じである。ただし、第2の実施形態の場合は、ベタ部判定及びゲイン値の算出を、R,G,Bそれぞれにおけるエッジ部両端の始点と終点の画素位置の外側の画素領域を参照して行う。図14の例の場合、NsgとNegはGにおけるエッジ部の始点と終点の画素位置であり、同様に、NsrとNerはRにおける始点と終点、NsbとNebはBにおける始点と終点の画素位置である。したがって、第2の実施形態では、それら画素位置Nsg,Nsr,Neg,Ner,Nsb,Nebを除いた外側の画素領域のR,G,Bの各信号値を参照してベタ部判定及びゲイン値の算出を行う。 In the second embodiment, the overall process flow of the color misregistration detection process is substantially the same as the process shown in the flowchart of FIG. 8 described in the first embodiment. However, in the case of the second embodiment, the solid portion determination and the gain value calculation are performed with reference to the pixel regions outside the start point and end point pixel positions at both ends of the edge portion in each of R, G, and B. In the case of the example of FIG. 14, Nsg and Neg are the pixel positions of the start point and end point of the edge portion in G. Similarly, Nsr and Ner are the start point and end point of R, and Nsb and Neb are the pixel positions of the start point and end point of B It is. Therefore, in the second embodiment, the solid portion determination and the gain value are performed by referring to the R, G, and B signal values of the outer pixel area excluding the pixel positions Nsg, Nsr, Neg, Ner, Nsb, and Neb. Is calculated.
そして、第2の実施形態の場合、色ズレ検出部105は、式(11)〜式(16)により、第1ベタ部と第2ベタ部のR,G,Bの各々について各積分値sumG1,sumG2,sumR1,sumR2,sumB1,sumB2を求める。
In the case of the second embodiment, the color
ここで、式(11)〜式(16)の「Bata」は第1の実施形態の場合と同様に、エッジ両端のベタ部長さ判定値である。
さらに、色ズレ検出部105は、それら各積分値sumG1,sumG2,sumR1,sumR2,sumB1,sumB2を用いて、前述の式(2)〜式(5)によりゲイン値gainR1,gainR2,gainB1,gainB2を求める。そして、色ズレ検出部105は、これらゲイン値を用い、以下、前述の第1の実施形態で説明したのと同様にして色ズレ量を求める。これにより、第2の実施形態においても、第1の実施形態の場合と同様に、短時間に高い精度で色ズレ量を検出可能となる。さらに第2の実施形態の場合は、R,G,B信号において色ズレ量が大きい場合であっても、高精度の色ズレ量検出が可能である。
Here, “Bata” in Expressions (11) to (16) is a solid portion length determination value at both ends of the edge, as in the case of the first embodiment.
Further, the color
<第3の実施形態>
以下、第3の実施形態について説明する。
第3の実施形態のデジタルカメラ100は、基本的な構成については前述の図1のデジタルカメラ100と同じであるが、色ズレ検出部105における色ズレ量検出処理が第1の実施形態とは異なる。第3の実施形態の色ズレ検出部105は、色ズレ検出方向で抽出した複数列の画素値を用いて複数のエッジ部を検出し、それら複数のエッジ部で検出したベタ部の積分値を加算した値を用いてゲイン値を算出することで、色ズレ量の検出精度を向上させている。
<Third Embodiment>
Hereinafter, a third embodiment will be described.
The
前述の第1の実施形態では、検出したエッジ部の両端の外側のベタ部から取得したR,G,B信号の積分値のみを用いてゲイン算出を行っている。ただし、第1の実施形態の場合、例えば高感度で撮像が行われて取得された撮影画像等のように、ノイズの影響が大きくなっている場合には、エッジ部が正しく検出されずゲイン値算出の精度が低下してしまう虞がある。このようにノイズの影響が大きい撮影画像を用いて色ズレ検出を行う場合には、第3の実施形態のように、複数のエッジ部に対するベタ部で取得した積分値を集計した値を用いてゲイン値の算出を行う方法が有効である。以下、第1の実施形態とは異なる部分のみ説明する。 In the first embodiment described above, gain calculation is performed using only the integral values of the R, G, and B signals acquired from the solid portions outside both ends of the detected edge portion. However, in the case of the first embodiment, for example, when the influence of noise is large, such as a captured image obtained by imaging with high sensitivity, the edge portion is not detected correctly, and the gain value There is a possibility that the accuracy of the calculation is lowered. When color misregistration detection is performed using a photographed image having a large influence of noise in this way, as in the third embodiment, a value obtained by summing up integral values acquired with a solid portion with respect to a plurality of edge portions is used. A method of calculating the gain value is effective. Only the parts different from the first embodiment will be described below.
図15には、第3の実施形態の場合の色ズレ検出部105の検出部202における処理のフローチャートを示す。なお、図15のフローチャートにおいて、ステップS1501のエッジ検出からステップS1504のゲイン値比較までの処理は、図8のステップS801からステップS804までの処理と同じであるため、それらの説明は省略する。また、図15のステップS1509とステップS1510は、図8のステップS805とステップS806と同じ処理であるため、それらの説明についても省略する。
FIG. 15 shows a flowchart of processing in the
ただし、第3の実施形態の場合、検出部202は、ステップS1502において有効なエッジ部が存在しないと判定した場合には、ステップS1507に処理を進める。また、検出部202は、ステップS1504においてエッジ両端のゲイン値の差分絶対値absがゲイン判定値ThDiffGainR,ThDiffGainB以上であると判定した場合には、ステップS1507に処理を進める。一方、検出部202は、ステップS1504において差分絶対値absがゲイン判定値ThDiffGainR,ThDiffGainBより小さいと判定した場合には、ステップS1505に処理を進める。
However, in the case of the third embodiment, when the
第3の実施形態の場合、ステップS1505では、検出部202は、前述したベタ部の積分値sumG1,sumG2,sumR1,sumR2,sumB1,sumB2を、変数sumG_blk,sumR_blk,sumB_blkに加算する。このときの計算式は、式(17)〜式(19)により表される。なお、変数sumG_blk,sumR_blk,sumB_blkは、ブロック毎の色ズレ検出を開始する前には「0」に初期化されているものとする。
In the case of the third embodiment, in step S1505, the
sumG_blk=sumG_blk+(sumG1+sumG2)・・・式(17)
sumR_blk=sumR_blk+(sumR1+sumR2)・・・式(18)
sumB_blk=sumB_blk+(sumB1+sumB2)・・・式(19)
sumG_blk = sumG_blk + (sumG1 + sumG2) (17)
sumR_blk = sumR_blk + (sumR1 + sumR2) (18)
sumB_blk = sumB_blk + (sumB1 + sumB2) Expression (19)
ステップS1505の後、検出部202は、ステップS1506に処理を進める。
ステップS1506では、検出部202は、色ズレ検出の対象ブロックと同じ画素数サイズとなされている図16のようなエッジマップ変数EdgeMapについて、Gプレーンから検出されたエッジ部に対応した小領域の各座標位置の要素に「1」をセットする。ここで、エッジマップ変数EdgeMapは、各要素が2次元配列されて形成された変数マップであり、ブロック毎の色ズレ検出が開始する前には全ての要素が「0」に初期化されているものとする。ステップS1506の後、検出部202は、ステップS1507に処理を進める。
After step S1505, the
In step S1506, the
ステップS1507では、検出部202は、ブロック内で色ズレ検出方向の全列の画素値についてステップS1501〜S1506の処理が完了したか否かを判定する。ステップS1507において、検出部202は、ブロック内の全列についての処理が完了したと判定した場合にはステップS1508に処理を進め、一方、処理が完了していないと判定した場合にはステップS1501に処理を戻されて次の画素列の処理が行われる。
In step S1507, the
ステップS1508の処理に進んだ場合、検出部202は、式(20)と式(21)を用いて、ゲイン値gainR_blk,gainB_blkを算出する。これにより、エッジマップ変数EdgeMap内で用素が「1」となされた小領域の中で、複数のエッジ部について各々算出された複数の積分値が加算され、それら複数の積分値を加算した値から算出されたゲイン値が得られることになる。
When the process proceeds to step S1508, the
gainR_blk=sumG_blk/sumR_blk ・・・式(20)
gainB_blk=sumG_blk/sumB_blk ・・・式(21)
gainR_blk = sumG_blk / sumR_blk (20)
gainB_blk = sumG_blk / sumB_blk (21)
ステップS1508の後、検出部202は、ステップS1509に処理を進める。
ステップS1509では、検出部202は、ゲイン値gainR_blk,gainB_blkとエッジマップ変数EdgeMapとを用い、式(22)、式(23)によりブロック単位のSAD値(sadR[k],sadB[k])を求める。
After step S1508, the
In step S1509, the
ここで、Nhはブロックの水平方向画素数、Nvはブロックの垂直方向画素数である。kはR,B信号を取得するずらし位置である。また、α,βはずらし位置で取得するR,B信号の方向を決定するパラメータであり、図17に示すように色ズレ検出方向に応じて一意に決まる値である。ステップS1508の後、検出部202は、図8のステップS805と同じ処理であるステップS1509に処理を進める。以下の処理は、前述の図8のステップS806,S806と同じであるため説明は省略する。
Here, Nh is the number of pixels in the horizontal direction of the block, and Nv is the number of pixels in the vertical direction of the block. k is a shift position for acquiring the R and B signals. Further, α and β are parameters for determining the directions of the R and B signals acquired at the shifted position, and are values uniquely determined according to the color misregistration detection direction as shown in FIG. After step S1508, the
なお、検出部202は、ステップS1504による各エッジのゲイン値を記憶し、ブロック全体で得られたゲイン値のばらつきが所定範囲内に収まる(ブロック全体で均一色と判断できる)場合のみ、ステップS1508のゲイン値算出を行うようにしてもよい。
Note that the
以上説明したように、第3の実施形態においては、複数のエッジ部で検出されたベタ部の積分値をブロック単位で加算した結果を用いてゲイン値算出することにより、ノイズに対するゲイン算出の敏感度を抑え、高い検出精度を維持することが可能となる。 As described above, in the third embodiment, the gain value is calculated using a result obtained by adding the integral values of the solid portions detected at the plurality of edge portions in units of blocks, thereby making the gain calculation sensitive to noise. The degree of detection can be suppressed and high detection accuracy can be maintained.
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
100 デジタルカメラ、101 撮像レンズ、102 撮像素子、103 A/D変換器、104 RAM、105 色ズレ検出部、106 色ズレ補正部、107 画像処理部、108 外部メモリ制御部、109 外部メモリ、201 入力データ変換部、202 ズレ量検出部、203 代表値算出部
DESCRIPTION OF
Claims (14)
前記複数の色プレーンを基に、画像のエッジ領域と、前記エッジ領域の周辺に画素値の変化量が所定の変化判定値より小さい各画素が続く小変化領域と、を検出する領域検出手段と、
前記検出されたエッジ領域と小変化領域の各画素の色成分の値に基づいて、前記複数の色プレーンのうち基準色となされた色プレーンに対する、基準色以外の各色プレーンのズレ量を検出するズレ検出手段と
を有することを特徴とする画像処理装置。 Generating means for dividing each pixel of the photographed image into a plurality of color components and generating images of a plurality of color planes, each pixel having the same color component, from a photographed image captured through an optical system;
An area detecting means for detecting, based on the plurality of color planes, an edge area of the image and a small change area in which each pixel has a change amount smaller than a predetermined change determination value around the edge area; ,
Based on the value of the color component of each pixel before dangerous out edge regions and the small change area, for the color plane has been made with reference color among the plurality of color planes, other than the reference color shift amount of each color plane An image processing apparatus comprising: a deviation detecting unit that detects the deviation.
前記複数の色プレーンから、前記撮影画像の撮像がなされた際に用いられた光学系により生ずる色収差に対応した検出方向の各画素からなる画素列を抽出し、前記抽出した画素列の各画素値に基づいて、前記画像のエッジ領域を検出し、
前記検出されたエッジ領域の前記検出方向の幅の両端からそれぞれ外側に向かって、前記検出方向に隣接する画素間の画素値の変化量が所定の変化判定値より小さい各画素が続く領域を、前記小変化領域として検出することを特徴とする請求項1に記載の画像処理装置。 The region detecting means includes
Extracting from the plurality of color planes a pixel column composed of pixels in the detection direction corresponding to chromatic aberration caused by the optical system used when the captured image was captured, and each pixel value of the extracted pixel column To detect an edge region of the image based on
An area in which the amount of change in the pixel value between pixels adjacent in the detection direction continues from each end of the width of the detected edge region in the detection direction is smaller than a predetermined change determination value. The image processing apparatus according to claim 1, wherein the image processing apparatus detects the small change area.
前記ズレ検出手段は、前記エッジ領域が有効なエッジ領域である場合にのみ、前記ズレ量の検出を行うことを特徴とする請求項5に記載の画像処理装置。 The region detecting means detects the detection only when the absolute value of the filter output level subjected to the predetermined edge detection filter processing is smaller than a predetermined change determination value for all the pixels of the detected small change region. The selected edge area as an effective edge area,
The image processing apparatus according to claim 5, wherein the deviation detection unit detects the deviation amount only when the edge area is an effective edge area.
前記ズレ検出手段は、前記エッジ領域が有効なエッジ領域である場合にのみ、前記ズレ量の検出を行うことを特徴とする請求項5又は6に記載の画像処理装置。 Said region detecting means, wherein each the corresponding For each pixel of the small change area the value of each color component by integrating respectively calculates the integrated value to the ends of the detected edge region, the color plane has been made to the reference color Obtaining a gain value representing a ratio of an integral value of a color component of a color plane other than the reference color to an integral value of the color component, and calculating an absolute difference between the gain values of the small change regions respectively corresponding to the both ends of the edge region Only when the value is smaller than a predetermined gain determination value, the detected edge region is set as a valid edge region,
The image processing apparatus according to claim 5, wherein the deviation detection unit detects the deviation amount only when the edge area is an effective edge area.
領域検出手段が、前記複数の色プレーンを基に、画像のエッジ領域と、前記エッジ領域の周辺に画素値の変化量が所定の変化判定値より小さい各画素が続く小変化領域と、を検出するステップと、
ズレ検出手段が、前記検出されたエッジ領域と小変化領域の各画素の色成分の値に基づいて、前記複数の色プレーンのうち基準色となされた色プレーンに対する、基準色以外の各色プレーンのズレ量を検出するステップと
を含むことを特徴とする画像処理方法。 A step of generating a plurality of color plane images in which each pixel is composed of the same color component by dividing each pixel of the photographed image into a plurality of color components from a captured image captured via an optical system; ,
Based on the plurality of color planes, an area detection unit detects an edge area of the image and a small change area in which each pixel has a change amount of a pixel value smaller than a predetermined change determination value around the edge area. And steps to
Deviation detection means, based on the value of the color component of each pixel before dangerous out edge regions and the small change area, for the color plane has been made with reference color among the plurality of color planes, each other than the reference color color And a step of detecting an amount of plane misalignment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015172261A JP6559020B2 (en) | 2015-09-01 | 2015-09-01 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015172261A JP6559020B2 (en) | 2015-09-01 | 2015-09-01 | Image processing apparatus, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017050691A JP2017050691A (en) | 2017-03-09 |
JP2017050691A5 JP2017050691A5 (en) | 2018-10-04 |
JP6559020B2 true JP6559020B2 (en) | 2019-08-14 |
Family
ID=58280343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015172261A Expired - Fee Related JP6559020B2 (en) | 2015-09-01 | 2015-09-01 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6559020B2 (en) |
-
2015
- 2015-09-01 JP JP2015172261A patent/JP6559020B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017050691A (en) | 2017-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8131067B2 (en) | Image processing apparatus, image processing method, and computer-readable media for attaining image processing | |
KR101368715B1 (en) | Image processing apparatus, image processing method, and storage medium | |
US10348989B2 (en) | Image processing device, image processing method, and image processing system | |
JP5517803B2 (en) | Image processing apparatus, image processing method, and program | |
US8774551B2 (en) | Image processing apparatus and image processing method for reducing noise | |
CN103444183B (en) | Color imaging element and imaging device | |
US10389952B2 (en) | Image-processing device which generates a high-resolution image by combining images, imaging device, image-processing method, and storage-medium | |
JP2005159957A (en) | Color interpolation method | |
US9679358B2 (en) | Pixel interpolation processing apparatus, imaging apparatus, interpolation processing method, and integrated circuit | |
JP4717371B2 (en) | Image processing apparatus and image processing program | |
JP2014032214A (en) | Imaging apparatus and focus position detection method | |
JP5665451B2 (en) | Image processing apparatus, magnification chromatic aberration correction method thereof, imaging apparatus, magnification chromatic aberration correction program, and recording medium | |
JP5528139B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP2011160255A5 (en) | ||
EP3276944B1 (en) | Image processing apparatus, image capturing apparatus, image processing method, and image processing program | |
JP5309940B2 (en) | Image processing apparatus and imaging apparatus | |
JP6559020B2 (en) | Image processing apparatus, image processing method, and program | |
CN103460702A (en) | Color image capturing element, image capturing device, and image capturing program | |
JP6976789B2 (en) | Imaging device and imaging method | |
JP6552248B2 (en) | IMAGE PROCESSING APPARATUS AND METHOD, IMAGING APPARATUS, AND PROGRAM | |
JP2009147762A (en) | Image processing apparatus, image processing method, and program | |
JP2019029834A (en) | Imaging apparatus | |
JP5057134B2 (en) | Distance image generating apparatus, distance image generating method and program | |
JP5348253B2 (en) | Image processing apparatus and image processing method, imaging apparatus and imaging method, program, and recording medium | |
JP5147577B2 (en) | Image processing apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180824 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190716 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6559020 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |