JP3992476B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP3992476B2 JP3992476B2 JP2001342364A JP2001342364A JP3992476B2 JP 3992476 B2 JP3992476 B2 JP 3992476B2 JP 2001342364 A JP2001342364 A JP 2001342364A JP 2001342364 A JP2001342364 A JP 2001342364A JP 3992476 B2 JP3992476 B2 JP 3992476B2
- Authority
- JP
- Japan
- Prior art keywords
- component
- value
- white balance
- target
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Of Color Television Signals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Input (AREA)
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、画像処理装置に関し、特にたとえばディジタルカメラに適用され、画像信号に色調整を施す、画像処理装置に関する。
【0002】
【従来技術】
ディジタルカメラのような画像処理装置では、撮影された画像信号に白バランス調整が施される。具体的には、画像信号を形成するR信号,G信号およびB信号のレベルが所定関係となるように、R信号およびB信号にゲインxおよびyが付与される。ただし、白バランス調整は画像の一部分のみを対象として実行されるわけではなく、ゲインxおよびyは1フレーム期間にわたって付与される。
【0003】
【発明が解決しようとする課題】
このため、たとえば水色の用紙の上に置かれた青色の主要被写体を撮影すると、用紙の色は白色に変化し、主要被写体の色は水色に変化してしまう。また、ピンク色の用紙の上に置かれた赤色の主要被写体を撮影すると、用紙の色はピンク色から白色に変化し、主要被写体の色はピンク色に変化してしまう。つまり、白バランス調整のみでは、色再現性が低下する場合がある。
【0004】
それゆえに、この発明の主たる目的は、色再現性を改善することができる、画像処理装置を提供することである。
【0005】
【課題を解決するための手段】
この発明に従う画像処理装置は、撮像手段から出力された被写界像に白バランス調整処理を施す調整手段、調整手段によって調整された白バランスを有する被写界像に彩度補正係数を参照した彩度補正処理を施す補正手段、および補正手段によって参照される彩度補正係数を調整手段による調整量の変化が相殺されるように変更する変更手段を備え、白バランス調整処理は既定色範囲に属する色を示す画素の彩度値がゼロに向かうように被写界像の色を調整する処理であり、彩度補正処理は被写界像を形成する各画素の彩度値に彩度補正係数を掛け算する処理である。
【0006】
【作用】
撮像手段から出力された被写界像は、調整手段によって白バランス調整処理を施される。補正手段は、調整手段によって調整された白バランスを有する被写界像に彩度補正係数を参照した彩度補正処理を施す。変更手段は、補正手段によって参照される彩度補正係数を調整手段による調整量の変化が相殺されるように変更する。ここで、白バランス調整処理は、既定色範囲に属する色を示す画素の彩度値がゼロに向かうように被写界像の色を調整する処理である。また、彩度補正処理は、被写界像を形成する各画素の彩度値に彩度補正係数を掛け算する処理である。
【0007】
好ましくは、複数の色にそれぞれ対応する複数の彩度補正係数が保持手段によって保持される。補正手段は、被写界像を形成する各画素に関連する彩度補正係数を保持手段から検出する検出手段を含む。
【0008】
好ましくは、調整手段は、白バランス調整係数を参照して白バランス調整処理を実行する。撮像手段は、被写界像を繰り返し出力する。更新手段は、調整手段によって参照される白バランス調整係数を繰り返し更新する。
【0009】
さらに好ましくは、変更手段は、更新手段によって更新される前後の白バランス調整係数の差分値に注目して変更処理を実行する。
【0012】
【発明の効果】
この発明によれば、色再現性を改善することができる。
【0013】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0014】
【実施例】
図1を参照して、この実施例のディジタルカメラ10は、フォーカスレンズ12を含む。被写体の光学像は、このフォーカスレンズ12を経てイメージセンサ14の受光面に入射される。受光面では、入射された光学像に対応するカメラ信号(生画像信号)が光電変換によって生成される。なお、受光面は、原色ベイヤ配列の色フィルタ(図示せず)によって覆われ、カメラ信号を形成する各々の画素信号は、R,GおよびBのいずれか1つの色情報成分のみを持つ。
【0015】
電源が投入されると、CPU38からタイミングジェネレータ(TG)16,信号処理回路22およびビデオエンコーダ28に処理命令が与えられる。これによって、スルー画像処理が開始される。
【0016】
TG16は、イメージセンサ14の露光およびカメラ信号の読み出しを繰り返し実行する。イメージセンサ14から読み出された各フレームのカメラ信号は、CDS/AGC回路18における周知のノイズ除去およびレベル調整を経て、A/D変換器20でディジタル信号に変換される。
【0017】
信号処理回路22は、A/D変換器20から出力された各フレームのカメラデータに色分離,色調整,YUV変換などの信号処理を施し、輝度成分(Yデータ)および色差成分(Uデータ,Vデータ)からなる画像データを生成する。色調整処理では、まず白バランスが調整され、続いて明度,彩度および色相が補正される。このとき、白バランスを調整するための調整係数(後述するゲインx1およびy1)ならびに明度,彩度および色相を補正するための補正係数(後述する目標L成分値,目標C成分値および目標H成分値)は、CPU38によって決定される。信号処理回路22によって生成された画像データはメモリ制御回路24に与えられ、メモリ制御回路24によってSDRAM26に書き込まれる。
【0018】
ビデオエンコーダ28は、SDRAM26に格納された画像データをメモリ制御回路24に読み出させる。そして、読み出された各フレームの画像データをNTSCフォーマットのコンポジット画像信号にエンコードし、エンコードされたコンポジット画像信号をモニタ30に供給する。モニタ30には、被写体のリアルタイム動画像(スルー画像)が表示される。
【0019】
シャッタボタン40が全押しされると、撮影/記録処理が実行される。まず、CPU38からJPEGコーデック32に圧縮命令が与えられる。JPEGコーデック32は、SDRAM26に格納された1フレーム分の画像データをメモリ制御回路24に読み出させ、読み出された画像データにJPEGフォーマットに準じた圧縮処理を施す。圧縮画像データが得られると、JPEGコーデック32は、生成された圧縮画像データをメモリ制御回路24に与える。圧縮画像データは、メモリ制御回路24によってSDRAM26に格納される。
【0020】
圧縮画像データの格納処理が完了すると、CPU38は、メモリ制御回路24を通してSDRAM26から圧縮画像データを読み出し、読み出した圧縮画像データをI/F回路34を通してメモリカード36に記録する。これによって、メモリカード36内に画像ファイルが作成される。なお、メモリカード36は着脱自在な不揮発性の記録媒体であり、スロット(図示せず)に装着されたときにCPU38によってアクセス可能となる。
【0021】
信号処理回路22は、図2に示すように構成される。A/D変換器20から出力されたカメラデータは、色分離回路22aによって色分離を施される。カメラデータを構成する各々の画素データはR成分,G成分およびB成分のいずれか1つしか持っていないため、各画素が不足する2つの色成分が色分離回路22aによって補完される。色分離回路22aからは、各画素のR成分,G成分およびB成分が同時に出力される。つまり、各画素がR成分,G成分およびB成分を有するRGBデータが、色分離回路22aから出力される。R成分およびB成分は、白バランス調整回路22bを形成するアンプ221bおよび222bを経て積算回路22cおよびLCH変換回路22dに与えられる。アンプ221bではR成分にゲインx1が付与され、アンプ222bではB成分にゲインy1が付与される。一方、G成分は、そのまま積算回路22cおよびLCH変換回路22dに与えられる。
【0022】
画面は、水平方向および垂直方向に16分割され、256個の分割エリアが画面上に形成される。積算回路22cは、R成分,G成分およびB成分を分割エリア毎にかつ同じ色成分毎に積算する。このため、256個の積算値Ir(i),256個の積算値Ig(i)および256個の積算値Ib(i)が1フレーム期間毎に得られる(i=1〜256)。つまり、256個の分割エリアに個別に対応する256個の色評価値が、1フレーム期間毎に求められる。CPU38は、こうして得られた色評価値に基づいて、白バランス調整のための最適ゲインxsおよびysを算出する。
【0023】
具体的には、まず積算値Ir(i)およびIb(i)を積算値Iry(i)およびIby(i)に変換する。積算値Iry(i)およびIby(i)は、色差成分R‐YおよびB‐Yを分割エリア毎に積算した値に等しい。このような積算値Iry(i)およびIby(i)もまた、各分割エリアの色評価値である。
【0024】
続いて、図3(A)に示す数値分布を持つ重み付けテーブル38a(CPU38内に形成)と各分割エリアの積算値Iry(i)およびIby(i)とに基づいて、各分割エリアの重み付け係数k(i)を検出する。重み付けテーブル38aには重み付け係数k(i)として“0”または“1”が格納されており、各々の重み付け係数k(i)は図3(B)に示すグラフに対応している。つまり、B−Y軸およびR−Y軸がそれぞれ17分割され、さらにB−Y軸およびR−Y軸によって区切られた各々の象限が64分割される。重み付け係数k(i)は、こうして形成された290個のエリアに1つずつ割り当てられる。なお、重み付け係数k(i)=1が割り当てられた範囲が引き込み範囲である。
【0025】
分割エリア毎に重み付け係数k(i)が検出されると、数1に従って最適ゲインxsおよびysが算出される。
【0026】
【数1】
重み付け係数k(i)は“0”または“1”しか持たないため、k(i)をIg(i)およびIb(i)に掛けることで、色評価値が引き込み範囲内にある分割エリアだけが有効となる。数1によれば、このような有効分割エリアの積算値Ir(i),積算値Ig(i)および積算値Ib(i)の各々の総和に基づいて、最適ゲインxsおよびysが求められる。求められた最適ゲインxsおよびysは、引き込み範囲に含まれる色評価値の平均がR−Y軸およびB−Y軸の交点に収束するような値をとる。
【0027】
図4に示すように用紙42の上に置かれたスティック44を真上から撮影した場合、LCD30には図5に示す要領で被写体像が表示される。図5に示す複数の縦線および横線は、画面を256個の分割エリアに区分するための線であり、実際には表示されない。用紙42が薄いオレンジ色で、スティック44が濃い黄色である場合、用紙42の色のみを積算した積算値Iry(i)およびIby(i)は引き込み範囲に含まれるが、スティック44の色のみを積算した積算値Iry(i)およびIby(i)は引き込み範囲から外れる。この結果、最適ゲインxsおよびysは、用紙42の色に関する積算値Ir(i),Ig(i)およびIb(i)に基づいて決定される。
【0028】
最適ゲインxsおよびysが算出される前の用紙42の色に関する積算値Iry(i)およびIby(i)が図6に示すエリア1に分布する場合、最適ゲインxsおよびysが算出されかつアンプ221bおよび222bに設定された後の用紙42の色に関する積算値Iry(i)およびIby(i)は、図6に示すエリア2に移動する。つまり、用紙42の色に関する積算値Iry(i)およびIby(i)は、移動量W1だけ移動する。
【0029】
図2に戻って、LCH変換回路22dは、与えられた各画素のR成分、G成分およびB成分をL成分(明度成分),C成分(彩度成分)およびH成分(色相成分)に変換する。LCH変換回路22dからは、各画素がL成分,C成分およびH成分を有するLCHデータが出力される。L成分,C成分およびH成分は、L補正回路22e,C補正回路22fおよびH補正回路22gにそれぞれ与えられる。L補正回路22e,C補正回路22fおよびH補正回路22gはそれぞれ、入力されたL成分,C成分およびH成分に所定の演算を施し、補正L成分,補正C成分および補正H成分を求める。求められた補正H成分,補正C成分および補正L成分はその後、YUV変換回路22hによってY成分,U成分およびV成分に変換される。YUV変換はいわゆる4:2:2変換(または4:1:1変換)であり、YUV変換回路22hから出力されるY成分,U成分およびV成分は4:2:2(または4:1:1)の比率を持つ。
【0030】
LCH変換回路22dから出力されたH成分は、領域判別回路22iにも与えられる。領域判別回路22iは、基準値テーブル22jを参照して、LCH変換回路22dから与えられたH成分の属する領域を判別する。そして、判別結果に対応する基準値を基準値テーブル22jから読み出すとともに、判別結果に対応する目標値を目標値テーブル22kから読み出す。
【0031】
図7を参照して、基準値テーブル22jには、6つの基準H成分値,6つの基準C成分値および6つの基準L成分値が書き込まれている。H,CおよびLはそれぞれ色相,彩度および明度を意味し、いずれも色調補正のためのパラメータである。互いに関連する基準H成分値,基準C成分値および基準L成分値には同じ基準値番号N(1〜6)が割り当てられ、基準値番号が共通する3つの成分値(基準H成分値,基準C成分値,基準L成分値)によって基準値が規定される。この6つの基準値は、6つの代表色(Mg,R,Ye,G,Cy,B)に個別に対応し、図9および図10に示すようにYUV空間に分布する。なお、図10には基準値番号が“5”の基準値のみを示している。
【0032】
一方、目標値テーブル22kは、図8に示すように形成される。図7に示す基準値テーブル22hと同様、色相(H),彩度(C)および明度(L)の各々に関する6つの目標H成分値,6つの目標C成分値および6つの目標L成分値が設定され、同じ目標値番号N(=1〜6)に割り当てられた目標H成分値,目標C成分値および目標L成分値によって目標値が規定される。この6つの目標値もまた、6つの代表色(Mg,R,Ye,G,Cy,B)に個別に対応する。目標H成分値,目標C成分値および目標L成分値が図8に示す数値を示すとき、6つの目標値は図9および図10に示すようにYUV空間に分布する。なお、図10には目標値番号が“5”の目標値のみを示している。
【0033】
目標値テーブル22kが基準値テーブル22jと異なるのは、各々の目標値を変更できる点である。つまり、基準値テーブル22jに設定された基準H成分値,基準C成分値および基準L成分値が、製造段階で予め設定され、オペレータによって自由に変更できないのに対して、目標値テーブル22kに設定される目標H成分値,目標C成分値および目標L成分値は、CPU38によって変更される。
【0034】
領域判別回路22iは、画像データを形成する各画素について領域判別と判別結果に応じた基準値および目標値の選択とを行うべく、図11に示すフロー図を1画素毎に実行する。まずステップS1でカウンタ22nのカウント値Nを“1”に設定し、ステップS3でカウント値Nに対応する基準H成分値を基準値テーブル22hから読み出す。ステップS5では、LCH変換回路22dから入力した現画素のH成分値(現画素H成分値)を基準値テーブル22jから読み出された基準H成分値と比較する。
【0035】
ステップS5で基準H成分値>現画素H成分値と判断されると、ステップS11でカウント値Nを“1”と比較する。N=1であればステップS21〜S27を処理するが、N>1であればステップS13〜S19を処理する。一方、基準H成分値≦現画素H成分値であれば、ステップS7でカウンタ22nをインクリメントし、続くステップS9で更新後のカウント値Nを“6”と比較する。そして、N≦6であればステップS3に戻るが、N>6であればステップS21〜S27を処理する。
【0036】
ステップS13では、現時点のカウント値Nに対応する基準H成分値,基準C成分値および基準L成分値をHr1,Cr1およびLr1として基準値テーブル22jから選択し、ステップS15では、現時点のカウント値Nに対応する目標H成分値,目標C成分値および目標L成分値をHt1,Ct1およびLt1として、目標値テーブル22kから選択する。また、ステップS17では、カウント値N−1に対応する基準H成分値,基準C成分値および基準L成分値をHr2,Cr2およびLr2として基準値テーブル22jから選択し、ステップS19では、カウント値N−1に対応する目標H成分値,目標C成分値および目標L成分値をHt2,Ct2およびLt2として、目標値テーブル22kから選択する。
【0037】
一方、ステップS21では、カウント値N=1に対応する基準H成分値,基準C成分値および基準L成分値をHr1,Cr1およびLr1として基準値テーブル22jから選択し、ステップS23では、カウント値N=1に対応する目標H成分値,目標C成分値および目標L成分値をHt1,Ct1およびLt1として、目標値テーブル22kから選択する。また、ステップS25では、カウント値N=6に対応する基準H成分値,基準C成分値および基準L成分値をHr2,Cr2およびLr2として基準値テーブル22jから選択し、ステップS27では、カウント値N=6に対応する目標H成分値,目標C成分値および目標L成分値をHt2,Ct2およびLt2として、目標値テーブル22kから選択する。
【0038】
このようにして、色相に関して現画素値を挟む2つの基準値と、この2つの基準値に対応する2つの目標値とが検出される。
【0039】
基準H成分値Hr1およびHr2ならびに目標H成分値Ht1およびHt2はH補正回路22gに与えられる。また、基準C成分値Cr1およびCr2ならびに目標C成分値Ct1およびCt2はC補正回路22fに与えられる。さらに、基準L成分値Lr1およびLr2ならびに目標L成分値Lt1およびLt2はL補正回路22eに与えられる。
【0040】
H補正回路22gは、LCH変換回路22dから現画素H成分値Hinを取り込み、数2に従って補正H成分値Houtを算出する。算出された補正H成分値Houtは、図12に破線で示す角度にシフトする。
【0041】
【数2】
H補正回路22gはまた、角度データα(=|Hr2−Hin|)およびβ(=|Hr1−Hin|)をC補正回路22fおよびL補正回路22eに出力するとともに、角度データγ(=|Ht2−Hout|)およびδ=(|Ht1−Hout|)をL補正回路22eに出力する。
【0042】
C補正回路22fは、LCH変換回路22dから取り込んだ現画素C成分値Cinに数3に示す演算を施し、図13に示す補正C成分値Coutを算出する。
【0043】
【数3】
C補正回路22fはまた、数4を演算して、CH系の座標(0,0)および(Cin,Hin)を結ぶ直線と座標(Cr1,Hr1)および(Cr2,Hr2)を結ぶ直線との交点座標におけるC成分値Cr3、ならびにCH系の座標(0,0)および(Cout,Hout)を結ぶ直線と座標(Ct1,Ht1)および(Ct2,Ht2)を結ぶ直線との交点座標におけるC成分値Ct3を算出する。そして、算出したC成分値Cr3およびCt3を上述の現画素C成分値Cinおよび補正C成分値CoutとともにL補正回路22eに出力する。
【0044】
【数4】
Cr3=Cr1+(Cr2−Cr1)・β/(α+β)
Ct3=Ct1+(Ct2−Ct1)・δ/(γ+δ)
L補正回路22eは、LCH変換回路22dから現画素L成分値Linを取り込み、数5に従って図14に示す補正L成分値Loutを求める。図14に示すLmaxおよびLminはそれぞれ、再現できるL(明度)の最大値および最小値である。現画素値(入力画素値)は、LCH系の座標(Lmax,0,0)、(Lmin,0,0)および(Lr3,Cr3,Hin)によって形成される面(YUV空間を色相Hinで切り出した面)上に存在する。一方、補正画素値は、LCH系の座標(Lmax,0,0)、(Lmin,0,0)および(Lt3,Ct3,Hout)によって形成される面(YUV空間を色相Houtで切り出した面)上に存在する。
【0045】
【数5】
Lout=(Lin−La)・(Ld−Lc)/(Lb−La)+Lc
La=Cin/Cr3・(Lr3−Lmin)
Lb=Cin/Cr3・(Lr3−Lmax)+Lmax
Lc=Cout/Ct3・(Lt3−Lmin)
Ld=Cout/Ct3・(Lt3−Lmax)+Lmax
Lr3=Lr1+(Lr2−Lr1)・β/(α+β)
Lt3=Lt1+(Lt2−Lt1)・δ/(γ+δ)
このようにして求められた補正H成分値Hout,補正C成分値Coutおよび補正L成分値Loutによって、補正画素値が規定される。なお、現画素値は、LCH変換回路22dから出力された現画素H成分値Hin,現画素C成分値Cinおよび現画素L成分値Linによって規定される。
【0046】
CPU38は、具体的には、図15および図16に示すフロー図を処理する。まずステップS31で、基準ゲインxrおよびyrをゲインx1およびy1として保持する。アンプ221bおよび222bには、基準ゲインxrおよびyrが設定される。なお、基準ゲインxrおよびyrとは、5100Kの色温度(基準色温度)を持つ被写体を撮影したときに白バランスが適切に調整されるゲインであり、製造段階で決定される。ステップS33ではスルー画像処理を開始すべくTG16,信号処理回路22およびビデオエンコーダ28に処理命令を与え、続くステップS35では色調補正を行う。ステップS37ではシャッタボタン40の操作の有無を判別し、NOであればステップS35に戻る。この結果、色調補正が行われたスルー画像がLCD30に表示される。シャッタボタン40が操作されると、ステップS39に進み、撮影/記録処理を行う。これによって、シャッタボタン40の操作に応答して撮影された被写体像の圧縮画像データが、ファイル形式でメモリカード36に記録される。
【0047】
ステップS35の色調補正処理は、図16に示すサブルーチンに従って実行される。まずステップS41で垂直同期信号の発生の有無を判別し、YESと判断されたときに図2に示す積分回路22cから積算値Ir(i),Ig(i)およびIb(i)を取り込む(i=1〜256)。ステップS45では取り込まれた積算値Ir(i),Ig(i)およびIb(i)に基づいて最適ゲインxsおよびysを算出し、続くステップS47では算出された最適ゲインxsおよびysをゲインx2およびy2として保持する。ステップS49では、数6に従って差分ゲインΔxおよびΔyを求める。
【0048】
【数6】
Δx=x2−x1
Δy=y2−y1
算出された差分ゲインΔxおよびΔyは、被写体像の白バランスの変化量であり、図6または図17に示すエリア1からエリア2までの移動量W1に相当する。ステップS51,S53およびS55では、目標値テーブル22kに設定された目標H成分値,目標C成分値および目標L成分値をこのような差分ゲインΔxおよびΔyに基づいて変更する。変更された目標H成分値,目標C成分値および目標L成分値によって規定される目標値は、図17に□で示す位置に移動する。このときの移動量T1は、白バランス調整による移動量W1を相殺する量である。ステップS55の処理が完了すると、ステップS57でゲインx2およびy2をゲインx1およびy1として保持し、その後上階層のルーチンに復帰する。
【0049】
以上の説明から分かるように、色分離回路22aから出力されたRGBデータの白バランスが白バランス調整回路22bによって調整されると、当該RGBデータがLCH変換回路22dによってLCHデータに変換される。変換されたL成分,C成分およびH成分はそれぞれ、L補正回路22e,C補正回路22fおよびH補正回路22gによる色調補正を施される。このとき、目標値テーブル22kに設定された目標L成分値,目標C成分値および目標H成分値が用いられ、LCH系で表現される各々の画素データの色調が個別に補正される。CPU38は、ゲインx1およびy1が最適ゲインxsおよびysに調整される前後の差分ゲインΔxおよびΔyを白バランスの変化量として算出し、当該差分ゲインΔxおよびΔyに基づいて目標値テーブル22kの目標L成分値,目標C成分値および目標H成分値を変更する。
【0050】
C補正回路22gによる彩度補正は、上述の数3に従って行われる。数3によれば、現画素C成分値Cinに目標C成分値Ct1およびCt2が掛け算される。ただし、現画素C成分値Cinが白バランス調整によって無彩色に調整された画素のC成分値であれば、Cin=0であり、これに目標C成分値Ct1およびCt2を掛け算しても掛け算結果は0のままである。換言すれば、目標C成分値Ct1およびCt2を現画素C成分値Cinに掛け算することで、有彩色の画素データの彩度のみが補正される。このような目標C成分値Ct1およびCt2をΔxおよびΔyに基づいて補正することで、有彩色の色再現性を改善することができる。
【0051】
なお、この実施例では、原色データに基づいて被写体像の白バランスを調整するようにしているが、イメージセンサから補色データが出力される場合、白バランスは補色データ(たとえばCyおよびYe)に基づいて調整するようにしてもよい。
【図面の簡単な説明】
【図1】この発明の一実施例を示すブロック図である。
【図2】図1に示す信号処理回路の構成の一例を示すブロック図である。
【図3】(A)は重み付けテーブルに設定された重み付け係数の一例を示す図解図であり、(B)は色の分布状態を示す図解図である。
【図4】被写体の一例を示す図解図である。
【図5】図4に示す被写体を撮影したときの表示画面の一例を示す図解図である。
【図6】白バランス調整時の動作の一部を示す図解図である。
【図7】基準値テーブルの一例を示す図解図である。
【図8】目標値テーブルの一例を示す図解図である。
【図9】基準値および目標値の分布状態の一例を示す図解図である。
【図10】基準値および目標値の分布状態の他の一例を示す図解図である。
【図11】領域判別回路の動作の一部を示すフロー図である。
【図12】色相を調整するときの動作の一例を示す図解図である。
【図13】彩度を調整するときの動作の一例を示す図解図である。
【図14】明度を調整するときの動作の一例を示す図解図である。
【図15】CPUの動作の一部を示すフロー図である。
【図16】CPUの動作の他の一部を示すフロー図である。
【図17】図1実施例の動作の一部を示す図解図である。
【符号の説明】
10…ディジタルカメラ
14…イメージセンサ
22…信号処理回路
26…SDRAM
28…ビデオエンコーダ
32…JPEGコーデック
36…メモリカード
38…CPU[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that is applied to, for example, a digital camera and performs color adjustment on an image signal.
[0002]
[Prior art]
In an image processing apparatus such as a digital camera, white balance adjustment is performed on a captured image signal. Specifically, gains x and y are given to the R signal and the B signal so that the levels of the R signal, the G signal, and the B signal forming the image signal have a predetermined relationship. However, the white balance adjustment is not executed for only a part of the image, and the gains x and y are given over one frame period.
[0003]
[Problems to be solved by the invention]
For this reason, for example, when a blue main subject placed on light blue paper is photographed, the color of the paper changes to white and the color of the main subject changes to light blue. When a red main subject placed on a pink paper is photographed, the paper color changes from pink to white and the main subject changes to pink. In other words, color reproducibility may be reduced only by white balance adjustment.
[0004]
Therefore, a main object of the present invention is to provide an image processing apparatus capable of improving color reproducibility.
[0005]
[Means for Solving the Problems]
An image processing apparatus according to the present invention refers to an adjustment unit that performs a white balance adjustment process on a scene image output from an imaging unit, and refers to a saturation correction coefficient for a scene image having a white balance adjusted by the adjustment unit. correcting means performs saturation correction processing, and the saturation correction coefficient referred to by the correction means includes a changing means for changing to change the adjustment amount by the adjustment means is canceled, the white balance adjustment process is the default color range This is a process to adjust the color of the object scene image so that the saturation value of the pixel indicating the color belongs to zero, and the saturation correction process corrects the saturation value of each pixel that forms the object scene image. This is a process of multiplying coefficients.
[0006]
[Action]
The object scene image output from the imaging unit is subjected to white balance adjustment processing by the adjustment unit. The correction unit performs a saturation correction process with reference to a saturation correction coefficient on the object scene image having the white balance adjusted by the adjustment unit. Change means changes the adjustment amount by the adjustment means the saturation correction coefficient referred to by the correction means is changed to be canceled. Here, the white balance adjustment process is a process of adjusting the color of the object scene image so that the saturation value of the pixel indicating the color belonging to the predetermined color range is directed to zero. The saturation correction process is a process of multiplying the saturation value of each pixel forming the object scene image by a saturation correction coefficient.
[0007]
Preferably, a plurality of saturation correction coefficients respectively corresponding to a plurality of colors are held by the holding unit. The correcting means includes detecting means for detecting a saturation correction coefficient associated with each pixel forming the scene image from the holding means.
[0008]
Preferably, the adjustment unit performs white balance adjustment processing with reference to a white balance adjustment coefficient. The imaging means repeatedly outputs the object scene image. The update means repeatedly updates the white balance adjustment coefficient referred to by the adjustment means.
[0009]
More preferably, the changing unit performs the changing process while paying attention to a difference value of the white balance adjustment coefficient before and after being updated by the updating unit.
[0012]
【The invention's effect】
According to this invention , color reproducibility can be improved.
[0013]
The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0014]
【Example】
Referring to FIG. 1, a
[0015]
When the power is turned on, processing instructions are given from the
[0016]
The TG 16 repeatedly executes exposure of the
[0017]
The
[0018]
The
[0019]
When the
[0020]
When the storing process of the compressed image data is completed, the
[0021]
The
[0022]
The screen is divided into 16 in the horizontal direction and the vertical direction, and 256 divided areas are formed on the screen. The integrating
[0023]
Specifically, first, the integrated values Ir (i) and Ib (i) are converted into integrated values Iry (i) and Iby (i). The integrated values Iry (i) and Iby (i) are equal to values obtained by integrating the color difference components RY and BY for each divided area. Such integrated values Iry (i) and Iby (i) are also the color evaluation values of each divided area.
[0024]
Subsequently, based on the weighting table 38a (formed in the CPU 38) having the numerical distribution shown in FIG. 3A and the integrated values Iry (i) and Iby (i) of each divided area, the weighting coefficient of each divided area is obtained. k (i) is detected. The weighting table 38a stores “0” or “1” as the weighting coefficient k (i), and each weighting coefficient k (i) corresponds to the graph shown in FIG. That is, the BY axis and the RY axis are each divided into 17, and each quadrant divided by the BY axis and the RY axis is divided into 64 parts. The weighting coefficient k (i) is assigned to each of the 290 areas thus formed. A range to which the weighting coefficient k (i) = 1 is assigned is a pull-in range.
[0025]
When the weighting coefficient k (i) is detected for each divided area, the optimum gains xs and ys are calculated according to
[0026]
[Expression 1]
Since the weighting coefficient k (i) has only “0” or “1”, by multiplying k (i) by Ig (i) and Ib (i), only the divided area where the color evaluation value is within the pull-in range. Becomes effective. According to
[0027]
When the
[0028]
When the integrated values Iry (i) and Iby (i) relating to the color of the
[0029]
Returning to FIG. 2, the
[0030]
The H component output from the
[0031]
Referring to FIG. 7, six reference H component values, six reference C component values, and six reference L component values are written in reference value table 22j. H, C, and L mean hue, saturation, and lightness, respectively, and are all parameters for tone correction. The same reference value number N (1 to 6) is assigned to the reference H component value, the reference C component value, and the reference L component value that are related to each other, and three component values having the same reference value number (reference H component value, reference value) The reference value is defined by the C component value and the reference L component value. These six reference values individually correspond to the six representative colors (Mg, R, Ye, G, Cy, B) and are distributed in the YUV space as shown in FIGS. FIG. 10 shows only the reference value whose reference value number is “5”.
[0032]
On the other hand, the target value table 22k is formed as shown in FIG. As with the reference value table 22h shown in FIG. 7, there are six target H component values, six target C component values, and six target L component values for each of hue (H), saturation (C), and lightness (L). The target value is defined by the target H component value, target C component value, and target L component value that are set and assigned to the same target value number N (= 1 to 6). These six target values also individually correspond to the six representative colors (Mg, R, Ye, G, Cy, B). When the target H component value, the target C component value, and the target L component value indicate the numerical values shown in FIG. 8, the six target values are distributed in the YUV space as shown in FIGS. FIG. 10 shows only the target value whose target value number is “5”.
[0033]
The target value table 22k is different from the reference value table 22j in that each target value can be changed. That is, the reference H component value, the reference C component value, and the reference L component value set in the reference value table 22j are set in advance in the manufacturing stage and cannot be freely changed by the operator, but are set in the target value table 22k. The target H component value, the target C component value, and the target L component value are changed by the
[0034]
The
[0035]
If it is determined in step S5 that the reference H component value> the current pixel H component value, the count value N is compared with “1” in step S11. If N = 1, steps S21 to S27 are processed. If N> 1, steps S13 to S19 are processed. On the other hand, if the reference H component value ≦ the current pixel H component value, the
[0036]
In step S13, the reference H component value, the reference C component value, and the reference L component value corresponding to the current count value N are selected from the reference value table 22j as Hr1, Cr1, and Lr1, and in step S15, the current count value N The target H component value, the target C component value, and the target L component value corresponding to are selected from the target value table 22k as Ht1, Ct1, and Lt1. In step S17, the reference H component value, the reference C component value, and the reference L component value corresponding to the count value N-1 are selected from the reference value table 22j as Hr2, Cr2, and Lr2, and in step S19, the count value N The target H component value, the target C component value, and the target L component value corresponding to −1 are selected from the target value table 22k as Ht2, Ct2, and Lt2.
[0037]
On the other hand, in step S21, the reference H component value, the reference C component value, and the reference L component value corresponding to the count value N = 1 are selected from the reference value table 22j as Hr1, Cr1, and Lr1, and in step S23, the count value N The target H component value, target C component value, and target L component value corresponding to = 1 are selected from the target value table 22k as Ht1, Ct1, and Lt1. In step S25, the reference H component value, the reference C component value, and the reference L component value corresponding to the count value N = 6 are selected from the reference value table 22j as Hr2, Cr2, and Lr2, and in step S27, the count value N The target H component value, the target C component value, and the target L component value corresponding to = 6 are selected from the target value table 22k as Ht2, Ct2, and Lt2.
[0038]
In this way, two reference values sandwiching the current pixel value with respect to the hue and two target values corresponding to the two reference values are detected.
[0039]
The reference H component values Hr1 and Hr2 and the target H component values Ht1 and Ht2 are given to the
[0040]
The
[0041]
[Expression 2]
The
[0042]
The
[0043]
[Equation 3]
The
[0044]
[Expression 4]
Cr3 = Cr1 + (Cr2-Cr1) · β / (α + β)
Ct3 = Ct1 + (Ct2-Ct1) · δ / (γ + δ)
The
[0045]
[Equation 5]
Lout = (Lin−La) · (Ld−Lc) / (Lb−La) + Lc
La = Cin / Cr3. (Lr3-Lmin)
Lb = Cin / Cr3 · (Lr3−Lmax) + Lmax
Lc = Cout / Ct3 · (Lt3−Lmin)
Ld = Cout / Ct3 · (Lt3−Lmax) + Lmax
Lr3 = Lr1 + (Lr2-Lr1) · β / (α + β)
Lt3 = Lt1 + (Lt2−Lt1) · δ / (γ + δ)
A corrected pixel value is defined by the corrected H component value Hout, the corrected C component value Cout, and the corrected L component value Lout thus obtained. The current pixel value is defined by the current pixel H component value Hin, the current pixel C component value Cin, and the current pixel L component value Lin output from the
[0046]
Specifically, the
[0047]
The color tone correction process in step S35 is executed according to a subroutine shown in FIG. First, in step S41, it is determined whether or not a vertical synchronizing signal is generated. When YES is determined, integrated values Ir (i), Ig (i), and Ib (i) are fetched from the integrating
[0048]
[Formula 6]
Δx = x2−x1
Δy = y2−y1
The calculated difference gains Δx and Δy are changes in the white balance of the subject image and correspond to the movement amount W1 from the
[0049]
As can be seen from the above description, when the white balance of the RGB data output from the
[0050]
The saturation correction by the
[0051]
In this embodiment, the white balance of the subject image is adjusted based on the primary color data. However, when complementary color data is output from the image sensor, the white balance is based on complementary color data (for example, Cy and Ye). May be adjusted.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of the present invention.
2 is a block diagram illustrating an example of a configuration of a signal processing circuit illustrated in FIG. 1. FIG.
3A is an illustrative view showing one example of weighting coefficients set in a weighting table, and FIG. 3B is an illustrative view showing a color distribution state;
FIG. 4 is an illustrative view showing one example of a subject.
FIG. 5 is an illustrative view showing one example of a display screen when the subject shown in FIG. 4 is photographed;
FIG. 6 is an illustrative view showing a part of an operation during white balance adjustment;
FIG. 7 is an illustrative view showing one example of a reference value table.
FIG. 8 is an illustrative view showing one example of a target value table;
FIG. 9 is an illustrative view showing one example of a distribution state of a reference value and a target value.
FIG. 10 is an illustrative view showing another example of a distribution state of reference values and target values.
FIG. 11 is a flowchart showing a part of the operation of the region discriminating circuit.
FIG. 12 is an illustrative view showing one example of an operation when adjusting a hue;
FIG. 13 is an illustrative view showing one example of an operation when adjusting saturation.
FIG. 14 is an illustrative view showing one example of an operation when adjusting the brightness.
FIG. 15 is a flowchart showing a part of the operation of the CPU.
FIG. 16 is a flowchart showing another portion of behavior of the CPU.
FIG. 17 is an illustrative view showing one portion of operation of the embodiment in FIG. 1;
[Explanation of symbols]
DESCRIPTION OF
28 ...
Claims (4)
前記調整手段によって調整された白バランスを有する被写界像に彩度補正係数を参照した彩度補正処理を施す補正手段、および
前記補正手段によって参照される彩度補正係数を前記調整手段による調整量の変化が相殺されるように変更する変更手段を備え、
前記白バランス調整処理は既定色範囲に属する色を示す画素の彩度値がゼロに向かうように前記被写界像の色を調整する処理であり、
前記彩度補正処理は前記被写界像を形成する各画素の彩度値に前記彩度補正係数を掛け算する処理である、画像処理装置。Adjusting means for performing white balance adjustment on the object scene image output from the imaging means;
Correction means for performing saturation correction processing with reference to a saturation correction coefficient on the object scene image having white balance adjusted by the adjustment means, and adjustment of the saturation correction coefficient referred to by the correction means by the adjustment means comprising a changing means for changing as change in the amount is canceled out,
The white balance adjustment process is a process of adjusting the color of the object scene image so that the saturation value of a pixel indicating a color belonging to a predetermined color range is directed to zero.
The image processing apparatus, wherein the saturation correction process is a process of multiplying a saturation value of each pixel forming the object scene image by the saturation correction coefficient.
前記補正手段は前記被写界像を形成する各画素に関連する彩度補正係数を前記保持手段から検出する検出手段を含む、請求項1記載の画像処理装置。A holding means for holding a plurality of saturation correction coefficients respectively corresponding to the plurality of colors;
The image processing apparatus according to claim 1, wherein the correction unit includes a detection unit that detects a saturation correction coefficient associated with each pixel forming the scene image from the holding unit.
前記撮像手段は前記被写界像を繰り返し出力し、
前記調整手段によって参照される白バランス調整係数を繰り返し更新する更新手段をさらに備える、請求項1または2記載の画像処理装置。The adjusting means performs the white balance adjustment process with reference to a white balance adjustment coefficient,
The imaging means repeatedly outputs the object scene image,
The image processing apparatus according to claim 1, further comprising an update unit that repeatedly updates a white balance adjustment coefficient referred to by the adjustment unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001342364A JP3992476B2 (en) | 2001-11-07 | 2001-11-07 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001342364A JP3992476B2 (en) | 2001-11-07 | 2001-11-07 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003143622A JP2003143622A (en) | 2003-05-16 |
JP3992476B2 true JP3992476B2 (en) | 2007-10-17 |
Family
ID=19156238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001342364A Expired - Fee Related JP3992476B2 (en) | 2001-11-07 | 2001-11-07 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3992476B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4002863B2 (en) * | 2003-06-24 | 2007-11-07 | オリンパス株式会社 | Image processing system and image processing method |
JP4916093B2 (en) * | 2004-03-29 | 2012-04-11 | 三洋電機株式会社 | Image processing device |
KR20070091853A (en) | 2006-03-07 | 2007-09-12 | 삼성전자주식회사 | Apparatus and method for reproducting color image-adaptively |
US7889245B2 (en) | 2007-01-12 | 2011-02-15 | Seiko Epson Corporation | Automatic white balancing of a digital image |
JP5885023B2 (en) * | 2012-01-24 | 2016-03-15 | カシオ計算機株式会社 | Imaging apparatus, white balance control method, and white balance control program |
-
2001
- 2001-11-07 JP JP2001342364A patent/JP3992476B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003143622A (en) | 2003-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6947080B2 (en) | Device for image processing, method of adjusting white-balance, and computer products | |
US7030911B1 (en) | Digital camera and exposure control method of digital camera | |
JP4894907B2 (en) | Imaging apparatus, imaging processing method, and program | |
JP5663564B2 (en) | Imaging apparatus, captured image processing method, and captured image processing program | |
JP3877544B2 (en) | Digital camera | |
JP2008167361A (en) | Camera module, electronic device with the same, method of manufacturing camera module, and method of manufacturing electronic device using the same | |
JP4628937B2 (en) | Camera system | |
JP6083974B2 (en) | Image processing apparatus, image processing method, and program | |
WO2007043325A1 (en) | Image processing system and image processing program | |
JP2009044367A (en) | Imaging method and imaging apparatus | |
JP3631169B2 (en) | Digital camera | |
US7173654B2 (en) | Digital camera having color adjustment capability | |
JP2010041611A (en) | Digital camera and image processor, as well as image processing program | |
JP3992476B2 (en) | Image processing device | |
JP3754364B2 (en) | Digital camera | |
JP4581633B2 (en) | Color signal correction method, apparatus and program | |
WO2005099356A2 (en) | Imaging device | |
JP2004088408A (en) | Digital camera | |
JP5675391B2 (en) | Image processing device | |
JP2532962B2 (en) | Color video camera | |
JP4804327B2 (en) | Electronic camera | |
JP5263764B2 (en) | Electronic camera | |
JP4353813B2 (en) | Exposure control device | |
JP5121898B2 (en) | Imaging device | |
KR100562403B1 (en) | Image correction method for digital camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070626 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070724 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100803 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110803 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120803 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130803 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130803 Year of fee payment: 6 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130803 Year of fee payment: 6 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |