JP4367821B2 - Image processing apparatus, image processing method, and recording medium - Google Patents
Image processing apparatus, image processing method, and recording medium Download PDFInfo
- Publication number
- JP4367821B2 JP4367821B2 JP2001259224A JP2001259224A JP4367821B2 JP 4367821 B2 JP4367821 B2 JP 4367821B2 JP 2001259224 A JP2001259224 A JP 2001259224A JP 2001259224 A JP2001259224 A JP 2001259224A JP 4367821 B2 JP4367821 B2 JP 4367821B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- luminance
- region
- gradation correction
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 35
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000012937 correction Methods 0.000 claims description 91
- 238000006243 chemical reaction Methods 0.000 description 22
- 238000000034 method Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000003702 image correction Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000012536 storage buffer Substances 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
Images
Landscapes
- Color Image Communication Systems (AREA)
- Record Information Processing For Printing (AREA)
- Color, Gradation (AREA)
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、カラー画像データの階調を自動的に補正する画像出力システム、プリンタシステム、画像表示システムなどにおける画像処理装置に関し、デジタルカメラやスキャナなどに適用される技術である。
【0002】
【従来の技術】
近年、パソコンやインターネット、家庭用プリンタの普及、及びハードディスクなどの記憶容量の大型化により、デジタルデータで写真画像を扱う機会が増えている。それに伴いデジタル写真画像データ(以下、画像データ)の入力手段として、デジタルカメラやフィルムスキャナなどが一般に使用されている。
【0003】
デジタルカメラには撮影時の露出を常に最適に保つための自動露出制御装置が設けられている。露出制御方式には、種々の方法があるが、光量検出のため画面を複数の適当な領域に分割し、領域ごとに重み付けを行い加重平均を取り、絞りやシャッタスピードなどを調節する方法が一般的である。
【0004】
しかし、これらの露出制御方式は各社様々であり、撮影条件によって適正に作動しない場合もあるため完全なものは存在しない。とりわけ、主被写体の真後ろに光源が存在し背景と主被写体との輝度差が大きい、逆光状態では、被写体に露出があわないと背景の明るさに引っ張られて露出がマイナスに補正されるため、被写体が暗く写ってしまう。
【0005】
また、夜間ストロボ撮影では、被写体にストロボ光が当たることが前提になるため、絞りやシャッタスピードは既定値に固定される。つまり、ストロボと被写体の距離が遠すぎると光が届かず、この場合も被写体は暗く写ってしまう。
【0006】
ここで、露出補正とは、シーンに対して不適切な明るさを持つ被写体を、シーンに適した明るさに調節することを意味する。例えば露出不足で全体に暗い被写体や、逆光で暗くなっている被写体を明るくしたり、露出オーバな被写体を暗くしたりすることである。カメラでの露出補正は、レンズに入る入射光量を調節するために絞りやシャッタスピードを変える方法が一般的である。また、プリンタやディスプレイでは、入出力変換関数(階調補正カーブ)等を用い、入力信号の明るさに対し出力信号の明るさを最適化するための処理等を意味する。なお、露出を補正して画像データの明るさを調節することと、本発明における階調補正処理とは目的が同等なため、以後、階調補正処理と記す。
【0007】
このようなデジタル画像の撮影時における不適切な露出状態に対応するため、画像データを自動的に階調補正する技術が多数提案されている。
【0008】
例えば、原稿画像全体を読みとって原稿画像の主要画像特徴量を算出し、算出された主要画像特徴量から被写体の所定濃度範囲を算出し、原稿画像全体から前記所定濃度範囲の画素のみを抽出して原稿画像特徴量を決定し、この原稿画像特徴量から露光量を決定することにより、逆光画像など、背景と被写体の濃度差が大きい画像を適切に補正する露光量決定方法がある(特開平7−301867号公報を参照)。
【0009】
また、画像全域で飽和が起こらないような変換カーブを作成して、逆光補正を行う画像処理方法もある(特開平10−79885号公報を参照)。
【0010】
【発明が解決しようとする課題】
階調補正処理を行う上で最も困難なのは、被写体の明るさを適切に補正し、階調性を保ちつつ、過補正を起こさないことである。つまり、従来のように被写体部分のみから補正量を得ると、補正処理後の画像において階調つぶれや色相ずれが起こる。
【0011】
本発明は上記した問題点に鑑みてなされたもので、
本発明の目的は、不適切な露出状態で撮影された画像の主被写体において、階調性を保存しつつ、過補正を起こすことなく最大限の効果で適切に補正する画像処理装置、画像処理方法および記録媒体を提供することにある。
【0012】
【課題を解決するための手段】
本発明では、主要被写体の領域を抽出する被写体領域抽出手段と、被写体領域の情報から階調補正度合いを算出する補正量算出手段と、主要被写体領域が属さない明度域から所定の制御域を抽出する制御域抽出手段と、制御域において所定の制御条件を用いて階調補正度合いを制御するか否かを判定する判定手段と、判定手段の判定結果に応じて階調補正度合いを制御する制御手段を備えることにより、被写体領域の階調を補正しつつ、ハイライト域もしくはシャドー域の過補正を防止し、シーンや画像出力機器に応じた階調補正を行う。
【0013】
【発明の実施の形態】
以下、本発明の一実施例を図面を用いて具体的に説明する。
(実施例1)
図1は、本発明の実施例1の全体構成を示す。図1において、スキャナやデジタルカメラあるいはビデオカメラなどの画像入力装置100は、写真などをマトリックス状の画素として表した実写の画像データを画像処理装置101に出力する。画像処理装置101内の階調補正処理部102では、最適な評価値を算出し、その評価値を用いて階調補正処理を実行する。ディスプレイ、プリンタなどの画像出力装置103は、階調補正処理した画像データを出力する。本実施例の場合、画像データとしては写真などの実写データが適している。また、本実施例では画像データはカラーデータとして以下、説明する。
【0014】
図2は、本発明に係る階調補正処理部102の構成を示す。まず、画像入力装置100によって入力された画像データ200に対して以下の処理が実行される。被写体領域抽出手段201では、画像データ上の主要被写体領域を抽出する。ここで、被写体領域の抽出は、従来から提案されている公知の技術を用いれば良い。
【0015】
次に、制御領域抽出手段202では、明度分布上で被写体領域が属する明度域以外の明度域より制御域を求める。以下、本実施例で補正対象となる入力画像は逆光であると仮定し、明度情報として輝度を用いて説明を行う。
【0016】
逆光画像の場合、被写体は背景に対して暗く、露出不足である。従って、制御域は被写体領域が属する輝度域よりも明るい領域となる。図3は、被写体領域抽出手段によって抽出された逆光画像の被写体領域を示す。また、図4は、被写体領域の属する輝度領域、および制御域のヒストグラムを示す。
【0017】
次に、階調補正カーブf0(x)を得るための処理を、図5〜8を用いて説明する。ここで、説明を簡単にするために、入力画像データの輝度最小値shをsh=0、最大値hlをhl=255とする。
【0018】
補正量算出手段206では、抽出された主要被写体領域の輝度分布203から中央値などの統計値204(以下、説明のため統計値として中央値Aを用いる)を算出し、主要被写体の特徴的な明るさを得る。
【0019】
続いて、補正量算出手段206では、中央値Aによって被写体の明るさが適切か否かを判定し、適切でない場合は仮の補正量δ205を得る。なお、ここでは、逆光状態による露出不足を仮定しているため、δ>0であり、例えばδは輝度中央値の関数として、図5のように定める。
【0020】
次に、階調補正カーブf0(x)を算出する。δ=0の場合、f0(x)=xである。
【0021】
δ≠0の場合について説明する。階調補正カーブf0(x)は、図6に示すように、3つの一次関数の組み合わせによって表され、それぞれの一時関数l1(x),l2(x),l3(x)は、輝度領域毎に下記のように算出される。
y=f0(x)
l1(x)=α1・x (0≦x<A)
= l2(x)=α2・x+β2 (A≦x<C)
l3(x)=α3・x+β3 (C≦x<255) 式(1)
なお、α1={(A+δ)/A}
α2=1、β2=δ , (A≦x<C)
α3={(255−C−δ)/(255−C)}、β3={(255・δ)/
(255−C)} 式(2)
であり、
f0(x)の算出207では、補正量δに従って、一時関数はl1(x),l2(x),l3(x)の順に算出される。
【0022】
すなわち、入力輝度値がシャドーポイントから中央値Aまでは座標(0,0),(A,B),(但し、B=A+δ)を結ぶl1(x)、主要被写体領域の輝度領域における最大値Cまではカーブの傾き1を保つl2(x)、それよりもハイライト側では座標(C,D),(255,255),(但し、D=C+δ)を結ぶl3(x)を階調補正カーブとする。図6は、階調補正カーブを示す。
【0023】
次いで、判定手段208では、制御域における補正量δが適切か否かを判定する。補正量δから算出される階調補正カーブf0(x)において、l3(x)の傾きα3が小さ過ぎると階調補正後のハイライトで階調つぶれが起きる可能性がある。そこで、α3に閾値Thによる下限を設け、α3<Thの場合は、α3≡Thとする(209)。そして、α3≡Thの場合は、階調補正カーブ算出部207で算出したf0(x)の代わりに、新たな階調補正カーブf1(x)を算出する(210)。
【0024】
すなわち、新たな階調補正カーブf1(x)は、3つの一次関数の組み合わせによって表され、それぞれの一時関数l1(x),l2(x),l3(x)は、l3(x)、l2(x)、l1(x)の順に算出される。
【0025】
l3(x)は、傾きThで座標(255、255)を通る関数であるから
α3=Th、 β3=255(1−Th) 式(3)
である。このとき、入力Cの出力C’(図8)は、式(3)を用いて算出でき、C’=Th・C+255(1−Th)
である。
【0026】
l2(x)は、傾き1で座標(C、C’)を通る関数であるから
α2=1、β2=(255−C)(1−Th) 式(4)
である。このとき、入力Aの出力A’(図8)は、式(4)を用いて算出でき、A’=A+(255−C)(1−Th)
である。
【0027】
l1(x)は、座標(A、A’)、(0、0)を通る関数であるから
α1={A+(255−C)(1−Th)}/A 式(5)
である。これにより、新たな階調補正カーブf1(x)が算出された。
【0028】
従って、階調補正処理手段211では、判定手段208の判定の結果、α3≧Thの場合、階調補正カーブ算出部207で算出したf0(x)を使用し、α3<Thの場合、新たな階調補正カーブf1(x)を使用して、階調補正処理を行う。
【0029】
階調補正カーブとしてf0(x)を用い、RGBカラー画像データの階調補正処理を以下に説明する。
【0030】
画像データの入力輝度値Yin(j)(j=1,2,...N, Nは、入力データの画素数)に対し、階調補正カーブf0(x)による補正後の出力輝度値Y1(j)を定義する。ここで、xは画像データの入力輝度値である。
入力輝度値は以下の式で算出される。j番目の画素(j=1,2,...N−1,N)の輝度Yin(j)は、カラー画像信号(Rin(j),Gin(j),Bin(j))を用いて、以下の式で表せる。
Yin(j)=0.299・Rin(j)+0.587・Gin(j)+0.114・Bin(j) 式(6)
入力輝度値Yin(j)に対して階調補正処理後の出力輝度値Y1(j)を算出し、階調補正係数C0(j)を以下の式で算出する。
C0(j)=Y1(j)/Yin(j)
=f0(Yin(j))/Yin(j) 式(7)
入力カラー画像信号(Rin(j),Gin(j),Bin(j))は、以下の式で変換され、階調補正カラー信号(R1(j),G1(j),B1(j))を得る。
(R1(j),G1(j),B1(j))=C0(j)・(Rin(j),Gin(j),Bin(j)) 式(8)
また、入力画像信号がグレーの場合、グレーレベルYin(j)を入力値とし、階調補正処理後の出力は、出力グレーレベル
Y1(j)=f0(Yin(j))
を得れば良い。
【0031】
なお、通常の画像処理では、出力デバイス(本実施例ではディスプレイ)の再現範囲0〜255を超えた場合クリッピングを行う。すなわち0未満の値は0へ、255以上の値は強制的に255に置き換える。
以上の階調補正処理を階調補正処理手段211で行い、補正された出力画像データ212を得る。
【0032】
階調補正カーブが図7のように指数関数f0(x)で表される場合について説明する。まず、抽出された主要被写体領域の輝度分布から中央値などの統計値を算出し、主要被写体のもつ特徴的な明るさを得る。
【0033】
次に、中央値Aによって被写体の明るさが適切か否かを判定し、適切でない場合は補正量δを得る。なお、ここでは、逆光状態による露出不足を仮定しているため、1>δ>0である。
次に階調補正カーブf0(x)を得る。
y=f0(x)={x^δ}・255 式(9)
次に、例えば、x=Cにおけるf0(x)の接線の傾き、もしくは一次の微分係数
d(f0(x))/dx](x=C)=lim(δ→0){(f0(C+δ)−f0(C))/δ}
=δ・C^(δ−1)・255 式(10)
を算出し、その値が閾値Thを以上か否かを調べ、超えている場合は式(10)の右辺をThと定め最終的な補正量Δを得る。つまり以下の式
Δ・C^(Δ−1)・255=Th 式(11)
を満たすΔを新たな補正量とする。
【0034】
上記した実施例では逆光の画像を補正する際において、ハイライトの過補正を防ぐための例であるが、シャドーの場合も制御方法は同様である。つまり、階調補正処理によって起こるノイズの発生を抑制するのであれば、α1に上限を設け、つぶれを抑えるのであればα1に下限を設ける。
【0035】
また、本実施例では、画像のシーンに応じて閾値Thを変える。ここでシーンとは、カメラで画像が撮影されたときの状態をいい、例えば逆光状態、夜間フラッシュ撮影や露出不足状態などがある。入力画像が逆光状態で撮影された画像の場合、被写体は低輝度側に位置し、背景は白飛びを起こしていることもあるため、背景であるハイライトの階調つぶれは目立ちにくい。また、夜間フラッシュ撮影の場合、被写体はハイライト側に位置し、階調再現性が重要視される。従って、逆光画像、夜間フラッシュ撮影画像の制御条件をそれぞれThb、Thfとすると、Thb<Thfとなるように定める。
【0036】
また、本実施例では、出力機器の色再現性に応じて閾値Thを変える。例えば出力画像機器がモニタの場合は階調再現性が良く、プリンタの場合はとりわけハイライトやシャドーの階調再現性が悪い。従って、モニタ、プリンタの制御条件をそれぞれThm、Thpとすると、Thm<Thpとなるように定める。
【0037】
なお、上記した実施例では輝度を用いて説明したが、輝度の代わりにL*a*b表色系のL値やRGBのG値を用いてもよい。また、被写体の抽出法としては種々の方法が提案されておりそのいずれを用いてもよい。さらに、δを算出するための統計量には中央値を用いたが平均値などでもよく、制御条件は出力条件に応じて適切に決めれば良い。
【0038】
(実施例2)
実施例2は、本発明を画像出力システムに適用した実施例である。図9は、本発明の実施例2に係る構成を示す。図9において、300は、画像出力制御装置をコントロールするためのコンピュータである。コンピュータ300は、オペレータがプリンタ(1)304を選択し、出力命令を受け取ると、画像を撮像するなどして取り込まれた画像データや各種DTPソフトで作成したモノクロとカラーの両方の写真等の画像データなどを画像出力制御装置(1)305に送信する。
【0039】
画像出力制御装置(1)305は、コンピュータ300から送信された画像データを分析し、カラー複写機等の画像形成装置の制御信号である複数の出力色成分C(Cyan)、M(Mazenta)、Y(Yellow)、K(blacK)に対して後述する色変換処理を実行し、その結果を画像形成装置に転送し、画像形成装置は送信された画像をプリントする。
【0040】
画像出力制御装置(1)305は、入力された画像データに対して、階調補正処理を行い、画像形成装置用の制御信号への変換を行なう色変換手段(1)301と、中間調処理等を実施する描画手段(1)302と、描画手段(1)302で描画された1ページ分の印刷画像を一時的に格納する画像記憶手段(格納バッファ)(1)303とを備えている。
【0041】
上記した画像出力制御装置は、画像表示装置の特性とプリンタの特性に合わせて表示画像に忠実なプリンタ出力を得るための色変換手段や機種毎に対応した解像度を変換する解像度変換手段などを構成要素としてよい。
【0042】
なお、上記した画像出力制御装置に入力される画像データは、具体的にはRGB(緑、青、赤)の階調データであり、また、各色成分の階調数は8bit=256階調が一般的であるが、64あるいは512など他の階調数でもよい。
【0043】
以下、画像出力制御装置(1)305の動作を説明すると、画像データは色変換手段(1)301へ送られ、色変換手段(1)301では、画像形成装置(プリンタ)(1)304のもつ色再現範囲に応じて階調補正処理が行われる。次に、オペレータの使用している画像表示装置の特性と画像形成装置(プリンタ)の特性に基づいて色変換が行われ、画像形成装置(プリンタ)の制御信号である複数の出力色成分C(Cyan),M(Mazenta),Y(Yellow),K(blacK)データに変換され、描画手段、画像記憶手段(格納バッファ)に送られる。
【0044】
RGB(緑、青、赤)の階調データから、出力色成分C(Cyan),M(Mazenta),Y(Yellow),K(blacK)データへの変換は、メモリマップ補間で、CMYに色変換する。メモリマップ補間とは、図10に示すように、RGB空間を入力色空間とした場合、RGB空間を同種類の立体図形(ここでは立方体)に分割し、入力の座標(RGB)おける出力値Pを求めるには、前記入力の座標を含む立方体を選択し、該選択された立方体の8点の予め設定した頂点上の出力値と前記入力の前記立方体の中における位置(各頂点からの距離)に基づいて、線形補間を行う。ここで、本実施例の場合、出力値Pは、C,M,Y値にそれぞれ相当し、補間演算に使用される入力空間上の座標(RGB)には、実際の入出力(L*a*b*−CMY)の関係を測定して、このデータを使用して最小2乗法等により算出したRGB(L*a*b*)に対するC,M,Yの値が予め設定してある。また、CMY信号は、例えば次式のような演算によって、CMYK信号に変換される。
K = α×min(C,M,Y)
C’=C−β×K
M’=M−β×K
Y’=Y−β×K
なお、色変換法は上記した方法に限らず、画像表示装置の特性を、例えば、コンピュータが画像データのヘッダ情報に記録して送信するようにしても良いし、上記した画像出力制御装置をコンピュータ内部に実装する場合には、例えばICC(Inter Color Consortium)で標準化されているデバイス・プロファイルを読み出して用いてもよい。
【0045】
色変換手段301における画像補正処理手段417について、図11を用いて説明する。画像補正処理手段417は、基本的に実施例1で説明したものと同様であるのでその説明を省略する。ただし、本実施例では、閾値情報テーブル411を具備している。すなわち、各プリンタの再現範囲が異なるため、閾値もプリンタ毎に異なる。また、同様にプリンタのインク特性やこの後に行われる中間調処理に応じて閾値が異なる。そこで、色変換手段では出力予定のプリンタに関する閾値情報をテーブル411で具備している。
【0046】
実施例1と同様にして算出された階調補正カーブを用いて、色変換テーブル記憶部414に記憶されている色変換テーブルの格子点データを書き換える(413)。RGB空間上の各格子点にはCMYKへの変換係数が記憶されている。入力画像データの各画素のRGB値に対して階調補正を行うのではなく、この格子点データを書きかえることによって処理の高速化が実現できる。
【0047】
次いで、入力画像データに対し、色変換テーブル記憶部から書きかえられた色変換テーブルを選択し、補間演算部415に送る。補間演算部415では、色変換テーブルを参照して、例えば、前述したようなメモリマップ補間を実施し、描画手段416に画像データを送る。
【0048】
画像出力制御装置は、カラー・プリンタ内部に実装して色変換する場合もあれば、コンピュータ内に実装する場合もある。コンピュータ内に実装する場合、上記した色変換テーブルは、コンピュータから出力可能なプリンタ全ての情報を含む。また、カラー・プリンタと独立に設けられたプリンタ制御装置内に実装して色変換してから画像データをプリンタに送るようにしてもよい。
【0049】
更に、本実施形態は、ソフトウエアで実行することも可能であり、その場合には、コンピュータ内のプログラムとして存在するプリンタ・ドライバで実行することができる。
【0050】
図12は、本発明をソフトウエアで実施する場合のシステム構成例を示す。この画像出力システムは、ワークステーションとプリンタが接続されている。ワークステーションは、前述した階調補正処理の機能を実現するもので、ディスプレイ、キーボード、プログラム読取装置および演算処理装置などで構成されている。演算処理装置は、種々のコマンドを実行可能なCPUに、ROM、RAMがバスで接続されている。また、バスには大容量記憶装置であるDISKと、ネットワーク上の機器と通信を行うNICが接続されている。
【0051】
プログラム読取装置は、各種のプログラムコードを記憶した記憶媒体、すなわち、フロッピーディスク、ハードディスク、光ディスク(CD−ROM,CD−R,CD−R/W,DVD−ROM,DVD―RAMなど)、光磁気ディスク、メモリカードなどに記憶されているプログラムコードを読み取る装置で、例えばフロッピーディスクドライブ、光ディスクドライブ、光磁気ディスクドライブなどである。
【0052】
記憶媒体に記憶されているプログラムコードは、プログラム読取装置で読みとってDISKなどに格納され、このDISKなどに格納されたプログラムコードをCPUによって実行することにより、前述した画像処理方法などを実現する。また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)やデバイス・ドライバなどが実際の処理の一部または全部を行い、その処理によって前述した機能が達成される場合も含まれる。
【0053】
【発明の効果】
以上、説明したように、本発明によれば、以下のような効果が得られる。
(1)被写体が属さない明度域の情報を用いて階調補正のための補正量を制御することにより、階調つぶれを起こすことなく補正を行うことが可能である。
(2)被写体領域が属する明度域より明るい明度域を制御領域とすることにより、過補正によって起こるハイライトの階調つぶれ、シャドーの階調つぶれを防ぐことが可能である。
(3)階調補正カーブを用いた階調補正処理において、階調補正カーブの接線の傾きに下限を設けることにより、過補正によって起こるハイライト、もしくはシャドーの階調つぶれを防ぐことが可能である。
(4)シーンに対して適切な制御条件を設けることにより、シーンに応じた階調補正を行うことが可能である。
(5)画像出力機器に対して適切な制御条件を設けることにより、画像出力機器に応じた階調補正を行うことが可能である。
(6)補正対象画像の特徴に対して適切な制御条件を設けることにより、画像出力機器に応じた階調補正を行うことが可能である。
(7)被写体領域に属する明るさを表す成分から補正量を求めることにより、被写体に適した階調補正量を得ることが可能である。
【図面の簡単な説明】
【図1】本発明の実施例1の全体構成を示す。
【図2】本発明に係る階調補正処理部の構成を示す。
【図3】被写体領域抽出手段によって抽出された逆光画像の被写体領域を示す。
【図4】被写体領域の属する輝度域および制御域のヒストグラムを示す。
【図5】補正量δを輝度中央値の関数として示す。
【図6】算出された階調補正カーブの第1の例を示す。
【図7】指数関数で表した階調補正カーブを示す。
【図8】算出された階調補正カーブの第1、第2の例を示す。
【図9】本発明の実施例2に係る構成を示す。
【図10】メモリマップ補間を説明する図である。
【図11】色変換手段における画像補正処理手段の構成を示す。
【図12】本発明をソフトウエアで実施する場合のシステム構成例を示す。
【符号の説明】
100 画像入力装置
101 画像処理装置
102 階調補正処理部
103 画像出力装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus in an image output system, a printer system, an image display system, or the like that automatically corrects gradation of color image data, and is a technique applied to a digital camera, a scanner, or the like.
[0002]
[Prior art]
In recent years, with the widespread use of personal computers, the Internet, and home printers, and the increase in storage capacity of hard disks and the like, opportunities for handling photographic images with digital data are increasing. Accordingly, digital cameras, film scanners, and the like are generally used as input means for digital photographic image data (hereinafter referred to as image data).
[0003]
The digital camera is provided with an automatic exposure control device for always maintaining an optimum exposure at the time of shooting. There are various exposure control methods, but the general method is to divide the screen into a number of appropriate areas for light intensity detection, weight each area, take a weighted average, and adjust the aperture, shutter speed, etc. Is.
[0004]
However, these exposure control systems vary from company to company and may not operate properly depending on the shooting conditions, so there is no perfect one. In particular, there is a light source directly behind the main subject and there is a large luminance difference between the background and the main subject. The subject appears dark.
[0005]
In night strobe shooting, since it is assumed that the subject is exposed to strobe light, the aperture and shutter speed are fixed to default values. In other words, if the distance between the strobe and the subject is too far, the light will not reach, and in this case, the subject will appear dark.
[0006]
Here, exposure correction means adjusting a subject having brightness inappropriate for the scene to brightness suitable for the scene. For example, a subject that is dark due to underexposure, a subject that is dark due to backlighting, or a subject that is overexposed is darkened. In general, exposure correction in a camera is performed by changing the aperture and shutter speed in order to adjust the amount of incident light entering the lens. In a printer or a display, it means processing for optimizing the brightness of the output signal with respect to the brightness of the input signal using an input / output conversion function (tone correction curve) or the like. It should be noted that, since the purpose of the correction of exposure by adjusting the brightness of image data is the same as that of the gradation correction process according to the present invention, it is hereinafter referred to as a gradation correction process.
[0007]
In order to cope with such an inappropriate exposure state at the time of taking a digital image, many techniques for automatically correcting the gradation of image data have been proposed.
[0008]
For example, the entire original image is read to calculate the main image feature amount of the original image, the predetermined density range of the subject is calculated from the calculated main image feature amount, and only the pixels in the predetermined density range are extracted from the entire original image. There is an exposure amount determination method that appropriately corrects an image having a large density difference between the background and the subject, such as a backlight image, by determining the document image feature amount and determining the exposure amount from the document image feature amount (Japanese Patent Laid-Open 7-301867).
[0009]
There is also an image processing method in which a conversion curve is created so that saturation does not occur in the entire image, and backlight correction is performed (see Japanese Patent Laid-Open No. 10-79885).
[0010]
[Problems to be solved by the invention]
The most difficult thing in performing the gradation correction processing is to appropriately correct the brightness of the subject, maintain the gradation, and not cause overcorrection. That is, when the correction amount is obtained only from the subject portion as in the conventional case, the gradation loss or hue shift occurs in the image after the correction processing.
[0011]
The present invention has been made in view of the above problems,
SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus and image processing that appropriately correct the main subject of an image shot in an inappropriate exposure state with the maximum effect without causing overcorrection while preserving gradation. It is to provide a method and a recording medium.
[0012]
[Means for Solving the Problems]
In the present invention, a subject area extracting means for extracting a main subject area, a correction amount calculating means for calculating a gradation correction degree from information on the subject area, and a predetermined control area is extracted from a lightness area to which the main subject area does not belong. A control area extracting means for determining, a determining means for determining whether or not the gradation correction degree is controlled using a predetermined control condition in the control area, and a control for controlling the gradation correction degree according to a determination result of the determining means By providing the means, overcorrection of the highlight area or shadow area is prevented while correcting the gradation of the subject area, and gradation correction is performed according to the scene or the image output device.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
(Example 1)
FIG. 1 shows the overall configuration of Embodiment 1 of the present invention. In FIG. 1, an
[0014]
FIG. 2 shows a configuration of the gradation
[0015]
Next, the control
[0016]
In the case of a backlight image, the subject is dark against the background and underexposed. Therefore, the control area is brighter than the luminance area to which the subject area belongs. FIG. 3 shows the subject area of the backlight image extracted by the subject area extracting means. FIG. 4 shows a histogram of the luminance region to which the subject region belongs and the control region.
[0017]
Next, a process for obtaining the gradation correction curve f0 (x) will be described with reference to FIGS. Here, in order to simplify the description, it is assumed that the minimum luminance value sh of the input image data is sh = 0 and the maximum value hl is hl = 255.
[0018]
The correction amount calculating means 206 calculates a
[0019]
Subsequently, the correction amount calculation means 206 determines whether or not the brightness of the subject is appropriate based on the median value A, and obtains a temporary correction amount δ 205 if it is not appropriate. Here, since underexposure due to a backlight condition is assumed, δ> 0. For example, δ is determined as a function of the median luminance as shown in FIG.
[0020]
Next, the gradation correction curve f0 (x) is calculated. When δ = 0, f0 (x) = x.
[0021]
A case where δ ≠ 0 will be described. As shown in FIG. 6, the gradation correction curve f0 (x) is represented by a combination of three linear functions, and the temporary functions l1 (x), l2 (x), and l3 (x) are for each luminance region. Is calculated as follows.
y = f0 (x)
l1 (x) = α1 · x (0 ≦ x <A)
= 12 (x) = α2 · x + β2 (A ≦ x <C)
l3 (x) = α3 · x + β3 (C ≦ x <255) Equation (1)
Α1 = {(A + δ) / A}
α2 = 1, β2 = δ, (A ≦ x <C)
α3 = {(255−C−δ) / (255−C)}, β3 = {(255 · δ) /
(255-C)} Formula (2)
And
In the
[0022]
That is, when the input luminance value is from the shadow point to the median A, l1 (x) connecting the coordinates (0, 0), (A, B) (where B = A + δ), the maximum value in the luminance region of the main subject region Up to C, l2 (x) that keeps the slope of the curve 1 and, on the highlight side, l3 (x) that connects coordinates (C, D), (255, 255) (provided that D = C + δ) Use a correction curve. FIG. 6 shows a gradation correction curve.
[0023]
Next, the
[0024]
That is, the new gradation correction curve f1 (x) is represented by a combination of three linear functions, and the temporary functions l1 (x), l2 (x), and l3 (x) are l3 (x) and l2 respectively. (X) and l1 (x) are calculated in this order.
[0025]
Since l3 (x) is a function passing through the coordinates (255, 255) with a slope Th, α3 = Th, β3 = 255 (1-Th) Equation (3)
It is. At this time, the output C ′ (FIG. 8) of the input C can be calculated using Expression (3), and C ′ = Th · C + 255 (1−Th)
It is.
[0026]
Since l2 (x) is a function passing through the coordinates (C, C ′) with the inclination 1, α2 = 1, β2 = (255-C) (1-Th) Equation (4)
It is. At this time, the output A ′ (FIG. 8) of the input A can be calculated using the equation (4), and A ′ = A + (255−C) (1−Th)
It is.
[0027]
Since l1 (x) is a function passing through the coordinates (A, A ′) and (0, 0), α1 = {A + (255−C) (1−Th)} / A Equation (5)
It is. As a result, a new gradation correction curve f1 (x) was calculated.
[0028]
Therefore, the gradation
[0029]
The gradation correction processing of RGB color image data using f0 (x) as the gradation correction curve will be described below.
[0030]
With respect to the input luminance value Yin (j) (j = 1, 2,... N, N is the number of pixels of the input data) of the image data, the output luminance value Y1 after correction by the gradation correction curve f0 (x) Define (j). Here, x is an input luminance value of image data.
The input luminance value is calculated by the following formula. The luminance Yin (j) of the j-th pixel (j = 1, 2,..., N−1, N) is obtained using color image signals (Rin (j), Gin (j), Bin (j)). It can be expressed by the following formula.
Yin (j) = 0.299 · Rin (j) + 0.587 · Gin (j) + 0.114 · Bin (j) Equation (6)
An output luminance value Y1 (j) after gradation correction processing is calculated for the input luminance value Yin (j), and a gradation correction coefficient C0 (j) is calculated by the following equation.
C0 (j) = Y1 (j) / Yin (j)
= F0 (Yin (j)) / Yin (j) Equation (7)
The input color image signals (Rin (j), Gin (j), Bin (j)) are converted by the following equations, and the tone correction color signals (R1 (j), G1 (j), B1 (j)) Get.
(R1 (j), G1 (j), B1 (j)) = C0 (j). (Rin (j), Gin (j), Bin (j)) Equation (8)
When the input image signal is gray, the gray level Yin (j) is used as an input value, and the output after gradation correction processing is output gray level Y1 (j) = f0 (Yin (j))
Just get it.
[0031]
In normal image processing, clipping is performed when the reproduction range of the output device (display in this embodiment) exceeds 0 to 255. That is, a value less than 0 is replaced with 0, and a value greater than 255 is forcibly replaced with 255.
The above tone correction processing is performed by the tone correction processing means 211 to obtain corrected
[0032]
A case where the gradation correction curve is represented by an exponential function f0 (x) as shown in FIG. 7 will be described. First, a statistical value such as a median value is calculated from the luminance distribution of the extracted main subject region, and the characteristic brightness of the main subject is obtained.
[0033]
Next, it is determined whether or not the brightness of the subject is appropriate based on the median value A. If it is not appropriate, a correction amount δ is obtained. Here, since it is assumed that the exposure is insufficient due to the backlight state, 1>δ> 0.
Next, a gradation correction curve f0 (x) is obtained.
y = f0 (x) = {x ^ δ} · 255 Formula (9)
Next, for example, the slope of the tangent line of f0 (x) at x = C or the first-order differential coefficient d (f0 (x)) / dx] (x = C) = lim (δ → 0) {(f0 (C + δ ) −f0 (C)) / δ}
= Δ · C ^ (δ-1) · 255 Formula (10)
Is calculated, and it is checked whether or not the value exceeds the threshold Th. If the value exceeds the threshold Th, the right side of Expression (10) is set as Th to obtain the final correction amount Δ. That is, the following equation Δ · C ^ (Δ-1) · 255 = Th equation (11)
Δ that satisfies the above is set as a new correction amount.
[0034]
The above embodiment is an example for preventing overcorrection of highlights when correcting a backlit image, but the control method is the same for shadows. That is, an upper limit is set for α1 if noise generation caused by the gradation correction processing is suppressed, and a lower limit is set for α1 if collapse is suppressed.
[0035]
In the present embodiment, the threshold Th is changed according to the scene of the image. Here, the scene refers to a state when an image is taken with a camera, and includes, for example, a backlighting state, a night flash photography, an underexposure state, and the like. In the case where the input image is an image photographed in a backlight state, the subject is located on the low luminance side and the background may be overexposed. In the case of night flash photography, the subject is positioned on the highlight side, and tone reproducibility is regarded as important. Accordingly, when the control conditions for the backlight image and the nighttime flash photographed image are Thb and Thf, respectively, they are determined such that Thb <Thf.
[0036]
In this embodiment, the threshold Th is changed according to the color reproducibility of the output device. For example, when the output image device is a monitor, the tone reproducibility is good, and when the output image device is a printer, the highlight or shadow tone reproducibility is particularly bad. Therefore, if the control conditions of the monitor and the printer are Thm and Thp, respectively, it is determined that Thm <Thp.
[0037]
In the above-described embodiment, the luminance is used for the description. However, the L value of the L * a * b color system or the G value of RGB may be used instead of the luminance. Also, various methods have been proposed as a subject extraction method, and any of them may be used. Further, although the median value is used as the statistic for calculating δ, an average value or the like may be used, and the control condition may be appropriately determined according to the output condition.
[0038]
(Example 2)
The second embodiment is an embodiment in which the present invention is applied to an image output system. FIG. 9 shows a configuration according to Embodiment 2 of the present invention. In FIG. 9,
[0039]
The image output control device (1) 305 analyzes the image data transmitted from the
[0040]
The image output control device (1) 305 performs a tone correction process on the input image data, and a color conversion unit (1) 301 for converting the input image data into a control signal for the image forming apparatus. The image processing means (storage buffer) (1) 303 for temporarily storing the print image for one page drawn by the drawing means (1) 302 is provided. .
[0041]
The above-mentioned image output control device comprises color conversion means for obtaining a printer output faithful to the display image in accordance with the characteristics of the image display apparatus and the printer, and resolution conversion means for converting the resolution corresponding to each model. May be an element.
[0042]
The image data input to the image output control device is specifically RGB (green, blue, red) gradation data, and the number of gradations of each color component is 8 bits = 256 gradations. Generally, other gradation numbers such as 64 or 512 may be used.
[0043]
The operation of the image output control device (1) 305 will be described below. The image data is sent to the color conversion means (1) 301. The color conversion means (1) 301 uses the image forming apparatus (printer) (1) 304. A gradation correction process is performed in accordance with the color reproduction range of the color reproduction range. Next, color conversion is performed based on the characteristics of the image display apparatus used by the operator and the characteristics of the image forming apparatus (printer), and a plurality of output color components C (control signals of the image forming apparatus (printer) are provided. Cyan), M (Magenta), Y (Yellow), and K (breakK) data are converted and sent to the drawing means and the image storage means (storage buffer).
[0044]
Conversion from RGB (green, blue, red) gradation data to output color components C (Cyan), M (Magenta), Y (Yellow), K (blackK) data is performed by memory map interpolation, and the color is changed to CMY. Convert. As shown in FIG. 10, when the RGB space is an input color space, the memory map interpolation divides the RGB space into three-dimensional figures of the same kind (here, cubes), and outputs an output value P at input coordinates (RGB). Is obtained by selecting a cube including the coordinates of the input, and output values on eight preset vertices of the selected cube and positions of the input in the cube (distance from each vertex). Based on the above, linear interpolation is performed. Here, in the case of the present embodiment, the output value P corresponds to the C, M, and Y values, respectively, and the actual input / output (L * a) is input to the coordinates (RGB) on the input space used for the interpolation calculation. * B * -CMY) is measured, and C, M, and Y values for RGB (L * a * b *) calculated by the least square method or the like using this data are preset. Further, the CMY signal is converted into a CMYK signal, for example, by an operation such as the following equation.
K = α × min (C, M, Y)
C ′ = C−β × K
M ′ = M−β × K
Y ′ = Y−β × K
The color conversion method is not limited to the above-described method, and the characteristics of the image display device may be recorded in the header information of the image data and transmitted, for example, or the above-described image output control device may be connected to the computer. When mounted inside, for example, a device profile standardized by ICC (Inter Color Consortium) may be read and used.
[0045]
The image correction processing unit 417 in the
[0046]
Using the tone correction curve calculated in the same manner as in the first embodiment, the grid point data of the color conversion table stored in the color conversion
[0047]
Next, for the input image data, the color conversion table rewritten from the color conversion table storage unit is selected and sent to the
[0048]
The image output control device may be mounted in a color printer for color conversion, or may be mounted in a computer. When implemented in a computer, the color conversion table described above includes information on all printers that can be output from the computer. Alternatively, the image data may be sent to the printer after being mounted in a printer control device provided independently of the color printer and color-converted.
[0049]
Furthermore, the present embodiment can be executed by software, and in that case, can be executed by a printer driver that exists as a program in the computer.
[0050]
FIG. 12 shows a system configuration example when the present invention is implemented by software. In this image output system, a workstation and a printer are connected. The workstation realizes the above-described gradation correction processing function, and is composed of a display, a keyboard, a program reading device, an arithmetic processing device, and the like. In the arithmetic processing unit, a ROM and a RAM are connected to a CPU capable of executing various commands via a bus. Also, DISK, which is a large-capacity storage device, and a NIC that communicates with devices on the network are connected to the bus.
[0051]
The program reading device is a storage medium storing various program codes, that is, a floppy disk, a hard disk, an optical disk (CD-ROM, CD-R, CD-R / W, DVD-ROM, DVD-RAM, etc.), magneto-optical An apparatus for reading a program code stored in a disk, a memory card or the like, such as a floppy disk drive, an optical disk drive, or a magneto-optical disk drive.
[0052]
The program code stored in the storage medium is read by a program reader and stored in a DISK or the like, and the program code stored in the DISK or the like is executed by the CPU, thereby realizing the above-described image processing method or the like. In addition, by executing the program code read by the computer, an OS (operating system) or a device driver running on the computer performs part or all of the actual processing based on the instruction of the program code. The case where the above-described function is achieved by the processing is also included.
[0053]
【The invention's effect】
As described above, according to the present invention, the following effects can be obtained.
(1) By controlling the correction amount for gradation correction using the information on the brightness region to which the subject does not belong, it is possible to perform correction without causing gradation collapse.
(2) By setting a lightness region brighter than the lightness region to which the subject region belongs as a control region, it is possible to prevent highlight gradation collapse and shadow gradation collapse caused by overcorrection.
(3) In the gradation correction process using the gradation correction curve, by setting a lower limit to the slope of the tangent of the gradation correction curve, it is possible to prevent highlight or shadow gradation collapse caused by overcorrection. is there.
(4) By providing appropriate control conditions for the scene, it is possible to perform gradation correction according to the scene.
(5) By providing appropriate control conditions for the image output device, it is possible to perform gradation correction according to the image output device.
(6) By providing appropriate control conditions for the characteristics of the correction target image, it is possible to perform gradation correction according to the image output device.
(7) By obtaining the correction amount from the component representing the brightness belonging to the subject area, it is possible to obtain a gradation correction amount suitable for the subject.
[Brief description of the drawings]
FIG. 1 shows an overall configuration of Embodiment 1 of the present invention.
FIG. 2 shows a configuration of a gradation correction processing unit according to the present invention.
FIG. 3 shows a subject area of a backlight image extracted by a subject area extraction unit.
FIG. 4 shows a histogram of a luminance region and a control region to which a subject region belongs.
FIG. 5 shows the correction amount δ as a function of the median luminance value.
FIG. 6 shows a first example of a calculated gradation correction curve.
FIG. 7 shows a tone correction curve expressed by an exponential function.
FIG. 8 shows first and second examples of calculated gradation correction curves.
FIG. 9 shows a configuration according to Embodiment 2 of the present invention.
FIG. 10 is a diagram for explaining memory map interpolation;
FIG. 11 shows a configuration of image correction processing means in the color conversion means.
FIG. 12 shows an example of a system configuration when the present invention is implemented by software.
[Explanation of symbols]
DESCRIPTION OF
Claims (3)
体。A computer-readable recording medium storing a program for causing a computer to implement the image processing method according to claim 2.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001259224A JP4367821B2 (en) | 2001-08-29 | 2001-08-29 | Image processing apparatus, image processing method, and recording medium |
US10/163,305 US7251056B2 (en) | 2001-06-11 | 2002-06-07 | Image processing apparatus, image processing method and information recording medium |
US11/812,631 US7525688B2 (en) | 2001-06-11 | 2007-06-20 | Image processing apparatus, image processing method and information recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001259224A JP4367821B2 (en) | 2001-08-29 | 2001-08-29 | Image processing apparatus, image processing method, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003069822A JP2003069822A (en) | 2003-03-07 |
JP4367821B2 true JP4367821B2 (en) | 2009-11-18 |
Family
ID=19086628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001259224A Expired - Fee Related JP4367821B2 (en) | 2001-06-11 | 2001-08-29 | Image processing apparatus, image processing method, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4367821B2 (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006319714A (en) * | 2005-05-13 | 2006-11-24 | Konica Minolta Photo Imaging Inc | Method, apparatus, and program for processing image |
JP2007074415A (en) * | 2005-09-07 | 2007-03-22 | Nippon Hoso Kyokai <Nhk> | Motion vector estimation device and motion vector estimation program |
JP2007081550A (en) * | 2005-09-12 | 2007-03-29 | Konica Minolta Photo Imaging Inc | Imaging apparatus, and image processing unit, method, and program |
JP2008059287A (en) | 2006-08-31 | 2008-03-13 | Brother Ind Ltd | Image processor and image processing program |
US8081839B2 (en) | 2006-08-31 | 2011-12-20 | Brother Kogyo Kabushiki Kaisha | Image processor |
US8437031B2 (en) | 2006-08-31 | 2013-05-07 | Brother Kogyo Kabushiki Kaisha | Image processing device and method for reducing an original image |
JP4735499B2 (en) * | 2006-09-28 | 2011-07-27 | ブラザー工業株式会社 | Image processing program and image processing apparatus |
JP4281786B2 (en) * | 2006-11-20 | 2009-06-17 | ブラザー工業株式会社 | Image processing program and image processing apparatus |
US7876474B2 (en) | 2006-10-31 | 2011-01-25 | Brother Kogyo Kabushiki Kaisha | Image processing device capable of suppressing over-correction in Retinex process |
US8165418B2 (en) | 2007-03-30 | 2012-04-24 | Brother Kogyo Kabushiki Kaisha | Image processor |
JP2009290822A (en) | 2008-06-02 | 2009-12-10 | Ricoh Co Ltd | Image processing apparatus, image processing method, program and recording medium |
JP5004305B2 (en) * | 2008-09-04 | 2012-08-22 | 株式会社リコー | Image processing apparatus, image processing method, program, and recording medium |
JP2021144574A (en) | 2020-03-13 | 2021-09-24 | 富士フイルムビジネスイノベーション株式会社 | Image processing device and program |
JP7560386B2 (en) | 2021-03-08 | 2024-10-02 | シャープ株式会社 | Display device, correction method, and control program |
-
2001
- 2001-08-29 JP JP2001259224A patent/JP4367821B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003069822A (en) | 2003-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3992177B2 (en) | Image processing apparatus, image processing method, and computer program | |
US7251056B2 (en) | Image processing apparatus, image processing method and information recording medium | |
US10412296B2 (en) | Camera using preview image to select exposure | |
US7076119B2 (en) | Method, apparatus, and program for image processing | |
JP4006347B2 (en) | Image processing apparatus, image processing system, image processing method, storage medium, and program | |
US7945109B2 (en) | Image processing based on object information | |
JP3556859B2 (en) | Image correction method, image correction device, and recording medium | |
JP4367821B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JPH09233423A (en) | Image data converting method for digital printer | |
JP4154128B2 (en) | Image processing apparatus, image processing method, and recording medium on which program for executing the method is recorded | |
JP2004088345A (en) | Image forming method, image processor, print preparation device, and storage medium | |
JP4107812B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP3964796B2 (en) | Red-eye detection and correction method | |
JP4219577B2 (en) | Image processing apparatus, image output apparatus, image processing method, and storage medium | |
JP2009070099A (en) | Image-processing device, image-processing method, program and recording medium | |
JP2004112494A (en) | Image processor, image processing method and recording medium | |
JP3817371B2 (en) | Image processing method, apparatus, and recording medium | |
JP2002094810A (en) | Picture processor, picture processing method and memory medium having stored programs for the method | |
JP4293469B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP4398595B2 (en) | Image processing apparatus and program | |
JP2004096444A (en) | Image processor and method thereof | |
JP2002281337A (en) | Image processor, program for executing image processing function, and recording medium recoded with the program | |
JP2001313950A (en) | Method for making camera type color characteristic profile | |
JPH11220619A (en) | Image processing method and device therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090819 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090821 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120904 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130904 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |