[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4019204B2 - Image processing apparatus, image processing method, and medium on which image processing control program is recorded - Google Patents

Image processing apparatus, image processing method, and medium on which image processing control program is recorded Download PDF

Info

Publication number
JP4019204B2
JP4019204B2 JP16015997A JP16015997A JP4019204B2 JP 4019204 B2 JP4019204 B2 JP 4019204B2 JP 16015997 A JP16015997 A JP 16015997A JP 16015997 A JP16015997 A JP 16015997A JP 4019204 B2 JP4019204 B2 JP 4019204B2
Authority
JP
Japan
Prior art keywords
image
image processing
processing
entire
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP16015997A
Other languages
Japanese (ja)
Other versions
JPH118768A (en
Inventor
直樹 鍬田
至宏 中見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP16015997A priority Critical patent/JP4019204B2/en
Priority to EP10158002A priority patent/EP2199973A3/en
Priority to US09/093,094 priority patent/US6738527B2/en
Priority to EP98304509A priority patent/EP0891075A3/en
Publication of JPH118768A publication Critical patent/JPH118768A/en
Priority to US10/742,718 priority patent/US7259894B2/en
Priority to US11/491,305 priority patent/US7755801B2/en
Priority to US11/491,278 priority patent/US7940426B2/en
Priority to US11/739,858 priority patent/US7508548B2/en
Application granted granted Critical
Publication of JP4019204B2 publication Critical patent/JP4019204B2/en
Priority to US13/081,027 priority patent/US8553285B2/en
Priority to US13/455,575 priority patent/US8867099B2/en
Priority to US13/719,602 priority patent/US8681380B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、デジタル写真画像のような実写画像データに対して最適な画像処理を自動的に実行する画像処理装置、画像処理方法、画像処理制御プログラムを記録した媒体に関する。
【0002】
【従来の技術】
ディジタル画像データに対して各種の画像処理が行われている。例えば、コントラストを拡大するものであるとか、色調を補正するものであるとか、明るさを補正するといった画像処理である。これらの画像処理は、通常、マイクロコンピュータで実行可能となっており、操作者がモニタ上で画像を確認して必要な画像処理を選択したり、画像処理のパラメータなどを決定している。
【0003】
【発明が解決しようとする課題】
近年、画像処理の技法については各種のものが提案され、実際に効果を発揮している。しかしながら、どの程度の処理を行うかとなると、依然、人間が関与しなければならない。これは、画像処理の対象となるディジタル画像データにおいて、どこが重要であるのかを判断することができなかったためである。
【0004】
例えば、明るさを補正する画像処理を考えた場合、画面全体の平均が暗ければ明るく補正し、逆に平均が明るければ暗く補正するという自動処理を考えたとする。ここで、夜間撮影した人物像の実写画像データがあるとする。背景は殆ど真っ暗に近いものの、人物自体は良好に撮影できていたとする。この実写画像データを自動補正すると、背景が真っ暗であるがために画像全体の平均は暗くなり、明るく補正してしまうので昼間の画像のようになってしまう。
【0005】
この場合、人間が関与していれば背景が暗いことについては余り重きを置かずに考慮し、人物像の部分だけに注目する。そして、人物像が暗ければ明るく補正するし、逆に、フラッシュなどの効果で明る過ぎれば暗くする補正を選択する。
【0006】
このように、従来の画像処理では実写画像データの中の部分ごとに応じた重要度を判断することができないため、人間が関与しなければならないという課題があった。
【0007】
一方、何らかの手法で画像の重要度を判断できるとしても、画素単位で判定していく作業であるから、リアルタイムに重要度を変えて作業を進めていくのは演算量の増大を招いてしまう。
【0008】
本発明は、上記課題にかんがみてなされたもので、デジタル写真画像のような実写画像データにおいて比較的簡易に重要度を考慮し、自動的に最適な画像処理を実行することが可能な画像処理装置、画像処理方法、画像処理制御プログラムを記録した媒体の提供を目的とする。
【0009】
【課題を解決するための手段およびその作用・効果】
上記目的を達成するため、本発明の画像処理装置は、
複数の画素からなる実写画像に対して所定の画像処理を行なう画像処理装置であって、
上記実写画像を構成する画素の画像データを該実写画像全体から、所定の基準で均等に間引きしつつ、均等に入力する入力手段と、
上記実写画像の全体から間引きしつつ入力された画像データに基づいて画素毎の輝度の分布を示すヒストグラムを上記実写画像全体を代表する特徴量として抽出する特徴量抽出手段と、
上記実写画像全体を代表する上記特徴量に対して、上記画像処理の対象となる画像を所定の基準で複数に分割する各領域毎に予め設定された重み付け係数を用いた評価である再評価を行ない、上記実写画像全体に対する再評価された特徴量を求める特徴量再評価手段と、
該再評価された特徴量に基づいて、画像の明るさおよびコントラストの少なくとも一つを補正する処理を内容とする画像処理を決定する処理内容決定手段と、
該決定された内容での画像処理を、上記実写画像の画像データ全体に対して実施する処理手段と
を備え、
上記特徴量再評価手段は、上記特徴量の再評価において他の領域より大きな重みで評価すべき領域については、他の領域に設定された重み付け係数より大きな重み付けがなされた重み付け係数を設定して、上記再評価を行なうこと
を要旨としている。
【0010】
上記の発明では、入力手段が、実写画像を構成する画素の画像データを該実写画像全体から均等に入力し、特徴量抽出手段が、該入力された画像データに基づいて、画像処理強度等の画像処理の内容を判定するにあたって必要な各画素毎の輝度の分布を示すヒストグラムを特徴量として抽出する。そして、特徴量再評価手段は、この特徴量抽出手段で抽出した特徴量を所定の重み付けを用いた評価である再評価を行なって、このような再評価によって得られた特徴量に基づいて、上記処理内容決定手段が、画像の明るさおよびコントラストの少なくとも一つを補正する処理を内容とする画像処理の強度等を決定し、上記処理手段が、該決定された内容での画像処理を、上記実写画像の画像データ全体に対して実施する。
【0011】
すなわち、抽出段階では実写画像全体にわたって均等に行ない、抽出後に所定の重み付けを行なうので、結果として得られる特徴量は画像全体にわたって均等に得られたものとは異なるものとなる。
【0012】
なお、画素の特徴量抽出は、実写画像を構成する全画素について抽出するものであってもよいし、また、全画素ではなくても均等に抽出すればよい。後者の一例として、上記入力手段を、上記実写画像を構成する全画素に対して所定の基準で均等に間引きして選択した画素の画像データを入力する手段とし、上記特徴量抽出手段は、上記間引きして入力された画像データに基づいて上記特徴量抽出を行なう手段とする構成を考えることができる。
【0013】
上記の構成においては、全画素に対して所定の基準で均等に間引きすることにより、処理される画素数が減り、この減った画素に対して上記特徴量を抽出する。
【0014】
この場合、均等な間引きには、一定周期で間引いて選択するものも含まれるし、ランダムに選択して間引きするものも含まれる。
【0015】
このように、特徴量再評価手段は、抽出された特徴量に対して、前記画像の位置に応じて予め用意された複数の重み付け係数を用いた評価である再評価を行なうが、抽出される特徴量が画素単位であるのに対応して画素単位の重み付けを行なっても良いし、適当なひとまとまりごとに重み付けを行なっても良い。後者の一例として、上記画像処理の対象となる画像を所定の基準で分割する複数の領域毎に、画像における該領域の位置に応じて設定された重み付けを予め記憶する重み付け記憶手段を備えると共に、上記入力手段を、上記複数の領域の各々から上記画像データの入力を行なう手段とし、上記特徴量抽出手段を、該複数の領域の各々から入力された上記画像データに基づいて、上記特徴量の抽出を領域毎に行なう手段とし、上記特徴量再評価手段を、該抽出された特徴量の再評価を、上記領域毎に記憶された重み付けを用いて行なう手段とする構成を考えることができる。
【0016】
上記の発では、画像を所定の基準で分割した領域単位の重み付けを前提としており、特徴量抽出手段はこのような領域単位で特徴量の抽出を行なうし、特徴量再評価手段は同領域毎に記憶されている重み付けを用いて各領域ごとの特徴量を再評価する。
【0017】
このような領域の分割は、常に一定であっても良いし、画像毎に変化させても良い。この場合、画像の内容に応じて分割方法を変えるようにしても良い。
【0018】
この重み付け手法は各種のものを採用可能であり、単なる均等なサンプリングにとどまらないような再評価が行われるものであればよい。
【0019】
その一例として、上記重み付け記憶手段を、画像に対する各画素の位置に応じて設定された重み付けを、上記複数の領域毎に予め記憶する手段としてもよい。具体的には、画像に対する各画素の位置によって定まる対応関係で上記重み付けを変化させる構成を考えることができる。
【0020】
写真の構図を考えた場合、人物像は中央に位置させることが多い。従って、画像全体から特徴量を均等に抽出した後、中央部分の特徴量の重みを重くして重み付けすると、結果的に人物像の画素から抽出された特徴量は大きく評価される。
【0021】
上記の構成においては、例えば画像の中央部分の重み付けを重くするとともに、周囲の重み付けを軽くするように決めておいた場合、特徴量再評価手段は画像に対する各画素の位置を判断し、この位置によって変化する重み付けを利用して再評価する。
【0022】
また、重み付け手法の他の一例として、画像の変化度合いを求めるとともに、画像の変化度合いが大きい部分で上記重み付けを重くする手法がある。具体的には、上記入力された画像データに基づいて上記実写画像における画像の変化度合いの大きな領域を特定する領域特定手段と、該領域特定手段により特定された領域に、該領域以外の他の領域よりも重い重み付けを付与する重み付け付与手段とを備えると共に、上記特徴量再評価手段を、少なくとも上記重み付け付与手段により付与された重み付けを用いて上記特徴量の再評価を行なう手段とする構成を考えることができる。この場合において、上記入力された画像データに基づいて、上記実写画像を構成する画素のうち、隣接画素との画像データの変化度合いが所定値以上である画素の数を求める画素数演算手段を備え、該画素数演算手段により求められた画素数を考慮して、上記領域特定手段が、上記実写画像における画像の変化度合いの大きな領域を特定することとしてもよい。
【0023】
上記の構成においては、特徴量再評価手段が再評価を行う前に画像の変化度合い求められる。画像の変化度合いは画像のシャープさともいえ、ピントがあっている画像ほど輪郭部分がはっきりしているので変化度合いは大きい。逆にピントが合っていないと画像の輪郭部分では徐々に画像が変化することになり、変化度合いは小さくなる。写真などであればピントが合っている部分が本来的な被写体であってピントがあっていない部分は背景などと同等と考えられる。このため、画像の変化度合いが大きな所は本来的な被写体と考えられ、特徴量再評価手段はこのような画像の変化度合いの大きい部分で重み付けを重くして評価することにより、多くの特徴量を抽出したのと同等の結果を得る。
【0024】
また、さらなる他の一例として、実写画像における各画素のうち、所定の色の範囲に入る画素数を求める演算手段と、上記実写画像において、上記演算手段により求められた画素数が多い領域を特定する特定手段と、該特定手段により特定された領域に、該領域以外の他の領域よりも重い重み付けを付与する付与手段とを備え、特徴量再評価手段が、少なくとも上記付与手段によって付与された重み付けを用いて上記特徴量の再評価を行なうこととしてもよい。具体的には、各画素の色度を求めるとともに、同色度が特徴量を抽出しようとするターゲットの色度の範囲に入る画素数を求め、この画素数が多い部分で上記重み付けを重くする構成を考えることができる
【0025】
像処理では特定の色によって物体を特定できることがある。例えば、人物であれば肌色の部分を探すことによってターゲットと判断して差し支えない。なお、通常の色画像データには明るさの要素も含まれているので肌色を特定すること難しい場合もある。これに対し、上記の構成では、各画素の色度色の刺激値の絶対的な割合を表しており、明るさには左右されないもの)が求められる。従って、肌色の取りうる色度の範囲に入っていれば人物像の画素と判断できる。むろん、肌色以外にも、木々の緑色の取りうる範囲であるとか青空の青色が取りうる範囲といったものでも同様のことが言える。
【0026】
このような背景のもとで、特徴量再評価手段は各画素について求めた色度が所定の色の範囲に入る場合に画素数をカウントし、この画素数が多い領域はターゲットであると判断して重み付けを重くし、ターゲットから多くの特徴量を抽出したのと同様の結果を得る。
【0027】
以上のような重み付けの手法は必ずしも択一的なものではないが、重複適用する場合の好適な一例として、複数の要素に関して、それぞれの重み付け係数を設定する手段と、上記複数の要素についてのそれぞれの重み付け係数を、重要度に応じた重み付けで加算して最終的な重み付け係数を決定する手段とを備えるものとし、この最終的な重み付け係数を用いて、特徴量再評価手段が特徴量の再評価を行なうこととしてもよい。具体的には、複数の要素に基づいて個別に仮の重み付け係数を求めるとともに、さらに、これらを重要度に応じた重み付けで加算して最終的な重み付け係数として適用する構成を考えることができる
【0028】
上記の構成においては、複数の要素に基づいて個別に仮の重み付け係数求められる。そして、さらに、これらを重要度に応じた重み付けで加算し、最終的な重み付け係数として抽出した特徴量を再評価する。従って、一つの重み付け手法によって評価された段階では大きな重み付けを与えられたとしても、その重み付け手法の重要度が低ければ結果としては大きな重み付けは与えられないということもある。また、重み付け手法毎に大きな差のあるものに対して全般的に平均以上に重み付けを評価されたものが最終的な重み付けも多いといったようなことが起こる。
【0029】
上記のような、抽出段階では実写画像全体にわたって均等に行ない、抽出後に所定の重み付けを行なう手法は、必ずしも実体のある装置に限られる必要もなく、その一例として、本発明の画像処理方法は、複数の画素からなる実写画像に対して所定の画像処理を行なう方法であって、
上記実写画像を構成する画素の画像データを、上記実写画像を構成する全画素に対して所定の基準で均等に間引きして選択的に入力し、
上記実写画像の全体から間引きしつつ入力された画像データに基づいて画素毎の輝度の分布を示すヒストグラムを上記実写画像全体を代表する特徴量として抽出し、
上記画像処理の対象となる画像を所定の基準で複数に分割する各領域毎に、画像における該領域の位置に応じて設定された重み付け係数を予め記憶し、
上記実写画像全体を代表する上記特徴量に対して、上記複数の重み付け係数を用いた評価である再評価を行ない、上記実写画像全体に対する再評価された特徴量を求め、
該再評価された特徴量に基づいて、画像の明るさおよびコントラストの少なくとも一つを補正する処理を内容とする画像処理を決定し、
該決定された内容での画像処理を、上記実写画像の画像データ全体に対して実施し、
上記特徴量の再評価において他の領域より大きな重みで評価すべき領域については、他の領域に設定された重み付け係数より大きな重み付けがなされた重み付け係数を記憶しており、該記憶している重み付け係数を用いて上記再評価を行なうこと
を要旨としている。
【0030】
すなわち、必ずしも実体のある装置に限らず、その方法としても有効であることに相違はない。
【0031】
ところで、上述したように重み付けで特徴量を再評価して画像処理する画像処理装置は単独で存在する場合もあるし、ある機器に組み込まれた状態で利用されることもあるなど、発明の思想としては各種の態様を含むものである。また、ハードウェアで実現されたり、ソフトウェアで実現されるなど、適宜、変更可能である。
【0032】
発明の思想の具現化例として画像処理装置を制御するソフトウェアとなる場合には、かかるソフトウェアを記録した記録媒体上においても当然に存在し、利用されるといわざるをえない。
【0033】
その一例として、本発明の記録媒体は、複数の画素からなる実写画像に対して行なわれる所定の画像処理に対応したプログラムをコンピュータにより読み取り可能に記録した記録媒体であって、
上記実写画像を構成する画素の画像データを、上記実写画像を構成する全画素に対して所定の基準で均等に間引きして選択的に入力する機能と、
上記実写画像の全体から間引きしつつ入力された画像データに基づいて画素毎の輝度の分布を示すヒストグラムを上記実写画像全体を代表する特徴量として抽出する機能と、
上記実写画像全体を代表する上記特徴量に対して、上記画像処理の対象となる画像を所定の基準で複数に分割する各領域毎に予め用意された重み付け係数を用いた評価である再評価を行ない、上記実写画像全体に対する再評価され特徴量を求める機能と、
該再評価された特徴量に基づいて、画像の明るさおよびコントラストの少なくとも一つを補正する処理を内容とする画像処理を決定する機能と、
該決定された内容での画像処理を、上記実写画像の画像データ全体に対して実施する機能と
をコンピュータにより実現するプログラムを記録し、
上記再評価された特徴量を求める機能は、上記特徴量の再評価において他の領域より大きな重みで評価すべき領域については、他の領域に設定された重み付け係数より大きな重み付けがなされた重み付け係数を設定して、上記再評価を行なう機能であること
を要旨としている。
【0034】
むろん、その記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。また、一次複製品、二次複製品などの複製段階については全く問う余地無く同等である。その他、供給方法として通信回線を利用して行う場合でも本発明が利用されていることには変わりないし、半導体チップに書き込まれたようなものであっても同様である。
【0035】
さらに、一部がソフトウェアであって、一部がハードウェアで実現されている場合においても発明の思想において全く異なるものはなく、一部を記録媒体上に記憶しておいて必要に応じて適宜読み込まれるような形態のものとしてあってもよい。
【0036】
以上説明したように本発明の画像処理装置は、画素の特徴量の抽出を実写画像全体にわたって均等に行ない、抽出後に所定の重み付けを行なうので、演算処理量を多くせず、かつ、単に均等に抽出してしまった場合のような的外れな評価を行うことが無くなり、自動的に最適な評価で画像処理を行うことが可能となる
【0037】
また、実写画像を構成する画素を間引きして画像データを入力する構成とすれば、画像処理の際の処理量を減らすことができる。
【0038】
域毎に重み付けを変化させる構成とすれば、画像処理の際の演算が比較的容易となる。
【0039】
さらに、重み付け画素の位置によって決める構成を採れば、画像処理の際の演算が比較的容易となる。
【0040】
また、上記実写画像における画像の変化度合いの大きな領域に、該領域以外の他の領域よりも重い重み付けを付与し、この重み付けを用いて特徴量を再評価すれば、個々の画像によって異なるターゲットを正確に判別して特徴量を得ることができる。例えば、再評価において用いられる重み付けを画像のシャープさによって変える構成としてもよい。
【0041】
さらに、所定の色の範囲に入る画素数が多い部分について、重み付けを重くして再評価する構成とすれば、色によって特定の対象を選別できるので、個々の画像によって異なるターゲットを正確に判別して特徴量を得ることができる。
【0042】
さらに、特徴量の再評価の際に、複数の要素についてのそれぞれの重み付け係数を、重要度に応じた重み付けで加算することによって決定された最終的な重み付け係数を用いる構成とすれば、複数の重み付け手法を適宜組み合わせてより好適な特徴量の評価を行うことができる。
【0043】
さらに、本発明の画像処理方法によれば、画像処理の際の演算量が少なく、かつ、最適な評価で画像処理を行うことが可能な画像処理方法を提供でき、本発明の記録媒体によれば、同様の効果を得られる画像処理制御プログラムを記録した媒体を提供できる。
【0044】
【発明の実施の形態】
以下、図面にもとづいて本発明の実施形態を説明する。
【0045】
図1は、本発明の一実施形態にかかる画像処理装置を適用した画像処理システムをブロック図により示しており、図2は具体的ハードウェア構成例を概略ブロック図により示している。
【0046】
図1において、画像入力装置10は写真などをドットマトリクス状の画素として表した実写画像データを画像処理装置20へ出力し、同画像処理装置20は所定の処理を経て画像処理の強調程度を決定してから画像処理を実行する。同画像処理装置20は画像処理した画像データを画像出力装置30へ出力し、画像出力装置30は画像処理された画像をドットマトリクス状の画素で出力する。ここにおいて、画像処理装置20が出力する画像データは、実写画像全体から均等に入力された画像データに基づいて画素の特徴量を抽出した後、この特徴量を所定の重み付けで評価(以下、再評価という)し、再評価された特徴量に応じて決定された強調程度で画像処理されたものである。従って、画像処理装置20は、上記実写画像を構成する画素の画像データを該実写画像全体から均等に入力する入力手段と、該入力された画像データに基づいて画素の特徴量を抽出する特徴量抽出手段と、抽出された特徴量を所定の重み付けで再評価する特徴量再評価手段と、再評価された特徴量に基づいて強調程度等の画像処理の内容を決定する処理内容決定手段と、該決定された内容での画像処理を画像データ全体に対して実施する処理手段とを備えている。
【0047】
画像入力装置10の具体例は図2におけるスキャナ11やデジタルスチルカメラ12あるいはビデオカメラ14などが該当し、画像処理装置20の具体例はコンピュータ21とハードディスク22とキーボード23とCD−ROMドライブ24とフロッピーディスクドライブ25とモデム26などからなるコンピュータシステムが該当し、画像出力装置30の具体例はプリンタ31やディスプレイ32等が該当する。本実施形態の場合、画像処理としてオブジェクトを見つけて適切な画像処理を行なうものであるため、画像データとしては写真などの実写データが好適である。なお、モデム26については公衆通信回線に接続され、外部のネットワークに同公衆通信回線を介して接続し、ソフトウェアやデータをダウンロードして導入可能となっている。
【0048】
本実施形態においては、画像入力装置10としてのスキャナ11やデジタルスチルカメラ12が画像データとしてRGB(緑、青、赤)の階調データを出力するとともに、画像出力装置30としてのプリンタ31は階調データとしてCMY(シアン、マゼンダ、イエロー)あるいはこれに黒を加えたCMYKの二値データを入力として必要とするし、ディスプレイ32はRGBの階調データを入力として必要とする。一方、コンピュータ21内ではオペレーティングシステム21aが稼働しており、プリンタ31やディスプレイ32に対応したプリンタドライバ21bやディスプレイドライバ21cが組み込まれている。また、画像処理アプリケーション21dはオペレーティングシステム21aにて処理の実行を制御され、必要に応じてプリンタドライバ21bやディスプレイドライバ21cと連携して所定の画像処理を実行する。従って、画像処理装置20としてのこのコンピュータ21の具体的役割は、RGBの階調データを入力して最適な画像処理を施したRGBの階調データを作成し、ディスプレイドライバ21cを介してディスプレイ32に表示させるとともに、プリンタドライバ21bを介してCMY(あるいはCMYK)の二値データに変換してプリンタ31に印刷させることになる。
【0049】
このように、本実施形態においては、画像の入出力装置の間にコンピュータシステムを組み込んで画像処理を行うようにしているが、必ずしもかかるコンピュータシステムを必要とするわけではなく、画像データに対して各種の画像処理を行うシステムであればよい。例えば、図3に示すようにデジタルスチルカメラ12a内にオブジェクトを判断して画像処理する画像処理装置を組み込み、変換した画像データを用いてディスプレイ32aに表示させたりプリンタ31aに印字させるようなシステムであっても良い。また、図4に示すように、コンピュータシステムを介することなく画像データを入力して印刷するプリンタ31bにおいては、スキャナ11bやデジタルスチルカメラ12bあるいはモデム26b等を介して入力される画像データから自動的にオブジェクトを判断して画像処理するように構成することも可能である。
【0050】
上述したオブジェクトの判断とそれに伴う画像処理は、具体的には上記コンピュータ21内にて図5などに示すフローチャートに対応した画像処理プログラムで行っている。同図に示すフローチャートにおいては、画像のコントラストを調整する画像処理を行うものであり、ステップS110にて画像全体から均等に画素を間引きしながら特徴量である輝度を抽出した後、ステップS120にて所定の重み付けを行って同特徴量を再評価し、ステップS130〜S160にて輝度を調整する画像処理を行っている。
【0051】
ステップS110は図6に示すように縦横方向のドットマトリクス状の画像データを対象として各画素の輝度を求めてヒストグラムを生成していく。この場合、全画素について行えば正確ともいえるが、後述するように集計結果は重み付けをして再評価されるため、必ずしも正確である必要はない。従って、ある誤差の範囲内となる程度に輝度を抽出する画素を間引き、処理量を低減して高速化することが可能である。統計的誤差によれば、サンプル数Nに対する誤差は概ね1/(N**(1/2))と表せる。ただし、**は累乗を表している。従って、1%程度の誤差で処理を行うためにはN=10000となる。
【0052】
ここにおいて、図6に示すビットマップ画面は(width)×(height)の画素数となり、サンプリング周期ratioは、
ratio=min(width,height)/A+1…(1)
とする。ここにおいて、min(width,height)はwidthとheightのいずれか小さい方であり、Aは定数とする。また、ここでいうサンプリング周期ratioは何画素ごとにサンプリングするかを表しており、図7の○印の画素はサンプリング周期ratio=2の場合を示している。すなわち、縦方向及び横方向に二画素ごとに一画素のサンプリングであり、一画素おきにサンプリングしている。A=200としたときの1ライン中のサンプリング画素数は図8に示すようになる。
【0053】
同図から明らかなように、サンプリングしないことになるサンプリング周期ratio=1の場合を除いて、200画素以上の幅があるときには最低でもサンプル数は100画素以上となることが分かる。従って、縦方向と横方向について200画素以上の場合には(100画素)×(100画素)=(10000画素)が確保され、誤差を1%以下にできる。
【0054】
ここにおいてmin(width,height)を基準としているのは次のような理由による。例えば、図9(a)に示すビットマップ画像のように、width>>heightであるとすると、長い方のwidthでサンプリング周期ratioを決めてしまった場合には、同図(b)に示すように、縦方向には上端と下端の2ラインしか画素を抽出されないといったことが起こりかねない。しかしながら、min(width,height)として、小さい方に基づいてサンプリング周期ratioを決めるようにすれば同図(c)に示すように少ない方の縦方向においても中間部を含むような間引きを行うことができるようになる。すなわち、所定の抽出数を確保したサンプリングが可能となる。
【0055】
このように画素を間引いて抽出するのは輝度である。上述したように、本実施形態においてはコンピュータ21が扱うのはRGBの階調データであり、直接には輝度の値を持っていない。輝度を求めるためにLuv表色空間に色変換することも可能であるが、演算量などの問題から得策ではない。このため、テレビジョンなどの場合に利用されているRGBから輝度を直に求める次式の変換式を利用する。
【0056】
Y=0.30R+0.59G+0.11B …(2)
また、輝度のヒストグラムは一つの画像についてまとめて集計するのではなく、図10に示すように、入力画像を横3ブロック、縦5ブロックの合計15ブロックに分けて個別に集計する。本実施形態においてはこのような15ブロックとしているが、むろん、ブロックの分割方法は任意である。特に、プリンタドライバなどではアプリケーションからブロック毎に画像データを受け取ることになるが、重み付けのための領域分割をこのブロックを利用して行っても良い。
【0057】
このようにブロック毎に集計するのは処理量の低減のためである。ステップS120にて重み付けをして再評価するという意味では必ずしもブロック毎に集計する必要はなく、選択した画素毎に重み付けを考慮し、ヒストグラムとして集計していくことも可能である。また、ブロック毎といっても集計結果に対する重み付けを変える意味であるから、ブロックに応じた重み付けを使用して一つのヒストグラムで集計していくことも可能である。図11はブロックBiの輝度分布の一例を示す図である。
【0058】
各ブロック毎に集計をしていく場合には、ステップS120にて領域別の重み付けをして再評価することになる。図12と図13は各ブロックに重み付けを与える例を示している。一般の写真画像を想定すれば、通常、中央部分に本来の被写体が入るような構図を取る。この意味では、画像データの中央部分の画像に重きをおいて特徴量を評価すべきである。一方、別の構図として建物の前で記念撮影をするような例を考えると、人物像は中央の下方に位置させて撮影する。というのは地面の高さが画像の下の方に位置させるのが普通だからである。従って、この場合は画像の中央下方に重みをおいて特徴量を評価すべきといえる。図12の例は前者のものに対応し、図13は後者のものに対応している。
【0059】
各ブロックの重み付けをWi(i=1〜15)とし、重み付けして再評価された輝度分布をDYとし、
【0060】
【数1】

Figure 0004019204
【0061】
とするとともに、
Ki=Wi/SP …(4)
とすると、
【0062】
【数2】
Figure 0004019204
【0063】
として求められる。
【0064】
このようにして再評価された輝度分布のヒストグラムを得たら、この特徴量から画像処理の強度を求める。すなわち、コントラストを拡大するための幅を決定する。拡大幅を決定するにあたり、輝度分布の両端を求めることを考える。写真画像の輝度分布は図14に示すように概ね山形に表れる。むろん、その位置、形状についてはさまざまである。輝度分布の幅はこの両端をどこに決めるかによって決定されるが、単に裾野が延びて分布数が「0」となる点を両端とすることはできない。裾野部分では分布数が「0」付近で変移する場合があるし、統計的に見れば限りなく「0」に近づきながら推移していくからである。
【0065】
このため、分布範囲において最も輝度の大きい側と小さい側からある分布割合だけ内側に経た部分を分布の両端とする。本実施形態においては、同図に示すように、この分布割合を0.5%に設定している。むろん、この割合については、適宜、変更することが可能である。このように、ある分布割合だけ上端と下端をカットすることにより、ノイズなどに起因して生じている白点や黒点を無視することもできる。すなわち、このような処理をしなければ一点でも白点や黒点があればそれが輝度分布の両端となってしまうので、255階調の輝度値であれば、多くの場合において最下端は階調「0」であるし、最上端は階調「255」となってしまうが、上端部分から0.5%の画素数だけ内側に入った部分を端部とすることにより、このようなことが無くなる。
【0066】
実際の処理では再評価して得られたヒストグラムに基づいて画素数に対する0.5%を演算し、再現可能な輝度分布における上端の輝度値及び下端の輝度値から順番に内側に向かいながらそれぞれの分布数を累積し、0.5%の値となった輝度値を求める。以後、この上端側をymaxと呼び、下端側をyminと呼ぶ。また、本実施形態においては、コントラストの拡大とともに明度の修正も行なうこととしており、そのために必要なメジアンymedも上記再評価されたヒストグラムに基づいて決定する。以上の処理をステップS130にて行なう。
【0067】
再現可能な輝度の範囲を「0」〜「255」としたときに、変換前の輝度yと輝度の分布範囲の最大値ymaxと最小値yminから変換先の輝度Yを次式に基づいて求める。
【0068】
Y=ay+b …(6)
ただし
a=255/(ymax−ymin) …(7)
b=−a・yminあるいは255−a・ymax …(8)
また、上記変換式にてY<0ならばY=0とし、Y>255ならばY=255とする。ここにおける、aは傾きであり、bはオフセットといえる。この変換式によれば、図15に示すように、あるせまい幅を持った輝度分布を再現可能な範囲まで広げることができる。ただし、再現可能な範囲を最大限に利用して輝度分布の拡大を図った場合、ハイライト部分が白く抜けてしまったり、ハイシャドウ部分が黒くつぶれてしまうことが起こる。これを防止するため本実施形態においては、再現可能な範囲を制限している。すなわち、再現可能な範囲の上端と下端に拡大しない範囲として輝度値で「5」だけ残している。この結果、変換式のパラメータは次式のようになる。
【0069】
a=245/(ymax−ymin) …(9)
b=5−a・yminあるいは250−a・ymax …(10)
そして、この場合にはy<yminと、y>ymaxの範囲においては変換を行わないようにする。
【0070】
ただし、このままの拡大率(aに対応)を適用してしまうと、非常に大きな拡大率が得られる場合も生じてしまう。例えば、夕方のような薄暮の状態では最も明るい部分から暗い部分までのコントラストの幅が狭くて当然であるのに、この画像についてコントラストを大きく拡大しようとする結果、昼間の画像のように変換されてしまいかねない。このような変換は希望されないので、拡大率には制限を設けておき、aが1.5(〜2)以上とはならないように制限する。これにより、薄暮は薄暮なりに表現されるようになる。なお、この場合は輝度分布の中心位置がなるべく変化しないような処理を行っておく。ステップS140では、このようにして拡大率a及び傾きbを求める処理を実行する。
【0071】
ところで、輝度の変換時に、毎回、上記変換式(Y=ay+b)を実行するのは非合理的である。というのは、輝度yの取りうる範囲が「0」〜「255」でしかあり得ないため、予め輝度yが取りうる全ての値に対応して変換後の輝度Yを求めておくことも可能である。従って、図16に示すようなテーブルとして記憶しておく。
【0072】
このような輝度の範囲の拡大によってコントラストを強調するだけでなく、合わせて明るさを調整することも極めて有効であるため、画像の明るさを判断して補正のためのパラメータも生成する。
【0073】
例えば、図17にて実線で示すように輝度分布の山が全体的に暗い側に寄っている場合には線で示すように全体的に明るい側に山を移動させると良いし、逆に、図18にて実線で示すように輝度分布の山が全体的に明るい側に寄っている場合には破線で示すように全体的に暗い側に山を移動させると良い。
【0074】
各種の実験を行った結果、本実施形態においては、輝度分布におけるメジアンymedを求め、同メジアンymedが「85」未満である場合に暗い画像と判断して以下のγ値に対応するγ補正で明るくする。
【0075】
γ=ymed/85 …(11)
あるいは、
γ=(ymed/85)**(1/2) …(12)
とする。
【0076】
この場合、γ<0.7となっても、γ=0.7とする。このような限界を設けておかないと夜の画像が昼間のようになってしまうからである。なお、明るくしすぎると全体的に白っぽい画像になってコントラストが弱い画像になりやすいため、彩度を合わせて強調するなどの処理が好適である。
【0077】
一方、メジアンymedが「128」より大きい場合に明るい画像と判断して以下のγ値に対応するγ補正で暗くする。
【0078】
γ=ymed/128 …(13)
あるいは、
γ=(ymed/128)**(1/2) …(14)
とする。この場合、γ>1.3となっても、γ=1.3として暗くなり過ぎないように限界を設けておく。
【0079】
なお、このγ補正は変換前の輝度分布に対して行っても良いし、変換後の輝度分布に対して行っても良い。γ補正をした場合における対応関係を図19に示しており、γ<1であれば上方に膨らむカーブとなり、γ>1であれば下方に膨らむカーブとなる。むろん、かかるγ補正の結果も図16に示すテーブル内に反映させておけばよく、テーブルデータに対して同補正を行っておく。ステップS150ではこのような変換テーブルを生成する処理を実行する。
【0080】
この後、(6)式に基づく変換を行うが、同式の変換式は、RGBの成分値との対応関係においても当てはめることができ、変換前の成分値(R0 ,G0 ,B0 )に対して変換後の成分値(R,G,B)は、
R=a・R0 +b …(15)
G=a・G0 +b …(16)
B=a・B0 +b …(17)
として求めることもできる。ここで、輝度y,Yが階調「0」〜階調「255」であるのに対応してRGBの各成分値(R0 ,G0 ,B0 ),(R,G,B )も同じ範囲となっており、上述した輝度y,Yの変換テーブルをそのまま利用すればよいといえる。
【0081】
従って、ステップS160では全画素の画像データ(R0 ,G0 ,B0 )について(15)〜(17)式に対応する変換テーブルを参照し、変換後の画像データ(R,G,B )を得るという処理を繰り返すことになる。
【0082】
むろん、これらのステップS130〜ステップS160を実行するハードウェア構成とソフトウェアとによって処理内容決定手段ないし処理手段を構成することになる。なお、本実施形態においては、画像処理としてコントラストの拡大処理や明度の修正処理を実行しているが、他の画像強調処理などにおいても全く同様に適用可能であることはいうまでもない。
【0083】
以上の処理では、画像の中での位置に応じた重み付けによって特徴量が再評価されるものであった。しかしながら、重み付けの基準はこれに限られるものではなく、各種の態様が可能である。図20はその一例として画像の変化度合いから本来の被写体を検出し、重み付けを変化させる場合のフローチャートを示している。
【0084】
ステップS210は、上述したステップS110に代わるものであり、均等に間引いた画素について輝度を集計する。しかし、輝度だけの集計ではなく、次に示すようなエッジ量も集計する。
【0085】
入力画像のうちの背景は濃淡変化が緩やかであるといえるし、本来の被写体はシャープであるがゆえに輝度の変化が激しいといえる。従って、図21に示すようにある一つの画素を注目画素としてその周縁の画素との濃度差を求めることとし、この濃度差をその注目画素のエッジ量とする。この濃度差はフィルタを適用して演算することができ、図22(a)〜(f)はこのようなフィルタの数例を示しており、注目画素と周縁の八画素について各画素の輝度を重み付け加算する際の重み付け係数を示している。ここにおいて、同図(a)の場合は九画素についての重み付け加算であるから、各画素でのエッジ量を求めるためには九回の乗算と八回の加算が必要になる。この演算量は画像が大きくなってくるにつれて無視できなくなるため、同図(b)(c)では五回の乗算と四回の加算で済ませ、同図(d)(e)では三回の乗算と二回の加算で済ませ、同図(f)では二回の乗算と一回の加算で済ませるようにしている。
【0086】
これらの例では注目画素に対してこれを一重に取り囲む画素とだけ比較しているが、いわゆるアンシャープマスクを使用してより広範囲な画素のデータを使用して注目画素でのシャープさを求めることは可能である。ただし、本実施形態におけるエッジ量は、あくまでもブロック毎の重み付けを評価するためのものであるから演算量を少なくしたこれらの例のフィルタのものでも十分である。
【0087】
エッジ量の集計は各ブロック毎に各画素で求めたエッジ量を集計していっても良いし、このエッジ量の絶対値が所定のしきい値よりも大きい場合にエッジ画素と判定し、各ブロック毎のエッジ画素総数を集計していくようにしても良い。各ブロックでのエッジ量をERi(i=1〜15)とすると、その総量SEは、
【0088】
【数3】
Figure 0004019204
【0089】
となるから、重み付け係数KEi自体は、
KEi=ERi/SE …(19)
で表される。従って、この場合の重み付けして再評価された輝度分布DYは、
【0090】
【数4】
Figure 0004019204
【0091】
として求められる。また、各ブロックでのエッジ画素総数をENi(i=1〜15)とすると、その総量SEは、
【0092】
【数5】
Figure 0004019204
【0093】
となるから、重み付け係数KEi自体は、
KEi=ENi/SE …(22)
で表され、(20)式を利用して再評価された輝度分布DYを得ることができる。いずれの場合においても、ステップS220では(20)式の演算式に基づいて輝度分布DYを再評価する。
【0094】
この例においては、エッジ画素と判定された画素の輝度をサンプリングして利用するというわけではなく、エッジ量やエッジ画素総数をブロックの重み付け係数の決定に使用しているだけである。すなわち、特定の性質(エッジ)を持つ画素のみの特徴量を集計しているわけではなく、そのブロックにおいて偏らない平均的な特徴量を得ることができる。
【0095】
なお、このようにして輝度分布を再評価したら上述したステップS130〜S160の処理を経てコントラストを拡大するとともに明度を修正すればよい。
【0096】
さらに、本来の被写体が人物像であることが多いことを考慮すると、肌色の画素が多いブロックに重きをおいて再評価するといったことも可能である。図23はこのような特定の色に注目してブロックの重み付け係数を決定するフローチャートを示している。
【0097】
ステップS110に対応するステップS310では、同様の間引き処理で輝度を集計するとともに、各画素の色度に基づいて肌色らしき画素であるかを判定し、肌色画素数の集計を行う。色度については各画素についてのx−y色度を計算する。いま、対象画素のRGB表色系におけるRGB階調データが(R,G,B)であるとするときに、
r=R/(R+G+B) …(23)
g=G/(R+G+B) …(24)
とおくとすると、XYZ表色系における色度座標x,yとの間には、
x=(1.1302+1.6387r+0.6215g)
/(6.7846−3.0157r−0.3857g)…(25)
y=(0.0601+0.9399r+4.5306g)
/(6.7846−3.0157r−0.3857g)…(26)
なる対応関係が成立する。ここにおいて、色度は明るさに左右されることなく色の刺激値の絶対的な割合を表すものであるから、色度からその画素がどのような対象物かを判断することができるといえる。肌色の場合は、
0.35<x<0.40 …(27)
0.33<y<0.36 …(28)
というような範囲に含まれているから、各画素の色度を求めたときにこの範囲内であればその画素は人間の肌を示す画素と考え、ブロック内の肌色画素数を一つ増加する。
【0098】
このようにして肌色画素数が得られたら、次のステップS320では上述したエッジ画素数の場合と同様にして重み付け係数を決定し、輝度分布DYを再評価する。すなわち、各ブロックでの肌色画素数をCNi(i=1〜15)とすると、その総量SCは、
【0099】
【数6】
Figure 0004019204
【0100】
となるから、重み付けKCi自体は、
KCi=CNi/SC …(30)
で表され、この場合の重み付けして再評価された輝度分布DYは、
【0101】
【数7】
Figure 0004019204
【0102】
として求められる。この例においても、肌色の画素と判定された画素の輝度をサンプリングして利用するというわけではなく、肌色画素の総数をブロックの重み付け係数の決定に使用しているだけである。従って、そのブロックにおいて偏らない平均的な特徴量を得ることができる。この場合も、このようにして輝度分布を再評価したら上述したステップS130〜S160の処理を経てコントラストを拡大するとともに明度を修正すればよい。図24に示す写真の場合、中央付近に女の子が写っており、顔、手足の画素で肌色画素と判断されることになる。むろん、他の色についての色度を求めて画素数を集計するようにしても良い。
【0103】
ところで、これまでは重み付け係数を一つの要因によって決定していたが、それぞれの要因の重要度を加味して重複して適用することもできる。個々の要因j(1:画像の中での位置、2:エッジ量、3:肌色画素数)について各ブロックBi(i=1〜15)の重み付け係数をTjiとした場合、要因毎の各ブロックに分配した重み付けTjiは仮の重み付けとなり、
【0104】
【数8】
Figure 0004019204
【0105】
とするとともに、
Kji=Tji/Sj …(33)
とすると、ブロックBiにおける真の重み付け係数Kiは、
【0106】
【数9】
Figure 0004019204
【0107】
で表される。ここにおいて、Ajは各要因毎の重要度を表す係数であり、総数が1となる範囲で適宜決定する。一例として、肌色重視とするならば、A1=0.2、A2=0.2、A3=0.6といった設定などが可能である。
【0108】
次に、上記構成からなる本実施形態の動作を説明する。最初に、先の実施形態に沿って説明する。
【0109】
写真画像をスキャナ11で読み込み、プリンタ31にて印刷する場合を想定する。すると、まず、コンピュータ21にてオペレーティングシステム21aが稼働しているもとで、画像処理アプリケーション21dを起動させ、スキャナ11に対して写真の読み取りを開始させる。読み取られた画像データが同オペレーティングシステム21aを介して画像処理アプリケーション21dに取り込まれたら、ステップS110にて間引きしながら各画素の輝度を集計する。集計された輝度分布dYiは、ステップS120にて図12あるいは図13に示すブロック毎の位置に対応して決定される重み付けに基づいて再評価し、再評価された輝度分布DYに基づいてステップS130ではymax,ymin,ymedを求める。
【0110】
次なるステップS140では、(9)式あるいは(10)式に基づいて強調パラメータである傾きaとオフセットbとを算出するとともに、(11)式〜(14)式に基づいて明度修正に要するγ補正のγ値を求め、ステップS150では図6に示す変換テーブルを作成する。そして、最後に、ステップS160では全画素についての画像データを同変換テーブルを参照して変換する。
【0111】
図12に示す重み付けを使用する場合には、中央に近いブロックほど重み付けが重いので、集計された輝度分布も中央に近いものほど大きく評価される。例えば、夜間にフラッシュを使用して人物像を撮影したとする。人物像についての輝度分布はフラッシュの効果もあって図25(a)に示すように概ね良好な輝度分布が得られたとしても、人物の周囲は暗く、同図(b)に示すような暗い側に偏った輝度分布が得られる。この場合、単純に平均化すれば同図(c)に示すように全体的に暗い側に偏った輝度分布が得られる。従って、このままコントラストや明度を修正すれば暗い画像を無理やり明るくしてしまい、良好な画像は得られない。
【0112】
しかしながら、図12に示すようにして中央のブロックに重み付けを重くするようにすると、図25(d)に示すように画像の中央部分で得られた輝度分布の影響を強く受けた輝度分布DYが得られる。従って、かかる輝度分布に基づいて決定される画像処理の強度は過度にコントラストを拡大したり明度を修正したりするようなものではなくなる。
【0113】
逆に、逆光の状態で人物を撮影すると、顔が暗く、背景が明るくなってしまうが、画像全体で見れば良好な輝度分布ともなりかねない。しかしながら、このような場合でも図12に示すようにして暗い顔が写っている中央のブロックでの輝度分布に重きをおいて評価することにより、暗い輝度分布が反映され、コントラストを拡大したり画像を明るくしたりする画像処理を実行することができるようになる。
【0114】
以上の処理により、スキャナ11を介して読み込まれた写真の画像データは自動的に最適な強度で画像処理を施され、ディスプレイ32に表示された後、プリンタ31にて印刷される。
【0115】
このように、画像処理の中枢をなすコンピュータ21はステップS110にて均等に画素を選択しながら特徴量である輝度の分布を領域毎に集計した後、ステップS120では各領域毎に決められた重み付けで再評価することにより、均等にサンプリングを行いながらも本来の被写体の輝度分布の影響を強く受けた輝度分布を得ることができ、ステップS130〜S150にてかかる輝度分布に基づいて画像処理の強度などを決定した後、ステップS160で画像データを変換するため、処理を軽くしつつ最適な強度で画像処理を実行することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態にかかる画像処理装置を適用した画像処理システムのブロック図である。
【図2】同画像処理装置の具体的ハードウェアのブロック図である。
【図3】本発明の画像処理装置の他の適用例を示す概略ブロック図である。
【図4】本発明の画像処理装置の他の適用例を示す概略ブロック図である。
【図5】本発明の画像処理装置における画像処理を示すフローチャートである。
【図6】処理対象画素を移動させていく状態を示す図である。
【図7】サンプリング周期を示す図である。
【図8】サンプリング画素数を示す図である。
【図9】変換元の画像とサンプリングされる画素の関係を示す図である。
【図10】画像を領域分割したブロックの配置を示す図である。
【図11】各ブロックでの輝度分布の例を示す図である。
【図12】ブロック毎の重み付けの一例を示す図である。
【図13】ブロック毎の重み付けの他の一例を示す図である。
【図14】輝度分布の端部処理と端部処理にて得られる端部を示す図である。
【図15】輝度分布の拡大と再現可能な輝度の範囲を示す図である。
【図16】輝度分布を拡大する際の変換テーブルを示す図である。
【図17】γ補正で明るくする概念を示す図である。
【図18】γ補正で暗くする概念を示す図である。
【図19】γ補正で変更される輝度の対応関係を示す図である。
【図20】エッジ量に基づいて特徴量を再評価する場合のフローチャートである。
【図21】エッジ量を判断するための注目画素と周縁画素との関係を示す図である。
【図22】エッジ量を算出するためのフィルタの例を示す図である。
【図23】所定の色の画素数に基づいて特徴量を再評価する場合のフローチャートである。
【図24】写真画像の一例を示す図である。
【図25】夜間に撮影した写真画像の輝度分布を示す図である。
【符号の説明】
10…画像入力装置
20…画像処理装置
21…コンピュータ
21a…オペレーティングシステム
21b…プリンタドライバ
21c…ディスプレイドライバ
21d…画像処理アプリケーション
30…画像出力装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, an image processing method, and a medium on which an image processing control program is recorded that automatically executes optimum image processing on real image data such as a digital photographic image.
[0002]
[Prior art]
Various image processing is performed on the digital image data. For example, image processing such as increasing the contrast, correcting the color tone, or correcting the brightness. Such image processing is normally executable by a microcomputer, and an operator confirms an image on a monitor and selects necessary image processing, or determines image processing parameters.
[0003]
[Problems to be solved by the invention]
In recent years, various image processing techniques have been proposed and are actually effective. However, humans must still be involved when it comes to how much processing is performed. This is because it has not been possible to determine what is important in the digital image data to be subjected to image processing.
[0004]
For example, when image processing for correcting brightness is considered, it is assumed that automatic processing is performed in which bright correction is performed when the average of the entire screen is dark, and dark correction is performed when the average is bright. Here, it is assumed that there is actual image data of a human image taken at night. Although the background is almost completely dark, it is assumed that the person was able to photograph well. When this real image data is automatically corrected, the background is completely dark, so the average of the entire image becomes dark and the image is corrected brightly, resulting in a daytime image.
[0005]
In this case, if a person is involved, the fact that the background is dark is considered without giving too much weight, and only the portion of the person image is focused. If the person image is dark, correction is made brighter, and conversely, correction is made to darken if the person image is too bright due to an effect such as flash.
[0006]
As described above, in the conventional image processing, the importance according to each part in the photographed image data cannot be determined, and thus there is a problem that a human must be involved.
[0007]
On the other hand, even if the importance of an image can be determined by some method, it is an operation for determining in units of pixels. Therefore, if the importance is changed in real time, the amount of calculation increases.
[0008]
The present invention has been made in view of the above problems, and image processing capable of automatically executing optimum image processing in consideration of importance relatively easily in actual image data such as a digital photographic image. An object is to provide an apparatus, an image processing method, and a medium on which an image processing control program is recorded.
[0009]
[Means for solving the problems and their functions and effects]
  In order to achieve the above object, an image processing apparatus of the present invention provides:
  An image processing apparatus that performs predetermined image processing on a real image composed of a plurality of pixels,
  The image data of the pixels that make up the live-action image,From the whole live-action image, While decimating evenly according to predetermined standards,Input means to input evenly;
  While thinning out the entire live-action image aboveBased on the input image data,Histogram showing luminance distribution for each pixelRepresents the entire live-action imageFeature quantity extraction means for extracting as feature quantities;
  The above representative of the whole live-action imageFor featuresPre-set for each region that divides the image subject to image processing into a plurality of predetermined criteriaRe-evaluation, which is an evaluation using weighting factors, is performed.Find the re-evaluated features for the entire live-action imageA feature re-evaluation means;
  Processing content determination means for determining image processing including processing for correcting at least one of brightness and contrast of an image based on the reevaluated feature amount;
  Processing means for performing image processing with the determined content on the entire image data of the real image;
  Be equippede,
The feature quantity re-evaluation means sets a weighting coefficient that is weighted more than the weighting coefficient set in the other area for the area to be evaluated with a larger weight than the other area in the re-evaluation of the feature quantity. , Perform the above re-evaluation
Is the gist.
[0010]
  In the above invention, the input means inputs the image data of the pixels constituting the photographed image evenly from the entire photographed image, and the feature quantity extracting means determines the image processing intensity and the like based on the inputted image data. A histogram indicating a luminance distribution for each pixel necessary for determining the contents of image processing is extracted as a feature amount. Then, the feature quantity re-evaluation means performs a re-evaluation that is an evaluation using a predetermined weighting on the feature quantity extracted by the feature quantity extraction means, and based on the feature quantity obtained by such re-evaluation, The processing content determination means determines the intensity of image processing including processing for correcting at least one of brightness and contrast of the image, and the processing means performs image processing with the determined content. This is performed on the entire image data of the real image.
[0011]
  That is, at the extraction stageWhole live action imageSince the predetermined weighting is performed after the extraction, the resulting feature amount is different from that obtained uniformly over the entire image.
[0012]
In addition,Pixel featureofExtractionMake up a live-action imageExtraction may be performed for all pixels, or even if not all pixels are extracted. As an example of the latter,The input means constitutes the live-action imagePixels that are selected by thinning evenly with a predetermined standard for all pixelsThe feature amount extracting means is based on the image data input by the thinning.Above featuresofExtractionAs a means to doConstitutionCan think.
[0013]
  the aboveTo the configuration ofIn this case, the number of pixels to be processed is reduced by evenly thinning out all the pixels according to a predetermined standard, and the feature amount is extracted for the reduced pixels.
[0014]
In this case, the uniform thinning includes those selected by thinning out at a fixed period, and those selected at random and thinned out.
[0015]
  As described above, the feature amount re-evaluation unit performs re-evaluation on the extracted feature amount, which is an evaluation using a plurality of weighting coefficients prepared in advance according to the position of the image. Corresponding to the feature amount being in units of pixels, weighting in units of pixels may be performed, or weighting may be performed for each appropriate group. As an example of the latter, a weight storage unit that stores in advance a weight set in accordance with the position of the region in the image for each of a plurality of regions that divide the image to be subjected to the image processing on a predetermined basis, The input means is means for inputting the image data from each of the plurality of regions, and the feature amount extraction means is configured to input the feature amount based on the image data input from each of the plurality of regions. A configuration may be considered in which extraction is performed for each region, and the feature amount re-evaluation unit is a unit that performs re-evaluation of the extracted feature amount using the weight stored for each region.
[0016]
  the aboveDepartureLightThen,Based on the premise of the weighting of the area unit that divides the image by a predetermined standardVolume extractionThe extraction means extracts features in units of such areas, and featuresRe-quantityEvaluation means for each areaMemoryWeightingUsingRe-evaluate the feature value for each region.
[0017]
Such division of the area may be always constant or may be changed for each image. In this case, the division method may be changed according to the content of the image.
[0018]
Various weighting methods can be employed as long as the reevaluation is not limited to simple sampling.
[0019]
  As an example,The weight storage unit may be a unit that stores in advance a weight set in accordance with the position of each pixel with respect to an image for each of the plurality of regions. In particular,A configuration in which the weighting is changed in a correspondence relationship determined by the position of each pixel with respect to the image.Can think.
[0020]
When considering the composition of a photograph, the person image is often located at the center. Therefore, if feature quantities are extracted uniformly from the entire image and then weighted by increasing the weight of the feature quantity in the central portion, the feature quantities extracted from the pixels of the human image are greatly evaluated as a result.
[0021]
  the aboveTo the configuration ofFor example, if it is decided to increase the weight of the central part of the image and reduce the weight of the surrounding area,Re-quantityEvaluation means,The position of each pixel with respect to the image is determined, and re-evaluation is performed using a weighting that varies depending on the position.
[0022]
  As another example of the weighting method, PaintingObtain the degree of image change, and increase the weighting in areas where the degree of image change is largeThere is a technique. Specifically, based on the input image data, an area specifying unit that specifies an area with a large degree of image change in the photographed image, and an area specified by the area specifying unit includes other areas other than the area. A weight assigning means for assigning a weight that is heavier than the area, and the feature amount re-evaluating means is a means for re-evaluating the feature amount using at least the weight assigned by the weight assigning means. Can think. In this case, a pixel number calculation means for obtaining the number of pixels in which the change degree of the image data with the adjacent pixels is equal to or greater than a predetermined value among the pixels constituting the photographed image based on the input image data is provided. In consideration of the number of pixels obtained by the pixel number calculation means, the area specifying means may specify an area having a large degree of image change in the photographed image.
[0023]
  the aboveTo the configuration ofIn the featureRe-quantityThe degree of image change before the evaluation means re-evaluatesButAskingIsThe The degree of change in the image can be said to be the sharpness of the image, but the degree of change is large because the contour portion is clearer as the image is in focus. On the other hand, if the image is not in focus, the image gradually changes in the outline portion of the image, and the degree of change becomes small. In the case of a photograph or the like, the focused part is the original subject and the unfocused part is considered equivalent to the background. For this reason, a place where the degree of change in the image is large is considered an original subject,Re-quantityEvaluation means,By evaluating with such weighting being heavy at such a portion where the degree of change of the image is large, the same result as that obtained by extracting many feature amounts is obtained.
[0024]
  As yet another exampleCalculating means for obtaining the number of pixels within a predetermined color range among the pixels in the photographed image, identifying means for identifying a region having a large number of pixels obtained by the computing means in the photographed image, and the identification And an assigning unit that assigns a weight that is heavier than other regions other than the region to the area specified by the means, and the feature amount re-evaluation unit uses at least the weight assigned by the assigning unit. Re-evaluateIt is good as well. Specifically, the chromaticity of each pixel is obtained, the number of pixels within the chromaticity range of the target from which the same chromaticity is to be extracted is obtained, and the weighting is increased in a portion where the number of pixels is large.Can think.
[0025]
PictureIn image processing, an object may be specified by a specific color. For example, in the case of a person, it may be determined as a target by searching for a skin color portion.In addition,Normal color image dataInSince the element of brightness is also included, specify the skin colorButdifficultIn some cases. On the other handIn the above configuration, each pixelChromaticity(Represents the absolute proportion of color stimulus values and is not affected by brightnessStuff). Therefore, if it is in the range of chromaticity that the skin color can take, it can be determined as a pixel of a human image. Of course, in addition to the skin color, the same can be said of the range that the green of trees can take or the blue of the blue sky.
[0026]
  In this background, featuresRe-quantityEvaluation means,The chromaticity calculated for each pixel isPredetermined colorWhen the number of pixels falls within the range, the number of pixels is counted.regionIs determined to be a target, and the weight is increased, and the same result as that obtained by extracting many feature values from the target is obtained.
[0027]
  The weighting method as described above is not necessarily an alternative, but as a suitable example in the case of overlapping application,Means for setting each weighting coefficient for a plurality of elements, and means for determining a final weighting coefficient by adding each weighting coefficient for each of the plurality of elements by weighting according to importance. The feature amount re-evaluation means may re-evaluate the feature amount using the final weighting coefficient. In particular,A configuration in which temporary weighting factors are obtained individually based on a plurality of elements, and further, these are added with weighting according to importance and applied as a final weighting factorCan think.
[0028]
  the aboveTo the configuration ofIn, DoubleTemporary weighting factor individually based on number elementsButAskingIsThe Further, these are added by weighting according to importance, and the feature amount extracted as the final weighting coefficient is reevaluated. Therefore, even if a large weight is given at the stage evaluated by one weighting method, if the importance of the weighting method is low, a large weight may not be given as a result. In addition, there is a case in which the final weighting is higher when the weighting is generally evaluated to be higher than the average with respect to the weighting method having a large difference.
[0029]
  As described above, the method of performing the entire weighted image evenly in the extraction stage and performing the predetermined weighting after the extraction is not necessarily limited to a substantial apparatus. As an example, the image processing method of the present invention includes: A method of performing predetermined image processing on a live-action image composed of a plurality of pixels,
  The image data of the pixels constituting the live-action image is selectively input by thinning evenly on a predetermined basis with respect to all the pixels constituting the live-action image,
  While thinning out the entire live-action image aboveBased on the input image data,Histogram showing luminance distribution for each pixelRepresents the entire live-action imageExtract as feature quantity,
For each region that divides the image subject to image processing into a plurality of predetermined criteria, a weighting coefficient set in accordance with the position of the region in the image is stored in advance.
  The above representative of the whole live-action imageFor featuresMultiple aboveRe-evaluation, which is an evaluation using a weighting coefficient,Find the re-evaluated features for the whole live-action image,
  Based on the reevaluated feature amount, image processing including processing for correcting at least one of brightness and contrast of the image is determined,
  The image processing with the determined contents is performed on the entire image data of the photographed image.And
For the area to be evaluated with a greater weight than the other areas in the reevaluation of the feature amount, a weighting coefficient weighted larger than the weighting coefficient set in the other area is stored, and the stored weighting Perform reevaluation using coefficientsthing
  Is the gist.
[0030]
That is, it is not necessarily limited to a substantial apparatus, and there is no difference that the method is also effective.
[0031]
By the way, as described above, an image processing apparatus that re-evaluates feature amounts by weighting and performs image processing may exist alone or may be used in a state of being incorporated in a certain device. Includes various embodiments. Further, it can be changed as appropriate, for example, by hardware or by software.
[0032]
In the case of software for controlling an image processing apparatus as an embodiment of the idea of the invention, it naturally exists on a recording medium on which such software is recorded, and it must be used.
[0033]
  As an example, the recording medium of the present invention is a recording medium in which a program corresponding to predetermined image processing performed on a real image composed of a plurality of pixels is recorded so as to be readable by a computer.
  A function for selectively inputting image data of pixels constituting the live-action image by thinning evenly on a predetermined basis with respect to all pixels constituting the live-action image;
  While thinning out the entire live-action image aboveBased on the input image data,Histogram showing luminance distribution for each pixelRepresents the entire live-action imageA function to extract as a feature amount;
  The above representative of the whole live-action imageFor featuresFor each area that divides the image subject to image processing into a plurality of predetermined criteriaPrepared in advanceHeavyRe-evaluation, which is an evaluation using the found coefficient, is performed.The feature value is re-evaluated with respect to the entire photographed image.Function and
  A function of determining image processing including processing for correcting at least one of brightness and contrast of an image based on the reevaluated feature amount;
  A function of performing image processing with the determined contents on the entire image data of the real image;
  Record the program that realizes
The function for obtaining the reevaluated feature value is a weighting coefficient that is weighted more than the weighting coefficient set in the other area for the area to be evaluated with a larger weight than the other area in the reevaluation of the feature value. The function to perform the above reevaluation by setting
  Is the gist.
[0034]
Of course, the recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium that will be developed in the future. In addition, the duplication stages such as the primary duplication product and the secondary duplication product are equivalent without any question. In addition, even when the communication method is used as a supply method, the present invention is not changed, and the same applies to the case where data is written on a semiconductor chip.
[0035]
Further, even when a part is software and a part is realized by hardware, there is nothing completely different in the idea of the invention, and a part is stored on a recording medium, and it is appropriately changed as necessary. It may be in the form of being read.
[0036]
  As explained above,The present inventionImage processing equipmentIsExtraction of pixel feature values for entire live-action imageEvenly acrossBecause a predetermined weighting is performed after extraction,Without increasing the amount of processing,And,There is no need to perform irrelevant evaluations as if they were extracted evenly, and automaticallyIn the evaluationPerform image processingNaPossibleBecome.
[0037]
  AlsoThe pixels that make up a live-action imageThinningIf image data is input, the image processingThe amount of processing can be reduced.
[0038]
TerritoryChange the weight for each areaIf configured, the image processingCalculation is relatively easy.
[0039]
  In addition, weightingTheDetermined by pixel positionIf the configuration is used, the image processingCalculation is relatively easy.
[0040]
  In addition, a weighting that is heavier than other regions other than the region is given to a region where the degree of change of the image in the photographed image is large, and the feature amount is reevaluated using this weighting.If,PiecesAccurately distinguishes different targets depending on the image, and featuresobtainbe able to.For example, the weight used in the reevaluation may be changed according to the sharpness of the image.
[0041]
  further,For parts with a large number of pixels that fall within the predetermined color range, the weight is re-evaluated with a heavy weight, so the colorTherefore, it is possible to select a specific target.obtainbe able to.
[0042]
  further,When re-evaluating the feature amount, using a final weighting coefficient determined by adding each weighting coefficient for a plurality of elements with weighting according to importance,A more suitable feature amount can be evaluated by appropriately combining a plurality of weighting methods.
[0043]
  further,Image processing method of the present inventionAccording toWhen processing imagesIt is possible to provide an image processing method that can perform image processing with an optimal evaluation with a small amount of calculation,Recording medium of the present inventionAccording to this, it is possible to provide a medium on which an image processing control program capable of obtaining the same effect is recorded.
[0044]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0045]
FIG. 1 is a block diagram illustrating an image processing system to which an image processing apparatus according to an embodiment of the present invention is applied. FIG. 2 is a schematic block diagram illustrating a specific hardware configuration example.
[0046]
  In FIG. 1, an image input apparatus 10 outputs real image data representing a photograph or the like as a pixel in a dot matrix form to the image processing apparatus 20, and the image processing apparatus 20 determines the degree of enhancement of image processing through a predetermined process. Then, image processing is executed. The image processing apparatus 20 outputs the image processed image data to the image output apparatus 30, and the image output apparatus 30 outputs the image-processed image with a dot matrix pixel. Here, the image data output by the image processing apparatus 20 is:Based on the image data evenly input from the whole live-action image,After extracting features,This featureWith a predetermined weightEvaluation (hereinafter,reassessmentCalled)The image processing is performed with the degree of enhancement determined according to the reevaluated feature amount. Therefore, the image processing apparatus 20Input means for uniformly inputting image data of pixels constituting the photographed image from the entire photographed image, and pixel data based on the input image dataFeature valueExtractFeaturesVolume extractionAnd means for re-evaluating the extracted feature quantity with a predetermined weightRe-quantityEvaluation means and re-evaluated featuresOn the basis of theDegree of emphasisProcessing content determination means for determining the content of the image processing, etc., and the determined contentImage processingFor all image dataProcessing means.
[0047]
A specific example of the image input apparatus 10 corresponds to the scanner 11, the digital still camera 12, or the video camera 14 in FIG. 2, and specific examples of the image processing apparatus 20 include a computer 21, a hard disk 22, a keyboard 23, and a CD-ROM drive 24. A computer system including a floppy disk drive 25 and a modem 26 is applicable, and a specific example of the image output device 30 is a printer 31, a display 32, or the like. In the case of the present embodiment, since an object is found as image processing and appropriate image processing is performed, actual image data such as a photograph is preferable as the image data. The modem 26 is connected to a public communication line, connected to an external network via the public communication line, and can be installed by downloading software and data.
[0048]
In the present embodiment, the scanner 11 and the digital still camera 12 as the image input device 10 output RGB (green, blue, red) gradation data as image data, and the printer 31 as the image output device 30 has a floor. As the tone data, CMY (cyan, magenta, yellow) or CMYK binary data obtained by adding black to this is required as input, and the display 32 requires RGB gradation data as input. On the other hand, an operating system 21a operates in the computer 21, and a printer driver 21b and a display driver 21c corresponding to the printer 31 and the display 32 are incorporated. The image processing application 21d is controlled by the operating system 21a to execute processing, and executes predetermined image processing in cooperation with the printer driver 21b and the display driver 21c as necessary. Therefore, the specific role of the computer 21 as the image processing apparatus 20 is to create RGB gradation data that has been subjected to optimal image processing by inputting RGB gradation data, and displays the display 32 via the display driver 21c. And is converted into binary data of CMY (or CMYK) via the printer driver 21b and printed on the printer 31.
[0049]
As described above, in this embodiment, a computer system is incorporated between image input / output devices to perform image processing. However, such a computer system is not necessarily required, and image data is not necessarily processed. Any system that performs various types of image processing may be used. For example, as shown in FIG. 3, a digital still camera 12a incorporates an image processing apparatus that determines an object and performs image processing, and displays the converted image data on the display 32a or prints it on the printer 31a. There may be. As shown in FIG. 4, in the printer 31b that inputs and prints image data without going through a computer system, the image data inputted through the scanner 11b, the digital still camera 12b, the modem 26b, or the like is automatically used. It is also possible to configure so that an object is determined and image processing is performed.
[0050]
Specifically, the above-described object determination and accompanying image processing are performed in the computer 21 by an image processing program corresponding to the flowchart shown in FIG. In the flowchart shown in the figure, image processing for adjusting the contrast of an image is performed. In step S110, luminance is extracted as a feature amount while thinning out pixels uniformly from the entire image in step S110, and then in step S120. The feature amount is reevaluated by performing predetermined weighting, and image processing for adjusting the luminance is performed in steps S130 to S160.
[0051]
In step S110, as shown in FIG. 6, the brightness of each pixel is obtained for dot matrix image data in the vertical and horizontal directions, and a histogram is generated. In this case, although it can be said that it is accurate if it is performed for all the pixels, the total result is weighted and re-evaluated as will be described later, so it is not necessarily accurate. Therefore, it is possible to reduce the processing amount and increase the speed by thinning out pixels from which luminance is extracted to a certain error range. According to the statistical error, the error with respect to the number of samples N can be expressed as 1 / (N ** (1/2)). However, ** represents a power. Therefore, in order to perform processing with an error of about 1%, N = 10000.
[0052]
Here, the bitmap screen shown in FIG. 6 has the number of pixels of (width) × (height), and the sampling period ratio is
ratio = min (width, height) / A + 1 (1)
And Here, min (width, height) is the smaller of width and height, and A is a constant. Further, the sampling period ratio here indicates how many pixels are sampled, and the pixels marked with ◯ in FIG. 7 indicate the case where the sampling period ratio = 2. That is, one pixel is sampled every two pixels in the vertical and horizontal directions, and every other pixel is sampled. The number of sampling pixels in one line when A = 200 is as shown in FIG.
[0053]
As can be seen from the figure, except for the case where the sampling period ratio = 1 in which sampling is not performed, when there is a width of 200 pixels or more, the number of samples is at least 100 pixels. Therefore, in the case of 200 pixels or more in the vertical direction and the horizontal direction, (100 pixels) × (100 pixels) = (10000 pixels) is secured, and the error can be reduced to 1% or less.
[0054]
Here, the reason for using min (width, height) as a reference is as follows. For example, as shown in FIG. 9A, when width >> height is determined with the longer width as shown in FIG. 9A, the sampling period ratio is determined as shown in FIG. 9B. In addition, in the vertical direction, only two lines of the upper end and the lower end may be extracted. However, if the sampling period ratio is determined based on the smaller one as min (width, height), thinning is performed so as to include the intermediate portion in the smaller vertical direction as shown in FIG. Will be able to. That is, sampling with a predetermined number of extractions is possible.
[0055]
In this way, it is brightness that is extracted by thinning out pixels. As described above, in the present embodiment, the computer 21 handles RGB gradation data, and does not have a luminance value directly. Although it is possible to perform color conversion to the Luv color space in order to obtain the luminance, it is not a good idea because of problems such as the amount of computation. For this reason, the following conversion formula for directly obtaining the luminance from the RGB used in the case of a television or the like is used.
[0056]
Y = 0.30R + 0.59G + 0.11B (2)
Further, the luminance histogram is not aggregated for one image, but the input image is separately aggregated into 15 blocks of 3 horizontal blocks and 5 vertical blocks as shown in FIG. In the present embodiment, such 15 blocks are used, but the block dividing method is arbitrary. In particular, a printer driver or the like receives image data for each block from an application. However, area division for weighting may be performed using this block.
[0057]
The aggregation for each block is for the purpose of reducing the processing amount. In the sense of performing weighting and re-evaluation in step S120, it is not always necessary to add up for each block, and it is also possible to add up as a histogram in consideration of weighting for each selected pixel. Further, even if each block is used, it means that the weighting of the totaling result is changed, and it is possible to totalize with one histogram using the weighting according to the block. FIG. 11 is a diagram illustrating an example of the luminance distribution of the block Bi.
[0058]
When counting is performed for each block, weighting for each region is performed and re-evaluated in step S120. 12 and 13 show examples in which weighting is given to each block. If a general photographic image is assumed, the composition is usually such that the original subject enters the central portion. In this sense, the feature value should be evaluated with emphasis on the image at the center of the image data. On the other hand, when taking an example of taking a commemorative photo in front of a building as another composition, the human figure is taken in the lower part of the center. This is because the ground level is usually located at the bottom of the image. Therefore, in this case, it can be said that the feature amount should be evaluated with a weight placed below the center of the image. The example of FIG. 12 corresponds to the former, and FIG. 13 corresponds to the latter.
[0059]
The weight of each block is set to Wi (i = 1 to 15), the luminance distribution weighted and re-evaluated is set to DY,
[0060]
[Expression 1]
Figure 0004019204
[0061]
And
Ki = Wi / SP (4)
Then,
[0062]
[Expression 2]
Figure 0004019204
[0063]
As required.
[0064]
When the brightness distribution histogram reevaluated in this way is obtained, the intensity of image processing is obtained from this feature amount. That is, the width for increasing the contrast is determined. In determining the enlargement width, consider obtaining both ends of the luminance distribution. The luminance distribution of a photographic image appears generally in a mountain shape as shown in FIG. Of course, there are various positions and shapes. The width of the luminance distribution is determined by where the both ends are determined. However, the point where the base is simply extended and the number of distributions becomes “0” cannot be the both ends. This is because the number of distributions may change around “0” in the base portion, and if it is statistically viewed, it changes while approaching “0” as much as possible.
[0065]
For this reason, in the distribution range, portions that have passed a certain distribution ratio from the side with the highest luminance and the side with the lowest luminance are defined as both ends of the distribution. In the present embodiment, as shown in the figure, this distribution ratio is set to 0.5%. Of course, this ratio can be appropriately changed. In this way, by cutting the upper end and the lower end by a certain distribution ratio, it is possible to ignore white spots and black spots caused by noise or the like. In other words, if such a process is not performed, if there is even a single point of white or black, it will be at both ends of the luminance distribution. Although it is “0” and the uppermost end is gradation “255”, such a thing can be achieved by setting a portion that is inward by 0.5% of the number of pixels from the upper end portion as an end portion. Disappear.
[0066]
In actual processing, 0.5% of the number of pixels is calculated on the basis of the histogram obtained by re-evaluation, and each of the luminance values at the top and bottom in the reproducible luminance distribution is sequentially turned inward. The number of distributions is accumulated to obtain a luminance value that is 0.5%. Hereinafter, this upper end side is called ymax, and the lower end side is called ymin. Further, in the present embodiment, the brightness is corrected together with the contrast expansion, and the median ymed necessary for this is determined based on the reevaluated histogram. The above process is performed in step S130.
[0067]
When the reproducible luminance range is “0” to “255”, the conversion destination luminance Y is obtained from the luminance y before conversion and the maximum value ymax and minimum value ymin of the luminance distribution range based on the following equation. .
[0068]
Y = ay + b (6)
However,
a = 255 / (ymax−ymin) (7)
b = −a · ymin or 255−a · ymax (8)
In the above conversion equation, if Y <0, Y = 0, and if Y> 255, Y = 255. Here, a is an inclination and b can be said to be an offset. According to this conversion equation, as shown in FIG. 15, the luminance distribution having a certain narrow width can be expanded to a reproducible range. However, when the luminance distribution is expanded by making the maximum use of the reproducible range, the highlight portion may be white and the high shadow portion may be black. In order to prevent this, the reproducible range is limited in this embodiment. That is, the luminance value “5” is left as a range that does not expand to the upper end and the lower end of the reproducible range. As a result, the parameters of the conversion equation are as follows:
[0069]
a = 245 / (ymax−ymin) (9)
b = 5-a · ymin or 250-a · ymax (10)
In this case, conversion is not performed in the range of y <ymin and y> ymax.
[0070]
However, if the same enlargement ratio (corresponding to a) is applied, a very large enlargement ratio may be obtained. For example, in the twilight state in the evening, it is natural that the contrast range from the brightest part to the dark part is narrow, but as a result of trying to enlarge the contrast greatly for this image, it is converted like a daytime image. It can be. Since such conversion is not desired, a restriction is set on the enlargement ratio so that a is not 1.5 (˜2) or more. As a result, twilight is expressed as twilight. In this case, processing is performed so that the center position of the luminance distribution does not change as much as possible. In step S140, processing for obtaining the enlargement ratio a and the slope b is executed in this way.
[0071]
By the way, it is unreasonable to execute the conversion equation (Y = ay + b) every time the luminance is converted. This is because the range that the luminance y can take is only “0” to “255”, and it is possible to obtain the luminance Y after conversion corresponding to all the values that the luminance y can take in advance. It is. Therefore, it is stored as a table as shown in FIG.
[0072]
It is extremely effective to not only enhance the contrast by expanding the brightness range but also adjust the brightness together. Therefore, the brightness of the image is judged and a parameter for correction is also generated.
[0073]
  For example, as shown by the solid line in FIG.BreakAs shown by the line, it is better to move the mountain to the bright side as a whole, and conversely, as shown by the solid line in FIG. It is better to move the mountain to the dark side as shown.
[0074]
As a result of various experiments, in the present embodiment, the median ymed in the luminance distribution is obtained, and when the median ymed is less than “85”, the image is determined to be a dark image and γ correction corresponding to the following γ values is performed. Brighten.
[0075]
γ = ymed / 85 (11)
Or
γ = (ymed / 85) ** (1/2) (12)
And
[0076]
In this case, even if γ <0.7, γ = 0.7. This is because if such a limit is not set, the night image becomes like the daytime. Note that if the image is too bright, the overall image becomes whitish and the contrast tends to be low, so that processing such as enhancement of saturation is suitable.
[0077]
On the other hand, when the median ymed is larger than “128”, the image is judged to be a bright image and darkened by γ correction corresponding to the following γ values.
[0078]
γ = ymed / 128 (13)
Or
γ = (ymed / 128) ** (1/2) (14)
And In this case, even if γ> 1.3, a limit is set so that γ = 1.3 so as not to be too dark.
[0079]
This γ correction may be performed on the luminance distribution before conversion or on the luminance distribution after conversion. FIG. 19 shows the correspondence when γ correction is performed. When γ <1, the curve swells upward, and when γ> 1, the curve swells downward. Of course, the result of such γ correction may be reflected in the table shown in FIG. 16, and the same correction is performed on the table data. In step S150, processing for generating such a conversion table is executed.
[0080]
Thereafter, the conversion based on the expression (6) is performed. The conversion expression of the expression can also be applied in the correspondence relationship with the RGB component values, and for the component values (R0, G0, B0) before the conversion. The component values (R, G, B) after conversion are
R = a · R0 + b (15)
G = a · G0 + b (16)
B = a · B0 + b (17)
Can also be sought. Here, corresponding to the luminance y and Y ranging from gradation “0” to gradation “255”, the RGB component values (R0, G0, B0), (R, G, B) are also in the same range. Therefore, it can be said that the luminance y and Y conversion tables described above may be used as they are.
[0081]
Therefore, in step S160, the image data (R, G, B) after conversion is obtained by referring to the conversion table corresponding to the equations (15) to (17) for the image data (R0, G0, B0) of all pixels. The process will be repeated.
[0082]
  Of course, depending on the hardware configuration and software that execute these steps S130 to S160.Processing content decision means orProcessing means will be constituted. In the present embodiment, contrast enlargement processing and brightness correction processing are executed as image processing. Needless to say, the present invention can be applied to other image enhancement processing in the same manner.
[0083]
In the above processing, the feature amount is re-evaluated by weighting according to the position in the image. However, the weighting criterion is not limited to this, and various modes are possible. FIG. 20 shows a flowchart in the case where the original subject is detected from the degree of change of the image and the weighting is changed as an example.
[0084]
Step S210 is an alternative to step S110 described above, and the luminance is totalized for pixels that are thinned out evenly. However, not only the luminance but also the following edge amounts are totaled.
[0085]
It can be said that the background of the input image undergoes a gradual change in shading, and that the original subject is sharp, so that the change in luminance is severe. Therefore, as shown in FIG. 21, one pixel is regarded as a pixel of interest, and a density difference with a peripheral pixel is obtained, and this density difference is set as an edge amount of the pixel of interest. This density difference can be calculated by applying a filter, and FIGS. 22A to 22F show several examples of such a filter. The brightness of each pixel is calculated for the target pixel and the eight peripheral pixels. A weighting coefficient for weighted addition is shown. Here, in the case of FIG. 9A, since weighted addition is performed for nine pixels, nine multiplications and eight additions are required to obtain the edge amount at each pixel. Since this amount of computation cannot be ignored as the image becomes larger, it is sufficient to perform five multiplications and four additions in FIGS. 5B and 5C, and three multiplications in FIGS. In FIG. 8F, only two multiplications and one addition are required.
[0086]
In these examples, the pixel of interest is compared only with the pixel that surrounds it, but the sharpness at the pixel of interest is determined using a wider range of pixel data using a so-called unsharp mask. Is possible. However, since the edge amount in the present embodiment is only for evaluating the weighting for each block, the filter of these examples with a reduced amount of calculation is sufficient.
[0087]
The total amount of edges may be totaled for each pixel for each block, and when the absolute value of this edge amount is larger than a predetermined threshold, it is determined as an edge pixel, You may make it total the total number of edge pixels for every block. If the edge amount in each block is ERi (i = 1 to 15), the total amount SE is
[0088]
[Equation 3]
Figure 0004019204
[0089]
Therefore, the weighting coefficient KEi itself is
KEi = ERi / SE (19)
It is represented by Therefore, the luminance distribution DY re-evaluated by weighting in this case is
[0090]
[Expression 4]
Figure 0004019204
[0091]
As required. If the total number of edge pixels in each block is ENi (i = 1 to 15), the total amount SE is
[0092]
[Equation 5]
Figure 0004019204
[0093]
Therefore, the weighting coefficient KEi itself is
KEi = ENi / SE (22)
The luminance distribution DY that is reevaluated by using the equation (20) can be obtained. In any case, in step S220, the luminance distribution DY is re-evaluated based on the arithmetic expression (20).
[0094]
In this example, the luminance of the pixel determined as the edge pixel is not sampled and used, but the edge amount and the total number of edge pixels are only used for determining the weighting coefficient of the block. That is, the feature amounts of only the pixels having a specific property (edge) are not aggregated, and an average feature amount that is not biased in the block can be obtained.
[0095]
If the luminance distribution is re-evaluated in this way, the contrast may be increased and the lightness may be corrected through the processes in steps S130 to S160 described above.
[0096]
Furthermore, considering that the original subject is often a human image, it is possible to re-evaluate with emphasis on blocks with many skin-colored pixels. FIG. 23 shows a flowchart for determining a weighting coefficient of a block by paying attention to such a specific color.
[0097]
In step S310 corresponding to step S110, the luminance is totaled by the same thinning process, and it is determined based on the chromaticity of each pixel whether the pixel looks like a skin color, and the number of skin color pixels is totaled. For chromaticity, the xy chromaticity for each pixel is calculated. Now, when the RGB gradation data in the RGB color system of the target pixel is (R, G, B),
r = R / (R + G + B) (23)
g = G / (R + G + B) (24)
Then, between the chromaticity coordinates x and y in the XYZ color system,
x = (1.1302 + 1.6387r + 0.6215 g)
/(6.78446-3.0157r-0.3857g)...(25)
y = (0.0601 + 0.9399r + 4.5306 g)
/(6.78446-3.0157r-0.3857g)...(26)
The corresponding relationship is established. Here, the chromaticity represents the absolute ratio of the stimulus value of the color without being influenced by the brightness, so it can be said that it is possible to determine what kind of object the pixel is based on the chromaticity. . For skin tone,
0.35 <x <0.40 (27)
0.33 <y <0.36 (28)
Therefore, if the chromaticity of each pixel is obtained, the pixel is considered to be a pixel indicating human skin, and the number of skin color pixels in the block is increased by one. .
[0098]
When the number of skin color pixels is obtained in this way, in the next step S320, the weighting coefficient is determined in the same manner as in the case of the number of edge pixels described above, and the luminance distribution DY is reevaluated. That is, if the number of skin color pixels in each block is CNi (i = 1 to 15), the total amount SC is
[0099]
[Formula 6]
Figure 0004019204
[0100]
Therefore, the weighting KCi itself is
KCi = CNi / SC (30)
In this case, the weighted distribution DY re-evaluated is
[0101]
[Expression 7]
Figure 0004019204
[0102]
As required. In this example as well, the luminance of pixels determined to be skin color pixels is not sampled and used, but the total number of skin color pixels is only used to determine the weighting coefficient of the block. Therefore, it is possible to obtain an average feature amount that is not biased in the block. Also in this case, if the luminance distribution is re-evaluated in this way, the contrast may be enlarged and the lightness may be corrected through the processes of steps S130 to S160 described above. In the case of the photograph shown in FIG. 24, a girl appears in the vicinity of the center, and the face and limb pixels are determined to be skin color pixels. Of course, the number of pixels may be totaled by obtaining chromaticities for other colors.
[0103]
By the way, the weighting coefficient has been determined by one factor so far, but it can be applied in duplicate with the importance of each factor taken into account. When the weighting coefficient of each block Bi (i = 1 to 15) is Tji for each factor j (1: position in the image, 2: edge amount, 3: skin color pixel number), each block for each factor The weight Tji distributed to is a temporary weight,
[0104]
[Equation 8]
Figure 0004019204
[0105]
And
Kji = Tji / Sj (33)
Then, the true weighting coefficient Ki in the block Bi is
[0106]
[Equation 9]
Figure 0004019204
[0107]
It is represented by Here, Aj is a coefficient representing the importance for each factor, and is appropriately determined within a range where the total number is 1. As an example, if emphasis is placed on skin color, settings such as A1 = 0.2, A2 = 0.2, and A3 = 0.6 are possible.
[0108]
Next, the operation of the present embodiment configured as described above will be described. First, it demonstrates along previous embodiment.
[0109]
Assume that a photographic image is read by the scanner 11 and printed by the printer 31. Then, first, while the operating system 21a is operating on the computer 21, the image processing application 21d is started, and the scanner 11 is started to read a photograph. When the read image data is taken into the image processing application 21d via the operating system 21a, the luminance of each pixel is totaled while thinning out in step S110. The aggregated luminance distribution dYi is re-evaluated based on the weight determined corresponding to the position for each block shown in FIG. 12 or FIG. 13 in step S120, and step S130 based on the re-evaluated luminance distribution DY. Then, ymax, ymin, and ymed are obtained.
[0110]
In the next step S140, the slope a and the offset b, which are enhancement parameters, are calculated based on the formula (9) or the formula (10), and γ required for the brightness correction based on the formulas (11) to (14). A correction γ value is obtained, and a conversion table shown in FIG. 6 is created in step S150. Finally, in step S160, the image data for all pixels is converted with reference to the conversion table.
[0111]
In the case of using the weighting shown in FIG. 12, since the weighting is heavier as the block is closer to the center, the aggregated luminance distribution is also more greatly evaluated as being closer to the center. For example, assume that a person image is photographed using a flash at night. The luminance distribution of the person image has a flash effect, and even if a generally good luminance distribution is obtained as shown in FIG. 25A, the periphery of the person is dark and dark as shown in FIG. A luminance distribution biased to the side is obtained. In this case, if it is simply averaged, a luminance distribution biased toward the dark side as a whole can be obtained as shown in FIG. Therefore, if the contrast and brightness are corrected as they are, a dark image is forcibly brightened and a good image cannot be obtained.
[0112]
However, when the weight is increased in the central block as shown in FIG. 12, the luminance distribution DY strongly influenced by the luminance distribution obtained in the central portion of the image is obtained as shown in FIG. can get. Therefore, the intensity of the image processing determined based on the luminance distribution does not excessively increase the contrast or correct the brightness.
[0113]
Conversely, when a person is photographed in a backlight condition, the face becomes dark and the background becomes bright. However, if the entire image is viewed, the luminance distribution may be good. However, even in such a case, as shown in FIG. 12, the evaluation is performed with emphasis on the luminance distribution in the central block in which the dark face is reflected, so that the dark luminance distribution is reflected and the contrast is increased. It becomes possible to execute image processing for making the image brighter.
[0114]
Through the above processing, the image data of the photograph read through the scanner 11 is automatically subjected to image processing with the optimum intensity, displayed on the display 32, and then printed by the printer 31.
[0115]
As described above, the computer 21, which is the center of the image processing, aggregates the luminance distribution as the feature amount for each region while selecting pixels uniformly in step S110, and then, in step S120, the weight determined for each region. By re-evaluating in step S130, it is possible to obtain a luminance distribution that is strongly influenced by the luminance distribution of the original subject while uniformly sampling, and in steps S130 to S150, based on the luminance distribution, the intensity of image processing Since the image data is converted in step S160, the image processing can be executed with the optimum intensity while reducing the processing.
[Brief description of the drawings]
FIG. 1 is a block diagram of an image processing system to which an image processing apparatus according to an embodiment of the present invention is applied.
FIG. 2 is a block diagram of specific hardware of the image processing apparatus.
FIG. 3 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.
FIG. 4 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.
FIG. 5 is a flowchart showing image processing in the image processing apparatus of the present invention.
FIG. 6 is a diagram illustrating a state in which a processing target pixel is moved.
FIG. 7 is a diagram showing a sampling period.
FIG. 8 is a diagram illustrating the number of sampling pixels.
FIG. 9 is a diagram illustrating a relationship between a conversion source image and sampled pixels.
FIG. 10 is a diagram illustrating an arrangement of blocks obtained by dividing an image into regions.
FIG. 11 is a diagram illustrating an example of a luminance distribution in each block.
FIG. 12 is a diagram illustrating an example of weighting for each block.
FIG. 13 is a diagram illustrating another example of weighting for each block.
FIG. 14 is a diagram showing edge processing of luminance distribution and edges obtained by the edge processing.
FIG. 15 is a diagram illustrating an expansion of a luminance distribution and a reproducible luminance range.
FIG. 16 is a diagram illustrating a conversion table when a luminance distribution is enlarged.
FIG. 17 is a diagram showing a concept of brightening by γ correction.
FIG. 18 is a diagram showing a concept of darkening by γ correction.
FIG. 19 is a diagram illustrating a correspondence relationship of luminance changed by γ correction.
FIG. 20 is a flowchart for re-evaluating a feature amount based on an edge amount.
FIG. 21 is a diagram illustrating a relationship between a target pixel and a peripheral pixel for determining an edge amount.
FIG. 22 is a diagram illustrating an example of a filter for calculating an edge amount.
FIG. 23 is a flowchart for re-evaluating feature amounts based on the number of pixels of a predetermined color.
FIG. 24 is a diagram illustrating an example of a photographic image.
FIG. 25 is a diagram showing a luminance distribution of a photographic image taken at night.
[Explanation of symbols]
10. Image input device
20 Image processing apparatus
21 ... Computer
21a ... Operating system
21b ... Printer driver
21c ... Display driver
21d: Image processing application
30. Image output device

Claims (3)

複数の画素からなる実写画像に対して所定の画像処理を行なう画像処理装置であって、
上記実写画像を構成する画素の画像データを該実写画像全体から、所定の基準で均等に間引きしつつ、均等に入力する入力手段と、
上記実写画像の全体から間引きしつつ入力された画像データに基づいて画素毎の輝度の分布を示すヒストグラムを上記実写画像全体を代表する特徴量として抽出する特徴量抽出手段と、
上記実写画像全体を代表する上記特徴量に対して、上記画像処理の対象となる画像を所定の基準で複数に分割する各領域毎に予め設定された重み付け係数を用いた評価である再評価を行ない、上記実写画像全体に対する再評価された特徴量を求める特徴量再評価手段と、
該再評価された特徴量に基づいて、画像の明るさおよびコントラストの少なくとも一つを補正する処理を内容とする画像処理を決定する処理内容決定手段と、
該決定された内容での画像処理を、上記実写画像の画像データ全体に対して実施する処理手段と
を備え、
上記特徴量再評価手段は、上記特徴量の再評価において他の領域より大きな重みで評価すべき領域については、他の領域に設定された重み付け係数より大きな重み付けがなされた重み付け係数を設定して、上記再評価を行なう
像処理装置。
An image processing apparatus that performs predetermined image processing on a real image composed of a plurality of pixels,
The image data of the pixels constituting the photographed image, from the entire said real image, an input unit while uniformly thinned by a predetermined reference, entering evenly,
Based on the image data inputted while thinning the whole of the photographed image, and feature extraction means for extracting a histogram showing the distribution of brightness of each pixel as the feature representing the entire the photographed image,
Re-evaluation, which is an evaluation using a weighting coefficient set in advance for each region that divides the image to be subjected to the image processing into a plurality of parts based on a predetermined reference, with respect to the feature amount representing the entire photographed image. row stomach, a feature amount revaluation unit for obtaining the feature amount reevaluated for the entire the photographed image,
Processing content determination means for determining image processing including processing for correcting at least one of brightness and contrast of an image based on the reevaluated feature amount;
The image processing according to the content the determined, e Bei and processing means for implementing the entire image data of the photographed image,
The feature amount re-evaluation means sets a weighting factor that is weighted more than the weighting factor set in the other region for the region to be evaluated with a larger weight than the other region in the re-evaluation of the feature amount. , Re-evaluate
Images processing device.
複数の画素からなる実写画像に対して所定の画像処理を行なう方法であって、
上記実写画像を構成する画素の画像データを、上記実写画像を構成する全画素に対して所定の基準で均等に間引きして選択的に入力し、
上記実写画像の全体から間引きしつつ入力された画像データに基づいて画素毎の輝度の分布を示すヒストグラムを上記実写画像全体を代表する特徴量として抽出し、
上記画像処理の対象となる画像を所定の基準で複数に分割する各領域毎に、画像における該領域の位置に応じて設定された重み付け係数を予め記憶し、
上記実写画像全体を代表する上記特徴量に対して、上記複数の重み付け係数を用いた評価である再評価を行ない、上記実写画像全体に対する再評価された特徴量を求め、
該再評価された特徴量に基づいて、画像の明るさおよびコントラストの少なくとも一つを補正する処理を内容とする画像処理を決定し、
該決定された内容での画像処理を、上記実写画像の画像データ全体に対して実施し、
上記特徴量の再評価において他の領域より大きな重みで評価すべき領域については、他の領域に設定された重み付け係数より大きな重み付けがなされた重み付け係数を記憶しており、該記憶している重み付け係数を用いて上記再評価を行なう
画像処理方法。
A method for performing predetermined image processing on a live-action image composed of a plurality of pixels,
The image data of the pixels constituting the live-action image is selectively input by thinning evenly on a predetermined basis with respect to all the pixels constituting the live-action image,
Based on the image data inputted while thinning the whole of the photographed image, and extracts a histogram indicating a distribution of luminance of each pixel as the feature representing the entire the photographed image,
For each region that divides the image subject to image processing into a plurality of predetermined criteria, a weighting coefficient set in accordance with the position of the region in the image is stored in advance.
Re-evaluation, which is an evaluation using the plurality of weighting factors, is performed on the feature amount representing the entire photographed image , and the reevaluated feature amount for the entire photographed image is obtained.
Based on the reevaluated feature amount, image processing including processing for correcting at least one of brightness and contrast of the image is determined,
The image processing with the determined content is performed on the entire image data of the real image ,
For the area to be evaluated with a greater weight than the other areas in the reevaluation of the feature amount, a weighting coefficient that is weighted more than the weighting coefficient set in the other area is stored, and the stored weighting An image processing method for performing reevaluation using a coefficient .
複数の画素からなる実写画像に対して行なわれる所定の画像処理に対応したプログラムをコンピュータにより読み取り可能に記録した記録媒体であって、
上記実写画像を構成する画素の画像データを、上記実写画像を構成する全画素に対して所定の基準で均等に間引きして選択的に入力する機能と、
上記実写画像の全体から間引きしつつ入力された画像データに基づいて画素毎の輝度の分布を示すヒストグラムを上記実写画像全体を代表する特徴量として抽出する機能と、
上記実写画像全体を代表する上記特徴量に対して、上記画像処理の対象となる画像を所定の基準で複数に分割する各領域毎に予め用意された重み付け係数を用いた評価である再評価を行ない、上記実写画像全体に対する再評価され特徴量を求める機能と、
該再評価された特徴量に基づいて、画像の明るさおよびコントラストの少なくとも一つを補正する処理を内容とする画像処理を決定する機能と、
該決定された内容での画像処理を、上記実写画像の画像データ全体に対して実施する機能と
をコンピュータにより実現するプログラムを記録し、
上記再評価された特徴量を求める機能は、上記特徴量の再評価において他の領域より大きな重みで評価すべき領域については、他の領域に設定された重み付け係数より大きな重み付けがなされた重み付け係数を設定して、上記再評価を行なう機能である
記録媒体。
A recording medium in which a program corresponding to predetermined image processing performed on a real image composed of a plurality of pixels is recorded so as to be readable by a computer,
A function for selectively inputting image data of pixels constituting the live-action image by thinning evenly on a predetermined basis with respect to all pixels constituting the live-action image;
Based on the image data inputted while thinning the whole of the photographed image, a function of extracting a histogram showing the distribution of brightness of each pixel as the feature representing the entire the photographed image,
With respect to the feature quantity that represents the entire above photographed image is the assessment using weighted with coefficients prepared in advance for each of the regions for dividing the image to be the image processing into a plurality at a predetermined reference again evaluation rows that have and a function of obtaining the feature amount is reevaluated for the entire the photographed image,
A function for determining image processing including processing for correcting at least one of brightness and contrast of an image based on the reevaluated feature amount;
A program for realizing, by a computer, a function for executing the image processing with the determined contents on the entire image data of the photographed image,
The function for obtaining the re-evaluated feature value is a weighting coefficient that is weighted more than the weighting coefficient set in the other area for the area to be evaluated with a larger weight than the other area in the re-evaluation of the feature value. A recording medium which is a function for performing the above-described reevaluation .
JP16015997A 1997-06-09 1997-06-17 Image processing apparatus, image processing method, and medium on which image processing control program is recorded Expired - Lifetime JP4019204B2 (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP16015997A JP4019204B2 (en) 1997-06-17 1997-06-17 Image processing apparatus, image processing method, and medium on which image processing control program is recorded
EP10158002A EP2199973A3 (en) 1997-06-09 1998-06-08 An image processing apparatus and method, and an image evaluation device and method
US09/093,094 US6738527B2 (en) 1997-06-09 1998-06-08 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, and image evaluation method and a medium on which an image evaluation program is recorded
EP98304509A EP0891075A3 (en) 1997-06-09 1998-06-08 An image processing apparatus and method, and an image evaluation device and method
US10/742,718 US7259894B2 (en) 1997-06-09 2003-12-22 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/491,278 US7940426B2 (en) 1997-06-09 2006-07-24 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/491,305 US7755801B2 (en) 1997-06-09 2006-07-24 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/739,858 US7508548B2 (en) 1997-06-09 2007-04-25 Image processing method and image processing apparatus
US13/081,027 US8553285B2 (en) 1997-06-09 2011-04-06 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US13/455,575 US8867099B2 (en) 1997-06-09 2012-04-25 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US13/719,602 US8681380B2 (en) 1997-06-09 2012-12-19 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16015997A JP4019204B2 (en) 1997-06-17 1997-06-17 Image processing apparatus, image processing method, and medium on which image processing control program is recorded

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2002208431A Division JP3573143B2 (en) 2002-07-17 2002-07-17 Image processing apparatus, image processing method, medium recording image processing control program
JP2002215392A Division JP3558073B2 (en) 2002-07-24 2002-07-24 Image processing apparatus, image processing method, medium recording image processing control program

Publications (2)

Publication Number Publication Date
JPH118768A JPH118768A (en) 1999-01-12
JP4019204B2 true JP4019204B2 (en) 2007-12-12

Family

ID=15709152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16015997A Expired - Lifetime JP4019204B2 (en) 1997-06-09 1997-06-17 Image processing apparatus, image processing method, and medium on which image processing control program is recorded

Country Status (1)

Country Link
JP (1) JP4019204B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002204353A (en) 2000-12-28 2002-07-19 Fujitsu Ltd Estimation method for image state, method for image correction and correction apparatus
JP4499317B2 (en) * 2001-08-01 2010-07-07 オリンパス株式会社 Image processing system
US7620246B2 (en) 2002-07-30 2009-11-17 Fujifilm Corporation Method and apparatus for image processing
JP4151387B2 (en) 2002-11-15 2008-09-17 セイコーエプソン株式会社 Automatic image quality adjustment according to subject brightness
JP4526445B2 (en) 2005-06-15 2010-08-18 オリンパス株式会社 Imaging device
WO2008004439A1 (en) 2006-07-06 2008-01-10 Nikon Corporation Gradation correction characteristic evaluation device, image processing device, gradation correction characteristic evaluation method, image processing method, gradation correction characteristic evaluation program, and image processing program
JP4761560B2 (en) * 2006-10-12 2011-08-31 キヤノン株式会社 Image signal processing apparatus and image signal processing method
JP4640850B2 (en) * 2007-10-12 2011-03-02 富士通株式会社 Image processing program
JP4697987B2 (en) * 2009-01-22 2011-06-08 キヤノン株式会社 Image processing apparatus and method
JP2010027077A (en) * 2009-11-02 2010-02-04 Seiko Epson Corp Camera, and method and program for adjusting image brightness
JP4865916B2 (en) * 2011-02-04 2012-02-01 キヤノン株式会社 Image processing apparatus and method

Also Published As

Publication number Publication date
JPH118768A (en) 1999-01-12

Similar Documents

Publication Publication Date Title
US8553285B2 (en) Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US6539111B2 (en) Image processing system, image processing method, and medium having an image processing control program recorded thereon
JP4019204B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JPH10198802A (en) Image processor, image processing method, and medium recording image processing program
JP4243362B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JPH11146219A (en) Image processing device and method and medium recording image processing program
JP4692683B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3921737B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3573143B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3558073B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3501151B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3705250B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3570416B2 (en) Image processing apparatus, image processing method, and medium recording image processing control program
JP3731573B2 (en) Image processing apparatus, image evaluation apparatus, image processing method, image evaluation method, and recording medium recording image processing program
JP2003069828A (en) Image processor, image processing method and medium having image processing program recorded thereon
JP5029779B2 (en) Image processing method, medium storing image processing program, and image processing apparatus
JPH11136514A (en) Picture processor, picture processing method and medium recording picture processing control program
JP4475316B2 (en) Image processing apparatus, recording medium storing image processing program, and image processing method
JP4941575B2 (en) Image processing method, medium storing image processing program, and image processing apparatus
JP3458855B2 (en) Image processing apparatus, image processing method, and medium recording image processing control program
JP2003069827A (en) Image processor, image processing method and medium having image processing program recorded thereon
JP2003069826A (en) Image processor, image processing method and medium having image processing program recorded thereon
JP2003085552A (en) Device and method for processing image and memory medium with image processing program recoded
JP2003085552A5 (en)
JP2008245321A (en) Image processing apparatus, image processing method, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070518

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070910

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111005

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121005

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121005

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131005

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term