[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4557087B2 - Image processing apparatus, image processing method, and recording medium - Google Patents

Image processing apparatus, image processing method, and recording medium Download PDF

Info

Publication number
JP4557087B2
JP4557087B2 JP2009142465A JP2009142465A JP4557087B2 JP 4557087 B2 JP4557087 B2 JP 4557087B2 JP 2009142465 A JP2009142465 A JP 2009142465A JP 2009142465 A JP2009142465 A JP 2009142465A JP 4557087 B2 JP4557087 B2 JP 4557087B2
Authority
JP
Japan
Prior art keywords
image
evaluation
image data
sampling
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2009142465A
Other languages
Japanese (ja)
Other versions
JP2009205699A (en
JP2009205699A5 (en
Inventor
直樹 鍬田
至宏 中見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009142465A priority Critical patent/JP4557087B2/en
Publication of JP2009205699A publication Critical patent/JP2009205699A/en
Publication of JP2009205699A5 publication Critical patent/JP2009205699A5/ja
Application granted granted Critical
Publication of JP4557087B2 publication Critical patent/JP4557087B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、デジタル写真画像のような実写の画像データに基づいて画像を評価する画像評価方法、画像評価プログラムを記録した媒体および画像評価装置に関する。   The present invention relates to an image evaluation method for evaluating an image based on actual image data such as a digital photographic image, a medium on which an image evaluation program is recorded, and an image evaluation apparatus.

ディジタル写真画像のような実写の画像データに対して各種の画像処理が行われている。例えば、コントラストを拡大するとか、色調を補正するとか、明るさを補正するといった画像処理である。これらの画像処理は、通常、マイクロコンピュータで実行可能となっており、操作者がモニタ上で画像を確認して必要な画像処理を選択したり、画像処理のパラメータなどを決定している。すなわち、画像の特徴を操作者が判定して各種の操作を選択したり実行している。   Various types of image processing are performed on real image data such as digital photographic images. For example, image processing such as increasing the contrast, correcting the color tone, or correcting the brightness. Such image processing is normally executable by a microcomputer, and an operator confirms an image on a monitor and selects necessary image processing, or determines image processing parameters. That is, the operator determines the characteristics of the image and selects or executes various operations.

近年、画像処理の技法については各種のものが提案され、実際に効果を発揮している。しかしながら、どの技法でどの程度の処理を行うかとなると、依然、人間が関与しなければならない。これは、画像処理の対象となるディジタル画像データにおいて、どこが重要であるのかを判断することができなかったためである。   In recent years, various image processing techniques have been proposed and are actually effective. However, humans must still be involved when it comes to how much processing is performed with which technique. This is because it has not been possible to determine what is important in the digital image data to be subjected to image processing.

例えば、明るさを補正する画像処理を考えた場合、画面全体の平均が暗ければ明るく補正し、逆に平均が明るければ暗く補正するという自動処理を考えたとする。ここで、夜間撮影した人物像の実写の画像データがあるとする。背景は殆ど真っ暗に近いものの、人物自体は良好に撮影できていたとする。この実写の画像データを自動補正すると、背景が真っ暗であるがために明るく補正しようとしてしまい、昼間の画像のようになってしまうことになる。   For example, when image processing for correcting brightness is considered, it is assumed that automatic processing is performed in which bright correction is performed when the average of the entire screen is dark, and dark correction is performed when the average is bright. Here, it is assumed that there is actual image data of a human image taken at night. Although the background is almost completely dark, it is assumed that the person was able to photograph well. If this live-action image data is automatically corrected, the background will be completely dark and will be corrected brightly, resulting in a daytime image.

この場合、人間が関与していれば人物像の部分だけに注目する。そして、人物像が暗ければ少し明るく補正するし、逆に、フラッシュなどの効果で明る過ぎれば暗くする補正を選択する。   In this case, if a person is involved, focus only on the portion of the person image. Then, a correction is selected so that the person image is slightly brighter if the person image is dark, and conversely, if the person image is too bright due to an effect such as flash.

本出願人は、このような課題に鑑みて、画像の中での重要な部分を判断する発明を提案している。同発明においては、画像のシャープな部分に本来の被写体(オブジェクト)が存在しているはずであると考え、各画素での画像の変化度合いに着目して同変化度合いの大きな画素をオブジェクトと判断している。   In view of such a problem, the present applicant has proposed an invention for determining an important part in an image. In the present invention, it is assumed that the original subject (object) should exist in a sharp portion of the image, and pixels with a large degree of change are determined as objects by paying attention to the degree of change in the image at each pixel. is doing.

しかしながら、画像のシャープな部分があるにしても同部分の面積は小さく背景部分を基準にした画像処理が好ましい場合もあり、一つの評価基準だけでは偏りが生じる可能性があった。また、いずれの評価基準を採用すべきかを判定する必要性は依然として残ったままであった。   However, even if there is a sharp part of the image, the area of the part is small, and image processing based on the background part may be preferable, and there is a possibility that deviation occurs only with one evaluation standard. In addition, there still remained a need to determine which evaluation criteria should be adopted.

本発明は、上記課題にかんがみてなされたもので、画像処理の前提として画像を評価するにあたり、柔軟に対応して画像評価結果を利用しやすくすることが可能な画像評価方法、画像評価プログラムを記録した媒体および画像評価装置の提供を目的とする。   The present invention has been made in view of the above problems. An image evaluation method and an image evaluation program that can flexibly make it easy to use an image evaluation result when evaluating an image as a premise of image processing. An object is to provide a recorded medium and an image evaluation apparatus.

上記目的を達成するため、本発明の画像処理装置は、
画像データを評価する画像処理装置であって、
画像データを入力する画像データ入力手段と、
前記画像データに含まれる画素を、画像に含まれる被写体の状況により決定可能な画像の評価基準として予め用意された複数の前記評価基準に対応した複数のサンプリング手法で抽出して、該サンプリング手法ごとの集計結果を求める集計手段と、
前記複数の評価基準の一つを確定し該確定した評価基準での画像評価を意図する第1手法と、前記複数の評価基準の確定を経ないで画像評価を意図する第2手法とを選択する画像評価入力手段と、
記第1手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数の評価基準から確定された評価基準に対応して定めた重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価し、記第2手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数のサンプリング手法ごとの前記集計結果を用いて算出した重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価する画像評価手段と
を備えたことを特徴とする。
In order to achieve the above object, an image processing apparatus of the present invention provides:
An image processing apparatus for evaluating image data,
Image data input means for inputting image data;
The pixels included in the image data, extract with multiple sampling method corresponding to a plurality of the evaluation criterion prepared in advance as a criterion determinable image the circumstances of an object included in the image, the sampling technique A counting means for obtaining a counting result for each,
A first approach the intended image evaluation in the plurality of commentary divalent group criteria for confirmed one evaluation criteria the determined, a second method intended for image evaluation without going through determination of the plurality of evaluation criteria Image evaluation input means for selecting,
When the front Symbol first approach is selected, the plurality of the counting result for each sampling method, summed with weighting defined corresponding to the determined criteria from the plurality of evaluation criteria, and the sum to evaluate the image data on the basis of the summation result of the counting result, the pre-Symbol second approach is chosen, the counting result for each of the plurality of sampling techniques, using the counting result for each of the plurality of sampling techniques summed with the weighted calculated Te, characterized in that a picture image evaluation means for evaluating the image data on the basis of the summation result of the counting result obtained by the sum.

上記のように構成した請求項1にかかる発明においては、画像データを入力し、各画素の画像データに含まれる画素を、画像に含まれる被写体の状況により決定可能な画像の評価基準として予め用意された複数の前記評価基準に対応した複数のサンプリング手法で抽出して、該サンプリング手法ごとの集計結果を求める。そして、前記複数の評価基準の一つを確定し該確定した評価基準での画像評価を意図する第1手法と、前記複数の評価基準の確定を経ないで画像評価を意図する第2手法のいずれかを選択し、第1手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数の評価基準から確定された評価基準に対応して定めた重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価し、記第2手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数のサンプリング手法ごとの前記集計結果を用いて算出した重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価する。 In the invention according to claim 1 configured as described above, image data is input, and pixels included in the image data of each pixel are prepared in advance as image evaluation criteria that can be determined according to the condition of the subject included in the image. It has been extracted by the sampling method of multiple corresponding to a plurality of the evaluation criteria to determine the counting result for each said sampling technique. Then, a first approach the intended image evaluation in the plurality of commentary divalent group criteria for confirmed one evaluation criteria the determined second intended image evaluation without going through determination of the plurality of evaluation criteria When any one of the methods is selected and the first method is selected , the aggregation result for each of the plurality of sampling methods is determined using a weight determined in accordance with the evaluation criteria determined from the plurality of evaluation criteria. summed to evaluate image data based on the summation result of the summed said counting result, the pre-Symbol second approach is chosen, the counting result for each of the plurality of sampling techniques, each of the plurality of sampling techniques the aggregation result summed with a weighting calculated using the, we evaluate the image data on the basis of the summation result of the counting result obtained by the sum.

すなわち、ポートレートのように画像のシャープな被写体をオブジェクトとして当該画像を評価するのに適当な評価基準もあれば、背景を重要なオブジェクトとして当該画像を評価するのに適当な評価基準もあり、これらの複数の評価基準に基づいて集計結果を求め、その求めた集計結果に基づいて、自動処理により画像データを評価する。 In other words, there are appropriate evaluation criteria for evaluating the image with a sharp subject of the image as an object, such as portrait, and there are also appropriate evaluation criteria for evaluating the image with the background as an important object, calculated count results based on these plurality of evaluation criteria, on the basis of the determined total result, evaluating the image data by an automatic processor.

ここで、集計結果は画像の特徴などを判定するのに使用可能なものであればよく、具体的に画像の種類を特定するような結果が得られる必要はない。例えば、画像を明るいと判定するか暗いと判定するかといった場合の輝度のヒストグラムなどといった指標も含むものであり、明るい画像であるとか暗い画像であるといった判定結果が得られる必要はない。むろん、明暗以外にも画像がシャープであるか否かの指標であるとか、鮮やかさを判断する際の指標であってもよい。 Here, the total result may be anything that can be used to determine the characteristics of the image, and it is not necessary to obtain a result that specifically identifies the type of the image. For example, it includes an index such as a luminance histogram when determining whether an image is bright or dark, and it is not necessary to obtain a determination result that the image is a bright image or a dark image. Of course, in addition to brightness and darkness, it may be an index as to whether an image is sharp or may be an index for determining vividness.

集計結果に対して複数の評価基準を適用するためには、実質的に同様の目的を達するさまざまな手法を採用可能である。例えば、全画素について個別の評価基準で重み付けを与えて集計することもその一例である。但し、全画素について集計すると処理量が多くなるので、そのような状況に対して好適な一例として、上記画像データについて所定の基準で間引いて集計するにあたり、複数の評価基準に基づくサンプリングを行って集計するとともに、それぞれの集計結果を所定の重み付けで合算することもできる。 In order to apply a plurality of evaluation criteria to the aggregated results, various methods that achieve substantially the same purpose can be adopted. For example, it is an example that all the pixels are weighted according to individual evaluation criteria and aggregated. However, since the amount of processing to be aggregated over all the pixels is increased, performed as a preferable example for such a situation, the upper Symbol image data Upon aggregate thinned out at a predetermined criteria, the sampling based on multiple criteria with aggregate Te may Rukoto to summing respective counting result with a predetermined weighting.

計する前提として画像データをサンプリングすれば、このサンプリングの仕方に対する基準を変えることによって結果的に複数の基準を採用することとなり、さらに、それぞれの集計結果の重み付けを調整して合算することにより、結果的に複数の評価基準に基づく評価結果に対してそれぞれ重み付けを持たせて評価したことに対応する。 If sampled image data assuming that aggregated, by changing the criteria for how this sampling result to be able to adopt a plurality of reference, further, by summing by adjusting the weighting of each counting result As a result, the evaluation results based on the plurality of evaluation criteria are respectively weighted and evaluated.

このようなサンプリング手法の基本的な一例として、一のサンプリング手法が均等にサンプリングして集計する構成としてある。 As a basic example of such a sampling method , one sampling method is configured to uniformly sample and aggregate.

上記のようにすれば、画像データが均等に間引かれるが、画像を全体的に捉えることになるので、風景写真などの判定に適した評価基準と言える。 In this way, the image data is thinned out evenly, but the image is captured as a whole, so it can be said that it is an evaluation criterion suitable for determination of landscape photographs and the like.

一方、サンプリング手法を採用する場合と採用しない場合のいずれにも適用可能な評価基準の一例として、一の評価基準が各画素における隣接画素との変化度合いが大きい画素について評価を重くして集計するようにできる。 On the other hand, as an example of an evaluation standard that can be applied both when the sampling method is used and when it is not used , one evaluation standard is aggregated by weighting evaluations for pixels with a large degree of change from adjacent pixels in each pixel. You can make it.

上記のように構成した場合、各画素における隣接画素との変化度合いを検出し、変化度合いが大きい画素をサンプリングして集計するサンプリング手法を用いて集計することにより、結果的に変化度合いの大きいはっきりした画像部分を集計することになる。 When configured as described above, detects a degree of change between adjacent pixels in each pixel, by aggregated larger picture element is varied degree using sampling techniques to aggregate by sampling, as a result, the degree of change It made a clear image portions large and the child aggregation.

この評価基準は画像のシャープな部分に重きをおいて評価するので、人物像などの画像を判定するのに好適なことはいうまでもない。ここで変化度合いが大きい画像に評価の重きをおく手法には、集計しながら重み付けを代えるものであってもよいし、変化度合いの大きい画素だけについて集計するといったものでもよい。   Since this evaluation criterion is evaluated with emphasis on sharp portions of the image, it goes without saying that it is suitable for determining an image such as a human image. Here, as a method of placing an emphasis on evaluation on an image having a large degree of change, weighting may be changed while counting, or only pixels having a large degree of change may be totaled.

評価基準の重み付けは必ずしも固定的でなければならないわけではなく、各評価基準に対する重み付けを変更可能に構成できる。 Weighting of evaluation criteria is not necessarily must necessarily fixed, it can be configuration changes the weights for each criterion.

上記のようにそれぞれの評価基準に対する重み付けを変更することにより、画像に対応した総合評価結果を導き出すことが可能となる。この場合、それぞれの重み付けを個別に変更するものであるとか、複数の組合せを予め用意しておき、その組合せを選択するというものなど各種の態様が含まれる。 By changing the weights for evaluation criteria as described above Niso respectively, it is possible to derive the overall evaluation result corresponding to the image. In this case, various aspects are included, such as changing each weight individually, or preparing a plurality of combinations in advance and selecting the combinations.

また、このような重み付けの変更自体を操作者が行うのではなく、画像データに基づいて実現することも含まれ、その一例として、各評価基準に基づく評価結果に基づいて当該評価結果の重み付けを変化させる構成としてある。 In addition, the change of weighting itself is not performed by the operator but is realized based on image data. As an example , the weighting of the evaluation result is performed based on the evaluation result based on each evaluation criterion. The configuration is changed.

上記のように構成すれば、各評価基準で評価結果を得て、その評価結果からそれぞれの評価基準の適応性など勘案して当該評価結果の重み付けを変化させる。 If configuration as described above, to obtain the evaluation results in the evaluation criteria, taking into consideration such adaptability respective evaluation criteria from the evaluation result to change the weighting of the evaluation results.

評価結果を使用して評価基準の重み付けを変える際にもさまざまな手法を採用可能であり、例えば、ある評価基準で各画素の画像データを上述したサンプリングの対象とするか否かを判断するとすれば、その画素数を一つの評価基準とし、画素数が多い場合に重み付けを重くするといったことも含まれる。   Various methods can also be adopted when changing the weighting of the evaluation criteria using the evaluation results. For example, it is assumed that it is determined whether or not the image data of each pixel is to be subjected to the above-described sampling based on a certain evaluation criteria. For example, the number of pixels is used as one evaluation criterion, and weighting is increased when the number of pixels is large.

以上のような手法で画像を評価する発明の思想は、各種の態様を含むものである。すなわち、ハードウェアで実現されたり、ソフトウェアで実現されるなど、適宜、変更可能である。   The idea of the invention for evaluating an image by the above-described method includes various aspects. That is, it can be changed as appropriate, for example, by hardware or by software.

発明の思想の具現化例として画像処理するソフトウェアとなる場合には、かかるソフトウェアを記録したソフトウェア記録媒体上においても当然に存在し、利用されるといわざるをえない。   In the case of software for image processing as an embodiment of the idea of the invention, it naturally exists on a software recording medium in which such software is recorded, and must be used.

例えば、本発明は、画像処理方法としては、画像データを入力し、前記画像データに含まれる画素を、画像に含まれる被写体の状況により決定可能な画像の評価基準として予め用意された複数の前記評価基準に対応した複数のサンプリング手法で抽出して、該サンプリング手法ごとの集計結果を求め、前記複数の評価基準の一つを確定し該確定した評価基準での画像評価を意図する第1手法と、前記複数の評価基準の確定を経ないで画像評価を意図する第2手法との選択を待機し、前記第1手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数の評価基準から確定された評価基準に対応して定めた重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価し、記第2手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数のサンプリング手法ごとの前記集計結果を用いて算出した重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価する画像処理方法を考えることができる。また、記録媒体の発明としては、コンピュータに、画像データを入力する画像データ入力機能と、前記画像データに含まれる画素を、画像に含まれる被写体の状況により決定可能な画像の評価基準として予め用意された複数の前記評価基準に対応した複数のサンプリング手法で抽出して、該サンプリング手法ごとの集計結果を求める集計機能と、前記複数の評価基準の一つを確定し該確定した評価基準での画像評価を意図する第1手法と、前記複数の評価基準の確定を経ないで画像評価を意図する第2手法とを選択する画像評価入力機能と、前記第1手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数の評価基準から確定された評価基準に対応して定めた重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価し、記第2手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数のサンプリング手法ごとの前記集計結果を用いて算出した重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価する画像評価機能と、を実現させる画像処理プログラムを記録した記録媒体として、本発明を把握することもできる。 For example, the present invention provides an image processing method in which image data is input and pixels included in the image data are prepared in advance as a plurality of image evaluation criteria that can be determined according to the state of a subject included in the image. extracted with multiple sampling method corresponding to the evaluation criteria, determine the counting result for each said sampling method, to confirm the one of the plurality of commentary diradical quasi intended image evaluation of the evaluation criteria the determined a first approach, waiting for selection of a second method intended for image evaluation without going through the confirmation of the plurality of evaluation criteria, the pre-Symbol first approach is selected, said each of the plurality of sampling techniques the aggregation result, summed with weighting defined corresponding to the determined criteria from the plurality of evaluation criteria, on the basis of the summation result of the summed said counting result to evaluate the image data, before Symbol second technique is selected Once, the counting result for each of the plurality of sampling techniques, summed with the weighted calculated using the counting result for each of the plurality of sampling techniques, based on the summation result of the counting result obtained by the sum images processing method of evaluating the image data may be considered. Further, according to the invention of the recording medium, an image data input function for inputting image data and a pixel included in the image data are prepared in advance as an image evaluation standard that can be determined according to the condition of a subject included in the image. extracted with multiple sampling method corresponding to a plurality of the criteria is, the aggregation function of obtaining an aggregate result for each said sampling method, assessment to confirm the one of the plurality of commentary divalent group quasi was the established a first approach the intended image evaluation of the reference, the second image evaluation input function of selecting the method, before Symbol first approach intended image evaluation without going through the confirmation of the plurality of evaluation criteria are selected that the, the counting result for each of the plurality of sampling techniques, summed with weighting determined in accordance with the valuation criteria determined from the plurality of evaluation criteria, the counting result obtained by the sum To evaluate the image data based on the calculation result, the previous SL second approach is chosen, the counting result for each of the plurality of sampling method was calculated using the counting result for each of the plurality of sampling techniques weighting It summed with, as a recording medium recording an image processing program for realizing a picture image evaluation function of evaluating the image data on the basis of the summation result of the counting result obtained by the sum, and it is possible to grasp the present invention .

むろん、その記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなるソフトウェア記録媒体においても全く同様に考えることができる。また、一次複製品、二次複製品などの複製段階については全く問う余地無く同等である。その他、供給方法として通信回線を利用して行う場合でも本発明が利用されていることには変わりないし、半導体チップに書き込まれたようなものであっても同様である。   Of course, the recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any software recording medium to be developed in the future. In addition, the duplication stages such as the primary duplication product and the secondary duplication product are equivalent without any question. In addition, even when the communication method is used as a supply method, the present invention is not changed, and the same applies to the case where data is written on a semiconductor chip.

さらに、一部がソフトウェアであって、一部がハードウェアで実現されている場合においても発明の思想において全く異なるものはなく、一部をソフトウェア記録媒体上に記憶しておいて必要に応じて適宜読み込まれるような形態のものとしてあってもよい。   Furthermore, even when a part is software and a part is realized by hardware, there is no difference in the idea of the invention, and a part is stored on a software recording medium as needed. It may be in a form that is read appropriately.

本発明の一実施形態にかかる画像処理装置を適用した画像処理システムのブロック図である。1 is a block diagram of an image processing system to which an image processing apparatus according to an embodiment of the present invention is applied. 同画像処理装置の具体的ハードウェアのブロック図である。2 is a block diagram of specific hardware of the image processing apparatus. FIG. 本発明の画像処理装置の他の適用例を示す概略ブロック図である。It is a schematic block diagram which shows the other application example of the image processing apparatus of this invention. 本発明の画像処理装置の他の適用例を示す概略ブロック図である。It is a schematic block diagram which shows the other application example of the image processing apparatus of this invention. 本発明の画像処理装置における画像評価処理部分を示すフローチャートである。It is a flowchart which shows the image evaluation process part in the image processing apparatus of this invention. 画像データの大きさと処理対象画素を移動させていく状態を示す図である。It is a figure which shows the state which moves the magnitude | size of image data, and a process target pixel. 画像の変化度合いを直交座標の各成分値で表す場合の説明図である。It is explanatory drawing in the case of representing the change degree of an image with each component value of a rectangular coordinate. 画像の変化度合いを縦軸方向と横軸方向の隣接画素における差分値で求める場合の説明図である。It is explanatory drawing in the case of calculating | requiring the change degree of an image with the difference value in the adjacent pixel of a vertical axis | shaft direction and a horizontal axis direction. 隣接する全画素間で画像の変化度合いを求める場合の説明図である。It is explanatory drawing in the case of calculating | requiring the change degree of an image between all the adjacent pixels. しきい値を変化させる領域を示す図である。It is a figure which shows the area | region which changes a threshold value. サンプリング周期を示す図である。It is a figure which shows a sampling period. サンプリング画素数を示す図である。It is a figure which shows the number of sampling pixels. 変換元の画像とサンプリングされる画素の関係を示す図である。It is a figure which shows the relationship between the image of the conversion origin, and the pixel sampled. 画像評価オプションの入力画面を示す図である。It is a figure which shows the input screen of an image evaluation option. 個別のサンプリング結果を重み付けを変えて合算する状況を示す図である。It is a figure which shows the condition which adds together an individual sampling result, changing weighting. 画像評価処理の後段と画像処理部分を示すフローチャートである。It is a flowchart which shows the back | latter stage and image processing part of an image evaluation process. 輝度分布の端部処理と端部処理にて得られる端部を示す図である。It is a figure which shows the edge part obtained by the edge part process and edge part process of luminance distribution. 輝度分布の拡大と再現可能な輝度の範囲を示す図である。It is a figure which shows the range of the expansion of luminance distribution, and the reproducible luminance. 輝度分布を拡大する際の変換テーブルを示す図である。It is a figure which shows the conversion table at the time of enlarging luminance distribution. γ補正で明るくする概念を示す図である。It is a figure which shows the concept brightened by (gamma) correction. γ補正で暗くする概念を示す図である。It is a figure which shows the concept darkened by (gamma) correction. γ補正で変更される輝度の対応関係を示す図である。It is a figure which shows the correspondence of the brightness | luminance changed by (gamma) correction. 彩度強調する場合のフローチャートである。It is a flowchart in the case of carrying out saturation emphasis. 彩度分布の集計状態の概略図である。It is the schematic of the total state of saturation distribution. 彩度Aと彩度強調指数Sとの関係を示す図である。It is a figure which shows the relationship between the saturation A and the saturation emphasis index S. エッジ強調する場合のフローチャートである。It is a flowchart in the case of edge emphasis. 5×5画素のアンシャープマスクを示す図である。It is a figure which shows a 5x5 pixel unsharp mask.

以下、図面にもとづいて本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態にかかる画像評価方法を実行して画像処理する画像処理システムをブロック図により示しており、図2は具体的ハードウェア構成例を概略ブロック図により示している。   FIG. 1 is a block diagram illustrating an image processing system that performs image processing by executing an image evaluation method according to an embodiment of the present invention. FIG. 2 is a schematic block diagram illustrating a specific hardware configuration example. .

図1において、画像入力装置10は写真などをドットマトリクス状の画素として表した実写の画像データを画像処理装置20へ出力し、同画像処理装置20は所定の処理を経て画像データを集計して評価結果を求め、同評価結果に基づいて画像処理の内容と程度を決定してから画像処理を実行する。同画像処理装置20は画像処理した画像データを画像出力装置30へ出力し、画像出力装置は画像処理された画像をドットマトリクス状の画素で出力する。   In FIG. 1, an image input device 10 outputs real image data representing a photograph or the like as a dot-matrix pixel to the image processing device 20, and the image processing device 20 aggregates the image data through a predetermined process. An evaluation result is obtained, and the image processing is executed after determining the content and extent of the image processing based on the evaluation result. The image processing apparatus 20 outputs image processed image data to the image output apparatus 30, and the image output apparatus outputs the image processed image with dot matrix pixels.

画像処理装置20は、予め画像データを集計して当該画像に対する評価結果を求めている。この際、複数の評価基準を採用して個別に画像データの集計を行い、所定の条件で重み付けを変化させて合算している。従って、画像処理装置20は、画像データ評価手段を構成する。   The image processing apparatus 20 totals image data in advance and obtains an evaluation result for the image. At this time, a plurality of evaluation criteria are adopted, and the image data is totaled separately, and the weighting is changed under a predetermined condition and added up. Therefore, the image processing apparatus 20 constitutes an image data evaluation unit.

画像入力装置10の具体例は図2におけるスキャナ11やデジタルスチルカメラ12あるいはビデオカメラ14などが該当し、画像処理装置20の具体例はコンピュータ21とハードディスク22とキーボード23とCD−ROMドライブ24とフレキシブルディスクドライブ25とモデム26などからなるコンピュータシステムが該当し、画像出力装置30の具体例はプリンタ31やディスプレイ32等が該当する。本実施形態の場合、画像の不具合等を修正すべく等該画像を評価するため、画像データとしては写真などの実写データが好適である。なお、モデム26については公衆通信回線に接続され、外部のネットワークに同公衆通信回線を介して接続し、ソフトウェアやデータをダウンロードして導入可能となっている。   A specific example of the image input apparatus 10 corresponds to the scanner 11, the digital still camera 12, or the video camera 14 in FIG. 2, and specific examples of the image processing apparatus 20 include a computer 21, a hard disk 22, a keyboard 23, and a CD-ROM drive 24. A computer system including a flexible disk drive 25 and a modem 26 is applicable, and specific examples of the image output apparatus 30 are a printer 31, a display 32, and the like. In the case of the present embodiment, since the image is evaluated so as to correct the defect of the image or the like, actual image data such as a photograph is preferable as the image data. The modem 26 is connected to a public communication line, connected to an external network via the public communication line, and can be installed by downloading software and data.

本実施形態においては、画像入力装置10としてのスキャナ11やデジタルスチルカメラ12が画像データとしてRGB(緑、青、赤)の階調データを出力するとともに、画像出力装置30としてのプリンタ31は階調データとしてCMY(シアン、マゼンダ、イエロー)あるいはこれに黒を加えたCMYKの二値データを入力として必要とするし、ディスプレイ32はRGBの階調データを入力として必要とする。一方、コンピュータ21内ではオペレーティングシステム21aが稼働しており、プリンタ31やディスプレイ32に対応したプリンタドライバ21bやディスプレイドライバ21cが組み込まれている。また、画像処理アプリケーション21dはオペレーティングシステム21aにて処理の実行を制御され、必要に応じてプリンタドライバ21bやディスプレイドライバ21cと連携して所定の画像処理を実行する。   In the present embodiment, the scanner 11 and the digital still camera 12 as the image input device 10 output RGB (green, blue, red) gradation data as image data, and the printer 31 as the image output device 30 has a floor. As the tone data, CMY (cyan, magenta, yellow) or CMYK binary data obtained by adding black to this is required as input, and the display 32 requires RGB gradation data as input. On the other hand, an operating system 21a operates in the computer 21, and a printer driver 21b and a display driver 21c corresponding to the printer 31 and the display 32 are incorporated. The image processing application 21d is controlled by the operating system 21a to execute processing, and executes predetermined image processing in cooperation with the printer driver 21b and the display driver 21c as necessary.

従って、画像処理装置20としてのこのコンピュータ21の具体的役割は、RGBの階調データを入力して画像を評価しつつ最適な画像処理を施したRGBの階調データを作成し、ディスプレイドライバ21cを介してディスプレイ32に表示させるとともに、プリンタドライバ21bを介してCMY(あるいはCMYK)の二値データに変換してプリンタ31に印刷させることになる。   Therefore, the specific role of the computer 21 as the image processing apparatus 20 is to create RGB gradation data that has been subjected to optimum image processing while inputting RGB gradation data and evaluating the image, and the display driver 21c. Is displayed on the display 32 via the printer driver 21b, and is converted into binary data of CMY (or CMYK) via the printer driver 21b and printed on the printer 31.

このように、本実施形態においては、画像の入出力装置の間にコンピュータシステムを組み込んで画像評価と画像処理を行うようにしているが、必ずしもかかるコンピュータシステムを必要とするわけではなく、画像データに対して各種の画像処理を行うシステムに適用可能である。例えば、図3に示すようにデジタルスチルカメラ12a内に画像評価して画像処理する画像処理装置を組み込み、変換した画像データを用いてディスプレイ32aに表示させたりプリンタ31aに印字させるようなシステムであっても良い。また、図4に示すように、コンピュータシステムを介することなく画像データを入力して印刷するプリンタ31bにおいては、スキャナ11bやデジタルスチルカメラ12bあるいはモデム26b等を介して入力される画像データから画像評価して画像処理するように構成することも可能である。   As described above, in this embodiment, a computer system is incorporated between image input / output devices to perform image evaluation and image processing. However, such computer system is not necessarily required, and image data The present invention can be applied to a system that performs various image processing. For example, as shown in FIG. 3, a digital still camera 12a incorporates an image processing device that performs image evaluation and image processing, and displays the converted image data on the display 32a or prints it on the printer 31a. May be. As shown in FIG. 4, in the printer 31b that inputs and prints image data without using a computer system, image evaluation is performed from image data input through the scanner 11b, the digital still camera 12b, the modem 26b, or the like. It is also possible to configure to perform image processing.

上述した画像評価とそれに伴う画像処理は、具体的には上記コンピュータ21内にて図5などに示すフローチャートに対応した画像処理プログラムで行っている。同図に示すフローチャートは画像処理プログラムにおける画像評価の前段部分に該当し、画像データを複数の評価基準で集計して所定の評価結果を得る処理を実行する。   The above-described image evaluation and accompanying image processing are specifically performed by the image processing program corresponding to the flowchart shown in FIG. The flowchart shown in the figure corresponds to the first stage of image evaluation in the image processing program, and executes processing for totaling image data according to a plurality of evaluation criteria to obtain a predetermined evaluation result.

ここで本実施形態において採用する二つの評価基準について説明する。共通するのはいずれも全画素を対象とするのではなく、所定の基準に従って画素を間引くとともに、サンプリングした画素について輝度を集計する点である。また、相違するのは、一方が均等に画素をサンプリングするのに対し、他方がエッジ画素を選択してサンプリングする点である。輝度の集計結果については後述するが、このようにしていわゆるサンプリング手法を変えることにより、画像の評価を変えることができる。均等に画素をサンプリングするというのは画像全体の画素について輝度を集計することに他ならず、画像全体としての画像データの輝度の分布を評価することになるから、風景写真が全体的に暗いとかコントラストが狭いといった評価の参考となる。   Here, two evaluation criteria employed in the present embodiment will be described. What is common is that all pixels are not targeted, but the pixels are thinned out according to a predetermined standard, and the luminance is summed up for the sampled pixels. Also, the difference is that one side samples pixels evenly while the other side selects and samples edge pixels. The result of the luminance aggregation will be described later, but the evaluation of the image can be changed by changing the so-called sampling method in this way. Sampling the pixels evenly means counting the brightness of the pixels of the entire image, and evaluating the distribution of the brightness of the image data as a whole image. This is a reference for evaluation that the contrast is narrow.

一方、エッジ画素は画像のシャープな部分であるから、画像の中でも本来の被写体に関わる画素について輝度を集計することになり、たとえ背景が暗くても被写体が十分な明るさを持っていれば画像の明るさは十分であるといった評価結果が得られることになる。本実施形態においては、操作者による選択あるいは自動処理によってこれら二つの評価基準を適宜組み合わせて画像の判定を行うようにしている。   On the other hand, since the edge pixel is a sharp part of the image, the luminance is counted for the pixels related to the original subject in the image. If the subject has sufficient brightness even if the background is dark, The evaluation result that the brightness of is sufficient is obtained. In this embodiment, an image is determined by appropriately combining these two evaluation criteria by selection by an operator or automatic processing.

図5に示すフローチャートを参照すると、この画像評価処理では、図6に示すようにドットマトリクス状の画素からなる画像データについて対象画素を水平方向に主走査しつつ垂直方向に副走査して移動させ、各画素についてサンプリング対象であるか否かを判断して集計している。   Referring to the flowchart shown in FIG. 5, in this image evaluation process, as shown in FIG. 6, the target pixel of the image data composed of pixels in a dot matrix is moved in the horizontal direction by sub-scanning in the vertical direction. Each pixel is counted based on whether it is a sampling target or not.

画像データがドットマトリクス状の画素から構成されている場合には、各画素ごとに上述したRGBの輝度を表す階調データで表されており、画像のエッジ部分では隣接する画素間での同データの差分は大きくなる。この差分は輝度勾配であり、これをエッジ度と呼ぶことにし、ステップS110では各画素でのエッジ度を判定する。図7に示すようなXY直交座標を考察する場合、画像の変化度合いのベクトルはX軸方向成分とY軸方向成分とをそれぞれ求めれば演算可能となる。   When the image data is composed of pixels in a dot matrix, each pixel is represented by the gradation data representing the RGB brightness described above, and the same data between adjacent pixels at the edge portion of the image. The difference of becomes large. This difference is a luminance gradient, which is referred to as an edge degree. In step S110, the edge degree at each pixel is determined. When considering XY orthogonal coordinates as shown in FIG. 7, the vector of the degree of change of the image can be calculated by obtaining the X-axis direction component and the Y-axis direction component, respectively.

ドットマトリクス状の画素からなるディジタル画像においては、図8に示すように縦軸方向と横軸方向に画素が隣接しており、その明るさをf(x,y)で表すものとする。この場合、f(x,y)はRGBの各輝度であるR(x,y),G(x,y),B(x,y)であったり、あるいは全体の輝度Y(x,y)であってもよい、なお、RGBの各輝度であるR(x,y),G(x,y),B(x,y)と全体の輝度Y(x,y)との関係は、厳密には色変換テーブルなどを参照しなければ変換不能であるが、後述するようにして簡易な対応関係を利用するようにしても良い。   In a digital image composed of dot matrix pixels, as shown in FIG. 8, the pixels are adjacent to each other in the vertical axis direction and the horizontal axis direction, and the brightness is represented by f (x, y). In this case, f (x, y) is R (x, y), G (x, y), B (x, y) that is each luminance of RGB, or the entire luminance Y (x, y). The relationship between R (x, y), G (x, y), and B (x, y), which are RGB luminances, and the overall luminance Y (x, y) is strictly However, conversion is impossible unless a color conversion table or the like is referred to, but a simple correspondence may be used as described later.

図8に示すものにおいて、X方向の差分値fxとY方向の差分値fyは、   In the example shown in FIG. 8, the difference value fx in the X direction and the difference value fy in the Y direction are

Figure 0004557087
Figure 0004557087

のように表される。従って、これらを成分とするベクトルの大きさ   It is expressed as Therefore, the magnitude of the vector with these components

Figure 0004557087
Figure 0004557087

のように表される。むろん、エッジ度はこの|g(x,y)|で表される。なお、本来、画素は図9に示すように縦横に升目状に配置されており、中央の画素に注目すると八つの隣接画素がある。従って、同様にそれぞれの隣接する画素との画像データの差分をベクトルで表し、このベクトルの和を画像の変化度合いと判断しても良い。   It is expressed as Of course, the edge degree is represented by | g (x, y) |. Note that the pixels are originally arranged in a grid pattern vertically and horizontally as shown in FIG. 9, and there are eight adjacent pixels when attention is paid to the center pixel. Accordingly, similarly, the difference between the image data of each adjacent pixel may be represented by a vector, and the sum of the vectors may be determined as the degree of image change.

以上のようにして各画素についてエッジ度が求められるので、あるしきい値と比較してエッジ度の方が大きい画素はエッジ画素と判断すればよい。なお、経験的事実から考察すると、フォーカスが集中する被写体は構図の中央部分に位置することが多い。従って、中央部分から多くの画素が抽出されるような仕組みとすることにより、画像処理の判断に利用したときにより好ましい効果を得られる。   Since the edge degree is obtained for each pixel as described above, a pixel having a higher edge degree than a certain threshold value may be determined as an edge pixel. Considering empirical facts, the subject on which the focus is concentrated is often located at the center of the composition. Therefore, by adopting a mechanism in which a large number of pixels are extracted from the central portion, a more favorable effect can be obtained when it is used for determination of image processing.

このため、図10に示すように、画像の中の部分毎に比較するしきい値Th1,Th2,Th3を異ならせておくようにしてもよい。むろん、この例では、   For this reason, as shown in FIG. 10, the threshold values Th1, Th2, and Th3 to be compared for each portion in the image may be different. Of course, in this example,

Figure 0004557087
Figure 0004557087

なる関係があり、中央に近い部分ほどしきい値は低く、エッジ度が比較的低くてもフォーカスが集中していると判断されるようになる。   The threshold value is lower in the portion closer to the center, and it is determined that the focus is concentrated even if the edge degree is relatively low.

ステップS120ではエッジ度と同しきい値とを比較して変化度合いが大きいか否かを判断する。比較の結果、エッジ度の方が大きければこの画素はエッジ画素であると判断し、ステップS130にてその画素の画像データをサンプリングしてワークエリアに保存する。ワークエリアはコンピュータ21内のRAMであってもよいしハードディスク22であってもよい。   In step S120, the degree of change is compared with the threshold value to determine whether the degree of change is large. As a result of the comparison, if the edge degree is larger, it is determined that this pixel is an edge pixel, and the image data of that pixel is sampled and stored in the work area in step S130. The work area may be the RAM in the computer 21 or the hard disk 22.

一方、このようなエッジ度の判定と並行してステップS140では当該対象画素が均等サンプリングの対象画素であるか否かを判断する。均等にサンプリングするといっても、ある誤差の範囲内となる程度にサンプリングする必要がある。統計的誤差によれば、サンプル数Nに対する誤差は概ね1/(N**(1/2))と表せる。ただし、**は累乗を表している。従って、1%程度の誤差で処理を行うためにはN=10000となる。   On the other hand, in parallel with the determination of the edge degree, in step S140, it is determined whether or not the target pixel is a target pixel for uniform sampling. Even if sampling is performed uniformly, it is necessary to sample to an extent within a certain error range. According to the statistical error, the error with respect to the number of samples N can be expressed as 1 / (N ** (1/2)). However, ** represents a power. Therefore, in order to perform processing with an error of about 1%, N = 10000.

ここにおいて、図6に示すビットマップ画面は(width)×(height)の画素数となり、サンプリング周期ratioは、   Here, the bitmap screen shown in FIG. 6 has the number of pixels of (width) × (height), and the sampling period ratio is

Figure 0004557087
Figure 0004557087

とする。ここにおいて、min(width,height)はwidthとheightのいずれか小さい方であり、Aは定数とする。また、ここでいうサンプリング周期ratioは何画素ごとにサンプリングするかを表しており、図11の○印の画素はサンプリング周期ratio=2の場合を示している。すなわち、縦方向及び横方向に二画素ごとに一画素のサンプリングであり、一画素おきにサンプリングしている。A=200としたときの1ライン中のサンプリング画素数は図12に示すようになる。   And Here, min (width, height) is the smaller of width and height, and A is a constant. Further, the sampling period ratio here indicates how many pixels are sampled, and the pixels marked with ◯ in FIG. 11 indicate the case where the sampling period ratio = 2. That is, one pixel is sampled every two pixels in the vertical and horizontal directions, and every other pixel is sampled. The number of sampling pixels in one line when A = 200 is as shown in FIG.

同図から明らかなように、サンプリングしないことになるサンプリング周期ratio=1の場合を除いて、200画素以上の幅があるときには最低でもサンプル数は100画素以上となることが分かる。従って、縦方向と横方向について200画素以上の場合には(100画素)×(100画素)=(10000画素)が確保され、誤差を1%以下にできる。   As can be seen from the figure, except for the case where the sampling period ratio = 1 in which sampling is not performed, when there is a width of 200 pixels or more, the number of samples is at least 100 pixels. Therefore, in the case of 200 pixels or more in the vertical direction and the horizontal direction, (100 pixels) × (100 pixels) = (10000 pixels) is secured, and the error can be reduced to 1% or less.

ここにおいてmin(width,height)を基準としているのは次のような理由による。例えば、図13(a)に示すビットマップ画像のように、width>>heightであるとすると、長い方のwidthでサンプリング周期ratioを決めてしまった場合には、同図(b)に示すように、縦方向には上端と下端の2ラインしか画素を抽出されないといったことが起こりかねない。しかしながら、min(width,height)として、小さい方に基づいてサンプリング周期ratioを決めるようにすれば同図(c)に示すように少ない方の縦方向においても中間部を含むような間引きを行うことができるようになる。すなわち、所定の抽出数を確保したサンプリングが可能となる。   Here, the reason for using min (width, height) as a reference is as follows. For example, as shown in FIG. 13 (a), when width >> height is satisfied and the sampling period ratio is determined by the longer width, as shown in FIG. 13 (b). In addition, in the vertical direction, only two lines of the upper end and the lower end may be extracted. However, if the sampling period ratio is determined based on the smaller one as min (width, height), thinning is performed so as to include the intermediate portion in the smaller vertical direction as shown in FIG. Will be able to. That is, sampling with a predetermined number of extractions is possible.

ステップS140では、このような均等なサンプリング手法を採用しつつ、当該対象画素がそのサンプリング対象となっているか否かを判断し、対象であればステップS150にて画像データをサンプリングする。   In step S140, it is determined whether or not the target pixel is the sampling target while adopting such an equal sampling method. If the target pixel is the target, the image data is sampled in step S150.

ステップS130,S150で画像データをサンプリングするというのは、同画像データに基づいて輝度を集計することを意味する。上述したように、本実施形態においてはコンピュータ21が扱うのはRGBの階調データであり、直接には輝度の値を持っていない。輝度を求めるためにLuv表色空間に色変換することも可能であるが、演算量などの問題から得策ではない。このため、テレビジョンなどの場合に利用されているRGBから輝度を直に求める次式の変換式を利用する。   Sampling the image data in steps S130 and S150 means summing up the luminance based on the image data. As described above, in the present embodiment, the computer 21 handles RGB gradation data, and does not have a luminance value directly. Although it is possible to perform color conversion to the Luv color space in order to obtain the luminance, it is not a good idea because of problems such as the amount of computation. For this reason, the following conversion formula for directly obtaining the luminance from RGB used in the case of a television or the like is used.

Figure 0004557087
Figure 0004557087

輝度はヒストグラムとして集計し、むろん、ステップS130の集計エリアとステップS150の集計エリアは別個である。なお、輝度の集計とともに集計対象となった画素数についても集計しておく。   The luminance is aggregated as a histogram, and of course, the aggregation area in step S130 and the aggregation area in step S150 are separate. It should be noted that the number of pixels that are subject to aggregation is also aggregated together with the aggregation of luminance.

以上のような処理を画像データの各画素について行うため、ステップS160にて処理の対象画素を移動させ、ステップS170にて全画素について終了したと判断されるまで処理を繰り返す。   In order to perform the above processing for each pixel of the image data, the pixel to be processed is moved in step S160, and the processing is repeated until it is determined in step S170 that all pixels have been completed.

それぞれのサンプリング手法で対象となる画素について輝度の集計を行ったら、ステップS180では画像評価オプションを入力する。図14はディスプレイ32上に表示される画像評価オプション入力画面を示しており、選択肢としてポートレートと風景写真と自動設定という三つが用意されている。   When the luminance is totalized for the target pixel by each sampling method, an image evaluation option is input in step S180. FIG. 14 shows an image evaluation option input screen displayed on the display 32, and three options of portrait, landscape photograph, and automatic setting are prepared as options.

図15に示すように均等サンプリングで得られた輝度のヒストグラムと、エッジ画素のサンプリングで得られた輝度のヒストグラムとを合算して当該画像を評価するためのヒストグラムを生成するにあたり、それぞれの重み付けを調整する必要がある。ここで重み付け係数kを採用すると、均等サンプリングの集計結果Dist_aveとエッジ画素サンプリングでの集計結果Dist_edgから、評価用の集計結果Dist_Sumは、   As shown in FIG. 15, the luminance histogram obtained by equal sampling and the luminance histogram obtained by edge pixel sampling are combined to generate a histogram for evaluating the image. It needs to be adjusted. Here, when the weighting coefficient k is adopted, the totaling result Dist_Sum for evaluation is calculated from the totaling result Dist_ave of the uniform sampling and the totaling result Dist_edg of the edge pixel sampling.

Figure 0004557087
Figure 0004557087

となる。そして、この重み付け係数kは、「0」に近づくほど全体重視となり、「1」に近づくほど被写体重視といえる。このため、図14に示す画像評価オプション入力画面でオプションを選択した後、ステップS190にて同オプションに基づいて分岐し、ポートレートを選択したときにはステップS192にて「k=0.8」と設定し、風景写真を選択したときにはステップS194にて「k=0.2」と設定する。   It becomes. The weighting coefficient k becomes more important as it approaches “0”, and the subject becomes more important as it approaches “1”. For this reason, after selecting an option on the image evaluation option input screen shown in FIG. 14, the process branches based on the option in step S190, and when a portrait is selected, “k = 0.8” is set in step S192. When a landscape photograph is selected, “k = 0.2” is set in step S194.

オプション選択の残る一つの選択肢は自動設定である。この自動設定では先に述べたようにサンプリングしたエッジ画素数に基づき、当該エッジ画素数が少ない場合には風景写真と考えて重み付け係数kを「0」に近づけるし、当該エッジ画素数が多い場合にはポートレートと考えて重み付け係数kを「1」に近づける。エッジ画素のサンプリング数x_edgと均等サンプリング数x_aveを使用し、ステップS196にて重み付け係数を   One option that remains to be selected is automatic setting. In this automatic setting, as described above, based on the number of edge pixels sampled, when the number of edge pixels is small, the weighting coefficient k is approximated to “0” when the number of edge pixels is small, and the number of edge pixels is large. Is considered to be a portrait and the weighting coefficient k is brought close to “1”. The edge pixel sampling number x_edg and the uniform sampling number x_ave are used, and the weighting coefficient is determined in step S196.

Figure 0004557087
Figure 0004557087

として算出して評価用の集計結果Dist_Sumを得る。   To obtain a total result Dist_Sum for evaluation.

このようにして評価用の集計結果Dist_Sumを得ることにより画像の評価を行ったことになる。むろん、この集計結果を用いてさらなる判定を行っても良いが、基本的にはかかる集計結果を利用する画像処理に応じて適宜変更すればよい。   In this way, the evaluation of the image is performed by obtaining the evaluation result Dist_Sum for evaluation. Of course, this determination result may be used for further determination. Basically, it may be changed as appropriate according to the image processing that uses the aggregation result.

この後、同集計結果に基づいて最適な画像処理を決定し、実行する。図16は、その一例としてコントラストの拡大と明度の補正の画像処理を実行するためのフローチャートを示している。   Thereafter, optimal image processing is determined and executed based on the result of the aggregation. FIG. 16 shows a flowchart for executing image processing for increasing contrast and correcting brightness as an example.

本実施形態でのコントラストを拡大するための基本的な手法は、画像データに基づいて輝度分布を求め、この輝度分布が本来の階調幅(255階調)の一部分しか利用していないのであれば分布を拡大するというものである。   The basic method for enlarging the contrast in the present embodiment is to obtain a luminance distribution based on image data, and if this luminance distribution uses only a part of the original gradation width (255 gradations). It is to expand the distribution.

従って、ステップS310では上述した重み付け係数kから集計結果Dist_Sumとしての輝度分布のヒストグラムを作成し、ステップS320では拡大する幅を決定する。拡大幅を決定するにあたり、輝度分布の両端を求めることを考える。写真画像の輝度分布は図17に示すように概ね山形に表れる。むろん、その位置、形状についてはさまざまである。輝度分布の幅はこの両端をどこに決めるかによって決定されるが、単に裾野が延びて分布数が「0」となる点を両端とすることはできない。裾野部分では分布数が「0」付近で変移する場合があるし、統計的に見れば限りなく「0」に近づきながら推移していくからである。   Therefore, in step S310, a histogram of the luminance distribution as the total result Dist_Sum is created from the above-described weighting coefficient k, and in step S320, the width to be enlarged is determined. In determining the enlargement width, consider obtaining both ends of the luminance distribution. The luminance distribution of a photographic image appears in a mountain shape as shown in FIG. Of course, there are various positions and shapes. The width of the luminance distribution is determined by where the both ends are determined. However, the point where the base is simply extended and the number of distributions becomes “0” cannot be the both ends. This is because the number of distributions may change around “0” in the base portion, and if it is statistically viewed, it changes while approaching “0” as much as possible.

このため、分布範囲において最も輝度の大きい側と小さい側からある分布割合だけ内側に経た部分を分布の両端とする。本実施形態においては、同図に示すように、この分布割合を0.5%に設定している。むろん、この割合については、適宜、変更することが可能である。このように、ある分布割合だけ上端と下端をカットすることにより、ノイズなどに起因して生じている白点や黒点を無視することもできる。すなわち、このような処理をしなければ一点でも白点や黒点があればそれが輝度分布の両端となってしまうので、255階調の輝度値であれば、多くの場合において最下端は階調「0」であるし、最上端は階調「255」となってしまうが、上端部分から0.5%の画素数だけ内側に入った部分を端部とすることにより、このようなことが無くなる。   For this reason, in the distribution range, portions that have passed a certain distribution ratio from the side with the highest luminance and the side with the lowest luminance are defined as both ends of the distribution. In the present embodiment, as shown in the figure, this distribution ratio is set to 0.5%. Of course, this ratio can be appropriately changed. In this way, by cutting the upper end and the lower end by a certain distribution ratio, it is possible to ignore white spots and black spots caused by noise or the like. In other words, if such a process is not performed, if there is even a single point of white or black, it will be at both ends of the luminance distribution. Although it is “0” and the uppermost end is gradation “255”, such a thing can be achieved by setting a portion that is inward by 0.5% of the number of pixels from the upper end portion as an end portion. Disappear.

実際の処理ではサンプリングした画素数に対する0.5%を演算し、再現可能な輝度分布における上端の輝度値及び下端の輝度値から順番に内側に向かいながらそれぞれの分布数を累積し、0.5%の値となった輝度値を求める。以後、この上端側をymaxと呼び、下端側をyminと呼ぶ。   In the actual processing, 0.5% of the number of sampled pixels is calculated, and the number of distributions is accumulated in order from the luminance value at the upper end and the luminance value at the lower end in the reproducible luminance distribution in order toward the inside. The luminance value that is a value of% is obtained. Hereinafter, this upper end side is called ymax, and the lower end side is called ymin.

再現可能な輝度の範囲を「0」〜「255」としたときに、変換前の輝度yと輝度の分布範囲の最大値ymaxと最小値yminから変換先の輝度Yを次式に基づいて求める。   When the reproducible luminance range is “0” to “255”, the conversion destination luminance Y is obtained from the luminance y before conversion, the maximum value ymax and the minimum value ymin of the luminance distribution range based on the following equation. .

Figure 0004557087
Figure 0004557087

ただし   However,

Figure 0004557087
Figure 0004557087

また、上記変換式にてY<0ならばY=0とし、Y>255ならばY=255とする。ここにおける、aは傾きであり、bはオフセットといえる。この変換式によれば、図18に示すように、あるせまい幅を持った輝度分布を再現可能な範囲まで広げることができる。ただし、再現可能な範囲を最大限に利用して輝度分布の拡大を図った場合、ハイライト部分が白く抜けてしまったり、ハイシャドウ部分が黒くつぶれてしまうことが起こる。これを防止するため本実施形態においては、再現可能な範囲を制限している。すなわち、再現可能な範囲の上端と下端に拡大しない範囲として輝度値で「5」だけ残している。この結果、変換式のパラメータは次式のようになる。   In the above conversion equation, if Y <0, Y = 0, and if Y> 255, Y = 255. Here, a is an inclination and b can be said to be an offset. According to this conversion formula, as shown in FIG. 18, the luminance distribution having a narrow width can be expanded to a reproducible range. However, when the luminance distribution is expanded by making the maximum use of the reproducible range, the highlight portion may be white and the high shadow portion may be black. In order to prevent this, the reproducible range is limited in this embodiment. That is, the luminance value “5” is left as a range that does not expand to the upper end and the lower end of the reproducible range. As a result, the parameters of the conversion equation are as follows:

Figure 0004557087
Figure 0004557087

そして、この場合にはy<yminと、y>ymaxの範囲においては変換を行わないようにする。   In this case, conversion is not performed in the range of y <ymin and y> ymax.

ただし、このままの拡大率(aに対応)を適用してしまうと、非常に大きな拡大率が得られる場合も生じてしまう。例えば、夕方のような薄暮の状態では最も明るい部分から暗い部分までのコントラストの幅が狭くて当然であるのに、この画像についてコントラストを大きく拡大しようとする結果、昼間の画像のように変換されてしまいかねない。このような変換は希望されないので、拡大率には制限を設けておき、aが1.5(〜2)以上とはならないように制限する。これにより、薄暮は薄暮なりに表現されるようになる。なお、この場合は輝度分布の中心位置がなるべく変化しないような処理を行っておく。   However, if the same enlargement ratio (corresponding to a) is applied, a very large enlargement ratio may be obtained. For example, in the twilight state in the evening, it is natural that the contrast range from the brightest part to the dark part is narrow, but as a result of trying to enlarge the contrast for this image, it is converted like a daytime image. It can be. Since such conversion is not desired, a restriction is set on the enlargement ratio so that a is not 1.5 (˜2) or more. As a result, twilight is expressed as twilight. In this case, processing is performed so that the center position of the luminance distribution does not change as much as possible.

ところで、輝度の変換時に、毎回、上記変換式(Y=ay+b)を実行するのは非合理的である。というのは、輝度yの取りうる範囲が「0」〜「255」でしかあり得ないため、予め輝度yが取りうる全ての値に対応して変換後の輝度Yを求めておくことも可能である。従って、図19に示すようなテーブルとして記憶しておく。   By the way, it is unreasonable to execute the conversion equation (Y = ay + b) every time the luminance is converted. This is because the range that the luminance y can take is only “0” to “255”, and it is possible to obtain the luminance Y after conversion corresponding to all the values that the luminance y can take in advance. It is. Therefore, it is stored as a table as shown in FIG.

このような変換テーブルを形成することがステップS320の拡大幅決定処理に該当し、画像データを変更することが可能になる。しかし、このような輝度の範囲の拡大によってコントラストを強調するだけでなく、合わせて明るさを調整することも極めて有効であるため、ステップS330にて画像の明るさを判断し、補正のためのパラメータを生成する。   Formation of such a conversion table corresponds to the enlargement width determination process in step S320, and the image data can be changed. However, it is extremely effective to not only enhance the contrast by expanding the brightness range but also adjust the brightness together. Therefore, in step S330, the brightness of the image is determined and corrected. Generate parameters.

例えば、図20にて実線で示すように輝度分布の山が全体的に暗い側に寄っている場合には波線で示すように全体的に明るい側に山を移動させると良いし、逆に、図21にて実線で示すように輝度分布の山が全体的に明るい側に寄っている場合には波線で示すように全体的に暗い側に山を移動させると良い。   For example, when the peaks of the luminance distribution are on the whole dark side as shown by the solid line in FIG. 20, it is better to move the mountains to the bright side as shown by the wavy lines, In the case where the peaks of the luminance distribution are close to the bright side as shown by the solid line in FIG. 21, it is preferable to move the peaks to the dark side as shown by the wavy lines.

各種の実験を行った結果、本実施形態においては、輝度分布におけるメジアンymedを求め、同メジアンymedが「85」未満である場合に暗い画像と判断して以下のγ値に対応するγ補正で明るくする。   As a result of various experiments, in the present embodiment, the median ymed in the luminance distribution is obtained, and when the median ymed is less than “85”, the image is determined to be a dark image and γ correction corresponding to the following γ values is performed. Brighten.

Figure 0004557087
Figure 0004557087

あるいは、   Or

Figure 0004557087
Figure 0004557087

とする。   And

この場合、γ<0.7となっても、γ=0.7とする。このような限界を設けておかないと夜の画像が昼間のようになってしまうからである。なお、明るくしすぎると全体的に白っぽい画像になってコントラストが弱い画像になりやすいため、彩度を合わせて強調するなどの処理が好適である。   In this case, even if γ <0.7, γ = 0.7. This is because if such a limit is not set, the night image becomes like the daytime. Note that if the image is too bright, the overall image becomes whitish and the contrast tends to be low, so that processing such as enhancement of saturation is suitable.

一方、メジアンymedが「128」より大きい場合に明るい画像と判断して以下のγ値に対応するγ補正で暗くする。   On the other hand, when the median ymed is larger than “128”, the image is judged to be a bright image and darkened by γ correction corresponding to the following γ values.

Figure 0004557087
Figure 0004557087

あるいは、   Or

Figure 0004557087
Figure 0004557087

とする。この場合、γ>1.3となっても、γ=1.3として暗くなり過ぎないように限界を設けておく。   And In this case, even if γ> 1.3, a limit is set so that γ = 1.3 so as not to be too dark.

なお、このγ補正は変換前の輝度分布に対して行っても良いし、変換後の輝度分布に対して行っても良い。γ補正をした場合における対応関係を図22に示しており、γ<1であれば上方に膨らむカーブとなり、γ>1であれば下方に膨らむカーブとなる。むろん、かかるγ補正の結果も図19に示すテーブル内に反映させておけばよく、テーブルデータに対して同補正を行っておく。   This γ correction may be performed on the luminance distribution before conversion or on the luminance distribution after conversion. FIG. 22 shows a correspondence relationship when γ correction is performed. When γ <1, the curve swells upward, and when γ> 1, the curve swells downward. Of course, the result of such γ correction may be reflected in the table shown in FIG. 19, and the same correction is performed on the table data.

最後に、ステップS340にてコントラスト補正と明度補正が必要であるか否かを判断する。この判断は上述した拡大率(a)とγ値について適当なしきい値と比較し、拡大率の方が大きかったりγ値が所定範囲を超えていたら必要性有りと判断する。そして、必要性有りと判断されれば画像データの変換を行う。   Finally, in step S340, it is determined whether or not contrast correction and brightness correction are necessary. In this determination, the enlargement ratio (a) and the γ value are compared with appropriate threshold values, and if the enlargement ratio is larger or the γ value exceeds a predetermined range, it is determined that there is a necessity. If it is determined that there is a necessity, the image data is converted.

画像処理が必要であると判断された場合、(9)式に基づく変換を行うが、同式の変換式は、RGBの成分値との対応関係においても当てはめることができ、変換前の成分値(R0 ,G0 ,B0 )に対して変換後の成分値(R,G,B)は、   When it is determined that image processing is necessary, the conversion based on the equation (9) is performed. The conversion equation of the same equation can also be applied in the correspondence relationship with the RGB component values, and the component value before the conversion For (R0, G0, B0), the converted component values (R, G, B) are

Figure 0004557087
Figure 0004557087

として求めることもできる。ここで、輝度y,Yが階調「0」〜階調「255」であるのに対応してRGBの各成分値(R0,G0,B0),(R,G,B)も同じ範囲となっており、上述した輝度y,Yの変換テーブルをそのまま利用すればよいといえる。   Can also be sought. Here, corresponding to the luminance y and Y ranging from gradation “0” to gradation “255”, the RGB component values (R0, G0, B0), (R, G, B) are also in the same range. Therefore, it can be said that the luminance y and Y conversion tables described above may be used as they are.

従って、ステップS350では全画素の画像データ(R0,G0,B0)について(18)〜(20)式に対応する変換テーブルを参照し、変換後の画像データ(R,G,B)を得るという処理を繰り返すことになる。   Accordingly, in step S350, the image data (R, G, B) after conversion is obtained by referring to the conversion table corresponding to the equations (18) to (20) for the image data (R0, G0, B0) of all pixels. The process will be repeated.

ところで、この場合は輝度の集計結果を画像の判定に利用する評価基準として使用し、コントラスト補正と明度補正を行うようにしているが、画像処理の具体例はこれに限られるものではなく、従って評価基準として使用する集計内容も様々である。   By the way, in this case, the result of luminance aggregation is used as an evaluation criterion used for image determination, and contrast correction and brightness correction are performed. However, a specific example of image processing is not limited to this, and accordingly, There are various aggregation contents used as evaluation criteria.

図23は彩度強調のための画像処理を実行する場合のフローチャートを示している。   FIG. 23 shows a flowchart when image processing for saturation enhancement is executed.

まず、画素データがその成分要素として彩度を持っていればその彩度の値を用いて分布を求めることが可能であるが、RGBの成分値しか持っていないため、本来的には彩度値が直接の成分値となっている表色空間への変換を行なわなければ彩度値を得ることができない。例えば、標準表色系としてのLuv空間においては、L軸が輝度(明度)を表し、U軸及びV軸で色相を表している。ここにおいて、U軸及びV軸においては両軸の交点からの距離が彩度を表すため、実質的に(U**2+V**2)**(1/2)が彩度となる。   First, if the pixel data has saturation as its component element, the distribution can be obtained using the saturation value, but since it has only RGB component values, it is essentially saturation. Saturation values cannot be obtained without conversion to a color space where the values are direct component values. For example, in the Luv space as a standard color system, the L axis represents luminance (brightness), and the U axis and V axis represent hue. Here, in the U axis and the V axis, the distance from the intersection of both axes represents the saturation, so that (U ** 2 + V ** 2) ** (1/2) is substantially the saturation.

このような異なる表色空間の間での色変換は対応関係を記憶した色変換テーブルを参照しつつ、補間演算を併用しなければならず、演算処理量は膨大となってくる。このような状況に鑑み、本実施形態においては、画像データとして標準的なRGBの階調データを直に利用して彩度の代替値Xを次のようにして求めている。   For such color conversion between different color spaces, it is necessary to use interpolation calculation together with reference to the color conversion table storing the correspondence relationship, and the amount of calculation processing becomes enormous. In view of such a situation, in this embodiment, the standard RGB gradation data is directly used as the image data, and the saturation alternative value X is obtained as follows.

Figure 0004557087
Figure 0004557087

本来的には彩度は、R=G=Bの場合に「0」となり、RGBの単色あるいはいずれか二色の所定割合による混合時において最大値となる。この性質から直に彩度を適切に表すのは可能であるものの、簡易な(21)式によっても赤の単色および緑と青の混合色である黄であれば最大値の彩度となり、各成分が均一の場合に「0」となる。また、緑や青の単色についても最大値の半分程度には達している。むろん、   Originally, the saturation is “0” when R = G = B, and becomes the maximum value when mixing with a predetermined ratio of one or two colors of RGB. Although it is possible to express the saturation directly and appropriately from this property, even if it is yellow which is a single color of red and a mixed color of green and blue according to the simple equation (21), the maximum saturation is obtained. It is “0” when the components are uniform. In addition, green and blue single colors reach about half of the maximum value. Of course,

Figure 0004557087
Figure 0004557087

という式にも代替可能である。   It is also possible to substitute for this formula.

ステップS410では、上述した均等サンプリングとエッジ画素サンプリングの手法を採用しつつそれぞれ別個に彩度の代替値Xについてのヒストグラムの分布を求める。(21)式においては、彩度が最低値「0」〜最大値「511」の範囲で分布し、概略的には図24に示すような分布となる。次なるステップS420では、集計された彩度分布に基づいてこの画像についての彩度指数というものを決定する。但し、この場合も均等サンプリングの集計結果とエッジ画素サンプリングの集計結果から個別に彩度指数を導出し、上述した重み付け係数kを利用して合算せしめた彩度指数を算出する。   In step S410, the distribution of the histogram for the alternative value X of saturation is obtained separately while employing the above-described equal sampling and edge pixel sampling methods. In the equation (21), the saturation is distributed in the range of the minimum value “0” to the maximum value “511”, and is roughly distributed as shown in FIG. In the next step S420, a saturation index for this image is determined based on the aggregated saturation distribution. However, also in this case, the saturation index is derived individually from the total sampling result of the uniform sampling and the total result of the edge pixel sampling, and the saturation index is calculated by using the above-described weighting coefficient k.

彩度指数を導出するにあたり、本実施形態においては、サンプリングされた画素数の範囲で、分布数として上位の「16%」が占める範囲を求める。そして、この範囲内での最低の彩度「A」がこの画像の彩度を表すものとして次式に基づいて彩度強調指数Sを決定する。   In deriving the saturation index, in the present embodiment, the range occupied by the upper “16%” as the distribution number is obtained in the range of the number of sampled pixels. Then, the saturation enhancement index S is determined based on the following equation, assuming that the lowest saturation “A” in this range represents the saturation of this image.

すなわち、   That is,

Figure 0004557087
Figure 0004557087

とする。図25は、この彩度「A」と彩度強調指数Sとの関係を示している。図に示すように、彩度指数Sは最大値「50」〜最小値「0」の範囲で彩度「A」が小さいときに大きく、同彩度「A」が大きいときに小さくなるように徐々に変化していくことになる。   And FIG. 25 shows the relationship between the saturation “A” and the saturation enhancement index S. As shown in the figure, the saturation index S is large when the saturation “A” is small in the range from the maximum value “50” to the minimum value “0”, and small when the saturation “A” is large. It will change gradually.

彩度強調指数Sに基づいて彩度を強調するにあたり、上述したように画像データが彩度のパラメータを備えているものであれば同パラメータを変換すればよいものの、RGBの表色空間を採用している場合には、一旦、標準表色系であるLuv空間に変換し、Luv空間内で半径方向へ変移させなければならないといえる。しかしながら、RGBの画像データを、一旦、Luv空間内の画像データに変換し、彩度強調後に再びRGBに戻すといった作業が必要となり、演算量が多くならざるを得ない。従って、RGBの階調データをそのまま利用して彩度強調することにする。   When emphasizing the saturation based on the saturation emphasis index S, if the image data has a saturation parameter as described above, the same parameter can be converted, but the RGB color space is adopted. In such a case, it can be said that it must first be converted into the Luv space, which is a standard color system, and shifted in the radial direction within the Luv space. However, it is necessary to convert RGB image data into image data in the Luv space and return to RGB again after saturation enhancement, and the amount of computation must be increased. Therefore, saturation enhancement is performed using RGB gradation data as it is.

RGB表色空間のように各成分が概略対等な関係にある色相成分の成分値であるときには、R=G=Bであればグレイであって無彩度となる。従って、RGBの各成分における最小値となる成分については各画素の色相に影響を与えることなく単に彩度を低下させているにすぎないと考えれば、各成分における最小値をすべての成分値から減算し、その差分値を拡大することによって彩度を強調できるといえる。   When each component is a component value of a hue component in which the respective components are roughly equivalent as in the RGB color space, if R = G = B, the color is gray and achromatic. Therefore, assuming that the component having the minimum value in each component of RGB is merely reducing the saturation without affecting the hue of each pixel, the minimum value in each component is determined from all the component values. It can be said that the saturation can be enhanced by subtracting and enlarging the difference value.

まず、上述した彩度強調指数Sから演算に有利な彩度強調パラメータSratioを、   First, a saturation enhancement parameter Sratio that is advantageous for calculation from the saturation enhancement index S described above,

Figure 0004557087
Figure 0004557087

として求める。この場合、彩度強調指数S=0のときに彩度強調パラメータSratio=1となって彩度強調されない。次に、RGB階調データの各成分(R,G,B)における青(B)の成分値が最小値であったとすると、この彩度強調パラメータSratio を使用して次のように変換する。   Asking. In this case, when the saturation enhancement index S = 0, the saturation enhancement parameter Sratio = 1 and no saturation enhancement is performed. Next, assuming that the component value of blue (B) in each component (R, G, B) of the RGB gradation data is the minimum value, conversion is performed as follows using this saturation emphasis parameter Sratio.

Figure 0004557087
Figure 0004557087

この結果、RGB表色空間とLuv空間との間で一往復する二度の色変換が不要となるため、演算時間の低減をはかることができる。この実施形態においては、無彩度の成分について単純に最小値の成分を他の成分値から減算する手法を採用しているが、無彩度の成分を減算するにあたっては別の変換式を採用するものであっても構わない。ただし、(29)〜(31)式のように最小値を減算するだけの場合には乗除算が伴わないので演算量が容易となるという効果がある。   As a result, it is not necessary to perform two-time color conversion between the RGB color space and the Luv space, so that the calculation time can be reduced. In this embodiment, the method of simply subtracting the minimum value component from the other component values for the achromatic component is adopted, but another conversion formula is adopted for subtracting the achromatic component. It doesn't matter if you do it. However, when only the minimum value is subtracted as in equations (29) to (31), there is an effect that the amount of calculation becomes easy because multiplication and division are not involved.

(25)〜(27)式を採用する場合でも、良好な変換が可能であるものの、この場合には彩度を強調すると輝度も向上して全体的に明るくなるという傾向がある。従って、各成分値から輝度の相当値を減算した差分値を対象として変換を行うことにする。   Even when the equations (25) to (27) are employed, good conversion is possible, but in this case, when the saturation is emphasized, there is a tendency that the luminance is improved and the entire image becomes brighter. Therefore, the conversion is performed on the difference value obtained by subtracting the luminance equivalent value from each component value.

まず、輝度を求めるために、上述したLuv空間に色変換したのでは演算量が多大となってしまうため、テレビジョンなどの場合に利用されているRGBから輝度を直に求める次式の変換式を利用する。   First, since the amount of calculation becomes large if the color conversion to the above-described Luv space is performed in order to obtain the luminance, the following conversion equation for obtaining the luminance directly from RGB used in the case of a television or the like: Is used.

輝度Yは、   Luminance Y is

Figure 0004557087
Figure 0004557087

一方、彩度強調は、   On the other hand, saturation enhancement

Figure 0004557087
Figure 0004557087

とする。この加減値△R,△G,△Bは輝度との差分値に基づいて次式のように求める。すなわち、   And These addition / subtraction values ΔR, ΔG, ΔB are obtained by the following equation based on the difference value from the luminance. That is,

Figure 0004557087
Figure 0004557087

となり、この結果、   And as a result,

Figure 0004557087
Figure 0004557087

として変換可能となる。なお、輝度の保存は次式から明らかである。   Can be converted as In addition, the preservation | save of a brightness | luminance is clear from following Formula.

Figure 0004557087
Figure 0004557087

また、入力がグレー(R=G=B)のときには、輝度Y=R=G=Bとなるので、加減値△R=△G=△B=0となり、無彩色に色が付くこともない。(39)式〜(41)式を利用すれば輝度が保存され、彩度を強調しても全体的に明るくなることはない。   Further, when the input is gray (R = G = B), the luminance Y = R = G = B, so the addition / subtraction value ΔR = ΔG = ΔB = 0, and the achromatic color is not colored. . If Equations (39) to (41) are used, the luminance is preserved, and even if the saturation is enhanced, the overall brightness does not increase.

以上のようにして彩度強調指数Sratio を求めたら、ステップS430にて所定のしきい値と比較し、彩度強調が必要な画像であるかを判断する。そして、必要であればステップS440にて(39)式〜(41)式に基づいて全画素について画像データを変換する。   When the saturation enhancement index Sratio is obtained as described above, it is compared with a predetermined threshold value in step S430 to determine whether the image needs saturation enhancement. If necessary, in step S440, image data is converted for all pixels based on equations (39) to (41).

従って、ステップS410,S420にて複数の評価基準に基づいて画像データを評価しつつ、それぞれの評価結果に対して所定の重み付けを持たせて合算しており、これらを実行するハードウェア構成とソフトウェアとによって画像データ評価手段を構成することになる。   Therefore, while evaluating the image data based on a plurality of evaluation criteria in steps S410 and S420, the respective evaluation results are added together with a predetermined weight, and the hardware configuration and software for executing these are added. Thus, the image data evaluation means is configured.

また、他の画像の評価基準としてエッジ強調処理の画像処理を前提としたエッジ度の評価に適用することもできる。図26は、このエッジ強調処理のフローチャートを示している。エッジ度は上述した手法にて算出するものとし、ステップS510では対象画素を移動させながら均等サンプリングとエッジ画素サンプリングの手法で別々にエッジ度を集計する。そして、積算されたエッジ度を画素数で除算することにより、それぞれの評価基準に基づくエッジ度の平均値を算出する。すなわち、この画像のシャープ度合いSLは、画素数をE(I)pixとすると、   Moreover, it can also be applied to the evaluation of the edge degree on the premise of the image processing of the edge enhancement processing as an evaluation criterion for other images. FIG. 26 shows a flowchart of this edge enhancement processing. The edge degree is calculated by the above-described method, and in step S510, the edge degree is totaled separately by the uniform sampling method and the edge pixel sampling method while moving the target pixel. Then, by dividing the accumulated edge degree by the number of pixels, an average value of the edge degree based on each evaluation criterion is calculated. That is, the sharpness SL of the image is defined as follows, where the number of pixels is E (I) pix.

Figure 0004557087
Figure 0004557087

のようにして演算することができる。この場合、SLの値が小さい画像ほどシャープネスの度合いが低い(見た目にぼけた)と判断できるし、SLの値が大きい画像ほどシャープネスの度合いが高い(見た目にはっきりとしたもの)と判断できる。   It can be calculated as follows. In this case, it can be determined that an image with a smaller value of SL has a lower degree of sharpness (the image is blurred), and an image with a larger value of SL has a higher degree of sharpness (the image is clearly visible).

次に、ステップS515では画像評価オプションを入力するなどして重み付け係数kを決定し、それぞれのサンプリング手法に基づくエッジ度を重み付け加算して合算する。   Next, in step S515, a weighting coefficient k is determined by inputting an image evaluation option, and the edge degrees based on the respective sampling methods are weighted and added together.

一方、画像のシャープさは感覚的なものであるため、実験的に得られた最適なシャープ度合いの画像データについて同様にしてシャープ度合いSLを求め、その値を理想のシャープ度合いSLoptと設定するとともに、ステップS520においてエッジ強調度Eenhanceを、   On the other hand, since the sharpness of the image is sensuous, the sharpness SL is similarly determined for the image data having the optimum sharpness obtained experimentally, and the value is set as the ideal sharpness SLopt. In step S520, the edge enhancement degree Eenhance is set to

Figure 0004557087
Figure 0004557087

として求める。ここにおいて、係数ksは画像の大きさに基づいて変化するものであり、上述したように画像データが縦横方向にそれぞれheightドットとwidthドットからなる場合、   Asking. Here, the coefficient ks changes based on the size of the image. As described above, when the image data is composed of height dots and width dots in the vertical and horizontal directions, respectively,

Figure 0004557087
Figure 0004557087

のようにして求めている。ここにおいて、min(height,width)はheightドットとwidthドットのうちのいずれか小さい方を指し、Aは定数で「768」としている。むろん、これらは実験結果から得られたものであり、適宜変更可能であることはいうまでもない。ただし、基本的には画像が大きいものほど強調度を大きくするということで良好な結果を得られている。   It is asking for. Here, min (height, width) indicates the smaller of the height dot and the width dot, and A is a constant “768”. Of course, these are obtained from the experimental results and can be changed as appropriate. However, basically, a larger result is obtained by increasing the degree of enhancement for a larger image.

このようにしてエッジ強調度Eenhance を求めたら、ステップS530にて所定のしきい値と比較してエッジ強調が必要であるか判断し、必要であると判断されればステップS540にて全画素についてエッジ強調処理を実行する。   When the edge enhancement degree Eenhance is obtained in this way, it is compared with a predetermined threshold value in step S530 to determine whether edge enhancement is necessary. If it is determined that it is necessary, in step S540, all pixels are determined. Perform edge enhancement processing.

エッジ強調処理は、強調前の各画素の輝度Yに対して強調後の輝度Y'が、   In the edge enhancement process, the luminance Y ′ after enhancement with respect to the luminance Y of each pixel before enhancement is

Figure 0004557087
Figure 0004557087

として演算される。ここで、Yunsharpは各画素の画像データに対してアンシャープマスク処理を施したものであり、ここでアンシャープマスク処理について説明する。図27は一例として5×5画素のアンシャープマスク41を示している。このアンシャープマスク41は、中央の「100」の値をマトリクス状の画像データにおける処理対象画素Y(x,y)の重み付けとし、その周縁画素に対して同マスクの升目における数値に対応した重み付けをして積算するのに利用される。このアンシャープマスク41を利用する場合、   Is calculated as Here, Yunsharp is obtained by performing unsharp mask processing on the image data of each pixel. Here, unsharp mask processing will be described. FIG. 27 shows an unsharp mask 41 of 5 × 5 pixels as an example. This unsharp mask 41 uses the value of “100” at the center as the weight of the processing target pixel Y (x, y) in the matrix-like image data, and weights corresponding to the numerical values in the squares of the mask for the peripheral pixels. Used for accumulating. When using this unsharp mask 41,

Figure 0004557087
Figure 0004557087

なる演算式に基づいて積算する。(48)式において、「396」とは重み付け係数の合計値であり、サイズの異なるアンシャープマスクにおいては、それぞれ升目の合計値となる。また、Mijはアンシャープマスクの升目に記載されている重み係数であり、Y(x,y)は各画素の画像データである。なお、ijについてはアンシャープマスク41に対して横列と縦列の座標値で示している。   Is integrated based on the following equation. In equation (48), “396” is the total value of the weighting coefficients, and in the unsharp masks of different sizes, each is the total value of the cells. Mij is a weighting factor written in the grid of the unsharp mask, and Y (x, y) is image data of each pixel. Note that ij is indicated by the coordinate values of the horizontal and vertical columns with respect to the unsharp mask 41.

(47)式に基づいて演算されるエッジ強調演算の意味するところは次のようになる。Yunsharp(x,y)は注目画素に対して周縁画素の重み付けを低くして加算したものであるから、いわゆる「なまった(アンシャープ)」画像データとしていることになる。このようにしてなまらせたものはいわゆるローパスフィルタをかけたものと同様の意味あいを持つ。従って、「Y(x,y)−Yunsharp (x,y)」とは本来の全成分から低周波成分を引いたことになってハイパスフィルタをかけたものと同様の意味あいを持つ。そして、ハイパスフィルタを通過したこの高周波成分に対してエッジ強調度Eenhance を乗算して「Y(x,y)」に加えれば同エッジ強調度Eenhanceに比例して高周波成分を増したことになり、エッジが強調される結果となる。   The meaning of the edge emphasis calculation calculated based on the equation (47) is as follows. Yunsharp (x, y) is obtained by lowering the weight of the peripheral pixel with respect to the target pixel and adding it, so that it is so-called “unsharp” image data. What is smoothed in this way has the same meaning as that obtained by applying a so-called low-pass filter. Therefore, “Y (x, y) −Yunsharp (x, y)” has the same meaning as that obtained by applying the high-pass filter by subtracting the low frequency component from the original all components. When the high frequency component that has passed through the high-pass filter is multiplied by the edge enhancement degree Eenhance and added to “Y (x, y)”, the high frequency component is increased in proportion to the edge enhancement degree Eenhance. The result is an enhanced edge.

なお、エッジ強調が必要になる状況を考えるといわゆる画像のエッジ部分であるから、隣接する画素との間で画像データの差が大きな場合にだけ演算するようにしてもよい。このようにすれば、殆どのエッジ部分でない画像データ部分でアンシャープマスクの演算を行う必要がなくなり、処理が激減する。   Note that since it is a so-called edge portion of an image in consideration of a situation where edge enhancement is necessary, the calculation may be performed only when there is a large difference in image data between adjacent pixels. In this way, it is not necessary to perform an unsharp mask operation on image data portions that are not almost edge portions, and the processing is drastically reduced.

なお、実際の演算は、強調後の輝度Y'と強調前の輝度Yから、   The actual calculation is based on the luminance Y ′ after enhancement and the luminance Y before enhancement.

Figure 0004557087
Figure 0004557087

と置き換えれば、変換後のR'G'B'は、 R′G′B ′ after conversion is

Figure 0004557087
Figure 0004557087

のように演算可能となる。   It becomes possible to calculate as follows.

従って、このエッジ強調処理では、ステップS510,S515にて、複数の評価基準に基づいて画像のエッジ度を評価しつつ、それぞれの評価結果に対して所定の重み付けを持たせて合算しており、これらを実行するハードウェア構成とソフトウェアとによって画像データ評価手段を構成することになる。   Therefore, in this edge emphasis process, in steps S510 and S515, while evaluating the edge degree of the image based on a plurality of evaluation criteria, the respective evaluation results are summed with a predetermined weight, The image data evaluation means is configured by the hardware configuration and software for executing these.

なお、上述したコントラスト補正、明度補正、彩度強調、エッジ強調のそれぞれについて、画像処理を行うかを判断している。しかし、必ずしも画像処理を行うか否かの二者択一の判断を行う必要はない。すなわち、それぞれにおいて強調程度を設定しており、このようにして設定した強調程度で画像処理を行うようにしても良い。   It is determined whether image processing is performed for each of the above-described contrast correction, brightness correction, saturation enhancement, and edge enhancement. However, it is not always necessary to make a determination as to whether or not to perform image processing. That is, the degree of emphasis is set for each, and image processing may be performed with the degree of emphasis set in this way.

次に、上記構成からなる本実施形態の動作を説明する。   Next, the operation of the present embodiment configured as described above will be described.

写真画像をスキャナ11で読み込み、プリンタ31にて印刷する場合を想定する。すると、まず、コンピュータ21にてオペレーティングシステム21aが稼働しているもとで、画像処理アプリケーション21dを起動させ、スキャナ11に対して写真の読み取りを開始させる。読み取られた画像データが同オペレーティングシステム21aを介して画像処理アプリケーション21dに取り込まれたら、処理対象画素を初期位置に設定する。続いて、ステップS110にて(1)式〜(3)式に基づいてエッジ度を判定し、ステップS120ではしきい値と同エッジ度とを比較する。そして、エッジ度の方が大きい場合には処理対象画素がエッジ画素であると判断し、ステップS130にて当該画素の画像データをワークエリアに保存する。また、ステップS140では当該処理対象画素が均等サンプリングの対象であるか否かを判断し、対象である場合はステップS150で当該画素の画像データを別のワークエリアに保存する。   Assume that a photographic image is read by the scanner 11 and printed by the printer 31. Then, first, while the operating system 21a is operating on the computer 21, the image processing application 21d is started, and the scanner 11 is started to read a photograph. When the read image data is taken into the image processing application 21d via the operating system 21a, the processing target pixel is set to the initial position. Subsequently, in step S110, the edge degree is determined based on the expressions (1) to (3), and in step S120, the threshold value is compared with the edge degree. If the edge degree is larger, it is determined that the processing target pixel is an edge pixel, and the image data of the pixel is stored in the work area in step S130. In step S140, it is determined whether or not the processing target pixel is a target of equal sampling. If the target pixel is a target, the image data of the pixel is stored in another work area in step S150.

以上の処理をステップS160にて処理対象画素を移動させながらステップS170にて全画素について実行したと判断されるまで繰り返す。   The above processing is repeated until it is determined in step S170 that all the pixels have been executed while moving the processing target pixel in step S160.

全画素について実行し終えたら、それぞれのワークエリアには異なる評価基準でサンプリングされた画像データが保存されていることになり、ステップS180では画像評価のためのオプションを入力する。操作者が画像を見てポートレートであるか風景写真であるかが判断できればいずれかを選択すればよいし、判断できない場合や全てを自動化したい場合には自動設定を選択する。ポートレートを選択した場合には重み付け係数kが「0.8」となってエッジ画素についての集計結果に重きを置かれるし、風景写真を選択した場合には重み付け係数kが「0.2」となって均等にサンプリングした集計結果に重きを置かれ、自動設定を選択した場合にはエッジ画素の割合に応じた重み付け係数kがセットされる。ただし、どの場合においても重み付け係数kを使用して複数の評価基準を採用することになり、一つだけの評価基準にとらわれない柔軟な評価が可能となる。   When execution is completed for all pixels, image data sampled according to different evaluation criteria is stored in each work area. In step S180, an option for image evaluation is input. If the operator can determine whether the image is a portrait or a landscape photo by looking at the image, one of them can be selected. If the operator cannot determine or if it is desired to automate all, an automatic setting is selected. When the portrait is selected, the weighting coefficient k is “0.8”, and the total result for the edge pixels is emphasized. When the landscape photograph is selected, the weighting coefficient k is “0.2”. The weighted coefficient k corresponding to the ratio of the edge pixels is set when the weighted result is uniformly sampled and automatic setting is selected. However, in any case, a plurality of evaluation criteria are adopted using the weighting coefficient k, and flexible evaluation independent of only one evaluation criterion is possible.

本実施形態においては、ワークエリアに画像データそのものを保存するようにしたが、メモリ容量や処理時間の面から考えると必ずしも画像データをそのものをワークエリアに保存しておく必要はない。すなわち、最終的にはサンプリング対象の画素について輝度分布や彩度代替値分布のヒストグラムを作成することになるので、予めステップS120,S150にてヒストグラムの情報を蓄積していくようにすればよい。   In the present embodiment, the image data itself is stored in the work area, but it is not always necessary to store the image data in the work area in view of memory capacity and processing time. That is, since a histogram of luminance distribution and saturation alternative value distribution is finally created for the pixel to be sampled, the histogram information may be stored in advance in steps S120 and S150.

自動的にコントラスト補正と明度補正を実行する場合は、重み付け係数を使用してステップS120,S150,S310にて輝度分布のヒストグラムを求め、ステップS320にて(12)(13)式に基づいて拡大処理のためのパラメータを決定するとともに、ステップS330にて(14)〜(17)式に基づいて明度補正のためのパラメータを決定する。そして、ステップS340ではこれらのパラメータを所定のしきい値と比較し、画像処理すべきと判断すればステップS350にて上記パラメータに基づいて輝度変換する。この場合、演算量を減らすために最初に図19に示す輝度の変換テーブルを作成しておき、(18)〜(20)式に基づいて画像データを変換する。   When performing contrast correction and brightness correction automatically, a weight distribution coefficient is used to obtain a luminance distribution histogram in steps S120, S150, and S310, and in step S320, enlargement is performed based on equations (12) and (13). In addition to determining parameters for processing, parameters for lightness correction are determined based on equations (14) to (17) in step S330. In step S340, these parameters are compared with predetermined threshold values. If it is determined that image processing is to be performed, luminance conversion is performed based on the parameters in step S350. In this case, in order to reduce the calculation amount, a luminance conversion table shown in FIG. 19 is created first, and the image data is converted based on the equations (18) to (20).

この後、画像処理された画像データをディスプレイドライバ21cを介してディスプレイ32に表示し、良好であればプリンタドライバ21bを介してプリンタ31にて印刷させる。すなわち、同プリンタドライバ21bはエッジ強調されたRGBの階調データを入力し、所定の解像度変換を経てプリンタ31の印字ヘッド領域に対応したラスタライズを行なうとともに、ラスタライズデータをRGBからCMYKへ色変換し、その後でCMYKの階調データから二値データへ変換してプリンタ31へ出力する。   Thereafter, the image data subjected to image processing is displayed on the display 32 via the display driver 21c, and if it is satisfactory, the image data is printed by the printer 31 via the printer driver 21b. In other words, the printer driver 21b inputs RGB gradation data with edge enhancement, performs rasterization corresponding to the print head area of the printer 31 through predetermined resolution conversion, and color-converts the rasterized data from RGB to CMYK. Thereafter, the CMYK gradation data is converted into binary data and output to the printer 31.

以上の処理により、スキャナ11を介して読み込まれた写真の画像データは自動的に最適なコントラスト補正と明度補正を施されてディスプレイ32に表示された後、プリンタ31にて印刷される。すなわち、複数の評価基準を採用してより柔軟に画像を判定し、その評価結果に基づいてコントラスト補正や明度補正という最適な画像処理を実現することができる。   Through the above processing, the image data of the photograph read through the scanner 11 is automatically subjected to optimum contrast correction and brightness correction, displayed on the display 32, and then printed by the printer 31. In other words, an image can be determined more flexibly by adopting a plurality of evaluation criteria, and optimal image processing such as contrast correction and brightness correction can be realized based on the evaluation result.

一方、このようなコントラスト補正や明度補正に限らず、彩度強調やエッジ強調の場合にも、複数の評価基準で彩度やエッジ度をサンプリングして集計するとともに重み付け係数を調整して合算するようにしたため、単一の評価基準だけにとらわれない柔軟な判定を経て画像処理を実行することになる。   On the other hand, not only such contrast correction and brightness correction, but also saturation enhancement and edge enhancement, the saturation and edge degree are sampled and aggregated according to a plurality of evaluation criteria, and the weighting coefficient is adjusted and added up. As a result, image processing is executed through a flexible determination that is not confined to a single evaluation criterion.

このように、画像処理の中枢をなすコンピュータ21はステップS120,S140にて異なる評価基準で画素の画像データをサンプリングしておくとともに、ステップS180にて入力される画像評価オプションに基づいてステップS192〜S196にて重み付け係数kを決定し、この決定した重み付け係数kを使用してステップS310にて集計結果を合算して輝度分布ヒストグラムを生成することにより、複数の評価基準を合算した総合的な集計結果に基づいて画像を評価し、ステップS310〜S350にて最適な画像処理を実行することができる。   As described above, the computer 21 serving as the center of the image processing samples the pixel image data based on different evaluation criteria in steps S120 and S140, and performs steps S192 to S192 based on the image evaluation options input in step S180. In step S196, the weighting coefficient k is determined, and the determined weighting coefficient k is used to add the tabulation results in step S310 to generate a luminance distribution histogram. An image is evaluated based on the result, and optimal image processing can be executed in steps S310 to S350.

10・・・画像入力装置
20・・・画像処理装置
21・・・コンピュータ
21a・・・オペレーティングシステム
21b・・・プリンタドライバ
21c・・・ディスプレイドライバ
21d・・・画像処理アプリケーション
22・・・ハードディスク
23・・・キーボード
24・・・CD−ROMドライブ
25・・・フレキシブルディスクドライブ
26・・・モデム
30・・・画像出力装置
DESCRIPTION OF SYMBOLS 10 ... Image input device 20 ... Image processing device 21 ... Computer 21a ... Operating system 21b ... Printer driver 21c ... Display driver 21d ... Image processing application 22 ... Hard disk 23 ... Keyboard 24 ... CD-ROM drive 25 ... Flexible disk drive 26 ... Modem 30 ... Image output device

Claims (5)

画像データを評価する画像処理装置であって、
画像データを入力する画像データ入力手段と、
前記画像データに含まれる画素を、画像に含まれる被写体の状況により決定可能な画像の評価基準として予め用意された複数の前記評価基準に対応した複数のサンプリング手法で抽出して、該サンプリング手法ごとの集計結果を求める集計手段と、
前記複数の評価基準の一つを確定し該確定した評価基準での画像評価を意図する第1手法と、前記複数の評価基準の確定を経ないで画像評価を意図する第2手法とを選択する画像評価入力手段と、
記第1手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数の評価基準から確定された評価基準に対応して定めた重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価し、記第2手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数のサンプリング手法ごとの前記集計結果を用いて算出した重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価する画像評価手段とを備えた画像処理装置。
An image processing apparatus for evaluating image data,
Image data input means for inputting image data;
The pixels included in the image data, extract with multiple sampling method corresponding to a plurality of the evaluation criterion prepared in advance as a criterion determinable image the circumstances of an object included in the image, the sampling technique A counting means for obtaining a counting result for each,
A first approach the intended image evaluation in the plurality of commentary divalent group criteria for confirmed one evaluation criteria the determined, a second method intended for image evaluation without going through determination of the plurality of evaluation criteria Image evaluation input means for selecting,
When the front Symbol first approach is selected, the plurality of the counting result for each sampling method, summed with weighting defined corresponding to the determined criteria from the plurality of evaluation criteria, and the sum to evaluate the image data on the basis of the summation result of the counting result, the pre-Symbol second approach is chosen, the counting result for each of the plurality of sampling techniques, using the counting result for each of the plurality of sampling techniques summed with the weighted calculated Te, an image processing apparatus and a picture image evaluation means for evaluating the image data on the basis of the summation result of the counting result obtained by the sum.
請求項1に記載の画像処理装置において、
前記集計手段は、画素データを均等にサンプリングして集計するサンプリング手法を、前記複数のサンプリング手法の一のサンプリング手法として用いて前記集計結果を求める画像処理装置。
The image processing apparatus according to claim 1 .
The image processing device that obtains the aggregation result by using a sampling method that samples and aggregates pixel data equally as a sampling method of the plurality of sampling methods.
請求項1または請項2に記載の画像処理装置において、
前記集計手段は、画素データの各画素における隣接画素との変化度合いが大きい画素をサンプリングして集計するサンプリング手法を、前記複数のサンプリング手法の一のサンプリング手法として用いて前記集計結果を求める画像処理装置。
The image processing apparatus according to claim 1 or billed to claim 2,
The totalization means uses a sampling method for sampling and totalizing pixels having a large degree of change from adjacent pixels in each pixel of the pixel data as an sampling method of the plurality of sampling methods to obtain the totalization result. apparatus.
画像データを入力し、
前記画像データに含まれる画素を、画像に含まれる被写体の状況により決定可能な画像の評価基準として予め用意された複数の前記評価基準に対応した複数のサンプリング手法で抽出して、該サンプリング手法ごとの集計結果を求め、
前記複数の評価基準の一つを確定し該確定した評価基準での画像評価を意図する第1手法と、前記複数の評価基準の確定を経ないで画像評価を意図する第2手法との選択を待機し、
記第1手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数の評価基準から確定された評価基準に対応して定めた重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価し、
記第2手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数のサンプリング手法ごとの前記集計結果を用いて算出した重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価する画像処理方法。
Enter the image data,
The pixels included in the image data, extract with multiple sampling method corresponding to a plurality of the evaluation criterion prepared in advance as a criterion determinable image the circumstances of an object included in the image, the sampling technique Find the total results for each
A first approach the intended image evaluation in the plurality of commentary divalent group criteria for confirmed one evaluation criteria the determined, a second method intended for image evaluation without going through determination of the plurality of evaluation criteria Wait for selection
When the front Symbol first approach is selected, the plurality of the counting result for each sampling method, summed with weighting defined corresponding to the determined criteria from the plurality of evaluation criteria, and the sum Evaluate the image data based on the total result of the aggregation results,
When the front Stories second approach is chosen, the counting result for each of the plurality of sampling techniques, summed with the weighted calculated using the counting result for each of the plurality of sampling techniques, the aggregate was the sum images processing method for evaluating the image data based on the results of the summation result.
コンピュータに、
画像データを入力する画像データ入力機能と、
前記画像データに含まれる画素を、画像に含まれる被写体の状況により決定可能な画像の評価基準として予め用意された複数の前記評価基準に対応した複数のサンプリング手法で抽出して、該サンプリング手法ごとの集計結果を求める集計機能と、
前記複数の評価基準の一つを確定し該確定した評価基準での画像評価を意図する第1手法と、前記複数の評価基準の確定を経ないで画像評価を意図する第2手法とを選択する画像評価入力機能と、
記第1手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数の評価基準から確定された評価基準に対応して定めた重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価し、記第2手法が選択されると、前記複数のサンプリング手法ごとの前記集計結果を、前記複数のサンプリング手法ごとの前記集計結果を用いて算出した重み付けを用いて合算し、該合算した前記集計結果の合算結果に基づいて画像データを評価する画像評価機能と、を実現させる画像処理プログラムを記録した記録媒体。
On the computer,
An image data input function for inputting image data;
The pixels included in the image data, extract with multiple sampling method corresponding to a plurality of the evaluation criterion prepared in advance as a criterion determinable image the circumstances of an object included in the image, the sampling technique A tabulation function that calculates the tabulation results for each
A first approach the intended image evaluation in the plurality of commentary divalent group criteria for confirmed one evaluation criteria the determined, a second method intended for image evaluation without going through determination of the plurality of evaluation criteria Image evaluation input function to select,
When the front Symbol first approach is selected, the plurality of the counting result for each sampling method, summed with weighting defined corresponding to the determined criteria from the plurality of evaluation criteria, and the sum to evaluate the image data on the basis of the summation result of the counting result, the pre-Symbol second approach is chosen, the counting result for each of the plurality of sampling techniques, using the counting result for each of the plurality of sampling techniques summed with the weighted calculated Te, the summed recording medium recording an image processing program for realizing a picture image evaluation function of evaluating the image data on the basis of the summation result of the counting result.
JP2009142465A 2009-06-15 2009-06-15 Image processing apparatus, image processing method, and recording medium Expired - Lifetime JP4557087B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009142465A JP4557087B2 (en) 2009-06-15 2009-06-15 Image processing apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009142465A JP4557087B2 (en) 2009-06-15 2009-06-15 Image processing apparatus, image processing method, and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008144768A Division JP2008245321A (en) 2008-06-02 2008-06-02 Image processing apparatus, image processing method, and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010100666A Division JP4941575B2 (en) 2010-04-26 2010-04-26 Image processing method, medium storing image processing program, and image processing apparatus

Publications (3)

Publication Number Publication Date
JP2009205699A JP2009205699A (en) 2009-09-10
JP2009205699A5 JP2009205699A5 (en) 2009-10-22
JP4557087B2 true JP4557087B2 (en) 2010-10-06

Family

ID=41147823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009142465A Expired - Lifetime JP4557087B2 (en) 2009-06-15 2009-06-15 Image processing apparatus, image processing method, and recording medium

Country Status (1)

Country Link
JP (1) JP4557087B2 (en)

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2596734B2 (en) * 1987-01-27 1997-04-02 富士写真フイルム 株式会社 Image processing condition determination method
JP2877372B2 (en) * 1989-09-13 1999-03-31 株式会社アドバンテスト Color image signal evaluation method
JPH03102478A (en) * 1989-09-14 1991-04-26 Shimadzu Corp Image processing device
JPH0421270A (en) * 1990-05-16 1992-01-24 Canon Inc Picture processing unit
JPH05252444A (en) * 1992-03-05 1993-09-28 Fujitsu Ltd Radiation image processing method
EP0542361B1 (en) * 1991-11-14 1998-09-16 Agfa-Gevaert N.V. Method and apparatus for constructing a histogram in digital image processing by statistical pixel sampling
JP3189156B2 (en) * 1992-05-15 2001-07-16 キヤノン株式会社 Video printer and image processing method
US5268967A (en) * 1992-06-29 1993-12-07 Eastman Kodak Company Method for automatic foreground and background detection in digital radiographic images
JPH06197223A (en) * 1992-12-24 1994-07-15 Konica Corp Image reader
JPH07306938A (en) * 1994-05-12 1995-11-21 Ge Yokogawa Medical Syst Ltd Image processing method and device therefor
JP3126597B2 (en) * 1994-09-02 2001-01-22 沖電気工業株式会社 Writing implement identification device
JP3233536B2 (en) * 1994-09-16 2001-11-26 株式会社東芝 Image forming device
US5581370A (en) * 1995-06-05 1996-12-03 Xerox Corporation Image-dependent automatic area of interest enhancement
JPH0994243A (en) * 1995-09-29 1997-04-08 Shimadzu Corp Device to automatically set tone for medical-use image
JPH09163164A (en) * 1995-12-08 1997-06-20 Seiko Epson Corp Image processing method and image processing unit
JPH09265530A (en) * 1996-03-29 1997-10-07 Ricoh Co Ltd Dictionary generating method and color image recognizing method

Also Published As

Publication number Publication date
JP2009205699A (en) 2009-09-10

Similar Documents

Publication Publication Date Title
JP4492704B2 (en) Edge enhancement processing device, output device, edge enhancement processing method, and computer-readable recording medium
JP3925588B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
US8666156B2 (en) Image-based backgrounds for images
JP4243362B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP3673092B2 (en) Image quality adjusting apparatus, image quality adjusting method, and recording medium recording image adjusting program
JPH118768A (en) Image processor, image processing method and medium recording image processing control program
JP3921737B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP4557087B2 (en) Image processing apparatus, image processing method, and recording medium
JP4475316B2 (en) Image processing apparatus, recording medium storing image processing program, and image processing method
JP4941575B2 (en) Image processing method, medium storing image processing program, and image processing apparatus
JP5029779B2 (en) Image processing method, medium storing image processing program, and image processing apparatus
JP2008206167A (en) Image processor, image processing method and medium having image processing program recorded thereon
JP3731573B2 (en) Image processing apparatus, image evaluation apparatus, image processing method, image evaluation method, and recording medium recording image processing program
JP4161141B2 (en) Edge enhancement processing apparatus, edge enhancement processing method, and computer-readable recording medium recording an edge enhancement processing program
JP3501151B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP2003051947A5 (en)
JP2008245321A (en) Image processing apparatus, image processing method, and recording medium
JP3705250B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3702956B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3570416B2 (en) Image processing apparatus, image processing method, and medium recording image processing control program
JP3573143B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3458855B2 (en) Image processing apparatus, image processing method, and medium recording image processing control program
JP2003102027A5 (en)
JP3702957B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3558073B2 (en) Image processing apparatus, image processing method, medium recording image processing control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100629

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100712

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term