JP4941575B2 - Image processing method, medium storing image processing program, and image processing apparatus - Google Patents
Image processing method, medium storing image processing program, and image processing apparatus Download PDFInfo
- Publication number
- JP4941575B2 JP4941575B2 JP2010100666A JP2010100666A JP4941575B2 JP 4941575 B2 JP4941575 B2 JP 4941575B2 JP 2010100666 A JP2010100666 A JP 2010100666A JP 2010100666 A JP2010100666 A JP 2010100666A JP 4941575 B2 JP4941575 B2 JP 4941575B2
- Authority
- JP
- Japan
- Prior art keywords
- sampling
- image processing
- image
- distribution
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、デジタル写真画像のような実写の画像データを画像処理する画像処理方法、画像処理プログラムを記録した媒体および画像処理装置に関する。 The present invention, images processed how you image processing the image data of the live-action, such as a digital photographic image, to a medium recording and images processing equipment the images processing program.
ディジタル写真画像のような実写の画像データに対して各種の画像処理が行われている。例えば、コントラストを拡大するとか、色調を補正するとか、明るさを補正するといった画像処理である。これらの画像処理は、通常、マイクロコンピュータで実行可能となっており、操作者がモニタ上で画像を確認して必要な画像処理を選択したり、画像処理のパラメータなどを決定している。すなわち、画像の特徴を操作者が判定して各種の操作を選択したり実行している。 Various types of image processing are performed on real image data such as digital photographic images. For example, image processing such as increasing the contrast, correcting the color tone, or correcting the brightness. Such image processing is normally executable by a microcomputer, and an operator confirms an image on a monitor and selects necessary image processing, or determines image processing parameters. That is, the operator determines the characteristics of the image and selects or executes various operations.
近年、画像処理の技法については各種のものが提案され、実際に効果を発揮している。しかしながら、どの技法でどの程度の処理を行うかとなると、依然、人間が関与しなければならない。これは、画像処理の対象となるディジタル画像データにおいて、どこが重要であるのかを判断することができなかったためである。 In recent years, various image processing techniques have been proposed and are actually effective. However, humans must still be involved when it comes to how much processing is performed with which technique. This is because it has not been possible to determine what is important in the digital image data to be subjected to image processing.
例えば、明るさを補正する画像処理を考えた場合、画面全体の平均が暗ければ明るく補正し、逆に平均が明るければ暗く補正するという自動処理を考えたとする。ここで、夜間撮影した人物像の実写の画像データがあるとする。背景は殆ど真っ暗に近いものの、人物自体は良好に撮影できていたとする。この実写の画像データを自動補正すると、背景が真っ暗であるがために明るく補正しようとしてしまい、昼間の画像のようになってしまうことになる。 For example, when image processing for correcting brightness is considered, it is assumed that automatic processing is performed in which bright correction is performed when the average of the entire screen is dark, and dark correction is performed when the average is bright. Here, it is assumed that there is actual image data of a human image taken at night. Although the background is almost completely dark, it is assumed that the person was able to photograph well. If this live-action image data is automatically corrected, the background will be completely dark and will be corrected brightly, resulting in a daytime image.
この場合、人間が関与していれば人物像の部分だけに注目する。そして、人物像が暗ければ少し明るく補正するし、逆に、フラッシュなどの効果で明る過ぎれば暗くする補正を選択する。 In this case, if a person is involved, focus only on the portion of the person image. Then, a correction is made so that if the person image is dark, the correction is made slightly brighter.
本出願人は、このような課題に鑑みて、画像の中での重要な部分を判断する発明を提案している。同発明においては、画像のシャープな部分に本来の被写体(オブジェクト)が存在しているはずであると考え、各画素での画像の変化度合いに着目して同変化度合いの大きな画素をオブジェクトと判断している。 In view of such a problem, the present applicant has proposed an invention for determining an important part in an image. In the present invention, it is assumed that the original subject (object) should exist in a sharp portion of the image, and pixels with a large degree of change are determined as objects by paying attention to the degree of change in the image at each pixel. is doing.
しかしながら、画像のシャープな部分があるにしても同部分の面積は小さく背景部分を基準にした画像処理が好ましい場合もあり、一つの評価基準だけでは偏りが生じる可能性があった。また、いずれの評価基準を採用すべきかを判定する必要性は依然として残ったままであった。 However, even if there is a sharp part of the image, the area of the part is small, and image processing based on the background part may be preferable, and there is a possibility that deviation occurs only with one evaluation standard. In addition, there still remained a need to determine which evaluation criteria should be adopted.
本発明は、上記課題にかんがみてなされたもので、画像処理の前提として画像を評価するにあたり、柔軟に対応して画像評価結果を利用しやすくすることが可能な画像評価方法、画像評価プログラムを記録した媒体および画像評価装置の提供を目的とする。 The present invention has been made in view of the above problems. An image evaluation method and an image evaluation program that can flexibly make it easy to use an image evaluation result when evaluating an image as a premise of image processing. An object is to provide a recorded medium and an image evaluation apparatus.
上記目的を達成するため、請求項1にかかる発明は、ドットマトリクス状の画素からなる実写の画像データを入力し、該入力した前記画像データをサンプリングする第1の工程と、サンプリングの集計結果に基づいて画像処理を行うか否かを決める第2の工程と、画像処理を行うと決めた場合に前記画像データを前記画像処理に処す第3の工程と、を含み、前記第1の工程において、第1のサンプリング手法によるサンプリングと、前記第1のサンプリング手法とは異なる第2のサンプリング手法によるサンプリングとを行い、前記第2の工程において、前記第1のサンプリング手法による第1のサンプリング結果と、前記第2のサンプリング手法による第2のサンプリング結果とを、それぞれ重み付けして合算した集計結果の分布を求め、前記集計結果の分布に基づいて画像処理を行うか否かを決め、前記重み付けは、操作者による選択により決まり、前記選択は、前記第1のサンプリング手法によりサンプリングした画素数と前記第2のサンプリング手法によりサンプリングした画素数とに基づいて前記重み付けが決められる選択肢と、前記第1のサンプリング結果よりも前記第2のサンプリング結果の方に重み付けされる選択肢と、前記第2のサンプリング結果よりも前記第1のサンプリング結果の方に重み付けされる選択肢とを含む複数の選択肢からなされる構成としてある。
In order to achieve the above object, the invention according to
上記のように構成した請求項1にかかる発明においては、ドットマトリクス状の画素からなる実写の画像データを入力し、その入力した画像データをサンプリングする。このサンプリングは、第1のサンプリング手法によるサンプリングと、これとは異なる第2のサンプリング手法によるサンプリングとを行い、この両サンプリングの集計結果に基づいて画像処理を行うか否かを決める。この決定に際しては、第1のサンプリング手法による第1のサンプリング結果と、第2のサンプリング手法による第2のサンプリング結果とを、操作者による選択により決まるそれぞれの重み付けを行って合算した集計結果の分布を求め、その集計結果の分布に基づいて画像処理を行うか否かを決める。この場合の重み付け選択は、第1のサンプリング手法によりサンプリングした画素数と第2のサンプリング手法によりサンプリングした画素数とに基づいて重み付けが決められる選択肢と、第1のサンプリング結果よりも第2のサンプリング結果の方に重み付けされる選択肢と、第2のサンプリング結果よりも第1のサンプリング結果の方に重み付けされる選択肢とを含む複数の選択肢からなされる。そして、画像処理を行うと決めた場合には、入力したドットマトリクス状の画素からなる実写の画像データを画像処理に処す。
In the invention according to
すなわち、ポートレートのように画像のシャープな被写体をオブジェクトとして当該画像を評価するのに適当な評価基準もあれば、背景を重要なオブジェクトとして当該画像を評価するのに適当な評価基準もあり、これらの複数の評価基準を並行して実行しつつそれぞれの重み付けを変えることによって適宜おりまぜ、総合評価する。 In other words, there are appropriate evaluation criteria for evaluating the image with a sharp subject of the image as an object, such as portrait, and there are also appropriate evaluation criteria for evaluating the image with the background as an important object, These multiple evaluation criteria are executed in parallel, and the respective weights are changed as appropriate to make a comprehensive evaluation.
なお、この評価結果は画像の特徴などを判定するのに使用可能なものであればよく、具体的に画像の種類を特定するような結果が得られる必要はない。例えば、画像を明るいと判定するか暗いと判定するかといった場合の輝度のヒストグラムなどといった指標も含むものであり、明るい画像であるとか暗い画像であるといった判定結果が得られる必要はない。むろん、明暗以外にも画像がシャープであるか否かの指標であるとか、鮮やかさを判断する際の指標であってもよい。 Note that the evaluation result may be anything that can be used to determine the characteristics of the image, and it is not necessary to obtain a result that specifically identifies the type of the image. For example, it includes an index such as a luminance histogram when determining whether an image is bright or dark, and it is not necessary to obtain a determination result that the image is a bright image or a dark image. Of course, in addition to brightness and darkness, it may be an index as to whether an image is sharp or may be an index for determining vividness.
以上のような手法で画像を評価する発明の思想は、各種の態様を含むものである。すなわち、ハードウェアで実現されたり、ソフトウェアで実現されるなど、適宜、変更可能である。 The idea of the invention for evaluating an image by the above-described method includes various aspects. That is, it can be changed as appropriate, for example, by hardware or by software.
発明の思想の具現化例として画像処理するソフトウェアとなる場合には、かかるソフトウェアを記録したソフトウェア記録媒体上においても当然に存在し、利用されるといわざるをえない。 In the case of software for image processing as an embodiment of the idea of the invention, it naturally exists on a software recording medium in which such software is recorded, and must be used.
その一例として、請求項4にかかる発明は、コンピュータに、画像データを入力する画像データ入力機能と、該入力した前記画像データをサンプリングする第1の機能と、サンプリングの集計結果に基づいて画像処理を行うか否かを決める第2の機能と、画像処理を行うと決めた場合に前記画像データを前記画像処理に処す第3の機能とを実現させる画像処理プログラムを記録した媒体であって、前記第1の機能において、第1のサンプリング手法によるサンプリングと、前記第1のサンプリング手法とは異なる第2のサンプリング手法によるサンプリングとを行い、前記第2の機能において、前記第1のサンプリング手法による第1のサンプリング結果と、前記第2のサンプリング手法による第2のサンプリング結果とを、それぞれ重み付けして合算した集計結果の分布を求め、前記集計結果の分布に基づいて画像処理を行うか否かを決め、前記重み付けを、操作者による選択により決め、前記選択は、前記第1のサンプリング手法によりサンプリングした画素数と前記第2のサンプリング手法によりサンプリングした画素数とに基づいて前記重み付けが決められる選択肢と、前記第1のサンプリング結果よりも前記第2のサンプリング結果の方に重み付けされる選択肢と、前記第2のサンプリング結果よりも前記第1のサンプリング結果の方に重み付けされる選択肢とを含む複数の選択肢からなされる前記画像処理プログラムを記録する構成としてある。
As an example , the invention according to
むろん、その記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなるソフトウェア記録媒体においても全く同様に考えることができる。また、一次複製品、二次複製品などの複製段階については全く問う余地無く同等である。その他、供給方法として通信回線を利用して行う場合でも本発明が利用されていることには変わりないし、半導体チップに書き込まれたようなものであっても同様である。 Of course, the recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any software recording medium to be developed in the future. In addition, the duplication stages such as the primary duplication product and the secondary duplication product are equivalent without any question. In addition, even when the communication method is used as a supply method, the present invention is not changed, and the same applies to the case where data is written on a semiconductor chip.
さらに、一部がソフトウェアであって、一部がハードウェアで実現されている場合においても発明の思想において全く異なるものはなく、一部をソフトウェア記録媒体上に記憶しておいて必要に応じて適宜読み込まれるような形態のものとしてあってもよい。 Furthermore, even when a part is software and a part is realized by hardware, there is no difference in the idea of the invention, and a part is stored on a software recording medium as needed. It may be in a form that is read appropriately.
これらの画像処理方法やソフトウェアの実現主体として画像処理装置として適用可能なことはいうまでもなく、請求項7にかかる発明は、ドットマトリクス状の画素からなる実写の画像データを入力し、該入力した前記画像データをサンプリングするサンプリング部と、サンプリングの集計結果に基づいて画像処理を行うか否かを決める処理決定部と、画像処理を行うと決めた場合に前記画像データを前記画像処理に処す処理実行部と、を含み、前記サンプリング部は、第1のサンプリング手法によるサンプリングと、前記第1のサンプリング手法とは異なる第2のサンプリング手法によるサンプリングとを行い、前記処理決定部は、前記第1のサンプリング手法による第1のサンプリング結果と、前記第2のサンプリング手法による第2のサンプリング結果とを、それぞれ重み付けして合算した集計結果の分布を求め、前記集計結果の分布に基づいて画像処理を行うか否かを決め、前記重み付けは、操作者による選択により決まり、前記選択は、前記第1のサンプリング手法によりサンプリングした画素数と前記第2のサンプリング手法によりサンプリングした画素数とに基づいて前記重み付けが決められる選択肢と、前記第1のサンプリング結果よりも前記第2のサンプリング結果の方に重み付けされる選択肢と、前記第2のサンプリング結果よりも前記第1のサンプリング結果の方に重み付けされる選択肢とを含む複数の選択肢からなされる構成としてある。 It can be applied as implemented mainly of these images how to process or software as images processing equipment, not to mention the invention according to claim 7, the input image data of the photographed composed of pixels in dot matrix A sampling unit that samples the input image data, a processing determination unit that determines whether to perform image processing based on a sampling total result, and the image data when the image processing is determined to be performed. A processing execution unit for performing image processing, wherein the sampling unit performs sampling by a first sampling method and sampling by a second sampling method different from the first sampling method, and the processing determining unit Are the first sampling result by the first sampling method and the second sampling result by the second sampling method. The distribution of the totaling results obtained by weighting the sampling results is obtained, and whether to perform image processing based on the distribution of the totaling results is determined, the weighting is determined by selection by an operator, and the selection is An option for determining the weight based on the number of pixels sampled by the first sampling method and the number of pixels sampled by the second sampling method, and the second sampling result rather than the first sampling result. and choices which are weighted towards there as Ru configuration made from a plurality of choices including a choice is weighted towards the first sampling result than the second sampling result.
上記のように構成した請求項7にかかる発明においては、サンプリング部は、ドットマトリクス状の画素からなる実写の画像データを入力し、その入力した画像データをサンプリングする。このサンプリングは、第1のサンプリング手法によるサンプリングと、これとは異なる第2のサンプリング手法によるサンプリングとを行う。処理決定部は、この両サンプリングの集計結果に基づいて画像処理を行うか否かを決める。この決定に際しては、第1のサンプリング手法による第1のサンプリング結果と、第2のサンプリング手法による第2のサンプリング結果とを、操作者による選択により決まるそれぞれの重み付けを行って合算した集計結果の分布を求め、その集計結果の分布に基づいて画像処理を行うか否かを決める。この場合の重み付け選択は、第1のサンプリング手法によりサンプリングした画素数と第2のサンプリング手法によりサンプリングした画素数とに基づいて重み付けが決められる選択肢と、第1のサンプリング結果よりも第2のサンプリング結果の方に重み付けされる選択肢と、第2のサンプリング結果よりも第1のサンプリング結果の方に重み付けされる選択肢とを含む複数の選択肢からなされる。そして、画像処理を行うと決めた場合には、入力したドットマトリクス状の画素からなる実写の画像データを画像処理に処す。 In the invention according to claim 7 configured as described above, the sampling unit inputs the image data of the real image including the pixels in the dot matrix form, and samples the input image data. In this sampling, sampling by the first sampling method and sampling by a second sampling method different from this are performed. The processing determination unit determines whether or not to perform image processing based on the total result of both samplings. In this determination, the distribution of the total results obtained by summing the first sampling result obtained by the first sampling method and the second sampling result obtained by the second sampling method by applying respective weights determined by selection by the operator. And whether or not to perform image processing is determined based on the distribution of the total results. In this case, the weighting selection includes an option in which weighting is determined based on the number of pixels sampled by the first sampling method and the number of pixels sampled by the second sampling method, and the second sampling rather than the first sampling result. It is made up of a plurality of options including an option weighted toward the result and an option weighted toward the first sampling result rather than the second sampling result. When it is determined that image processing is to be performed, the image data of the actual photograph composed of the input dot matrix-like pixels is subjected to image processing.
以下、図面にもとづいて本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態にかかる画像評価方法を実行して画像処理する画像処理システムをブロック図により示しており、図2は具体的ハードウェア構成例を概略ブロック図により示している。 FIG. 1 is a block diagram illustrating an image processing system that performs image processing by executing an image evaluation method according to an embodiment of the present invention. FIG. 2 is a schematic block diagram illustrating a specific hardware configuration example. .
図1において、画像入力装置10は写真などをドットマトリクス状の画素として表した実写の画像データを画像処理装置20へ出力し、同画像処理装置20は所定の処理を経て画像データを集計して評価結果を求め、同評価結果に基づいて画像処理の内容と程度を決定してから画像処理を実行する。同画像処理装置20は画像処理した画像データを画像出力装置30へ出力し、画像出力装置は画像処理された画像をドットマトリクス状の画素で出力する。
In FIG. 1, an
画像処理装置20は、予め画像データを集計して当該画像に対する評価結果を求めている。この際、複数の評価基準を採用して個別に画像データの集計を行い、所定の条件で重み付けを変化させて合算している。従って、画像処理装置20は、画像データ評価手段を構成する。
The
画像入力装置10の具体例は図2におけるスキャナ11やデジタルスチルカメラ12あるいはビデオカメラ14などが該当し、画像処理装置20の具体例はコンピュータ21とハードディスク22とキーボード23とCD−ROMドライブ24とフレキシブルディスクドライブ25とモデム26などからなるコンピュータシステムが該当し、画像出力装置30の具体例はプリンタ31やディスプレイ32等が該当する。本実施形態の場合、画像の不具合等を修正すべく等該画像を評価するため、画像データとしては写真などの実写データが好適である。なお、モデム26については公衆通信回線に接続され、外部のネットワークに同公衆通信回線を介して接続し、ソフトウェアやデータをダウンロードして導入可能となっている。
A specific example of the
本実施形態においては、画像入力装置10としてのスキャナ11やデジタルスチルカメラ12が画像データとしてRGB(緑、青、赤)の階調データを出力するとともに、画像出力装置30としてのプリンタ31は階調データとしてCMY(シアン、マゼンダ、イエロー)あるいはこれに黒を加えたCMYKの二値データを入力として必要とするし、ディスプレイ32はRGBの階調データを入力として必要とする。一方、コンピュータ21内ではオペレーティングシステム21aが稼働しており、プリンタ31やディスプレイ32に対応したプリンタドライバ21bやディスプレイドライバ21cが組み込まれている。また、画像処理アプリケーション21dはオペレーティングシステム21aにて処理の実行を制御され、必要に応じてプリンタドライバ21bやディスプレイドライバ21cと連携して所定の画像処理を実行する。
In the present embodiment, the
従って、画像処理装置20としてのこのコンピュータ21の具体的役割は、RGBの階調データを入力して画像を評価しつつ最適な画像処理を施したRGBの階調データを作成し、ディスプレイドライバ21cを介してディスプレイ32に表示させるとともに、プリンタドライバ21bを介してCMY(あるいはCMYK)の二値データに変換してプリンタ31に印刷させることになる。
Therefore, the specific role of the
このように、本実施形態においては、画像の入出力装置の間にコンピュータシステムを組み込んで画像評価と画像処理を行うようにしているが、必ずしもかかるコンピュータシステムを必要とするわけではなく、画像データに対して各種の画像処理を行うシステムに適用可能である。例えば、図3に示すようにデジタルスチルカメラ12a内に画像評価して画像処理する画像処理装置を組み込み、変換した画像データを用いてディスプレイ32aに表示させたりプリンタ31aに印字させるようなシステムであっても良い。また、図4に示すように、コンピュータシステムを介することなく画像データを入力して印刷するプリンタ31bにおいては、スキャナ11bやデジタルスチルカメラ12bあるいはモデム26b等を介して入力される画像データから画像評価して画像処理するように構成することも可能である。
As described above, in this embodiment, a computer system is incorporated between image input / output devices to perform image evaluation and image processing. However, such computer system is not necessarily required, and image data The present invention can be applied to a system that performs various image processing. For example, as shown in FIG. 3, a digital
上述した画像評価とそれに伴う画像処理は、具体的には上記コンピュータ21内にて図5などに示すフローチャートに対応した画像処理プログラムで行っている。同図に示すフローチャートは画像処理プログラムにおける画像評価の前段部分に該当し、画像データを複数の評価基準で集計して所定の評価結果を得る処理を実行する。 The above-described image evaluation and accompanying image processing are specifically performed by the image processing program corresponding to the flowchart shown in FIG. The flowchart shown in the figure corresponds to the first stage of image evaluation in the image processing program, and executes processing for totaling image data according to a plurality of evaluation criteria to obtain a predetermined evaluation result.
ここで本実施形態において採用する二つの評価基準について説明する。共通するのはいずれも全画素を対象とするのではなく、所定の基準に従って画素を間引くとともに、サンプリングした画素について輝度を集計する点である。また、相違するのは、一方が均等に画素をサンプリングするのに対し、他方がエッジ画素を選択してサンプリングする点である。輝度の集計結果については後述するが、このようにしていわゆるサンプリング手法を変えることにより、画像の評価を変えることができる。均等に画素をサンプリングするというのは画像全体の画素について輝度を集計することに他ならず、画像全体としての画像データの輝度の分布を評価することになるから、風景写真が全体的に暗いとかコントラストが狭いといった評価の参考となる。 Here, two evaluation criteria employed in the present embodiment will be described. What is common is that all pixels are not targeted, but the pixels are thinned out according to a predetermined standard, and the luminance is summed up for the sampled pixels. Also, the difference is that one side samples pixels evenly while the other side selects and samples edge pixels. The result of the luminance aggregation will be described later, but the evaluation of the image can be changed by changing the so-called sampling method in this way. Sampling the pixels evenly means counting the brightness of the pixels of the entire image, and evaluating the distribution of the brightness of the image data as a whole image. This is a reference for evaluation that the contrast is narrow.
一方、エッジ画素は画像のシャープな部分であるから、画像の中でも本来の被写体に関わる画素について輝度を集計することになり、たとえ背景が暗くても被写体が十分な明るさを持っていれば画像の明るさは十分であるといった評価結果が得られることになる。本実施形態においては、操作者による選択あるいは自動処理によってこれら二つの評価基準を適宜組み合わせて画像の判定を行うようにしている。 On the other hand, since the edge pixel is a sharp part of the image, the luminance is counted for the pixels related to the original subject in the image. If the subject has sufficient brightness even if the background is dark, The evaluation result that the brightness of is sufficient is obtained. In this embodiment, an image is determined by appropriately combining these two evaluation criteria by selection by an operator or automatic processing.
図5に示すフローチャートを参照すると、この画像評価処理では、図6に示すようにドットマトリクス状の画素からなる画像データについて対象画素を水平方向に主走査しつつ垂直方向に副走査して移動させ、各画素についてサンプリング対象であるか否かを判断して集計している。 Referring to the flowchart shown in FIG. 5, in this image evaluation process, as shown in FIG. 6, the target pixel of the image data composed of pixels in a dot matrix is moved in the horizontal direction by sub-scanning in the vertical direction. Each pixel is counted based on whether it is a sampling target or not.
画像データがドットマトリクス状の画素から構成されている場合には、各画素ごとに上述したRGBの輝度を表す階調データで表されており、画像のエッジ部分では隣接する画素間での同データの差分は大きくなる。この差分は輝度勾配であり、これをエッジ度と呼ぶことにし、ステップS110では各画素でのエッジ度を判定する。図7に示すようなXY直交座標を考察する場合、画像の変化度合いのベクトルはX軸方向成分とY軸方向成分とをそれぞれ求めれば演算可能となる。 When the image data is composed of pixels in a dot matrix, each pixel is represented by the gradation data representing the RGB brightness described above, and the same data between adjacent pixels at the edge portion of the image. The difference of becomes large. This difference is a luminance gradient, which is referred to as an edge degree. In step S110, the edge degree at each pixel is determined. When considering XY orthogonal coordinates as shown in FIG. 7, the vector of the degree of change of the image can be calculated by obtaining the X-axis direction component and the Y-axis direction component, respectively.
ドットマトリクス状の画素からなるディジタル画像においては、図8に示すように縦軸方向と横軸方向に画素が隣接しており、その明るさをf(x,y)で表すものとする。この場合、f(x,y)はRGBの各輝度であるR(x,y),G(x,y),B(x,y)であったり、あるいは全体の輝度Y(x,y)であってもよい、なお、RGBの各輝度であるR(x,y),G(x,y),B(x,y)と全体の輝度Y(x,y)との関係は、厳密には色変換テーブルなどを参照しなければ変換不能であるが、後述するようにして簡易な対応関係を利用するようにしても良い。 In a digital image composed of dot matrix pixels, as shown in FIG. 8, the pixels are adjacent to each other in the vertical axis direction and the horizontal axis direction, and the brightness is represented by f (x, y). In this case, f (x, y) is R (x, y), G (x, y), B (x, y) that is each luminance of RGB, or the entire luminance Y (x, y). The relationship between R (x, y), G (x, y), and B (x, y), which are RGB luminances, and the overall luminance Y (x, y) is strictly However, conversion is impossible unless a color conversion table or the like is referred to, but a simple correspondence may be used as described later.
図8に示すものにおいて、X方向の差分値fxとY方向の差分値fyは、 In the example shown in FIG. 8, the difference value fx in the X direction and the difference value fy in the Y direction are
のように表される。従って、これらを成分とするベクトルの大きさ It is expressed as Therefore, the magnitude of the vector with these components
のように表される。むろん、エッジ度はこの|g(x,y)|で表される。なお、本来、画素は図9に示すように縦横に升目状に配置されており、中央の画素に注目すると八つの隣接画素がある。従って、同様にそれぞれの隣接する画素との画像データの差分をベクトルで表し、このベクトルの和を画像の変化度合いと判断しても良い。 It is expressed as Of course, the edge degree is represented by | g (x, y) |. Note that the pixels are originally arranged in a grid pattern vertically and horizontally as shown in FIG. 9, and there are eight adjacent pixels when attention is paid to the center pixel. Accordingly, similarly, the difference between the image data of each adjacent pixel may be represented by a vector, and the sum of the vectors may be determined as the degree of image change.
以上のようにして各画素についてエッジ度が求められるので、あるしきい値と比較してエッジ度の方が大きい画素はエッジ画素と判断すればよい。なお、経験的事実から考察すると、フォーカスが集中する被写体は構図の中央部分に位置することが多い。従って、中央部分から多くの画素が抽出されるような仕組みとすることにより、画像処理の判断に利用したときにより好ましい効果を得られる。 Since the edge degree is obtained for each pixel as described above, a pixel having a higher edge degree than a certain threshold value may be determined as an edge pixel. Considering empirical facts, the subject on which the focus is concentrated is often located at the center of the composition. Therefore, by adopting a mechanism in which a large number of pixels are extracted from the central portion, a more favorable effect can be obtained when it is used for determination of image processing.
このため、図10に示すように、画像の中の部分毎に比較するしきい値Th1,Th2,Th3を異ならせておくようにしてもよい。むろん、この例では、 For this reason, as shown in FIG. 10, the threshold values Th1, Th2, and Th3 to be compared for each portion in the image may be different. Of course, in this example,
なる関係があり、中央に近い部分ほどしきい値は低く、エッジ度が比較的低くてもフォーカスが集中していると判断されるようになる。 The threshold value is lower in the portion closer to the center, and it is determined that the focus is concentrated even if the edge degree is relatively low.
ステップS120ではエッジ度と同しきい値とを比較して変化度合いが大きいか否かを判断する。比較の結果、エッジ度の方が大きければこの画素はエッジ画素であると判断し、ステップS130にてその画素の画像データをサンプリングしてワークエリアに保存する。ワークエリアはコンピュータ21内のRAMであってもよいしハードディスク22であってもよい。
In step S120, the degree of change is compared with the threshold value to determine whether the degree of change is large. As a result of the comparison, if the edge degree is larger, it is determined that this pixel is an edge pixel, and the image data of that pixel is sampled and stored in the work area in step S130. The work area may be the RAM in the
一方、このようなエッジ度の判定と並行してステップS140では当該対象画素が均等サンプリングの対象画素であるか否かを判断する。均等にサンプリングするといっても、ある誤差の範囲内となる程度にサンプリングする必要がある。統計的誤差によれば、サンプル数Nに対する誤差は概ね1/(N**(1/2))と表せる。ただし、**は累乗を表している。従って、1%程度の誤差で処理を行うためにはN=10000となる。 On the other hand, in parallel with the determination of the edge degree, in step S140, it is determined whether or not the target pixel is a target pixel for uniform sampling. Even if sampling is performed uniformly, it is necessary to sample to an extent within a certain error range. According to the statistical error, the error with respect to the number of samples N can be expressed as 1 / (N ** (1/2)). However, ** represents a power. Therefore, in order to perform processing with an error of about 1%, N = 10000.
ここにおいて、図6に示すビットマップ画面は(width)×(height)の画素数となり、サンプリング周期ratioは、 Here, the bitmap screen shown in FIG. 6 has the number of pixels of (width) × (height), and the sampling period ratio is
とする。ここにおいて、min(width,height)はwidthとheightのいずれか小さい方であり、Aは定数とする。また、ここでいうサンプリング周期ratioは何画素ごとにサンプリングするかを表しており、図11の○印の画素はサンプリング周期ratio=2の場合を示している。すなわち、縦方向及び横方向に二画素ごとに一画素のサンプリングであり、一画素おきにサンプリングしている。A=200としたときの1ライン中のサンプリング画素数は図12に示すようになる。 And Here, min (width, height) is the smaller of width and height, and A is a constant. Further, the sampling period ratio here indicates how many pixels are sampled, and the pixels marked with ◯ in FIG. 11 indicate the case where the sampling period ratio = 2. That is, one pixel is sampled every two pixels in the vertical and horizontal directions, and every other pixel is sampled. The number of sampling pixels in one line when A = 200 is as shown in FIG.
同図から明らかなように、サンプリングしないことになるサンプリング周期ratio=1の場合を除いて、200画素以上の幅があるときには最低でもサンプル数は100画素以上となることが分かる。従って、縦方向と横方向について200画素以上の場合には(100画素)×(100画素)=(10000画素)が確保され、誤差を1%以下にできる。 As can be seen from the figure, except for the case where the sampling period ratio = 1 in which sampling is not performed, when there is a width of 200 pixels or more, the number of samples is at least 100 pixels. Therefore, in the case of 200 pixels or more in the vertical direction and the horizontal direction, (100 pixels) × (100 pixels) = (10000 pixels) is secured, and the error can be reduced to 1% or less.
ここにおいてmin(width,height)を基準としているのは次のような理由による。例えば、図13(a)に示すビットマップ画像のように、width>>heightであるとすると、長い方のwidthでサンプリング周期ratioを決めてしまった場合には、同図(b)に示すように、縦方向には上端と下端の2ラインしか画素を抽出されないといったことが起こりかねない。しかしながら、min(width,height)として、小さい方に基づいてサンプリング周期ratioを決めるようにすれば同図(c)に示すように少ない方の縦方向においても中間部を含むような間引きを行うことができるようになる。すなわち、所定の抽出数を確保したサンプリングが可能となる。 Here, the reason for using min (width, height) as a reference is as follows. For example, as shown in FIG. 13 (a), when width >> height is satisfied and the sampling period ratio is determined by the longer width, as shown in FIG. 13 (b). In addition, in the vertical direction, only two lines of the upper end and the lower end may be extracted. However, if the sampling period ratio is determined based on the smaller one as min (width, height), thinning is performed so as to include the intermediate portion in the smaller vertical direction as shown in FIG. Will be able to. That is, sampling with a predetermined number of extractions is possible.
ステップS140では、このような均等なサンプリング手法を採用しつつ、当該対象画素がそのサンプリング対象となっているか否かを判断し、対象であればステップS150にて画像データをサンプリングする。 In step S140, it is determined whether or not the target pixel is the sampling target while adopting such an equal sampling method. If the target pixel is the target, the image data is sampled in step S150.
ステップS130,S150で画像データをサンプリングするというのは、同画像データに基づいて輝度を集計することを意味する。上述したように、本実施形態においてはコンピュータ21が扱うのはRGBの階調データであり、直接には輝度の値を持っていない。輝度を求めるためにLuv表色空間に色変換することも可能であるが、演算量などの問題から得策ではない。このため、テレビジョンなどの場合に利用されているRGBから輝度を直に求める次式の変換式を利用する。
Sampling the image data in steps S130 and S150 means summing up the luminance based on the image data. As described above, in the present embodiment, the
輝度はヒストグラムとして集計し、むろん、ステップS130の集計エリアとステップS150の集計エリアは別個である。なお、輝度の集計とともに集計対象となった画素数についても集計しておく。 The luminance is aggregated as a histogram, and of course, the aggregation area in step S130 and the aggregation area in step S150 are separate. It should be noted that the number of pixels that are subject to aggregation is also aggregated together with the aggregation of luminance.
以上のような処理を画像データの各画素について行うため、ステップS160にて処理の対象画素を移動させ、ステップS170にて全画素について終了したと判断されるまで処理を繰り返す。 In order to perform the above processing for each pixel of the image data, the pixel to be processed is moved in step S160, and the processing is repeated until it is determined in step S170 that all pixels have been completed.
それぞれのサンプリング手法で対象となる画素について輝度の集計を行ったら、ステップS180では画像評価オプションを入力する。図14はディスプレイ32上に表示される画像評価オプション入力画面を示しており、選択肢としてポートレートと風景写真と自動設定という三つが用意されている。
When the luminance is totalized for the target pixel by each sampling method, an image evaluation option is input in step S180. FIG. 14 shows an image evaluation option input screen displayed on the
図15に示すように均等サンプリングで得られた輝度のヒストグラムと、エッジ画素のサンプリングで得られた輝度のヒストグラムとを合算して当該画像を評価するためのヒストグラムを生成するにあたり、それぞれの重み付けを調整する必要がある。ここで重み付け係数kを採用すると、均等サンプリングの集計結果Dist_aveとエッジ画素サンプリングでの集計結果Dist_edgから、評価用の集計結果Dist_Sumは、 As shown in FIG. 15, the luminance histogram obtained by equal sampling and the luminance histogram obtained by edge pixel sampling are combined to generate a histogram for evaluating the image. It needs to be adjusted. Here, when the weighting coefficient k is employed, the totaling result Dist_Sum for evaluation is calculated from the totaling result Dist_ave of the uniform sampling and the totaling result Dist_edg of the edge pixel sampling.
となる。そして、この重み付け係数kは、「0」に近づくほど全体重視となり、「1」に近づくほど被写体重視といえる。このため、図14に示す画像評価オプション入力画面でオプションを選択した後、ステップS190にて同オプションに基づいて分岐し、ポートレートを選択したときにはステップS192にて「k=0.8」と設定し、風景写真を選択したときにはステップS194にて「k=0.2」と設定する。 It becomes. The weighting coefficient k becomes more important as it approaches “0”, and the subject becomes more important as it approaches “1”. For this reason, after selecting an option on the image evaluation option input screen shown in FIG. 14, the process branches based on the option in step S190, and when a portrait is selected, “k = 0.8” is set in step S192. When a landscape photograph is selected, “k = 0.2” is set in step S194.
オプション選択の残る一つの選択肢は自動設定である。この自動設定では先に述べたようにサンプリングしたエッジ画素数に基づき、当該エッジ画素数が少ない場合には風景写真と考えて重み付け係数kを「0」に近づけるし、当該エッジ画素数が多い場合にはポートレートと考えて重み付け係数kを「1」に近づける。エッジ画素のサンプリング数x_edgと均等サンプリング数x_aveを使用し、ステップS196にて重み付け係数を One option that remains to be selected is automatic setting. In this automatic setting, as described above, based on the number of edge pixels sampled, when the number of edge pixels is small, the weighting coefficient k is approximated to “0” when the number of edge pixels is small, and the number of edge pixels is large. Is considered to be a portrait and the weighting coefficient k is brought close to “1”. The edge pixel sampling number x_edg and the uniform sampling number x_ave are used, and the weighting coefficient is determined in step S196.
として算出して評価用の集計結果Dist_Sumを得る。 To obtain a total result Dist_Sum for evaluation.
このようにして評価用の集計結果Dist_Sumを得ることにより画像の評価を行ったことになる。むろん、この集計結果を用いてさらなる判定を行っても良いが、基本的にはかかる集計結果を利用する画像処理に応じて適宜変更すればよい。 In this way, the evaluation of the image is performed by obtaining the evaluation result Dist_Sum for evaluation. Of course, this determination result may be used for further determination. Basically, it may be changed as appropriate according to the image processing that uses the aggregation result.
この後、同集計結果に基づいて最適な画像処理を決定し、実行する。図16は、その一例としてコントラストの拡大と明度の補正の画像処理を実行するためのフローチャートを示している。 Thereafter, optimal image processing is determined and executed based on the result of the aggregation. FIG. 16 shows a flowchart for executing image processing for increasing contrast and correcting brightness as an example.
本実施形態でのコントラストを拡大するための基本的な手法は、画像データに基づいて輝度分布を求め、この輝度分布が本来の階調幅(255階調)の一部分しか利用していないのであれば分布を拡大するというものである。 The basic method for enlarging the contrast in the present embodiment is to obtain a luminance distribution based on image data, and if this luminance distribution uses only a part of the original gradation width (255 gradations). It is to expand the distribution.
従って、ステップS310では上述した重み付け係数kから集計結果Dist_Sumとしての輝度分布のヒストグラムを作成し、ステップS320では拡大する幅を決定する。拡大幅を決定するにあたり、輝度分布の両端を求めることを考える。写真画像の輝度分布は図17に示すように概ね山形に表れる。むろん、その位置、形状についてはさまざまである。輝度分布の幅はこの両端をどこに決めるかによって決定されるが、単に裾野が延びて分布数が「0」となる点を両端とすることはできない。裾野部分では分布数が「0」付近で変移する場合があるし、統計的に見れば限りなく「0」に近づきながら推移していくからである。 Therefore, in step S310, a histogram of the luminance distribution as the total result Dist_Sum is created from the above-described weighting coefficient k, and in step S320, the width to be enlarged is determined. In determining the enlargement width, consider obtaining both ends of the luminance distribution. The luminance distribution of a photographic image appears in a mountain shape as shown in FIG. Of course, there are various positions and shapes. The width of the luminance distribution is determined by where the both ends are determined. However, the point where the base is simply extended and the number of distributions becomes “0” cannot be the both ends. This is because the number of distributions may change around “0” in the base portion, and if it is statistically viewed, it changes while approaching “0” as much as possible.
このため、分布範囲において最も輝度の大きい側と小さい側からある分布割合だけ内側に経た部分を分布の両端とする。本実施形態においては、同図に示すように、この分布割合を0.5%に設定している。むろん、この割合については、適宜、変更することが可能である。このように、ある分布割合だけ上端と下端をカットすることにより、ノイズなどに起因して生じている白点や黒点を無視することもできる。すなわち、このような処理をしなければ一点でも白点や黒点があればそれが輝度分布の両端となってしまうので、255階調の輝度値であれば、多くの場合において最下端は階調「0」であるし、最上端は階調「255」となってしまうが、上端部分から0.5%の画素数だけ内側に入った部分を端部とすることにより、このようなことが無くなる。 For this reason, in the distribution range, portions that have passed a certain distribution ratio from the side with the highest luminance and the side with the lowest luminance are defined as both ends of the distribution. In the present embodiment, as shown in the figure, this distribution ratio is set to 0.5%. Of course, this ratio can be appropriately changed. In this way, by cutting the upper end and the lower end by a certain distribution ratio, it is possible to ignore white spots and black spots caused by noise or the like. In other words, if such a process is not performed, if there is even a single point of white or black, it will be at both ends of the luminance distribution. Although it is “0” and the uppermost end is gradation “255”, such a thing can be achieved by setting a portion that is inward by 0.5% of the number of pixels from the upper end portion as an end portion. Disappear.
実際の処理ではサンプリングした画素数に対する0.5%を演算し、再現可能な輝度分布における上端の輝度値及び下端の輝度値から順番に内側に向かいながらそれぞれの分布数を累積し、0.5%の値となった輝度値を求める。以後、この上端側をymaxと呼び、下端側をyminと呼ぶ。 In the actual processing, 0.5% of the number of sampled pixels is calculated, and the number of distributions is accumulated in order from the luminance value at the upper end and the luminance value at the lower end in the reproducible luminance distribution in order toward the inside. The luminance value that is a value of% is obtained. Hereinafter, this upper end side is called ymax, and the lower end side is called ymin.
再現可能な輝度の範囲を「0」〜「255」としたときに、変換前の輝度yと輝度の分布範囲の最大値ymaxと最小値yminから変換先の輝度Yを次式に基づいて求める。 When the reproducible luminance range is “0” to “255”, the conversion destination luminance Y is obtained from the luminance y before conversion, the maximum value ymax and the minimum value ymin of the luminance distribution range based on the following equation. .
ただし However,
また、上記変換式にてY<0ならばY=0とし、Y>255ならばY=255とする。ここにおける、aは傾きであり、bはオフセットといえる。この変換式によれば、図18に示すように、あるせまい幅を持った輝度分布を再現可能な範囲まで広げることができる。ただし、再現可能な範囲を最大限に利用して輝度分布の拡大を図った場合、ハイライト部分が白く抜けてしまったり、ハイシャドウ部分が黒くつぶれてしまうことが起こる。これを防止するため本実施形態においては、再現可能な範囲を制限している。すなわち、再現可能な範囲の上端と下端に拡大しない範囲として輝度値で「5」だけ残している。この結果、変換式のパラメータは次式のようになる。 In the above conversion equation, if Y <0, Y = 0, and if Y> 255, Y = 255. Here, a is an inclination and b can be said to be an offset. According to this conversion formula, as shown in FIG. 18, the luminance distribution having a narrow width can be expanded to a reproducible range. However, when the luminance distribution is expanded by making the maximum use of the reproducible range, the highlight portion may be white and the high shadow portion may be black. In order to prevent this, the reproducible range is limited in this embodiment. That is, the luminance value “5” is left as a range that does not expand to the upper end and the lower end of the reproducible range. As a result, the parameters of the conversion equation are as follows:
そして、この場合にはy<yminと、y>ymaxの範囲においては変換を行わないようにする。 In this case, conversion is not performed in the range of y <ymin and y> ymax.
ただし、このままの拡大率(aに対応)を適用してしまうと、非常に大きな拡大率が得られる場合も生じてしまう。例えば、夕方のような薄暮の状態では最も明るい部分から暗い部分までのコントラストの幅が狭くて当然であるのに、この画像についてコントラストを大きく拡大しようとする結果、昼間の画像のように変換されてしまいかねない。このような変換は希望されないので、拡大率には制限を設けておき、aが1.5(〜2)以上とはならないように制限する。これにより、薄暮は薄暮なりに表現されるようになる。なお、この場合は輝度分布の中心位置がなるべく変化しないような処理を行っておく。 However, if the same enlargement ratio (corresponding to a) is applied, a very large enlargement ratio may be obtained. For example, in the twilight state in the evening, it is natural that the contrast range from the brightest part to the dark part is narrow, but as a result of trying to enlarge the contrast for this image, it is converted like a daytime image. It can be. Since such conversion is not desired, a restriction is set on the enlargement ratio so that a is not 1.5 (˜2) or more. As a result, twilight is expressed as twilight. In this case, processing is performed so that the center position of the luminance distribution does not change as much as possible.
ところで、輝度の変換時に、毎回、上記変換式(Y=ay+b)を実行するのは非合理的である。というのは、輝度yの取りうる範囲が「0」〜「255」でしかあり得ないため、予め輝度yが取りうる全ての値に対応して変換後の輝度Yを求めておくことも可能である。従って、図19に示すようなテーブルとして記憶しておく。 By the way, it is unreasonable to execute the conversion equation (Y = ay + b) every time the luminance is converted. This is because the range that the luminance y can take is only “0” to “255”, and it is possible to obtain the luminance Y after conversion corresponding to all the values that the luminance y can take in advance. It is. Therefore, it is stored as a table as shown in FIG.
このような変換テーブルを形成することがステップS320の拡大幅決定処理に該当し、画像データを変更することが可能になる。しかし、このような輝度の範囲の拡大によってコントラストを強調するだけでなく、合わせて明るさを調整することも極めて有効であるため、ステップS330にて画像の明るさを判断し、補正のためのパラメータを生成する。 Formation of such a conversion table corresponds to the enlargement width determination process in step S320, and the image data can be changed. However, it is extremely effective to not only enhance the contrast by expanding the brightness range but also adjust the brightness together. Therefore, in step S330, the brightness of the image is determined and corrected. Generate parameters.
例えば、図20にて実線で示すように輝度分布の山が全体的に暗い側に寄っている場合には波線で示すように全体的に明るい側に山を移動させると良いし、逆に、図21にて実線で示すように輝度分布の山が全体的に明るい側に寄っている場合には波線で示すように全体的に暗い側に山を移動させると良い。 For example, when the peaks of the luminance distribution are on the whole dark side as shown by the solid line in FIG. 20, it is better to move the mountains to the bright side as shown by the wavy lines, In the case where the peaks of the luminance distribution are close to the bright side as shown by the solid line in FIG. 21, it is preferable to move the peaks to the dark side as shown by the wavy lines.
各種の実験を行った結果、本実施形態においては、輝度分布におけるメジアンymedを求め、同メジアンymedが「85」未満である場合に暗い画像と判断して以下のγ値に対応するγ補正で明るくする。 As a result of various experiments, in the present embodiment, the median ymed in the luminance distribution is obtained, and when the median ymed is less than “85”, the image is determined to be a dark image and γ correction corresponding to the following γ values is performed. Brighten.
あるいは、 Or
とする。 And
この場合、γ<0.7となっても、γ=0.7とする。このような限界を設けておかないと夜の画像が昼間のようになってしまうからである。なお、明るくしすぎると全体的に白っぽい画像になってコントラストが弱い画像になりやすいため、彩度を合わせて強調するなどの処理が好適である。 In this case, even if γ <0.7, γ = 0.7. This is because if such a limit is not set, the night image becomes like the daytime. Note that if the image is too bright, the overall image becomes whitish and the contrast tends to be low, so that processing such as enhancement of saturation is suitable.
一方、メジアンymedが「128」より大きい場合に明るい画像と判断して以下のγ値に対応するγ補正で暗くする。 On the other hand, when the median ymed is larger than “128”, the image is judged to be a bright image and darkened by γ correction corresponding to the following γ values.
あるいは、 Or
とする。この場合、γ>1.3となっても、γ=1.3として暗くなり過ぎないように限界を設けておく。 And In this case, even if γ> 1.3, a limit is set so that γ = 1.3 so as not to be too dark.
なお、このγ補正は変換前の輝度分布に対して行っても良いし、変換後の輝度分布に対して行っても良い。γ補正をした場合における対応関係を図22に示しており、γ<1であれば上方に膨らむカーブとなり、γ>1であれば下方に膨らむカーブとなる。むろん、かかるγ補正の結果も図19に示すテーブル内に反映させておけばよく、テーブルデータに対して同補正を行っておく。 This γ correction may be performed on the luminance distribution before conversion or on the luminance distribution after conversion. FIG. 22 shows a correspondence relationship when γ correction is performed. When γ <1, the curve swells upward, and when γ> 1, the curve swells downward. Of course, the result of such γ correction may be reflected in the table shown in FIG. 19, and the same correction is performed on the table data.
最後に、ステップS340にてコントラスト補正と明度補正が必要であるか否かを判断する。この判断は上述した拡大率(a)とγ値について適当なしきい値と比較し、拡大率の方が大きかったりγ値が所定範囲を超えていたら必要性有りと判断する。そして、必要性有りと判断されれば画像データの変換を行う。 Finally, in step S340, it is determined whether or not contrast correction and brightness correction are necessary. In this determination, the enlargement ratio (a) and the γ value are compared with appropriate threshold values, and if the enlargement ratio is larger or the γ value exceeds a predetermined range, it is determined that there is a necessity. If it is determined that there is a necessity, the image data is converted.
画像処理が必要であると判断された場合、(9)式に基づく変換を行うが、同式の変換式は、RGBの成分値との対応関係においても当てはめることができ、変換前の成分値(R0 ,G0 ,B0 )に対して変換後の成分値(R,G,B)は、 When it is determined that image processing is necessary, the conversion based on the equation (9) is performed. The conversion equation of the same equation can also be applied in the correspondence relationship with the RGB component values, and the component value before the conversion For (R0, G0, B0), the converted component values (R, G, B) are
として求めることもできる。ここで、輝度y,Yが階調「0」〜階調「255」であるのに対応してRGBの各成分値(R0,G0,B0),(R,G,B)も同じ範囲となっており、上述した輝度y,Yの変換テーブルをそのまま利用すればよいといえる。 Can also be sought. Here, corresponding to the luminance y and Y ranging from gradation “0” to gradation “255”, the RGB component values (R0, G0, B0), (R, G, B) are also in the same range. Therefore, it can be said that the luminance y and Y conversion tables described above may be used as they are.
従って、ステップS350では全画素の画像データ(R0,G0,B0)について(18)〜(20)式に対応する変換テーブルを参照し、変換後の画像データ(R,G,B)を得るという処理を繰り返すことになる。 Accordingly, in step S350, the image data (R, G, B) after conversion is obtained by referring to the conversion table corresponding to the equations (18) to (20) for the image data (R0, G0, B0) of all pixels. The process will be repeated.
ところで、この場合は輝度の集計結果を画像の判定に利用する評価基準として使用し、コントラスト補正と明度補正を行うようにしているが、画像処理の具体例はこれに限られるものではなく、従って評価基準として使用する集計内容も様々である。 By the way, in this case, the result of luminance aggregation is used as an evaluation criterion used for image determination, and contrast correction and brightness correction are performed. However, a specific example of image processing is not limited to this, and accordingly, There are various aggregation contents used as evaluation criteria.
図23は彩度強調のための画像処理を実行する場合のフローチャートを示している。 FIG. 23 shows a flowchart when image processing for saturation enhancement is executed.
まず、画素データがその成分要素として彩度を持っていればその彩度の値を用いて分布を求めることが可能であるが、RGBの成分値しか持っていないため、本来的には彩度値が直接の成分値となっている表色空間への変換を行なわなければ彩度値を得ることができない。例えば、標準表色系としてのLuv空間においては、L軸が輝度(明度)を表し、U軸及びV軸で色相を表している。ここにおいて、U軸及びV軸においては両軸の交点からの距離が彩度を表すため、実質的に(U**2+V**2)**(1/2)が彩度となる。 First, if the pixel data has saturation as its component element, the distribution can be obtained using the saturation value, but since it has only RGB component values, it is essentially saturation. Saturation values cannot be obtained without conversion to a color space where the values are direct component values. For example, in the Luv space as a standard color system, the L axis represents luminance (brightness), and the U axis and V axis represent hue. Here, in the U axis and the V axis, the distance from the intersection of both axes represents the saturation, so that (U ** 2 + V ** 2) ** (1/2) is substantially the saturation.
このような異なる表色空間の間での色変換は対応関係を記憶した色変換テーブルを参照しつつ、補間演算を併用しなければならず、演算処理量は膨大となってくる。このような状況に鑑み、本実施形態においては、画像データとして標準的なRGBの階調データを直に利用して彩度の代替値Xを次のようにして求めている。 For such color conversion between different color spaces, it is necessary to use interpolation calculation together with reference to the color conversion table storing the correspondence relationship, and the amount of calculation processing becomes enormous. In view of such a situation, in this embodiment, the standard RGB gradation data is directly used as the image data, and the saturation alternative value X is obtained as follows.
本来的には彩度は、R=G=Bの場合に「0」となり、RGBの単色あるいはいずれか二色の所定割合による混合時において最大値となる。この性質から直に彩度を適切に表すのは可能であるものの、簡易な(21)式によっても赤の単色および緑と青の混合色である黄であれば最大値の彩度となり、各成分が均一の場合に「0」となる。また、緑や青の単色についても最大値の半分程度には達している。むろん、 Originally, the saturation is “0” when R = G = B, and becomes the maximum value when mixing with a predetermined ratio of one or two colors of RGB. Although it is possible to express the saturation directly and appropriately from this property, even if it is yellow which is a single color of red and a mixed color of green and blue according to the simple equation (21), the maximum saturation is obtained. It is “0” when the components are uniform. In addition, green and blue single colors reach about half of the maximum value. Of course,
という式にも代替可能である。 It is also possible to substitute for this formula.
ステップS410では、上述した均等サンプリングとエッジ画素サンプリングの手法を採用しつつそれぞれ別個に彩度の代替値Xについてのヒストグラムの分布を求める。(21)式においては、彩度が最低値「0」〜最大値「511」の範囲で分布し、概略的には図24に示すような分布となる。次なるステップS420では、集計された彩度分布に基づいてこの画像についての彩度指数というものを決定する。但し、この場合も均等サンプリングの集計結果とエッジ画素サンプリングの集計結果から個別に彩度指数を導出し、上述した重み付け係数kを利用して合算せしめた彩度指数を算出する。 In step S410, the distribution of the histogram for the alternative value X of saturation is obtained separately while employing the above-described equal sampling and edge pixel sampling methods. In the equation (21), the saturation is distributed in the range of the minimum value “0” to the maximum value “511”, and is roughly distributed as shown in FIG. In the next step S420, a saturation index for this image is determined based on the aggregated saturation distribution. However, also in this case, the saturation index is derived individually from the total sampling result of the uniform sampling and the total result of the edge pixel sampling, and the saturation index is calculated by using the above-described weighting coefficient k.
彩度指数を導出するにあたり、本実施形態においては、サンプリングされた画素数の範囲で、分布数として上位の「16%」が占める範囲を求める。そして、この範囲内での最低の彩度「A」がこの画像の彩度を表すものとして次式に基づいて彩度強調指数Sを決定する。 In deriving the saturation index, in the present embodiment, the range occupied by the upper “16%” as the distribution number is obtained in the range of the number of sampled pixels. Then, the saturation enhancement index S is determined based on the following equation, assuming that the lowest saturation “A” in this range represents the saturation of this image.
すなわち、 That is,
とする。図25は、この彩度「A」と彩度強調指数Sとの関係を示している。図に示すように、彩度指数Sは最大値「50」〜最小値「0」の範囲で彩度「A」が小さいときに大きく、同彩度「A」が大きいときに小さくなるように徐々に変化していくことになる。 And FIG. 25 shows the relationship between the saturation “A” and the saturation enhancement index S. As shown in the figure, the saturation index S is large when the saturation “A” is small in the range from the maximum value “50” to the minimum value “0”, and small when the saturation “A” is large. It will change gradually.
彩度強調指数Sに基づいて彩度を強調するにあたり、上述したように画像データが彩度のパラメータを備えているものであれば同パラメータを変換すればよいものの、RGBの表色空間を採用している場合には、一旦、標準表色系であるLuv空間に変換し、Luv空間内で半径方向へ変移させなければならないといえる。しかしながら、RGBの画像データを、一旦、Luv空間内の画像データに変換し、彩度強調後に再びRGBに戻すといった作業が必要となり、演算量が多くならざるを得ない。従って、RGBの階調データをそのまま利用して彩度強調することにする。 When emphasizing the saturation based on the saturation emphasis index S, if the image data has a saturation parameter as described above, the same parameter can be converted, but the RGB color space is adopted. In such a case, it can be said that it must first be converted into the Luv space, which is a standard color system, and shifted in the radial direction within the Luv space. However, it is necessary to convert RGB image data into image data in the Luv space and return to RGB again after saturation enhancement, and the amount of computation must be increased. Therefore, saturation enhancement is performed using RGB gradation data as it is.
RGB表色空間のように各成分が概略対等な関係にある色相成分の成分値であるときには、R=G=Bであればグレイであって無彩度となる。従って、RGBの各成分における最小値となる成分については各画素の色相に影響を与えることなく単に彩度を低下させているにすぎないと考えれば、各成分における最小値をすべての成分値から減算し、その差分値を拡大することによって彩度を強調できるといえる。 When each component is a component value of a hue component in which the respective components are roughly equivalent as in the RGB color space, if R = G = B, the color is gray and achromatic. Therefore, assuming that the component having the minimum value in each component of RGB is merely reducing the saturation without affecting the hue of each pixel, the minimum value in each component is determined from all the component values. It can be said that the saturation can be enhanced by subtracting and enlarging the difference value.
まず、上述した彩度強調指数Sから演算に有利な彩度強調パラメータSratioを、 First, a saturation enhancement parameter Sratio that is advantageous for calculation from the saturation enhancement index S described above,
として求める。この場合、彩度強調指数S=0のときに彩度強調パラメータSratio=1となって彩度強調されない。次に、RGB階調データの各成分(R,G,B)における青(B)の成分値が最小値であったとすると、この彩度強調パラメータSratio を使用して次のように変換する。 Asking. In this case, when the saturation enhancement index S = 0, the saturation enhancement parameter Sratio = 1 and no saturation enhancement is performed. Next, assuming that the component value of blue (B) in each component (R, G, B) of the RGB gradation data is the minimum value, conversion is performed as follows using this saturation emphasis parameter Sratio.
この結果、RGB表色空間とLuv空間との間で一往復する二度の色変換が不要となるため、演算時間の低減をはかることができる。この実施形態においては、無彩度の成分について単純に最小値の成分を他の成分値から減算する手法を採用しているが、無彩度の成分を減算するにあたっては別の変換式を採用するものであっても構わない。ただし、(29)〜(31)式のように最小値を減算するだけの場合には乗除算が伴わないので演算量が容易となるという効果がある。 As a result, it is not necessary to perform two-time color conversion between the RGB color space and the Luv space, so that the calculation time can be reduced. In this embodiment, the method of simply subtracting the minimum value component from the other component values for the achromatic component is adopted, but another conversion formula is adopted for subtracting the achromatic component. It doesn't matter if you do it. However, when only the minimum value is subtracted as in equations (29) to (31), there is an effect that the amount of calculation becomes easy because multiplication and division are not involved.
(25)〜(27)式を採用する場合でも、良好な変換が可能であるものの、この場合には彩度を強調すると輝度も向上して全体的に明るくなるという傾向がある。従って、各成分値から輝度の相当値を減算した差分値を対象として変換を行うことにする。 Even when the equations (25) to (27) are employed, good conversion is possible, but in this case, when the saturation is emphasized, there is a tendency that the luminance is improved and the entire image becomes brighter. Therefore, the conversion is performed on the difference value obtained by subtracting the luminance equivalent value from each component value.
まず、輝度を求めるために、上述したLuv空間に色変換したのでは演算量が多大となってしまうため、テレビジョンなどの場合に利用されているRGBから輝度を直に求める次式の変換式を利用する。 First, since the amount of calculation becomes large if the color conversion to the above-described Luv space is performed in order to obtain the luminance, the following conversion equation for obtaining the luminance directly from RGB used in the case of a television or the like: Is used.
輝度Yは、 Luminance Y is
一方、彩度強調は、 On the other hand, saturation enhancement
とする。この加減値△R,△G,△Bは輝度との差分値に基づいて次式のように求める。すなわち、 And These addition / subtraction values ΔR, ΔG, ΔB are obtained by the following equation based on the difference value from the luminance. That is,
となり、この結果、 And as a result,
として変換可能となる。なお、輝度の保存は次式から明らかである。 Can be converted as In addition, the preservation | save of a brightness | luminance is clear from following Formula.
また、入力がグレー(R=G=B)のときには、輝度Y=R=G=Bとなるので、加減値△R=△G=△B=0となり、無彩色に色が付くこともない。(39)式〜(41)式を利用すれば輝度が保存され、彩度を強調しても全体的に明るくなることはない。 Further, when the input is gray (R = G = B), the luminance Y = R = G = B, so the addition / subtraction value ΔR = ΔG = ΔB = 0, and the achromatic color is not colored. . If Equations (39) to (41) are used, the luminance is preserved, and even if the saturation is enhanced, the overall brightness does not increase.
以上のようにして彩度強調指数Sratio を求めたら、ステップS430にて所定のしきい値と比較し、彩度強調が必要な画像であるかを判断する。そして、必要であればステップS440にて(39)式〜(41)式に基づいて全画素について画像データを変換する。 When the saturation enhancement index Sratio is obtained as described above, it is compared with a predetermined threshold value in step S430 to determine whether the image needs saturation enhancement. If necessary, in step S440, image data is converted for all pixels based on equations (39) to (41).
従って、ステップS410,S420にて複数の評価基準に基づいて画像データを評価しつつ、それぞれの評価結果に対して所定の重み付けを持たせて合算しており、これらを実行するハードウェア構成とソフトウェアとによって画像データ評価手段を構成することになる。 Therefore, while evaluating the image data based on a plurality of evaluation criteria in steps S410 and S420, the respective evaluation results are added together with a predetermined weight, and the hardware configuration and software for executing these are added. Thus, the image data evaluation means is configured.
また、他の画像の評価基準としてエッジ強調処理の画像処理を前提としたエッジ度の評価に適用することもできる。図26は、このエッジ強調処理のフローチャートを示している。エッジ度は上述した手法にて算出するものとし、ステップS510では対象画素を移動させながら均等サンプリングとエッジ画素サンプリングの手法で別々にエッジ度を集計する。そして、積算されたエッジ度を画素数で除算することにより、それぞれの評価基準に基づくエッジ度の平均値を算出する。すなわち、この画像のシャープ度合いSLは、画素数をE(I)pixとすると、 Moreover, it can also be applied to the evaluation of the edge degree on the premise of the image processing of the edge enhancement processing as an evaluation criterion for other images. FIG. 26 shows a flowchart of this edge enhancement processing. The edge degree is calculated by the above-described method, and in step S510, the edge degree is totaled separately by the uniform sampling method and the edge pixel sampling method while moving the target pixel. Then, by dividing the accumulated edge degree by the number of pixels, an average value of the edge degree based on each evaluation criterion is calculated. That is, the sharpness SL of the image is defined as follows, where the number of pixels is E (I) pix.
のようにして演算することができる。この場合、SLの値が小さい画像ほどシャープネスの度合いが低い(見た目にぼけた)と判断できるし、SLの値が大きい画像ほどシャープネスの度合いが高い(見た目にはっきりとしたもの)と判断できる。 It can be calculated as follows. In this case, it can be determined that an image with a smaller value of SL has a lower degree of sharpness (the image is blurred), and an image with a larger value of SL has a higher degree of sharpness (the image is clearly visible).
次に、ステップS515では画像評価オプションを入力するなどして重み付け係数kを決定し、それぞれのサンプリング手法に基づくエッジ度を重み付け加算して合算する。 Next, in step S515, a weighting coefficient k is determined by inputting an image evaluation option, and the edge degrees based on the respective sampling methods are weighted and added together.
一方、画像のシャープさは感覚的なものであるため、実験的に得られた最適なシャープ度合いの画像データについて同様にしてシャープ度合いSLを求め、その値を理想のシャープ度合いSLoptと設定するとともに、ステップS520においてエッジ強調度Eenhanceを、 On the other hand, since the sharpness of the image is sensuous, the sharpness SL is similarly determined for the image data having the optimum sharpness obtained experimentally, and the value is set as the ideal sharpness SLopt. In step S520, the edge enhancement degree Eenhance is set to
として求める。ここにおいて、係数ksは画像の大きさに基づいて変化するものであり、上述したように画像データが縦横方向にそれぞれheightドットとwidthドットからなる場合、 Asking. Here, the coefficient ks changes based on the size of the image. As described above, when the image data is composed of height dots and width dots in the vertical and horizontal directions, respectively,
のようにして求めている。ここにおいて、min(height,width)はheightドットとwidthドットのうちのいずれか小さい方を指し、Aは定数で「768」としている。むろん、これらは実験結果から得られたものであり、適宜変更可能であることはいうまでもない。ただし、基本的には画像が大きいものほど強調度を大きくするということで良好な結果を得られている。 It is asking for. Here, min (height, width) indicates the smaller of the height dot and the width dot, and A is a constant “768”. Of course, these are obtained from the experimental results and can be changed as appropriate. However, basically, a larger result is obtained by increasing the degree of enhancement for a larger image.
このようにしてエッジ強調度Eenhance を求めたら、ステップS530にて所定のしきい値と比較してエッジ強調が必要であるか判断し、必要であると判断されればステップS540にて全画素についてエッジ強調処理を実行する。 When the edge enhancement degree Eenhance is obtained in this way, it is compared with a predetermined threshold value in step S530 to determine whether edge enhancement is necessary. If it is determined that it is necessary, in step S540, all pixels are determined. Perform edge enhancement processing.
エッジ強調処理は、強調前の各画素の輝度Yに対して強調後の輝度Y'が、 In the edge enhancement process, the luminance Y ′ after enhancement with respect to the luminance Y of each pixel before enhancement is
として演算される。ここで、Yunsharpは各画素の画像データに対してアンシャープマスク処理を施したものであり、ここでアンシャープマスク処理について説明する。図27は一例として5×5画素のアンシャープマスク41を示している。このアンシャープマスク41は、中央の「100」の値をマトリクス状の画像データにおける処理対象画素Y(x,y)の重み付けとし、その周縁画素に対して同マスクの升目における数値に対応した重み付けをして積算するのに利用される。このアンシャープマスク41を利用する場合、
Is calculated as Here, Yunsharp is obtained by performing unsharp mask processing on the image data of each pixel. Here, unsharp mask processing will be described. FIG. 27 shows an
なる演算式に基づいて積算する。(48)式において、「396」とは重み付け係数の合計値であり、サイズの異なるアンシャープマスクにおいては、それぞれ升目の合計値となる。また、Mijはアンシャープマスクの升目に記載されている重み係数であり、Y(x,y)は各画素の画像データである。なお、ijについてはアンシャープマスク41に対して横列と縦列の座標値で示している。
Is integrated based on the following equation. In equation (48), “396” is the total value of the weighting coefficients, and in the unsharp masks of different sizes, each is the total value of the cells. Mij is a weighting factor written in the grid of the unsharp mask, and Y (x, y) is image data of each pixel. Note that ij is indicated by the coordinate values of the horizontal and vertical columns with respect to the
(47)式に基づいて演算されるエッジ強調演算の意味するところは次のようになる。Yunsharp(x,y)は注目画素に対して周縁画素の重み付けを低くして加算したものであるから、いわゆる「なまった(アンシャープ)」画像データとしていることになる。このようにしてなまらせたものはいわゆるローパスフィルタをかけたものと同様の意味あいを持つ。従って、「Y(x,y)−Yunsharp (x,y)」とは本来の全成分から低周波成分を引いたことになってハイパスフィルタをかけたものと同様の意味あいを持つ。そして、ハイパスフィルタを通過したこの高周波成分に対してエッジ強調度Eenhance を乗算して「Y(x,y)」に加えれば同エッジ強調度Eenhanceに比例して高周波成分を増したことになり、エッジが強調される結果となる。 The meaning of the edge emphasis calculation calculated based on the equation (47) is as follows. Yunsharp (x, y) is obtained by lowering the weight of the peripheral pixel with respect to the target pixel and adding it, so that it is so-called “unsharp” image data. What is smoothed in this way has the same meaning as that obtained by applying a so-called low-pass filter. Therefore, “Y (x, y) −Yunsharp (x, y)” has the same meaning as that obtained by applying the high-pass filter by subtracting the low frequency component from the original all components. When the high frequency component that has passed through the high-pass filter is multiplied by the edge enhancement degree Eenhance and added to “Y (x, y)”, the high frequency component is increased in proportion to the edge enhancement degree Eenhance. The result is an enhanced edge.
なお、エッジ強調が必要になる状況を考えるといわゆる画像のエッジ部分であるから、隣接する画素との間で画像データの差が大きな場合にだけ演算するようにしてもよい。このようにすれば、殆どのエッジ部分でない画像データ部分でアンシャープマスクの演算を行う必要がなくなり、処理が激減する。 Note that since it is a so-called edge portion of an image in consideration of a situation where edge enhancement is necessary, the calculation may be performed only when there is a large difference in image data between adjacent pixels. In this way, it is not necessary to perform an unsharp mask operation on image data portions that are not almost edge portions, and the processing is drastically reduced.
なお、実際の演算は、強調後の輝度Y'と強調前の輝度Yから、 The actual calculation is based on the luminance Y ′ after enhancement and the luminance Y before enhancement.
と置き換えれば、変換後のR'G'B'は、 R′G′B ′ after conversion is
のように演算可能となる。 It becomes possible to calculate as follows.
従って、このエッジ強調処理では、ステップS510,S515にて、複数の評価基準に基づいて画像のエッジ度を評価しつつ、それぞれの評価結果に対して所定の重み付けを持たせて合算しており、これらを実行するハードウェア構成とソフトウェアとによって画像データ評価手段を構成することになる。 Therefore, in this edge emphasis process, in steps S510 and S515, while evaluating the edge degree of the image based on a plurality of evaluation criteria, the respective evaluation results are summed with a predetermined weight, The image data evaluation means is configured by the hardware configuration and software for executing these.
なお、上述したコントラスト補正、明度補正、彩度強調、エッジ強調のそれぞれについて、画像処理を行うかを判断している。しかし、必ずしも画像処理を行うか否かの二者択一の判断を行う必要はない。すなわち、それぞれにおいて強調程度を設定しており、このようにして設定した強調程度で画像処理を行うようにしても良い。 It is determined whether image processing is performed for each of the above-described contrast correction, brightness correction, saturation enhancement, and edge enhancement. However, it is not always necessary to make a determination as to whether or not to perform image processing. That is, the degree of emphasis is set for each, and image processing may be performed with the degree of emphasis set in this way.
次に、上記構成からなる本実施形態の動作を説明する。 Next, the operation of the present embodiment configured as described above will be described.
写真画像をスキャナ11で読み込み、プリンタ31にて印刷する場合を想定する。すると、まず、コンピュータ21にてオペレーティングシステム21aが稼働しているもとで、画像処理アプリケーション21dを起動させ、スキャナ11に対して写真の読み取りを開始させる。読み取られた画像データが同オペレーティングシステム21aを介して画像処理アプリケーション21dに取り込まれたら、処理対象画素を初期位置に設定する。続いて、ステップS110にて(1)式〜(3)式に基づいてエッジ度を判定し、ステップS120ではしきい値と同エッジ度とを比較する。そして、エッジ度の方が大きい場合には処理対象画素がエッジ画素であると判断し、ステップS130にて当該画素の画像データをワークエリアに保存する。また、ステップS140では当該処理対象画素が均等サンプリングの対象であるか否かを判断し、対象である場合はステップS150で当該画素の画像データを別のワークエリアに保存する。
Assume that a photographic image is read by the
以上の処理をステップS160にて処理対象画素を移動させながらステップS170にて全画素について実行したと判断されるまで繰り返す。 The above processing is repeated until it is determined in step S170 that all the pixels have been executed while moving the processing target pixel in step S160.
全画素について実行し終えたら、それぞれのワークエリアには異なる評価基準でサンプリングされた画像データが保存されていることになり、ステップS180では画像評価のためのオプションを入力する。操作者が画像を見てポートレートであるか風景写真であるかが判断できればいずれかを選択すればよいし、判断できない場合や全てを自動化したい場合には自動設定を選択する。ポートレートを選択した場合には重み付け係数kが「0.8」となってエッジ画素についての集計結果に重きを置かれるし、風景写真を選択した場合には重み付け係数kが「0.2」となって均等にサンプリングした集計結果に重きを置かれ、自動設定を選択した場合にはエッジ画素の割合に応じた重み付け係数kがセットされる。ただし、どの場合においても重み付け係数kを使用して複数の評価基準を採用することになり、一つだけの評価基準にとらわれない柔軟な評価が可能となる。 When execution is completed for all pixels, image data sampled according to different evaluation criteria is stored in each work area. In step S180, an option for image evaluation is input. If the operator can determine whether the image is a portrait or a landscape photograph by looking at the image, one of them can be selected. If it cannot be determined, or if it is desired to automate all, an automatic setting is selected. When the portrait is selected, the weighting coefficient k is “0.8”, and the total result for the edge pixels is emphasized. When the landscape photograph is selected, the weighting coefficient k is “0.2”. The weighted coefficient k corresponding to the ratio of the edge pixels is set when the weighted result is uniformly sampled and automatic setting is selected. However, in any case, a plurality of evaluation criteria are adopted using the weighting coefficient k, and flexible evaluation independent of only one evaluation criterion is possible.
本実施形態においては、ワークエリアに画像データそのものを保存するようにしたが、メモリ容量や処理時間の面から考えると必ずしも画像データをそのものをワークエリアに保存しておく必要はない。すなわち、最終的にはサンプリング対象の画素について輝度分布や彩度代替値分布のヒストグラムを作成することになるので、予めステップS120,S150にてヒストグラムの情報を蓄積していくようにすればよい。 In the present embodiment, the image data itself is stored in the work area, but it is not always necessary to store the image data in the work area in view of memory capacity and processing time. That is, since a histogram of luminance distribution and saturation alternative value distribution is finally created for the pixel to be sampled, the histogram information may be stored in advance in steps S120 and S150.
自動的にコントラスト補正と明度補正を実行する場合は、重み付け係数を使用してステップS120,S150,S310にて輝度分布のヒストグラムを求め、ステップS320にて(12)(13)式に基づいて拡大処理のためのパラメータを決定するとともに、ステップS330にて(14)〜(17)式に基づいて明度補正のためのパラメータを決定する。そして、ステップS340ではこれらのパラメータを所定のしきい値と比較し、画像処理すべきと判断すればステップS350にて上記パラメータに基づいて輝度変換する。この場合、演算量を減らすために最初に図19に示す輝度の変換テーブルを作成しておき、(18)〜(20)式に基づいて画像データを変換する。 When performing contrast correction and brightness correction automatically, a weight distribution coefficient is used to obtain a luminance distribution histogram in steps S120, S150, and S310, and in step S320, enlargement is performed based on equations (12) and (13). In addition to determining parameters for processing, parameters for lightness correction are determined based on equations (14) to (17) in step S330. In step S340, these parameters are compared with predetermined threshold values. If it is determined that image processing is to be performed, luminance conversion is performed based on the parameters in step S350. In this case, in order to reduce the calculation amount, a luminance conversion table shown in FIG. 19 is created first, and the image data is converted based on the equations (18) to (20).
この後、画像処理された画像データをディスプレイドライバ21cを介してディスプレイ32に表示し、良好であればプリンタドライバ21bを介してプリンタ31にて印刷させる。すなわち、同プリンタドライバ21bはエッジ強調されたRGBの階調データを入力し、所定の解像度変換を経てプリンタ31の印字ヘッド領域に対応したラスタライズを行なうとともに、ラスタライズデータをRGBからCMYKへ色変換し、その後でCMYKの階調データから二値データへ変換してプリンタ31へ出力する。
Thereafter, the image data subjected to image processing is displayed on the
以上の処理により、スキャナ11を介して読み込まれた写真の画像データは自動的に最適なコントラスト補正と明度補正を施されてディスプレイ32に表示された後、プリンタ31にて印刷される。すなわち、複数の評価基準を採用してより柔軟に画像を判定し、その評価結果に基づいてコントラスト補正や明度補正という最適な画像処理を実現することができる。
Through the above processing, the image data of the photograph read through the
一方、このようなコントラスト補正や明度補正に限らず、彩度強調やエッジ強調の場合にも、複数の評価基準で彩度やエッジ度をサンプリングして集計するとともに重み付け係数を調整して合算するようにしたため、単一の評価基準だけにとらわれない柔軟な判定を経て画像処理を実行することになる。 On the other hand, not only such contrast correction and brightness correction, but also saturation enhancement and edge enhancement, the saturation and edge degree are sampled and aggregated according to a plurality of evaluation criteria, and the weighting coefficient is adjusted and added up. As a result, image processing is executed through a flexible determination that is not confined to a single evaluation criterion.
このように、画像処理の中枢をなすコンピュータ21はステップS120,S140にて異なる評価基準で画素の画像データをサンプリングしておくとともに、ステップS180にて入力される画像評価オプションに基づいてステップS192〜S196にて重み付け係数kを決定し、この決定した重み付け係数kを使用してステップS310にて集計結果を合算して輝度分布ヒストグラムを生成することにより、複数の評価基準を合算した総合的な集計結果に基づいて画像を評価し、ステップS310〜S350にて最適な画像処理を実行することができる。
As described above, the
10・・・画像入力装置
20・・・画像処理装置
21・・・コンピュータ
21a・・・オペレーティングシステム
21b・・・プリンタドライバ
21c・・・ディスプレイドライバ
21d・・・画像処理アプリケーション
22・・・ハードディスク
23・・・キーボード
24・・・CD−ROMドライブ
25・・・フレキシブルディスクドライブ
26・・・モデム
30・・・画像出力装置
DESCRIPTION OF
Claims (7)
サンプリングの集計結果に基づいて画像処理を行うか否かを決める第2の工程と、
画像処理を行うと決めた場合に前記画像データを前記画像処理に処す第3の工程と、
を含み、
前記第1の工程において、第1のサンプリング手法によるサンプリングと、前記第1のサンプリング手法とは異なる第2のサンプリング手法によるサンプリングとを行い、
前記第2の工程において、前記第1のサンプリング手法による第1のサンプリング結果と、前記第2のサンプリング手法による第2のサンプリング結果とを、それぞれ重み付けして合算した集計結果の分布を求め、前記集計結果の分布に基づいて画像処理を行うか否かを決め、
前記重み付けは、操作者による選択により決まり、
前記選択は、前記第1のサンプリング手法によりサンプリングした画素数と前記第2のサンプリング手法によりサンプリングした画素数とに基づいて前記重み付けが決められる選択肢と、前記第1のサンプリング結果よりも前記第2のサンプリング結果の方に重み付けされる選択肢と、前記第2のサンプリング結果よりも前記第1のサンプリング結果の方に重み付けされる選択肢とを含む複数の選択肢からなされる画像処理方法。 A first step of inputting live-action image data consisting of pixels in a dot matrix and sampling the input image data;
A second step for deciding whether or not to perform image processing based on the sampling result;
A third step of subjecting the image data to the image processing when it is determined to perform image processing;
Including
In the first step, sampling by a first sampling method and sampling by a second sampling method different from the first sampling method are performed,
In the second step, a first sampling result obtained by the first sampling method and a second sampling result obtained by the second sampling method are respectively weighted and summed to obtain a distribution of a total result, Decide whether to perform image processing based on the distribution of the total results,
The weight is determined by selection by the operator,
The selection includes an option in which the weighting is determined based on the number of pixels sampled by the first sampling method and the number of pixels sampled by the second sampling method, and the second than the first sampling result. An image processing method comprising a plurality of options including an option weighted toward the sampling result and an option weighted toward the first sampling result rather than the second sampling result.
前記画像処理は、コントラストの拡大であり、 The image processing is a contrast enlargement,
前記第2の工程において、前記集計結果の分布のうち、分布の上端から所定割合の分布と、分布の下端から所定割合の分布とをカットして画像処理を行うか否かを決める画像処理方法。 In the second step, an image processing method for deciding whether or not to perform image processing by cutting a predetermined ratio distribution from the upper end of the distribution and a predetermined ratio distribution from the lower end of the distribution among the distributions of the aggregation results. .
前記画像処理は、彩度の強調であり、 The image processing is saturation enhancement,
前記第2の工程において、前記集計結果の分布のうち、彩度の最大値から所定割合の範囲内の値により画像処理を行うか否かを決める画像処理方法。 In the second step, an image processing method for deciding whether or not to perform image processing based on a value within a predetermined ratio range from a maximum value of saturation in the distribution of the aggregation results.
画像データを入力する画像データ入力機能と、
該入力した前記画像データをサンプリングする第1の機能と、
サンプリングの集計結果に基づいて画像処理を行うか否かを決める第2の機能と、
画像処理を行うと決めた場合に前記画像データを前記画像処理に処す第3の機能とを実現させる画像処理プログラムを記録した媒体であって、
前記第1の機能において、第1のサンプリング手法によるサンプリングと、前記第1のサンプリング手法とは異なる第2のサンプリング手法によるサンプリングとを行い、
前記第2の機能において、前記第1のサンプリング手法による第1のサンプリング結果と、前記第2のサンプリング手法による第2のサンプリング結果とを、それぞれ重み付けして合算した集計結果の分布を求め、前記集計結果の分布に基づいて画像処理を行うか否かを決め、
前記重み付けを、操作者による選択により決め、
前記選択は、前記第1のサンプリング手法によりサンプリングした画素数と前記第2のサンプリング手法によりサンプリングした画素数とに基づいて前記重み付けが決められる選択肢と、前記第1のサンプリング結果よりも前記第2のサンプリング結果の方に重み付けされる選択肢と、前記第2のサンプリング結果よりも前記第1のサンプリング結果の方に重み付けされる選択肢とを含む複数の選択肢からなされる前記画像処理プログラムを記録した媒体。 On the computer ,
An image data input function for inputting image data;
A first function for sampling the input image data;
A second function for determining whether or not to perform image processing based on the sampling result;
A medium on which an image processing program for realizing a third function of processing the image data in the image processing when it is determined to perform image processing;
In the first function, sampling by a first sampling method and sampling by a second sampling method different from the first sampling method are performed,
In the second function, the distribution of the total result obtained by weighting and summing the first sampling result by the first sampling method and the second sampling result by the second sampling method, respectively, Decide whether to perform image processing based on the distribution of the total results,
The weight is determined by selection by an operator,
The selection includes an option in which the weighting is determined based on the number of pixels sampled by the first sampling method and the number of pixels sampled by the second sampling method, and the second than the first sampling result. Recording the image processing program comprising a plurality of options including an option weighted toward the sampling result and an option weighted toward the first sampling result rather than the second sampling result .
前記画像処理は、コントラストの拡大であり、 The image processing is a contrast enlargement,
前記第2の機能において、前記集計結果の分布のうち、分布の上端から所定割合の分布と、分布の下端から所定割合の分布とをカットして画像処理を行うか否かを決める前記画像処理プログラムを記録した媒体。 In the second function, the image processing for determining whether or not to perform image processing by cutting a distribution of a predetermined ratio from an upper end of the distribution and a distribution of a predetermined ratio from the lower end of the distribution among the distributions of the aggregation results The medium on which the program is recorded.
前記画像処理は、彩度の強調であり、 The image processing is saturation enhancement,
前記第2の機能において、前記集計結果の分布のうち、彩度の最大値から所定割合の範囲内の値により画像処理を行うか否かを決める前記画像処理プログラムを記録した媒体。 In the second function, the medium in which the image processing program for deciding whether or not to perform image processing based on a value within a predetermined ratio from a maximum value of saturation in the distribution of the aggregation results is recorded.
サンプリングの集計結果に基づいて画像処理を行うか否かを決める処理決定部と、
画像処理を行うと決めた場合に前記画像データを前記画像処理に処す処理実行部と、
を含み、
前記サンプリング部は、第1のサンプリング手法によるサンプリングと、前記第1のサンプリング手法とは異なる第2のサンプリング手法によるサンプリングとを行い、
前記処理決定部は、前記第1のサンプリング手法による第1のサンプリング結果と、前記第2のサンプリング手法による第2のサンプリング結果とを、それぞれ重み付けして合算した集計結果の分布を求め、前記集計結果の分布に基づいて画像処理を行うか否かを決め、
前記重み付けは、操作者による選択により決まり、
前記選択は、前記第1のサンプリング手法によりサンプリングした画素数と前記第2のサンプリング手法によりサンプリングした画素数とに基づいて前記重み付けが決められる選択肢と、前記第1のサンプリング結果よりも前記第2のサンプリング結果の方に重み付けされる選択肢と、前記第2のサンプリング結果よりも前記第1のサンプリング結果の方に重み付けされる選択肢とを含む複数の選択肢からなされる画像処理装置。 A sampling unit that inputs image data of a live-action composed of dot-matrix pixels and samples the input image data;
A process determining unit that determines whether or not to perform image processing based on a sampling result;
A processing execution unit that processes the image data in the image processing when it is determined to perform image processing;
Including
The sampling unit performs sampling by a first sampling method and sampling by a second sampling method different from the first sampling method,
The processing determining unit obtains a distribution of a total result obtained by weighting and summing the first sampling result obtained by the first sampling method and the second sampling result obtained by the second sampling method, and calculating the total Decide whether to perform image processing based on the distribution of results,
The weight is determined by selection by the operator,
The selection includes an option in which the weighting is determined based on the number of pixels sampled by the first sampling method and the number of pixels sampled by the second sampling method, and the second than the first sampling result. An image processing apparatus comprising a plurality of options including an option weighted toward the first sampling result and an option weighted toward the first sampling result rather than the second sampling result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010100666A JP4941575B2 (en) | 2010-04-26 | 2010-04-26 | Image processing method, medium storing image processing program, and image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010100666A JP4941575B2 (en) | 2010-04-26 | 2010-04-26 | Image processing method, medium storing image processing program, and image processing apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009142465A Division JP4557087B2 (en) | 2009-06-15 | 2009-06-15 | Image processing apparatus, image processing method, and recording medium |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011276566A Division JP5029779B2 (en) | 2011-12-19 | 2011-12-19 | Image processing method, medium storing image processing program, and image processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010165379A JP2010165379A (en) | 2010-07-29 |
JP4941575B2 true JP4941575B2 (en) | 2012-05-30 |
Family
ID=42581435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010100666A Expired - Lifetime JP4941575B2 (en) | 2010-04-26 | 2010-04-26 | Image processing method, medium storing image processing program, and image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4941575B2 (en) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63293687A (en) * | 1987-05-27 | 1988-11-30 | Ricoh Co Ltd | Dividing and discriminating system for area of document image |
JPH03102478A (en) * | 1989-09-14 | 1991-04-26 | Shimadzu Corp | Image processing device |
JPH05252444A (en) * | 1992-03-05 | 1993-09-28 | Fujitsu Ltd | Radiation image processing method |
EP0542361B1 (en) * | 1991-11-14 | 1998-09-16 | Agfa-Gevaert N.V. | Method and apparatus for constructing a histogram in digital image processing by statistical pixel sampling |
JPH07306938A (en) * | 1994-05-12 | 1995-11-21 | Ge Yokogawa Medical Syst Ltd | Image processing method and device therefor |
JP3233536B2 (en) * | 1994-09-16 | 2001-11-26 | 株式会社東芝 | Image forming device |
US5581370A (en) * | 1995-06-05 | 1996-12-03 | Xerox Corporation | Image-dependent automatic area of interest enhancement |
JPH09265530A (en) * | 1996-03-29 | 1997-10-07 | Ricoh Co Ltd | Dictionary generating method and color image recognizing method |
-
2010
- 2010-04-26 JP JP2010100666A patent/JP4941575B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2010165379A (en) | 2010-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8666156B2 (en) | Image-based backgrounds for images | |
JP2008167461A (en) | Edge-enhancement processing apparatus, output device, edge-enhancement processing method and computer readable recording medium | |
JPH10198802A (en) | Image processor, image processing method, and medium recording image processing program | |
JP4243362B2 (en) | Image processing apparatus, image processing method, and recording medium recording image processing program | |
JP3673092B2 (en) | Image quality adjusting apparatus, image quality adjusting method, and recording medium recording image adjusting program | |
JP4019204B2 (en) | Image processing apparatus, image processing method, and medium on which image processing control program is recorded | |
JP3921737B2 (en) | Image processing apparatus, image processing method, and medium on which image processing control program is recorded | |
JP4240236B2 (en) | Image processing apparatus, image processing method, medium storing image processing program, and printing apparatus | |
JP4941575B2 (en) | Image processing method, medium storing image processing program, and image processing apparatus | |
JP5029779B2 (en) | Image processing method, medium storing image processing program, and image processing apparatus | |
JP4475316B2 (en) | Image processing apparatus, recording medium storing image processing program, and image processing method | |
JP4557087B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP3731573B2 (en) | Image processing apparatus, image evaluation apparatus, image processing method, image evaluation method, and recording medium recording image processing program | |
JP4161141B2 (en) | Edge enhancement processing apparatus, edge enhancement processing method, and computer-readable recording medium recording an edge enhancement processing program | |
JP3501151B2 (en) | Image processing apparatus, image processing method, medium recording image processing control program | |
JP3705250B2 (en) | Image processing apparatus, image processing method, and medium on which image processing control program is recorded | |
JP2008245321A (en) | Image processing apparatus, image processing method, and recording medium | |
JP2003051947A5 (en) | ||
JP3570416B2 (en) | Image processing apparatus, image processing method, and medium recording image processing control program | |
JP3573143B2 (en) | Image processing apparatus, image processing method, medium recording image processing control program | |
JP3558073B2 (en) | Image processing apparatus, image processing method, medium recording image processing control program | |
JP3458855B2 (en) | Image processing apparatus, image processing method, and medium recording image processing control program | |
JP2003102027A5 (en) | ||
JP4123387B2 (en) | Image processing apparatus, image processing method, and medium on which image processing program is recorded | |
JPH11136514A (en) | Picture processor, picture processing method and medium recording picture processing control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111018 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120131 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120213 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150309 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |