JP2003050999A - Device and method for image processing and medium with recorded image processing program - Google Patents
Device and method for image processing and medium with recorded image processing programInfo
- Publication number
- JP2003050999A JP2003050999A JP2002180777A JP2002180777A JP2003050999A JP 2003050999 A JP2003050999 A JP 2003050999A JP 2002180777 A JP2002180777 A JP 2002180777A JP 2002180777 A JP2002180777 A JP 2002180777A JP 2003050999 A JP2003050999 A JP 2003050999A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- color
- data
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 150
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000001454 recorded image Methods 0.000 title 1
- 238000006243 chemical reaction Methods 0.000 claims abstract description 112
- 239000003086 colorant Substances 0.000 claims abstract description 81
- 238000009826 distribution Methods 0.000 claims abstract description 51
- 239000011159 matrix material Substances 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 8
- 238000003672 processing method Methods 0.000 claims description 8
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 235000019557 luminance Nutrition 0.000 description 55
- 238000010586 diagram Methods 0.000 description 21
- 238000005070 sampling Methods 0.000 description 10
- 238000007792 addition Methods 0.000 description 7
- 238000009792 diffusion process Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 101000795655 Canis lupus familiaris Thymic stromal cotransporter homolog Proteins 0.000 description 1
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 1
- 240000006829 Ficus sundaica Species 0.000 description 1
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 1
- 101100402621 Homo sapiens MSANTD4 gene Proteins 0.000 description 1
- 101100533652 Homo sapiens SLIRP gene Proteins 0.000 description 1
- 102100031642 Myb/SANT-like DNA-binding domain-containing protein 4 Human genes 0.000 description 1
- 102100025491 SRA stem-loop-interacting RNA-binding protein, mitochondrial Human genes 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像処理装置、画
像処理方法および画像処理プログラムを記録した媒体に
関し、特に、画像データの種類に応じた所定の処理を実
行する画像処理装置、画像処理方法および画像処理プロ
グラムを記録した媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method and a medium recording an image processing program, and more particularly to an image processing apparatus and an image processing method for executing a predetermined processing according to the type of image data. And a medium on which an image processing program is recorded.
【0002】[0002]
【従来の技術】従来より、写真など自然画の画像データ
やドロー系の非自然画の画像データについて、各種のエ
フェクト処理を行うソフトウェアが知られている。この
ようなソフトウェアでは、画像データをディスプレイな
どに表示させ、作業者が所望の処理を施して見栄えの良
い画像データを形成している。2. Description of the Related Art Conventionally, software for performing various effect processes on image data of natural images such as photographs and image data of non-natural images of draw type has been known. In such software, the image data is displayed on a display or the like, and an operator performs desired processing to form image data having a good appearance.
【0003】ここにおいて、各種のエフェクト処理のう
ちには、自然画をより美しく変換するものがある一方、
ドロー系の画像のようにあえて手を加える必要はないよ
うなものもある。Here, among various kinds of effect processing, while there is one that converts a natural image into a more beautiful one,
There are some things that don't need to be modified like draw images.
【0004】[0004]
【発明が解決しようとする課題】上述した従来のソフト
ウェアで構成された画像処理装置においては、作業者が
ディスプレイ上で画像の種類を判別して各種のエフェク
ト処理を選択しなければならず、自動化できないという
課題があった。In the image processing apparatus composed of the above-mentioned conventional software, the operator must discriminate the kind of the image on the display and select various effect processing. There was a problem that I could not do it.
【0005】本発明は、上記課題にかんがみてなされた
もので、画像データの種別を自動的に判定して適当な処
理を行うことが可能な画像処理装置、画像処理方法およ
び画像処理プログラムを記録した媒体の提供を目的とす
る。The present invention has been made in view of the above problems, and records an image processing apparatus, an image processing method, and an image processing program capable of automatically determining the type of image data and performing appropriate processing. The purpose is to provide the specified medium.
【0006】[0006]
【課題を解決するための手段】上記目的を達成するた
め、請求項1にかかる発明は、画像をドットマトリクス
状の画素に分解して各画素の情報を表す画像データを入
力し、各画素の輝度に相当する情報を色と見なして利用
色数を検知する色数検知手段と、この検知された利用色
数の多少に基づいて画像の種類を判定する画像判定手段
とを具備する構成としてある。In order to achieve the above object, the invention according to claim 1 decomposes an image into pixels in a dot matrix form, inputs image data representing information of each pixel, and outputs each pixel. The color number detecting means for detecting the number of used colors by regarding the information corresponding to the luminance as a color, and the image determination means for determining the type of the image based on the detected number of used colors are provided. .
【0007】画像の種類に応じて利用する色数が異な
る。例えば、写真などの自然画であれば被撮影物が同一
の青色であったとしても陰影によって複数の色となるな
ど、かなりの色を利用している。一方、ドロー系のデー
タであったり、ビジネスグラフであったりするときに
は、もともと作業者が色を指定して描かれているもので
あるため、自ずから色数には限度がある。従って、利用
色数から画像種類が判定できる。一方、画像データの利
用色数を検知する手法として、まず、マトリクス状の各
画素における現実の色を判定してヒストグラム状に集計
して検知するものが上げられる。The number of colors used varies depending on the type of image. For example, in the case of a natural image such as a photograph, even if the object to be photographed has the same blue color, a plurality of colors are used due to the shading, and considerable colors are used. On the other hand, when drawing data or a business graph, the number of colors is naturally limited because it is originally drawn by the operator. Therefore, the image type can be determined from the number of colors used. On the other hand, as a method of detecting the number of colors used in image data, first, there is a method of determining the actual color of each pixel in a matrix and totaling and detecting it in a histogram.
【0008】しかしながら、必ずしも正確な値が必要で
あるわけではないし、いわゆるフルカラーといわれるも
のでは1670万色もの色数があり得るため、正確な色
数を検出すること自体が手間になりかねない。However, an accurate value is not always necessary, and a so-called full color can have a color number of 16.7 million colors, so that detecting the accurate color number itself can be troublesome.
【0009】このような前提のもと、上記のように構成
した請求項1にかかる発明においては、画像をドットマ
トリクス状の画素に分解して各画素の情報を表す画像デ
ータを入力すると、色数検知手段が各画素の輝度に相当
する情報を色と見なして利用色数を検知し、画像判定手
段はこの検知された利用色数の多少に基づいて画像の種
類を判定する。Based on such a premise, in the invention according to claim 1 configured as described above, when the image is decomposed into dot matrix pixels and the image data representing the information of each pixel is input, The number detecting means regards the information corresponding to the luminance of each pixel as a color to detect the number of used colors, and the image determination means determines the type of the image based on the detected number of used colors.
【0010】各色ごとに輝度が対応しており、一つの輝
度値に対して複数色が対応しているとはいうものの、輝
度値が多くて色数が少ないというようなことはないし、
たまたま輝度値が一致する色ばかりで構成されていると
いうことも現実には考えられない。従って、利用色数が
多いか少ないかのおおざっぱな傾向であれば概ね輝度値
で判定しても構わないといえる。むろん、このようにし
て輝度値を置き換えた場合には利用色数というよりも利
用色数相当値というのが正確であるが、画像の種類を判
定するという用途を前提として利用色数と呼ぶことにす
る。The brightness corresponds to each color, and although a plurality of colors correspond to one brightness value, it does not happen that the brightness value is large and the number of colors is small.
It is unlikely in reality that it is composed of only colors with coincident brightness values. Therefore, it can be said that the brightness value may be used for determination if there is a rough tendency that the number of colors used is large or small. Of course, when the luminance values are replaced in this way, the value equivalent to the number of colors used is more accurate than the number of colors used, but it is called the number of colors used for the purpose of determining the type of image. To
【0011】ここにおいて、請求項2にかかる発明は、
上記請求項1に記載の画像処理装置において、画像デー
タが輝度に対応した複数の成分値で表される場合におい
て、上記色数検知手段は、同成分値の重みづけ積算によ
り輝度を求める構成としてある。Here, the invention according to claim 2 is
In the image processing apparatus according to claim 1, when the image data is represented by a plurality of component values corresponding to luminance, the color number detection means is configured to obtain the luminance by weighted integration of the same component values. is there.
【0012】輝度を利用するメリットはあっても画像デ
ータのパラメータに輝度の成分がなければ色変換しなけ
ればならず、通常であれば、色変換には多大な処理が必
要となる。しかるに、輝度を利用する時点で多少の誤差
は許容されているのであるから、画像データが輝度に対
応した複数の成分値で表される場合には同成分値の重み
づけ積算により多大な処理を要することなく輝度が求め
られる。Even if there is a merit of using brightness, color conversion must be performed if there is no brightness component in the parameter of the image data, and normally, a large amount of processing is required for color conversion. However, since some errors are allowed at the time of using the luminance, when the image data is represented by a plurality of component values corresponding to the luminance, a great deal of processing is required by weighted integration of the same component values. Luminance is required without need.
【0013】また、この他にも利用色数の検知を簡略化
する手法はある。例えば、三次元の色空間において各軸
方向にとびとびの格子状にし、あるグループごとに一色
と考える。これにより、例えば各軸が256階調という
ような場合の膨大な色数で集計をとる必要がなくなる。There are other methods for simplifying the detection of the number of colors used. For example, in a three-dimensional color space, it is considered that each group has one grid in each axis direction, and one group has one color. As a result, it is not necessary to collect data with a huge number of colors when each axis has 256 gradations.
【0014】また、画像データ全体での利用色数は必ず
しもすべての画素について集計する必要はなく、例え
ば、請求項3にかかる発明は、請求項1または請求項2
のいずれかに記載の画像処理装置において、上記色数検
知手段は、画像データからサンプリングした画素につい
て色数を検知する構成としてある。The number of colors used in the entire image data does not necessarily have to be totaled for all pixels. For example, the invention according to claim 3 is claim 1 or claim 2.
In the image processing apparatus described in any one of the above 1, the color number detection means is configured to detect the number of colors of the pixels sampled from the image data.
【0015】むろん、間引きによって誤差は生じるもの
の、上述したように必ずしも正確な利用色数が分かる必
要はないので、画像データからサンプリングした画素に
ついて色数を検知するようにすれば対象となる画素数が
減り、処理量も減る。Of course, although an error occurs due to thinning, it is not always necessary to know the exact number of colors used, as described above. Therefore, if the number of colors of pixels sampled from image data is detected, the number of target pixels can be detected. And the amount of processing is also reduced.
【0016】さらに、請求項4にかかる発明は、請求項
1〜請求項3のいずれかに記載の画像処理装置におい
て、上記画像判定手段は、利用色数が多い場合に自然画
であると判定する構成としてある。Further, the invention according to claim 4 is the image processing apparatus according to any one of claims 1 to 3, wherein the image determination means determines that the image is a natural image when the number of colors used is large. It is configured to do so.
【0017】利用色数が多い画像として自然画があげら
れるため、画像判定手段は利用色数が多ければ自然画で
あると判定する。Since a natural image is given as an image having a large number of used colors, the image determining means determines that the image is a natural image if the number of used colors is large.
【0018】自然画である場合に適当な画像処理として
コントラストの修正処理があり、請求項5にかかる発明
は、請求項4に記載の画像処理装置において、上記画像
データが自然画であるときに輝度分布を拡大させる画像
処理を行なうとともに非自然画であるときには輝度分布
を拡大させないようにする画像処理手段を具備する構成
としてある。When the image is a natural image, there is a contrast correction process as an appropriate image process. The invention according to claim 5 is the image processing apparatus according to claim 4, wherein when the image data is a natural image. The image processing means is configured to perform image processing for expanding the brightness distribution and not to expand the brightness distribution for a non-natural image.
【0019】例えば、写真においては撮影時の条件によ
ってコントラストの幅の狭い画像になってしまうことが
ある。このために画像処理を行うことがあるが、請求項
5にかかる発明によれば、色数検知手段が検知した画像
データの色数が多い場合には自然画であると判断され、
この場合には画像処理手段が輝度分布を拡大させる画像
処理を行なう。むろん、拡大する分布の範囲は適宜変更
可能であり、十分に輝度分布が広くコントラストの幅の
ある画像データであればあえて拡大処理する必要もな
い。また、ビジネスグラフのような非自然画である場合
にはコントラストの幅が問われるようなこともなく、輝
度分布を拡大させない。For example, in a photograph, an image may have a narrow contrast depending on the photographing condition. For this reason, image processing may be performed. According to the invention of claim 5, it is determined that the image is a natural image when the number of colors of the image data detected by the color number detection unit is large.
In this case, the image processing means performs image processing for expanding the brightness distribution. Of course, the range of the distribution to be enlarged can be changed as appropriate, and it is not necessary to intentionally perform the enlargement processing if the image data has a sufficiently wide luminance distribution and a wide contrast. Further, in the case of a non-natural image such as a business graph, the width of the contrast is not required and the brightness distribution is not expanded.
【0020】さらに、請求項6にかかる発明は、請求項
4または請求項5のいずれかに記載の画像処理装置にお
いて、上記画像データが自然画であるときに彩度を強調
させる画像処理を行なうとともに非自然画であるときに
は彩度を強調させないようにする構成としてある。Further, the invention according to claim 6 is the image processing apparatus according to claim 4 or claim 5, wherein when the image data is a natural image, image processing for enhancing saturation is performed. In addition, when the image is a non-natural image, the saturation is not emphasized.
【0021】同様に、写真においては撮影時の光線の条
件によって色がくもった感じになってしまうことがあ
る。このために画像処理を行うことがあるが、請求項6
にかかる発明によれば、色数検知手段が検知した画像デ
ータの色数が多い場合には自然画であると判断され、こ
の場合には画像処理手段が彩度を強調させる画像処理を
行なう。むろん、ビジネスグラフのような非自然画であ
る場合にはあえて色相を変えて鮮やかにするような要求
はなく、彩度強調を行わない。Similarly, in a photograph, the color may become cloudy depending on the conditions of light rays at the time of photographing. Image processing may be performed for this purpose.
According to the invention, when the number of colors of the image data detected by the number-of-colors detecting unit is large, it is determined that the image is a natural image, and in this case, the image processing unit performs the image processing for enhancing the saturation. Of course, in the case of a non-natural image such as a business graph, there is no need to change the hue to make it vivid, and the saturation emphasis is not performed.
【0022】さらに、請求項7にかかる発明は、請求項
4〜請求項6のいずれかに記載の画像処理装置におい
て、上記画像データが自然画であるときにエッジ強調さ
せる画像処理を行なうとともに非自然画であるときには
エッジ強調させないようにする画像処理手段を具備する
構成としてある。Further, the invention according to claim 7 is the image processing apparatus according to any one of claims 4 to 6, wherein when the image data is a natural image, image processing for edge enhancement is performed and When the image is a natural image, the image processing means is provided to prevent edge enhancement.
【0023】この場合も、写真を例に取れば撮影時の条
件によってエッジのなまったぼけたような画像になって
しまうことがあり、このために画像処理を行うことがあ
るが、請求項7にかかる発明によれば、色数検知手段が
検知した画像データの色数が多い場合には自然画である
と判断され、この場合には画像処理手段がエッジ強調さ
せる画像処理を行なう。むろん、エッジ強調の程度など
は適宜変更可能である。エッジ強調処理の具体的な手法
については各種のものを採用可能であり、例えば、上記
画像データを構成する各画素について周辺の画素分布に
基づいて低周波成分を求めるとともに同低周波成分を減
ずることにより結果として各画素のエッジ度を高めるよ
うに修正してもよい。Also in this case, if a photograph is taken as an example, the image may have a blurred edge with a blunt edge depending on the shooting conditions. For this reason, image processing may be performed. According to the invention, when the number of colors of the image data detected by the number-of-colors detecting unit is large, it is determined that the image is a natural image, and in this case, the image processing unit performs image processing for edge enhancement. Of course, the degree of edge enhancement can be changed as appropriate. Various types of specific methods of edge enhancement processing can be adopted. For example, for each pixel forming the image data, a low frequency component is obtained based on the peripheral pixel distribution and the low frequency component is reduced. Therefore, the edge degree of each pixel may be corrected as a result.
【0024】一方、画像処理した画像データに対しては
ディスプレイで表示する以外にも各種の利用の途があ
り、例えば、印刷処理などもありうる。このような場合
には元の画像データの色空間とは異なる印刷インクの色
空間に変換する必要があり、このような色変換を伴うも
のに対応して、請求項8にかかる発明は、請求項4〜請
求項7のいずれかに記載の画像処理装置において、変換
元の表色空間での格子点に変換先の表色空間での階調表
色データを対応させたテーブルを備えつつ変換元の階調
表色データを当該テーブルの格子点に対応した階調表色
データに階調変換してから同テーブルを参照して対応す
る階調表色データを読み出して色変換するプレ階調変換
手段と、上記テーブルの格子点間で補間演算にて対応す
る階調表色データに色変換可能であるとともにこの色変
換の情報を保存する高速読込可能な記憶エリアを有して
同記憶エリアに記憶されていない場合に補間演算で色変
換させるキャッシュ利用の補間色変換手段とを有し、上
記画像データが自然画であるときに同プレ階調変換手段
を使用して色変換するし、同画像データが自然画でない
ときに同補間色変換手段を利用して色変換する構成とし
てある。On the other hand, the image-processed image data may be used in various ways other than being displayed on a display, for example, a printing process or the like. In such a case, it is necessary to convert to a color space of printing ink different from the color space of the original image data, and the invention according to claim 8 corresponds to the one involving such color conversion. The image processing device according to any one of claims 4 to 7, wherein conversion is performed while including a table in which gradation color data in the conversion destination color space is associated with grid points in the conversion source color space. Pre-gradation in which the original gradation color data is converted into the gradation color data corresponding to the grid points of the table, and then the corresponding gradation color data is read by referring to the table and color conversion is performed. The conversion means and the storage area having a high-speed readable storage area capable of performing color conversion into corresponding gradation color data by interpolating calculation between grid points of the table and storing information of this color conversion Color conversion by interpolation if not stored in And a cache-use interpolation color conversion means for performing color conversion using the pre-gradation conversion means when the image data is a natural image, and the interpolation color conversion means when the image data is not a natural image. The color conversion is performed using the conversion means.
【0025】異なる表色空間の間で色変換を行なう場
合、変換元の表色空間での格子点に変換先の表色空間で
の階調データを対応させたテーブルを用意しておき、同
テーブルを参照して逐次所定の格子点の対応データを読
み出せば変更可能となるが、変換元の階調データの全て
の階調値に対応した格子点を備えるとテーブルが大きく
なりすぎる。このため、プレ階調変換手段では変換元の
階調データをテーブルの格子点に対応した階調データに
階調変換することにより、テーブルを小さくしている。
なお、補間演算でテーブルの格子点以外の階調データに
ついても変更可能となるものの、色数が多い場合、誤差
拡散などによって実行する階調変換は確実に演算量が少
なくなるという特性がある。When performing color conversion between different color spaces, a table is prepared in which grid points in the color space of the conversion source are associated with gradation data in the color space of the conversion destination. This can be changed by referring to the table and sequentially reading the corresponding data of predetermined grid points, but if the grid points corresponding to all the gradation values of the conversion source gradation data are provided, the table becomes too large. Therefore, the pre-gradation conversion unit reduces the size of the table by converting the conversion source gradation data into gradation data corresponding to the grid points of the table.
It should be noted that although the gradation data other than the grid points of the table can be changed by the interpolation calculation, when the number of colors is large, the gradation conversion executed by error diffusion or the like has a characteristic that the calculation amount is surely reduced.
【0026】ただし、誤差拡散の処理は必ず前画素に対
して行わなければならないという前提があり、非自然画
の場合は色数が少ないので一度変換した結果を何度も利
用可能である。従って、このような場合には補間演算を
併用しつつ色変換結果を高速読込可能な記憶エリアに保
存しておき、必要に応じてこの記憶エリアから読み出す
という処理を繰り返すキャッシュ利用の補間色変換手段
の方が早いといえる。However, it is premised that the error diffusion process must be performed on the previous pixel, and in the case of a non-natural image, since the number of colors is small, the result of one conversion can be used many times. Therefore, in such a case, cache-based interpolation color conversion means that repeats the process of storing the color conversion result in a storage area that can be read at high speed while also using the interpolation calculation and reading from the storage area when necessary Can be said to be faster.
【0027】上述したようにして、複数の対応関係を備
えて画素に応じて対応関係を変える手法は、実体のある
装置に限定される必要はなく、その方法としても機能す
ることは容易に理解できる。このため、請求項9にかか
る発明は、画像をドットマトリクス状の画素に分解して
各画素の情報を表す画像データに対して所定の画像処理
を行う画像処理方法であって、上記画像データを入力し
て各画素の輝度に相当する情報を色と見なして利用色数
を検知して、この検知された利用色数の多少に基づいて
画像の種類を判定する構成としてある。As described above, the method of providing a plurality of correspondences and changing the correspondences according to the pixels does not need to be limited to a substantial device, and it can be easily understood that it also functions as that method. it can. Therefore, the invention according to claim 9 is an image processing method for decomposing an image into pixels in a dot matrix shape and performing predetermined image processing on image data representing information of each pixel. The number of used colors is detected by inputting information corresponding to the luminance of each pixel as a color, and the type of image is determined based on the detected number of used colors.
【0028】すなわち、必ずしも実体のある装置に限ら
ず、その方法としても有効であることに相違はない。That is, there is no difference that the method is not limited to a substantial device and is effective as a method thereof.
【0029】ところで、このような画像処理装置は単独
で存在する場合もあるし、ある機器に組み込まれた状態
で利用されることもあるなど、発明の思想としてはこれ
に限らず、各種の態様を含むものである。従って、ソフ
トウェアであったりハードウェアであったりするなど、
適宜、変更可能である。By the way, such an image processing apparatus may exist alone or may be used in a state of being incorporated in a certain device. The idea of the invention is not limited to this, and various embodiments are possible. Is included. Therefore, it may be software or hardware,
It can be changed as appropriate.
【0030】発明の思想の具現化例として画像処理装置
のソフトウェアとなる場合には、かかるソフトウェアを
記録した記録媒体上においても当然に存在し、利用され
るといわざるをえない。その一例として、請求項10に
かかる発明は、画像をドットマトリクス状の画素に分解
して各画素の情報を表す画像データをコンピュータにて
入力し、所定の画像処理を行う画像処理プログラムを記
録した媒体であって、上記画像データを入力して各画素
の輝度に相当する情報を色と見なして利用色数を検知す
るステップと、この検知された利用色数の多少に基づい
て画像の種類を判定するステップとを具備する構成とし
てある。When the software of the image processing apparatus is embodied as an example of embodying the idea of the invention, it must be said that it naturally exists on a recording medium recording such software and is used. As an example thereof, the invention according to claim 10 records an image processing program which decomposes an image into pixels in a dot matrix and inputs image data representing information of each pixel by a computer to perform predetermined image processing. In the medium, the step of inputting the image data and detecting the number of colors used by regarding the information corresponding to the luminance of each pixel as a color, and the type of the image based on the number of colors used are detected. And a determination step.
【0031】むろん、その記録媒体は、磁気記録媒体で
あってもよいし光磁気記録媒体であってもよいし、今後
開発されるいかなる記録媒体においても全く同様に考え
ることができる。また、一次複製品、二次複製品などの
複製段階については全く問う余地無く同等である。その
他、ソフトウェアである場合にはその供給方法が上述し
た記録媒体として提供されるのではなく、通信回線を利
用して提供されるような場合でも本発明が利用されてい
ることにはかわりない。Needless to say, the recording medium may be a magnetic recording medium or a magneto-optical recording medium, and any recording medium to be developed in the future can be considered in exactly the same manner. In addition, the duplication stage of the primary duplication product, the secondary duplication product, and the like is absolutely the same. In addition, in the case of software, the method of supplying the software is not provided as the recording medium described above, but the present invention is used even if the software is provided using a communication line.
【0032】さらに、一部がソフトウェアであって、一
部がハードウェアで実現されている場合においても発明
の思想において全く異なるものはなく、一部を記録媒体
上に記憶しておいて必要に応じて適宜読み込まれるよう
な形態のものとしてあってもよい。さらには、カラーフ
ァクシミリ機、カラーコピー機、カラースキャナやディ
ジタルカメラ、ディジタルビデオなどに内蔵する画像処
理装置においても適用可能であることはいうまでもな
い。Further, even when a part is software and a part is realized by hardware, there is no difference in the idea of the invention, and it is necessary to store a part on a recording medium. It may be in such a form that it is read as appropriate. Furthermore, it goes without saying that the present invention is also applicable to an image processing apparatus incorporated in a color facsimile machine, a color copying machine, a color scanner, a digital camera, a digital video, or the like.
【0033】[0033]
【発明の効果】以上説明したように本発明は、利用色数
という観点から画像データの種類を自動的に判定するこ
とができるとともに、利用色数を輝度に置き換えること
により、再現可能な色数が多大な場合でも容易に集計す
ることが可能な画像処理装置を提供することができる。As described above, according to the present invention, the type of image data can be automatically determined from the viewpoint of the number of colors used, and the number of reproducible colors can be obtained by replacing the number of colors used with luminance. It is possible to provide an image processing apparatus capable of easily totaling even when the number is large.
【0034】また、請求項2にかかる発明によれば、輝
度に対応した成分値を重みづけ積算することによりきわ
めて簡易に輝度を求めることができる。According to the second aspect of the present invention, the brightness can be calculated very easily by weighting and integrating the component values corresponding to the brightness.
【0035】さらに、請求項3にかかる発明によれば、
色数を検知する対象の画素を間引きして選択するため、
処理量を低減させることができる。Further, according to the invention of claim 3,
Since the target pixels for detecting the number of colors are thinned out and selected,
The throughput can be reduced.
【0036】さらに、請求項4にかかる発明によれば、
利用色数に基づいて自然画を容易に判定できるようにな
る。Further, according to the invention of claim 4,
The natural image can be easily determined based on the number of colors used.
【0037】さらに、請求項5にかかる発明によれば、
画像種類が自然画であると判定された場合には自動的に
コントラストの拡大処理を行い、最適なコントラストの
画像データとすることができる。Further, according to the invention of claim 5,
When it is determined that the image type is a natural image, the contrast enlargement processing is automatically performed to obtain the image data having the optimum contrast.
【0038】さらに、請求項6にかかる発明によれば、
画像種類が自然画であると判定された場合には自動的に
彩度強調処理を行い、色鮮やかな画像データとすること
ができる。Further, according to the invention of claim 6,
When it is determined that the image type is a natural image, the saturation emphasis processing is automatically performed, and it is possible to obtain colorful image data.
【0039】さらに、請求項7にかかる発明によれば、
画像種類が自然画であると判定された場合には自動的に
エッジ強調処理を行い、エッジになまりのない画像デー
タとすることができる。Further, according to the invention of claim 7,
When it is determined that the image type is a natural image, edge enhancement processing is automatically performed, and image data with no round edges can be obtained.
【0040】さらに、請求項8にかかる発明によれば、
利用色数が多い自然画の場合には誤差拡散などの手法を
使用して最小の演算量で色変換することができ、また、
利用色数が少ない場合にはキャッシュを利用して変換結
果を繰り返し利用できるようにしたため、画像の種類ご
とに応じた色変換手法で最小の処理量とすることができ
る。Further, according to the invention of claim 8,
In the case of natural images with many colors used, color conversion can be performed with a minimum amount of calculation using a method such as error diffusion.
When the number of colors used is small, the conversion result can be repeatedly used by using the cache, so that the minimum processing amount can be obtained by the color conversion method according to each image type.
【0041】さらに、請求項9にかかる発明によれば、
輝度で置き換えた利用色数という観点から画像データの
種類を自動的かつ容易に判定することが可能な画像処理
方法を提供することができ、請求項10にかかる発明に
よれば、同様にして画像データの種類を自動的かつ容易
に判定することが可能な画像処理プログラムを記録した
媒体を提供することができる。Further, according to the invention of claim 9,
It is possible to provide an image processing method capable of automatically and easily determining the type of image data from the viewpoint of the number of colors used replaced by luminance, and according to the invention of claim 10, the image processing method is also provided. A medium in which an image processing program capable of automatically and easily determining the type of data is recorded can be provided.
【0042】[0042]
【発明の実施の形態】以下、図面にもとづいて本発明の
実施形態を説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
【0043】図1は、本発明の一実施形態にかかる画像
処理装置の具体的ハードウェア構成例をブロック図によ
り示している。FIG. 1 is a block diagram showing a specific hardware configuration example of an image processing apparatus according to an embodiment of the present invention.
【0044】同図において、各種の画像入力装置10と
してスキャナ11やデジタルスチルカメラ12が備えら
れ、画像判定を含む画像処理の中心的な役割を果たす画
像処理装置20としてコンピュータ本体21とハードデ
ィスク22が備えられ、画像処理された画像を表示する
画像出力装置30としてプリンタ31やディスプレイ3
2を備えている。In the figure, a scanner 11 and a digital still camera 12 are provided as various image input devices 10, and a computer main body 21 and a hard disk 22 are provided as image processing devices 20 that play a central role in image processing including image determination. The printer 31 and the display 3 are provided as the image output device 30 for displaying the image-processed image.
Equipped with 2.
【0045】このコンピュータ本体21の内部で行なわ
れる処理を図2に示している。図に示すように、コンピ
ュータ本体21内ではオペレーティングシステム21a
が稼働しており、プリンタ31やディスプレイ32に対
応したプリンタドライバ21bやビデオドライバ21c
が組み込まれている。一方、アプリケーション21dは
オペレーティングシステム21aにて処理の実行を制御
され、必要に応じてプリンタドライバ21bやビデオド
ライバ21cと連携して所定の画像処理を実行する。な
お、コンピュータ21はRAMなどを使用しながら、内
部のROMやハードディスク22に保存されているそれ
ぞれのプログラムを実行していく。また、このような画
像処理などのプログラムは、CD−ROM、フロッピー
(登録商標)ディスク、MOなどの各種の記録媒体を介
して供給される他、モデムなどによって公衆通信回線を
介して外部のネットワークに接続し、ソフトウェアやデ
ータをダウンロードして導入することも行われている。The processing performed inside the computer main body 21 is shown in FIG. As shown in the figure, in the computer main body 21, an operating system 21a
Is running, and the printer driver 21b and the video driver 21c corresponding to the printer 31 and the display 32.
Is built in. On the other hand, the application 21d is controlled by the operating system 21a to execute processing, and executes predetermined image processing in cooperation with the printer driver 21b and the video driver 21c as necessary. The computer 21 executes each program stored in the internal ROM or the hard disk 22 while using the RAM or the like. Programs for such image processing are supplied via various recording media such as a CD-ROM, a floppy (registered trademark) disk, and an MO, and also via a public communication line such as a modem to an external network. It has also been implemented by connecting to and downloading software and data.
【0046】本実施形態においては、画像入力装置10
としてのスキャナ11やデジタルスチルカメラ12が画
像データとしてRGB(緑、青、赤)の階調データを出
力するものとするとともに、画像出力装置30としての
プリンタ31は階調表色データとしてCMY(シアン、
マゼンダ、イエロー)あるいはこれに黒を加えたCMY
Kの二値データを入力として必要とするし、ディスプレ
イ32はそのRGBの階調データを入力として必要す
る。従って、画像処理装置20としてのこのコンピュー
タ本体21の具体的役割は、RGBの階調データを入力
して必要な強調処理を施したRGBの階調データを作成
し、ディスプレイ32であればビデオドライバ21cを
介して表示させるし、プリンタ31に対してはプリンタ
ドライバ21bを介してCMYの二値データに変換して
印刷させることである。In the present embodiment, the image input device 10
The scanner 11 or the digital still camera 12 as the image output device outputs RGB (green, blue, red) gradation data as image data, and the printer 31 as the image output device 30 outputs CMY ( cyan,
Magenta, yellow) or CMY with black added
The binary data of K is required as an input, and the display 32 requires the gradation data of RGB as an input. Therefore, the specific role of the computer main body 21 as the image processing device 20 is to input RGB gradation data to create RGB gradation data that has undergone necessary emphasis processing, and for the display 32, use a video driver. 21c is displayed, and the printer 31 is converted into CMY binary data and printed by the printer driver 21b.
【0047】本実施形態における画像処理では、コンピ
ュータ本体21内に入力される画像データに対してアプ
リケーション21dの色数検知手段21d1が利用色数
を検知すると画像判定手段21d2が画像の種類を判定
し、画像処理手段21d3は画像の種類に応じてあらか
じめ設定される適当な画像処理を自動的に行う。また、
同画像処理された画像データはビデオドライバ21cを
介してディスプレイ32に表示されるとともに、確認後
はプリンタドライバ21bによって印刷データに変換さ
れてプリンタ31にて印刷される。In the image processing of this embodiment, when the color number detecting means 21d1 of the application 21d detects the number of used colors for the image data input into the computer main body 21, the image determining means 21d2 determines the type of image. The image processing means 21d3 automatically performs appropriate image processing preset according to the type of image. Also,
The image data subjected to the image processing is displayed on the display 32 via the video driver 21c, and after confirmation, converted into print data by the printer driver 21b and printed by the printer 31.
【0048】なお、本実施形態においては、画像の種類
に応じて設定されている画像処理手段21d3として、
図3に示すように、コントラスト拡大処理と、彩度強調
処理と、エッジ強調処理とが用意されており、画像デー
タを印刷データに変換するプリンタドライバ21bにお
いては、図4に示すように、印刷データをラスタライズ
するラスタライザ21b1とプレ階調変換かキャッシュ
と補間演算との組み合わせによって色変換する色変換部
21b2と色変換後の階調データを二値化する階調変換
部21b3とが用意されている。In this embodiment, as the image processing means 21d3 set according to the type of image,
As shown in FIG. 3, contrast enlargement processing, saturation emphasis processing, and edge emphasis processing are prepared. In the printer driver 21b for converting image data into print data, as shown in FIG. A rasterizer 21b1 for rasterizing data, a color conversion unit 21b2 for color conversion by a combination of pre-gradation conversion or cache and interpolation calculation, and a gradation conversion unit 21b3 for binarizing the gradation data after color conversion are prepared. There is.
【0049】本実施形態においては、画像の入出力装置
の間にコンピュータシステムを組み込んで画像処理を行
うようにしているが、必ずしもかかるコンピュータシス
テムを必要とする訳ではなく、画像データに対して利用
色数を検知して画像の種類を判定するシステムであれば
よい。例えば、図5に示すように、コンピュータシステ
ムを介することなく画像データを入力して印刷するプリ
ンタ31bにおいては、スキャナ11bやモデム13b
等を介して入力される画像データについて自動的に利用
色数を検知して画像の種類を判定するように構成するこ
とも可能である。In the present embodiment, a computer system is incorporated between image input / output devices to perform image processing. However, such a computer system is not necessarily required and is used for image data. Any system that detects the number of colors and determines the type of image may be used. For example, as shown in FIG. 5, in a printer 31b that inputs and prints image data without using a computer system, a scanner 11b and a modem 13b are provided.
It is also possible to configure so that the number of colors used is automatically detected and the type of image is determined for image data input via the above.
【0050】図6はアプリケーションにおける画像処理
に該当するフローチャートを示しており、ステップS1
02とステップS104で輝度分布を集計して利用色数
を検知している。FIG. 6 shows a flow chart corresponding to the image processing in the application. Step S1
02 and step S104, the luminance distribution is totaled to detect the number of colors used.
【0051】まず、この輝度の分布検出処理について説
明する。First, the brightness distribution detecting process will be described.
【0052】輝度をいかにして表すかについて説明する
前に、分布対象となる画素について説明する。図6のス
テップS102で示すように対象となる画素を間引く間
引き処理を実行する。図7に示すように、ビットマップ
の画像であれば、縦方向に所定ドットと横方向に所定ド
ットからなる二次元のドットマトリクスとして成り立っ
ており、正確な輝度の分布を求めるのであれば全画素に
ついて輝度を調べる必要がある。しかしながら、この分
布検出処理は間接的に輝度から利用色を求めることを目
的としており、必ずしも正確である必要はない。従っ
て、ある誤差の範囲内となる程度に間引きを行うことが
可能である。統計的誤差によれば、サンプル数Nに対す
る誤差は概ね1/(N**(1/2))と表せる。ただ
し、**は累乗を表している。従って、1%程度の誤差で
処理を行うためにはN=10000となる。Before explaining how to represent the luminance, the pixels to be distributed will be described. As shown in step S102 of FIG. 6, thinning-out processing for thinning out target pixels is executed. As shown in FIG. 7, a bitmap image is formed as a two-dimensional dot matrix consisting of predetermined dots in the vertical direction and predetermined dots in the horizontal direction. It is necessary to check the brightness of. However, this distribution detection processing is intended to indirectly obtain the used color from the luminance and does not necessarily have to be accurate. Therefore, it is possible to perform thinning to the extent that it falls within a certain error range. According to the statistical error, the error with respect to the sample number N can be expressed as approximately 1 / (N ** (1/2)). However, ** represents the power. Therefore, in order to perform processing with an error of about 1%, N = 10000.
【0053】ここにおいて、図7に示すビットマップ画
面は(width)×(height)の画素数とな
り、サンプリング周期ratioは、
ratio=min(width,height)/A+1 …(1)
とする。ここにおいて、min(width,heig
ht)はwidthとheightのいずれか小さい方
であり、Aは定数とする。また、ここでいうサンプリン
グ周期ratioは何画素ごとにサンプリングするかを
表しており、図8の○印の画素はサンプリング周期ra
tio=2の場合を示している。すなわち、縦方向及び
横方向に二画素ごとに一画素のサンプリングであり、一
画素おきにサンプリングしている。A=200としたと
きの1ライン中のサンプリング画素数は図9に示すよう
になる。Here, the bitmap screen shown in FIG. 7 has the number of pixels of (width) × (height), and the sampling period ratio is ratio = min (width, height) / A + 1 (1). Where min (width, heig
ht) is the smaller of width and height, and A is a constant. Further, the sampling period ratio referred to here represents how many pixels are sampled, and the pixels marked with a circle in FIG.
The case where tio = 2 is shown. That is, one pixel is sampled every two pixels in the vertical direction and the horizontal direction, and sampling is performed every other pixel. The number of sampling pixels in one line when A = 200 is as shown in FIG.
【0054】同図から明らかなように、サンプリングし
ないことになるサンプリング周期ratio=1の場合
を除いて、200画素以上の幅があるときには最低でも
サンプル数は100画素以上となることが分かる。従っ
て、縦方向と横方向について200画素以上の場合には
(100画素)×(100画素)=(10000画素)
が確保され、誤差を1%以下にできる。As can be seen from the figure, when the width is 200 pixels or more, the number of samples is 100 pixels or more at the minimum, except for the case where the sampling period ratio = 1 which is not sampled. Therefore, when the number of pixels is 200 or more in the vertical and horizontal directions, (100 pixels) × (100 pixels) = (10000 pixels)
Is ensured and the error can be reduced to 1% or less.
【0055】ここにおいてmin(width,hei
ght)を基準としているのは次のような理由による。
例えば、図10(a)に示すビットマップ画像のよう
に、width>>heightであるとすると、長い
方のwidthでサンプリング周期ratioを決めて
しまった場合には、同図(b)に示すように、縦方向に
は上端と下端の2ラインしか画素を抽出されないといっ
たことが起こりかねない。しかしながら、min(wi
dth,height)として、小さい方に基づいてサ
ンプリング周期ratioを決めるようにすれば同図
(c)に示すように少ない方の縦方向においても中間部
を含むような間引きを行うことができるようになる。Here, min (width, hei
ght) is used as a reference for the following reason.
For example, assuming that width >> height, as in the bitmap image shown in FIG. 10A, when the sampling period ratio is determined by the longer width, as shown in FIG. In addition, it may happen that pixels are extracted only in the upper and lower lines in the vertical direction. However, min (wi
If the sampling period ratio is determined based on the smaller one as dth, height), it is possible to perform thinning including the intermediate portion in the smaller vertical direction as shown in FIG. Become.
【0056】なお、この例では、縦方向と横方向の画素
について正確なサンプリング周期で間引きを行うように
している。これは、逐次入力される画素について間引き
しながら処理する場合に好適である。しかし、全画素が
入力されている場合には縦方向や横方向についてランダ
ムに座標を指定して画素を選択するようにしても良い。
このようにすれば、10000画素というような必要最
低限の画素数が決まっている場合に10000画素とな
るまでランダムに抽出する処理を繰り返し、10000
画素となった時点で抽出を止めればよくなる。In this example, pixels in the vertical and horizontal directions are thinned out at an accurate sampling cycle. This is suitable for processing while sequentially thinning out pixels that are input. However, when all the pixels are input, the coordinates may be randomly specified in the vertical direction and the horizontal direction to select the pixels.
In this way, when the minimum required number of pixels such as 10000 pixels is determined, the process of randomly extracting until 10000 pixels is repeated 10000 pixels.
It suffices if the extraction is stopped when the number of pixels is reached.
【0057】このように選択した画素についての画素デ
ータがその成分要素として輝度を持っていればその輝度
値を用いて分布を求めることが可能である。一方、輝度
値が直接の成分値となっていない画像データの場合で
も、間接的には輝度を表す成分値を備えている。従っ
て、輝度値が直接の成分値となっていない表色空間から
輝度値が直接の成分値となっている表色空間への変換を
行えば輝度値を得ることができる。If the pixel data of the pixels selected in this way has luminance as its component element, the distribution can be obtained using the luminance value. On the other hand, even in the case of image data whose luminance value is not a direct component value, it indirectly has a component value representing luminance. Therefore, the brightness value can be obtained by converting from the color space in which the brightness value is not the direct component value to the color space in which the brightness value is the direct component value.
【0058】このような異なる表色空間の間での色変換
は変換式によって一義的に定まるものではなく、それぞ
れの成分値を座標とする色空間について相互に対応関係
を求めておき、この対応関係を記憶した色変換テーブル
を参照して逐次変換する必要がある。テーブルとする関
係上、成分値は階調値として表され、三次元の座標軸を
備えている256階調の場合には、約1670万個(2
56×256×256)の要素の色変換テーブルを持た
なければならない。効率的な記憶資源の利用を考えた結
果、すべての座標値についての対応関係を用意しておく
のではなく、通常は適当なとびとびの格子点について対
応関係を用意しておき、補間演算を併用するようにして
いる。この補間演算はいくつかの乗算や加算を経て可能
となるものであるため、演算処理量は膨大となってく
る。Such color conversion between different color spaces is not uniquely determined by a conversion formula, but a correspondence relationship is obtained for color spaces having respective component values as coordinates and the correspondence is obtained. It is necessary to refer to the color conversion table that stores the relationship and perform sequential conversion. For the purpose of forming a table, the component values are represented as gradation values, and in the case of 256 gradations having a three-dimensional coordinate axis, about 16.7 million (2
It must have a color conversion table of 56 × 256 × 256) elements. As a result of considering efficient use of storage resources, instead of preparing correspondences for all coordinate values, we usually prepare correspondences for appropriate discrete grid points and use interpolation calculations together. I am trying to do it. Since this interpolation calculation is possible through some multiplications and additions, the amount of calculation processing becomes enormous.
【0059】すなわち、フルサイズの色変換テーブルを
使用するのであれば処理量としては少なくなるもののテ
ーブルサイズが非現実的となり、テーブルサイズを現実
的なサイズにすれば演算処理量が非現実的となることが
多い。That is, if a full-size color conversion table is used, the processing amount will be small, but the table size will be unrealistic, and if the table size is a realistic size, the calculation processing amount will be unrealistic. Often becomes.
【0060】このような状況に鑑み、本実施形態におい
ては、テレビジョンなどの場合に利用されているよう
に、RGBの三原色から輝度を求める次式の変換式を採
用している。すなわち、P点での輝度yp についてはR
GBの成分値(Rp,Gp,Bp )から、
yp=0.30Rp+0.59Gp+0.11Bp …(2)
とする。このようにすれば、三回の乗算と二回の加算だ
けで輝度値を求めることができるようになる。In view of such a situation, in this embodiment, the conversion formula of the following formula for obtaining the luminance from the three primary colors of RGB is adopted, as is used in the case of television or the like. That is, the luminance yp at the point P is R
From the GB component values (Rp, Gp, Bp), yp = 0.30Rp + 0.59Gp + 0.11Bp (2) By doing so, it becomes possible to obtain the luminance value only by multiplying three times and adding twice.
【0061】本実施形態においては、RGBの表色空間
を対象としている結果、このような変換式を採用してい
るが、その背景には各成分値が色の明るさを示している
ので、それぞれの成分値を単独で見た場合に輝度に線形
に対応しているという性質がある。従って、よりおおざ
っぱに言えばそれぞれの加算割合を考慮することなく単
に
yp=(Rp+Gp+Bp)/3 …(3)
というように簡略化することも不可能ではない。In the present embodiment, as a result of targeting the RGB color space, such a conversion formula is adopted. However, since each component value shows the brightness of the color in the background, When each component value is viewed alone, it has the property of linearly corresponding to the brightness. Therefore, roughly speaking, it is not impossible to simplify it simply as yp = (Rp + Gp + Bp) / 3 (3) without considering each addition ratio.
【0062】このようにして間引き処理で輝度を集計す
ると、その分布は図11の実線に示すようになる。従っ
て、ステップS104にて画素数が「0」でない輝度値
の数をカウントすれば利用色数を検知できる。なお、ス
テップS102においては輝度分布とともに彩度分布の
集計も行っているがこれについては後述する。When the luminances are totaled by the thinning-out process in this way, the distribution thereof is as shown by the solid line in FIG. Therefore, the number of colors used can be detected by counting the number of brightness values in which the number of pixels is not "0" in step S104. In addition, in step S102, the saturation distribution and the saturation distribution are totaled, which will be described later.
【0063】このようにして利用色数を検知したら、ス
テップS106ではこの利用色数と所定のしきい値とを
比較し、利用色数の方が多ければこの画像データは自然
画であると判定する。しきい値としては、例えば「5
0」色を設定しておけばよい。自然画以外の画像データ
としてビジネスグラフであるとかドロー系画像をスキャ
ナ11で読み込むような例が挙げられるし、あるいはコ
ンピュータグラフィック画像がスキャナ11から読み込
まれたり、ネットワークからモデム13bを介して入力
されるような場合がある。When the number of colors used is detected in this way, the number of colors used is compared with a predetermined threshold value in step S106. If the number of colors used is larger, it is determined that the image data is a natural image. To do. As the threshold value, for example, “5
It is sufficient to set the "0" color. As an example of image data other than a natural image, there is an example in which a business graph or a draw image is read by the scanner 11, or a computer graphic image is read by the scanner 11 or input from a network via a modem 13b. There are cases like this.
【0064】自然画であるならば、ステップS108で
は自然画としてのフラグをセットする。フラグをセット
するのはこのアプリケーション21dの画像処理以外で
プリンタドライバ21bに対しても判定結果を伝えるた
めである。本実施形態においては、とりあえず一つだけ
のしきい値を用意しておき、自然画であるか否かだけを
判断しているが、利用色数の範囲でより細かな判定を行
うようにしても良い。例えば、コンピュータグラフィッ
クスである場合でもグラデーションなどによってある程
度の色数が多くなることがあるし、本来の色数はさほど
多くないにもかかわらず、スキャナ11で読み込む際に
エッジ部がなまって色数が多くなることもある。従っ
て、このようなものを自然画と非自然画との間に分類
し、後述するように自然画用の画像処理は行わなくても
エッジ強調処理だけは行なうといった設定を行っても良
い。If it is a natural image, a flag as a natural image is set in step S108. The flag is set so that the determination result is transmitted to the printer driver 21b other than the image processing of the application 21d. In the present embodiment, only one threshold value is prepared for the time being and it is determined whether or not it is a natural image. However, it is possible to make a more detailed determination within the range of the number of colors used. Is also good. For example, even in the case of computer graphics, the number of colors may increase to some extent due to gradation and the like, and although the original number of colors is not so large, the number of colors is reduced when the scanner 11 reads the edge portion. May increase. Therefore, such a kind may be classified into a natural image and a non-natural image, and as will be described later, setting may be performed such that only edge enhancement processing is performed without performing image processing for natural images.
【0065】自然画については、ステップS110にて
コントラストを拡大するとともに、ステップS112に
て彩度を強調し、ステップS114ではエッジ強調を実
行する。For natural images, the contrast is expanded in step S110, the saturation is emphasized in step S112, and the edge emphasis is executed in step S114.
【0066】本実施形態においては、輝度分布が図11
の実線に示されるように本来の再現可能な輝度分布の範
囲内で一部に集中している場合にこれを再現可能な範囲
内で十分に拡大する処理を意味している。In this embodiment, the luminance distribution is as shown in FIG.
As shown by the solid line, when the concentration is concentrated in part within the range of the original reproducible luminance distribution, it means a process of sufficiently expanding this within the reproducible range.
【0067】再現可能な輝度の範囲を「0」〜「25
5」としたときに、輝度の変換では、変換前の輝度yと
輝度の分布範囲の最大値ymaxと最小値yminから変換先
の輝度Yを次式に基づいて求める。The range of reproducible luminance is "0" to "25".
5 ”, in the luminance conversion, the luminance Y of the conversion destination is calculated from the luminance y before the conversion and the maximum value ymax and the minimum value ymin of the luminance distribution range based on the following equation.
【0068】
Y=ay+b …(4)
ただし
a=255/(ymax−ymin) …(5)
b=−a・yminあるいは255−a・ymax …(6)
また、上記変換式にてY<0ならばY=0とし、Y>2
55ならばY=255とする。ここにおける、aは傾き
であり、bはオフセットといえる。この変換式によれ
ば、あるせまい幅を持った輝度分布を再現可能な範囲ま
で広げることができる。Y = ay + b (4) where a = 255 / (ymax-ymin) (5) b = -a.ymin or 255-a.ymax (6) Further, in the above conversion formula, Y <0. If so, Y = 0 and Y> 2
If 55, then Y = 255. Here, it can be said that a is an inclination and b is an offset. According to this conversion formula, the luminance distribution having a certain narrow width can be expanded to a reproducible range.
【0069】かかる輝度分布の拡大を行う場合、図12
に示すフローチャートを実行し、そのステップS202
で輝度分布の両端を求める。自然画における輝度分布は
概ね山形に表れる。むろん、その位置、形状については
さまざまである。輝度分布の幅はこの両端をどこに決め
るかによって決定されるが、単に裾野が延びて分布数が
「0」となる点を両端とすることはできず、分布範囲に
おいて最も輝度の大きい側と小さい側からある分布割合
だけ内側に寄った部分を分布の両端とする。本実施形態
においては、この分布割合を0.5%に設定している。
このように、ある分布割合だけ上端と下端をカットする
ことにより、ノイズなどに起因して生じている白点や黒
点を無視することもできる。When the luminance distribution is expanded, as shown in FIG.
The flowchart shown in FIG.
Find both ends of the luminance distribution with. The brightness distribution in a natural image appears in a mountain shape. Of course, there are various positions and shapes. The width of the luminance distribution is determined depending on where to determine the both ends, but it is not possible to set the points where the skirt extends and the number of distributions becomes “0” as the both ends, and it is smaller on the side with the highest luminance in the distribution range. The portions that are inward from the side by a certain distribution ratio are defined as the ends of the distribution. In the present embodiment, this distribution ratio is set to 0.5%.
In this way, by cutting the upper and lower ends by a certain distribution ratio, it is possible to ignore white points and black points caused by noise and the like.
【0070】実際の処理では処理対象となる画素数(間
引き処理において選択した画素の総数)に対する0.5
%を演算し、再現可能な輝度分布における上端の輝度値
及び下端の輝度値から順番に内側に向かいながらそれぞ
れの分布数を累積し、0.5%の値となった輝度値を求
める。この上端側がymaxであり、下端側がymin
となる。In the actual processing, 0.5 with respect to the number of pixels to be processed (the total number of pixels selected in the thinning processing)
% Is calculated, and the number of distributions is accumulated in order from the luminance value at the upper end and the luminance value at the lower end in the reproducible luminance distribution in order, and the luminance value with a value of 0.5% is obtained. The upper end side is ymax, and the lower end side is ymin.
Becomes
【0071】本実施形態においては、輝度分布に対して
このような処理を経て上端と下端とを求めているが、統
計的処理のもとで両端を求めることも可能である。例え
ば、輝度値の平均値に対して何%以下となったところを
端部とするといった手法を採用することも可能である。In the present embodiment, the upper end and the lower end are obtained through such a process for the luminance distribution, but it is also possible to obtain the both ends under statistical processing. For example, it is also possible to adopt a method in which the percentage of the average value of the brightness values is less than or equal to the end.
【0072】ところで、輝度yの取りうる範囲は「0」
〜「255」でしかあり得ないため、予め輝度yが取り
うる全ての値に対応して変換後の輝度Yを求めておくの
が効率的であり、ステップS204にてこの対応関係を
演算してテーブルとして記憶しておく。By the way, the possible range of the brightness y is "0".
Since it can only be "255", it is efficient to obtain the converted luminance Y in advance corresponding to all possible values of the luminance y, and this correspondence relationship is calculated in step S204. And store it as a table.
【0073】この後、各画素についてステップS204
にて演算したテーブルを参照して輝度の拡大を図る。と
ころで、ここまでは輝度を変換するための対応関係を求
めてきており、例えば、RGB座標軸における成分値
(Rp,Gp,Bp )についての変換関係ではなかった。し
かしながら、(4)式の変換式は、このRGBの成分値
(Rp,Gp,Bp )との対応関係においても当てはめるこ
とができる。すなわち、変換前の成分値(R,G,B)
に対して変換後の成分値(R’,G’,B’)は、
R’=a・R+b …(7)
G’=a・G+b …(8)
B’=a・B+b …(9)
として求めることができる。これは(4)式と(3)式
とがともに線形の対応関係を示していることから明らか
である。また、輝度y,Yが階調「0」〜階調「25
5」であるのに対応してRGBの各成分値(R,G,
B),(R’,G’,B’)も同じ範囲となっており、上
述した輝度y,Yの変換テーブルをそのまま利用すれば
よいといえる。Thereafter, step S204 is performed for each pixel.
The brightness calculated is increased by referring to the table calculated in. By the way, up to this point, the correspondence relationship for converting the luminance has been obtained, and, for example, the correspondence relationship for the component values (Rp, Gp, Bp) on the RGB coordinate axes has not been obtained. However, the conversion equation of the equation (4) can also be applied in correspondence with the RGB component values (Rp, Gp, Bp). That is, the component values (R, G, B) before conversion
On the other hand, the converted component values (R ′, G ′, B ′) are R ′ = a · R + b (7) G ′ = a · G + b (8) B ′ = a · B + b (9) Can be asked as This is clear from the fact that both equations (4) and (3) show a linear correspondence relationship. In addition, the luminance y and Y have gradations of “0” to “25”.
5 ”corresponding to the RGB component values (R, G,
B) and (R ′, G ′, B ′) are also in the same range, and it can be said that the conversion table for the brightness y and Y described above can be used as it is.
【0074】従って、ステップS206では全画素の画
像データ(R,G,B)について(7)〜(9)式に対
応する変換テーブルを参照し、画像データ(R’,G’,
B’)に変換する。そして、ステップS208では変換
画素を図13に示すように順次移動させ、ステップS2
10で最終画素と判断されるまで繰り返すことになる。Therefore, in step S206, the conversion table corresponding to the equations (7) to (9) is referred to for the image data (R, G, B) of all pixels, and the image data (R ', G',
B '). Then, in step S208, the converted pixels are sequentially moved as shown in FIG.
The process is repeated until it is judged as the last pixel in 10.
【0075】図6に示すフローチャートに戻ると、コン
トラスト拡大の次は、ステップS112にて彩度強調を
行う。この彩度強調の処理については図14に示してい
る。Returning to the flowchart shown in FIG. 6, after the contrast is enlarged, the saturation is enhanced in step S112. This saturation enhancement processing is shown in FIG.
【0076】この彩度強調処理においても、予め画像デ
ータにおける彩度分布を求め、同分布から彩度強調係数
Sを求めるようにしている。この場合、輝度分布の場合
と同様、すべての画素について彩度を集計する必要もな
く、ステップS102において間引いた画素について彩
度を求め、集計している。画像データがその成分要素と
して彩度を持っていればその彩度の値を用いて分布を求
めることが可能であるし、彩度が直接の成分要素となっ
ていない画像データの場合でも、間接的には彩度を表す
成分値を備えている。従って、彩度が直接の成分要素と
なっていない表色空間から彩度値が直接の成分値となっ
ている表色空間への変換を行えば彩度値を得ることがで
きる。例えば、標準表色系としてのLuv空間において
は、L軸が輝度(明度)を表し、U軸及びV軸で色相を
表している。ここにおいて、U軸及びV軸においては両
軸の交点からの距離が彩度を表すため、実質的に(U+
V)**(1/2)が彩度となる。しかしながら、かかる
変換に要する演算処理量は膨大となってくる。Also in this saturation enhancement processing, the saturation distribution in the image data is obtained in advance, and the saturation enhancement coefficient S is obtained from the distribution. In this case, similarly to the case of the luminance distribution, it is not necessary to collect the saturations for all the pixels, and the saturations are calculated for the pixels thinned out in step S102, and the saturations are calculated. If the image data has saturation as a component element, it is possible to obtain the distribution using the saturation value, and even in the case of image data where saturation is not a direct component element, Specifically, it has a component value representing the saturation. Therefore, the saturation value can be obtained by converting from the color space in which the saturation is not a direct component element to the color space in which the saturation value is a direct component value. For example, in the Luv space as the standard color system, the L axis represents luminance (brightness), and the U axis and V axis represent hue. Here, in the U-axis and the V-axis, the distance from the intersection of both axes represents the saturation, so that (U +
V) ** (1/2) is the saturation. However, the amount of calculation processing required for such conversion becomes enormous.
【0077】従って、本実施形態においては、画像デー
タとして標準的なRGBの階調データを直に利用して彩
度の代替値Xを次のようにして求めている。Therefore, in the present embodiment, the standard RGB gradation data is directly used as the image data and the saturation alternative value X is obtained as follows.
【0078】
X=|G+B−2×R| …(10)
本来的には彩度は、R=G=Bの場合に「0」となり、
RGBの単色あるいはいずれか二色の所定割合による混
合時において最大値となる。この性質から直に彩度を適
切に表すのは可能であるものの、簡易な(10)式によ
っても赤の単色および緑と青の混合色であるシアンであ
れば最大値の彩度となり、各成分が均一の場合に「0」
となる。また、緑や青の単色についても最大値の半分程
度には達している。X = | G + B-2 × R | (10) Originally, the saturation is “0” when R = G = B,
The maximum value is obtained when mixing RGB single colors or a predetermined ratio of any two colors. From this property, it is possible to directly represent the saturation appropriately, but even with a simple formula (10), the saturation of the maximum value can be obtained for a single color of red and cyan that is a mixed color of green and blue. "0" when the components are uniform
Becomes In addition, the monochromatic colors of green and blue have reached about half of the maximum value.
【0079】なお、RGB表色空間のように各成分がそ
れぞれ独立して各色の成分を表すといったいわば概略対
等な色相成分の成分値で示される状況においては、
X’=|R+B−2×G| …(11)
X”=|G+R−2×B| …(12)
という式にも代替可能であるが、結果としては(10)
式に従うものが最も良好であった。In a situation where each component independently represents each color component, such as in the RGB color space, in a situation where the component values of the hue components are roughly equal, X '= | R + B-2 × G | (11) X ″ = | G + R−2 × B | (12), but the result is (10).
The one that followed the formula was the best.
【0080】ステップS102にて間引いた画素につい
てRGBの画像データから(10)式に基づいて彩度の
分布をとると、彩度が最低値「0」〜最大値「511」
の範囲で分布し、概略的には図15に示すような分布と
なる。When the saturation distribution of the pixels thinned out in step S102 is calculated based on the equation (10) from the RGB image data, the saturation is the minimum value "0" to the maximum value "511".
The distribution is in the range of, and the distribution is roughly as shown in FIG.
【0081】集計された彩度分布に基づき、ステップS
302にてこの画像についての彩度強調指数というもの
を決定する。集計された彩度分布が図15に示すように
なったものとすると、本実施形態においては、有効な画
素数の範囲で分布数として上位の「16%」が占める範
囲を求める。そして、この範囲内での最低の彩度「A」
がこの画像の彩度を表すものとして次式に基づいて彩度
強調指数Sを決定する。Based on the calculated saturation distribution, step S
At 302, a saturation enhancement index for this image is determined. Assuming that the aggregated saturation distribution is as shown in FIG. 15, in the present embodiment, the range occupied by the upper “16%” as the distribution number in the range of the effective pixel number is obtained. And the lowest saturation "A" within this range
Determines the saturation emphasis index S based on the following expression as representing the saturation of this image.
【0082】すなわち、A<92なら
S=−A×(10/92)+50 …(13)
92≦A<184なら
S=−A×(10/46)+60 …(14)
184≦A<230なら
S=−A×(10/23)+100 …(15)
230≦Aなら
S=0 …(16)
とする。図16は、この彩度「A」と彩度強調指数Sと
関係を示している。図に示すように、彩度強調指数Sは
最大値「50」〜最小値「0」の範囲で彩度「A」が小
さいときに大きく、同彩度「A」が大きいときに小さく
なるように徐々に変化していくことになる。That is, if A <92, S = −A × (10/92) +50 (13) If 92 ≦ A <184, S = −A × (10/46) +60 (14) 184 ≦ A <230 If S = −A × (10/23) +100 (15) 230 ≦ A, then S = 0 (16). FIG. 16 shows the relationship between the saturation “A” and the saturation emphasis index S. As shown in the figure, the saturation emphasis index S is large when the saturation “A” is small in the range of the maximum value “50” to the minimum value “0”, and is small when the saturation “A” is large. Will gradually change.
【0083】この実施形態においては、集計された彩度
分布の範囲で上位のある割合が占める彩度を利用してい
るが、これに限らず、例えば、平均値を出したり、メジ
アンを求めて彩度強調指数Sを演算する根拠としても良
い。ただし、彩度分布での上位のある割合をとった場合
には突発的な誤差の影響が弱まるので、全体として良好
な結果を得られる。In this embodiment, the saturation occupied by a certain proportion in the upper range of the aggregated saturation distribution is used. However, the present invention is not limited to this. For example, an average value is calculated or a median is calculated. It may be the basis for calculating the saturation emphasis index S. However, when a certain ratio in the upper part of the saturation distribution is taken, the effect of a sudden error is weakened, so that a good result can be obtained as a whole.
【0084】彩度強調指数Sが求められたら各画素の画
像データについて彩度強調の処理を行う。この彩度強調
指数Sに基づいて彩度を強調するにあたり、上述したよ
うに画像データが彩度のパラメータを備えているもので
あれば同パラメータを変換すればよいものの、今回はR
GBの表色空間を採用している。従って、以下にはRG
Bの階調データをそのまま利用して彩度強調する方法に
ついて説明する。When the saturation emphasis index S is obtained, the saturation emphasis processing is performed on the image data of each pixel. When the saturation is emphasized based on the saturation emphasis index S, if the image data has a saturation parameter as described above, the parameter may be converted, but this time, R
The color space of GB is adopted. Therefore, the following is RG
A method of using the gradation data of B as it is to enhance the saturation will be described.
【0085】RGB表色空間のように各成分が概略対等
な関係にある色相成分の成分値であるときには、R=G
=Bであればグレイであって無彩度となる。従って、R
GBの各成分における最小値となる成分については各画
素の色相に影響を与えることなく単に彩度を低下させて
いるにすぎないと考えれば、各成分における最小値をす
べての成分値から減算し、その差分値を拡大することに
よって彩度を強調できるといえる。When each component is a component value of a hue component having an approximately equal relationship as in the RGB color space, R = G
= B, it is gray and has no saturation. Therefore, R
Assuming that the component having the minimum value in each component of GB merely reduces the saturation without affecting the hue of each pixel, the minimum value in each component is subtracted from all component values. It can be said that the saturation can be emphasized by expanding the difference value.
【0086】まず、上述した彩度強調指数Sから演算に
有利な彩度強調パラメータSratioを、
Sratio=(S+100)/100 …(17)
として求める。この場合、彩度強調指数S=0のときに
彩度強調パラメータSratio =1となって彩度強調され
ない。次に、RGB階調データの各成分(R,G,B)
における青(B)の成分値が最小値であったとすると、
この彩度強調パラメータSratio を使用して次のように
変換する。First, the saturation emphasis parameter Sratio advantageous for the calculation is obtained from the above-described saturation emphasis index S as Sratio = (S + 100) / 100 (17). In this case, when the saturation emphasis index S = 0, the saturation emphasis parameter Sratio = 1 and the saturation is not emphasized. Next, each component of RGB gradation data (R, G, B)
If the component value of blue (B) in is the minimum value,
The saturation enhancement parameter Sratio is used for conversion as follows.
【0087】
R’=B+(R−B)×Sratio …(18)
G’=B+(G−B)×Sratio …(19)
B’=B …(20)
このようにすれば、少なくともRGB表色空間とLuv
空間との間での色変換が不要となるが、この場合には彩
度を強調すると輝度も向上して全体的に明るくなるとい
う傾向がある。従って、各成分値から輝度の相当値を減
算した差分値を対象として変換を行うことにする。R ′ = B + (R−B) × Sratio (18) G ′ = B + (G−B) × Sratio (19) B ′ = B (20) In this way, at least the RGB table is obtained. Color space and Luv
Color conversion with the space is not necessary, but in this case, emphasizing the saturation tends to improve the luminance and brighten the entire image. Therefore, the conversion is performed on the difference value obtained by subtracting the corresponding luminance value from each component value.
【0088】輝度については、上述したようなRGBか
ら直に求める変換式を利用する。For the brightness, the conversion formula directly obtained from RGB as described above is used.
【0089】一方、彩度強調は、
R’=R+△R …(21)
G’=G+△G …(22)
B’=B+△B …(23)
とする。この加減値△R,△G,△Bは輝度との差分値
に基づいて次式のように求める。すなわち、
△R=(R−Y)×Sratio …(24)
△G=(G−Y)×Sratio …(25)
△B=(B−Y)×Sratio …(26)
となり、この結果、
R’=R+(R−Y)×Sratio …(27)
G’=G+(G−Y)×Sratio …(28)
B’=B+(B−Y)×Sratio …(29)
として変換可能となる。なお、輝度の保存は次式から明
らかである。On the other hand, the saturation enhancement is R ′ = R + ΔR (21) G ′ = G + ΔG (22) B ′ = B + ΔB (23) The added / subtracted values ΔR, ΔG, and ΔB are obtained by the following equation based on the difference value with the brightness. That is, ΔR = (R−Y) × Sratio (24) ΔG = (G−Y) × Sratio (25) ΔB = (B−Y) × Sratio (26) It can be converted as' = R + (RY) * Sratio (27) G '= G + (GY) * Sratio (28) B' = B + (BY) * Sratio (29). It should be noted that the preservation of brightness is clear from the following equation.
【0090】
Y’=Y+△Y …(30)
△Y=0.30△R+0.59△G+0.11△B
=Sratio{(0.30R+0.59G+0.11B)−Y}
=0 …(31)
また、入力がグレー(R=G=B)のときには、輝度Y
=R=G=Bとなるので、加減値△R=△G=△B=0
となり、無彩色に色が付くこともない。(27)式〜
(29)式を利用すれば輝度が保存され、彩度を強調し
ても全体的に明るくなることはない。Y ′ = Y + ΔY (30) ΔY = 0.30 ΔR + 0.59 ΔG + 0.11 ΔB = Sratio {(0.30R + 0.59G + 0.11B) -Y} = 0 (31) When the input is gray (R = G = B), the luminance Y
= R = G = B, the adjustment value ΔR = ΔG = ΔB = 0
Therefore, there is no achromatic color. Expression (27)
If the expression (29) is used, the brightness is preserved, and even if the saturation is emphasized, the brightness is not increased as a whole.
【0091】ステップS304にて画像データを変換し
たら、ステップS306では図13に示すように変換画
素を移動させ、ステップS308にて最終画素と判断さ
れるまで繰り返す。After the image data is converted in step S304, the converted pixel is moved as shown in FIG. 13 in step S306, and the process is repeated until the final pixel is determined in step S308.
【0092】彩度強調を終えたら、図6に示すフローチ
ャートのステップS114にてエッジ強調処理を実行す
る。このエッジ強調の処理については図17に示してい
る。After the saturation emphasis is completed, the edge emphasis processing is executed in step S114 of the flowchart shown in FIG. This edge enhancement processing is shown in FIG.
【0093】エッジ強調処理では、ステップS402に
て入力画像における横方向の画素数(width)と縦
方向の画素数(height)とを乗算して画素数を
得、ステップS404にて同検知された画素数に応じた
エッジ強調度を決定する。エッジ強調度はエッジ強調の
手法に大きく依存するため、まず、本実施形態における
エッジ強調の手法について説明する。本実施形態におい
ては、図18に示すアンシャープマスク40を使用す
る。このアンシャープマスク40は、中央の「100」
の値をマトリクス状の画像データにおける注目画素Pi
jの重み付けとし、その周縁画素に対して同マスクの升
目における数値に対応した重み付けとして積算するのに
利用され、アンシャープマスク40を利用するのであれ
ば、(32)式に基づいて積算する。In the edge enhancement processing, the number of pixels in the horizontal direction (width) in the input image is multiplied by the number of pixels in the vertical direction (height) to obtain the number of pixels in step S402, and the same number is detected in step S404. The edge emphasis degree is determined according to the number of pixels. Since the edge emphasis degree largely depends on the edge emphasis method, the edge emphasis method in the present embodiment will be described first. In this embodiment, the unsharp mask 40 shown in FIG. 18 is used. This unsharp mask 40 has "100" at the center.
Value of the pixel of interest Pi in the image data in a matrix
It is used to perform the weighting of j and to perform the weighting on the peripheral pixels as the weighting corresponding to the numerical value in the square of the same mask. If the unsharp mask 40 is used, the weighting is performed based on the equation (32).
【0094】[0094]
【数1】 [Equation 1]
【0095】(32)式において、「632」とは重み
付け係数の合計値であり、Mijはアンシャープマスク
の升目に記載されている重み係数であり、Pijは各画
素の画像データである。なお、ijについては縦列と横
列の座標値を示している。In the equation (32), “632” is the total value of the weighting coefficients, Mij is the weighting coefficient described in the square of the unsharp mask, and Pij is the image data of each pixel. Note that ij indicates the coordinate values in the vertical and horizontal rows.
【0096】エッジ強調後の画像データをQijとする
と、エッジ強調演算は(33)式に基づいて演算され
る。When the image data after the edge enhancement is Qij, the edge enhancement calculation is performed based on the equation (33).
【0097】
Qij=Pij+C×{Pij−P’ij} …(33)
(33)式の意味するところは次のようになる。P’i
jは注目画素に対して周縁画素の重み付けを低くして加
算したものであるから、いわゆる「なまった(アンシャ
ープ)」画像データとしていることになる。このように
してなまらせたものはいわゆるローパスフィルタをかけ
たものと同様の意味あいを持つ。従って、「Pij−
P’ij」とは本来の全成分から低周波成分を引いたこ
とになってハイパスフィルタをかけたものと同様の意味
あいを持つ。そして、ハイパスフィルタを通過したこの
高周波成分に対してエッジ強調係数Cを乗算して「Pi
j」に加えれば同エッジ強調係数に比例して高周波成分
を増したことになり、エッジが強調される。Qij = Pij + C × {Pij−P′ij} (33) The meaning of the expression (33) is as follows. P'i
Since j is obtained by lowering the weighting of the peripheral pixels with respect to the pixel of interest and adding them, it is so-called “blunt (unsharp)” image data. What is blunted in this way has the same meaning as what is called a low-pass filter. Therefore, "Pij-
“P′ij” has the same meaning as that obtained by subtracting the low-frequency component from all the original components and applying the high-pass filter. Then, the high-frequency component that has passed through the high-pass filter is multiplied by the edge emphasis coefficient C to obtain “Pi
In addition to j ”, the high frequency component is increased in proportion to the edge emphasis coefficient, and the edge is emphasized.
【0098】この意味からも、エッジ強調度はエッジ強
調係数Cによって変更可能となる。従って、画素数が大
きければエッジ強調係数Cを大きくするし、画素数が小
さければエッジ強調係数Cを小さくする。画像の幅と高
さがwidth×heightであるときに、Erat
ioを(34)で表すとする。Also in this sense, the edge emphasis degree can be changed by the edge emphasis coefficient C. Therefore, if the number of pixels is large, the edge emphasis coefficient C is increased, and if the number of pixels is small, the edge emphasis coefficient C is decreased. Erat when the width and height of the image are width × height
Let io be represented by (34).
【0099】
Eratio=min(width,height)/640+1 …(34
)
そして、得られたEratioについて、次のようにエ
ッジ強調係数Cを決定した。Eratio = min (width, height) / 640 + 1 (34) Then, the edge emphasis coefficient C of the obtained Eratio is determined as follows.
【0100】Eratio<1 なら C=1
1≦Eratio<3 なら C=2
3≦Eratio なら C=3
すなわち、短い方の画素が640画素未満であればエッ
ジ強調係数Cは「1」、640画素以上で1920画素
未満であればエッジ強調係数Cは「2」、1920画素
以上であればエッジ強調係数Cを「3」としている。本
実施形態においては、このようにエッジ強調係数Cを設
定しているが、ドット密度によっては画像の大きさが変
化するのでこのエッジ強調係数を比例的に変更するよう
にしても良い。If Eratio <1, C = 1 if 1 ≦ Eratio <3 C = 2 If 3 ≦ Eratio, C = 3 That is, if the shorter pixel is less than 640 pixels, the edge enhancement coefficient C is “1”, 640 pixels. If the number is less than 1920 pixels, the edge enhancement coefficient C is "2", and if the number is 1920 pixels or more, the edge enhancement coefficient C is "3". In the present embodiment, the edge enhancement coefficient C is set in this way, but the edge enhancement coefficient may be proportionally changed because the size of the image changes depending on the dot density.
【0101】なお、エッジ強調度は、アンシャープマス
クの大きさによっても変化するため、画素数が大きけれ
ば大きなサイズのアンシャープマスクを利用すればよい
し、画素数が小さければ小さなサイズのアンシャープマ
スクを利用すればよい。むろん、エッジ強調係数Cとア
ンシャープマスク40の両方を変更するようにしてもよ
いし、いずれか一方だけでエッジの強調度を変更しても
良いことはいうまでもない。また、アンシャープマスク
40は図からも明らかなように、中央部にて最も重み付
けが大きく、周縁に向かうにつれて徐々に重み付けの数
値が小さくなっている。この変化具合は必ずしも固定的
なものではなく、適宜変更可能である。Since the edge emphasis degree varies depending on the size of the unsharp mask, a large size unsharp mask may be used if the number of pixels is large, and a small size unsharp mask may be used if the number of pixels is small. You can use a mask. Needless to say, both the edge emphasis coefficient C and the unsharp mask 40 may be changed, or the edge emphasis degree may be changed by only one of them. Further, as is clear from the figure, the unsharp mask 40 has the highest weighting in the central portion, and the weighting value gradually decreases toward the periphery. This degree of change is not necessarily fixed, but can be changed as appropriate.
【0102】ところで、図18に示す「7×7」のアン
シャープマスク40において最外周の升目の重み付けは
「0」あるいは「1」であり、「0」については重み付
けの乗算が無意味であるし、「1」の重み付けは升目の
全合計値の「632」と比較すれば非常にわずかな重み
しか持たない。従って、本実施形態においては、「7×
7」のアンシャープマスク40の代わりに、図19に示
す「5×5」のアンシャープマスク41を使用してい
る。同図に示すアンシャープマスク41は「7×7」の
アンシャープマスク40の最外周を省略したものであ
り、内側の「5×5」のマスク部分で重み付けは一致し
ている。これにより、具体的な処理量は約半分になる。By the way, in the “7 × 7” unsharp mask 40 shown in FIG. 18, the weight of the outermost square is “0” or “1”, and the multiplication of the weight is meaningless for “0”. However, the weighting of "1" has very little weight as compared with "632" which is the total sum of the squares. Therefore, in the present embodiment, “7 ×
Instead of the “7” unsharp mask 40, a “5 × 5” unsharp mask 41 shown in FIG. 19 is used. In the unsharp mask 41 shown in the figure, the outermost circumference of the "7 × 7" unsharp mask 40 is omitted, and the weighting is the same in the inner "5 × 5" mask portion. As a result, the specific processing amount is halved.
【0103】さらに、本実施形態においては、次のよう
にして演算量を低減させている。RGBの階調データを
対象とする場合、それぞれの成分値は各色成分の輝度
(明度)に対応している。従って、(33)式の演算も
本来はRGBの各階調データに対して個別に行わなけれ
ばならない。しかるに、アンシャープマスク40の升目
の数だけの乗算と加算とを繰り返すとなるとこのような
各成分ごとの個別の演算では演算量が多いと言わざるを
得ない。Further, in this embodiment, the amount of calculation is reduced as follows. When RGB gradation data is targeted, each component value corresponds to the luminance (brightness) of each color component. Therefore, originally, the calculation of the equation (33) must be individually performed for each RGB gradation data. However, if multiplication and addition are repeated by the number of squares of the unsharp mask 40, it can be said that the amount of calculation is large in such individual calculation for each component.
【0104】一方、かかるエッジ強調は色相を保持して
輝度を変えることによって実施可能なものともいえる。
従って、RGBの各成分値に対して演算するのではな
く、輝度を求めて演算すれば処理量が低減するといえ
る。上述した輝度Yの変換式を利用すれば、(32)式
と(33)式は(35)式と(36)式のように書き換
えられる。On the other hand, it can be said that the edge enhancement can be carried out by maintaining the hue and changing the luminance.
Therefore, it can be said that the amount of processing is reduced by calculating the brightness instead of calculating the RGB component values. If the conversion formula of the brightness Y is used, the formulas (32) and (33) can be rewritten as the formulas (35) and (36).
【0105】[0105]
【数2】 [Equation 2]
【0106】
Y”ij=Yij+C×{Yij−Y’ij} …(36)
さらに、Yij−Y’ijを(37)式のように置き換
えれば、
delta={Yij−Y’ij}×C …(37)
変換後のR’G’B’は(38)式のように演算可能と
なる。Y ″ ij = Yij + C × {Yij−Y′ij} (36) Further, if Yij−Y′ij is replaced by the equation (37), delta = {Yij−Y′ij} × C. (37) The converted R'G'B 'can be calculated as in the expression (38).
【0107】
R’=R+delta
G’=G+delta
B’=B+delta …(38)
このようにすれば乗算と加算は1/3となるので、全体
の処理時間としても50〜70%程度の減少が可能とな
る。また、変換結果は色ノイズの強調がなくなり、画質
が向上した。R ′ = R + delta G ′ = G + delta B ′ = B + delta ... (38) In this way, the multiplication and addition are 1/3, so that the overall processing time can be reduced by about 50 to 70%. Becomes In addition, the conversion result has no enhancement of color noise and the image quality is improved.
【0108】エッジ強調の処理は、マトリクス状の画像
データにおける各画素についてアンシャープマスク40
を利用してエッジ強調後の画像データ(R’G’B’)
を算出していく処理に相当する。ステップS406〜ス
テップS412では各画素についてエッジ強調処理を繰
り返すループ処理を表しており、ループ処理内のステッ
プS410で図13に示すようにして水平方向及び垂直
方向へ順次注目画素を移動させ、ステップS412で最
終画素と判断されるまで繰り返すようになっている。The edge enhancement processing is performed by the unsharp mask 40 for each pixel in the matrix image data.
Image data (R'G'B ') after edge enhancement using
Corresponds to the process of calculating Steps S406 to S412 represent a loop process in which the edge enhancement process is repeated for each pixel. In step S410 in the loop process, the target pixel is sequentially moved in the horizontal direction and the vertical direction as shown in FIG. The process is repeated until it is determined as the last pixel.
【0109】ただし、(32)式の演算は、注目画素の
周囲の画素に対して、採用するアンシャープマスク40
の升目数だけ乗算演算と加算演算が必要になり、処理量
としては多大になる。一方、エッジ強調が必要になる状
況を考えるといわゆる画像のエッジ部分であるから、隣
接する画素同士の間で画像データが大きく異なる場所に
限られる。このような状況から隣接する画素との間で画
像データの差が大きな場合に演算すれば足りるといえ
る。However, the calculation of the equation (32) is performed by using the unsharp mask 40 adopted for the pixels around the target pixel.
The multiplication and the addition are required by the number of squares, and the processing amount becomes large. On the other hand, considering the situation where edge enhancement is required, this is the so-called edge portion of the image, so it is limited to the location where the image data greatly differs between adjacent pixels. From such a situation, it can be said that calculation is sufficient when the difference in image data between adjacent pixels is large.
【0110】これを具体化するため、ステップS406
では隣接する画素同士の間で画像データの比較を行い、
差が大きい場合にのみステップS408におけるアンシ
ャープマスクの演算を行うようにしている。このように
すれば、殆どのエッジ部分でない画像データ部分でアン
シャープマスクの演算を行う必要がなくなり、処理が激
減する。To embody this, step S406
Then, compare the image data between adjacent pixels,
Only when the difference is large, the calculation of the unsharp mask in step S408 is performed. By doing so, it is not necessary to perform the calculation of the unsharp mask on the image data portion which is not the edge portion, and the processing is drastically reduced.
【0111】また、図20に示すように、本来であれば
注目画素に対応してその周囲には八つの画素があるの
で、八回の比較が必要となる。しかし、例えば図の中央
の注目画素と「5」の升目の画素とを比較する場合、実
は、その前に注目画素が同「5」の升目であったときに
「1」の升目の画素との比較で一度行われていることが
分かる。従って、少なくとも隣接する画素同士の比較が
一度だけ行われるようにしておくだけでも十分とすれ
ば、互いに反対方向となる組み合わせである「1」と
「5」、「2」と「6」、「3」と「7」、「4」と
「8」についてはどちらか一方だけでも十分であり、上
記組み合わせの四つの方向について比較を行うこととし
ている。Further, as shown in FIG. 20, originally there are eight pixels around the target pixel corresponding to the target pixel, so eight comparisons are required. However, for example, when comparing the pixel of interest in the center of the figure with the pixel of the grid of “5”, when the pixel of interest was the grid of the same “5” before that, the pixel of the grid of “1” was detected. It can be seen that the comparison is made once. Therefore, if it suffices to compare at least adjacent pixels only once, it is a combination of "1" and "5", "2" and "6", which are mutually opposite directions. Only one of "3" and "7" or "4" and "8" is sufficient, and comparison is made in the four directions of the combination.
【0112】以上のようにして利用色数が多い自然画に
ついては、自動的に最適な範囲でコントラストが拡大さ
れるとともに、彩度強調やエッジ強調も当該画像に最適
な強調度で自動的に行われる。むろん、自然画でない場
合にはこれらは不要なものとしてスキップされる。As described above, for a natural image with a large number of colors used, the contrast is automatically expanded in the optimum range, and saturation enhancement and edge enhancement are automatically performed at the optimum enhancement level for the image. Done. Of course, if they are not natural images, these are skipped as unnecessary.
【0113】これまでは、アプリケーション21dにお
ける画像処理において利用色数から画像データの種類を
判定して最適な画像処理を行ってきたが、プリント処理
においても判定された画像の種類に応じて同様に最適な
処理が選択される。Up to now, the type of image data has been determined from the number of colors used in the image processing in the application 21d to perform the optimum image processing. However, the same applies to the determined type of image in the print processing as well. The optimal process is selected.
【0114】図21にはプリント処理に対応するフロー
チャートを示している。ステップS502にてラスタデ
ータを生成した後、ステップS504にて上述したフラ
グに基づいて画像データの種類を判別し、二種類用意さ
れている色変換処理のステップS506あるいはステッ
プS508のいずれかを実行する。その後、ステップS
510にて二値化し、ステップS512にて印刷データ
を出力する。FIG. 21 shows a flowchart corresponding to the print processing. After the raster data is generated in step S502, the type of image data is determined based on the flag described above in step S504, and either step S506 or step S508 of the color conversion processing prepared for two types is executed. . After that, step S
Binarization is performed at 510, and print data is output at step S512.
【0115】ステップS506で行われるのは補間演算
処理とキャッシュ処理とを組み合わせた色変換処理であ
り、その手順を図22以下に示している。同図に示す補
間演算では実質的に演算処理する八点補間演算とともに
実質的な演算処理をすることなく色変換するキャッシン
グを合わせて行っている。What is executed in step S506 is a color conversion process in which the interpolation calculation process and the cache process are combined, and the procedure is shown in FIG. In the interpolation calculation shown in the figure, in addition to the eight-point interpolation calculation for substantially performing the calculation processing, the caching for color conversion is also performed without performing the substantial calculation processing.
【0116】八点補間演算については、図23に演算の
原理を示している。変換元の表色空間でRGB階調デー
タを成分値とする座標Pを取り囲む八点の格子点からな
る立法体を想定したとき、立方体のk番目の頂点での変
換値をDkとするとともに立方体の体積をVとすると、
立方体の内点Pでの変換値Pxは当該P点で分割される
図示のような八つの小直方体の体積Vkの比率による加
重から次式で補間できる。FIG. 23 shows the principle of the eight-point interpolation calculation. Assuming a cube consisting of eight lattice points surrounding the coordinate P having RGB gradation data as a component value in the color space of the conversion source, the conversion value at the k-th vertex of the cube is Dk and the cube is Let V be the volume of
The conversion value Px at the inner point P of the cube can be interpolated by the following formula from the weighting by the ratio of the volumes Vk of the eight small rectangular parallelepipeds divided at the point P as shown.
【0117】[0117]
【数3】 [Equation 3]
【0118】従って、当該座標を取り囲む八つの格子点
を特定し、各格子点でのCMYの階調データのそれぞれ
について演算を実行することになる。Therefore, eight grid points surrounding the coordinates are specified, and the calculation is executed for each of the CMY gradation data at each grid point.
【0119】ところで、図22に示すフローチャートを
参照すると、当該補間演算の処理ルーチンでは、必ずし
もこの八点補間演算を実行するのではなく、図24に示
すようなキャッシュテーブルを参照して八点補間演算を
省略するためのキャッシングを行っている。このキャッ
シュテーブルは変換元のRGBの階調データを成分値と
して八点補間演算を実行したときに得られたCMYの階
調データを保存しておくための一定容量のテーブルであ
る。最初、このテーブルは空白であるもののステップS
606にて八点補間演算を実行した直後に求められたC
MYの階調データをステップS608にて追加更新する
ようにしており、図21に示すステップS506にて
「キャッシュ+補間演算」の処理ルーチンが実行された
ときには、最初のステップS602にて変換元のRGB
の階調データを成分値として当該キャッシュテーブル内
を検索し、キャッシュヒットした(検索で発見できた)
場合には、ステップS612にて当該記憶されているC
MYの階調データを参照するようにしている。By the way, referring to the flow chart shown in FIG. 22, the eight-point interpolation is not necessarily executed in the interpolation calculation processing routine, but the eight-point interpolation is referred to by referring to the cache table as shown in FIG. Caching is performed to omit the calculation. This cache table is a table of a fixed capacity for storing the CMY gradation data obtained when the 8-point interpolation calculation is executed using the conversion source RGB gradation data as the component value. Initially, this table is blank, but step S
C obtained immediately after executing the eight-point interpolation calculation in 606
The MY gradation data is additionally updated in step S608, and when the "cache + interpolation calculation" processing routine is executed in step S506 shown in FIG. 21, the conversion source data of the conversion source is first calculated in step S602. RGB
The cache table is searched using the gradation data of as the component value and a cache hit is found (it was found by the search)
In this case, the stored C in step S612.
The MY gradation data is referred to.
【0120】色変換処理ではラスタライズされたドット
マトリクスの各画素についてRGBの階調データをCM
Yの階調データに変換していくため、ステップS610
にて最終の画素となるまで繰り返している。In the color conversion processing, the RGB gradation data is CMed for each pixel of the rasterized dot matrix.
In order to convert to Y gradation data, step S610
Repeat until the final pixel is reached.
【0121】このような補間演算は演算量が多いもの
の、自然画でない場合は利用色数が少ないので、一回の
演算結果は何度も利用可能である。従って、画像データ
の種類が自然画でないと判定された場合においては、こ
の「キャッシュ+補間演算」の処理は極めて有効といえ
る。Although such an interpolation calculation requires a large amount of calculation, the number of colors used is small when the image is not a natural image, so that the result of one calculation can be used many times. Therefore, when it is determined that the type of image data is not a natural image, this "cache + interpolation calculation" process is extremely effective.
【0122】次に、もう一方の色変換処理であるステッ
プS508のプレ階調変換について説明する。Next, the pre-gradation conversion of step S508 which is the other color conversion processing will be described.
【0123】図25のフローチャートと図26の画素の
誤差分配を示す図はプレ階調変換の概略を説明するため
のものである。上述した八点補間の基本式は、八回の乗
算と七回の加算が必要となるため、ハードウェア化する
場合でもソフトウェアで実行する場合でも資源および時
間の負担が大きい。このため、より簡易に色変換を行う
べく、本出願人による特開平7−30772号公報では
補間演算に代えて階調変換する技術を開示している。The flowchart of FIG. 25 and the diagram showing the error distribution of pixels in FIG. 26 are for explaining the outline of the pre-gradation conversion. The above-mentioned basic equation of eight-point interpolation requires multiplication eight times and addition seven times, so that it is a heavy resource and time burden whether it is implemented by hardware or software. Therefore, in order to perform color conversion more easily, Japanese Patent Laid-Open No. 7-30772 of the present applicant discloses a technique of gradation conversion instead of interpolation calculation.
【0124】同公報に開示したプレ階調変換は、いわゆ
る誤差拡散などの手法を用いることにより、画素の階調
データを格子座標に一致するように階調変換するもので
あり、対象となる画素について直近の格子座標を探し
(S702)、格子座標との誤差(dg)を算出し(S
704)、その誤差(dg)を近隣画素へ分配する(S
706)だけの処理となっている。従って、乗算と加算
を繰り返す場合に比べて演算の負担を極めて簡素化でき
る。補間演算することなく精度を保持できる理由につい
ては同公報に詳しく述べられているのでここでは詳述し
ない。なお、色変換後にも二値化のための階調変換を行
うことになるため、先に行われる階調変換をプレ階調変
換と呼ぶ。The pre-gradation conversion disclosed in the publication is to convert the gradation data of a pixel so that it coincides with the grid coordinates by using a technique such as so-called error diffusion. The nearest grid coordinate is searched for (S702), and the error (dg) from the grid coordinate is calculated (S702).
704), the error (dg) is distributed to neighboring pixels (S).
706) only. Therefore, the burden of calculation can be extremely simplified as compared with the case of repeating multiplication and addition. The reason why the accuracy can be maintained without performing the interpolation calculation is described in detail in the publication, and will not be described in detail here. Since the gradation conversion for binarization is also performed after the color conversion, the gradation conversion performed first is called pre-gradation conversion.
【0125】このプレ階調変換でもラスタライズされた
ドットマトリクスの各画素について階調変換していくた
め、ステップS708にて最終の画素となるまで繰り返
す。そして、続くステップS710で階調変換したRG
Bの階調データで色変換テーブルを参照するが、このと
きは必ず格子点となっているため補間演算をする必要が
無く、読み出しの処理は極めて容易である。Even in this pre-gradation conversion, since gradation conversion is performed for each pixel of the rasterized dot matrix, the process is repeated until the final pixel is reached in step S708. Then, in the subsequent step S710, the gradation converted RG
The color conversion table is referred to by the gradation data of B, but at this time, since it is always a grid point, there is no need to perform interpolation calculation, and the reading process is extremely easy.
【0126】自然画のように利用する色数が極めて多い
場合には上述した「キャッシュ+補間演算」の処理にお
いてもヒットする確率が低くなってくるため、補間演算
の回数が多くなる。しかしながら、このようなプレ階調
変換では全画素について誤差拡散などの処理を実行しな
ければならないものの、一回の処理は単純であるため、
全体的には処理量が少ない。従って、利用色数が多く、
自然画であると判定された画像データについてはこのよ
うなプレ階調変換による色変換処理を選択することによ
って全体の処理量を低減させることが可能となる。When the number of colors to be used is extremely large like a natural image, the probability of hitting in the above-mentioned "cache + interpolation calculation" is low, so the number of interpolation calculations increases. However, in such pre-gradation conversion, although processing such as error diffusion must be executed for all pixels, one processing is simple, so
Overall throughput is low. Therefore, the number of colors used is large,
For image data determined to be a natural image, it is possible to reduce the entire processing amount by selecting the color conversion processing by such pre-gradation conversion.
【0127】本実施形態においては、利用色数の少ない
非自然画については「キャッシュ+補間演算」の色変換
処理を採用し、利用色数が多い自然画についてはプレ階
調変換による色変換処理を採用しているが、かかる組み
合わせに限られず、他の組み合わせを採用することも可
能である。すなわち、画像の種類に応じて最も適切な色
変換処理を自由に設定して自動的にこれを利用するよう
にしても良い。In the present embodiment, the color conversion process of "cache + interpolation calculation" is adopted for the non-natural image having a small number of used colors, and the color conversion process by the pre-gradation conversion is made for the natural image having a large number of used colors. However, the present invention is not limited to such a combination, and other combinations can be adopted. That is, the most appropriate color conversion process may be freely set according to the type of image and automatically used.
【0128】このように、画像データに対して間引き処
理によって選択した各画素について輝度の分布を集計す
ることにより(ステップS102)、利用している色数
をカウントすることが可能となり(ステップS10
4)、その結果、利用している色数が多ければ画像デー
タの種類として自然画であると判断することができ、ま
た、そのような判定結果に基づいて自然画に適用して好
適なコントラスト拡大処理(ステップS110)や彩度
強調処理(ステップS112)やエッジ強調処理(S1
14)を自動的に選択可能となるし、さらに、プリント
処理においても自然画であればプレ階調変換による色変
換を行うし(ステップS508)、自然画でない場合に
は「キャッシュ+補間演算」の色変換を行い(ステップ
S506)、自動的に処理量の少ない色変換処理を選択
することが可能となる。In this way, the number of colors used can be counted by totaling the luminance distributions for each pixel selected by the thinning process for the image data (step S102) (step S10).
4) As a result, if the number of colors used is large, it can be determined that the type of image data is a natural image, and based on such a determination result, a suitable contrast is applied to the natural image. Enlargement processing (step S110), saturation enhancement processing (step S112), edge enhancement processing (S1)
14) can be automatically selected, and in the printing process, if the image is a natural image, color conversion is performed by pre-gradation conversion (step S508). If the image is not a natural image, "cache + interpolation calculation" is performed. The color conversion is performed (step S506), and it is possible to automatically select a color conversion process with a small processing amount.
【図1】本発明の一実施形態にかかる画像処理装置の具
体的ハードウェア構成例のブロック図である。FIG. 1 is a block diagram of a specific hardware configuration example of an image processing apparatus according to an embodiment of the present invention.
【図2】コンピュータの内部で行なわれる処理を示すブ
ロック図である。FIG. 2 is a block diagram showing processing performed inside a computer.
【図3】画像処理手段のより詳細な構成を示す概略ブロ
ック図である。FIG. 3 is a schematic block diagram showing a more detailed configuration of image processing means.
【図4】プリンタドライバのより詳細な構成を示す概略
ブロック図である。FIG. 4 is a schematic block diagram showing a more detailed configuration of a printer driver.
【図5】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。FIG. 5 is a schematic block diagram showing another application example of the image processing apparatus of the present invention.
【図6】本発明におけるアプリケーションの画像処理を
示すフローチャートである。FIG. 6 is a flowchart showing image processing of an application according to the present invention.
【図7】変換元の画像を示す図である。FIG. 7 is a diagram showing a conversion source image.
【図8】サンプリング周期を示す図である。FIG. 8 is a diagram showing a sampling cycle.
【図9】サンプリング画素数を示す図である。FIG. 9 is a diagram showing the number of sampling pixels.
【図10】変換元の画像とサンプリングされる画素の関
係を示す図である。FIG. 10 is a diagram showing a relationship between a conversion source image and sampled pixels.
【図11】集計された輝度分布と拡大される輝度分布を
示す図である。FIG. 11 is a diagram showing an aggregated luminance distribution and an enlarged luminance distribution.
【図12】画像処理として用意されたコントラスト拡大
処理を示すフローチャートである。FIG. 12 is a flowchart showing a contrast enlargement process prepared as image processing.
【図13】注目画素の移動方向を示す図である。FIG. 13 is a diagram showing a moving direction of a target pixel.
【図14】画像処理として用意された彩度強調処理を示
すフローチャートである。FIG. 14 is a flowchart showing saturation enhancement processing prepared as image processing.
【図15】彩度分布の集計状態の概略図である。FIG. 15 is a schematic diagram of an aggregated state of saturation distribution.
【図16】彩度Aと彩度強調指数Sとの関係を示す図で
ある。16 is a diagram showing a relationship between saturation A and saturation emphasis index S. FIG.
【図17】画像処理として用意されたエッジ強調処理を
示すフローチャートである。FIG. 17 is a flowchart showing edge enhancement processing prepared as image processing.
【図18】アンシャープマスクを示す図である。FIG. 18 is a diagram showing an unsharp mask.
【図19】アンシャープマスクの改良版を示す図であ
る。FIG. 19 is a diagram showing an improved version of the unsharp mask.
【図20】画像データにおいて隣接画素との比較方向を
示す図である。FIG. 20 is a diagram showing a comparison direction with adjacent pixels in image data.
【図21】プリンタドライバの印刷処理の手順を示すフ
ローチャートである。FIG. 21 is a flowchart illustrating a procedure of print processing of a printer driver.
【図22】キャッシュ+補間演算による色変換処理のフ
ローチャートである。FIG. 22 is a flowchart of color conversion processing by cache + interpolation calculation.
【図23】八点補間演算の概念を示す図である。FIG. 23 is a diagram showing the concept of eight-point interpolation calculation.
【図24】キャッシュテーブルの内容を示す図である。FIG. 24 is a diagram showing the contents of a cache table.
【図25】プレ階調変換処理のフローチャートである。FIG. 25 is a flowchart of a pre-gradation conversion process.
【図26】各画素の誤差拡散の様子を示す図である。FIG. 26 is a diagram showing a state of error diffusion of each pixel.
10…画像入力装置 20…画像処理装置 21a…オペレーティングシステム 21b…プリンタドライバ 21b1…ラスタライザ 21b2…色変換部 21b3…階調変換部 21c…ビデオドライバ 21d…アプリケーション 21d1…色数検知手段 21d2…画像判定手段 21d3…画像処理手段 30…画像出力装置 10 ... Image input device 20 ... Image processing device 21a ... Operating system 21b ... printer driver 21b1 ... rasterizer 21b2 ... Color conversion unit 21b3 ... Gradation converter 21c ... Video driver 21d ... application 21d1 ... Color number detection means 21d2 ... Image judging means 21d3 ... Image processing means 30 ... Image output device
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA11 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CE11 CE17 CE18 DA12 DA17 DB02 DB06 DB09 DC23 DC25 DC36 5C077 LL01 LL19 MP08 PP03 PP32 PP34 PP37 PP51 PQ08 PQ12 5C079 HB01 HB04 HB12 LA02 LA31 LB01 MA11 NA03 NA05 5L096 AA02 AA06 BA07 CA02 DA01 FA37 FA54 GA28 GA41 JA11 ─────────────────────────────────────────────────── ─── Continued front page F-term (reference) 5B057 AA11 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CE11 CE17 CE18 DA12 DA17 DB02 DB06 DB09 DC23 DC25 DC36 5C077 LL01 LL19 MP08 PP03 PP32 PP34 PP37 PP51 PQ08 PQ12 5C079 HB01 HB04 HB12 LA02 LA31 LB01 MA11 NA03 NA05 5L096 AA02 AA06 BA07 CA02 DA01 FA37 FA54 GA28 GA41 JA11
Claims (10)
して各画素の情報を表す画像データを入力し、各画素の
輝度に相当する情報を色と見なして利用色数を検知する
色数検知手段と、 この検知された利用色数の多少に基づいて画像の種類を
判定する画像判定手段とを具備することを特徴とする画
像処理装置。1. A color number detection in which an image is decomposed into pixels in a dot matrix form, image data representing information of each pixel is input, and information corresponding to the brightness of each pixel is regarded as a color to detect the number of colors used. An image processing apparatus comprising: a means; and an image determination means for determining an image type based on the detected number of used colors.
いて、画像データが輝度に対応した複数の成分値で表さ
れる場合において、上記色数検知手段は、同成分値の重
みづけ積算により輝度を求めることを特徴とする画像処
理装置。2. The image processing apparatus according to claim 1, wherein when the image data is represented by a plurality of component values corresponding to brightness, the color number detecting means calculates the weighted sum of the component values. An image processing apparatus characterized by obtaining brightness.
に記載の画像処理装置において、上記色数検知手段は、
画像データからサンプリングした画素について色数を検
知することを特徴とする画像処理装置。3. The image processing device according to claim 1 or 2, wherein the color number detection means is
An image processing device characterized by detecting the number of colors of pixels sampled from image data.
載の画像処理装置において、上記画像判定手段は、利用
色数が多い場合に自然画であると判定することを特徴と
する画像処理装置。4. The image processing apparatus according to claim 1, wherein the image determination unit determines that the image is a natural image when the number of colors used is large. Processing equipment.
いて、上記画像データが自然画であるときに輝度分布を
拡大させる画像処理を行なうとともに非自然画であると
きには輝度分布を拡大させないようにする画像処理手段
を具備することを特徴とする画像処理装置。5. The image processing apparatus according to claim 4, wherein when the image data is a natural image, image processing is performed to expand the luminance distribution, and when the image data is a non-natural image, the brightness distribution is not enlarged. An image processing apparatus, comprising:
に記載の画像処理装置において、上記画像データが自然
画であるときに彩度を強調させる画像処理を行なうとと
もに非自然画であるときには彩度を強調させないように
する画像処理手段を具備することを特徴とする画像処理
装置。6. The image processing apparatus according to claim 4 or 5, wherein when the image data is a natural image, image processing for enhancing saturation is performed, and when the image data is a non-natural image. An image processing apparatus comprising an image processing means for preventing saturation from being emphasized.
載の画像処理装置において、上記画像データが自然画で
あるときにエッジ強調させる画像処理を行なうとともに
非自然画であるときにはエッジ強調させないようにする
画像処理手段を具備することを特徴とする画像処理装
置。7. The image processing apparatus according to any one of claims 4 to 6, wherein when the image data is a natural image, image processing for edge enhancement is performed, and when the image data is a non-natural image, edge enhancement is performed. An image processing apparatus comprising an image processing unit that prevents the image processing.
載の画像処理装置において、変換元の表色空間での格子
点に変換先の表色空間での階調表色データを対応させた
テーブルを備えつつ変換元の階調表色データを当該テー
ブルの格子点に対応した階調表色データに階調変換して
から同テーブルを参照して対応する階調表色データを読
み出して色変換するプレ階調変換手段と、上記テーブル
の格子点間で補間演算にて対応する階調表色データに色
変換可能であるとともにこの色変換の情報を保存する高
速読込可能な記憶エリアを有して同記憶エリアに記憶さ
れていない場合に補間演算で色変換させるキャッシュ利
用の補間色変換手段とを有し、上記画像データが自然画
であるときに同プレ階調変換手段を使用して色変換する
し、同画像データが自然画でないときに同補間色変換手
段を利用して色変換することを特徴とする画像処理装
置。8. The image processing device according to any one of claims 4 to 7, wherein the grid points in the conversion source color space correspond to the gradation color data in the conversion destination color space. The gradation color data of the conversion source is converted into the gradation color data corresponding to the grid points of the table, and the corresponding gradation color data is read by referring to the table. Pre-gradation conversion means for performing color conversion and a storage area capable of performing color conversion into corresponding gradation color data by interpolating between the grid points of the above table and storing this color conversion information at high speed. When the image data is a natural image, the pre-gradation conversion means is used when the image data is a natural image. Color conversion, and the same image data An image processing apparatus, wherein color conversion is performed by using the interpolation color conversion means when the image is not a natural image.
して各画素の情報を表す画像データに対して所定の画像
処理を行う画像処理方法であって、上記画像データを入
力して各画素の輝度に相当する情報を色と見なして利用
色数を検知して、この検知された利用色数の多少に基づ
いて画像の種類を判定することを特徴とする画像処理方
法。9. An image processing method for decomposing an image into pixels in a dot matrix shape and performing predetermined image processing on image data representing information of each pixel, wherein the image data is input to each pixel. An image processing method, characterized in that information corresponding to brightness is regarded as a color, the number of colors used is detected, and the type of image is determined based on the detected number of colors used.
解して各画素の情報を表す画像データをコンピュータに
て入力し、所定の画像処理を行う画像処理プログラムを
記録した媒体であって、 上記画像データを入力して各画素の輝度に相当する情報
を色と見なして利用色数を検知するステップと、 この検知された利用色数の多少に基づいて画像の種類を
判定するステップとを具備することを特徴とする画像処
理プログラムを記録した媒体。10. A medium in which an image processing program for decomposing an image into pixels in a dot matrix and inputting image data representing information of each pixel by a computer and performing predetermined image processing is recorded. The method includes the steps of inputting data and detecting the number of colors used by regarding the information corresponding to the luminance of each pixel as a color, and determining the type of image based on the number of colors used. A medium having an image processing program recorded therein.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002180777A JP2003050999A (en) | 1996-11-18 | 2002-06-21 | Device and method for image processing and medium with recorded image processing program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30637196 | 1996-11-18 | ||
JP8-306371 | 1996-11-18 | ||
JP2002180777A JP2003050999A (en) | 1996-11-18 | 2002-06-21 | Device and method for image processing and medium with recorded image processing program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30744097A Division JP3981779B2 (en) | 1996-11-18 | 1997-11-10 | Image processing apparatus, image processing method, and medium on which image processing program is recorded |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003050999A true JP2003050999A (en) | 2003-02-21 |
JP2003050999A5 JP2003050999A5 (en) | 2005-01-20 |
Family
ID=26564687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002180777A Pending JP2003050999A (en) | 1996-11-18 | 2002-06-21 | Device and method for image processing and medium with recorded image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003050999A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111247554A (en) * | 2017-11-06 | 2020-06-05 | Eizo株式会社 | Image processing apparatus, image processing method, and image processing program |
-
2002
- 2002-06-21 JP JP2002180777A patent/JP2003050999A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111247554A (en) * | 2017-11-06 | 2020-06-05 | Eizo株式会社 | Image processing apparatus, image processing method, and image processing program |
CN111247554B (en) * | 2017-11-06 | 2023-05-23 | Eizo株式会社 | Image processing apparatus, image processing method, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6351558B1 (en) | Image processing system, image processing method, and medium having an image processing control program recorded thereon | |
US20010052971A1 (en) | Image process method, image process apparatus and storage medium | |
JP4069333B2 (en) | Image processing apparatus, image processing method, and medium on which image processing program is recorded | |
JP4243362B2 (en) | Image processing apparatus, image processing method, and recording medium recording image processing program | |
JP3981779B2 (en) | Image processing apparatus, image processing method, and medium on which image processing program is recorded | |
JP4396866B2 (en) | Image processing apparatus, image processing method, and medium on which image processing program is recorded | |
JP3953897B2 (en) | Image processing apparatus, image processing method, and medium on which image processing program is recorded | |
JP4126509B2 (en) | Image processing apparatus, image processing method, and medium on which image processing program is recorded | |
JP2003085546A5 (en) | ||
JP2003050999A (en) | Device and method for image processing and medium with recorded image processing program | |
JP2003050999A5 (en) | ||
JP3698205B2 (en) | Image processing apparatus, image processing method, and medium on which image processing program is recorded | |
JP3736632B2 (en) | Image processing apparatus, image processing method, and medium on which image processing program is recorded | |
JP3501151B2 (en) | Image processing apparatus, image processing method, medium recording image processing control program | |
JP3646798B2 (en) | Image processing apparatus, image processing method, and medium on which image processing program is recorded | |
JPH10210299A (en) | Image processor, image processing method and medium recorded with image processing program | |
JP3596614B2 (en) | Image processing apparatus, image processing method, and medium recording image processing program | |
JP2003051000A5 (en) | ||
JP3570416B2 (en) | Image processing apparatus, image processing method, and medium recording image processing control program | |
JP2003050997A5 (en) | ||
JP2003069826A (en) | Image processor, image processing method and medium having image processing program recorded thereon | |
JP2003178289A (en) | Image processor, image evaluating device, image processing method, image evaluating method and recording medium for recording image processing program | |
JP2003085552A5 (en) | ||
JP2005108258A (en) | Image processing apparatus and method and media for recording image processing program | |
JP2003085552A (en) | Device and method for processing image and memory medium with image processing program recoded |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040219 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040219 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20040219 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20040510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041126 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050711 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20050727 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20051007 |