JP3198705B2 - Image feature extraction method and apparatus - Google Patents
Image feature extraction method and apparatusInfo
- Publication number
- JP3198705B2 JP3198705B2 JP04319593A JP4319593A JP3198705B2 JP 3198705 B2 JP3198705 B2 JP 3198705B2 JP 04319593 A JP04319593 A JP 04319593A JP 4319593 A JP4319593 A JP 4319593A JP 3198705 B2 JP3198705 B2 JP 3198705B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- feature
- extracting
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Image Analysis (AREA)
Description
【0001】[0001]
【産業上の利用分野】この発明は、量子化された連続多
階調画像データから画像特徴を有している画素を抽出す
る画像特徴抽出方法及びその装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image feature extraction method and apparatus for extracting pixels having image features from quantized continuous multi-tone image data.
【0002】[0002]
【従来の技術】従来における画像処理装置においては、
エッジ強調やスムージング等の各種個別画像処理毎に画
像の特徴情報を抽出し、その結果により夫々にふさわし
い処理を行なうことが一般的になっている。例えば二値
化やエッジ強調処理を行なう際には、画像を構成してい
る画素が文字の一部であるか、網点画像の一部である
か、または、写真の一部であるかといった特徴情報を画
像から抽出し、その結果により二値化処理やエッジ強調
処理を施すようになっている。尚、領域抽出、領域分割
(セグメンテーション)等の各種認識処理においても、
処理の前半で特徴抽出するための処理が行なわれるよう
になっている。この場合において、画像特徴の抽出方法
としては、画像の領域毎に同じ特徴を選び出すものと、
一つ一つの画素毎に特徴を選び出す方法とがあり、ま
た、別の試みとして、網点等の二値画像を多値の画像に
直して、どちらも同じ処理を加えようという考えもある
(例えば特開平3ー283765号公報)。2. Description of the Related Art In a conventional image processing apparatus,
It is common to extract image feature information for each individual image process such as edge enhancement and smoothing, and to perform processing appropriate for each result based on the result. For example, when performing binarization or edge enhancement processing, it is necessary to determine whether the pixels constituting the image are part of a character, a part of a halftone image, or a part of a photograph. The feature information is extracted from the image, and the result is subjected to a binarization process or an edge enhancement process. In various recognition processes such as region extraction and region division (segmentation),
A process for feature extraction is performed in the first half of the process. In this case, as a method of extracting image features, a method of selecting the same feature for each region of the image,
There is a method of selecting a feature for each pixel, and another approach is to convert a binary image such as a halftone dot into a multi-valued image and apply the same processing to both ( For example, JP-A-3-283765).
【0003】[0003]
【発明が解決しようとする課題】ところで、従来におけ
る画像処理装置にあっては、同一装置内に数種の個別画
像処理部が組み込まれているが、同じような画像特徴を
利用していても別々に特徴を抽出し、利用または保存し
ていることから、装置構成が複雑化してしまうという技
術的課題があった。更に、従来における二値化やエッジ
強調処理は、画像が写真か網点か文字かによって処理を
全体的に変えるだけのものに過ぎず、適切な場所に適切
な処理を適切な深さで加えるという細かい調整を行なっ
ていなかったため、エッジ強調処理等の個別の画像処理
精度を充分に高めることができないという技術的課題が
あった。By the way, in a conventional image processing apparatus, several kinds of individual image processing units are incorporated in the same apparatus, but even if similar image features are used. There is a technical problem that the device configuration is complicated because features are separately extracted, used, or stored. Furthermore, the conventional binarization and edge enhancement processing merely changes the entire processing depending on whether the image is a photograph, a halftone dot, or a character, and adds an appropriate processing to an appropriate place at an appropriate depth. Therefore, there is a technical problem that individual image processing accuracy such as edge enhancement processing cannot be sufficiently improved.
【0004】この発明は、以上の技術的課題を解決する
ために為されたものであって、多階調画像データから抽
出される汎用的な画像特徴を有効に利用して全体として
コンパクトなシステムを構築することができ、更に、分
類の細かい画像特徴を抽出し、抽出された画像特徴を参
照しながら精度の良い個別画像処理を実現できるように
した画像特徴抽出方法及びその装置を提供する。SUMMARY OF THE INVENTION The present invention has been made to solve the above technical problems, and has a compact system as a whole by effectively utilizing general-purpose image features extracted from multi-tone image data. In addition, the present invention provides an image feature extraction method and an apparatus for extracting an image feature with a fine classification, and realizing accurate individual image processing while referring to the extracted image feature.
【0005】[0005]
【課題を解決するための手段】すなわち、この発明は、
量子化された多階調画像データから画像特徴を抽出する
に際し、入力画像が人間の視覚特性にどのように写るか
を予測し、この予測結果を元に入力画像に対して人間の
視覚特性に基づくデータ処理を施すという前処理を経て
特徴画素を抽出する多階調画像データを作成し、しかる
後、各走査ラインの画素から、複数の個別画像処理手段
で共通に利用可能な特徴画素を抽出した後、この抽出さ
れた特徴画素の性質を複数の個別画像処理手段が共用し
得る参照用バッファの対応する画素位置に夫々書き込む
ようにしたものである。That is, the present invention provides:
How to extract input features to human visual characteristics when extracting image features from quantized multi-tone image data
, And based on this prediction result,
Through pre-processing of data processing based on visual characteristics
Create multi-tone image data to extract characteristic pixels,
After, the pixels of each scan line, after extracting the feature pixel commonly available in a plurality of individual image processing means, for reference the nature of the extracted feature pixels are a plurality of individual image processing means may share The data is written in the corresponding pixel position of the buffer.
【0006】このような方法発明を具現化する装置発明
は、図1に示すように、量子化された多階調画像データ
から画像特徴を抽出する画像特徴抽出装置であって、画
像特徴を抽出する多階調画像データの前処理手段とし
て、入力画像が人間の視覚特性にどのように写るかを予
測する画像予測手段(5)と、この画像予測手段(5)
の予測結果を元に入力画像に対して人間の視覚特性に基
づくデータ処理を施すデータ整形手段(6)とを具備さ
せ、各走査ラインの画素から、少なくとも濃度変化の大
きなエッジ画素部分に対応し且つ立ち上がりと立ち下が
りとを区別したエッジ特徴画素TDEが含まれる特徴画
素TDを抽出する特徴画素抽出手段1と、この特徴画素
抽出手段1にて抽出された特徴画素TDの性質が対応す
る画素毎に書き込まれ且つ複数の個別画像処理手段7が
共用し得るように設けられる参照用バッファ2とを備え
たことを特徴とするものである。また、別の装置発明
は、図1の特徴画素抽出手段1として、少なくとも濃度
勾配のある画素部分の濃度勾配を表す濃度勾配特徴画素
TDNが含まれる特徴画素TDを抽出するもの、あるい
は、少なくとも濃度変化の大きなエッジ画素部分に対応
するエッジ特徴画素TDE及び濃度勾配のある画素部分
の濃度勾配を表す濃度勾配特徴画素TDNが含まれる特
徴画素TDを抽出するものを用いたものが挙げられる。[0006] Such a method invention apparatus invention embodying, as shown in FIG. 1, an image characteristic extraction apparatus for extracting image features from the multi-gradation image data quantized, picture
Pre-processing means for multi-tone image data to extract image features
To predict how the input image will appear in human visual characteristics.
Image predicting means (5) for measuring, and the image predicting means (5)
Input image based on the human visual characteristics
Data shaping means (6) for performing data processing according to
So, from the pixels of each scan line, wherein the pixel extracting means 1 for extracting a feature pixel TD which contains the edge feature pixel TDE which distinguishes between and rise and fall in response to a large edge pixel portion of at least the concentration change, the And a reference buffer (2) in which the characteristics of the characteristic pixels TD extracted by the characteristic pixel extracting means (1) are written for each corresponding pixel and provided so as to be shared by a plurality of individual image processing means (7). It is assumed that. In another apparatus invention, the characteristic pixel extracting means 1 shown in FIG. 1 extracts a characteristic pixel TD including a density gradient characteristic pixel TDN representing a density gradient of a pixel portion having a density gradient, or at least a density pixel. One that extracts a feature pixel TD that includes an edge feature pixel TDE corresponding to an edge pixel portion having a large change and a density gradient feature pixel TDN representing a density gradient of a pixel portion having a density gradient is used.
【0007】このような技術的手段において、画像特徴
抽出の対象となる多階調画像データとしては、入力画像
そのものでも差し支えないが、画像特徴の抽出精度をよ
り高めるという観点からすれば、入力画像に対して人間
の視覚特性に基づく補正処理を施したものであるのが好
ましい。ここで、人間の視覚特性に基づく補正処理と
は、人間が入力画像を実際に知覚している(錯覚等も含
めた)空間へ入力画像データを変換するものであれば、
その補正アルゴリズムについては適宜選定することが可
能である。In such technical means, the input image itself may be used as the multi-tone image data from which the image feature is to be extracted, but from the viewpoint of further improving the extraction accuracy of the image feature, the input image can be used. preferably one subjected to correction processing based on the human visual characteristics for. Here, the correction processing based on the visual characteristics of a human means that the input image data is converted into a space in which a human actually perceives the input image (including an illusion).
The correction algorithm can be appropriately selected.
【0008】そして、人間の視覚特性に基づく補正処理
を施すには、画像特徴抽出の対象となる多階調画像デー
タの前処理手段として、入力画像が人間の視覚特性にど
のように写るかを予測する画像予測手段5と、この画像
予測手段5の予測結果を元に入力画像に対して人間の視
覚特性に基づくデータ処理を施すデータ整形手段6とを
具備させるようにすればよい。このとき、上記画像予測
手段5としては、画像が人間の視覚にどのように写るか
を予測するものであれば、その予測のアルゴリズムにつ
いては適宜選定することができ、また、データ整形手段
6については、画像予測手段5の予測結果を元にデータ
を人間の視覚特性に沿って整形するものであれば適宜選
定して差し支えないが、データの整形性を良好に保つに
は、入力画像を均等色空間に写像する手法を採用するこ
とが好ましく、特に、データの処理性を上げるという観
点からすれば、均等色空間の極座標表示にてデータを扱
うのが好ましい。In order to perform a correction process based on human visual characteristics , as a preprocessing means for multi-tone image data to be subjected to image feature extraction, it is necessary to determine how an input image appears in human visual characteristics. What is necessary is just to provide the image prediction means 5 for predicting, and the data shaping means 6 which performs the data processing based on the human visual characteristic with respect to the input image based on the prediction result of this image prediction means 5. At this time, if the image predicting means 5 predicts how an image is projected to human vision, the algorithm of the prediction can be appropriately selected. May be appropriately selected as long as the data is shaped in accordance with the human visual characteristics based on the prediction result of the image predicting means 5. However, in order to maintain good data shaping, the input image must be equalized. It is preferable to adopt a method of mapping in a color space, and particularly from the viewpoint of improving data processing, it is preferable to handle data in a polar coordinate display in a uniform color space.
【0009】このように、人間の視覚特性に基づく補正
処理を施した多階調画像データに対して画像特徴抽出を
行なうことが好ましいと考えられる背景は以下の通りで
ある。すなわち、例えば画像再現装置の画像処理に関
し、エッジ強調処理等の個別画像処理は、人間の視覚特
性から考えると、入力された画像を実際に人間が視覚を
通じて見えている画像に変換する処理の一つとして捉え
ることができる。この後、各種処理が加えられた入力画
像は再度二値化等夫々の画像出力装置の特性に合わせて
変換されて出力される。従って、画像再現装置に要求さ
れるべき画像処理機能としては、人間の視覚特性を考慮
した画像に変える変換部(以下HVS(Human Visual Sy
stem)変換部と呼ぶことにする)と、画像出力装置の特
性に合わせて二値化等の処理を施す符号化部とで構成さ
れているものと考えられる。このとき、人間の視覚を通
したときどのように画像が見えるかという事を適切に考
慮しなければ、正しいHVS変換を行なうことができ
ず、後段の符号化部で如何に適切な処理を施したとして
も、画像の再現性を高めることができない。尚、HVS
に関する研究としては、例えば、Olivier D.Faugerasの
“DigitalColor Image Processing Within the Framewo
rk of a Human Visual Model"IEEEtransactions,ASSP27
no.4,pp380-393やHannu J. Saarelma and Pirkko T. Oi
ttinenの“Digital Halftones and Structure Visibili
ty"Journal of Imaging Technology17,pp228-232,1991
等が挙げられる。それゆえ、入力画像を先ずHVS変換
するようにすれば、人間の視覚によって写真や文字や網
点がどのように見えているかが分かるようになるので、
適切な箇所に適切な強さで適切なエッジ強調処理等の個
別画像処理を施すことが可能になると考えられる。The following is a background where it is considered preferable to perform image feature extraction on multi-tone image data that has been subjected to correction processing based on human visual characteristics. That is, for example, regarding image processing of an image reproducing apparatus, individual image processing such as edge enhancement processing is one type of processing for converting an input image into an image that can be actually seen by humans in view of human visual characteristics. Can be regarded as one. Thereafter, the input image subjected to various processes is converted again according to the characteristics of the respective image output devices such as binarization and output. Therefore, as an image processing function to be required of an image reproducing apparatus, a conversion unit (hereinafter referred to as HVS (Human Visual Sy
stem), and an encoding unit that performs a process such as binarization in accordance with the characteristics of the image output device. At this time, correct HVS conversion cannot be performed unless proper consideration is given to how an image can be seen through human vision. Even if it does, the reproducibility of the image cannot be improved. In addition, HVS
For example, Olivier D. Faugeras's “DigitalColor Image Processing Within the Framewo
rk of a Human Visual Model "IEEEtransactions, ASSP27
no.4, pp380-393 and Hannu J. Saarelma and Pirkko T. Oi
ttinen's “Digital Halftones and Structure Visibili
ty "Journal of Imaging Technology17, pp228-232,1991
And the like. Therefore, if the input image is first subjected to HVS conversion, it becomes possible to understand how photographs, characters, and halftone dots are seen by human vision.
It is considered that individual image processing such as appropriate edge enhancement processing or the like can be performed at an appropriate location with an appropriate strength.
【0010】また、特徴画素抽出手段1にて抽出される
特徴画素TDとしては、上述したように、立ち上がりと
立ち下がりとが区別されたエッジ特徴画素TDE、ある
いは、濃度勾配特徴画素TDN、あるいは、エッジ特徴
画素TDE(立ち上がりと立ち下がりとが区別されてい
ないものも含む)及び濃度勾配特徴画素TDNが含まれ
ていればよいが、個別画像処理にて必要となる画像特徴
に対応するものを含んでよいことは勿論である。また、
特徴画素抽出手段1による特徴画素TDの抽出アルゴリ
ズムについても適宜選定して差し支えないが、特徴画素
TDの抽出精度を高めるという観点からすれば、注目画
素の周囲に位置する複数の画素を参照し、注目画素の特
徴画素TDを抽出する方式を採用するのが好ましい。As described above, the characteristic pixel TD extracted by the characteristic pixel extracting means 1 is, as described above, an edge characteristic pixel TDE in which rising and falling are distinguished, a density gradient characteristic pixel TDN, or edge feature pixel TDE may be contained the (rising and the falling edges including those not differentiated) and the concentration gradient feature pixel TDN, but the one corresponding to an image feature that is required in the individual image processing Of course, it may be included. Also,
The extraction algorithm of the characteristic pixel TD by the characteristic pixel extraction means 1 may be appropriately selected, but from the viewpoint of improving the extraction accuracy of the characteristic pixel TD, a plurality of pixels located around the pixel of interest are referred to. It is preferable to adopt a method of extracting the characteristic pixel TD of the target pixel.
【0011】更に、参照用バッファ2としては、特徴画
素抽出手段1による特徴画素TDの抽出方式や個別画像
処理手段の数に応じて最低限必要な容量が確保されてい
ればよい。また、参照用バッファ2に書き込む特徴画素
TDの性質の表現形式については、予め決められたもの
であれば適宜選定して差し支えない。The reference buffer 2 only needs to have a minimum required capacity in accordance with the method of extracting the characteristic pixels TD by the characteristic pixel extracting means 1 and the number of individual image processing means. In addition, the expression format of the characteristic pixel TD to be written in the reference buffer 2 may be appropriately selected as long as it is predetermined.
【0012】更にまた、特徴画素TDの抽出精度をより
高めるという観点からすれば、参照用バッファ2に書き
込まれた特徴画素TDがノイズでないか否かを判断し、
ノイズであれば当該特徴画素の性質を参照用バッファ2
から削除するノイズ削除手段3が付加されることが好ま
しい。この場合において、特徴画素TDがノイズでない
か否かの判断アルゴリズムについては適宜選定して差し
支えない。Further, from the viewpoint of further improving the extraction accuracy of the characteristic pixel TD, it is determined whether or not the characteristic pixel TD written in the reference buffer 2 is noise.
If it is noise, the characteristics of the characteristic pixel are referred to as a reference buffer 2.
It is preferable to add a noise elimination means 3 for elimination. In this case, an algorithm for determining whether or not the characteristic pixel TD is noise may be appropriately selected.
【0013】また、カラー画像に対する画像特徴を抽出
する場合には、画像信号合成手段4にて各色成分信号を
適当な割合で合成し、その合成信号に基づいて特徴画素
TDを抽出することが好ましい。この場合において、各
色成分信号の合成割合については、特徴画素TDの抽出
精度を最適化し得るように、抽出すべき特徴画素TDの
性質毎に適宜選定することが好ましい。更に、カラー画
像に対する画像特徴の抽出をより精度良く行うという観
点からすれば、画像信号合成手段4に入力される画像信
号としては、色差が人間の感覚に合うように作られた均
等色空間へ入力画像を写像し、均等色空間における各色
成分信号(明度信号、色度信号、彩度信号)を極座標表
現にて表現したものが好ましい。When extracting image features for a color image, it is preferable that the image signal combining means 4 combine the respective color component signals at an appropriate ratio and extract the characteristic pixel TD based on the combined signal. . In this case, it is preferable to appropriately select the combination ratio of each color component signal for each property of the characteristic pixel TD to be extracted so as to optimize the extraction accuracy of the characteristic pixel TD. Further, from the viewpoint of more accurately extracting the image features from the color image, the image signal input to the image signal synthesizing unit 4 is a uniform color space in which the color difference matches the human sense. It is preferable to map the input image and express each color component signal (brightness signal, chromaticity signal, saturation signal) in a uniform color space in a polar coordinate expression.
【0014】[0014]
【作用】上述したような技術的手段によれば、図1に示
すように、特徴画素抽出手段1は、各走査ラインの画素
から、汎用性の高い特徴画素TDとして、例えば濃度変
化の大きなエッジ画素部分に対応し且つ立ち上がりと立
ち下がりとが区別されたエッジ特徴画素TDE、あるい
は、濃度勾配のある画素部分の濃度勾配を表す濃度勾配
特徴画素TDN、あるいは、エッジ特徴画素TDE及び濃
度勾配特徴画素TDNが含まれる特徴画素TDを抽出す
る。次いで、特徴画素抽出手段1にて抽出された特徴画
素TDの性質、例えばエッジ特徴画素TDEについては
その立ち上がり状態あるいは立ち下がり状態並びに変化
方向、また、濃度勾配特徴画素TDNについては濃度勾
配方向が参照用バッファ2の対応する画素毎に書き込ま
れる。この結果、個別画像処理手段は、参照用バッファ
2に書き込まれた画素毎の特徴画素TDの画像処理に必
要な性質を参照し、当該特徴画素TDに対応する画素に
対して所定の画像処理を施すことが可能である。特に、
ノイズ削除手段3は、参照用バッファ2に書き込まれた
特徴画素TDがノイズであると判断されると、当該ノイ
ズを削除するため、参照用バッファ2に書き込まれた特
徴画素TDの性質の信憑性が非常に高いものになり、そ
の分、個別画像処理手段による画像処理が処理の必要な
画素に対して的確に行われる。According to the above-described technical means, as shown in FIG. 1, the characteristic pixel extracting means 1 converts a pixel of each scanning line into a highly versatile characteristic pixel TD, for example, an edge having a large density change. An edge feature pixel TDE corresponding to a pixel portion and having a rising edge and a falling edge, or a density gradient feature pixel TDN representing a density gradient of a pixel portion having a density gradient, or an edge feature pixel TDE and a density gradient feature pixel A feature pixel TD including TDN is extracted. Next, the characteristics of the characteristic pixel TD extracted by the characteristic pixel extracting means 1, such as the rising state or the falling state and the changing direction of the edge characteristic pixel TDE, and the density gradient direction of the density gradient characteristic pixel TDN are referred to. It is written for each corresponding pixel of the buffer 2 for use. As a result, the individual image processing unit refers to the property necessary for the image processing of the characteristic pixel TD for each pixel written in the reference buffer 2 and performs predetermined image processing on the pixel corresponding to the characteristic pixel TD. Can be applied. In particular,
When it is determined that the characteristic pixel TD written in the reference buffer 2 is noise, the noise elimination means 3 removes the noise, so that the credibility of the characteristic of the characteristic pixel TD written in the reference buffer 2 is reduced. Is very high, and accordingly, the image processing by the individual image processing means is accurately performed on the pixels that need to be processed.
【0015】[0015]
【実施例】以下、添付図面に示す実施例に基づいてこの
発明を詳細に説明する。 ◎実施例1 図2はこの発明が適用されたカラー画像形成装置の一実
施例である。同図において、スキャナ等で読み込まれて
下地除去等の適切な前処理が施された入力画像は、画像
入力変換部10において人間の視覚システムを考慮した
画像データとして均等色空間の極座標表示に変換され
る。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in detail with reference to the embodiments shown in the accompanying drawings. Embodiment 1 FIG. 2 shows an embodiment of a color image forming apparatus to which the present invention is applied. In FIG. 1, an input image read by a scanner or the like and subjected to appropriate preprocessing such as background removal is converted into polar coordinate display in a uniform color space as image data in consideration of a human visual system in an image input conversion unit 10. Is done.
【0016】この実施例で用いられる画像入力変換部1
0は、入力画像を一旦保持する入力画像バッファ11
と、この入力画像バッファ11からブロック毎に入力画
像を取り込み、入力画像が人間の視覚システムにおいて
どのように見えるかを予め予測する画像予測部12と、
この画像予測部12の予測結果に基づいて入力画像デー
タを適宜変換するデータ整形部13とを備えている。Image input converter 1 used in this embodiment
0 is an input image buffer 11 for temporarily holding an input image
And an image prediction unit 12 that fetches an input image for each block from the input image buffer 11 and predicts in advance how the input image will look in a human visual system.
A data shaping unit 13 for appropriately converting input image data based on the prediction result of the image prediction unit 12;
【0017】ここで、画像予測部12及びデータ整形部
13の具体的な処理例を図3に示す。同図において、画
像予測部12は、例えば三つの予測部a1〜a3等の組
合せにて構成されている。この実施例において、予測部
a1は人間がドキュメントを見るときにどれだけ目を離
すかにより見え方が変わるので、その距離(以下、観察
距離という)を予測するものであり、また、予測部a2
は色がその色の周囲の他の色の影響を受けて異なった色
に見える(以下その色を心理色という)ので、その変化
量を予測するものであり、更に、予測部a3はその他マ
ッハ・オブライエン・コーンスイート効果等を考慮し、
人間に見えている様子を予測するものである。また、デ
ータ整形部13は、例えば四つの整形部b1〜b4等の
組合せにて構成され、画像予測部12の予測に基づいて
必要なデータ整形を行なう。この実施例において、整形
部b1は入力画像に観察距離を元にしたガウシアンフィ
ルタを掛けるものであり、また、整形部b2は入力画像
の色を心理色に変換するものであり、更に、整形部b3
はその他の錯覚の効果を入力画像に加えるものであり、
更にまた、整形部b4は観察距離から割り出した適切な
大きさの▽2Gフィルタの組(D.Marr,and E.Hildreth,"
Theory of edge detection,"Proc.R.Soc.Lond.B204,pp.
301-328参照)を作り、夫々を入力画像に作用させ、数
種の解像力を持った線画を作り出すものである。そし
て、データ整形部13は、必要なデータ整形(b1〜b
3)が行なわれたデータ整形画像DT1(均等色空間へ
極座標表示(L*a*b*)にて写像)、整形部b4にて
整形された数種の解像力を持った線画像DT2及び生の
入力画像DT3を出力するようになっている。FIG. 3 shows a specific processing example of the image prediction unit 12 and the data shaping unit 13. In the figure, the image prediction unit 12 is composed of a combination of, for example, three prediction units a1 to a3. In this embodiment, the prediction unit a1 predicts the distance (hereinafter referred to as an observation distance) because the appearance changes depending on how much the human looks away when viewing the document.
Since the color looks different because of the influence of other colors around the color (hereinafter, the color is referred to as a psychological color), the prediction amount is predicted by the prediction unit a3.・ Considering the O'Brien corn sweet effect,
This is to predict what humans can see. The data shaping unit 13 is composed of, for example, a combination of four shaping units b1 to b4, and performs necessary data shaping based on the prediction of the image prediction unit 12. In this embodiment, the shaping unit b1 applies a Gaussian filter to the input image based on the observation distance, and the shaping unit b2 converts the color of the input image into a psychological color. b3
Adds other illusion effects to the input image,
Furthermore, the shaping unit b4 is a set of ▽ 2 G filters of appropriate size calculated from the observation distance (D. Marr, and E. Hildreth, “
Theory of edge detection, "Proc.R.Soc.Lond.B204, pp.
301-328) and apply them to the input image to create line drawings with several types of resolution. Then, the data shaping unit 13 performs necessary data shaping (b1 to b
3) Data shaping image DT1 (mapped to uniform color space in polar coordinates (L * a * b * )), line image DT2 having several resolving powers shaped by shaping section b4 and raw image Is output.
【0018】次いで、画像入力変換部10にて処理され
た画像信号のうちデータ整形画像DT1は常時画像処理
部20へと送られ、また、数種の解像力を持った線画像
DT2及び生の入力画像DT3は必要に応じて画像処理部
20へ送られる。尚、この実施例では、以後の説明を簡
略化する上でデータ整形画像DT1のみが画像処理部2
0へ送られるものと仮定する。この実施例において、符
号21は画像入力変換部10からの画像データ(この実
施例では、二値画像はスクリーン除去等の手段により、
量子化された連続階調データに変換されるものとする)
を一旦保持する画像バッファであり、例えばN(正整
数)行分ずつ処理していく場合には、少なくともN+2
行分の多値画像データを保持し得る記憶容量を具備する
ことが必要である。Next, the data shaped image DT1 of the image signals processed by the image input conversion unit 10 is always sent to the image processing unit 20, and a line image DT2 having several kinds of resolution and a raw input The image DT3 is sent to the image processing unit 20 as needed. In this embodiment, only the data shaping image DT1 is used in the image processing unit 2 to simplify the following description.
Assume to be sent to 0. In this embodiment, reference numeral 21 denotes image data from the image input conversion unit 10 (in this embodiment, a binary image is converted by means such as screen removal, etc.
It shall be converted to quantized continuous tone data.)
Is an image buffer that temporarily holds N. For example, in the case of processing N (positive integer) lines at a time, at least N + 2
It is necessary to have a storage capacity capable of holding multi-valued image data for a row.
【0019】また、符号22は画像データに基づいて画
像の特徴を抽出する特徴抽出部、23は特徴抽出部22
にて抽出された画像の特徴データを書き込む特徴バッフ
ァであり、これらの詳細な構成を図4に示す。同図にお
いて、特徴抽出部22は、入力されたそれぞれの画像信
号成分を明度、色度、彩度とし、それらの線形合成によ
り得られた信号を対象に画像特徴を抽出するものであ
り、画像信号合成部221を具備している。この画像信
号合成部221は、選び出す特徴画素の種類毎に画像信
号成分が線形合成されるときの係数を適切に切り換える
ものであり、後述するエッジ特徴画素を抽出する場合に
は明度(k1)、色度(k2)、彩度(k3)の係数を
α1,β1,γ1とし、後述する濃度勾配特徴画素を抽出
する場合には明度(k1)、色度(k2)、彩度(k
3)の係数をα2,β2,γ2とする。本実施例の場合に
は、図4に示すように、明度の影響度合を重視し、ま
た、色合いの変化を少なくするという観点から、α1,
α2=0.6、β1,β2=0、γ1,γ2=0.4とし
た。Reference numeral 22 denotes a feature extracting unit for extracting features of an image based on image data, and reference numeral 23 denotes a feature extracting unit 22.
Are feature buffers for writing the feature data of the image extracted by... The detailed configuration of these is shown in FIG. In the figure, a feature extraction unit 22 converts each of the input image signal components into brightness, chromaticity, and saturation, and extracts an image feature from a signal obtained by linear synthesis of the components. A signal combining unit 221 is provided. The image signal synthesizing unit 221 appropriately switches coefficients for linearly synthesizing image signal components for each type of characteristic pixel to be selected. When extracting edge characteristic pixels, which will be described later, brightness (k1), The coefficients of the chromaticity (k2) and the saturation (k3) are α1, β1, and γ1, and the brightness (k1), the chromaticity (k2), the saturation (k)
The coefficients of 3) are α2, β2, and γ2. In the case of the present embodiment, as shown in FIG. 4, from the viewpoint of emphasizing the degree of influence of lightness and reducing the change in hue, α1,
α2 = 0.6, β1, β2 = 0, γ1, γ2 = 0.4.
【0020】また、符号222は特徴画素を抽出する特
徴画素抽出部であり、この実施例では、濃度変化の大き
なエッジ画素部分に対応するエッジ特徴画素を抽出する
エッジ特徴画素抽出部223並びに濃度勾配のある画素
部分からなる濃度勾配特徴画素を抽出する濃度勾配特徴
画素抽出部224にて構成されている。Reference numeral 222 denotes a feature pixel extraction unit for extracting a feature pixel. In this embodiment, an edge feature pixel extraction unit 223 for extracting an edge feature pixel corresponding to an edge pixel portion having a large density change, and a density gradient And a density gradient characteristic pixel extraction unit 224 that extracts a density gradient characteristic pixel composed of a certain pixel portion.
【0021】また、特徴画素抽出部222にて抽出され
た特徴画素の性質が特徴バッファ23に書き込まれる
が、この特徴バッファ23は、図4に示すように、エッ
ジ特徴画素抽出部223並びに濃度勾配特徴画素抽出部
224に対応し、夫々N+2行分の記憶容量のN+2行
ラインバッファ231,232を具備している。また、
225は特徴バッファ23に書き込まれた特徴画素がノ
イズでないか否かを判断し、ノイズであれば当該ノイズ
を削除するノイズ削除部である。The characteristics of the characteristic pixels extracted by the characteristic pixel extracting unit 222 are written in the characteristic buffer 23. The characteristic buffer 23 stores the edge characteristic pixel extracting unit 223 and the density gradient as shown in FIG. Corresponding to the characteristic pixel extraction unit 224, the memory device includes N + 2 row line buffers 231 and 232 each having a storage capacity of N + 2 rows. Also,
Reference numeral 225 denotes a noise deleting unit that determines whether the characteristic pixel written in the characteristic buffer 23 is noise, and deletes the noise if it is noise.
【0022】また、個別画像処理部24(具体的には2
4(1)〜24(n))は、特徴バッファ23の情報を元に自
分自身の処理が必要かどうかを判断し、また、必要であ
ればどの程度の強さでその処理が必要かを決め、それに
従い画像バッファ21の画像を処理していく。この処理
を個別画像処理部24(1)から個別画像処理部24(n)ま
で順に繰り返し、最終的に画像バッファ21には必要な
処理が適切に施された画像が入っていることになる。
尚、この実施例では、個別画像処理部24としてはエッ
ジ強調処理、画像の切り出し処理、色圧縮処理、ノイズ
の除去処理等がある。The individual image processing unit 24 (specifically, 2
4 (1) to 24 (n)) determine whether or not their own processing is necessary based on the information in the feature buffer 23, and if necessary, how strong the processing is. It decides and processes the image of the image buffer 21 according to it. This processing is sequentially repeated from the individual image processing unit 24 (1) to the individual image processing unit 24 (n), and finally the image buffer 21 contains an image on which necessary processing has been appropriately performed.
In this embodiment, the individual image processing unit 24 includes an edge enhancement process, an image cutout process, a color compression process, a noise removal process, and the like.
【0023】この後、処理は画像出力部30に移され、
一般に知られたカラーコレクション31や濃度補正3
2、二値化33等の各処理が行われた後、画像を出力す
る。ここで、出力されたカラー画像品質を評価するに当
たって、画像予測部12及びデータ整形部13のないタ
イプを比較例として、実施例にて出力された画像と比較
例にて出力された画像とを対比したところ、画像の輪
郭、濃淡度合等に関し、実施例の画像再現性の方が優れ
ていることが確認された。Thereafter, the processing is transferred to the image output unit 30,
Commonly known color correction 31 and density correction 3
After each process such as binarization and binarization 33 is performed, an image is output. Here, in evaluating the quality of the output color image, a type without the image prediction unit 12 and the data shaping unit 13 is used as a comparative example, and the image output in the embodiment and the image output in the comparative example are compared. In comparison, it was confirmed that the image reproducibility of the example was superior with respect to the outline of the image, the degree of shading, and the like.
【0024】次に、この実施例に係るカラー画像形成装
置にて採用される画像特徴の抽出処理過程を図5のフロ
ーチャートに従って説明する。同図において、先ず、特
徴バッファ23のポインタを所定位置に移動し(ステッ
プ1)、特徴画素抽出部222にて画像信号合成部22
1から入力された必要な行数Nの画像をスキャンしなが
ら特徴画素を選出し、特徴画素があればその特徴画素の
種類記号を特徴バッファ23の対応する位置に記録する
(ステップ2)。次いで、ノイズ削除部225にて選び
出された特徴画素がノイズかどうかを隣接する他の特徴
画素があるかないかで判断する。なければ、特徴画素の
種類記号を対応する特徴バッファ23の位置から削除す
る(ステップ3)。この後、入力画像の処理をN行先に
移した(ステップ4)後、ノイズ除去された特徴画素を
個別画像処理部24にて利用するか、または、特徴バッ
ファ23から他の記憶領域へ特徴画素の移動を行う(ス
テップ5)。しかる後、入力画像の全ての行をスキャン
したか否かを判断し(ステップ6)、全ての行の処理が
終了するまでステップ1〜ステップ5までの処理を繰り
返す。Next, the process of extracting image features employed in the color image forming apparatus according to this embodiment will be described with reference to the flowchart of FIG. In the figure, first, the pointer of the characteristic buffer 23 is moved to a predetermined position (step 1), and the characteristic
Characteristic pixels are selected while scanning the required number of rows N of images input from 1 and, if there is a characteristic pixel, the type symbol of the characteristic pixel is recorded at a corresponding position in the characteristic buffer 23 (step 2). Next, it is determined whether or not the characteristic pixel selected by the noise removing unit 225 is noise based on whether or not there is another adjacent characteristic pixel. If not, the type symbol of the characteristic pixel is deleted from the position of the corresponding characteristic buffer 23 (step 3). After that, the processing of the input image is shifted to the N-th destination (step 4), and then the characteristic pixels from which noise has been removed are used in the individual image processing unit 24, or the characteristic pixels are transferred from the characteristic buffer 23 to another storage area. Is moved (step 5). Thereafter, it is determined whether or not all the rows of the input image have been scanned (step 6), and the processing of steps 1 to 5 is repeated until the processing of all the rows is completed.
【0025】ここで、個々の処理をより具体的に説明す
る。今、入力画像を400spi、階調数256つまり
1画素を8ビットで記憶するものとし、2行ずつ画像を
処理していく場合(N=2)を説明すると、図6に示す
ように、画像バッファ21及び特徴バッファ23の容量
は最低N+2行つまり4行必要である。このとき、特徴
バッファ23の最上行は既に抽出された特徴画素が書き
込まれており、ノイズの除去も終了している。また、2
行目は抽出された特徴画素が書き込まれているが、ノイ
ズの除去は終わっていない。更に、3行目、4行目には
既に抽出され、個別画像処理部24により使用された
か、または、他の記憶領域にコピーされたあとの特徴画
素が入っている。従って、これから新たに抽出される特
徴画素は3行目、4行目に書き込まれることになる。Here, each processing will be described more specifically. Now, the case where an input image is stored at 400 spi and the number of gradations is 256, that is, one pixel is stored at 8 bits, and the image is processed two rows at a time (N = 2) will be described. The capacity of the buffer 21 and the feature buffer 23 requires at least N + 2 rows, that is, four rows. At this time, the extracted characteristic pixels have already been written in the uppermost row of the characteristic buffer 23, and noise removal has also been completed. Also, 2
In the row, the extracted characteristic pixels are written, but the noise has not been removed yet. Further, the third and fourth lines contain characteristic pixels that have already been extracted and used by the individual image processing unit 24, or have been copied to another storage area. Therefore, the newly extracted characteristic pixels are written in the third and fourth rows.
【0026】次に、特徴画素抽出部222による特徴画
素の選出方法を示す。今、図7に示すように、3×3行
列からなる画素に対し、注目画素aが3×3の画素行列
の中央にあるとし、周辺の画素をb,c,d,e,f,
g,h,iとして、以下の数1(1)(2)に沿った計
算をする。Next, a method of selecting characteristic pixels by the characteristic pixel extracting unit 222 will be described. Now, as shown in FIG. 7, it is assumed that the pixel of interest a is located at the center of the 3 × 3 pixel matrix, and the surrounding pixels are b, c, d, e, f,
As g, h, and i, calculations are performed according to the following equations (1) and (2).
【0027】[0027]
【数1】 (Equation 1)
【0028】数1(2)において、Sumは画素aとそ
の画素の周りの画素b〜iの平均との差を表している。
つまり、Sumの値が小さければ周囲の画素と違いがな
いので特徴画素とはなりえない。具体例を図8(a)
(b)に示す。図8(a)は略均一な濃度分布を示して
いる。この場合、Sum=−4.375と予想通り小さ
い。図8(b)は右上がりの濃度勾配を持っている例で
ある。この場合、Sum=1.75とやはり小さい値を
示す。一般的なエッジフィルタではエッジとして検出さ
れるが、ここではよりきめの細かい処理を行う必要か
ら、立ち上がりのエッジと立ち下がり(下がり始め)の
エッジとを区別し、なだらかな濃度勾配はエッジ特徴画
素としては判断しないことにする。但し、後の個別画像
処理で濃度勾配情報を使いたい場合には以下の数2の演
算を行えばよい。In the equation (2), Sum represents the difference between the pixel a and the average of the pixels b to i around the pixel.
In other words, if the value of Sum is small, there is no difference from the surrounding pixels, so that it cannot be a characteristic pixel. A specific example is shown in FIG.
(B). FIG. 8A shows a substantially uniform concentration distribution. In this case, Sum = -4.375, which is small as expected. FIG. 8B shows an example having a density gradient rising to the right. In this case, Sum = 1.75 also shows a small value. Although a general edge filter detects an edge, here it is necessary to perform finer processing. Therefore, a rising edge and a falling edge (beginning of falling) are distinguished, and a gradual density gradient is defined as an edge characteristic pixel. Will not judge. However, if it is desired to use the density gradient information in the subsequent individual image processing, the following equation 2 may be calculated.
【0029】[0029]
【数2】 (Equation 2)
【0030】Sumが小さく特徴画素と判断されなくて
も、数2においてAbsが大きければ濃度勾配があるこ
とになる。Even if Sum is small and it is not determined that the pixel is a characteristic pixel, if Abs is large in Equation 2, there is a density gradient.
【0031】エッジ特徴画素の判定条件としては以下の
数3(1)を採用する。また、たとえ、Sum>CC1
を満たしていてもノイズである可能性がある。ノイズの
判定は次段のノイズ削除部225でも行うがここでも簡
単な方法で行う。Sumが極端に大きい場合は注目画素
だけ濃度が低いか高いかのどちらかであり、ノイズであ
る可能性が高い。そこで、数3(2)の条件を満たした
場合にはノイズと判断することにする。従って、Sum
がCC1<Sum<CC2であれば画素aはエッジ特徴
画素であると判断する。更に、濃度勾配特徴画素も検出
したい場合には、注目画素が以下の数3(3)の条件を
満たした時に濃度勾配があると判断する。The following equation (1) is adopted as a condition for judging an edge feature pixel. Also, even if Sum> CC1
May be noise even if The determination of noise is also performed by the noise removing unit 225 at the next stage, but is also performed by a simple method here. If Sum is extremely large, only the pixel of interest has low or high density, and it is highly likely that the noise is noise. Therefore, when the condition of Expression 3 (2) is satisfied, it is determined that the noise is present. Therefore, Sum
If CC1 <Sum <CC2, pixel a is determined to be an edge feature pixel. Further, when it is desired to detect the density gradient characteristic pixel, it is determined that the density gradient exists when the target pixel satisfies the following equation (3).
【0032】[0032]
【数3】 (Equation 3)
【0033】次に、エッジ特徴画素と濃度勾配特徴画素
とがどの方向に特徴をもっているか、つまり画素aのど
の方向の濃度変化が大きいかを判断する。そのために、
Max=max{|B|,|C|,|D|,|E|,|
F|,|G|,|H|,|I|}を求めて濃度変化の方
向を決め、その方向の画素の平均値と注目画素aの差の
符号により、傾きの正負を判断する。例えば、図8
(c)の場合であれば、方向e+ということになる。こ
れをここでは便宜上↓+と表現し、特徴バッファ23に
記録しておく。また、濃度勾配特徴画素の場合、方向は
→+,←−は同じことを意味しているので、+の向きの
み採用し、これが濃度勾配を表していることを示すため
にアンダラインを付け→と表示する。Next, it is determined in which direction the edge feature pixel and the density gradient feature pixel have a feature, that is, which direction of the pixel a has a large density change. for that reason,
Max = max {| B |, | C |, | D |, | E |, |
F |, | G |, | H |, | I |} are determined to determine the direction of the density change, and the sign of the difference between the average value of the pixels in that direction and the pixel of interest a is used to determine the sign of the gradient. For example, FIG.
In the case of (c), the direction is e +. This is expressed as ↓ + here for convenience, and is recorded in the feature buffer 23. In the case of a density gradient characteristic pixel, since the directions → + and ← − mean the same, only the + direction is adopted, and an underline is added to indicate that this represents a density gradient → Is displayed.
【0034】図9に画像の濃度の変化と対応する記号を
表示した。同図において、二つの特徴画素→+,← −
が向き合っているところではその二つの画素の間で大き
な濃度変化があることがわかる。また、傾きが緩やかで
あれば幾つかの画素は連続して濃度勾配記号を持ってい
る事がわかり、比較的急な濃度の変化の場合には、その
両端、または、どちらかに特徴画素→+,←−が現れる
はずである。実際には、画像とエッジ特徴画素・濃度勾
配特徴画素のマークがこのようにうまく対応するように
CC1,CC1’,CC2を決定する必要がある。FIG. 9 shows symbols corresponding to changes in image density. In the figure, two characteristic pixels → +, ← −
It can be seen that there is a large change in density between the two pixels where. Also, if the slope is gentle, it can be seen that some pixels have a density gradient symbol continuously, and in the case of a relatively steep change in density, the characteristic pixel is located at both ends or at either end. +, ←-should appear. Actually, it is necessary to determine CC1, CC1 ', and CC2 so that the image and the mark of the edge feature pixel / density gradient feature pixel correspond to each other in this manner.
【0035】次に、ノイズ削除部225の詳細を説明す
る。今、図6において、ノイズ判定が終わっているのは
特徴バッファ23の1行目だけなので、2行目、3行目
を処理していく際には1行目のデータを利用する。ここ
で、2行分の特徴抽出を終えてからノイズ判定を行う場
合には問題ないが、特徴抽出とノイズ判定とを画素毎に
行っていく場合には、図10に示した順に画素を処理し
ていく必要がある。すなわち、ノイズ判定には周囲の画
素の特徴抽出が終わっている必要があるので、図6の画
素*をノイズ判定するには画素D5まで特徴抽出が終わ
っている必要があり、画素D3をノイズ判定するには画
素D6まで特徴抽出が終わっていなくてはならないとい
う事である。Next, details of the noise removing unit 225 will be described. Now, in FIG. 6, since only the first line of the feature buffer 23 has been subjected to the noise determination, the data of the first line is used when processing the second and third lines. Here, there is no problem when noise determination is performed after the feature extraction for two rows is completed. However, when feature extraction and noise determination are performed for each pixel, the pixels are processed in the order shown in FIG. There is a need to continue to. That is, since the feature extraction of the surrounding pixels needs to be completed for the noise determination, the feature extraction needs to be completed for the pixel D5 in FIG. This means that the feature extraction must be completed up to the pixel D6.
【0036】また、注目画素がエッジ特徴画素と抽出さ
れていれば、図11に示すように、周りの画素に類似し
た方向成分をもつ特徴画素があるかどうかを調べる。も
しなければ、ノイズと判断しエッジ特徴画素マークを削
除する。ここで、類似した方向成分とは、エッジ特徴画
素の符号が同一で注目画素の方向から±80゜以内にあ
る方向のことである。例えば、注目画素が↓−であれば
↓−,↓(右45゜傾斜)−,↓(左45゜傾斜)−で
ある。従って、図10の注目画素はノイズではなくエッ
ジ特徴画素である。If the target pixel is extracted as an edge feature pixel, it is checked whether there is a feature pixel having a directional component similar to the surrounding pixels as shown in FIG. If not, it is determined as noise and the edge feature pixel mark is deleted. Here, the similar direction components are directions in which the signs of the edge feature pixels are the same and are within ± 80 ° from the direction of the target pixel. For example, if the target pixel is ↓-, ↓-, ↓ (tilt 45 ° right)-, ↓ (tilt 45 ° left)-. Therefore, the target pixel in FIG. 10 is not a noise but an edge feature pixel.
【0037】また、図12に示すように抽出されたエッ
ジ特徴画素が孤立していても、エッジ特徴画素の向いて
いる方向に濃度勾配をあらわす画素があり、しかも、エ
ッジ特徴画素が+であれば類似の方向の濃度勾配を、−
であれば逆の方向の濃度勾配を表している場合にも注目
画素が真に特徴画素であると判断する方法を採用してい
る。Also, as shown in FIG. 12, even if the extracted edge feature pixel is isolated, there is a pixel that shows a density gradient in the direction in which the edge feature pixel is facing, and the edge feature pixel is +. If the concentration gradient in a similar direction is
In this case, a method of determining that the target pixel is truly a characteristic pixel even when a density gradient in the opposite direction is represented is adopted.
【0038】そして、特徴バッファ23の2行目、3行
目のノイズ判定が終わった時点で、特徴バッファ23の
1行目と2行目に書き込まれた特徴画素は利用可能とな
り、この2行の情報は個別画像処理部24で利用された
り、他の記憶領域にコピーされたりする。すると、この
2行、つまり1行目と2行目はまた新たに特徴画素マー
クを記憶することが可能な状態になるので、画像バッフ
ァ21の入力画像の次の2行に対し特徴抽出処理が行わ
れ、処理結果がこの2行に書き込まれる。以上述べてき
たようにして特徴抽出の処理を入力された画像の最後の
行まで繰り返す。When the noise determination on the second and third lines of the characteristic buffer 23 is completed, the characteristic pixels written on the first and second lines of the characteristic buffer 23 become available. Is used by the individual image processing unit 24 or copied to another storage area. Then, the second row, that is, the first row and the second row are in a state where a new feature pixel mark can be stored again. Then, the processing result is written in these two lines. As described above, the feature extraction process is repeated up to the last line of the input image.
【0039】以上のようにして、ノイズ画素を除去し、
特徴画素の情報を整理した後、個別画像処理部24が特
徴画素の情報を用いて入力された画像に所望の画像処理
を行う。尚、個別画像処理部24の内容によっては、夫
々の要求を満たすような特徴画素抽出部222を構成す
ることが必要になる。そして、各個別画像処理が施され
た画像が画像出力部30から出力されることになるが、
この出力画像品質を比較例(画像が写真か網点か文字か
の特徴抽出をしたものを利用し、個別画像処理を施した
もの)と比較したところ、実施例の画像品質が極めて優
れていることが確認された。また、画像の特徴をきめ細
かに表し、しかも、色々な個別画像処理部で共通にその
特徴を用いることが可能になるので、全体の画像処理部
構成がシンプル且つコンパクトで高機能にまとまったも
のとして得られる。As described above, noise pixels are removed,
After organizing the information of the characteristic pixels, the individual image processing unit 24 performs desired image processing on the input image using the information of the characteristic pixels. Note that, depending on the contents of the individual image processing unit 24, it is necessary to configure the characteristic pixel extracting unit 222 that satisfies each requirement. Then, the image subjected to each individual image processing is output from the image output unit 30,
When this output image quality was compared with a comparative example (one in which an image was photographed, halftone dot, or text was used and individual image processing was performed), the image quality of the example was extremely excellent. It was confirmed that. Also, since the features of the image can be expressed in detail and the features can be used in common by various individual image processing units, the overall image processing unit configuration is simple, compact, and highly functional. can get.
【0040】◎実施例2 実施例1より確度高くエッジ特徴画素と濃度勾配特徴画
素を抽出する方法を図13に示す。先ず、先の実施例1
と同様に、注目画素とその近傍画素とによりB、C…I
(図13(a)参照)、Sum、Absを夫々上記数
1,数2に従って計算し、CC1<Sum<CC2とな
る画素を求める。次いで、その絶対値を比較し、その中
の最大値と2番目に大きな値とを抽出する。今、図13
(b)に示すように、最大値と2番目に大きな値との符
号が同じで隣り合っている(図中80,90)ならば、
その注目画素aはエッジ特徴画素と判断する。次に、濃
度勾配特徴画素を抽出する場合には、やはり先の実施例
1と同様に、数3に従って、Sum≦CC1かつAbs
>CC1’を満たす画素を探索する。そして、その画素
が図13(c)に示すように、最大値と2番目に大きな
値との符号が異なり、注目画素を180度回転した方向
で隣り合っている(図中99,−95)ならば、その注
目画素aは濃度勾配特徴画素と判断する。Second Embodiment FIG. 13 shows a method of extracting edge feature pixels and density gradient feature pixels with higher accuracy than in the first embodiment. First, the first embodiment
Similarly, B, C... I
(See FIG. 13A), Sum and Abs are calculated according to the above equations 1 and 2, respectively, and pixels satisfying CC1 <Sum <CC2 are obtained. Next, the absolute values are compared, and the maximum value and the second largest value are extracted. Now, FIG.
As shown in (b), if the signs of the maximum value and the second largest value are the same and are adjacent to each other (80, 90 in the figure),
The target pixel a is determined to be an edge feature pixel. Next, in the case of extracting the density gradient feature pixels, Sum ≦ CC1 and Abs
Search for a pixel satisfying> CC1 '. Then, as shown in FIG. 13C, the sign of the maximum value and the sign of the second largest value are different from each other, and the pixels are adjacent to each other in a direction in which the target pixel is rotated by 180 degrees (99, -95 in the figure). Then, the target pixel a is determined to be a density gradient characteristic pixel.
【0041】[0041]
【発明の効果】以上説明してきたように、請求項1記載
の発明によれば、多階調画像データから特徴画素を抽出
した後に、この特徴画素を参照用バッファに書き込み、
複数の個別画像処理手段にて共用し得るようにしたの
で、画像処理部の全体システムをコンパクトにまとめる
ことができる。特に、本件発明によれば、入力画像に対
して人間の視覚特性に基づく補正処理が施された多階調
画像データに対して画像特徴を抽出するようにしたの
で、画像が人間の視覚システムにどのように写るかとい
う点を考慮した状態で画像特徴を抽出することが可能に
なり、より確度の高い画像特徴の抽出が可能になる分、
個別画像処理精度が向上し、入力画像の再現性の最適化
を図ることができる。 また、請求項2ないし4記載の発
明によれば、画像処理部の全体システムをコンパクトに
まとめることができることに加えて、量子化された多階
調画像データから特徴画素のうち、例えば立ち上がり及
び立ち下がりが区別されたエッジ特徴画素、あるいは、
濃度勾配特徴画素、あるいは、エッジ特徴画素及び濃度
勾配画素が含まれる特徴画素を抽出し、各特徴画素の性
質を参照用バッファに書き込むようにしたので、分類の
細かい画像特徴抽出が可能になり、参照用バッファ内に
書き込まれた特徴画素の性質を個別画像処理に必要なも
のだけ参照することにより、例えば、画像のエッジ部分
の立ち上がり、立ち下がりに応じて異なる処理を施した
り、画像の濃度勾配の程度に応じて異なる処理を施した
り、画像のエッジ部分と画像の濃度勾配とで画像の量感
を正確に把握して細かい処理を施す等、適切な箇所に適
切な個別画像処理を適切な程度で施すことができ、個別
画像処理精度をより高めることができる。 As has been described in the foregoing, according to the first aspect of the present invention, after extracting the one we feature pixel grayscale image data, writes the feature pixel in the reference buffer,
Since the image processing unit can be shared by a plurality of individual image processing units, the entire system of the image processing unit can be made compact. In particular, according to the present invention, the input image
Multi-gradation with correction processing based on human visual characteristics
Extract image features from image data
So how does the image appear in the human visual system?
Image features can be extracted while taking into account
The more accurate image features can be extracted,
Improved individual image processing accuracy and optimization of input image reproducibility
Can be achieved. Further, according to the invention of claims 2 4, wherein, in addition to being able to put together the entire system of the image processing unit in a compact, of multi-tone image data or we feature pixels which have been quantized, for example, rising And edge feature pixels that are distinguished from falling, or
Density gradient feature pixels, or feature pixels including edge feature pixels and density gradient pixels are extracted, and the characteristics of each feature pixel are written to the reference buffer. By referencing only the characteristics of the characteristic pixels written in the reference buffer to those required for individual image processing, for example, different processing can be performed according to the rising and falling edges of the image, and the density gradient of the image can be adjusted. Appropriate individual image processing at appropriate locations, such as performing different processing depending on the degree of image processing, or accurately grasping the volume of the image based on the edge portion of the image and the density gradient of the image and performing fine processing. can be applied by, Ru can improve the individual image processing accuracy.
【0042】また、請求項5記載の発明によれば、参照
用バッファ内の特徴画素の性質の信憑性をより高めるこ
とができるので、より確度の高い画像特徴抽出を実現す
ることができる。更に、請求項6記載の発明によれば、
特徴画素の抽出を行う上で、注目画素単独の情報以外に
周囲の画素情報をも考慮するようにしたので、特徴画素
の抽出精度を高めることができる。更にまた、請求項7
ないし9いずれかに記載の発明によれば、カラー画像に
対する画像特徴抽出を行う上で、抽出する特徴画素の性
質毎に、最適な画像信号を合成し得るようにしたので、
カラー画像に対して確度の高い特徴画素の抽出を実現す
ることができる。According to the fifth aspect of the present invention, since the credibility of the characteristics of the characteristic pixels in the reference buffer can be further improved, it is possible to realize more accurate image characteristic extraction. Further, according to the invention described in claim 6 ,
In extracting the characteristic pixel, the surrounding pixel information is considered in addition to the information of the target pixel alone, so that the extraction accuracy of the characteristic pixel can be improved. Furthermore, claim 7
According to the invention described in any one of (9) to (9) , when performing image feature extraction on a color image, an optimal image signal can be synthesized for each property of the feature pixel to be extracted.
Extraction of characteristic pixels with high accuracy from a color image can be realized.
【図1】 この発明に係る画像特徴抽出装置の構成を示
す説明図である。FIG. 1 is an explanatory diagram showing a configuration of an image feature extraction device according to the present invention.
【図2】 この発明が適用されたカラー画像形成装置の
実施例1を示す説明図である。FIG. 2 is an explanatory diagram illustrating a first embodiment of a color image forming apparatus to which the present invention is applied;
【図3】 実施例1に係る画像入力変換部の具体例を示
すブロック図である。FIG. 3 is a block diagram illustrating a specific example of an image input conversion unit according to the first embodiment.
【図4】 実施例1に係る画像処理部の詳細を示す説明
図である。FIG. 4 is an explanatory diagram illustrating details of an image processing unit according to the first embodiment.
【図5】 実施例1に係る画像処理部の具体的処理例を
示すフローチャートである。FIG. 5 is a flowchart illustrating a specific processing example of an image processing unit according to the first embodiment.
【図6】 実施例1に係る特徴バッファの使用例を示す
説明図である。FIG. 6 is an explanatory diagram illustrating an example of use of a feature buffer according to the first embodiment;
【図7】 実施例1における注目画素及び周囲画素の関
係を示す説明図である。FIG. 7 is an explanatory diagram illustrating a relationship between a target pixel and surrounding pixels according to the first embodiment.
【図8】 (a)〜(c)は実施例1において抽出され
る特徴画素の例を示す説明図である。FIGS. 8A to 8C are explanatory diagrams illustrating examples of characteristic pixels extracted in the first embodiment.
【図9】 実施例1における画像の濃淡と特徴画素の対
応関係の一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of a correspondence relationship between shading of an image and characteristic pixels according to the first embodiment.
【図10】 実施例1におけるノイズ削除部による画素
の処理順序を示す説明図である。FIG. 10 is an explanatory diagram illustrating a processing order of pixels by a noise removing unit according to the first embodiment.
【図11】 実施例1におけるノイズ削除部にてノイズ
として削除されない一態様を示す説明図である。FIG. 11 is an explanatory diagram illustrating one mode in which noise is not deleted by the noise deletion unit according to the first embodiment.
【図12】 実施例1におけるノイズ削除部にてノイズ
として削除されない他の態様を示す説明図である。FIG. 12 is an explanatory diagram showing another mode in which the noise is not deleted by the noise deletion unit in the first embodiment.
【図13】 実施例2に係る画像形成装置の画像特徴抽
出の原理を示す説明図である。FIG. 13 is an explanatory diagram illustrating the principle of image feature extraction of the image forming apparatus according to the second embodiment.
1…特徴画素抽出手段,2…参照用バッファ,3…ノイ
ズ削除手段,4…画像信号合成手段,5…画像予測手
段,6…データ整形手段DESCRIPTION OF SYMBOLS 1 ... Feature pixel extraction means, 2 ... Reference buffer, 3 ... Noise deletion means, 4 ... Image signal synthesis means, 5 ... Image prediction means, 6 ... Data shaping means
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 1/40 G06T 1/00 510 G06T 7/60 250 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 7 , DB name) H04N 1/40 G06T 1/00 510 G06T 7/60 250
Claims (9)
特徴を抽出するに際し、入力画像が人間の視覚特性にどのように写るかを予測
し、この予測結果を元に入力画像に対して人間の視覚特
性に基づくデータ処理を施すという前処理を経て特徴画
素を抽出する多階調画像データを作成し、しかる後、 各
走査ラインの画素から、複数の個別画像処理手段(7)
で共通に利用可能な特徴画素(TD)を抽出した後、こ
の抽出された特徴画素(TD)の性質を複数の個別画像
処理手段(7)が共用し得る参照用バッファ(2)の対
応する画素位置に夫々書き込むようにしたことを特徴と
する画像特徴抽出方法。When extracting image features from quantized multi-tone image data , it predicts how an input image appears in human visual characteristics.
Then, based on this prediction result, human visual characteristics
Feature data through pre-processing of data processing based on
Multi-gradation image data for extracting an element is created, and then a plurality of individual image processing means (7)
Common After extracting the feature pixel (TD) available in the corresponding the extracted feature pixels plurality of individual image processing unit properties (TD) (7) reference buffer can be shared (2) An image feature extraction method, wherein each of the image features is written at a corresponding pixel position.
特徴を抽出する画像特徴抽出装置であって、画像特徴を抽出する多階調画像データの前処理手段とし
て、入力画像が人間の視覚特性にどのように写るかを予
測する画像予測手段(5)と、この画像予測手段(5)
の予測結果を元に入力画像に対して人間の視覚特性に基
づくデータ処理を施すデータ整形手段(6)とを具備さ
せ、 各走査ラインの画素から、少なくとも濃度変化の大きな
エッジ画素部分に対応し且つ立ち上がりと立ち下がりと
を区別したエッジ特徴画素(TDE)が含まれる特徴画
素(TD)を抽出する特徴画素抽出手段(1)と、 この特徴画素抽出手段(1)にて抽出された特徴画素
(TD)の性質が対応する画素毎に書き込まれ且つ複数
の個別画像処理手段(7)が共用し得るように設けられ
る参照用バッファ(2)とを備えたことを特徴とする画
像特徴抽出装置。 2. An image feature extracting apparatus for extracting an image feature from quantized multi-tone image data, wherein the image feature extracting device is a pre-processing means for the multi-tone image data for extracting the image feature.
To predict how the input image will appear in human visual characteristics.
Image predicting means (5) for measuring, and the image predicting means (5)
Input image based on the human visual characteristics
Data shaping means (6) for performing data processing according to
So, from the pixels of each scan line, wherein the pixel extracting means for extracting a feature pixel at least corresponding to the large edge pixel portion of density change and the rise and fall and distinguish the edge feature pixels (TDE) is included (TD) (1) The property of the characteristic pixel (TD) extracted by the characteristic pixel extracting means (1) is written for each corresponding pixel and provided so that a plurality of individual image processing means (7) can share it. And a reference buffer (2).
特徴を抽出する画像特徴抽出装置であって、画像特徴を抽出する多階調画像データの前処理手段とし
て、入力画像が人間の視覚特性にどのように写るかを予
測する画像予測手段(5)と、この画像予測手段(5)
の予測結果を元に入力画像に対して人間の視覚特性に基
づくデータ処理を施すデータ整形手段(6)とを具備さ
せ、 各走査ラインの画素から、少なくとも濃度勾配のある画
素部分の濃度勾配を表す濃度勾配特徴画素(TDN)が
含まれる特徴画素(TD)を抽出する特徴画素抽出手段
(1)と、 この特徴画素抽出手段(1)にて抽出された特徴画素
(TD)の性質が対応する画素毎に書き込まれ且つ複数
の個別画像処理手段(7)が共用し得るように設けられ
る参照用バッファ(2)とを備えたことを特徴とする画
像特徴抽出装置。 3. An image feature extraction device for extracting image features from quantized multi-tone image data, wherein said image feature extraction device is a pre-processing means for multi-tone image data for extracting image features.
To predict how the input image will appear in human visual characteristics.
Image predicting means (5) for measuring, and the image predicting means (5)
Input image based on the human visual characteristics
Data shaping means (6) for performing data processing according to
So, from the pixels of each scan line, at least a concentration gradient characteristic pixels representing the gradient of the pixel portion of the gradient (TDN) feature pixel extracting means for extracting a feature pixel (TD) that contain (1), this feature A reference buffer (2) provided so that the property of the characteristic pixel (TD) extracted by the pixel extraction means (1) is written for each corresponding pixel and shared by a plurality of individual image processing means (7). An image feature extraction device comprising:
特徴を抽出する画像特徴抽出装置であって、画像特徴を抽出する多階調画像データの前処理手段とし
て、入力画像が人間の視覚特性にどのように写るかを予
測する画像予測手段(5)と、この画像予測手段(5)
の予測結果を元に入力画像に対して人間の視覚特性に基
づくデータ処理を施すデータ整形手段(6)とを具備さ
せ、 各走査ラインの画素から、少なくとも濃度変化の大きな
エッジ画素部分に対応するエッジ特徴画素(TDE)及
び濃度勾配のある画素部分の濃度勾配を表す濃度勾配特
徴画素(TDN)が含まれる特徴画素(TD)を抽出す
る特徴画素抽出手段(1)と、 この特徴画素抽出手段(1)にて抽出された特徴画素
(TD)の性質が対応する画素毎に書き込まれ且つ複数
の個別画像処理手段(7)が共用し得るように設けられ
る参照用バッファ(2)とを備えたことを特徴とする画
像特徴抽出装置。 4. An image feature extracting apparatus for extracting an image feature from quantized multi-tone image data, wherein the image feature extracting device is a pre-processing means for the multi-tone image data for extracting the image feature.
To predict how the input image will appear in human visual characteristics.
Image predicting means (5) for measuring, and the image predicting means (5)
Input image based on the human visual characteristics
Data shaping means (6) for performing data processing according to
From the pixels of each scanning line, feature pixels including at least an edge feature pixel (TDE) corresponding to an edge pixel portion having a large change in density and a density gradient feature pixel (TDN) representing a density gradient of a pixel portion having a density gradient. A characteristic pixel extracting means (1) for extracting (TD); a plurality of individual image processing means in which the characteristic of the characteristic pixel (TD) extracted by the characteristic pixel extracting means (1) is written for each corresponding pixel; (7) An image feature extraction device comprising: a reference buffer (2) provided so as to be shared.
において、参照用バッファ(2)に書き込まれた特徴画
素(TD)がノイズでないか否かを判断し、ノイズであ
れば当該特徴画素の性質を参照用バッファ(2)から削
除するノイズ削除手段(3)が付加されることを特徴と
する画像特徴抽出装置。 5. A as described in any one of claims 2 to 4, characterized pixels written in the reference buffer (2) (TD) is determined whether or not the noise, the feature pixel if noise An image feature extraction device characterized by adding a noise removing means (3) for removing the property of the reference from the reference buffer (2).
において、特徴画素抽出手段(1)は、注目画素の周囲
に位置する複数の画素を参照し、注目画素の特徴画素
(TD)を抽出することを特徴とする画像特徴抽出装
置。 6. A as described in any one claims 2 to 4, characterized pixel extraction means (1) refers to the plurality of pixels located around the target pixel, the characteristic pixel of the target pixel (TD) An image feature extraction device characterized by extracting.
特徴を抽出する画像特徴抽出装置であって、各走査ライ
ンの画素から、少なくとも濃度変化の大きなエッジ画素
部分に対応し且つ立ち上がりと立ち下がりとを区別した
エッジ特徴画素(TDE)が含まれる特徴画素(TD)
を抽出する特徴画素抽出手段(1 )と、この特徴画素抽
出手段(1)にて抽出された特徴画素(TD)の性質が
対応する画素毎に書き込まれ且つ複数の個別画像処理手
段(7)が共用し得るように設けられる参照用バッファ
(2)とを備えたもののうち、カラー画像に対する画像
特徴抽出装置において、 抽出する特徴画素(TD)の性質毎に、各画素の均等色
空間における各色成分信号を適当な割合で合成する画像
信号合成手段(4)を備えたことを特徴とする画像特徴
抽出装置。 7. An image from quantized multi-tone image data
An image feature extraction device for extracting features, wherein each scanning line
Edge pixels with at least large density changes
Corresponding to the part and distinguished between rising and falling
Feature pixel (TD) including edge feature pixel (TDE)
Pixel extracting means (1 ) for extracting
The characteristic of the characteristic pixel (TD) extracted by the output means (1) is
A plurality of individual image processing steps are written for each corresponding pixel.
Reference buffer provided so that stage (7) can be shared
(2) an image corresponding to a color image
The feature extracting apparatus further includes image signal combining means (4) for combining respective color component signals in a uniform color space of each pixel at an appropriate ratio for each property of a feature pixel (TD) to be extracted. Feature extraction device.
特徴を抽出する画像特徴抽出装置であって、各走査ライ
ンの画素から、少なくとも濃度勾配のある画素部分の濃
度勾配を表す濃度勾配特徴画素(TDN)が含まれる特
徴画素(TD)を抽出する特徴画素抽出手段(1)と、
この特徴画素抽出手段(1)にて抽出された特徴画素
(TD)の性質が対応する画素毎に書き込まれ且つ複数
の個別画像処理手段(7)が共用し得るように設けられ
る参照用バッファ(2)とを備えたもののうち、カラー
画像に対する画像特徴抽出装置において、 抽出する特徴画素(TD)の性質毎に、各画素の均等色
空間における各色成分信号を適当な割合で合成する画像
信号合成手段(4)を備えたことを特徴とする画像特徴
抽出装置。 8. An image from quantized multi-tone image data
An image feature extraction device for extracting features, wherein each scanning line
From the pixels with the density gradient at least
Including a density gradient feature pixel (TDN)
Characteristic pixel extracting means (1) for extracting a feature pixel (TD);
The characteristic pixel extracted by the characteristic pixel extracting means (1)
(TD) property is written for each corresponding pixel and multiple
Are provided so that the individual image processing means (7) can be shared.
And a reference buffer (2)
An image feature extracting apparatus for an image includes image signal combining means (4) for combining respective color component signals in a uniform color space of each pixel at an appropriate ratio for each property of a feature pixel (TD) to be extracted. Image feature extraction device.
特徴を抽出する画像特徴抽出装置であって、各走査ライ
ンの画素から、少なくとも濃度変化の大きなエッジ画素
部分に対応するエッジ特徴画素(TDE)及び濃度勾配
のある画素部分の濃度勾配を表す濃度勾配特徴画素(T
DN)が含まれる特徴画素(TD)を抽出する特徴画素
抽出手段(1)と、この特徴画素抽出手段(1)にて抽
出された特徴画素(TD)の性質が対応する画素毎に書
き込まれ且つ複数の個別画像処理手段(7)が共用し得
るように設けられる参照用バッファ(2)とを備えたも
ののうち、カラー画像に対する画像特徴抽出装置におい
て、 抽出する特徴画素(TD)の性質毎に、各画素の均等色
空間における各色成分信号を適当な割合で合成する画像
信号合成手段(4)を備えたことを特徴とする画像特徴
抽出装置。9. An image from quantized multi-tone image data
An image feature extraction device for extracting features, wherein each scanning line
Edge pixels with at least large density changes
Edge feature pixel (TDE) and density gradient corresponding to the part
Density characteristic pixel (T
DN), and the characteristic pixel for extracting the characteristic pixel (TD)
Extraction means (1) and the characteristic pixel extraction means (1)
The property of the output characteristic pixel (TD) is written for each corresponding pixel.
And can be shared by a plurality of individual image processing means (7).
And a reference buffer (2) provided to
Of image feature extraction devices for color images
And an image signal synthesizing means (4) for synthesizing each color component signal in a uniform color space of each pixel at an appropriate ratio for each property of the characteristic pixel (TD) to be extracted. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP04319593A JP3198705B2 (en) | 1993-02-08 | 1993-02-08 | Image feature extraction method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP04319593A JP3198705B2 (en) | 1993-02-08 | 1993-02-08 | Image feature extraction method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06237375A JPH06237375A (en) | 1994-08-23 |
JP3198705B2 true JP3198705B2 (en) | 2001-08-13 |
Family
ID=12657147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP04319593A Expired - Fee Related JP3198705B2 (en) | 1993-02-08 | 1993-02-08 | Image feature extraction method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3198705B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4730141B2 (en) | 2006-03-06 | 2011-07-20 | ソニー株式会社 | Image processing apparatus and method, recording medium, and program |
-
1993
- 1993-02-08 JP JP04319593A patent/JP3198705B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH06237375A (en) | 1994-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6075926A (en) | Computerized method for improving data resolution | |
JP3902265B2 (en) | Contrast improvement method | |
JP2001283219A (en) | Template fitting method | |
JPH1098619A (en) | Method for changing edge position of continuous tone image smaller | |
JPH08228282A (en) | Processing method of document picture and binary picture picture element processor | |
JPH05225332A (en) | Method and apparatus for variable-space wave filtering | |
JP4123356B2 (en) | Image processing apparatus, image processing program, and storage medium | |
JP3167120B2 (en) | Image processing apparatus and method | |
JP3749282B2 (en) | Image processing device | |
JP4441300B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium storing the program | |
JP3849817B2 (en) | Image processing apparatus and image processing method | |
JP3198705B2 (en) | Image feature extraction method and apparatus | |
JPH07129762A (en) | Sketch-fashion image generator | |
JP3262425B2 (en) | Image processing device | |
JPH06233130A (en) | Method and device for edge emphasis processing | |
JP3295561B2 (en) | Image processing device | |
JP3455078B2 (en) | Image processing apparatus and image processing method | |
JP3260815B2 (en) | Image processing device | |
JP2843232B2 (en) | Apparatus and method for contrast enhancement | |
JPH08251397A (en) | Method and device for image processing | |
JP3004245B2 (en) | Halftone area detection method | |
JP2636273B2 (en) | Image processing device | |
JP3054299B2 (en) | Image processing apparatus and method | |
JP2001188900A (en) | Image processor and image processing method | |
JPH07262351A (en) | Image processor and control method for the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090615 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100615 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |