[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6834701B2 - Image processing equipment and computer programs - Google Patents

Image processing equipment and computer programs Download PDF

Info

Publication number
JP6834701B2
JP6834701B2 JP2017070797A JP2017070797A JP6834701B2 JP 6834701 B2 JP6834701 B2 JP 6834701B2 JP 2017070797 A JP2017070797 A JP 2017070797A JP 2017070797 A JP2017070797 A JP 2017070797A JP 6834701 B2 JP6834701 B2 JP 6834701B2
Authority
JP
Japan
Prior art keywords
pixels
determination
pixel
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017070797A
Other languages
Japanese (ja)
Other versions
JP2018174419A (en
Inventor
上田 昌史
昌史 上田
竜司 山田
竜司 山田
卓也 嶋橋
卓也 嶋橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2017070797A priority Critical patent/JP6834701B2/en
Publication of JP2018174419A publication Critical patent/JP2018174419A/en
Application granted granted Critical
Publication of JP6834701B2 publication Critical patent/JP6834701B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Description

本明細書は、画像内のエッジを検出する技術に関する。 The present specification relates to a technique for detecting an edge in an image.

従来から、種々の画像処理が、提案されている。例えば、微分フィルタなどを用いて文字エッジを抽出し、孤立量を積算して印刷の網点を抽出することによって、画像を文字と網点に分類する技術が提案されている。さらに、画像中の文字領域と網点領域とを区別するとともに、網点領域内の文字も判定する技術が、提案されている。 Conventionally, various image processings have been proposed. For example, a technique has been proposed in which an image is classified into characters and halftone dots by extracting character edges using a differential filter or the like, integrating the amount of isolation, and extracting halftone dots for printing. Further, a technique has been proposed in which the character area in the image and the halftone dot area are distinguished and the characters in the halftone dot area are also determined.

特開2007−311836号公報JP-A-2007-31136

ところで、画像内の文字は、種々の形態で表現され得る。例えば、明るい色の背景中に、暗い色で文字が表現される場合がある。これとは反対に、暗い色の背景中に、明るい色で文字が表現される場合がある。このような種々の形態で表現され得る文字のエッジを特定することは、容易ではなかった。 By the way, the characters in the image can be expressed in various forms. For example, characters may be expressed in dark colors in a light-colored background. On the contrary, characters may be expressed in light colors in a dark background. It has not been easy to identify the edges of characters that can be represented in such various forms.

本明細書は、種々の形態で表現され得る文字のエッジを特定することができる技術を開示する。 The present specification discloses a technique capable of identifying the edges of characters that can be represented in various forms.

本明細書は、例えば、以下の適用例を開示する。 The present specification discloses, for example, the following application examples.

[適用例1]画像処理装置であって、第1の画像を示す第1の画像データを取得する画像データ取得部と、前記第1の画像データを用いて、前記第1の画像内の第1の注目画素を含む複数個の画素が特定種の判断条件を満たすか否かを判断する第1判断部であって、前記特定種の判断条件は、前記第1の注目画素が、基準未満の輝度を有する複数個の画素が連続する低輝度領域内にあることを示す第1種の条件と、前記第1の注目画素が、基準以上の輝度を有する複数個の画素が連続する高輝度領域内にあることを示す第2種の条件と、のうちの一方の条件である、前記第1判断部と、前記第1の画像データを用いて、第2の画像を示す第2の画像データを生成する画像データ生成部であって、前記第2の画像データは、前記第1の画像データに含まれる複数個の画素の値に対応する複数個の対応値を含み、前記複数個の対応値のそれぞれは、前記第1の画像データの対応する画素の値を反転した値である、前記画像データ生成部と、前記第2の画像データを用いて、前記第2の画像内の第2の注目画素を含む複数個の画素が、前記一方の条件である前記特定種の判断条件を満たすか否かを判断する第2判断部と、前記第1の画像データに基づく対象画像データに対して、前記対象画像データによって示される対象画像を平滑化する平滑化処理を実行して、平滑化データを生成する平滑化部であって、前記対象画像内のM個(Mは2以上の整数)の画素のうち、前記特定種の判断条件を満たす前記第1画像内の複数個の画素と、前記特定種の判断条件を満たす前記第2の画像内の複数個の画素と、の少なくとも一方に対応するN1個(N1はM未満の整数)の画素を平滑化せず、前記特定種の判断条件を満たさない前記第1画像内の複数個の画素と対応し、かつ、前記特定種の判断条件を満たさない前記第2の画像内の複数個の画素と対応するN2個(N2は、N1+N2=Mを満たす整数)の画素を平滑化することによって、前記平滑化データを生成する、前記平滑化部と、前記平滑化データを用いて、エッジを示す複数個のエッジ画素を特定するエッジ特定部と、を備える、画像処理装置。 [Application Example 1] An image processing apparatus that uses an image data acquisition unit that acquires first image data indicating a first image and the first image data to provide a first image in the first image. It is a first determination unit that determines whether or not a plurality of pixels including one attention pixel satisfy the determination condition of a specific type, and the determination condition of the specific type is that the first attention pixel is less than the reference. The first type of condition indicating that a plurality of pixels having the same brightness are in a continuous low brightness region, and the first attention pixel is a high brightness in which a plurality of pixels having a brightness equal to or higher than a reference are continuous. A second image showing a second image using the first determination unit and the first image data, which is one of the second type conditions indicating that the data is within the region. An image data generation unit that generates data, the second image data includes a plurality of corresponding values corresponding to the values of a plurality of pixels included in the first image data, and the plurality of corresponding values. Each of the corresponding values is a value obtained by reversing the value of the corresponding pixel of the first image data. Using the image data generation unit and the second image data, the second image in the second image is used. The second determination unit that determines whether or not the plurality of pixels including the second attention pixel satisfy the determination condition of the specific type, which is one of the above conditions, and the target image data based on the first image data. On the other hand, it is a smoothing unit that generates smoothing data by executing a smoothing process for smoothing the target image indicated by the target image data, and M pieces (M is 2 or more) in the target image. among the pixels of the integer), the a plurality of pixels of a particular species of determination satisfies said first image, and a plurality of pixels of the particular species of determination satisfies said second image, the (the N1 integer less than M) N1 pieces corresponding to at least one without smoothing the pixels, corresponding to the plurality of pixels within said particular type first which does not satisfy the determination condition of the image, and the The smoothing data is generated by smoothing N2 pixels (N2 is an integer satisfying N1 + N2 = M) corresponding to a plurality of pixels in the second image that do not satisfy a specific type of determination condition. An image processing apparatus comprising the smoothing unit and an edge specifying unit for specifying a plurality of edge pixels indicating edges using the smoothing data.

この構成によれば、第1の画像データを用いて特定種の判断条件を満たすか否かが判断される。さらに第1の画像データの対応する画素の値を反転した対応値を含む第2の画像データを用いて、特定種の判断条件を満たすか否かが判断される。この結果、特定種の判断条件を用いて、低輝度領域と高輝度領域との両方について判断できる。そして、特定種の判断条件を満たす第1画像内の複数個の画素と、特定種の判断条件を満たす第2の画像内の複数個の画素と、の少なくとも一方に対応するN1個(N1はM未満の整数)の画素が平滑化されないように、平滑化データが生成される。したがって、平滑化データを用いて、エッジ画素を特定する際に、比較的低輝度の(すなわち、暗い)背景中に明るい色で表される文字のエッジを表す画素と、比較的高輝度の(すなわち、明るい)背景中に暗い色で表される文字のエッジを表す画素と、の両方を、適切に特定できる。
[適用例2]
適用例1に記載の画像処理装置であって、
前記第1判断部と前記第2判断部とは、それぞれ、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられた複数のフィルタを用いて、前記特定種の判断条件を満たすか否かを判断する、画像処理装置。
[適用例3]
適用例2に記載の画像処理装置であって、
前記第1判断部は、それぞれ、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられたP個(Pは1以上の整数)のフィルタの少なくとも1つを用いて、前記特定種の判断条件を満たすか否かを判断し、
前記第2判断部は、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられたQ個(Qは、1以上、かつ、Pとは異なる整数)のフィルタの少なくとも1つを用いて、前記特定種の判断条件を満たすか否かを判断する、
画像処理装置。
[適用例4]
適用例3に記載の画像処理装置であって、
前記特定種の条件は、前記第1の注目画素が、基準未満の輝度を有する複数個の画素が連続する低輝度領域内にあることを示す前記第1種の条件であり、
P>Qである、
画像処理装置。
[適用例5]
適用例4に記載の画像処理装置であって、
前記第1判断部によって用いられ得る前記P個のフィルタに対応付けられるP種類の線のうち最も細い線の幅は、前記第2判断部によって用いられ得る前記Q個のフィルタに対応付けられるQ種類の線のうち最も細い線の幅よりも、細い、
画像処理装置。
[適用例6]
適用例5に記載の画像処理装置であって、
入力画像データに対して、前記複数個のエッジ画素を用いる画像処理を行うことによって、印刷用の画像データである出力データを生成する出力データ生成部と、
前記出力データを、色材を利用して画像を印刷する印刷実行部に供給する供給部と、
を備え、
前記第1の画像データは、前記入力画像データに基づくデータであり、
前記第2判断部によって用いられ得る前記Q個のフィルタに対応付けられるQ種類の線のうち最も細い線の幅は、前記印刷実行部によって利用される色材の滲み特性に基づいて、予め決定されている、
画像処理装置。
According to this configuration, it is determined whether or not the determination condition of a specific type is satisfied by using the first image data. Further, it is determined whether or not the determination condition of a specific type is satisfied by using the second image data including the corresponding value obtained by reversing the value of the corresponding pixel of the first image data. As a result, it is possible to judge both the low-luminance region and the high-luminance region by using a specific kind of judgment condition. Then, a plurality of pixels in a particular species determination satisfies the first image, and a plurality of pixels in a particular species determination satisfies the second image, N1 pieces corresponding to at least one of (N1 Is an integer less than M) The smoothed data is generated so that the pixels are not smoothed. Therefore, when identifying edge pixels using smoothed data, pixels representing the edges of characters represented by bright colors in a relatively low-brightness (ie, dark) background and relatively high-brightness (ie) pixels. That is, both pixels representing the edges of characters represented by dark colors in the (bright) background can be appropriately identified.
[Application example 2]
The image processing apparatus according to Application Example 1.
The first determination unit and the second determination unit are filters for detecting pixels representing lines, respectively, and are specified by using a plurality of filters associated with lines having different thicknesses. An image processing device that determines whether or not a species determination condition is met.
[Application example 3]
The image processing apparatus according to Application Example 2.
The first determination unit is a filter for detecting pixels representing lines, and is at least one of P filters (P is an integer of 1 or more) associated with lines having different thicknesses. Is used to determine whether or not the above-mentioned specific type of determination condition is satisfied.
The second determination unit is a filter for detecting pixels representing lines, and has Q pieces (Q is 1 or more and an integer different from P) associated with lines having different thicknesses. At least one of the filters is used to determine whether or not the particular type of determination condition is met.
Image processing device.
[Application example 4]
The image processing apparatus according to Application Example 3.
The specific type of condition is the first type of condition indicating that the first pixel of interest is in a continuous low-luminance region of a plurality of pixels having a brightness less than the reference.
P> Q,
Image processing device.
[Application example 5]
The image processing apparatus according to Application Example 4.
The width of the thinnest line among the P-type lines associated with the P filters that can be used by the first determination unit is the Q associated with the Q filters that can be used by the second determination unit. Thinner than the width of the thinnest of the types of lines,
Image processing device.
[Application example 6]
The image processing apparatus according to Application Example 5.
An output data generation unit that generates output data, which is image data for printing, by performing image processing using the plurality of edge pixels on the input image data.
A supply unit that supplies the output data to a print execution unit that prints an image using a color material, and a supply unit.
With
The first image data is data based on the input image data, and is
The width of the thinnest line among the Q type lines associated with the Q filters that can be used by the second determination unit is determined in advance based on the bleeding characteristics of the color material used by the print execution unit. Has been,
Image processing device.

なお、本明細書に開示の技術は、種々の態様で実現することが可能であり、例えば、画像処理方法および画像処理装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体(例えば、一時的ではない記録媒体)、等の形態で実現することができる。 The techniques disclosed in the present specification can be realized in various aspects, for example, an image processing method and an image processing device, a computer program for realizing the functions of those methods or devices, and a computer thereof. It can be realized in the form of a recording medium on which the program is recorded (for example, a recording medium that is not temporary).

複合機100の構成を示すブロック図。The block diagram which shows the structure of the multifunction device 100. 実施形態における領域分離処理部103のブロック構成図。FIG. 3 is a block configuration diagram of the area separation processing unit 103 in the embodiment. 文字判定部1003の構成を示すブロック図。The block diagram which shows the structure of the character determination part 1003. 文字判定部の処理を説明するための図。The figure for demonstrating the processing of a character determination part. 文字判定部の各処理の信号を示す図。The figure which shows the signal of each process of a character determination part. テーブルの説明図。Explanatory drawing of the table. 網点判定部1004のブロック構成図。The block configuration diagram of the halftone dot determination unit 1004. 網点判定部の処理を説明するための図。The figure for demonstrating the processing of the halftone dot determination part. パターンマッチングの一例を示す第1の図。The first figure which shows an example of pattern matching. 内エッジ信号と判定パターン1710とマッチングの結果の一例を示す図。The figure which shows an example of the result of matching with the inner edge signal and determination pattern 1710. OR処理部1207による処理の説明図。The explanatory view of the processing by the OR processing unit 1207. 積算処理部1209と閾値判定部1211との構成を示すブロック図。The block diagram which shows the structure of the integration processing unit 1209 and the threshold value determination unit 1211. 閾値判定部1211と総合判定部1213との処理の一例を示す図。The figure which shows an example of the processing of the threshold value determination unit 1211 and the comprehensive determination unit 1213. 閾値判定部1211と総合判定部1213との処理の一例を示す図。The figure which shows an example of the processing of the threshold value determination unit 1211 and the comprehensive determination unit 1213. 閾値判定部1211と総合判定部1213との処理の一例を示す図。The figure which shows an example of the processing of the threshold value determination unit 1211 and the comprehensive determination unit 1213. 網点内文字判定部1005の構成を示すブロック図。The block diagram which shows the structure of the character determination part 1005 in a halftone dot. 適応的スムージング処理部2401の構成を示すブロック図。The block diagram which shows the structure of the adaptive smoothing processing part 2401. 線パターンの説明図。Explanatory drawing of line pattern. 図18(A)の線パターンを用いた判定の例を示す図。The figure which shows the example of the determination using the line pattern of FIG. 18 (A). 図18(B)〜(D)の線パターンを用いた判定の例を示す図。It is a figure which shows the example of the determination using the line pattern of FIGS. 18B to 18D. 図18(A)の線パターンを用いた判定の例を示す図。The figure which shows the example of the determination using the line pattern of FIG. 18 (A). 図18(B)〜(D)の線パターンを用いた判定の例を示す図。FIG. 6 is a diagram showing an example of determination using the line patterns of FIGS. 18 (B) to 18 (D). 適応的スムージング処理部による平滑化の周波数特性の一例を示す説明図。Explanatory drawing which shows an example of the frequency characteristic of smoothing by an adaptive smoothing processing part. 網点内文字判定部1005による網点文字判定の例を示す図。The figure which shows the example of the halftone dot character determination by the halftone dot character determination unit 1005. 網点内文字判定部1005による網点文字判定の例を示す図。The figure which shows the example of the halftone dot character determination by the halftone dot character determination unit 1005. 出力処理部110の構成を示すブロック図。The block diagram which shows the structure of the output processing part 110. 第1種の特定領域の画素と第2種の特定領域の画素とを検出する処理の別の実施例を示すフローチャート。FIG. 5 is a flowchart showing another embodiment of the process of detecting the pixels of the first type specific region and the pixels of the second type specific region. 複数のフィルタの例を示す説明図。Explanatory drawing which shows an example of a plurality of filters. 明線用の初期値Wdiwを決定する処理の説明図。Explanatory drawing of the process which determines the initial value Wdiw for a bright line. 変形例の領域分離処理部103Bの構成を示すブロック図。The block diagram which shows the structure of the area separation processing part 103B of a modification.

A.第1実施例:
A−1.複合機100の構成
次に、実施の形態を実施例に基づき説明する。図1は、実施例の画像処理装置としての複合機100の構成を示すブロック図である。
A. First Example:
A-1. Configuration of Multifunction Device 100 Next, an embodiment will be described based on an embodiment. FIG. 1 is a block diagram showing a configuration of a multifunction device 100 as an image processing device of an embodiment.

複合機100は、制御部120と、読取実行部130と、印刷実行部140と、通信インタフェース(通信IF)150と、図示しない液晶ディスプレイなどの表示部と、図示しないタッチパネルやボタンを含む操作部と、を備えている。 The multifunction device 100 includes a control unit 120, a reading execution unit 130, a printing execution unit 140, a communication interface (communication IF) 150, a display unit such as a liquid crystal display (not shown), and an operation unit including a touch panel and buttons (not shown). And have.

制御部120は、メインプロセッサ101と、複数個の画像処理部102〜110と、DRAMなどの複数個の揮発性メモリ111〜116と、フラッシュメモリなどの不揮発性メモリ117と、を備えている。 The control unit 120 includes a main processor 101, a plurality of image processing units 102 to 110, a plurality of volatile memories 111 to 116 such as a DRAM, and a non-volatile memory 117 such as a flash memory.

メインプロセッサ101は、不揮発性メモリ117に格納されるコンピュータプログラムPGを実行することによって、読取実行部130や印刷実行部140、および、画像処理部102〜110を含む複合機100の全体を制御するCPUである。 The main processor 101 controls the entire composite machine 100 including the read execution unit 130, the print execution unit 140, and the image processing units 102 to 110 by executing the computer program PG stored in the non-volatile memory 117. It is a CPU.

複数個の画像処理部102〜110は、メインプロセッサ101の制御に従って動作するASICなどのハードウェア回路である。揮発性メモリ111〜116は、メインプロセッサ101や画像処理部102〜110によって利用されるメモリである。これら画像処理部やメモリを用いた処理の概要は後述する。 The plurality of image processing units 102 to 110 are hardware circuits such as an ASIC that operate under the control of the main processor 101. The volatile memories 111 to 116 are memories used by the main processor 101 and the image processing units 102 to 110. The outline of the processing using the image processing unit and the memory will be described later.

不揮発性メモリ117には、上述のコンピュータプログラムPGが格納されている。コンピュータプログラムPGは、メインプロセッサ101に複合機100の制御を実現させる制御プログラムである。コンピュータプログラムPGは、複合機200の製造時に、不揮発性メモリ117に予め格納される形態で提供される。これに代えて、コンピュータプログラムPGは、サーバからダウンロードされる形態で提供されても良く、DVD−ROMなどに格納される形態で提供されてもよい。 The above-mentioned computer program PG is stored in the non-volatile memory 117. The computer program PG is a control program that allows the main processor 101 to control the multifunction device 100. The computer program PG is provided in a form stored in advance in the non-volatile memory 117 at the time of manufacturing the multifunction device 200. Instead of this, the computer program PG may be provided in a form downloaded from a server, or may be provided in a form stored in a DVD-ROM or the like.

読取実行部130は、メインプロセッサ101の制御に従って、一次元イメージセンサを用いて原稿を光学的に読み取ることによってスキャンデータを生成する。スキャンデータは、複数個の画素の値を含み、複数個の画素の値のそれぞれは、画素の色をRGB表色系の色値(RGB値とも呼ぶ)で表す。すなわち、スキャンデータは、RGB画像データである。1個の画素のRGB値は、例えば、赤色(R)と緑色(G)と青色(B)との3個の色成分の値(以下、R値、G値、B値とも呼ぶ)を含んでいる。本実施例では、各成分値の階調数は、256階調である。 The scanning execution unit 130 generates scan data by optically scanning the document using the one-dimensional image sensor under the control of the main processor 101. The scan data includes the values of a plurality of pixels, and each of the values of the plurality of pixels represents the color of the pixel as an RGB color value (also referred to as an RGB value). That is, the scan data is RGB image data. The RGB value of one pixel includes, for example, the values of three color components (hereinafter, also referred to as R value, G value, and B value) of red (R), green (G), and blue (B). I'm out. In this embodiment, the number of gradations of each component value is 256 gradations.

印刷実行部140は、メインプロセッサ101の制御に従って、複数種類のインク、具体的には、シアン(C)、マゼンタ(M)、イエロ(Y)、ブラック(K)のインクを、色材として用いて、用紙などの印刷媒体に色材としてのインクを吐出することによって、画像を印刷する(インクジェット方式とも呼ばれる)。なお、変形例では、印刷実行部140は、色材としてのトナーを用いて、レーザ方式で印刷媒体に画像を印刷するレーザ方式の印刷実行部であっても良い。 The print execution unit 140 uses a plurality of types of inks, specifically, cyan (C), magenta (M), yellow (Y), and black (K) inks as coloring materials under the control of the main processor 101. The image is printed by ejecting ink as a coloring material onto a printing medium such as paper (also called an inkjet method). In the modified example, the print execution unit 140 may be a laser-type print execution unit that prints an image on a print medium by a laser method using toner as a coloring material.

通信IF150は、ユーザの端末装置(図示省略)などの外部装置と通信を行うためのインタフェース、例えば、イーサネット(登録商標)規格に従うネットワークインタフェースである。 The communication IF 150 is an interface for communicating with an external device such as a user's terminal device (not shown), for example, a network interface according to an Ethernet (registered trademark) standard.

A−2.複合機100の処理の概要
複合機100によって実行されるコピー処理、すなわち、読取実行部130を用いて、原稿を示すスキャンデータを生成し、該スキャンデータを用いて原稿を示す画像を印刷する処理の概要を説明する。なお、本実施例の原稿は、例えば、複合機100、あるいは、図示しないプリンタによって画像が印刷された印刷物である。
A-2. Outline of processing of the multifunction device 100 Copy processing executed by the multifunction device 100, that is, a process of generating scan data indicating a document using the scanning execution unit 130 and printing an image indicating the document using the scan data. The outline of is explained. The manuscript of this embodiment is, for example, a printed matter in which an image is printed by a multifunction device 100 or a printer (not shown).

利用者は、複写すべき原稿を読取実行部130のシートフィーダにセットし、複写の開始指示を図示しない操作部を介して入力する。読取実行部130は、開始指示に応じて、原稿を1枚ずつ読み取ることによって、対象画像データとしてのスキャンデータを生成する。生成されたスキャンデータは、第1入力処理部102に出力される。 The user sets the document to be copied on the sheet feeder of the scanning execution unit 130, and inputs the copying start instruction via an operation unit (not shown). The scanning execution unit 130 generates scan data as target image data by scanning the documents one by one in response to the start instruction. The generated scan data is output to the first input processing unit 102.

第1入力処理部102は、読取実行部130から出力されるスキャンデータに対して、シェーディング補正、色補正など、周知の画像処理を行って、画像処理済みのスキャンデータを領域分離処理部103に送信する。 The first input processing unit 102 performs well-known image processing such as shading correction and color correction on the scan data output from the reading execution unit 130, and sends the image-processed scan data to the area separation processing unit 103. Send.

領域分離処理部103は、第1入力処理部102から出力されるスキャンデータに対して、領域分離処理を行う。領域分離処理部103は、スキャンデータによって示されるスキャン画像の画素ごとに写真(自然画)領域、文字領域、網点領域、網点内の文字領域といった画像の特徴を検出して、領域ごとの属性を表すフラグデータを、後述する文字フラグ1007、網点フラグ1008、網点内文字フラグ1009として生成する。該フラグデータは、第2入力処理部104に出力されるとともに、第1フラグメモリ112に格納される。 The area separation processing unit 103 performs the area separation processing on the scan data output from the first input processing unit 102. The area separation processing unit 103 detects image features such as a photograph (natural image) area, a character area, a halftone dot area, and a character area within the halftone dots for each pixel of the scanned image indicated by the scan data, and for each area. Flag data representing attributes is generated as the character flag 1007, the halftone dot flag 1008, and the halftone dot in-character flag 1009, which will be described later. The flag data is output to the second input processing unit 104 and stored in the first flag memory 112.

第2入力処理部104は、第1入力処理部102から出力されるスキャンデータに対して、領域分離処理部103から出力されるフラグデータに基づき、領域ごとに適正な画像処理を行なって、処理済画像データを生成する。処理済画像データは、第1画像メモリ111に格納される。例えば、第2入力処理部104は、文字領域に対して、画像の高周波成分を強調して文字の鮮鋭度を強調する処理を行い、網点領域に対して、ローパスフィルタ処理を行う。ローパスフィルタ処理によって、スキャン画像に含まれるいわゆるモアレ成分が除去される。これらの処理の切り替えは、領域分離処理部103で生成したフラグデータに基づいて、画素単位で行われる。 The second input processing unit 104 processes the scan data output from the first input processing unit 102 by performing appropriate image processing for each area based on the flag data output from the area separation processing unit 103. Generate finished image data. The processed image data is stored in the first image memory 111. For example, the second input processing unit 104 performs a process of emphasizing the high frequency component of the image to emphasize the sharpness of the character in the character area, and performs a low-pass filter process in the halftone dot area. The low-pass filter processing removes so-called moire components contained in the scanned image. The switching of these processes is performed on a pixel-by-pixel basis based on the flag data generated by the area separation processing unit 103.

第1画像メモリ111に1ページ分の処理済画像データが格納されると、データ圧縮部107は、該処理済画像データを、例えば、非可逆圧縮方式(例えば、JPEG方式)を用いて圧縮し、圧縮済みの処理済画像データを、メインメモリ113に格納する。 When the processed image data for one page is stored in the first image memory 111, the data compression unit 107 compresses the processed image data by using, for example, a lossy compression method (for example, a PEG method). , The compressed processed image data is stored in the main memory 113.

第1フラグメモリ112に1ページ分のフラグデータが格納されると、データ圧縮部107は、該フラグデータを、可逆圧縮方式(例えば、ZIP方式)を用いて圧縮し、圧縮済みのフラグデータを、メインメモリ113に格納する。 When the flag data for one page is stored in the first flag memory 112, the data compression unit 107 compresses the flag data using a lossless compression method (for example, a ZIP method), and compresses the compressed flag data. , Stored in the main memory 113.

上記の処理を行なって、メインメモリ113には各原稿の圧縮済みの処理済画像データおよび圧縮済みのフラグデータが蓄積されていく。この蓄積処理と並行して、データ復号部109は、メインメモリ113から圧縮済みの処理済画像データおよび圧縮済みのフラグデータを取得し、復号処理を行なう。このとき、解像度変換部108は、必要に応じて、復号された処理済画像データに対して、該処理済画像データの解像度を変換する解像度変換を行なう。 By performing the above processing, the compressed processed image data and the compressed flag data of each document are accumulated in the main memory 113. In parallel with this storage process, the data decoding unit 109 acquires the compressed processed image data and the compressed flag data from the main memory 113, and performs the decoding process. At this time, the resolution conversion unit 108 performs resolution conversion on the decoded processed image data to convert the resolution of the processed image data, if necessary.

復号および解像度が変換された処理済画像データは、第2画像メモリ116に格納され、復号されたフラグデータは、第2フラグメモリ115に格納される。 The processed image data whose decoding and resolution have been converted is stored in the second image memory 116, and the decoded flag data is stored in the second flag memory 115.

出力処理部110は、第2画像メモリ116に格納された処理済画像データ(RGB値)に対して色変換処理やハーフトーン処理を含む生成処理を実行して、印刷データを生成する。出力処理部110は、印刷データを生成する過程において、第2フラグメモリ115に格納されたフラグデータを参照して、各画素が属する領域の属性を認識し、領域ごとに適した画像処理を実行することができる。これによって、適切な印刷データが生成される。生成される印刷データは、印刷実行部140に出力される。この結果、印刷実行部140によって、用紙上に原稿を示す画像が印刷される。 The output processing unit 110 generates print data by executing a generation process including a color conversion process and a halftone process on the processed image data (RGB value) stored in the second image memory 116. In the process of generating print data, the output processing unit 110 refers to the flag data stored in the second flag memory 115, recognizes the attributes of the area to which each pixel belongs, and executes image processing suitable for each area. can do. As a result, appropriate print data is generated. The generated print data is output to the print execution unit 140. As a result, the print execution unit 140 prints an image showing the original on the paper.

上記は、コピー処理についてのものであったが、複合機100は、ユーザの端末装置などの端末装置から送信される印刷ジョブを、通信IF150を介して受信し、該印刷ジョブに基づいて画像を印刷する、いわゆるネットワークプリンタとしても機能する。 The above was about copy processing, but the multifunction device 100 receives a print job transmitted from a terminal device such as a user's terminal device via the communication IF 150, and prints an image based on the print job. It also functions as a so-called network printer for printing.

この場合には、通信IF150を介して受信される印刷ジョブは、PDL形式の画像データを含む。PDL形式の画像データを含む印刷ジョブは、インタープリタ106に供給される。インタープリタ106は、受信した印刷ジョブに含まれるPDL形式の画像データを解釈し、RIP105が解釈可能な描画コマンド(中間データ)に変換する。RIP105は、この描画コマンドに基づき描画処理(ラスタライズ処理)を行なって、RGB画像データを生成する。このRGB画像データは、第1画像メモリ111に格納される。RIP105は、フラグデータを生成して、第1フラグメモリ112に格納する。PDL形式の印刷データでは、文字、写真(自然画)、網点等は、印刷コマンドで定義されているので、RIP105は、フラグデータを容易に生成することができる。 In this case, the print job received via the communication IF 150 includes image data in PDL format. A print job containing image data in PDL format is supplied to the interpreter 106. The interpreter 106 interprets the PDL format image data included in the received print job and converts it into a drawing command (intermediate data) that can be interpreted by the RIP 105. The RIP 105 performs drawing processing (rasterization processing) based on this drawing command to generate RGB image data. This RGB image data is stored in the first image memory 111. The RIP 105 generates flag data and stores it in the first flag memory 112. In the print data in PDL format, characters, photographs (natural images), halftone dots, and the like are defined by print commands, so that the RIP 105 can easily generate flag data.

A−3.領域分離処理部103による処理
領域分離処理部103によって実行される処理について説明する。図2は、実施形態における領域分離処理部103のブロック構成図である。
A-3. Processing by Area Separation Processing Unit 103 The processing executed by the area separation processing unit 103 will be described. FIG. 2 is a block configuration diagram of the area separation processing unit 103 in the embodiment.

輝度データ取得部1002には、第1入力処理部102から出力されるスキャンデータの各画素の値を示す画素単位の入力信号1001が、画素ごとに入力される。すなわち、入力信号1001は、スキャンデータの各画素のRGB値を示す信号である。輝度データ取得部1002は、入力信号1001によって示されるRGB値に基づいて、画素の明るさの度合いである輝度値を示す信号を、属性判定用の画素単位の判定信号として生成する。輝度値は、RGB値に含まれる複数個の成分値(R値、G値、B値)を用いて取得される。例えば、G値が、輝度値として用いられる。これに代えて、(R+2×G+B)/4などの演算によって、輝度値が算出されてもよい。また、RGB表色系の色値をLab表色系の色値に変換し、得られたL値を、輝度値として用いてもよい。輝度データ取得部1002は、画素ごとに入力されるスキャンデータを用いて、複数個の画素のそれぞれの輝度値を表す輝度画像データを取得する回路である、と言うことができる。 A pixel-by-pixel input signal 1001 indicating the value of each pixel of the scan data output from the first input processing unit 102 is input to the brightness data acquisition unit 1002 for each pixel. That is, the input signal 1001 is a signal indicating the RGB value of each pixel of the scan data. The luminance data acquisition unit 1002 generates a signal indicating the luminance value, which is the degree of brightness of the pixels, as a pixel-based determination signal for attribute determination, based on the RGB value indicated by the input signal 1001. The luminance value is acquired by using a plurality of component values (R value, G value, B value) included in the RGB value. For example, the G value is used as the brightness value. Instead of this, the brightness value may be calculated by an operation such as (R + 2 × G + B) / 4. Further, the color value of the RGB color system may be converted into the color value of the Lab color system, and the obtained L value may be used as the luminance value. It can be said that the luminance data acquisition unit 1002 is a circuit that acquires luminance image data representing the luminance values of each of the plurality of pixels by using the scan data input for each pixel.

輝度データ取得部1002にて生成された輝度値を示す判定信号は、文字判定部1003と、網点判定部1004と、網点内文字判定部1005と、にそれぞれ出力される。文字判定部1003と、網点判定部1004と、網点内文字判定部1005とは、供給される判定信号を用いて、文字判定、網点判定、網点内文字判定を、それぞれ、実行し、判定結果を示す結果信号を、属性フラグ生成部1006に出力する。 The determination signal indicating the luminance value generated by the luminance data acquisition unit 1002 is output to the character determination unit 1003, the halftone dot determination unit 1004, and the in-halftone dot character determination unit 1005, respectively. The character determination unit 1003, the halftone dot determination unit 1004, and the halftone dot internal character determination unit 1005 execute character determination, halftone dot determination, and halftone dot internal character determination, respectively, using the supplied determination signals. , The result signal indicating the determination result is output to the attribute flag generation unit 1006.

属性フラグ生成部1006は、各判定部1003〜1005からの結果信号を用いて、属性フラグを生成する。実施例では、文字フラグ1007、網点フラグ1008、網点内文字フラグ1009が生成される。文字フラグ1007は、スキャンデータ内の対応する画素が、文字領域を構成する文字画素であるか否かを示すフラグである。網点フラグ1008は、スキャンデータ内の対応する画素が、網点領域を構成する網点画素であるか否かを示すフラグである。網点内文字フラグ1009は、スキャンデータ内の対応する画素が、網点内文字領域を構成する網点内文字画素であるか否かを示すフラグである。これらの属性フラグを基に、スキャン画像に含まれる画像の特徴に応じて最適な画像処理を施すことが可能になる。以下、文字判定部1003、網点判定部1004、網点内文字判定部1005について、より詳しく説明する。 The attribute flag generation unit 1006 generates an attribute flag using the result signals from each determination unit 1003 to 1005. In the embodiment, the character flag 1007, the halftone dot flag 1008, and the halftone dot in-character flag 1009 are generated. The character flag 1007 is a flag indicating whether or not the corresponding pixel in the scan data is a character pixel constituting the character area. The halftone dot flag 1008 is a flag indicating whether or not the corresponding pixel in the scan data is a halftone dot pixel constituting the halftone dot region. The halftone dot character flag 1009 is a flag indicating whether or not the corresponding pixel in the scan data is a halftone dot character pixel constituting the halftone dot character area. Based on these attribute flags, it is possible to perform optimum image processing according to the characteristics of the image included in the scanned image. Hereinafter, the character determination unit 1003, the halftone dot determination unit 1004, and the halftone dot character determination unit 1005 will be described in more detail.

A−3−1.文字判定部1003の説明
図3は、文字判定部1003の構成を示すブロック図である。
A-3-1. Explanation of Character Determination Unit 1003 FIG. 3 is a block diagram showing a configuration of the character determination unit 1003.

エッジ強調部1102には、輝度データ取得部1002からの判定信号(輝度値)が入力される。エッジ強調部1102は、該判定信号に対してエッジ強調処理を行ない、エッジ強調信号を出力する。このエッジ強調処理は、輝度画像データの所望の周波数成分を、強調・抽出するフィルタ処理が行われる。本実施例では、ラプラシアンフィルタなどの2次微分フィルタが用いられる。このために、エッジ強調部1102は、フィルタ処理に必要な、輝度画像データの複数個の画素の輝度値を示す複数個の判定信号を記憶するためのバッファメモリを備える。 A determination signal (luminance value) from the luminance data acquisition unit 1002 is input to the edge enhancement unit 1102. The edge enhancement unit 1102 performs edge enhancement processing on the determination signal and outputs an edge enhancement signal. In this edge enhancement process, a filter process is performed to emphasize / extract a desired frequency component of the luminance image data. In this embodiment, a second derivative filter such as a Laplacian filter is used. For this purpose, the edge enhancement unit 1102 includes a buffer memory for storing a plurality of determination signals indicating the luminance values of the plurality of pixels of the luminance image data, which are necessary for the filtering process.

エッジ強調部1102から出力されたエッジ強調信号は、エッジ強調信号によって示される値と、閾値と、の比較を行う閾値判定部1103、1104に入力される。閾値判定部1103には正の値の閾値が、閾値判定部1104には負の値の閾値が設定されている。 The edge enhancement signal output from the edge enhancement unit 1102 is input to the threshold value determination units 1103 and 1104 that compare the value indicated by the edge enhancement signal with the threshold value. A positive threshold value is set in the threshold value determination unit 1103, and a negative value threshold value is set in the threshold value determination unit 1104.

図4は、文字判定部の処理を説明するための図である。エッジ強調処理において2次微分フィルタを用いた場合、エッジ強調信号によって示される画素の値は、正の値である場合と、負の値である場合がある。図4(A)において、エッジ境界部1501は、下地1503(例えば白色)にある文字1502(例えば、黒色)と、下地1503と、のエッジを表している。図4(B)には、エッジ境界部1501の断面1510に対応する輝度画像データ(すなわち、判定信号)1504が示されている。この例では、文字1502の部分における輝度画像データの値(輝度値)は、比較的小さな値1505であり、下地1503の部分における輝度画像データの値は、比較的大きな値1506である。図4(C)には、図4(B)の輝度画像データ1504に対して、2次微分フィルタを用いエッジ強調処理を行って得られるエッジ抽出データ1507(すなわち、エッジ強調信号によって示されるデータ)が示されている。エッジ抽出データ1507は、文字1502側では正の値1508となり、下地1503側では負の値1509となる。閾値判定部1103は、エッジ強調信号によって示される値が、正の閾値を超えた場合に、「1」を示す内エッジ信号を出力し、正の閾値以下である場合に、「0」を示す内エッジ信号を出力する。「1」を示す内エッジ信号は、対応する画素が、輝度画像データにおいて、比較的小さな値から比較的大きな値へと変化するエッジを構成する小さな値側の画素(内エッジ画素)であることを示す。図4の例では、文字1502と下地1503とのエッジを構成する文字側の画素が、内エッジ画素である。閾値判定部1104は、エッジ強調信号によって示される値が、負の閾値を下回った場合に、「1」を示す外エッジ信号を出力し、負の閾値以上である場合に、「0」を示す外エッジ信号を出力する。「1」を示す外エッジ信号は、対応する画素が、輝度画像データにおいて、比較的小さな値から比較的大きな値へと変化するエッジを構成する大きな値側の画素(外エッジ画素とも呼ぶ)であることを示す。図4の例では、文字1502と下地1503とのエッジを構成する下地側の画素が、外エッジ画素である。 FIG. 4 is a diagram for explaining the processing of the character determination unit. When a second derivative filter is used in the edge enhancement process, the pixel value indicated by the edge enhancement signal may be a positive value or a negative value. In FIG. 4A, the edge boundary portion 1501 represents the edge of the character 1502 (for example, black) on the base 1503 (for example, white) and the base 1503. FIG. 4B shows the luminance image data (that is, the determination signal) 1504 corresponding to the cross section 1510 of the edge boundary portion 1501. In this example, the value (luminance value) of the luminance image data in the portion of the character 1502 is a relatively small value 1505, and the value of the luminance image data in the portion of the base 1503 is a relatively large value 1506. FIG. 4C shows edge extraction data 1507 (that is, data indicated by an edge enhancement signal) obtained by performing edge enhancement processing on the luminance image data 1504 of FIG. 4B using a second-order differential filter. )It is shown. The edge extraction data 1507 has a positive value 1508 on the character 1502 side and a negative value 1509 on the base 1503 side. The threshold value determination unit 1103 outputs an inner edge signal indicating "1" when the value indicated by the edge emphasis signal exceeds the positive threshold value, and indicates "0" when the value is equal to or less than the positive threshold value. Output the inner edge signal. The inner edge signal indicating "1" means that the corresponding pixel is a pixel on the small value side (inner edge pixel) constituting an edge that changes from a relatively small value to a relatively large value in the luminance image data. Is shown. In the example of FIG. 4, the pixel on the character side forming the edge between the character 1502 and the base 1503 is the inner edge pixel. The threshold value determination unit 1104 outputs an outer edge signal indicating "1" when the value indicated by the edge emphasis signal is below the negative threshold value, and indicates "0" when the value is equal to or greater than the negative threshold value. Output the outer edge signal. The outer edge signal indicating "1" is a pixel on the large value side (also referred to as an outer edge pixel) that constitutes an edge in which the corresponding pixel changes from a relatively small value to a relatively large value in the luminance image data. Indicates that there is. In the example of FIG. 4, the pixel on the base side forming the edge between the character 1502 and the base 1503 is the outer edge pixel.

閾値判定部1103から出力された内エッジ信号は、エリア積算部1105へ、閾値判定部1104から出力された外エッジ信号は、エリア積算部1106へ、それぞれ出力される。エリア積算部1105は、注目画素を中心とする縦3画素×横3画素の周辺範囲内の画素に対応する9個の内エッジ信号を積算した積算信号を、画素ごとに出力する。エリア積算部1106は、注目画素の上記周辺範囲内の画素に対応する9個の外エッジ信号を積算した積算信号を、画素ごとに出力する。したがって、エリア積算部1105、1106から出力される積算信号は、対応する画素の周辺範囲内に存在する内エッジ画素の個数、外エッジ画素の個数を、それぞれ示す。したがって、積算信号が示す値は0以上9以下の範囲となる。 The inner edge signal output from the threshold value determination unit 1103 is output to the area integration unit 1105, and the outer edge signal output from the threshold value determination unit 1104 is output to the area integration unit 1106. The area integration unit 1105 outputs an integration signal that integrates nine inner edge signals corresponding to pixels in the peripheral range of 3 vertical pixels × 3 horizontal pixels centered on the pixel of interest, for each pixel. The area integration unit 1106 outputs an integration signal obtained by integrating nine outer edge signals corresponding to the pixels in the peripheral range of the pixel of interest for each pixel. Therefore, the integrated signal output from the area integrating units 1105 and 1106 indicates the number of inner edge pixels and the number of outer edge pixels existing in the peripheral range of the corresponding pixels, respectively. Therefore, the value indicated by the integrated signal is in the range of 0 or more and 9 or less.

閾値判定部1107、1108は、エリア積算部1105および1106から出力される積算信号が示す値と、閾値と、を比較して、その結果を示す積算判定信号を出力する。例えば、閾値としてそれぞれ「2」という値が設定されている。このために、閾値判定部1107から出力される積算判定信号は、対応する画素の上記周辺範囲内に、内エッジ画素が2個以上ある場合に、肯定的な値(例えば、「1」)を示す。閾値判定部1108から出力される積算判定信号は、対応する画素の上記周辺範囲内に、外エッジ画素が2個以上ある場合に、肯定的な値(例えば、「1」)を示す。 The threshold value determination unit 1107, 1108 compares the value indicated by the integration signal output from the area integration units 1105 and 1106 with the threshold value, and outputs an integration determination signal indicating the result. For example, a value of "2" is set as the threshold value. Therefore, the integration determination signal output from the threshold value determination unit 1107 has a positive value (for example, "1") when there are two or more inner edge pixels within the peripheral range of the corresponding pixels. Shown. The integration determination signal output from the threshold value determination unit 1108 shows a positive value (for example, “1”) when there are two or more outer edge pixels within the peripheral range of the corresponding pixel.

処理の具体例を、図5を用いて説明する。図5は、文字判定部の各処理の信号を示す図である。図5(A)には、輝度画像データによって示される輝度画像内に現れる下地上の文字のエッジの一部1301が示されている。 A specific example of the process will be described with reference to FIG. FIG. 5 is a diagram showing signals of each process of the character determination unit. FIG. 5A shows a part 1301 of the edge of the character on the background that appears in the luminance image indicated by the luminance image data.

図5(B)は、判定信号(すなわち、輝度値を示す信号)をエッジ強調部1102によってエッジ強調し、閾値判定部1104によって処理した結果、すなわち、外エッジ画素の特定結果を示している。図示のように、領域1302は、文字のエッジの外側の領域(外エッジ領域)を表わしている。 FIG. 5B shows the result of edge-enhancing the determination signal (that is, the signal indicating the luminance value) by the edge enhancement unit 1102 and processing by the threshold value determination unit 1104, that is, the specific result of the outer edge pixel. As shown, the region 1302 represents a region (outer edge region) outside the edge of the character.

図5(C)は、閾値判定部1104からの外エッジ信号をエリア積算部1106によって処理し、エリア積算部1106からの積算信号を閾値判定部1108によって処理した結果、すなわち、外エッジのエリア積算の判定結果を示している。図示のように、領域1304は、外エッジ領域1302の拡張した結果となる。 FIG. 5C shows the result of processing the outer edge signal from the threshold value determination unit 1104 by the area integration unit 1106 and processing the integration signal from the area integration unit 1106 by the threshold value determination unit 1108, that is, the area integration of the outer edge. The judgment result of is shown. As shown, region 1304 is the result of expansion of outer edge region 1302.

図5(D)は、判定信号(すなわち、最小成分値Vminを示す信号)をエッジ強調部1102によってエッジ強調し、閾値判定部1103によって処理した結果、すなわち、内エッジ画素の特定結果を示している。図示のように、領域1303は、文字のエッジの内側の領域(内エッジ領域)を表わしている。 FIG. 5D shows the result of edge-enhancing the determination signal (that is, the signal indicating the minimum component value Vmin) by the edge enhancement unit 1102 and processing by the threshold value determination unit 1103, that is, the specific result of the inner edge pixel. There is. As shown, the area 1303 represents an area inside the edge of the character (inner edge area).

図5(E)は、閾値判定部1103からの内エッジ信号をエリア積算部1105によって処理し、エリア積算部1105からの積算信号を閾値判定部1107によって処理した結果、すなわち、内エッジのエリア積算の判定結果を示している。図示のように、領域1305は、内エッジ領域1303の拡張した結果となる。 FIG. 5 (E) shows the result of processing the inner edge signal from the threshold value determination unit 1103 by the area integration unit 1105 and processing the integration signal from the area integration unit 1105 by the threshold value determination unit 1107, that is, the area integration of the inner edge. The judgment result of is shown. As shown, the region 1305 is the result of the expansion of the inner edge region 1303.

総合判定部1109には、閾値判定部1103、1107、1108から出力される3種類の信号、すなわち、内エッジ信号と、内エッジの積算判定信号と、外エッジの積算判定信号と、が入力される。総合判定部1109は、文字判定部1003の判定結果を示す結果信号である文字判定信号1110を生成する。図5(F)には、文字判定信号によって文字である示される領域1306が示されている。 Three types of signals output from the threshold value determination units 1103, 1107, and 1108, that is, an inner edge signal, an inner edge integration determination signal, and an outer edge integration determination signal, are input to the comprehensive determination unit 1109. To. The comprehensive determination unit 1109 generates the character determination signal 1110, which is a result signal indicating the determination result of the character determination unit 1003. FIG. 5F shows a region 1306 indicated as a character by a character determination signal.

総合判定部1109は、内エッジ信号と、内エッジの積算判定信号と、外エッジの積算判定信号と、に基づいて、決められた論理に従って文字判定信号1110を出力する。例えば、文字判定信号1110は、以下のような論理で、文字であることを示す信号(本実施例では「1」)、または、文字でないことを示す信号(本実施例では「0」)に決定される。
(1)対応する画素が内エッジである。→「1」
(2)対応する画素が外エッジであり、かつ、上記縦3画素×縦3画素の周辺範囲に外エッジが2個以上ある。→「0」
(3)上記(1)、(2)のいずれにも該当せず、かつ、上記縦3画素×縦3画素の周辺範囲に内エッジが2個以上ある。→「1」
(4)上記(1)〜(3)のいずれにも該当しない。→「0」
上記を実現するためには、総合判定部1109は、図6に示すテーブルを保持している。図示の如く、入力される内エッジ信号、内エッジの積算判定信号、外エッジの積算判定信号の結果に応じて、文字判定信号1110が決定される。以上のように行うことで、文字を好適に抽出することができる。
The comprehensive determination unit 1109 outputs the character determination signal 1110 according to a determined logic based on the inner edge signal, the inner edge integration determination signal, and the outer edge integration determination signal. For example, the character determination signal 1110 can be a signal indicating that it is a character (“1” in this embodiment) or a signal indicating that it is not a character (“0” in this embodiment) with the following logic. It is determined.
(1) The corresponding pixel is the inner edge. → "1"
(2) The corresponding pixel is an outer edge, and there are two or more outer edges in the peripheral range of the vertical 3 pixels × vertical 3 pixels. → "0"
(3) It does not correspond to any of the above (1) and (2), and there are two or more inner edges in the peripheral range of the above 3 vertical pixels × 3 vertical pixels. → "1"
(4) It does not correspond to any of the above (1) to (3). → "0"
In order to realize the above, the comprehensive determination unit 1109 holds the table shown in FIG. As shown in the figure, the character determination signal 1110 is determined according to the results of the input inner edge signal, inner edge integration determination signal, and outer edge integration determination signal. By performing as described above, characters can be suitably extracted.

A−3−2.網点判定部1004の説明
図7は、実施形態における網点判定部1004のブロック構成図である。
A-3-2. Explanation of Halftone Halftone Halftone Point Determination Unit 1004 FIG. 7 is a block configuration diagram of the halftone dot determination unit 1004 in the embodiment.

エッジ強調部1202には、輝度データ取得部1002からの判定信号(輝度値)が入力される。エッジ強調部1202は、判定信号に対してエッジ強調処理を行ない、エッジ強調信号を出力する。エッジ強調部1202によるエッジ強調処理は、図3のエッジ強調部1102によるエッジ強調処理と同様の処理であり、例えば、ラプラシアンフィルタなどの2次微分フィルタを用いたフィルタ処理である。 A determination signal (luminance value) from the luminance data acquisition unit 1002 is input to the edge enhancement unit 1202. The edge enhancement unit 1202 performs edge enhancement processing on the determination signal and outputs the edge enhancement signal. The edge enhancement process by the edge enhancement unit 1202 is the same process as the edge enhancement process by the edge enhancement unit 1102 in FIG. 3, and is, for example, a filter process using a second derivative filter such as a Laplacian filter.

エッジ強調部1202から出力されたエッジ強調信号は、エッジ強調信号によって示される値と、閾値と、の比較を行う閾値判定部1203、1204に入力される。閾値判定部1203には正の値の閾値が、閾値判定部1204には負の値の閾値が設定されている。 The edge enhancement signal output from the edge enhancement unit 1202 is input to the threshold value determination units 1203 and 1204 that compare the value indicated by the edge enhancement signal with the threshold value. A positive threshold value is set in the threshold value determination unit 1203, and a negative value threshold value is set in the threshold value determination unit 1204.

図8は、網点判定部の処理を説明するための図である。エッジ強調処理において2次微分フィルタを用いた場合、上述したように、エッジ強調信号によって示される画素の値は、正の値である場合と、負の値である場合がある。図8(A)において、エッジ境界部1601は、下地1603(例えば、白色)にある1個の網点1602と、下地1603と、のエッジを表している。図8(B)には、網点エッジ境界部1601の断面1610に対する輝度画像データ(すなわち、判定信号)1604が示されている。この例では、網点1602の部分における輝度画像データの値(輝度値)は、比較的小さな値1605であり、下地1603の部分における輝度画像データの値は、比較的大きな値1606である。図8(C)には、図8(B)の輝度画像データ1604に対して、2次微分フィルタを用いエッジ強調処理を行って得られるエッジ抽出データ1607が示されている。エッジ抽出データ1607は、網点1602側では正の値1608となり、下地1603側では負の値1609となる。閾値判定部1203は、図3の閾値判定部1103と同様に、内エッジ信号を出力する。閾値判定部1204は、図3の閾値判定部1104と同様に、外エッジ信号を出力する。図6の例では、網点1602と下地1603とのエッジを構成する網点側の画素が、内エッジ画素である。また、網点1602と下地1603とのエッジを構成する下地側の画素が、外エッジ画素である。 FIG. 8 is a diagram for explaining the processing of the halftone dot determination unit. When a second-order differential filter is used in the edge enhancement process, the pixel value indicated by the edge enhancement signal may be a positive value or a negative value, as described above. In FIG. 8A, the edge boundary portion 1601 represents the edge of one halftone dot 1602 on the base 1603 (for example, white) and the base 1603. FIG. 8B shows the luminance image data (that is, the determination signal) 1604 with respect to the cross section 1610 of the halftone dot edge boundary portion 1601. In this example, the luminance image data value (luminance value) at the halftone dot 1602 portion is a relatively small value 1605, and the luminance image data value at the base 1603 portion is a relatively large value 1606. FIG. 8C shows edge extraction data 1607 obtained by performing edge enhancement processing on the luminance image data 1604 of FIG. 8B using a second-order differential filter. The edge extraction data 1607 has a positive value 1608 on the halftone dot 1602 side and a negative value 1609 on the base 1603 side. The threshold value determination unit 1203 outputs an inner edge signal in the same manner as the threshold value determination unit 1103 of FIG. The threshold value determination unit 1204 outputs an outer edge signal in the same manner as the threshold value determination unit 1104 of FIG. In the example of FIG. 6, the halftone dot side pixels forming the edge between the halftone dot 1602 and the base 1603 are the inner edge pixels. Further, the pixels on the base side forming the edge between the halftone dots 1602 and the base 1603 are outer edge pixels.

閾値判定部1203から出力される内エッジ信号は、孤立量判定部1205に入力される。閾値判定部1204から出力される外エッジ信号は、孤立量判定部1206に入力される。 The inner edge signal output from the threshold value determination unit 1203 is input to the isolation amount determination unit 1205. The outer edge signal output from the threshold value determination unit 1204 is input to the isolation amount determination unit 1206.

孤立量判定部1205は、閾値判定部1203からの内エッジ信号についてパターンマッチング処理を行う。原稿に含まれる網点には、比較的単位面積当たりの線数が少ないものから比較的単位面積あたりの線数が多いものまであるため、原稿によって網点のサイズや間隔は異なる。そのため、どのような線数の網点でも検出できるように、パターンマッチングは複数のパターンにて行う。少線数の網点に対しては、比較的大きなパターンにてマッチングを行い、網点かどうかを判定する。多線数の網点に対しては、比較的小さなパターンにてマッチングを行い、網点かどうかを判定する。また、網点は、原稿上で表現すべき濃度によっても形状が変化するので、それに対応できるよう、マッチングの際に、複数の判定レベルを用いる。 The isolation amount determination unit 1205 performs pattern matching processing on the inner edge signal from the threshold value determination unit 1203. Since the halftone dots included in the manuscript range from those having a relatively small number of lines per unit area to those having a relatively large number of lines per unit area, the size and spacing of the halftone dots differ depending on the manuscript. Therefore, pattern matching is performed with a plurality of patterns so that halftone dots of any number of lines can be detected. For halftone dots with a small number of lines, matching is performed with a relatively large pattern to determine whether or not the dots are halftone dots. For halftone dots with a large number of lines, matching is performed with a relatively small pattern to determine whether or not the dots are halftone dots. In addition, since the shape of halftone dots changes depending on the density to be expressed on the document, a plurality of judgment levels are used at the time of matching so as to cope with it.

図9は、パターンマッチングの一例を示す第1の図である。図9(A)は、閾値判定部1203の結果の例である。図9(A)には、縦4画素×横4画素の範囲でパターンマッチングする例を説明するため、当該範囲内の内エッジ信号1700を示している。その中で、閾値判定部1203で、「1」を示す内エッジ信号が出力された画素(内エッジ画素)が、ハッチングされた領域1702の4画素である。「0」を示す内エッジ信号が出力された画素(非内エッジ画素)は、ハッチングされていない領域1703の画素である。マッチングの対象となる注目画素は画素1701である。 FIG. 9 is a first diagram showing an example of pattern matching. FIG. 9A is an example of the result of the threshold value determination unit 1203. FIG. 9A shows an inner edge signal 1700 in the range of 4 vertical pixels × 4 horizontal pixels in order to explain an example of pattern matching. Among them, the pixels (inner edge pixels) to which the inner edge signal indicating "1" is output by the threshold value determination unit 1203 are the four pixels of the hatched region 1702. The pixel (non-inner edge pixel) to which the inner edge signal indicating "0" is output is a pixel in the unhatched area 1703. The pixel of interest to be matched is pixel 1701.

次に、同サイズの判定パターンの一例を図9(B)に示す。図示の判定パターン1710において、4個の黒画素1712は、該パターンにおいて、内エッジ画素であるべき画素である。8個の白画素1713は、非内エッジ画素であるべき画素である。4隅の画素は、内エッジ画素でも非内エッジ画素でも構わない任意画素1714である。これを基本パターンとして、黒画素1712と白画素1713のそれぞれに、複数の一致レベルを持たせて、判定レベルを調整する。 Next, an example of the determination pattern of the same size is shown in FIG. 9B. In the illustrated determination pattern 1710, the four black pixels 1712 are pixels that should be inner edge pixels in the pattern. The eight white pixels 1713 are pixels that should be non-inner edge pixels. The pixels at the four corners are arbitrary pixels 1714 which may be inner edge pixels or non-inner edge pixels. Using this as a basic pattern, the black pixel 1712 and the white pixel 1713 are each provided with a plurality of matching levels, and the determination level is adjusted.

図10は、内エッジ信号と、図9(B)の判定パターン1710と、マッチングの結果の一例を示す図である。 FIG. 10 is a diagram showing an example of the matching result of the inner edge signal, the determination pattern 1710 of FIG. 9B.

判定パターン1710における黒画素1712と、内エッジ信号における内エッジ画素と、が、4画素のうちk1画素(k1は、1以上3以下の整数)以上一致した場合は、黒画素判定を有効とする。判定パターン1710における白画素1713と、内エッジ信号における非エッジ画素と、が8画素のうちk2画素以上(k2は、1以上7以下の整数)一致した場合は、白画素判定を有効とする。黒画素判定と白画素判定との両方が有効である場合に限って、注目画素1801の判定結果を示す孤立量判定信号を、「1」とする。k1とk2の値を調整することで、判定レベルを任意に調整できる。本実施例では、k1=3、k2=6とする。 When the black pixel 1712 in the determination pattern 1710 and the inner edge pixel in the inner edge signal match k1 pixel (k1 is an integer of 1 or more and 3 or less) or more of the four pixels, the black pixel determination is valid. .. When the white pixel 1713 in the determination pattern 1710 and the non-edge pixel in the inner edge signal match k2 pixels or more (k2 is an integer of 1 or more and 7 or less) out of 8 pixels, the white pixel determination is valid. Only when both the black pixel determination and the white pixel determination are valid, the isolated amount determination signal indicating the determination result of the attention pixel 1801 is set to "1". The determination level can be arbitrarily adjusted by adjusting the values of k1 and k2. In this embodiment, k1 = 3 and k2 = 6.

図10(A)の内エッジ信号1810の場合、黒画素判定は有効(一致数=4)であり、かつ、白画素判定は有効(一致数=8)であるので、孤立量判定信号は「1」となる。 In the case of the inner edge signal 1810 of FIG. 10A, the black pixel determination is valid (match number = 4) and the white pixel determination is valid (match number = 8), so that the isolation amount determination signal is ". 1 ”.

図10(B)の内エッジ信号1820の場合、黒画素判定は有効(一致数=4)であり、かつ、白画素判定は有効(一致数=7)であるので、孤立量判定信号は「1」となる。 In the case of the inner edge signal 1820 of FIG. 10B, the black pixel determination is valid (match number = 4) and the white pixel determination is valid (match number = 7), so that the isolation amount determination signal is “ 1 ”.

図10(C)の内エッジ信号1830の場合、黒画素判定は有効(一致数=3)であり、かつ、白画素判定は有効(一致数=8)であるので、孤立量判定信号は「1」となる。 In the case of the inner edge signal 1830 of FIG. 10C, the black pixel determination is valid (match number = 3) and the white pixel determination is valid (match number = 8), so that the isolation amount determination signal is ". 1 ”.

図10(D)の内エッジ信号1840の場合、黒画素判定は無効(一致数=2)であり、かつ、白画素判定は有効(一致数=8)であるので、孤立量判定信号は「0」となる。 In the case of the inner edge signal 1840 of FIG. 10D, the black pixel determination is invalid (match number = 2) and the white pixel determination is valid (match number = 8), so that the isolation amount determination signal is ". It becomes "0".

このようなパターンマッチングを複数のサイズの判定パターンを用いて行う。実施例では、内エッジ信号について説明したが、外エッジ信号についても同様のパターンマッチングを行う。その際、判定パターンや判定レベルの調整値は任意に設定できる。 Such pattern matching is performed using determination patterns of a plurality of sizes. In the embodiment, the inner edge signal has been described, but the same pattern matching is performed for the outer edge signal. At that time, the determination pattern and the adjustment value of the determination level can be arbitrarily set.

さて、孤立量判定部1205、1206から出力される孤立量判定信号は、図7のOR処理部1207に入力される。OR処理部1207では、縦3画素×横3画素の範囲内で孤立量判定信号の論理和をとり、該範囲内に孤立量判定信号が「1」である画素があるか否かを判定する。OR処理部1207は、判定の結果、孤立量判定信号が「1」である画素が、該範囲内に1個以上あれば、判定対象の注目画素のOR処理信号を「1」とし、孤立量判定信号が「1」である画素が、該範囲内に1個もなければ、判定対象の注目画素のOR処理信号を「0」とする。 By the way, the isolation amount determination signal output from the isolation amount determination units 1205 and 1206 is input to the OR processing unit 1207 of FIG. 7. The OR processing unit 1207 takes the logical sum of the isolation amount determination signals within the range of 3 vertical pixels × 3 horizontal pixels, and determines whether or not there is a pixel whose isolation amount determination signal is “1” in the range. .. As a result of the determination, the OR processing unit 1207 sets the OR processing signal of the pixel of interest to be determined to be "1" if there is one or more pixels in the range in which the isolation amount determination signal is "1", and the isolation amount. If there is no pixel in the range in which the determination signal is "1", the OR processing signal of the pixel of interest to be determined is set to "0".

図11は、OR処理部1207による処理の説明図である。図11(A)の例では、縦3画素×横3画素の範囲のうち、中心の注目画素の孤立量判定信号だけが「1」である。従って、出力されるOR処理信号は、「1」である。図11(B)の例では、中心の注目画素の孤立量判定信号は「0」であるが、縦3画素×横3画素の範囲内の右上の画素の孤立量判定信号は、「1」である。従って、出力されるOR処理信号は、「1」である。図11(C)の例では、中心の注目画素の孤立量判定信号は「0」であるが、その周囲の8個の画素の孤立量判定信号は、「1」である。従って、出力されるOR処理信号は、「1」である。 FIG. 11 is an explanatory diagram of processing by the OR processing unit 1207. In the example of FIG. 11A, only the isolation amount determination signal of the central attention pixel in the range of 3 vertical pixels × 3 horizontal pixels is “1”. Therefore, the output OR processing signal is "1". In the example of FIG. 11B, the isolation amount determination signal of the central attention pixel is "0", but the isolation amount determination signal of the upper right pixel within the range of 3 vertical pixels x 3 horizontal pixels is "1". Is. Therefore, the output OR processing signal is "1". In the example of FIG. 11C, the isolation amount determination signal of the central pixel of interest is “0”, but the isolation amount determination signal of the eight pixels around it is “1”. Therefore, the output OR processing signal is "1".

OR処理部1207から出力されるOR処理信号は、積算処理部1209に入力される。図12は、積算処理部1209と、閾値判定部1211と、の構成を示すブロック図である。 The OR processing signal output from the OR processing unit 1207 is input to the integration processing unit 1209. FIG. 12 is a block diagram showing the configuration of the integration processing unit 1209 and the threshold value determination unit 1211.

積算処理部1209は、注目画素を中心とする複数種類のサイズの積算範囲内の画素に対応する複数個のOR処理信号を積算した積算信号を、画素ごとに出力する。積算処理部1209は、OR処理信号の信号を複数の積算範囲を用いて積算する。例えば、第1積算部2011は、積算範囲として、縦9画素×横9画素の範囲を用いる。したがって、第1積算部2011から出力される積算判定信号は、0以上81以下の範囲となる。第2積算部2012、第3積算部2013は、積算範囲として、それぞれ、縦15画素×横15画素の範囲、縦21画素×横21画素の範囲を用いる。したがって、第2積算部2012、第3積算部2013から出力される積算信号は、それぞれ、0以上225以下の範囲、0以上441以下の範囲となる。第1積算部2011、第2積算部2012、第3積算部2013から出力される積算信号は、それぞれ、閾値判定部1211の第1判定部2021、第2判定部2022、第3判定部2023に、入力される。 The integration processing unit 1209 outputs an integration signal obtained by integrating a plurality of OR processing signals corresponding to pixels within the integration range of a plurality of types of sizes centered on the pixel of interest for each pixel. The integration processing unit 1209 integrates the OR processing signal signal using a plurality of integration ranges. For example, the first integration unit 2011 uses a range of 9 vertical pixels × 9 horizontal pixels as the integration range. Therefore, the integration determination signal output from the first integration unit 2011 is in the range of 0 or more and 81 or less. The second integration unit 2012 and the third integration unit 2013 use a range of vertical 15 pixels × horizontal 15 pixels and a range of vertical 21 pixels × horizontal 21 pixels, respectively, as the integration range. Therefore, the integrated signals output from the second integrating unit 2012 and the third integrating unit 2013 are in the range of 0 or more and 225 or less and 0 or more and 441 or less, respectively. The integrated signals output from the first integrating unit 2011, the second integrating unit 2012, and the third integrating unit 2013 are sent to the first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 of the threshold value determination unit 1211, respectively. , Is entered.

第1判定部2021、第2判定部2022、第3判定部2023は、それぞれに入力される積算信号が示す値と、閾値と、を比較して、その結果を示す積算判定信号を出力する。を行う。具体的には、第1判定部2021、第2判定部2022、第3判定部2023から出力される積算判定信号は、積算信号が示す値が、設定された閾値以上である場合には、「1」とされ、該閾値未満である場合には、「0」とされる。第1判定部2021、第2判定部2022、第3判定部2023で用いられる閾値は、互いに異なる値であり、本実施例では、それぞれ、「5」、「12」、「23」に設定されている。これによって、各判定部2021、2022、2023は、積算信号が示す値が、積算範囲内の画素数の約5%を超える場合に、「1」を示す積算判定信号を出力し、積算信号が示す値が、積算範囲内の画素数の約5%以下である場合に、「0」を示す積算判定信号を出力する。 The first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 compare the value indicated by the integration signal input to each with the threshold value, and output an integration determination signal indicating the result. I do. Specifically, when the value indicated by the integration signal is equal to or greater than the set threshold value, the integration determination signal output from the first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 is ". It is set to "1", and if it is less than the threshold value, it is set to "0". The threshold values used in the first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 are different values from each other, and are set to "5", "12", and "23", respectively, in this embodiment. ing. As a result, each determination unit 2021, 2022, 2023 outputs an integration determination signal indicating "1" when the value indicated by the integration signal exceeds about 5% of the number of pixels in the integration range, and the integration signal is generated. When the indicated value is about 5% or less of the number of pixels in the integration range, an integration determination signal indicating "0" is output.

第1判定部2021、第2判定部2022、第3判定部2023から出力される積算判定信号は、総合判定部1213(図7、図12)に入力される。総合判定部1213は、入力される3個の積算判定信号に基づいて、網点判定部1004の判定結果を示す結果信号である網点判定信号1215を生成する。網点判定信号1215は、注目画素が網点画素であることを示す値「1」と、注目画素が網点画素でないことを示す値「0」と、のいずれかである。 The integrated determination signals output from the first determination unit 2021, the second determination unit 2022, and the third determination unit 2023 are input to the comprehensive determination unit 1213 (FIGS. 7 and 12). The comprehensive determination unit 1213 generates a halftone dot determination signal 1215, which is a result signal indicating the determination result of the halftone dot determination unit 1004, based on the three input integration determination signals. The halftone dot determination signal 1215 is either a value "1" indicating that the pixel of interest is a halftone dot pixel or a value "0" indicating that the pixel of interest is not a halftone dot pixel.

図13〜図15は、閾値判定部1211と、総合判定部1213と、の処理の一例を示す図である。図13(A)には、OR処理部1207によって出力されるOR処理信号2100が概念的に図示されている。このOR処理信号2100は、比較的低い濃度を示す網点を含む領域を処理した場合の例である。クロスハッチングされた画素は、対応するOR処理信号が「1」である画素を示し、クロスハッチングされていない画素は、対応するOR処理信号が「0」である画素を示す。図には、注目画素2101を中心とした、縦9画素×横9画素の積算範囲2102と、縦15画素×横15画素の積算範囲2103と、縦21画素×横21画素の積算範囲2104と、がそれぞれ示されている。それぞれの積算範囲での積算結果、すなわち、第1積算部2011、第2積算部2012、第3積算部2013から出力される積算信号の値が、図13(B)に示されている。第1積算部2011(9×9)の積算結果は、12画素であり、第2積算部2012(15×15)の積算結果は、40画素であり、第3積算部2013の積算結果は、76画素である。 13 to 15 are diagrams showing an example of processing of the threshold value determination unit 1211 and the comprehensive determination unit 1213. FIG. 13A conceptually illustrates the OR processing signal 2100 output by the OR processing unit 1207. The OR processing signal 2100 is an example in which a region including halftone dots showing a relatively low density is processed. The cross-hatched pixel indicates a pixel whose corresponding OR processing signal is "1", and the non-cross-hatched pixel indicates a pixel whose corresponding OR processing signal is "0". In the figure, the integration range 2102 of 9 pixels vertically × 9 pixels horizontally, the integration range 2103 of 15 pixels vertically × 15 pixels horizontally, and the integration range 2104 of 21 pixels vertically × 21 pixels horizontally, centered on the pixel of interest 2101. , Are shown respectively. The integration results in each integration range, that is, the values of the integration signals output from the first integration unit 2011, the second integration unit 2012, and the third integration unit 2013 are shown in FIG. 13 (B). The integration result of the first integration unit 2011 (9 × 9) is 12 pixels, the integration result of the second integration unit 2012 (15 × 15) is 40 pixels, and the integration result of the third integration unit 2013 is. It has 76 pixels.

したがって、図13(B)に示すように、第1積算部2011(9×9)の積算結果の「12」は閾値「5」以上であるので、第1判定部2021(9×9)が出力する積算判定信号は、「1」(網点)になる。同様に、第2積算部2012(15×15)の積算結果の「40」も閾値「12」以上であり、第3積算部2013(21×21)の積算結果の「76」も閾値「23」以上であるので、対応する第2判定部2022、第3判定部2023が出力する積算判定信号は、両方とも「1」になる。 Therefore, as shown in FIG. 13B, the integration result “12” of the first integration unit 2011 (9 × 9) is equal to or higher than the threshold value “5”, so that the first determination unit 2021 (9 × 9) The integrated determination signal to be output is "1" (halftone dot). Similarly, the integration result “40” of the second integration unit 2012 (15 × 15) is also the threshold value “12” or more, and the integration result “76” of the third integration unit 2013 (21 × 21) is also the threshold value “23”. Therefore, the integration determination signals output by the corresponding second determination unit 2022 and third determination unit 2023 are both “1”.

総合判定部1213は、上記3種類の結果を元に、注目画素が最終的に網点かどうかを判定し、該判定結果を示す網点判定信号1215を生成する。本実施例では、総合判定部1213は、図13(C)に示すように、3種類の結果から二組のペアを作る。例えば、第1判定部2021と第2判定部2022との積算判定信号で第1のペアを作り、第2判定部2022と第3判定部2023との積算判定信号で第2のペアを作る。総合判定部1213は、それぞれの組の積算判定信号の論理積(AND)を算出する。第1のペアの論理積は、「1」(網点)であり、第2のペアの論理積も「1」(網点)である。総合判定部1213は、さらに、第1のペアの論理積と、第2のペアの論理積と、の論理和を、網点判定信号1215として生成する。図13の例では、いずれの論理積も「1」であるので、注目画素の網点判定信号1215は、「1」(網点)になる。 Based on the above three types of results, the comprehensive determination unit 1213 finally determines whether or not the pixel of interest is a halftone dot, and generates a halftone dot determination signal 1215 indicating the determination result. In this embodiment, the comprehensive determination unit 1213 makes two pairs from the three types of results, as shown in FIG. 13 (C). For example, the integration determination signal of the first determination unit 2021 and the second determination unit 2022 makes a first pair, and the integration determination signal of the second determination unit 2022 and the third determination unit 2023 makes a second pair. The comprehensive determination unit 1213 calculates the logical product (AND) of each set of integration determination signals. The logical product of the first pair is "1" (halftone dots), and the logical product of the second pair is also "1" (halftone dots). The comprehensive determination unit 1213 further generates the logical sum of the logical product of the first pair and the logical product of the second pair as the halftone dot determination signal 1215. In the example of FIG. 13, since each logical product is “1”, the halftone dot determination signal 1215 of the pixel of interest becomes “1” (halftone dot).

図14(A)には、図13と同程度の濃度を示す網点を含み、かつ、文字のエッジ2205を含む領域に対応するOR処理信号2200が概念的に図示されている。図示のように、文字のエッジ2205がある場合は、該エッジ近傍には、孤立したドットが発生しないため、文字エッジ近傍のOR処理信号は「0」になる。この場合には、図14(B)に示すように、第1積算部2011(9×9)の積算結果は、4画素であり、第2積算部2012(15×15)の積算結果は、32画素であり、第3積算部2013の積算結果は、60画素である。 FIG. 14 (A) conceptually illustrates an OR processing signal 2200 that includes halftone dots showing the same density as that of FIG. 13 and corresponds to a region including a character edge 2205. As shown in the figure, when there is a character edge 2205, an isolated dot is not generated in the vicinity of the edge, so that the OR processing signal in the vicinity of the character edge becomes “0”. In this case, as shown in FIG. 14B, the integration result of the first integration unit 2011 (9 × 9) is 4 pixels, and the integration result of the second integration unit 2012 (15 × 15) is. It has 32 pixels, and the integration result of the third integration unit 2013 is 60 pixels.

したがって、図14(B)に示すように、第1積算部2011(9×9)の積算結果の「4」は閾値「5」未満であるので、第1判定部2021(9×9)が出力する積算判定信号は、「0」(非網点)になる。第2積算部2012(15×15)の積算結果の「32」は閾値「12」以上であり、第3積算部2013(21×21)の積算結果の「60」も、閾値「23」以上であるので、対応する第2判定部2022、第3判定部2023が出力する積算判定信号は、両方とも「1」(網点)になる。 Therefore, as shown in FIG. 14B, the integration result “4” of the first integration unit 2011 (9 × 9) is less than the threshold value “5”, so that the first determination unit 2021 (9 × 9) The integrated determination signal to be output is "0" (non-halftone dot). The integration result "32" of the second integration unit 2012 (15 × 15) is the threshold value “12” or more, and the integration result “60” of the third integration unit 2013 (21 × 21) is also the threshold value “23” or more. Therefore, the integration determination signals output by the corresponding second determination unit 2022 and third determination unit 2023 are both "1" (halftone dots).

図14(C)に示すように、第1のペアの論理積は、「0」(非網点)であり、第2のペアの論理積は「1」(網点)である。第1のペアの論理積と、第2のペアの論理積と、の論理和は、すなわち、注目画素の網点判定信号1215は、「1」(網点)になる。このように、文字のエッジを含むために、1つの積算範囲の積算結果が、非網点を示しても、最終的には、網点と判定される。このように、複数の積算範囲と、複数個の閾値を用いることで、網点として適切に検出できる。 As shown in FIG. 14C, the logical product of the first pair is "0" (non-halftone dots), and the logical product of the second pair is "1" (halftone dots). The logical sum of the logical product of the first pair and the logical product of the second pair is, that is, the halftone dot determination signal 1215 of the pixel of interest becomes "1" (halftone dot). As described above, since the edge of the character is included, even if the integration result of one integration range indicates a non-halftone dot, it is finally determined to be a halftone dot. In this way, by using a plurality of integration ranges and a plurality of threshold values, it can be appropriately detected as halftone dots.

図15(A)には、図13(A)と同程度の濃度を示す網点を含む領域の縁の外側に注目画素がある場合のOR処理信号2300が概念的に図示されている。この場合には、図15(B)に示すように、第1積算部2011(9×9)の積算結果は、0画素であり、第2積算部2012(15×15)の積算結果は、12画素であり、第3積算部2013の積算結果は、20画素である。 FIG. 15A conceptually illustrates the OR processing signal 2300 when the pixel of interest is outside the edge of the region including the halftone dots showing the same density as that of FIG. 13A. In this case, as shown in FIG. 15B, the integration result of the first integration unit 2011 (9 × 9) is 0 pixels, and the integration result of the second integration unit 2012 (15 × 15) is. There are 12 pixels, and the integration result of the third integration unit 2013 is 20 pixels.

したがって、図15(B)に示すように、第1積算部2011(9×9)の積算結果の「0」は閾値「5」未満であるので、第1判定部2021(9×9)が出力する積算判定信号は、「0」(非網点)になる。第2積算部2012(15×15)の積算結果の「12」は閾値「12」以上であるので、第2判定部2022(15×15)が出力する積算判定信号は、「1」(網点)になる。第3積算部2013(21×21)の積算結果の「20」は閾値「23」未満であるので、第3判定部2023(21×21)が出力する積算判定信号は、「0」(非網点)になる。 Therefore, as shown in FIG. 15B, the “0” of the integration result of the first integration unit 2011 (9 × 9) is less than the threshold value “5”, so that the first determination unit 2021 (9 × 9) The integrated determination signal to be output is "0" (non-halftone dot). Since the integration result “12” of the second integration unit 2012 (15 × 15) is equal to or greater than the threshold value “12”, the integration determination signal output by the second determination unit 2022 (15 × 15) is “1” (net). Point). Since the integration result “20” of the third integration unit 2013 (21 × 21) is less than the threshold value “23”, the integration determination signal output by the third determination unit 2023 (21 × 21) is “0” (non-). It becomes a halftone dot).

図15(C)に示すように、第1のペアの論理積は、「0」(非網点)であり、第2のペアの論理積も「0」(非網点)である。第1のペアの論理積と、第2のペアの論理積と、の論理和は、すなわち、注目画素の網点判定信号1215は、「0」(非網点)になる。図14の例のように、積算範囲に含まれる網点領域内に文字のエッジが含まれる場合、文字のエッジに重なる位置の網点が文字のエッジによって除かれるので、積算範囲内の網点の総数が少なくなる。ここで、積算範囲を拡張すると、積算範囲に含まれる網点の総数が多くなるので、網点の総数に対する文字のエッジによって除かれる網点の数の割合が小さくなる。この結果、網点領域内の画素を網点として適切に判定できる。しかし、積算範囲を拡張すると、網点を含む領域の縁から外側に遠く離れた画素も、網点であると判定され得るので、網点と判断される領域が拡張され得る。本実施例では、複数の積算範囲と、複数個の閾値を用いることで、網点の縁の外側の画素を、非網点として適切に検出できる。 As shown in FIG. 15C, the logical product of the first pair is "0" (non-halftone dots), and the logical product of the second pair is also "0" (non-halftone dots). The logical sum of the logical product of the first pair and the logical product of the second pair, that is, the halftone dot determination signal 1215 of the pixel of interest is "0" (non-halftone dot). When a character edge is included in the halftone dot area included in the integration range as in the example of FIG. 14, the halftone dot at the position overlapping the character edge is removed by the character edge, so that the halftone dot in the integration range is excluded. The total number of Here, when the integration range is expanded, the total number of halftone dots included in the integration range increases, so that the ratio of the number of halftone dots excluded by the character edge to the total number of halftone dots decreases. As a result, the pixels in the halftone dot region can be appropriately determined as halftone dots. However, when the integration range is expanded, pixels far outward from the edge of the region including the halftone dots can also be determined to be halftone dots, so that the region determined to be halftone dots can be expanded. In this embodiment, by using a plurality of integration ranges and a plurality of threshold values, pixels outside the edge of halftone dots can be appropriately detected as non-halftone dots.

ここで説明した積算処理の組み合わせは一例に過ぎず、これに限るものではない。目的に応じて自由に組み合わせを構成できる。また、説明では3種類の積算処理の結果を用いたため二組の論理積を用いたが、これに限るものではない。入力数とその論理演算部は自由に構成できるものである。さらに、論理積と論理輪の組み合わせも一例に過ぎず、これに限るものではない。論理積や論理和を自由に組み合わせることができる。 The combination of integration processing described here is only an example, and is not limited to this. The combination can be freely configured according to the purpose. Further, in the explanation, since the results of three types of integration processing are used, two sets of logical products are used, but the present invention is not limited to this. The number of inputs and its logical operation unit can be freely configured. Furthermore, the combination of the logical product and the logical ring is only an example, and is not limited to this. You can freely combine logical products and ORs.

A−3−2.網点内文字判定部1005の説明
図16は、網点内文字判定部1005の構成を示すブロック図である。
A-3-2. Explanation of Halftone Halftone Character Determination Unit 1005 FIG. 16 is a block diagram showing a configuration of halftone dot character determination unit 1005.

適応的スムージング処理部2401は、輝度データ取得部1002からの判定信号(輝度値)を入力し、適応的なスムージング処理を行なう。ここでは、適応的に文字/細線を除外しつつ、スキャンデータの所望の周波数成分を平滑化するデジタルフィルタ処理が行われる。 The adaptive smoothing processing unit 2401 inputs a determination signal (luminance value) from the luminance data acquisition unit 1002 and performs adaptive smoothing processing. Here, digital filtering is performed to smooth the desired frequency component of the scan data while adaptively excluding characters / thin lines.

適応的スムージング処理部2401から出力されたスムージング信号は、エッジ強調部2402に入力される。エッジ強調部2402は、スムージング信号に対して、エッジ強調処理を行い、エッジ強調信号を出力する。エッジ強調部2402によるエッジ強調処理は、図3のエッジ強調部1102によるエッジ強調処理と同様の処理であり、例えば、ラプラシアンフィルタなどの2次微分フィルタを用いたフィルタ処理である。 The smoothing signal output from the adaptive smoothing processing unit 2401 is input to the edge enhancing unit 2402. The edge enhancement unit 2402 performs edge enhancement processing on the smoothing signal and outputs the edge enhancement signal. The edge enhancement process by the edge enhancement unit 2402 is the same process as the edge enhancement process by the edge enhancement unit 1102 in FIG. 3, and is, for example, a filter process using a second-order differential filter such as a Laplacian filter.

エッジ強調部2402から出力されたエッジ強調信号は、閾値判定部2403に入力される。閾値判定部2403には正の値の閾値が設定されている。 The edge enhancement signal output from the edge enhancement unit 2402 is input to the threshold value determination unit 2403. A positive threshold value is set in the threshold value determination unit 2403.

図4を参照して説明したように、エッジ強調処理において2次微分フィルタを用いた場合、エッジ強調信号によって示される画素の値は、正の値である場合と、負の値である場合がある。図4(B)に示すように、文字が暗い色で表され、下地が明るい色で表されている場合には、2次微分フィルタを用いエッジ強調処理を行って得られるエッジ抽出データ1507(すなわち、エッジ強調信号によって示されるデータ)は、文字1502側では正の値1508となり、下地1503側では負の値1509となる。逆に、文字が明るい色で表され、下地が暗い色で表されている場合には、エッジ抽出データは、文字側で外エッジに対応する負の値となり、下地側で内エッジに対応する正の値となる(図示省略)。 As described with reference to FIG. 4, when a second derivative filter is used in the edge enhancement process, the pixel value indicated by the edge enhancement signal may be a positive value or a negative value. is there. As shown in FIG. 4B, when the characters are represented by a dark color and the background is represented by a light color, the edge extraction data 1507 (1507) obtained by performing edge enhancement processing using a second-order differential filter. That is, the data indicated by the edge enhancement signal) has a positive value 1508 on the character 1502 side and a negative value 1509 on the base 1503 side. On the contrary, when the character is represented by a light color and the background is represented by a dark color, the edge extraction data has a negative value corresponding to the outer edge on the character side and corresponds to the inner edge on the background side. It becomes a positive value (not shown).

網点内文字判定では、エッジが文字側であるのか下地側であるのかを区別することを目的とするのではなく、網点領域内の文字自体を抽出することを目的としている。この場合、正のエッジ(すなわち、内エッジ)と負のエッジ(すなわち、外エッジ)とのうちの一方を検出すればよい。本実施例では、内エッジを検出することとする。具体的には、閾値判定部2403は、エッジ強調信号によって示される値が、正の閾値を超えた場合に、「1」を示す内エッジ信号を出力し、正の閾値以下である場合に、「0」を示す内エッジ信号を出力する。ただし、閾値判定部2403は、正のエッジ(内エッジ)を検出せずに負のエッジ(外エッジ)を検出してもよく、正のエッジ(内エッジ)と負のエッジ(外エッジ)との両方を検出してもよい。以下、上記処理を更に詳しく説明する。 The halftone dot character determination does not aim to distinguish whether the edge is on the character side or the base side, but aims to extract the character itself in the halftone dot area. In this case, one of a positive edge (that is, an inner edge) and a negative edge (that is, an outer edge) may be detected. In this embodiment, the inner edge is detected. Specifically, the threshold value determination unit 2403 outputs an inner edge signal indicating "1" when the value indicated by the edge emphasis signal exceeds the positive threshold value, and outputs an inner edge signal indicating "1" when the value is equal to or less than the positive threshold value. The inner edge signal indicating "0" is output. However, the threshold value determination unit 2403 may detect a negative edge (outer edge) without detecting a positive edge (inner edge), and the positive edge (inner edge) and the negative edge (outer edge) Both may be detected. Hereinafter, the above processing will be described in more detail.

図17は、適応的スムージング処理部2401の構成を示すブロック図である。適応的スムージング処理部2401は、平滑化処理部2502と、2個の線判定部2503a、2503bと、セレクタ2504と、反転処理部2507と、を備えている。第1線判定部2503aと、第2線判定部2503bとは、本実施例では、同一の回路である。輝度データ取得部1002からの判定信号2501(輝度値)は、4つに分岐され、平滑化処理部2502と、セレクタ2504と、第1線判定部2503aと、反転処理部2507と、にそれぞれ入力される。 FIG. 17 is a block diagram showing the configuration of the adaptive smoothing processing unit 2401. The adaptive smoothing processing unit 2401 includes a smoothing processing unit 2502, two line determination units 2503a and 2503b, a selector 2504, and an inversion processing unit 2507. The first line determination unit 2503a and the second line determination unit 2503b are the same circuit in this embodiment. The determination signal 2501 (luminance value) from the luminance data acquisition unit 1002 is branched into four and input to the smoothing processing unit 2502, the selector 2504, the first line determination unit 2503a, and the inversion processing unit 2507, respectively. Will be done.

平滑化処理部2502は、判定信号2501に対して、処理対象の注目画素を中心とする縦L画素×横L画素(Lは、2以上の整数)のフィルタ範囲内の複数個の画素の値を用いて平滑化処理を実行する。平滑化処理は、特定周波数帯域の感度を落とすことを目的とする処理であり、例えば、ガウシアンフィルタを用いた処理であっても良いし、平均値フィルタを用いた処理であっても良い。平滑化処理部2502は、平滑化処理の結果を示す平滑化信号を、セレクタ2504に供給する。 The smoothing processing unit 2502 sets the value of a plurality of pixels within the filter range of vertical L pixel × horizontal L pixel (L is an integer of 2 or more) centered on the pixel of interest to be processed with respect to the determination signal 2501. Is used to execute the smoothing process. The smoothing process is a process for reducing the sensitivity of a specific frequency band. For example, the smoothing process may be a process using a Gaussian filter or a process using an average value filter. The smoothing processing unit 2502 supplies a smoothing signal indicating the result of the smoothing processing to the selector 2504.

セレクタ2504に入力される判定信号2501は、平滑化処理部2502による処理の処理ライン数に応じた画像遅延に対応するために、図示しない遅延メモリを経由することで、遅延された後に、セレクタ2504に入力される。 The determination signal 2501 input to the selector 2504 is delayed by passing through a delay memory (not shown) in order to correspond to an image delay according to the number of processing lines processed by the smoothing processing unit 2502, and then the selector 2504 Is entered in.

第1線判定部2503aは、平滑化処理部2502による処理のL本のライン分の処理バッファに格納される判定信号(輝度値Yx)を利用して、縦L1画素×横L2画素(L2、L1は、2以上の整数、L1≦Lが好ましい)の処理領域にて、注目画素について、暗い色で表された縦線、横線、斜め線上の画素であるか否かの判定を行う。第1線判定部2503aは、これらの暗い線についての判定結果に応じて、セレクタ2504に対して第1切替信号を出力する。第1線判定部2503aは、注目画素が、これらの暗い線上の線画素であると判定した場合には、「1」を示す第1切替信号を出力し、注目画素が暗い線上の画素でないと判定した場合には、「0」を示す第1切替信号を出力する。 The first line determination unit 2503a utilizes a determination signal (luminance value Yx) stored in the processing buffer for L lines of processing by the smoothing processing unit 2502, and uses vertical L1 pixels × horizontal L2 pixels (L2, In the processing region of (L1 is an integer of 2 or more, preferably L1 ≦ L), it is determined whether or not the pixel of interest is a pixel on a vertical line, a horizontal line, or an oblique line represented by a dark color. The first line determination unit 2503a outputs a first switching signal to the selector 2504 according to the determination result for these dark lines. When the first line determination unit 2503a determines that the pixel of interest is a line pixel on these dark lines, it outputs a first switching signal indicating "1", and the pixel of interest must be a pixel on the dark line. If it is determined, the first switching signal indicating "0" is output.

反転処理部2507は、輝度値を示す判定信号2501を反転して、反転輝度値を示す反転判定信号を生成する。輝度値をYとすると、反転輝度値Yxは、以下の式(1)で表される。
Yx=Ymax−Y …(1)
ここで、Ymaxは、輝度値Yが取り得る値の最大値であり、本実施例では、Ymax=255である。反転処理部2507は、画素ごとに入力される輝度画像データを用いて、反転輝度値Yxを複数個の画素の値とする画像データである反転輝度画像データを生成する回路である、と言うことができる。反転処理部2507にて生成された反転輝度値Yxを示す反転判定信号は、第2線判定部2503bに入力される。
The inversion processing unit 2507 inverts the determination signal 2501 indicating the luminance value to generate an inversion determination signal indicating the inversion luminance value. Assuming that the luminance value is Y, the inverted luminance value Yx is expressed by the following equation (1).
Yx = Ymax-Y ... (1)
Here, Ymax is the maximum value that the luminance value Y can take, and in this embodiment, Ymax = 255. It is said that the inversion processing unit 2507 is a circuit that generates inversion luminance image data which is image data in which the inversion luminance value Yx is the value of a plurality of pixels by using the luminance image data input for each pixel. Can be done. The inversion determination signal indicating the inversion luminance value Yx generated by the inversion processing unit 2507 is input to the second line determination unit 2503b.

第2線判定部2503bは、平滑化処理部2502とは別のL本のライン分の処理バッファに格納される反転判定信号(反転輝度値Yx)を利用して、縦L1画素×横L2画素(L2、L1は、2以上の整数、L1≦Lが好ましい)の処理領域にて、注目画素について、第1線判定部2503aと同様に、暗い色で表された縦線、横線、斜め線上の画素であるか否かの判定を行う。第2線判定部2503bは、これらの暗い線についての判定結果に応じて、セレクタ2504に対して第2切替信号を出力する。第2線判定部2503bは、注目画素が、これらの暗い線上の線画素であると判定した場合には、「1」を示す第2切替信号を出力し、注目画素が暗い線上の画素でないと判定した場合には、「0」を示す第2切替信号を出力する。 The second line determination unit 2503b utilizes an inversion determination signal (inverted luminance value Yx) stored in a processing buffer for L lines different from the smoothing processing unit 2502, and has vertical L1 pixels × horizontal L2 pixels. In the processing region (L2 and L1 are integers of 2 or more, L1 ≦ L is preferable), for the pixel of interest, on the vertical line, horizontal line, and diagonal line represented by a dark color as in the first line determination unit 2503a. It is determined whether or not the pixel is. The second line determination unit 2503b outputs a second switching signal to the selector 2504 according to the determination result for these dark lines. When the second line determination unit 2503b determines that the pixel of interest is a line pixel on these dark lines, it outputs a second switching signal indicating "1", and the pixel of interest must be a pixel on the dark line. If it is determined, a second switching signal indicating "0" is output.

ここで、反転輝度画像データ(反転輝度値Yx)によって示される反転輝度画像では、反転前の輝度画像データによって示される輝度画像の明部が暗部になり、暗部が明部になっている。したがって、反転輝度画像内の暗い線は、輝度画像内の明るい線に対応する。したがって、第2線判定部2503bによって、反転輝度画像内の注目画素が、暗い線上の線画素であると判定することは、輝度画像内の対応する画素が、明るい線上の線画素であると判定することに、等しい。換言すれば、2個の線判定部2503a、2503bによって、輝度画像内の暗い線上の線画素と、輝度画像内の明るい線上の線画素と、の両方を特定することができる。 Here, in the inverted luminance image indicated by the inverted luminance image data (inverted luminance value Yx), the bright portion of the luminance image indicated by the luminance image data before inversion is a dark portion, and the dark portion is a bright portion. Therefore, the dark lines in the inverted luminance image correspond to the bright lines in the luminance image. Therefore, when the second line determination unit 2503b determines that the pixel of interest in the inverted luminance image is a line pixel on a dark line, it determines that the corresponding pixel in the luminance image is a line pixel on a bright line. Equal to doing. In other words, the two line determination units 2503a and 2503b can identify both the line pixels on the dark line in the luminance image and the line pixels on the bright line in the luminance image.

セレクタ2504は、第1線判定部2503aと第2線判定部2503bからそれぞれ出力される第1切替信号と第2切替信号とに基づき、平滑化処理部2502から出力される平滑化信号と、フィルタ処理されていない判定信号2501と、のいずれかを出力する。セレクタ2504は、第1切替信号と第2切替信号との少なくとも一方が「1」である場合、すなわち、第1線判定部2503aにて注目画素が線画素であると判定されたときと、第2線判定部2503bにて注目画素が線画素であると判定されたときと、のそれぞれにおいて、フィルタ処理されない判定信号2501を出力する。セレクタ2504は、第1切替信号と第2切替信号との両方が「0」である場合、すなわち、注目画素が暗い線上の線画素と明るい線上の線画素とのいずれでもないと判定されたときは、平滑化信号を出力する。 The selector 2504 has a smoothing signal output from the smoothing processing unit 2502 and a filter based on the first switching signal and the second switching signal output from the first line determination unit 2503a and the second line determination unit 2503b, respectively. Either the unprocessed determination signal 2501 or the unprocessed determination signal 2501 is output. The selector 2504 determines that at least one of the first switching signal and the second switching signal is "1", that is, when the first line determination unit 2503a determines that the pixel of interest is a line pixel. When the 2-line determination unit 2503b determines that the pixel of interest is a line pixel, the determination signal 2501 which is not filtered is output. The selector 2504 determines that both the first switching signal and the second switching signal are "0", that is, the pixel of interest is neither a line pixel on a dark line nor a line pixel on a bright line. Outputs a smoothing signal.

第1線判定部2503aについて説明する。第1線判定部2503aは、図18(A)〜(D)に示すような線パターンを用いて、注目画素が線画素であるか否かを判定する。線パターンのサイズは、上述した縦L1画素×横L2画素のサイズである。図18の例では、L1=5、L2=7である。縦方向(副走査方向)の画素数L1は、平滑化処理部2502の処理によるフィルタ範囲の副走査方向の画素数Lより小さい方がメモリを共有する観点から好ましいが、それに限られない。横方向(主走査方向)の画素数L2は、Lより大きくても構わない。 The first line determination unit 2503a will be described. The first line determination unit 2503a determines whether or not the pixel of interest is a line pixel by using a line pattern as shown in FIGS. 18A to 18D. The size of the line pattern is the size of the above-mentioned vertical L1 pixel × horizontal L2 pixel. In the example of FIG. 18, L1 = 5 and L2 = 7. The number of pixels L1 in the vertical direction (sub-scanning direction) is preferably smaller than the number of pixels L in the sub-scanning direction of the filter range processed by the smoothing processing unit 2502 from the viewpoint of sharing memory, but is not limited thereto. The number of pixels L2 in the lateral direction (main scanning direction) may be larger than L.

図18(A)の線パターン2600は、縦線について判定するための線パターンを示し、図18(B)の線パターン2610は、横線について判定するための線パターンを示す。図18(C)、(D)の線パターン2620、2630は、延びる方向が互いに異なる斜め線について判定するための線パターンを表している。ここでは、線パターン2600を用いて、縦線についての判定方法を説明する。画素2601、2611、2621、2631は、注目画素を示している。 The line pattern 2600 of FIG. 18A shows a line pattern for determining a vertical line, and the line pattern 2610 of FIG. 18B shows a line pattern for determining a horizontal line. The line patterns 2620 and 2630 in FIGS. 18 (C) and 18 (D) represent line patterns for determining diagonal lines having different extending directions. Here, a method for determining vertical lines will be described using the line pattern 2600. Pixels 2601, 2611, 2621, 2631 indicate pixels of interest.

パターン2600は縦5画素×横7画素のサイズを有する。線パターン2600は、縦5画素×横1画素のブロック2602、2603、2604を含む。注目画素2601は、横方向に並ぶブロック2602、2603、2604のうちの中央のブロック2603の中心に配置されている。第1線判定部2503aは、それぞれのブロックについて、判定信号2501によって示される値の総和(ALL)、最大値(MAX)、最小値(MIN)を算出する。すなわち、それぞれのブロックについて、ブロック内の画素の輝度値の総和、最大値、最小値が、算出される。 The pattern 2600 has a size of 5 pixels in the vertical direction and 7 pixels in the horizontal direction. The line pattern 2600 includes blocks 2602, 2603, and 2604 having 5 vertical pixels and 1 horizontal pixel. The pixel of interest 2601 is arranged at the center of the central block 2603 of the blocks 2602, 2603, and 2604 arranged in the horizontal direction. The first line determination unit 2503a calculates the total value (ALL), the maximum value (MAX), and the minimum value (MIN) of the values indicated by the determination signal 2501 for each block. That is, for each block, the sum total, maximum value, and minimum value of the brightness values of the pixels in the block are calculated.

第1線判定部2503aは、以下の条件式を評価する。
(1)MAX(2602)− MIN(2602) ≦ 閾値1
(2)MAX(2603)− MIN(2603) ≦ 閾値1
(3)ALL(2603)≦ ALL(2602)− 閾値2
条件(1)は、ブロック2602内の5画素について、画素の値の差がないことを評価する。条件(2)は、ブロック2603内の5画素について、画素の値の差がないことを評価する。条件(3)は、ブロック2602内の画素の値の総和と、画素ブロック2603内の画素の値の総和と、を比較し、画素ブロック2603が画素ブロック2602に対して、画素の値が相対的に低いことを評価する。条件(1)〜(3)が全て満たされる場合には、画素ブロック2603は、暗い色の縦線を構成すると判定される。条件(1)〜(3)を満たす場合は、該ブロック2603は、基準未満の輝度を有する複数個の画素が連続する低輝度領域である。このために、条件(1)〜(3)は、注目画素が、該低輝度領域内にあることを示す判断条件である、と言うことができる。具体的には、本実施例では、ブロック2602内の複数個の画素、すなわち、隣接する画素を含む複数個の周辺画素の輝度に有意な差がなく(条件(1))、かつ、判断対象のブロック2603内の複数個の画素の輝度に有意な差がなく(条件(2))、かつ、ブロック2602内の複数個の周辺画素の輝度よりも、ブロック2603内の複数個の画素の輝度が、有意に低い(条件(3))場合に、該ブロック2603は、基準未満の輝度を有する複数個の画素が連続する領域であると、判断している。注目画素が、該低輝度領域内にあることを示す具体的な条件(1)〜(3)は、一例であり、後述するように、様々な他の条件が用いられ得る。
The first line determination unit 2503a evaluates the following conditional expression.
(1) MAX (2602) -MIN (2602) ≤ threshold value 1
(2) MAX (2603) -MIN (2603) ≤ threshold value 1
(3) ALL (2603) ≤ ALL (2602) -threshold value 2
Condition (1) evaluates that there is no difference in pixel values for 5 pixels in the block 2602. Condition (2) evaluates that there is no difference in pixel values for the five pixels in the block 2603. Condition (3) compares the sum of the pixel values in the block 2602 with the sum of the pixel values in the pixel block 2603, and the pixel block 2603 is relative to the pixel block 2602 in terms of pixel values. Evaluate that it is low. When all the conditions (1) to (3) are satisfied, the pixel block 2603 is determined to form a dark vertical line. When the conditions (1) to (3) are satisfied, the block 2603 is a low-luminance region in which a plurality of pixels having a brightness less than the reference are continuous. Therefore, it can be said that the conditions (1) to (3) are determination conditions indicating that the pixel of interest is in the low-luminance region. Specifically, in this embodiment, there is no significant difference in the luminance of the plurality of pixels in the block 2602, that is, the plurality of peripheral pixels including the adjacent pixels (condition (1)), and the judgment target. There is no significant difference in the brightness of the plurality of pixels in the block 2603 (condition (2)), and the brightness of the plurality of pixels in the block 2603 is higher than the brightness of the plurality of peripheral pixels in the block 2602. However, when it is significantly low (condition (3)), the block 2603 is determined to be a region in which a plurality of pixels having a brightness less than the reference are continuous. Specific conditions (1) to (3) indicating that the pixel of interest is within the low-luminance region are examples, and various other conditions can be used as described later.

第1線判定部2503aは、以下の条件式を評価する。
(4)MAX(2604)− MIN(2604) ≦ 閾値1
(5)MAX(2603)− MIN(2603) ≦ 閾値1
(6)ALL(2603)≦ ALL(2604)− 閾値2
条件(4)は、ブロック2604内の5画素について、画素の値の差がないことを評価する。条件(5)は、ブロック2603内の5画素について、画素の値の差がないことを評価する。条件(6)は、ブロック2604内の画素の値の総和と、画素ブロック2603内の画素の値の総和と、を比較し、画素ブロック2603が画素ブロック2604に対して、画素の値が相対的に低いことを評価する。条件(4)〜(6)が全て満たされる場合には、画素ブロック2603は、暗い色の縦線を構成すると判定される。条件(4)〜(6)は、上記条件(1)〜(3)と同様に、注目画素が、該低輝度領域内にあることを示す判断条件である、と言うことができる。
The first line determination unit 2503a evaluates the following conditional expression.
(4) MAX (2604) -MIN (2604) ≤ threshold value 1
(5) MAX (2603) -MIN (2603) ≤ Threshold 1
(6) ALL (2603) ≤ ALL (2604) -threshold value 2
Condition (4) evaluates that there is no difference in pixel values for the five pixels in the block 2604. Condition (5) evaluates that there is no difference in pixel values for 5 pixels in the block 2603. Condition (6) compares the sum of the pixel values in the block 2604 with the sum of the pixel values in the pixel block 2603, and the pixel block 2603 is relative to the pixel block 2604 in terms of pixel values. Evaluate that it is low. When all the conditions (4) to (6) are satisfied, the pixel block 2603 is determined to form a dark vertical line. It can be said that the conditions (4) to (6) are the determination conditions indicating that the pixel of interest is in the low-luminance region, as in the above conditions (1) to (3).

条件(1)〜(3)、または、条件(4)〜(6)を評価した結果、いずれか一方において、ブロック2603は暗い色の縦線を構成すると判定された場合には、第1線判定部2503aは、注目画素2601は、縦線上に位置する線画素である、と判定する。 As a result of evaluating the conditions (1) to (3) or the conditions (4) to (6), if it is determined that the block 2603 constitutes a dark vertical line in any one of them, the first line The determination unit 2503a determines that the pixel of interest 2601 is a line pixel located on the vertical line.

図19は、図18(A)の線パターン2600を用いた判定の例を示す図である。図19(A)〜(C)には、線パターン2600に対応する縦5画素×横7画素領域内の判定信号(輝度値)2700、2710、2720が示されている。判定信号2700は、白地に暗い色の縦線がある部分の画像を示す。ハッチングされた複数個の画素は、縦線を構成している。説明の便宜上、判定信号が、0〜255の256階調の値を示す場合に、白の画素は、対応する判定信号の値が「255」であり、シングルハッチングされた画素は、対応する判定信号の値が「128」であり、クロスハッチングされた画素は、対応する判定信号の値が「0」であるとする。また、上記条件(1)〜(6)の閾値1は20であり、閾値2は200であるとする。 FIG. 19 is a diagram showing an example of determination using the line pattern 2600 of FIG. 18 (A). 19 (A) to 19 (C) show determination signals (luminance values) 2700, 2710, and 2720 in a region of 5 vertical pixels and 7 horizontal pixels corresponding to the line pattern 2600. The determination signal 2700 indicates an image of a portion having a dark vertical line on a white background. The plurality of hatched pixels form a vertical line. For convenience of explanation, when the determination signal indicates a value of 256 gradations from 0 to 255, the white pixel has the corresponding determination signal value of "255", and the single-hatched pixel has the corresponding determination. It is assumed that the value of the signal is "128" and the value of the corresponding determination signal is "0" for the cross-hatched pixels. Further, it is assumed that the threshold value 1 of the above conditions (1) to (6) is 20 and the threshold value 2 is 200.

判定信号2700に上記条件(1)〜(6)を適用して、真偽を判定した結果は、以下の通りである。
(1)MAX(2702)− MIN(2702) ≦ 閾値1
128−128 ≦ 20 → 真
(2)MAX(2703)− MIN(2703) ≦ 閾値1
0−0 ≦ 20 → 真
(3)ALL(2703)≦ ALL(2702)− 閾値2
0×5 ≦ 128×5 − 200 → 真
(4)MAX(2704)− MIN(2704) ≦ 閾値1
128−128 ≦ 20 → 真
(5)MAX(2703)− MIN(2703) ≦ 閾値1
0−0 ≦ 20 → 真
(6)ALL(2703)≦ ALL(2704)− 閾値2
0×5 ≦ 128×5 − 200 → 真
このように、条件(1)〜(3)がすべて真のため、注目画素は、縦線上に位置する線画素であると判定される。また、条件(4)〜(6)もすべて真であるので、こちらの条件からも、注目画素は、縦線上に位置する線画素であると判定される。
The results of applying the above conditions (1) to (6) to the determination signal 2700 and determining the authenticity are as follows.
(1) MAX (2702) -MIN (2702) ≤ threshold value 1
128-128 ≤ 20 → True (2) MAX (2703) -MIN (2703) ≤ Threshold 1
0-0 ≤ 20 → True (3) ALL (2703) ≤ ALL (2702) -Threshold 2
0 × 5 ≤ 128 × 5-200 → True (4) MAX (2704) -MIN (2704) ≤ Threshold 1
128-128 ≤ 20 → True (5) MAX (2703) -MIN (2703) ≤ Threshold 1
0-0 ≤ 20 → True (6) ALL (2703) ≤ ALL (2704) -Threshold 2
0 × 5 ≦ 128 × 5-200 → True As described above, since the conditions (1) to (3) are all true, it is determined that the pixel of interest is a line pixel located on the vertical line. Further, since the conditions (4) to (6) are all true, it is determined that the pixel of interest is a line pixel located on the vertical line from this condition as well.

図19(B)の判定信号2710は、白地に暗い色の横線がある部分の画像を示す。判定信号2710に上記条件(1)〜(6)を適用して、真偽を判定した結果は、以下の通りである。(1)偽、(2)偽、(3)偽、(4)偽、(5)偽、(6)偽
この結果、注目画素は、縦線上に位置する線画素でないと判定される。
The determination signal 2710 in FIG. 19B shows an image of a portion having a dark horizontal line on a white background. The results of applying the above conditions (1) to (6) to the determination signal 2710 and determining the authenticity are as follows. (1) False, (2) False, (3) False, (4) False, (5) False, (6) False As a result, it is determined that the pixel of interest is not a line pixel located on the vertical line.

図19(C)の判定信号2720は、白地に暗い色の斜め線がある部分の画像を示す。判定信号2720に上記条件(1)〜(6)を適用して、真偽を判定した結果は、以下の通りである。
(1)偽、(2)偽、(3)真、(4)偽、(5)偽、(6)真
この結果、注目画素は、縦線上に位置する線画素でないと判定される。
The determination signal 2720 of FIG. 19C shows an image of a portion having a dark diagonal line on a white background. The results of applying the above conditions (1) to (6) to the determination signal 2720 and determining the authenticity are as follows.
(1) False, (2) False, (3) True, (4) False, (5) False, (6) True As a result, it is determined that the pixel of interest is not a line pixel located on the vertical line.

図20は、図18(B)〜(D)の線パターン2610〜2630を用いた判定の例を示す図である。図20(A)の判定信号2810は、白地に横線がある部分の画像を示す。図20(B)、(C)の判定信号2820、2830は、白地に斜め線がある部分の画像を示す。線パターン2610〜2630においても、注目画素2611、2621、2631は、線の延びる方向とは垂直な方向に並ぶ3個のブロックのうちの中央のブロック2613、2623、2633の中心に配置されている。そして、図20(A)〜(C)の例では、詳細は省略するが、注目画素は、いずれも線画素であると判定される。 FIG. 20 is a diagram showing an example of determination using the line patterns 261 to 2630 of FIGS. 18 (B) to 18 (D). The determination signal 2810 in FIG. 20A shows an image of a portion having a horizontal line on a white background. The determination signals 2820 and 2830 of FIGS. 20 (B) and 20 (C) show images of portions having diagonal lines on a white background. Also in the line patterns 261 to 2630, the pixels of interest 2611, 2621, and 2631 are arranged at the center of the central blocks 2613, 2623, and 2633 of the three blocks arranged in the direction perpendicular to the extending direction of the line. .. Then, in the examples of FIGS. 20A to 20C, although the details are omitted, it is determined that all the pixels of interest are line pixels.

第2線判定部2503bは、輝度値Yを示す判定信号に代えて、反転輝度値Yxを示す反転判定信号を用いて、第1線判定部2503aと同一の条件(1)〜(3)および(4)〜(6)とについて判断することによって、注目画素が、線画素であるか否かを判断する。 The second line determination unit 2503b uses the inversion determination signal indicating the inversion luminance value Yx instead of the determination signal indicating the luminance value Y, and the same conditions (1) to (3) as those of the first line determination unit 2503a and By judging about (4) to (6), it is judged whether or not the pixel of interest is a line pixel.

図21は、図18(A)の線パターン2600を用いた判定の例を示す図である。図21(A)〜(C)には、線パターン2600に対応する縦5画素×横7画素領域内の判定信号(輝度値Y)2700w、2710w、2720wが示されている。判定信号2700wは、黒地に明るい色の縦線がある部分の画像を示す。ハッチングの無い複数個の画素は、縦線を構成している。図19の例と同様に、判定信号が0〜255の256階調の値を示し、白の画素は、対応する判定信号の値が「255」であり、シングルハッチングされた画素は、対応する判定信号の値が「128」であり、クロスハッチングされた画素は、対応する判定信号の値が「0」であるとする。図21(A)〜(C)の判定信号(輝度値Y)2700w、2710w、2720wを反転して得られる反転判定信号(反転輝度値Yx)は、図19(A)〜(C)の判定信号(輝度値Y)2700、2710、2720と同じになる。したがって、図21(A)の例では、注目画素は、第2線判定部2503bによって、縦線上に位置する線画素であると判定される。また、図21(B)、(C)の例では、注目画素は、縦線上に位置する線画素でないと判定される。 FIG. 21 is a diagram showing an example of determination using the line pattern 2600 of FIG. 18 (A). 21 (A) to 21 (C) show determination signals (luminance value Y) 2700w, 2710w, 2720w in a region of 5 vertical pixels × 7 horizontal pixels corresponding to the line pattern 2600. The determination signal 2700w indicates an image of a portion having a bright color vertical line on a black background. A plurality of pixels without hatching form a vertical line. Similar to the example of FIG. 19, the determination signal shows a value of 256 gradations from 0 to 255, the white pixel has the corresponding determination signal value of “255”, and the single-hatched pixel corresponds. It is assumed that the value of the determination signal is "128" and the value of the corresponding determination signal is "0" for the cross-hatched pixels. The inversion determination signal (inverted luminance value Yx) obtained by inverting the determination signals (luminance values Y) 2700w, 2710w, 2720w of FIGS. 21 (A) to 21 (C) is the determination of FIGS. 19 (A) to 19 (C). It becomes the same as the signal (luminance value Y) 2700, 2710, 2720. Therefore, in the example of FIG. 21A, the pixel of interest is determined by the second line determination unit 2503b to be a line pixel located on the vertical line. Further, in the examples of FIGS. 21B and 21C, it is determined that the pixel of interest is not a line pixel located on the vertical line.

図22は、図18(B)〜(D)の線パターン2610〜2630を用いた判定の例を示す図である。図22(A)の判定信号2810wは、黒地に明るい色の横線がある部分の画像を示す。図22(B)、(C)の判定信号2820w、2830wは、黒地に明るい色の斜め線がある部分の画像を示す。図22(A)〜(C)の判定信号(輝度値Y)2810w、2820w、2830wを反転して得られる反転判定信号(反転輝度値Yx)は、図20(A)〜(C)の判定信号(輝度値Y)2810、2820、2830と同じになる。したがって、図22(A)〜(C)の例では、注目画素は、いずれも線画素であると判定される。 FIG. 22 is a diagram showing an example of determination using the line patterns 261 to 2630 of FIGS. 18 (B) to 18 (D). The determination signal 2810w in FIG. 22A shows an image of a portion having a bright horizontal line on a black background. The determination signals 2820w and 2830w in FIGS. 22B and 22C show images of a portion having a bright color diagonal line on a black background. The inversion determination signal (inverted luminance value Yx) obtained by inverting the determination signals (luminance values Y) 2810w, 2820w, 2830w of FIGS. 22 (A) to 22 (C) is the determination of FIGS. 20 (A) to 20 (C). It becomes the same as the signal (luminance value Y) 2810, 2820, 2830. Therefore, in the examples of FIGS. 22 (A) to 22 (C), it is determined that all the pixels of interest are line pixels.

図23は、適応的スムージング処理部2401による平滑化の周波数特性2900の一例を示している。横軸は空間周波数特性を示し、縦軸はそれに対応する周波数応答を示す。高周波の帯域になればなるほど周波数応答が小さくなり、ある空間周波数以上(2902)では応答はない。このような平滑化の周波数特定を有する適応的スムージング処理部2401による処理を含む、網点内文字判定を行ったときの例を、図24を用いて説明する。 FIG. 23 shows an example of the frequency characteristic 2900 of smoothing by the adaptive smoothing processing unit 2401. The horizontal axis shows the spatial frequency characteristics, and the vertical axis shows the corresponding frequency response. The higher the frequency band, the smaller the frequency response, and there is no response above a certain spatial frequency (2902). An example of performing halftone dot character determination including processing by the adaptive smoothing processing unit 2401 having such smoothing frequency specification will be described with reference to FIG. 24.

図24は、網点内文字判定部1005による網点文字判定の例を示す図である。図24(A)の画像3000は、網点画像の一部を抽出したものである。この網点の出力線数は高く、図23に示すフィルタの周波数特性で言えば、空間周波数が2903の位置にあるような特性を持つ網点である。よって、網点画像3000に図23の空間周波数特性を持つフィルタにてフィルタ処理を施すと、網点の周期構造は消滅し、平滑化画像3010を得る。 FIG. 24 is a diagram showing an example of halftone dot character determination by the halftone dot character determination unit 1005. Image 3000 of FIG. 24 (A) is a part of a halftone dot image extracted. The number of output lines of this halftone dot is high, and in terms of the frequency characteristic of the filter shown in FIG. 23, it is a halftone dot having a characteristic that the spatial frequency is at the position of 2903. Therefore, when the halftone dot image 3000 is filtered by the filter having the spatial frequency characteristic of FIG. 23, the periodic structure of the halftone dots disappears and a smoothed image 3010 is obtained.

同じ線数の網点内に暗い色の文字がある場合を図24(B)で説明する。網点画像3020内には暗い色(例えば、黒色)の文字が印字されていて、この画像に対して適応的スムージング処理部2401による処理を実施すると、平滑化画像3030が得られる。網点部は平滑化されて網点の周期構造が消滅し、文字部は適応処理により平滑化が除外され、文字領域3031が明瞭に残る。この画像をエッジ強調部2402にてエッジ強調すると図24(C)の画像3040が得られる。画像3040では、文字のエッジ(具体的には、文字側のエッジ)が強調される。エッジ強調された画像を閾値判定部2403にて閾値判定処理すると、網点内文字信号3050を得る。黒い部分が網点内文字として判定された領域である。実施例では細い文字を例に示したため、文字全体を網点内文字として抽出している。図示しないが、文字サイズが大きくなると、文字全体ではなく、文字のエッジ部(輪郭)を抽出するようになる。 A case where there are dark-colored characters in halftone dots having the same number of lines will be described with reference to FIG. 24 (B). Dark color (for example, black) characters are printed in the halftone dot image 3020, and when this image is processed by the adaptive smoothing processing unit 2401, a smoothed image 3030 is obtained. The halftone dot portion is smoothed and the periodic structure of the halftone dot disappears, the smoothing of the character portion is excluded by the adaptive processing, and the character area 3031 remains clearly. When this image is edge-enhanced by the edge-enhancing portion 2402, the image 3040 of FIG. 24 (C) is obtained. In the image 3040, the edge of the character (specifically, the edge on the character side) is emphasized. When the edge-enhanced image is subjected to the threshold value determination process by the threshold value determination unit 2403, the halftone dot character signal 3050 is obtained. The black part is the area determined as a character in halftone dots. In the embodiment, since thin characters are shown as an example, the entire characters are extracted as halftone dot characters. Although not shown, when the character size becomes large, the edge portion (outline) of the character is extracted instead of the entire character.

図24(A)の例と同じ線数の網点内に明るい色の文字がある場合を図25(A)で説明する。網点画像3020w内には明るい色(例えば、白色)の文字が印字されていて、この画像に対して適応的スムージング処理部2401による処理を実施すると、平滑化画像3030wが得られる。網点部は平滑化されて網点の周期構造が消滅し、文字部は適応処理により平滑化が除外され、文字領域3031wが明瞭に残る。この画像をエッジ強調部2402にてエッジ強調すると図25(B)の画像3040wが得られる。画像3040wでは、文字のエッジ(具体的には、網点側のエッジ)が強調される。エッジ強調された画像を閾値判定部2403にて閾値判定処理すると、網点内文字信号3050wを得る。黒い部分が網点内文字として判定された領域である。網点内に、平滑化された網点領域よりも明るい文字が配置される場合、文字の輪郭を表すエッジ部として、網点領域側のエッジ部が抽出される。 A case where brightly colored characters are within the halftone dots having the same number of lines as the example of FIG. 24 (A) will be described with reference to FIG. Bright color (for example, white) characters are printed in the halftone dot image 3020w, and when this image is processed by the adaptive smoothing processing unit 2401, a smoothed image 3030w is obtained. The halftone dot portion is smoothed and the periodic structure of the halftone dot disappears, the smoothing of the character portion is excluded by the adaptive processing, and the character area 3031w remains clearly. When this image is edge-enhanced by the edge-enhancing portion 2402, the image 3040w of FIG. 25 (B) is obtained. In the image 3040w, the edge of the character (specifically, the edge on the halftone dot side) is emphasized. When the edge-enhanced image is subjected to the threshold value determination process by the threshold value determination unit 2403, the halftone dot character signal 3050w is obtained. The black part is the area determined as a character in halftone dots. When a character brighter than the smoothed halftone dot region is arranged in the halftone dot, the edge portion on the halftone dot region side is extracted as the edge portion representing the outline of the character.

A−3−4.属性フラグ生成部1006の説明
属性フラグ生成部1006(図2)は、文字判定部1003から入力される文字判定信号と、網点判定部1004から入力される網点判定信号と、網点内文字判定部1005から入力される網点内文字判定信号と、に基づいて、画素ごとに属性フラグを生成する。生成される属性フラグは、次のようにして決定される。
(1)網点判定信号が「1」であり、かつ、文字判定信号が「0」であり、かつ、網点文字判定信号が「0」である場合には、属性フラグは「網点」を示す値に決定され、網点フラグ1008が「1」となり、文字フラグ1007と網点内文字フラグ1009は「0」となる。
(2)網点判定信号が「0」であり、かつ、文字判定信号が「1」である場合には、属性フラグは、「文字」を示す値に決定され、文字フラグ1007が「1」となり、網点フラグ1008と網点内文字フラグ1009は「0」となる。
(3)網点判定信号が「1」であり、かつ、網点内文字判定信号が「1」である場合には、属性フラグは、「網点内文字」を示す値に決定される。
(4)上記以外の場合には、属性フラグは、「自然画、写真画、階調画像」を示す値に決定され、文字フラグ1007と網点フラグ1008と網点内文字フラグ1009は全て「0」となる。
このように、属性フラグの持つ種類は上記の通り4種類であるので、本実施例における属性フラグは、1画素につき、2ビットで構成される。
A-3-4. Explanation of Attribute Flag Generation Unit 1006 The attribute flag generation unit 1006 (FIG. 2) includes a character determination signal input from the character determination unit 1003, a halftone dot determination signal input from the halftone dot determination unit 1004, and characters in the halftone dots. An attribute flag is generated for each pixel based on the halftone dot character determination signal input from the determination unit 1005. The attribute flag to be generated is determined as follows.
(1) When the halftone dot determination signal is "1", the character determination signal is "0", and the halftone dot character determination signal is "0", the attribute flag is "halftone dot". The halftone dot flag 1008 becomes "1", and the halftone dot flag 1007 and the halftone dot in-halftone flag 1009 become "0".
(2) When the halftone dot determination signal is "0" and the character determination signal is "1", the attribute flag is determined to be a value indicating "character", and the character flag 1007 is "1". The halftone dot flag 1008 and the halftone dot in-character flag 1009 are set to "0".
(3) When the halftone dot determination signal is "1" and the halftone dot character determination signal is "1", the attribute flag is determined to be a value indicating "halftone dot character".
(4) In cases other than the above, the attribute flag is determined to be a value indicating "natural image, photographic image, gradation image", and the character flag 1007, the halftone dot flag 1008, and the halftone dot in-character flag 1009 are all ". It becomes "0".
As described above, since there are four types of attribute flags as described above, the attribute flags in this embodiment are composed of 2 bits per pixel.

このように画素ごとの属性フラグを示すフラグデータが生成されるので、該フラグデータを用いることで、画素ごとの属性に応じて、エッジ強調量、色再現方法、画像形成方法などの種々の画像処理方法を制御することができる。 Since flag data indicating the attribute flag for each pixel is generated in this way, various images such as an edge enhancement amount, a color reproduction method, and an image formation method can be used according to the attribute for each pixel by using the flag data. The processing method can be controlled.

A−3−5.印刷処理の説明
以上を踏まえて、具体的な印刷処理について説明する。上述したように、第2入力処理部104(図1)によってスキャンデータから生成される処理済データと、領域分離処理部103によって生成されるフラグデータとは、圧縮されてメインメモリ113に格納される。ここで説明するのは、圧縮済みの処理済画像データおよび圧縮済みのフラグデータ用いて実行される印刷処理である。
A-3-5. Explanation of printing process Based on the above, a specific printing process will be described. As described above, the processed data generated from the scan data by the second input processing unit 104 (FIG. 1) and the flag data generated by the area separation processing unit 103 are compressed and stored in the main memory 113. To. What is described here is a printing process executed using the compressed processed image data and the compressed flag data.

データ復号部109は、印刷実行部140の印刷可能になったタイミングに合わせて、メインメモリ113に格納された圧縮済みの処理済画像データおよび圧縮済みのフラグデータを読出し、復号処理を行なう。復号された処理済画像データは、第2画像メモリ116に格納され、復号されたフラグデータについては、第2フラグメモリ115に格納される。 The data decoding unit 109 reads the compressed processed image data and the compressed flag data stored in the main memory 113 at the timing when the print execution unit 140 becomes printable, and performs the decoding process. The decoded processed image data is stored in the second image memory 116, and the decoded flag data is stored in the second flag memory 115.

出力処理部110は、第2画像メモリ116に格納された処理済画像データと、第2フラグメモリ115に格納されたフラグデータと、に基づいて、印刷データを生成し、印刷実行部140に出力する。 The output processing unit 110 generates print data based on the processed image data stored in the second image memory 116 and the flag data stored in the second flag memory 115, and outputs the print data to the print execution unit 140. To do.

図26は、出力処理部110の構成を示すブロック図である。第2画像メモリ116および第2フラグメモリ115に、印刷可能となる予め設定されたデータ量の処理済画像データおよびフラグデータが格納されると、該処理済画像データおよびフラグデータは、出力処理部110に転送される。 FIG. 26 is a block diagram showing the configuration of the output processing unit 110. When the processed image data and the flag data of a preset amount of data that can be printed are stored in the second image memory 116 and the second flag memory 115, the processed image data and the flag data are output to the output processing unit. Transferred to 110.

第2画像メモリ114から転送された処理済画像データ(RGB画像データ)は、RGB→CMYK変換部601、602にて、CMYK画像データに変換される。CMYK画像データは、印刷に用いられる色材に対応する色成分を含む表色系、本実施例では、C(シアン)、M(マゼンタ)、Y(イエロ)、およびK(ブラック)の成分を含むCMYK表色系の色値(CMYK値とも呼ぶ)で、各画素の色を示す画像データである。RGB→CMYK変換部601と602の違いは、前者が文字画像用の変換を行い、後者が写真画、網点用の変換を行なう点である。 The processed image data (RGB image data) transferred from the second image memory 114 is converted into CMYK image data by the RGB → CMYK conversion units 601 and 602. The CMYK image data is a color system containing color components corresponding to the color materials used for printing, and in this embodiment, C (cyan), M (magenta), Y (yellow), and K (black) components are used. It is image data indicating the color of each pixel by the color value (also called the CMYK value) of the included CMYK color system. The difference between the RGB → CMYK conversion units 601 and 602 is that the former performs conversion for character images and the latter performs conversion for photographic images and halftone dots.

通常、原稿中に印刷された文字の色は、黒単色か、白単色か、せいぜい数色の程度である。そこで実施例では、このRGB→YMCK変換部601は、予め定義された色(C、M、Y、K)のパターンのうち、最も近似する色に変換する。例えば、R≒G≒B≒0の場合には、着目画素が黒であると判定してよいので、C=M=Y=0、K=255というパターンに変換する。R≒G≒B≒255の場合には、着目画素が白であると判定してよいので、C=M=Y=K=0というパターンに変換する。RGB→YMCK変換部601は、入力したR、G、Bが8ビットで表現されている場合、それぞれの上位数ビット(2ビット程度で良いであろう)を入力し、CMYK(各8ビット)のデータを出力するルックアップテーブル(LUT)を用いて行われる。 Usually, the color of the characters printed in the original is black, white, or at most several colors. Therefore, in the embodiment, the RGB → YMCK conversion unit 601 converts to the most approximate color among the predefined color (C, M, Y, K) patterns. For example, when R≈G≈B≈0, it may be determined that the pixel of interest is black, so the pattern is converted to C = M = Y = 0 and K = 255. In the case of R≈G≈B≈255, it may be determined that the pixel of interest is white, so the pattern is converted to C = M = Y = K = 0. When the input R, G, and B are represented by 8 bits, the RGB → YMCK conversion unit 601 inputs each upper number of bits (about 2 bits may be sufficient) and CMYK (8 bits each). This is done using a lookup table (LUT) that outputs the data of.

RGB→YMCK変換部602は、高い精度でRGB→YMCKへの変換を行なう。この変換は、例えば、マトリクス演算で行われる。あるいは、RGBの計24ビットアドレス入力、YMCKの32ビット出力のLUTを用いて行われる。 The RGB → YMCK conversion unit 602 converts RGB to YMCK with high accuracy. This conversion is performed, for example, by a matrix operation. Alternatively, it is performed using a total of 24-bit address input of RGB and a 32-bit output LUT of YMCK.

合成部603は、第2フラグメモリ115からの転送されるフラグデータに基づき、上記2つの変換部601、602から出力されるCMYK画像データを合成する。具体的には、フラグデータに含まれる注目画素の属性フラグが「文字」を示す場合には、RGB→CMYK変換部601から出力された注目画素のCMYK値を選択し、出力する。また、注目画素の属性フラグが、「自然画」、または、「網点」を示す場合には、RGB→CMYK変換部602から出力された注目画素のCMYK値を選択し、出力する。そして、注目画素の属性フラグが、「網点内文字」を示す場合には、2つの変換部601、602から出力される2個のCMYK値を、所定の重みに従って合成して得られる値(例えば、平均値)を生成し、出力する。 The synthesis unit 603 synthesizes the CMYK image data output from the two conversion units 601 and 602 based on the flag data transferred from the second flag memory 115. Specifically, when the attribute flag of the pixel of interest included in the flag data indicates "character", the CMYK value of the pixel of interest output from the RGB → CMYK conversion unit 601 is selected and output. When the attribute flag of the pixel of interest indicates "natural image" or "halftone dot", the CMYK value of the pixel of interest output from the RGB → CMYK conversion unit 602 is selected and output. Then, when the attribute flag of the pixel of interest indicates "characters in halftone dots", a value obtained by synthesizing two CMYK values output from the two conversion units 601 and 602 according to a predetermined weight ( For example, the average value) is generated and output.

合成部603から出力された各画素のCMYK値を示す信号は、フィルタ処理部604〜606に供給される。これらフィルタ処理部604〜606は、内部に数ライン分のバッファを有し、2次元フィルタ処理を行なう。フィルタ処理部604〜606の違いは、フィルタ処理のエッジ強調の度合を決定する係数が異なる点である。 The signal indicating the CMYK value of each pixel output from the synthesis unit 603 is supplied to the filter processing units 604 to 606. These filter processing units 604 to 606 have buffers for several lines inside and perform two-dimensional filter processing. The difference between the filtering units 604 to 606 is that the coefficients that determine the degree of edge enhancement in the filtering processing are different.

フィルタ処理部604は、「文字」に適したフィルタ処理を行なう。フィルタ処理部605は、「網点内文字」に適したフィルタ処理を行なう。フィルタ処理部606は、「写真画」又は「網点」に適したフィルタ処理を行なう。各フィルタ処理部のエッジ強調の度合は、フィルタ処理部604>フィルタ処理部605>フィルタ処理部606の順である。ただし、上記エッジ強調の度合は一例に過ぎず、必ずしもこれに限るものではない。 The filter processing unit 604 performs a filter process suitable for "characters". The filter processing unit 605 performs filter processing suitable for "characters in halftone dots". The filter processing unit 606 performs filter processing suitable for "photographs" or "halftone dots". The degree of edge enhancement of each filter processing unit is in the order of filter processing unit 604> filter processing unit 605> filter processing unit 606. However, the degree of edge enhancement is only an example, and is not necessarily limited to this.

上記は、平滑化処理の強度が、フィルタ処理部604<フィルタ処理部605<フィルタ処理部606の順であると言い換えることもできる。 In the above, it can be said that the strength of the smoothing process is in the order of filter processing unit 604 <filter processing unit 605 <filter processing unit 606.

セレクタ607は、注目画素の属性フラグが「文字」を示す場合に、フィルタ処理部604から出力された処理済みのCMYK値を選択し、出力する。セレクタ607は、注目画素の属性フラグが「網点内文字」を示す場合に、フィルタ処理部605からから出力された処理済みのCMYK値を選択し、出力する。セレクタ607は、注目画素の属性フラグが「写真」又は「網点」を示す場合に、フィルタ処理部606からから出力された処理済みのCMYK値を選択し、出力する。 The selector 607 selects and outputs the processed CMYK value output from the filter processing unit 604 when the attribute flag of the pixel of interest indicates “character”. The selector 607 selects and outputs the processed CMYK value output from the filter processing unit 605 when the attribute flag of the pixel of interest indicates "characters in halftone dots". The selector 607 selects and outputs the processed CMYK value output from the filter processing unit 606 when the attribute flag of the pixel of interest indicates “photograph” or “halftone dot”.

セレクタ607から出力された処理済みのCMYK値は、ガンマ補正部608、610に入力される。ガンマ補正部608は、「文字」、「網点内文字」に適した補正を行ない、ガンマ補正部610は「網点」、「写真画」に適した補正を行なう。 The processed CMYK values output from the selector 607 are input to the gamma correction units 608 and 610. The gamma correction unit 608 makes corrections suitable for "characters" and "characters in halftone dots", and the gamma correction unit 610 makes corrections suitable for "halftone dots" and "photographic images".

ガンマ補正部608から出力される補正済みのCMYK値は、誤差拡散処理部609に入力される。誤差拡散処理部609は、入力されるCMYK値を、誤差拡散法に従うハーフトーン処理によって、ドットの形成状態を示すドット値に変換し、出力する。文字の場合には、印刷時に生成されるドットが分散されにくいことが望ましいので、ハーフトーン処理には、誤差拡散法が用いられることが好ましい。 The corrected CMYK value output from the gamma correction unit 608 is input to the error diffusion processing unit 609. The error diffusion processing unit 609 converts the input CMYK value into a dot value indicating a dot formation state by halftone processing according to the error diffusion method, and outputs the dot value. In the case of characters, it is desirable that the dots generated during printing are difficult to disperse, so it is preferable to use the error diffusion method for the halftone processing.

ガンマ補正部610から出力される補正済みのCMYK値は、ディザ処理部611に入力される。ディザ処理部611は、入力されるCMYK値を、ディザマトリクスを用いるディザ法に従うハーフトーン処理によって、ドットの形成状態を示すドット値に変換し、出力する。写真画、網点の場合には、階調性が重視されるので、ハーフトーン処理には、ディザ法が用いられることが好ましい。 The corrected CMYK value output from the gamma correction unit 610 is input to the dither processing unit 611. The dither processing unit 611 converts the input CMYK value into a dot value indicating a dot formation state by halftone processing according to a dither method using a dither matrix, and outputs the dot value. In the case of photographic images and halftone dots, gradation is important, so it is preferable to use the dither method for halftone processing.

セレクタ612は、注目画素の属性フラグが「文字」または「網点内文字」を示す場合には、誤差拡散処理部609から出力されるドット値を選択し、印刷実行部140に出力する。また、セレクタ612は、注目画素の属性フラグが「写真」または「網点」を示す場合には、ディザ処理部611から出力されるドット値を選択し、印刷実行部140に出力する。 When the attribute flag of the pixel of interest indicates "character" or "character in halftone dots", the selector 612 selects a dot value output from the error diffusion processing unit 609 and outputs it to the print execution unit 140. Further, when the attribute flag of the pixel of interest indicates "photograph" or "halftone dot", the selector 612 selects the dot value output from the dither processing unit 611 and outputs it to the print execution unit 140.

以上のように、文字、網点、および、網点内文字の領域を適切に抽出することで、その属性に応じた画像処理を実施可能となる。従って、文字は鮮明に、写真は滑らかな再現をすることが可能となる。特に、網点を含む原稿内で、網点と文字とを識別し、文字に平滑化処理を施すことなく、網点を平滑化することが可能なため、好適なモアレ除去が可能となる。その結果、網点を含む原稿内の写真にはスムージング処理を施し、モアレ除去した上でディザ処理を実施することで階調性の高い画像を印刷できる。また、網点を含む原稿内の文字には、エッジ強調処理を施した上で誤差拡散系の処理を実施することで、くっきりとした読みやすい文字を印刷できる。 As described above, by appropriately extracting the areas of characters, halftone dots, and characters within the halftone dots, it is possible to perform image processing according to the attributes. Therefore, it is possible to reproduce the characters clearly and the photograph smoothly. In particular, in a document containing halftone dots, it is possible to distinguish between halftone dots and characters and smooth the halftone dots without performing smoothing processing on the characters, so that suitable moire removal is possible. As a result, it is possible to print an image with high gradation by performing smoothing processing on the photograph in the document including halftone dots, removing moire, and then performing dither processing. In addition, clear and easy-to-read characters can be printed on the characters in the document including halftone dots by performing edge enhancement processing and then performing error diffusion processing.

また、以上説明した第1実施例によれば、輝度データ取得部1002(図2)は、スキャンデータを用いて、輝度画像を示す輝度画像データを取得する。適応的スムージング処理部2401(図16、図17)の第1線判定部2503aは、輝度画像内の注目画素を含む複数個の画素が、判断条件(1)〜(6)を満たすか否かを判断する。反転処理部2507は、輝度画像データを用いて、反転輝度画像を示す反転輝度画像データを生成する。反転輝度画像では、上述したように、輝度画像データに含まれる複数個の画素の輝度値Yに対応する複数個の反転輝度値Yxを含む。第2線判定部2503bは、輝度画像データ(反転輝度値Yx)を用いて、反転輝度画像内の注目画素を含む複数個の画素が、上記判断条件(1)〜(6)を満たすか否かを判断する。適応的スムージング処理部2401は、輝度画像データ(輝度値Y)に対して、輝度画像を平滑化する平滑化処理を実行して、平滑化データを生成する。 Further, according to the first embodiment described above, the luminance data acquisition unit 1002 (FIG. 2) acquires the luminance image data indicating the luminance image by using the scan data. The first line determination unit 2503a of the adaptive smoothing processing unit 2401 (FIGS. 16 and 17) determines whether or not a plurality of pixels including the pixel of interest in the luminance image satisfy the determination conditions (1) to (6). To judge. The inversion processing unit 2507 uses the luminance image data to generate the inversion luminance image data indicating the inversion luminance image. As described above, the inverted luminance image includes a plurality of inverted luminance values Yx corresponding to the luminance values Y of the plurality of pixels included in the luminance image data. The second line determination unit 2503b uses the luminance image data (inverted luminance value Yx) to determine whether or not a plurality of pixels including the pixel of interest in the inverted luminance image satisfy the above-mentioned determination conditions (1) to (6). To judge. The adaptive smoothing processing unit 2401 executes a smoothing process for smoothing the luminance image on the luminance image data (luminance value Y) to generate smoothing data.

上述したように、適応的スムージング処理部2401から出力される平滑化済み輝度画像では、第1線判定部2503aにて線画素とであると判定された輝度画像内の画素に対応する画素の値は、平滑化処理部2502にて平滑化されていない値とされる。平滑化済み輝度画像では、第2線判定部2503bにて線画素とであると判定された反転輝度画像内の画素に対応する画素の値は、平滑化処理部2502にて平滑化されていない値とされる。平滑化済み輝度画像では、第1線判定部2503aにて線画素とであると判定されず、かつ、第2線判定部2503bにて線画素とであると判定されない輝度画像または反転輝度画像内の画素に対応する画素の値は、平滑化処理部2502にて平滑化された値とされる。 As described above, in the smoothed luminance image output from the adaptive smoothing processing unit 2401, the value of the pixel corresponding to the pixel in the luminance image determined to be the line pixel by the first line determination unit 2503a. Is a value that has not been smoothed by the smoothing processing unit 2502. In the smoothed luminance image, the value of the pixel corresponding to the pixel in the inverted luminance image determined to be the line pixel by the second line determination unit 2503b is not smoothed by the smoothing processing unit 2502. It is a value. In a smoothed brightness image, in a brightness image or an inverted brightness image that is not determined to be a line pixel by the first line determination unit 2503a and is not determined to be a line pixel by the second line determination unit 2503b. The value of the pixel corresponding to the pixel of is the value smoothed by the smoothing processing unit 2502.

換言すれば、平滑化済み輝度画像内のM個(Mは2以上の整数)の画素のうち、判断条件(1)〜(3)または(4)〜(6)を満たす輝度画像内の複数個の画素と、判断条件(1)〜(3)または(4)〜(6)を満たす反転輝度画像内の複数個の画素と、の少なくとも一方に対応するN1個(N1はM未満の整数)の画素は、平滑化されない。該M個の画素のうち、判断条件(1)〜(3)および(4)〜(6)をいずれも満たさない輝度画像内の複数個の画素と対応し、かつ、判断条件(1)〜(3)および(4)〜(6)をいずれも満たさない反転輝度画像内の複数個の画素と対応するN2個(N2は、N1+N2=Mを満たす整数)の画素は、平滑化される。そして、網点内文字判定部1005のエッジ強調部2402と閾値判定部2403とは、該平滑化データを用いて、エッジを示す複数個のエッジ画素を特定する。 In other words, among the M pixels (M is an integer of 2 or more) in the smoothed luminance image, a plurality of pixels in the luminance image satisfying the judgment conditions (1) to (3) or (4) to (6). N1 (N1 is an integer less than M) corresponding to at least one of the pixel and the plurality of pixels in the inverted luminance image satisfying the determination conditions (1) to (3) or (4) to (6). ) Pixels are not smoothed. Among the M pixels, it corresponds to a plurality of pixels in the luminance image that do not satisfy any of the determination conditions (1) to (3) and (4) to (6), and the determination conditions (1) to (1) to N2 pixels (N2 is an integer satisfying N1 + N2 = M) corresponding to the plurality of pixels in the inverted luminance image that do not satisfy any of (3) and (4) to (6) are smoothed. Then, the edge enhancement unit 2402 and the threshold value determination unit 2403 of the halftone dot character determination unit 1005 identify a plurality of edge pixels indicating edges by using the smoothing data.

この結果、上記判断条件(1)〜(6)を用いて、低輝度領域と高輝度領域との両方について判断できる。したがって、平滑化データを用いて、エッジ画素を特定する際に、比較的低輝度の(すなわち、暗い)背景中に明るい色で表される文字のエッジを表す画素と、比較的高輝度の(すなわち、明るい)背景中に暗い色で表される文字のエッジを表す画素と、の両方を、適切に特定できる。また、第1線判定部2503aと第2線判定部2503bには、同じハードウエア回路を用いることができるので、適応的スムージング処理部2401の部品の種類数および開発負荷、ひいては、制御部120や複合機100の部品の種類数および開発負荷を低減できる。 As a result, both the low-luminance region and the high-luminance region can be judged by using the above-mentioned judgment conditions (1) to (6). Therefore, when identifying edge pixels using smoothed data, pixels representing the edges of characters represented by bright colors in a relatively low-brightness (ie, dark) background and relatively high-brightness (ie) pixels. That is, both pixels representing the edges of characters represented by dark colors in the (bright) background can be appropriately identified. Further, since the same hardware circuit can be used for the first line determination unit 2503a and the second line determination unit 2503b, the number of types of parts of the adaptive smoothing processing unit 2401 and the development load, and eventually the control unit 120 and The number of types of parts and the development load of the multifunction device 100 can be reduced.

なお、通常は、明るい背景中に暗い色で文字が表される場合が多く、暗い背景中に明るい色で文字が表される場合は少ない。しかし、ユーザは、画像処理の品質を評価する場合には、暗い背景中に明るい色で文字が表される場合の画質も、明るい背景中に暗い色で文字が表される場合の画質と同様に、重要視し得る。従って、本実施例のように、明るい背景中に暗い色で表される文字のエッジと、暗い背景中に明るい色で表される文字のエッジと、の両方を検出して画像処理に利用することによって、高画質な画像処理を実現できる。 Normally, characters are often represented in a dark color on a light background, and characters are rarely represented in a light color on a dark background. However, when the user evaluates the quality of image processing, the image quality when the characters are represented by a light color on a dark background is the same as the image quality when the characters are represented by a dark color on a light background. It can be emphasized. Therefore, as in the present embodiment, both the edge of the character represented by the dark color in the light background and the edge of the character represented by the light color in the dark background are detected and used for image processing. As a result, high-quality image processing can be realized.

以上の説明から解るように、本実施例の第1線判定部2503aは、第1判断部の例であり、第2線判定部2503bは、第2判断部の例であり、反転処理部2507は、画像データ生成部の例であり、平滑化処理部2502とセレクタ2504との全体は、平滑化部の例である。 As can be seen from the above description, the first line determination unit 2503a of this embodiment is an example of the first determination unit, the second line determination unit 2503b is an example of the second determination unit, and the inversion processing unit 2507. Is an example of the image data generation unit, and the whole of the smoothing processing unit 2502 and the selector 2504 is an example of the smoothing unit.

B.第2実施例:
図27は、注目画素が線画素であるか否かを判断する処理の別の実施例を示すフローチャートである。この処理は、適応的スムージング処理部2401(図17)の第1線判定部2503aと第2線判定部2503bとによって行われる。上記の第1実施例との差異は、互いに異なる太さの線に対応付けられた複数のフィルタが用いられる点である。第1実施例では、図18に示すように、複数のフィルタ(具体的には、複数の線パターン2600〜2630)の間で、線の延びる方向が異なるものの、線の太さはおおよそ同じである。この場合、スキャン画像に含まれる線の太さによっては、図18〜図22の実施例では、適切な判定ができない場合がある。例えば、太い線分上の注目画素は、図18(A)〜(D)に示すいずれのフィルタによっても、線画素であると判定されない場合がある。そこで、第2実施例では、第1線判定部2503aと第2線判定部2503bとは、互いに異なる太さの線に対応付けられた複数のフィルタを用いる。
B. Second Example:
FIG. 27 is a flowchart showing another embodiment of the process of determining whether or not the pixel of interest is a line pixel. This processing is performed by the first line determination unit 2503a and the second line determination unit 2503b of the adaptive smoothing processing unit 2401 (FIG. 17). The difference from the first embodiment is that a plurality of filters associated with lines having different thicknesses are used. In the first embodiment, as shown in FIG. 18, although the line extending directions are different among the plurality of filters (specifically, the plurality of line patterns 2600 to 2630), the line thickness is approximately the same. is there. In this case, depending on the thickness of the line included in the scanned image, an appropriate determination may not be possible in the examples of FIGS. 18 to 22. For example, the pixel of interest on a thick line segment may not be determined to be a line pixel by any of the filters shown in FIGS. 18A to 18D. Therefore, in the second embodiment, the first line determination unit 2503a and the second line determination unit 2503b use a plurality of filters associated with lines having different thicknesses.

図28は、複数のフィルタの例を示す説明図である。図28(A)は、線幅Wdが1画素であるフィルタ2660を示し、図28(B)は、線幅Wdが2画素であるフィルタ2670を示し、図28(C)は、線幅Wdが3画素であるフィルタ2680を示し、図28(D)は、線幅Wdが4画素であるフィルタ2690を示している。これらのフィルタ2660〜2690は、いずれも、図18(A)の線パターン2600と同様に、縦線について判定するための線パターンを示している。 FIG. 28 is an explanatory diagram showing an example of a plurality of filters. FIG. 28A shows a filter 2660 having a line width Wd of 1 pixel, FIG. 28B shows a filter 2670 having a line width Wd of 2 pixels, and FIG. 28C shows a line width Wd. 2680 shows a filter having 3 pixels, and FIG. 28 (D) shows a filter 2690 having a line width Wd of 4 pixels. Each of these filters 2660 to 2690 shows a line pattern for determining a vertical line, similar to the line pattern 2600 of FIG. 18 (A).

図28(A)のフィルタ2660は、縦19画素×横1画素の3個のブロック2662、2663、2664を含む。これらのブロック2662、2663、2664は、線幅Wdと同じ幅の隙間をあけて、横方向に並んで配置されている。注目画素2661は、中央のブロック2663の中心に配置されている。 The filter 2660 of FIG. 28A includes three blocks 2662, 2663, and 2664 having 19 pixels in the vertical direction and 1 pixel in the horizontal direction. These blocks 2662, 2663, and 2664 are arranged side by side in the horizontal direction with a gap having the same width as the line width Wd. The pixel of interest 2661 is located in the center of the central block 2663.

同様に、図28(B)のフィルタ2670は、縦19画素×横2画素の3個のブロック2672、2673、2674を含む。図28(C)のフィルタ2680は、縦19画素×横3画素の3個のブロック2682、2683、2684を含む。図28(D)のフィルタ2690は、縦19画素×横4画素の3個のブロック2692、2693、2694を含む。いずれのフィルタ2670〜2690においても、3個のブロックは、線幅Wdと同じ幅の隙間をあけて、横方向に並んで配置されている。そして、注目画素2671、2681、2691は、中央のブロック2673、2683、2693の中心に配置されている(線幅Wdが偶数である場合、注目画素は、ブロックの中心の左側の画素位置に配置されている)。 Similarly, the filter 2670 of FIG. 28B includes three blocks 2672, 2673, 2674 of 19 pixels in length × 2 pixels in width. The filter 2680 of FIG. 28C includes three blocks 2682, 2683, 2864 having 19 pixels in the vertical direction and 3 pixels in the horizontal direction. The filter 2690 of FIG. 28 (D) includes three blocks 2692, 2693, and 2694 having 19 pixels in the vertical direction and 4 pixels in the horizontal direction. In any of the filters 2670 to 2690, the three blocks are arranged side by side with a gap having the same width as the line width Wd. The attention pixels 2671, 2681, and 2691 are arranged at the center of the central blocks 2673, 2683, and 2693 (when the line width Wd is an even number, the attention pixels are arranged at the pixel positions on the left side of the center of the block. Has been).

図示を省略するが、利用可能な複数のフィルタは、図18(B)〜図18(D)のフィルタ2610〜2630と同様に、横線について判定するための線パターンを示すフィルタと、2つの方向の斜め線について判定するための2種類の線パターンを示すフィルタと、を含んでいる。そして、線の延びる方向が互いに異なる4種類のフィルタのそれぞれとしては、互いに線幅が異なる複数のフィルタを利用可能である。いずれのフィルタにおいても、3個のブロックは、ブロックの延びる方向に垂直な方向に、線幅と同じ幅の隙間をあけて、並んで配置される。そして、注目画素は、中央のブロックの中心に配置される。 Although not shown, the plurality of available filters are, like the filters 261 to 2630 of FIGS. 18 (B) to 18 (D), a filter showing a line pattern for determining a horizontal line and two directions. Includes a filter showing two types of line patterns for determining the diagonal lines of. As each of the four types of filters in which the extending directions of the lines are different from each other, a plurality of filters having different line widths can be used. In any of the filters, the three blocks are arranged side by side in the direction perpendicular to the extending direction of the blocks with a gap having the same width as the line width. Then, the pixel of interest is arranged at the center of the central block.

第1線判定部2503a(図17)と第2線判定部2503bとは、図18のフィルタ2600〜2630を用いる場合と同様に、各フィルタを用いて、注目画素が線画素であるか否かを判断する。第1線判定部2503a、および、第2線判定部2503bは、上記の条件(1)〜(3)と条件(4)〜(6)を、各フィルタの3個のブロック(例えば、図28のフィルタ2660の3個のブロック2662、2663、2664)に適用することによって、評価し、注目画素が、線画素であるか否かを判断する。各条件の閾値1と閾値2とは、適切な判断ができるように、予め実験的に決定されてよい。 The first line determination unit 2503a (FIG. 17) and the second line determination unit 2503b use each filter to determine whether or not the pixel of interest is a line pixel, as in the case of using the filters 2600 to 2630 of FIG. To judge. The first line determination unit 2503a and the second line determination unit 2503b apply the above conditions (1) to (3) and conditions (4) to (6) to three blocks of each filter (for example, FIG. 28). By applying it to the three blocks 2662, 2663, 2664) of the filter 2660 of the above, it is evaluated and it is determined whether or not the pixel of interest is a line pixel. The threshold value 1 and the threshold value 2 of each condition may be experimentally determined in advance so that an appropriate judgment can be made.

第1線判定部2503a(図17)と第2線判定部2503bとは、図27の手順に従って、注目画素が線画素であるか否かを判断する。図27の例では、第1線判定部2503aと第2線判定部2503bとが、協働して、線切替信号を出力することとしている。図中において、符号2503aが付された枠で囲まれる処理は、第1線判定部2503aの処理を示し、符号2503bが付された枠で囲まれる処理は、第2線判定部2503bの処理を示している。S190、S195は、第1線判定部2503aと第2線判定部2503bとのいずれかによって、実行され得る。 The first line determination unit 2503a (FIG. 17) and the second line determination unit 2503b determine whether or not the pixel of interest is a line pixel according to the procedure of FIG. 27. In the example of FIG. 27, the first line determination unit 2503a and the second line determination unit 2503b cooperate to output a line switching signal. In the figure, the process surrounded by the frame with the reference numeral 2503a indicates the process of the first line determination unit 2503a, and the process surrounded by the frame with the reference numeral 2503b is the process of the second line determination unit 2503b. Shown. S190 and S195 can be executed by either the first line determination unit 2503a and the second line determination unit 2503b.

S100では、第1線判定部2503aは、線切替フラグをオフに初期化する。S105では、第1線判定部2503aは、現行の線幅Wdを、利用可能なフィルタの線幅Wdのうちの最小値(ここでは、1)に初期化する。S110では、第1線判定部2503aは、現行の線幅Wdに対応付けられたフィルタを選択する。上述したように、本実施例では、1つの線幅Wdに、線の延びる方向が異なる4個のフィルタが対応付けられている。S110では、4個のフィルタが選択される。S115では、第1線判定部2503aは、S110で選択した4個のフィルタを、フィルタ内の画素の輝度値Yに適用して、フィルタ毎に、判断条件を満たす否かを判断することによって、注目画素が線画素であるか否かを判断する。S120では、第1線判定部2503aは、4個のフィルタのうちの少なくとも1つのフィルタによって注目画素が線画素であると判断されたか否かを判断する。 In S100, the first line determination unit 2503a initializes the line switching flag to off. In S105, the first line determination unit 2503a initializes the current line width Wd to the minimum value (here, 1) of the line width Wd of the available filter. In S110, the first line determination unit 2503a selects a filter associated with the current line width Wd. As described above, in the present embodiment, one line width Wd is associated with four filters having different lines extending directions. In S110, four filters are selected. In S115, the first line determination unit 2503a applies the four filters selected in S110 to the luminance value Y of the pixels in the filter, and determines whether or not the determination condition is satisfied for each filter. It is determined whether or not the pixel of interest is a line pixel. In S120, the first line determination unit 2503a determines whether or not the pixel of interest is determined to be a line pixel by at least one of the four filters.

少なくとも1つのフィルタによって注目画素が線画素であると判断された場合(S120:Yes)、S190で、第1線判定部2503aは、線切替フラグをオンに設定する。S195では、第1線判定部2503aは、線切替フラグに対応付けられた線切替信号(ここでは、「1」の線切替信号)を、セレクタ2504に対して、出力する。そして、図27の処理が、終了する。 When it is determined by at least one filter that the pixel of interest is a line pixel (S120: Yes), in S190, the first line determination unit 2503a sets the line switching flag to ON. In S195, the first line determination unit 2503a outputs a line switching signal (here, the line switching signal of “1”) associated with the line switching flag to the selector 2504. Then, the process of FIG. 27 ends.

4個のフィルタのいずれを用いても、注目画素が線画素であると判断されなかった場合(S120:No)、S125で、第1線判定部2503aは、利用可能な全ての線幅Wdの処理が終了したか否かを判断する。図27の例では、現行の線幅Wdが、利用可能なフィルタの線幅Wdの最大値WdMax以上であるか否かが、判断される。本実施例では、図28で説明したように、最大値WdMaxは、4である。 If it is not determined that the pixel of interest is a line pixel by using any of the four filters (S120: No), in S125, the first line determination unit 2503a is of all available line widths Wd. Determine if the process is complete. In the example of FIG. 27, it is determined whether or not the current line width Wd is equal to or greater than the maximum value WdMax of the line width Wd of the available filter. In this embodiment, as described with reference to FIG. 28, the maximum value WdMax is 4.

未処理の線幅Wdが残っている場合(S125:No)、S130で、第1線判定部2503aは、現行の線幅Wdを、1段階大きい線幅Wdに更新する(本実施例では、線幅Wdに1が加算される)。そして、第1線判定部2503aは、S110へ移行し、更新済の線幅Wdの処理を実行する。 When the unprocessed line width Wd remains (S125: No), in S130, the first line determination unit 2503a updates the current line width Wd to a line width Wd one step larger (in this embodiment, the line width Wd is one step larger). 1 is added to the line width Wd). Then, the first line determination unit 2503a shifts to S110 and executes the processing of the updated line width Wd.

全ての線幅Wdの処理が終了した場合(S125:Yes)、処理は、S155へ移行する。 When the processing of all line widths Wd is completed (S125: Yes), the processing shifts to S155.

S155では、第2線判定部2503bは、現行の線幅Wdを、明線用の初期値Wdiwに初期化する。明線用の初期値Wdiwは、暗線用の初期値(ここでは、1)よりも、大きい値に設定されている。第2線判定部2503bは、この明線用の初期値Wdiw未満の線幅Wdのフィルタを用いずに、初期値Wdiw以上の線幅Wdのフィルタを利用して、判断を行う。この理由は、以下の通りである。明るい色の線の幅が細い場合には、印刷済の画像において、線の周囲の暗い色の下地を表す色材の滲みや位置ズレなどに起因して、細い線が潰れ易い。細い線が潰れると、その線の視認性が低下するので、網点内文字のための画像処理の画質改善の効果が低くなる。一方、暗い色の線の幅が細い場合は、印刷済の画像において、暗い色の線を表す色材の滲みや位置ズレが生じる場合であっても、その線を容易に視認できる。従って、網点内文字のための画像処理の画質改善の効果が高い。以上により、暗線用の処理で用いられるフィルタの最小の線幅Wd(ここでは、1)は、明線用の処理で用いられるフィルタの最小の線幅Wdiwよりも、小さい。 In S155, the second line determination unit 2503b initializes the current line width Wd to the initial value Wdiw for bright lines. The initial value Wdiw for the bright line is set to a value larger than the initial value for the dark line (here, 1). The second line determination unit 2503b makes a determination by using a filter having a line width Wd equal to or more than the initial value Wdiw without using a filter having a line width Wd less than the initial value Wdiw for the bright line. The reason for this is as follows. When the width of a bright color line is narrow, the thin line is likely to be crushed in the printed image due to bleeding or misalignment of the coloring material representing the dark background around the line. When a thin line is crushed, the visibility of the line is lowered, so that the effect of improving the image quality of the image processing for the halftone dot characters is reduced. On the other hand, when the width of the dark color line is narrow, the line can be easily visually recognized even when the color material representing the dark color line is blurred or misaligned in the printed image. Therefore, the effect of improving the image quality of the image processing for the characters in halftone dots is high. As described above, the minimum line width Wd of the filter used in the processing for dark lines (here, 1) is smaller than the minimum line width Wd of the filter used in the processing for bright lines.

S160では、第2線判定部2503bは、現行の線幅Wdに対応付けられたフィルタを選択する。S160は、S110と同様に、行われる。S165では、第2線判定部2503bは、S160で選択した4個のフィルタを、フィルタ内の画素の反転輝度値Yxに適用して、フィルタ毎に、判断条件を満たす否かを判断することによって、注目画素が線画素であるか否かを判断する。S170では、第2線判定部2503bは、4個のフィルタのうちの少なくとも1つのフィルタによって注目画素が線画素であると判断されたか否かを判断する。 In S160, the second line determination unit 2503b selects a filter associated with the current line width Wd. S160 is performed in the same manner as S110. In S165, the second line determination unit 2503b applies the four filters selected in S160 to the inverted luminance value Yx of the pixels in the filter, and determines whether or not the determination condition is satisfied for each filter. , Determine whether the pixel of interest is a line pixel. In S170, the second line determination unit 2503b determines whether or not the pixel of interest is determined to be a line pixel by at least one of the four filters.

少なくとも1つのフィルタによって注目画素が線画素であると判断された場合(S170:Yes)、S190で、第2線判定部2503bは、線切替フラグをオンに設定する。S195では、第2線判定部2503bは、線切替フラグに対応付けられた線切替信号(ここでは、「1」の線切替信号)を、セレクタ2504に対して、出力する。そして、図27の処理が、終了する。 When it is determined by at least one filter that the pixel of interest is a line pixel (S170: Yes), in S190, the second line determination unit 2503b sets the line switching flag to ON. In S195, the second line determination unit 2503b outputs the line switching signal (here, the line switching signal of “1”) associated with the line switching flag to the selector 2504. Then, the process of FIG. 27 ends.

4個のフィルタのいずれを用いても、注目画素が線画素であると判断されない場合(S170:No)、S175で、第2線判定部2503bは、利用可能な全ての線幅Wdの処理が終了したか否かを判断する。具体的には、現行の線幅Wdが、利用可能なフィルタの線幅Wdの最大値WdMax以上であるか否かが、判断される。 If it is not determined that the pixel of interest is a line pixel by using any of the four filters (S170: No), in S175, the second line determination unit 2503b processes all available line widths Wd. Determine if it is finished. Specifically, it is determined whether or not the current line width Wd is equal to or greater than the maximum value WdMax of the line width Wd of the available filter.

未処理の線幅Wdが残っている場合(S175:No)、S180で、第2線判定部2503bは、現行の線幅Wdを、1段階大きい線幅Wdに更新する(本実施例では、線幅Wdに1が加算される)。そして、第2線判定部2503bは、S160へ移行し、更新済の線幅Wdの処理を実行する。 When the unprocessed line width Wd remains (S175: No), in S180, the second line determination unit 2503b updates the current line width Wd to a line width Wd one step larger (in this embodiment, the line width Wd is one step larger). 1 is added to the line width Wd). Then, the second line determination unit 2503b shifts to S160 and executes the processing of the updated line width Wd.

全ての線幅Wdの処理が終了した場合(S175:Yes)、S195で、第2線判定部2503bは、線切替フラグに対応付けられた線切替信号(ここでは、「0」の線切替信号)を、セレクタ2504に対して、出力する。そして、第2線判定部2503bは、図27の処理を終了する。 When the processing of all the line widths Wd is completed (S175: Yes), in S195, the second line determination unit 2503b is the line switching signal associated with the line switching flag (here, the line switching signal of "0"). ) Is output to the selector 2504. Then, the second line determination unit 2503b ends the process of FIG. 27.

なお、本実施例では、セレクタ2504(図17)は、第1線判定部2503aと第2線判定部2503bとのいずれか一方からS195で出力される線切替信号を受信する。そして、セレクタ2504は、線切替信号が「1」である場合、すなわち、第1線判定部2503aにて注目画素が線画素であると判定されたときと、第2線判定部2503bにて注目画素が線画素であると判定されたときと、のそれぞれにおいて、フィルタ処理されない判定信号2501を出力する。セレクタ2504は、線切替信号が「0」である場合、すなわち、第1線判定部2503aと第2線判定部2503bとの両方で注目画素が線画素でないと判定されたときは、平滑化信号を出力する。 In this embodiment, the selector 2504 (FIG. 17) receives the line switching signal output in S195 from either the first line determination unit 2503a or the second line determination unit 2503b. Then, the selector 2504 pays attention when the line switching signal is "1", that is, when the first line determination unit 2503a determines that the pixel of interest is a line pixel and when the second line determination unit 2503b determines that the pixel of interest is a line pixel. When it is determined that the pixel is a line pixel, and when it is determined, the determination signal 2501 which is not filtered is output. The selector 2504 is a smoothing signal when the line switching signal is "0", that is, when both the first line determination unit 2503a and the second line determination unit 2503b determine that the pixel of interest is not a line pixel. Is output.

図29は、明線用の初期値Wdiw(すなわち、利用可能なフィルタ)を決定する処理の説明図である。図29(A)は、決定処理のフローチャートを示している。S200では、線幅Wdが互いに異なる複数のフィルタのそれぞれに対応するテストパターンデータが生成される。図29(B)〜図29(E)は、テストパターンデータによって表されるテストパターンの例を示す説明図である。図29(B)〜図29(E)は、それぞれ、Wd=1、2、3、4のためのテストパターンTP1、TP2、TP3、TP4を、示している。各テストパターンTP1〜TP4は、黒色の下地BGと白色の縦線WL1〜WL4とを、それぞれ表している。白縦線WL1〜WL4は、対応する線幅Wdの白縦線を表すデータで、表されている。例えば、Wd=1のためのテストパターンTP1の白縦線WL1は、線幅が1である白縦線を表すデータによって、表される。テストパターンデータの生成方法としては、任意の方法を採用可能である。本実施例では、図示しないコンピュータが、プログラムに従って、テストパターンデータを生成する。 FIG. 29 is an explanatory diagram of a process for determining an initial value Wdiw (that is, an available filter) for a bright line. FIG. 29A shows a flowchart of the determination process. In S200, test pattern data corresponding to each of a plurality of filters having different line widths Wd is generated. 29 (B) to 29 (E) are explanatory views showing an example of a test pattern represented by the test pattern data. 29 (B) to 29 (E) show test patterns TP1, TP2, TP3, and TP4 for Wd = 1, 2, 3, and 4, respectively. Each test pattern TP1 to TP4 represents a black base BG and white vertical lines WL1 to WL4, respectively. The white vertical lines WL1 to WL4 are data representing white vertical lines having a corresponding line width Wd. For example, the white vertical line WL1 of the test pattern TP1 for Wd = 1 is represented by data representing a white vertical line having a line width of 1. Any method can be adopted as the method for generating the test pattern data. In this embodiment, a computer (not shown) generates test pattern data according to a program.

S210では、複合機100の制御部120は、テストパターンデータを用いて、印刷実行部140に、テストパターンTP1〜TP4を印刷させる。S220では、ユーザは、印刷されたテストパターンTP1〜TP4を目視で観察することによって、白線を識別できるか否かを判断する。上述したように、印刷される白線の線幅が小さい場合、色材の滲みなどに起因して、白線が潰れ得る。細い白線が潰れる場合、ユーザは、白線を識別できない。そして、ユーザは、識別可能な白線のうち、最も細い白線を特定する。特定された白線に対応付けられた線幅Wdを、最小幅Wminと呼ぶ。 In S210, the control unit 120 of the multifunction device 100 causes the print execution unit 140 to print the test patterns TP1 to TP4 using the test pattern data. In S220, the user determines whether or not the white line can be identified by visually observing the printed test patterns TP1 to TP4. As described above, when the line width of the printed white line is small, the white line may be crushed due to bleeding of the coloring material or the like. If the thin white line is crushed, the user cannot identify the white line. Then, the user identifies the thinnest white line among the identifiable white lines. The line width Wd associated with the specified white line is called the minimum width Wmin.

S230では、明線用の初期値Wdiwが、最小幅Wminに設定される。設定された最小幅Wminを表すデータは、第2線判定部2503b(図17)に、組み込まれる(例えば、最小幅Wminを表すデータは、第2線判定部2503bの図示しない不揮発性メモリに書き込まれる)。そして、図29(A)の処理は終了する。これにより、第2線判定部2503bは、印刷される場合に識別可能な明るい色の線の画素を、適切に、検出できる。 In S230, the initial value Wdiw for bright lines is set to the minimum width Wmin. The data representing the set minimum width Wmin is incorporated in the second line determination unit 2503b (FIG. 17) (for example, the data representing the minimum width Wmin is written in the non-volatile memory of the second line determination unit 2503b (not shown). ). Then, the process of FIG. 29 (A) is completed. As a result, the second line determination unit 2503b can appropriately detect pixels of bright color lines that can be identified when printed.

以上のように、第2実施例では、第1線判定部2503aと第2線判定部2503bとは、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられた複数のフィルタを用いて、判断条件を満たす否かを判断する。従って、種々の太さの線で表される文字のエッジを表す画素を、適切に、検出できる。 As described above, in the second embodiment, the first line determination unit 2503a and the second line determination unit 2503b are filters for detecting pixels representing lines, and are associated with lines having different thicknesses. It is judged whether or not the judgment condition is satisfied by using the obtained plurality of filters. Therefore, pixels representing the edges of characters represented by lines of various thicknesses can be appropriately detected.

また、明線用の線幅Wdの初期値Wdiwは、暗線用の線幅Wdの初期値(ここでは、1)よりも、大きい。従って、第1線判定部2503aによって利用され得るフィルタの総数Pは、第2線判定部2503bによって利用され得るフィルタの総数Qよりも、多い(本実施例では、総数P=16(線幅Wdの総数4×線の方向の種類数4)、総数Qは、1以上、Pとは異なる整数)。これにより、低輝度の画素が連続する線で表される細い文字のエッジを、適切に検出できる。また、高輝度の画素が連続する線で表される文字のエッジも、適切に検出できる。 Further, the initial value Wdiw of the line width Wd for the bright line is larger than the initial value (here, 1) of the line width Wd for the dark line. Therefore, the total number P of filters that can be used by the first line determination unit 2503a is larger than the total number Q of filters that can be used by the second line determination unit 2503b (in this embodiment, the total number P = 16 (line width Wd). The total number of 4 × the number of types in the direction of the line 4), the total number Q is 1 or more, and an integer different from P). As a result, the edges of thin characters represented by continuous lines of low-luminance pixels can be appropriately detected. In addition, the edge of a character represented by a continuous line of high-luminance pixels can be appropriately detected.

また、第1線判定部2503aによって用いられる複数のフィルタに対応付けられる複数の線のうちの最も細い線の線幅Wd(ここでは、1)は、第2線判定部2503bによって用いられる複数のフィルタに対応付けられる複数の線のうちの最も細い線の線幅Wdiwよりも、細い。従って、低輝度の画素が連続する細い線で表される文字のエッジを、適切に、検出できる。 Further, the line width Wd (here, 1) of the thinnest line among the plurality of lines associated with the plurality of filters used by the first line determination unit 2503a is a plurality of lines used by the second line determination unit 2503b. It is thinner than the line width Wdiw of the thinnest line among the plurality of lines associated with the filter. Therefore, the edge of a character represented by a continuous thin line of low-luminance pixels can be appropriately detected.

また、領域分離処理部103(図1)と第2入力処理部104と出力処理部110とは、第1入力処理部102によって取得された入力画像データに、領域分離処理部103の網点内文字判定部1005(図16)によって検出されたエッジ画素を用いる画像処理を行うことによって、印刷用の画像データである印刷データを生成する。そして、出力処理部110は、生成された印刷データを、印刷実行部140に供給する。ここで、図29(A)で説明したように、明線用の複数のフィルタに対応付けられる複数種類の線のうちの最も細い線の線幅Wdiwは、印刷実行部140によって利用される色材の滲み特定に基づいて、予め決定されている。従って、印刷実行部140によって利用される色材の滲み特性に適した太さの線で表される文字のエッジを、検出できる。 Further, the area separation processing unit 103 (FIG. 1), the second input processing unit 104, and the output processing unit 110 combine the input image data acquired by the first input processing unit 102 with the halftone dots of the area separation processing unit 103. Print data, which is image data for printing, is generated by performing image processing using the edge pixels detected by the character determination unit 1005 (FIG. 16). Then, the output processing unit 110 supplies the generated print data to the print execution unit 140. Here, as described with reference to FIG. 29 (A), the line width Wdiw of the thinnest line among the plurality of types of lines associated with the plurality of filters for bright lines is the color used by the print execution unit 140. It is determined in advance based on the identification of bleeding of the material. Therefore, it is possible to detect the edge of a character represented by a line having a thickness suitable for the bleeding characteristic of the color material used by the print execution unit 140.

C.変形例:
(1)図30は、変形例の領域分離処理部103Bの構成を示すブロック図である。上記第1実施例の領域分離処理部103(図2)では、図2の輝度データ取得部1002が、スキャンデータの各画素のRGB値から、輝度値Yを生成し、図17の反転処理部2507が、該輝度値Yを反転することによって、反転輝度値Yxを生成している。
C. Modification example:
(1) FIG. 30 is a block diagram showing a configuration of a region separation processing unit 103B of a modified example. In the area separation processing unit 103 (FIG. 2) of the first embodiment, the luminance data acquisition unit 1002 of FIG. 2 generates a luminance value Y from the RGB values of each pixel of the scan data, and the inversion processing unit of FIG. 17 2507 generates the inverted luminance value Yx by inverting the luminance value Y.

これに対して、本変形例の領域分離処理部103Bは、図2の領域分離処理部103の構成要素に加えて、反転処理部1010Bと、輝度データ取得部1002とは別の輝度データ取得部1002Bと、を備えている。反転処理部1010Bは、入力信号1001、すなわち、スキャンデータの各画素のRGB値に含まれる複数個の成分値(R値、G値、B値)を反転して、反転済みのRGB値を生成する。すなわち、反転処理部1010Bは、反転済みのRGB値を含む反転RGB画像データを生成する。反転前のRGB値を(Rin、Gin、Bin)とすると、反転済みのRGB値(Rout、Gout、Bout)は、以下の式(2)〜(4)で表される。 On the other hand, in the area separation processing unit 103B of this modification, in addition to the components of the area separation processing unit 103 of FIG. 2, the inversion processing unit 1010B and the luminance data acquisition unit different from the luminance data acquisition unit 1002 It is equipped with 1002B. The inversion processing unit 1010B inverts the input signal 1001, that is, a plurality of component values (R value, G value, B value) included in the RGB values of each pixel of the scan data, and generates an inverted RGB value. To do. That is, the inversion processing unit 1010B generates inverted RGB image data including the inverted RGB values. Assuming that the RGB values before inversion are (Rin, Gin, Bin), the inverted RGB values (Rout, Gout, Bout) are represented by the following equations (2) to (4).

Rout=Rmax−Rin …(2)
Gout=Gmax−Gin …(3)
Bout=Bmax−Bin …(4)
Rout = Rmax-Rin ... (2)
Gout = Gmax-Gin ... (3)
Bout = Bmax-Bin ... (4)

ここで、Rmax、Gmax、Bmaxは、それぞれ、R値、G値、B値が取り得る値の最大値であり、本実施例では、Rmax=Gmax=Bmax=255である。反転済みのRGB値を示す信号は、輝度データ取得部1002Bに入力される。 Here, Rmax, Gmax, and Bmax are the maximum values that the R value, G value, and B value can take, respectively, and in this embodiment, Rmax = Gmax = Bmax = 255. The signal indicating the inverted RGB value is input to the luminance data acquisition unit 1002B.

輝度データ取得部1002Bは、反転済みのRGB値に基づいて、反転済みのRGB値が示す色の明るさの度合いである輝度値を示す信号を、反転輝度値YxBとして算出する。属性判定用の画素単位の判定信号として生成する。輝度値は、RGB値に含まれる複数個の成分値(R値、G値、B値)を用いて取得される。反転輝度値YxBを示す信号は、網点内文字判定部1005に入力される。 The luminance data acquisition unit 1002B calculates a signal indicating a luminance value, which is the degree of brightness of the color indicated by the inverted RGB value, as an inverted luminance value YxB, based on the inverted RGB value. It is generated as a pixel-based determination signal for attribute determination. The luminance value is acquired by using a plurality of component values (R value, G value, B value) included in the RGB value. The signal indicating the inverted luminance value YxB is input to the halftone dot character determination unit 1005.

この変形例では、図17の網点内文字判定部1005において、反転処理部2507は、省略され、図30の輝度データ取得部1002Bからの反転輝度値YxBが、第2線判定部2503bに入力される。 In this modification, in the halftone dot character determination unit 1005 of FIG. 17, the inversion processing unit 2507 is omitted, and the inversion brightness value YxB from the luminance data acquisition unit 1002B of FIG. 30 is input to the second line determination unit 2503b. Will be done.

以上の説明から解るように、上記第1実施例および第2実施例では、図2の輝度データ取得部1002によって生成される輝度画像データが、第1の画像データの例であり、図17の反転処理部2507によって生成される反転輝度画像データが、第2の画像データの例である。そして、本変形例では、スキャンデータ(RGB画像データ)が第1の画像データの例であり、図30の反転処理部1010Bによって生成される反転RGB画像データが第2の画像データの例である。そして、上記第1実施例および第2実施例では、適応的スムージング処理部2401によって平滑化される対象となる画像データは、第1の画像データそのもの(すなわち、輝度画像データ)である。これに対して、本変形例では、適応的スムージング処理部2401によって平滑化される対象となる画像データは、第1の画像データ(すなわち、RGB画像データ)を用いて、生成される輝度画像データである。このように、適応的スムージング処理部2401によって平滑化される対象となる画像データは、第1の画像データに基づく画像データ(第1の画像データそのもの、あるいは、第1の画像データを用いて生成される画像データ)であれば良い。 As can be seen from the above description, in the first embodiment and the second embodiment, the brightness image data generated by the brightness data acquisition unit 1002 of FIG. 2 is an example of the first image data, and is shown in FIG. The inverted brightness image data generated by the inversion processing unit 2507 is an example of the second image data. In this modification, the scan data (RGB image data) is an example of the first image data, and the inverted RGB image data generated by the inversion processing unit 1010B of FIG. 30 is an example of the second image data. .. Then, in the first embodiment and the second embodiment, the image data to be smoothed by the adaptive smoothing processing unit 2401 is the first image data itself (that is, the luminance image data). On the other hand, in this modification, the target image data smoothed by the adaptive smoothing processing unit 2401 is the brightness image data generated by using the first image data (that is, RGB image data). Is. In this way, the image data to be smoothed by the adaptive smoothing processing unit 2401 is generated by using the image data based on the first image data (the first image data itself or the first image data). Image data to be generated) will do.

なお、第1実施例および第2実施例において、平滑化される対象となる画像データは、輝度画像データに代えて、反転輝度画像データであっても良い。 In the first embodiment and the second embodiment, the image data to be smoothed may be inverted luminance image data instead of the luminance image data.

(2)第1線判定部2503aおよび第2線判定部2503b(図17)によって注目画素が線画素であると判断されるための判断条件、すなわち、注目画素が、基準未満の輝度を有する複数個の画素が連続する低輝度領域内にあることを示す条件は、上述した条件(1)〜(3)と条件(4)〜(6)とに限らず、種々の条件であってよい。例えば、以下の条件(A1)、(B1)の両方が満たされる場合、もしくは、条件(A1)、(C1)の両方が満たされる場合に、注目画素は線画素であると判断されても良い。
(A1)ブロック2603内の複数個の画素の輝度が、それぞれ、所定の閾値TH1(例えば、100)以下であること
(B2)ブロック2602内の複数個の画素の輝度が、それぞれ、所定の閾値TH2(例えば、150)以上であること
(C2)ブロック2604内の複数個の画素の輝度が、それぞれ、所定の閾値TH2(例えば、150)以上であること
(2) Judgment conditions for the first line determination unit 2503a and the second line determination unit 2503b (FIG. 17) to determine that the pixel of interest is a line pixel, that is, a plurality of pixels of interest having a brightness less than the reference. The conditions indicating that the pixels are in the continuous low-luminance region are not limited to the above-mentioned conditions (1) to (3) and conditions (4) to (6), and may be various conditions. For example, when both of the following conditions (A1) and (B1) are satisfied, or when both of the conditions (A1) and (C1) are satisfied, it may be determined that the pixel of interest is a line pixel. ..
(A1) The brightness of the plurality of pixels in the block 2603 is equal to or less than a predetermined threshold value TH1 (for example, 100). (B2) The brightness of the plurality of pixels in the block 2602 is a predetermined threshold value. TH2 (eg, 150) or higher (C2) The brightness of the plurality of pixels in the block 2604 is TH2 (eg, 150) or higher, respectively.

さらには、注目画素の輝度が、所定の閾値TH3(例えば、50)以下であり、かつ、注目画素から所定方向(例えば、上下左右および斜め方向)に連続する所定数(例えば、5個)の画素の輝度が、所定の閾値TH3である場合に、該注目画素は、線画素であると判断されても良い。 Further, the brightness of the pixel of interest is equal to or less than a predetermined threshold value TH3 (for example, 50), and a predetermined number (for example, 5) continuous from the pixel of interest in a predetermined direction (for example, up / down / left / right and diagonal directions). When the brightness of the pixel is a predetermined threshold value TH3, the pixel of interest may be determined to be a line pixel.

このように、判断条件は、注目画素の周囲の画素(例えば、ブロック2602や、ブロック2604内の複数個の画素)の輝度(例えば、周囲の画素の平均的な輝度)を基準に、判断される条件であっても良いし、変形例の閾値TH3のように、予め定められた絶対値を基準に、判断される条件であっても良い。 As described above, the determination condition is determined based on the brightness (for example, the average brightness of the surrounding pixels) of the pixels around the pixel of interest (for example, block 2602 and a plurality of pixels in the block 2604). It may be a condition that is determined based on a predetermined absolute value, such as the threshold value TH3 of the modified example.

(3)第1実施例および第2実施例では、判断条件として、注目画素が、基準未満の輝度を有する複数個の画素が連続する低輝度領域内にあることを示す条件が用いられている。これに代えて、判断条件として、注目画素が、基準以上の輝度を有する複数個の画素が連続する高輝度領域内にあることを示す条件が用いられても良い。例えば、以下の条件(1)(2)(7)が全て満たされる場合、もしくは、以下の条件(4)(5)(8)が全て満たされる場合に、注目画素は、線画素であると判断されても良い。
条件(1)MAX(2602)− MIN(2602) ≦ 閾値1
条件(2)MAX(2603)− MIN(2603) ≦ 閾値1
条件(7)ALL(2603)≧ ALL(2602)+ 閾値2
条件(4)MAX(2604)− MIN(2604) ≦ 閾値1
条件(5)MAX(2603)− MIN(2603) ≦ 閾値1
条件(8)ALL(2603)≧ ALL(2604)+ 閾値2
上記の条件(1)(2)(4)(5)は、第1実施例にて説明した条件(1)(2)(4)(5)と同一である。条件(7)は、ブロック2602内の画素の値の総和と、画素ブロック2603内の画素の値の総和と、を比較し、画素ブロック2603が画素ブロック2602に対して、画素の値が相対的に高いことを評価する条件である。条件(8)は、ブロック2604内の画素の値の総和と、画素ブロック2603内の画素の値の総和と、を比較し、画素ブロック2603が画素ブロック2604に対して、画素の値が相対的に高いことを評価する条件である。
(3) In the first embodiment and the second embodiment, as a determination condition, a condition indicating that the pixel of interest is in a continuous low-luminance region of a plurality of pixels having a brightness less than the reference is used. .. Instead of this, as a determination condition, a condition indicating that the pixel of interest is in a continuous high-luminance region of a plurality of pixels having a brightness equal to or higher than the reference may be used. For example, when the following conditions (1), (2), and (7) are all satisfied, or when the following conditions (4), (5), and (8) are all satisfied, the pixel of interest is a line pixel. It may be judged.
Condition (1) MAX (2602) -MIN (2602) ≤ Threshold 1
Condition (2) MAX (2603) -MIN (2603) ≤ Threshold 1
Condition (7) ALL (2603) ≧ ALL (2602) + Threshold 2
Condition (4) MAX (2604) -MIN (2604) ≤ Threshold 1
Condition (5) MAX (2603) -MIN (2603) ≤ Threshold 1
Condition (8) ALL (2603) ≧ ALL (2604) + Threshold 2
The above conditions (1), (2), (4), and (5) are the same as the conditions (1), (2), (4), and (5) described in the first embodiment. Condition (7) compares the sum of the pixel values in the block 2602 with the sum of the pixel values in the pixel block 2603, and the pixel block 2603 is relative to the pixel block 2602 in terms of pixel values. It is a condition to evaluate that it is high. Condition (8) compares the sum of the pixel values in the block 2604 with the sum of the pixel values in the pixel block 2603, and the pixel block 2603 is relative to the pixel block 2604 in terms of pixel values. It is a condition to evaluate that it is high.

この条件が採用される場合には、第1線判定部2503aによって注目画素が線画素であると判定されることは、該注目画素が明るい線上の線画素であると判定されることを意味し、第2線判定部2503bによって注目画素が線画素であると判定されることは、該注目画素が暗い線上の線画素であると判定されることを意味する。この場合でも、結果的に、第1線判定部2503aと第2線判定部2503bとによって、注目画素が、暗い線上の線画素であるか、明るい線上の線画素であるか、あるいは、いずれの線画素でもないか、が判断されることになる。 When this condition is adopted, the determination by the first line determination unit 2503a that the pixel of interest is a line pixel means that the pixel of interest is determined to be a line pixel on a bright line. When the second line determination unit 2503b determines that the pixel of interest is a line pixel, it means that the pixel of interest is determined to be a line pixel on a dark line. Even in this case, as a result, the first line determination unit 2503a and the second line determination unit 2503b either indicate that the pixel of interest is a line pixel on a dark line, a line pixel on a bright line, or It will be judged whether it is also a line pixel.

なお、注目画素が、基準以上の輝度を有する複数個の画素が連続する高輝度領域内にあることを示す条件も、上記条件に限らず、例えば、変形例(1)のように、様々な変形が可能である。一般的には、第1線判定部2503aと第2線判定部2503bとで用いられる判断条件は、注目画素が、基準未満の輝度を有する複数個の画素が連続する低輝度領域内にあることを示す第1種の条件と、注目画素が、基準以上の輝度を有する複数個の画素が連続する高輝度領域内にあることを示す第2種の条件と、のうちの一方であることが好ましい。 The conditions for indicating that the pixel of interest is in the continuous high-luminance region of a plurality of pixels having a brightness equal to or higher than the reference value are not limited to the above conditions, and are various as in the modified example (1), for example. It can be transformed. Generally, the determination condition used by the first line determination unit 2503a and the second line determination unit 2503b is that the pixel of interest is in a low-luminance region in which a plurality of pixels having a brightness less than the reference are continuous. One of the first type of condition indicating that the pixel of interest is in a continuous high-luminance region of a plurality of pixels having a brightness equal to or higher than the reference value. preferable.

(4)第1線判定部2503aによって利用され得る1以上のフィルタと、第2線判定部2503bによって利用され得る1以上のフィルタとしては、図18、図27〜図29で説明したフィルタに代えて、他の種々のフィルタであってよい。例えば、1個のフィルタに含まれる3個のブロック(例えば、図28(A)の3個のブロック2662、2663、2664)の間隔は、各ブロックの幅と異なっていてもよい。一般的には、フィルタとしては、特定の太さの線を表す画素を検出することが可能な種々のフィルタ、すなわち、特定の太さの線を表す領域に含まれる画素を検出することが可能な種々のフィルタを、採用可能である。 (4) One or more filters that can be used by the first line determination unit 2503a and one or more filters that can be used by the second line determination unit 2503b are replaced with the filters described in FIGS. 18 and 27 to 29. It may be various other filters. For example, the spacing of the three blocks (eg, the three blocks 2662, 2663, 2664 in FIG. 28 (A)) contained in one filter may be different from the width of each block. Generally, as a filter, it is possible to detect various filters capable of detecting pixels representing a line of a specific thickness, that is, pixels included in a region representing a line of a specific thickness. Various filters can be adopted.

また、第2実施例において、第2線判定部2503bによって利用され得るフィルタの総数Qは、第1線判定部2503aによって利用され得るフィルタの総数Pと同じであってよく、これに代えて、総数Pとは異なる任意の整数であってよい。ここで、P>Qであってもよく、P<Qであってもよい。 Further, in the second embodiment, the total number Q of the filters that can be used by the second line determination unit 2503b may be the same as the total number P of the filters that can be used by the first line determination unit 2503a. It may be any integer different from the total number P. Here, P> Q may be satisfied, or P <Q may be satisfied.

また、第1線判定部2503aによって利用され得る暗線用の1以上のフィルタの最小の線幅が、第2線判定部2503bによって利用され得る明線用の1以上のフィルタの最小の線幅よりも太くてもよい。また、第2線判定部2503bによって利用され得る1以上のフィルタの最小の線幅は、色材の滲み特性とは独立に決定されてもよい。 Further, the minimum line width of one or more filters for dark lines that can be used by the first line determination unit 2503a is larger than the minimum line width of one or more filters for bright lines that can be used by the second line determination unit 2503b. May be thick. Further, the minimum line width of one or more filters that can be used by the second line determination unit 2503b may be determined independently of the bleeding characteristic of the coloring material.

また、フィルタとしては、特定の方向に延びる線状の領域と、その線状の領域を挟む両側の領域の少なくとも一方と、の間に輝度値の差が生じているか否かを判断するための、種々のフィルタを採用してよい。 Further, as a filter, it is for determining whether or not there is a difference in luminance value between a linear region extending in a specific direction and at least one of two regions sandwiching the linear region. , Various filters may be adopted.

なお、第1線判定部2503aは、そのようなフィルタを用いずに、注目画素が第1種の特定領域に含まれるか否かを判断してもよい。例えば、第1線判定部2503aは、輝度画像データを解析することによって輝度値が所定の第1閾値未満である画素が連続する領域を特定し、特定された領域を第1種の特定領域として採用してもよい。同様に、第2線判定部2503bは、そのようなフィルタを用いずに、注目画素が第2種の特定領域に含まれるか否かを判断してもよい。例えば、第2線判定部2503bは、輝度画像データを解析することによって輝度値が所定の第2閾値を超える画素が連続する領域を特定し、特定された領域を第2種の特定領域として採用してもよい(ここで、第2閾値は、第1閾値以上)。 The first line determination unit 2503a may determine whether or not the pixel of interest is included in the specific region of the first type without using such a filter. For example, the first line determination unit 2503a identifies a region in which pixels whose luminance value is less than a predetermined first threshold value is continuous by analyzing the luminance image data, and uses the identified region as a first type specific region. It may be adopted. Similarly, the second line determination unit 2503b may determine whether or not the pixel of interest is included in the specific region of the second type without using such a filter. For example, the second line determination unit 2503b identifies a region in which pixels whose luminance value exceeds a predetermined second threshold value is continuous by analyzing the luminance image data, and adopts the identified region as a second type specific region. (Here, the second threshold value is equal to or higher than the first threshold value).

(5)上記各実施例では、処理済画像データは、印刷実行部140によって、処理済画像を印刷するために用いられている(図26)。これに限らず、処理済画像データは、処理済画像を液晶ディスプレイなどの表示部に表示するために用いられても良い。 (5) In each of the above embodiments, the processed image data is used by the print execution unit 140 to print the processed image (FIG. 26). Not limited to this, the processed image data may be used to display the processed image on a display unit such as a liquid crystal display.

(6)上記各実施例では、入力信号1001(図1)は、RGB値である。これに代えて、他の表色系の色値が用いられても良い。例えば、スキャンデータの各画素の値は、CMY表色系の色値に変換された後に、入力信号1001として、領域分離処理部103に入力されても良い。 (6) In each of the above embodiments, the input signal 1001 (FIG. 1) is an RGB value. Instead of this, color values of other color systems may be used. For example, the value of each pixel of the scan data may be input to the area separation processing unit 103 as an input signal 1001 after being converted into a color value of the CMY color system.

(7)上記各実施例の領域分離処理部103に含まれる各部、例えば、文字判定部1003、網点判定部1004、網点内文字判定部1005が実行する具体的な処理は、一例であり、適宜に変更される。例えば、図3のエリア積算部1105、1106が用いる縦3画素×横3画素の周辺範囲は、他のサイズの範囲、例えば、縦3画素×横5画素あるいは縦5画素×横5画素の範囲であっても良い。また、図12の積算処理部1209は、3種類の積算範囲を用いているが、これらの積算範囲のサイズや種類数は、適宜に変更され得る。また、閾値判定部1211が、積算結果を判定するための閾値は、用いる積算範囲のサイズ等によって適宜に調整される。図12の総合判定部1213が、これらの閾値判定部1211によって積算範囲ごとに出力される複数個の判定結果を用いて、網点判定信号を生成する際には、例えば、論理和、論理積の論理演算を、どのように組み合わせるかは、適宜に変更され得る。 (7) Specific processing executed by each unit included in the area separation processing unit 103 of each of the above embodiments, for example, the character determination unit 1003, the halftone dot determination unit 1004, and the halftone dot in-character determination unit 1005, is an example. , Will be changed accordingly. For example, the peripheral range of vertical 3 pixels × horizontal 3 pixels used by the area integration unit 1105 and 1106 in FIG. 3 is a range of other sizes, for example, a range of vertical 3 pixels × horizontal 5 pixels or vertical 5 pixels × horizontal 5 pixels. It may be. Further, the integration processing unit 1209 of FIG. 12 uses three types of integration ranges, and the size and number of types of these integration ranges can be appropriately changed. Further, the threshold value for the threshold value determination unit 1211 to determine the integration result is appropriately adjusted according to the size of the integration range to be used and the like. When the comprehensive determination unit 1213 of FIG. 12 uses a plurality of determination results output for each integration range by these threshold value determination units 1211 to generate a halftone dot determination signal, for example, a logical sum or a logical product. How to combine the logical operations of can be changed as appropriate.

(8)出力処理部110が、印刷データを生成する処理(図26)は、一例であり適宜に変更され得る。例えば、出力処理部110は、ハーフトーン処理として、誤差拡散法、ディザ法を採用する例を示したがこれに限られない。例えば、誤差拡散法のみを用いる場合、文字(網点内文字を含む)と写真(網点を含む)とでは、前者の誤差拡散マトリクスサイズを小さくし、後者の誤差拡散マトリクスサイズを大きくすることが好ましい。また、ディザ処理のみを用いる場合には、文字と写真とで異なるディザマトリクスパターンを採用しても良い。また、ハーフトーン処理の方法として、これ以外の方法を採用しても構わない。 (8) The process (FIG. 26) in which the output processing unit 110 generates print data is an example and can be changed as appropriate. For example, the output processing unit 110 has shown an example of adopting an error diffusion method or a dither method as halftone processing, but the present invention is not limited to this. For example, when only the error diffusion method is used, the error diffusion matrix size of the former is reduced and the error diffusion matrix size of the latter is increased for characters (including characters in halftone dots) and photographs (including halftone dots). Is preferable. Further, when only the dither processing is used, different dither matrix patterns may be adopted for the characters and the photograph. Further, as the halftone processing method, other methods may be adopted.

(9)上記実施例では、入力画像データは、スキャンデータであるが、これに限られない。入力画像データは、印刷物などの原稿を、2次元イメージセンサを備えるデジタルカメラによって光学的に撮影して生成される撮像画像データであっても良い。また、対象画像データは、文書やイラストなどを作成するためのワードプロセッサなどのアプリケーションプログラムを用いて生成された画像データであってもよい。 (9) In the above embodiment, the input image data is scan data, but is not limited to this. The input image data may be captured image data generated by optically photographing a document such as a printed matter with a digital camera provided with a two-dimensional image sensor. Further, the target image data may be image data generated by using an application program such as a word processor for creating a document, an illustration, or the like.

(10)エッジ強調部2402と閾値判定部2403とによって検出されるエッジ画素は、任意の処理に利用されてよい。例えば、エッジを表すエッジ画像データの生成に利用されてもよい。 (10) The edge pixels detected by the edge enhancement unit 2402 and the threshold value determination unit 2403 may be used for arbitrary processing. For example, it may be used to generate edge image data representing an edge.

(11)図1の複合機100が実行する処理、例えば、領域分離処理部103や第2入力処理部104や出力処理部110が実行する処理の全部または一部は、複合機100に限らず、種々の装置によって実行されても良い。例えば、スキャナやデジタルカメラが、自身で生成された入力画像データを用いて、領域分離処理部103や第2入力処理部104が実行する処理を実行しても良い。また、例えば、スキャナやプリンタと通信可能な接続される端末装置(図示省略)やサーバ(図示省略)が、スキャナから取得したスキャンデータを用いて、領域分離処理部103や第2入力処理部104および出力処理部110が実行する処理を実行しても良い。そして、その結果生成される印刷データがプリンタに供給されても良い。また、ネットワークを介して互いに通信可能な複数個のコンピュータ(例えば、クラウドサーバ)が、領域分離処理部103や第2入力処理部104および出力処理部110が実行する処理を一部ずつ分担して、全体として、画像処理を実行してもよい。この場合、複数個のコンピュータの全体が、画像処理装置の例である。 (11) All or part of the processing executed by the multifunction device 100 of FIG. 1, for example, the processing executed by the area separation processing unit 103, the second input processing unit 104, and the output processing unit 110 is not limited to the multifunction device 100. , May be performed by various devices. For example, the scanner or the digital camera may execute the process executed by the area separation processing unit 103 or the second input processing unit 104 using the input image data generated by itself. Further, for example, a connected terminal device (not shown) or a server (not shown) capable of communicating with a scanner or a printer uses scan data acquired from the scanner to perform an area separation processing unit 103 or a second input processing unit 104. And the process executed by the output processing unit 110 may be executed. Then, the print data generated as a result may be supplied to the printer. Further, a plurality of computers (for example, a cloud server) capable of communicating with each other via a network partially share the processing executed by the area separation processing unit 103, the second input processing unit 104, and the output processing unit 110. , As a whole, image processing may be performed. In this case, the entire plurality of computers is an example of an image processing device.

なお、上記各実施例では、領域分離処理部103や第2入力処理部104および出力処理部110が実行する処理の全部または一部は、これらのハードウエア回路によって実行されるが、CPUであるメインプロセッサ101によって実行されても良い。この場合には、領域分離処理部103や第2入力処理部104や出力処理部110が実行する処理のうち、メインプロセッサ101が実行する処理のためのプログラムは、コンピュータプログラムPGに含まれる。例えば、第1実施例では、メインプロセッサ101は、領域分離処理部103によって実行される輝度画像データを生成する処理と、輝度画像データを用いて、注目画素が、第1種の特定領域に含まれるか否かを判断する処理と、輝度画像データを用いて、注目画素が線画素であるか否かを判断する処理と、輝度画像データを用いて、反転輝度画像データを生成する処理と、反転輝度画像データを用いて、注目画素が線画素であるか否かを判断する処理と、これらの判断結果を用いて輝度画像データを平滑化することによって平滑化データを生成する処理と、平滑化データを用いて、複数個のエッジ画素を特定する処理と、を、コンピュータプログラムPGを実行することによって、実現しても良い。 In each of the above embodiments, all or part of the processing executed by the area separation processing unit 103, the second input processing unit 104, and the output processing unit 110 is executed by these hardware circuits, but is a CPU. It may be executed by the main processor 101. In this case, among the processes executed by the area separation processing unit 103, the second input processing unit 104, and the output processing unit 110, the program for the processing executed by the main processor 101 is included in the computer program PG. For example, in the first embodiment, the main processor 101 uses the process of generating the brightness image data executed by the area separation processing unit 103 and the brightness image data to include the pixel of interest in the specific area of the first type. A process of determining whether or not the brightness image data is used, a process of determining whether or not the pixel of interest is a line pixel using the brightness image data, and a process of generating inverted brightness image data using the brightness image data. A process of determining whether or not the pixel of interest is a line pixel using the inverted brightness image data, a process of generating smoothing data by smoothing the brightness image data using these determination results, and smoothing. The process of identifying a plurality of edge pixels using the converted data may be realized by executing the computer program PG.

このように、上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部あるいは全部をハードウェアに置き換えるようにしてもよい。 In this way, in each of the above embodiments, a part of the configuration realized by the hardware may be replaced with software, and conversely, a part or all of the configuration realized by the software may be replaced with the hardware. It may be replaced.

以上、実施例、変形例に基づき本発明について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれる。 Although the present invention has been described above based on Examples and Modifications, the above-described embodiments of the invention are for facilitating the understanding of the present invention and do not limit the present invention. The present invention can be modified and improved without departing from the spirit and claims, and the present invention includes equivalents thereof.

100…複合機、101…メインプロセッサ、102…第1入力処理部、103…領域分離処理部、104…第2入力処理部、106…インタープリタ、107…データ圧縮部、108…解像度変換部、109…データ復号部、110…出力処理部、111…第1画像メモリ、112…第1フラグメモリ、113…メインメモリ、114…第2画像メモリ、115…第2フラグメモリ、116…第2画像メモリ、117…不揮発性メモリ、120…制御部、130…読取実行部、140…印刷実行部、200…複合機、601…変換部、603…合成部、604…フィルタ処理部、604…フィルタ処理部、605…フィルタ処理部、606…フィルタ処理部、607…セレクタ、608…ガンマ補正部、609…誤差拡散処理部、610…ガンマ補正部、611…ディザ処理部、612…セレクタ、1001…入力信号、1002…輝度データ取得部、1003…文字判定部、1004…網点判定部、1005…網点内文字判定部、1006…属性フラグ生成部、1007…文字フラグ、1008…網点フラグ、1009…網点内文字フラグ、1102…エッジ強調部、1103…閾値判定部、1104…閾値判定部、1105…エリア積算部、1106…エリア積算部、1107…閾値判定部、1108…閾値判定部、1109…総合判定部、1110…文字判定信号、1202…エッジ強調部、1203…閾値判定部、1204…閾値判定部、1205…孤立量判定部、1206…孤立量判定部、1209…積算処理部、1211…閾値判定部、1213…総合判定部、1215…網点判定信号、1302…外エッジ領域、1303…内エッジ領域、1304…領域、1305…領域、1306…領域、1501…エッジ境界部、1502…文字、1503…下地、1504…輝度画像データ、1507…エッジ抽出データ、1510…断面、1601…網点エッジ境界部、1601…エッジ境界部、1602…網点、1603…下地、1604…輝度画像データ、1607…エッジ抽出データ、1610…断面、1700…内エッジ信号、1710…判定パターン、1712…黒画素、1713…白画素、1810…内エッジ信号、1820…内エッジ信号、1830…内エッジ信号、1840…内エッジ信号、2011…第1積算部、2012…第2積算部、2013…第3積算部、2021…第1判定部、2022…第2判定部、2023…第3判定部、2101…注目画素、2102…積算範囲、2103…積算範囲、2104…積算範囲、2205…エッジ、2401…適応的スムージング処理部、2402…エッジ強調部、2403…閾値判定部、2501…判定信号、2502…平滑化処理部、2503a…第1線判定部、2503b…第2線判定部、2504…セレクタ、2505…適応的スムージング信号、2507…反転処理部、PG…コンピュータプログラム 100 ... Complex machine, 101 ... Main processor, 102 ... First input processing unit, 103 ... Area separation processing unit, 104 ... Second input processing unit, 106 ... Interpreter, 107 ... Data compression unit, 108 ... Resolution conversion unit, 109 ... Data decoding unit, 110 ... Output processing unit, 111 ... First image memory, 112 ... First flag memory, 113 ... Main memory, 114 ... Second image memory, 115 ... Second flag memory, 116 ... Second image memory , 117 ... Non-volatile memory, 120 ... Control unit, 130 ... Read execution unit, 140 ... Print execution unit, 200 ... Composite machine, 601 ... Conversion unit, 603 ... Synthesis unit, 604 ... Filter processing unit, 604 ... Filter processing unit , 605 ... Filter processing unit, 606 ... Filter processing unit, 607 ... Selector, 608 ... Gamma correction unit, 609 ... Error diffusion processing unit, 610 ... Gamma correction unit, 611 ... Data processing unit, 612 ... Selector, 1001 ... Input signal , 1002 ... Brightness data acquisition unit, 1003 ... Character determination unit, 1004 ... Halftone dot determination unit, 1005 ... In-halftone dot character determination unit, 1006 ... Attribute flag generation unit, 1007 ... Character flag, 1008 ... Halftone dot flag, 1009 ... Halftone dot character flag 1102 ... Edge enhancement unit 1103 ... Threshold determination unit 1104 ... Threshold determination unit 1105 ... Area integration unit 1106 ... Area integration unit 1107 ... Threshold determination unit 1108 ... Threshold determination unit 1109 ... Comprehensive determination unit 1110 ... Character determination signal 1202 ... Edge enhancement unit 1203 ... Threshold determination unit 1204 ... Threshold determination unit 1205 ... Isolation amount determination unit 1206 ... Isolation amount determination unit, 1209 ... Integration processing unit, 1211 ... Threshold determination unit, 1213 ... Comprehensive determination unit, 1215 ... Halftone dot determination signal, 1302 ... Outer edge region, 1303 ... Inner edge region, 1304 ... Region, 1305 ... Region, 1306 ... Region, 1501 ... Edge boundary portion, 1502 ... Character , 1503 ... background, 1504 ... brightness image data, 1507 ... edge extraction data, 1510 ... cross section, 1601 ... halftone dot edge boundary, 1601 ... edge boundary, 1602 ... halftone dot, 1603 ... background, 1604 ... brightness image data, 1607 ... Edge extraction data, 1610 ... Cross section, 1700 ... Inner edge signal, 1710 ... Judgment pattern, 1712 ... Black pixel, 1713 ... White pixel, 1810 ... Inner edge signal, 1820 ... Inner edge signal, 1830 ... Inner edge signal, 1840 ... Inner edge signal, 2011 ... 1st integration unit, 2012 ... 2nd integration unit, 2013 ... 3rd integration unit, 2021 ... 1st judgment unit, 20 22 ... 2nd determination unit, 2023 ... 3rd determination unit, 2101 ... Attention pixel, 2102 ... Integration range, 2103 ... Integration range, 2104 ... Integration range, 2205 ... Edge, 2401 ... Adaptive smoothing processing unit, 2402 ... Edge enhancement Unit, 2403 ... Threshold determination unit, 2501 ... Judgment signal, 2502 ... Smoothing processing unit, 2503a ... First line determination unit, 2503b ... Second line determination unit, 2504 ... Selector, 2505 ... Adaptive smoothing signal, 2507 ... Inversion Processing unit, PG ... Computer program

Claims (6)

画像処理装置であって、
第1の画像を示す第1の画像データを取得する画像データ取得部と、
前記第1の画像データを用いて、前記第1の画像内の第1の注目画素を含む複数個の画素が特定種の判断条件を満たすか否かを判断する第1判断部であって、前記特定種の判断条件は、前記第1の注目画素が、基準未満の輝度を有する複数個の画素が連続する低輝度領域内にあることを示す第1種の条件と、前記第1の注目画素が、基準以上の輝度を有する複数個の画素が連続する高輝度領域内にあることを示す第2種の条件と、のうちの一方の条件である、前記第1判断部と、
前記第1の画像データを用いて、第2の画像を示す第2の画像データを生成する画像データ生成部であって、前記第2の画像データは、前記第1の画像データに含まれる複数個の画素の値に対応する複数個の対応値を含み、前記複数個の対応値のそれぞれは、前記第1の画像データの対応する画素の値を反転した値である、前記画像データ生成部と、
前記第2の画像データを用いて、前記第2の画像内の第2の注目画素を含む複数個の画素が、前記一方の条件である前記特定種の判断条件を満たすか否かを判断する第2判断部と、
前記第1の画像データに基づく対象画像データに対して、前記対象画像データによって示される対象画像を平滑化する平滑化処理を実行して、平滑化データを生成する平滑化部であって、前記対象画像内のM個(Mは2以上の整数)の画素のうち、前記特定種の判断条件を満たす前記第1画像内の複数個の画素と、前記特定種の判断条件を満たす前記第2の画像内の複数個の画素と、の少なくとも一方に対応するN1個(N1はM未満の整数)の画素を平滑化せず、前記特定種の判断条件を満たさない前記第1画像内の複数個の画素と対応し、かつ、前記特定種の判断条件を満たさない前記第2の画像内の複数個の画素と対応するN2個(N2は、N1+N2=Mを満たす整数)の画素を平滑化することによって、前記平滑化データを生成する、前記平滑化部と、
前記平滑化データを用いて、エッジを示す複数個のエッジ画素を特定するエッジ特定部と、
を備え
前記第1判断部と前記第2判断部とは、それぞれ、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられた複数のフィルタを用いて、前記特定種の判断条件を満たすか否かを判断する、画像処理装置。
It is an image processing device
An image data acquisition unit that acquires the first image data indicating the first image, and
A first determination unit for determining whether or not a plurality of pixels including the first pixel of interest in the first image satisfy a specific type of determination condition by using the first image data. The specific type of determination condition includes the first type of condition indicating that the first attention pixel is in a continuous low brightness region of a plurality of pixels having a brightness less than the reference, and the first attention. The first determination unit, which is one of the second type conditions indicating that a plurality of pixels having a brightness equal to or higher than a reference are in a continuous high brightness region.
An image data generation unit that uses the first image data to generate second image data indicating a second image, wherein the second image data is a plurality of images included in the first image data. The image data generation unit includes a plurality of corresponding values corresponding to the values of the individual pixels, and each of the plurality of corresponding values is a value obtained by inverting the value of the corresponding pixel of the first image data. When,
Using the second image data, it is determined whether or not a plurality of pixels including the second pixel of interest in the second image satisfy the determination condition of the specific type, which is one of the conditions. Second judgment department and
A smoothing unit that generates smoothing data by executing a smoothing process for smoothing the target image indicated by the target image data on the target image data based on the first image data. among the pixels of M (M is an integer of 2 or more) in the target image, wherein a plurality of pixels of a particular species of determination satisfies said first image, the particular species of determination satisfies said first a plurality of pixels in the two images, N1 pieces corresponding to at least one of (N1 is an integer less than M) without smoothing the pixels of the not satisfy the particular species of determination conditions of the first image N2 pixels (N2 is an integer satisfying N1 + N2 = M) corresponding to the plurality of pixels in the second image and corresponding to the plurality of pixels in the second image that do not satisfy the determination condition of the specific type. The smoothing unit, which generates the smoothing data by smoothing,
Using the smoothing data, an edge specifying portion that specifies a plurality of edge pixels indicating an edge,
Equipped with a,
The first determination unit and the second determination unit are filters for detecting pixels representing lines, respectively, and are specified by using a plurality of filters associated with lines having different thicknesses. An image processing device that determines whether or not a species determination condition is met.
請求項に記載の画像処理装置であって、
前記第1判断部は、それぞれ、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられたP個(Pは1以上の整数)のフィルタの少なくとも1つを用いて、前記特定種の判断条件を満たすか否かを判断し、
前記第2判断部は、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられたQ個(Qは、1以上、かつ、Pとは異なる整数)のフィルタの少なくとも1つを用いて、前記特定種の判断条件を満たすか否かを判断する、
画像処理装置。
The image processing apparatus according to claim 1.
The first-size cross section, respectively, a filter for detecting the pixels representing a line, P-number of at least one filter (P is an integer of 1 or more) associated with different thickness of a line with one another To determine whether or not the above-mentioned specific type of determination condition is satisfied,
The second determination unit is a filter for detecting pixels representing lines, and has Q pieces (Q is 1 or more and an integer different from P) associated with lines having different thicknesses. At least one of the filters is used to determine whether or not the particular type of determination condition is met.
Image processing device.
請求項に記載の画像処理装置であって、
前記特定種の条件は、前記第1の注目画素が、基準未満の輝度を有する複数個の画素が連続する低輝度領域内にあることを示す前記第1種の条件であり、
P>Qである、
画像処理装置。
The image processing apparatus according to claim 2.
The specific type of condition is the first type of condition indicating that the first pixel of interest is in a continuous low-luminance region of a plurality of pixels having a brightness less than the reference.
P> Q,
Image processing device.
請求項に記載の画像処理装置であって、
前記第1判断部によって用いられ得る前記P個のフィルタに対応付けられるP種類の線のうち最も細い線の幅は、前記第2判断部によって用いられ得る前記Q個のフィルタに対応付けられるQ種類の線のうち最も細い線の幅よりも、細い、
画像処理装置。
The image processing apparatus according to claim 3.
The width of the thinnest line among the P-type lines associated with the P filters that can be used by the first determination unit is the Q associated with the Q filters that can be used by the second determination unit. Thinner than the width of the thinnest of the types of lines,
Image processing device.
請求項に記載の画像処理装置であって、
入力画像データに対して、前記複数個のエッジ画素を用いる画像処理を行うことによって、印刷用の画像データである出力データを生成する出力データ生成部と、
前記出力データを、色材を利用して画像を印刷する印刷実行部に供給する供給部と、
を備え、
前記第1の画像データは、前記入力画像データに基づくデータであり、
前記第2判断部によって用いられ得る前記Q個のフィルタに対応付けられるQ種類の線のうち最も細い線の幅は、前記印刷実行部によって利用される色材の滲み特性に基づいて、予め決定されている、
画像処理装置。
The image processing apparatus according to claim 4.
An output data generation unit that generates output data, which is image data for printing, by performing image processing using the plurality of edge pixels on the input image data.
A supply unit that supplies the output data to a print execution unit that prints an image using a color material, and a supply unit.
With
The first image data is data based on the input image data, and is
The width of the thinnest line among the Q type lines associated with the Q filters that can be used by the second determination unit is determined in advance based on the bleeding characteristics of the color material used by the print execution unit. Has been,
Image processing device.
コンピュータプログラムであって、
第1の画像を示す第1の画像データを取得する画像データ取得機能と、
前記第1の画像データを用いて、前記第1の画像内の第1の注目画素を含む複数個の画素が特定種の判断条件を満たすか否かを判断する第1判断機能であって、前記特定種の判断条件は、前記第1の注目画素が、基準未満の輝度を有する複数個の画素が連続する低輝度領域内にあることを示す第1種の条件と、前記第1の注目画素が、基準以上の輝度を有する複数個の画素が連続する高輝度領域内にあることを示す第2種の条件と、のうちの一方の条件である、前記第1判断機能と、
前記第1の画像データを用いて、第2の画像を示す第2の画像データを生成する画像データ生成機能であって、前記第2の画像データは、前記第1の画像データに含まれる複数個の画素の値に対応する複数個の対応値を含み、前記複数個の対応値のそれぞれは、前記第1の画像データの対応する画素の値を反転した値である、前記画像データ生成機能と、
前記第2の画像データを用いて、前記第2の画像内の第2の注目画素を含む複数個の画素が、前記一方の条件である前記特定種の判断条件を満たすか否かを判断する第2判断機能と、
前記第1の画像データに基づく対象画像データに対して、前記対象画像データによって示される対象画像を平滑化する平滑化処理を実行して、平滑化データを生成する平滑化機能であって、前記対象画像内のM個(Mは2以上の整数)の画素のうち、前記特定種の判断条件を満たす前記第1画像内の複数個の画素と、前記特定種の判断条件を満たす前記第2の画像内の複数個の画素と、の少なくとも一方に対応するN1個(N1はM未満の整数)の画素を平滑化せず、前記特定種の判断条件を満たさない前記第1画像内の複数個の画素と対応し、かつ、前記特定種の判断条件を満たさない前記第2の画像内の複数個の画素と対応するN2個(N2は、N1+N2=Mを満たす整数)の画素を平滑化することによって、前記平滑化データを生成する、前記平滑化機能と、
前記平滑化データを用いて、エッジを示す複数個のエッジ画素を特定するエッジ特定機能と、
をコンピュータに実現させ
前記第1判断機能と前記第2判断機能とは、それぞれ、線を表す画素を検出するためのフィルタであって、互いに異なる太さの線に対応付けられた複数のフィルタを用いて、前記特定種の判断条件を満たすか否かを判断する、コンピュータプログラム。
It ’s a computer program
An image data acquisition function that acquires the first image data indicating the first image, and
This is a first determination function for determining whether or not a plurality of pixels including the first pixel of interest in the first image satisfy a specific type of determination condition by using the first image data. The specific type of determination condition includes the first type of condition indicating that the first attention pixel is in a continuous low brightness region of a plurality of pixels having a brightness less than the reference, and the first attention. The first determination function, which is one of the second type conditions indicating that a plurality of pixels having a brightness equal to or higher than a reference are in a continuous high brightness region.
It is an image data generation function that generates a second image data indicating a second image by using the first image data, and the second image data is a plurality of images included in the first image data. The image data generation function, which includes a plurality of corresponding values corresponding to the values of the individual pixels, and each of the plurality of corresponding values is a value obtained by inverting the value of the corresponding pixel of the first image data. When,
Using the second image data, it is determined whether or not a plurality of pixels including the second pixel of interest in the second image satisfy the determination condition of the specific type, which is one of the conditions. Second judgment function and
A smoothing function for generating smoothing data by executing a smoothing process for smoothing the target image indicated by the target image data on the target image data based on the first image data. among the pixels of M (M is an integer of 2 or more) in the target image, wherein a plurality of pixels of a particular species of determination satisfies said first image, the particular species of determination satisfies said first a plurality of pixels in the two images, N1 pieces corresponding to at least one of (N1 is an integer less than M) without smoothing the pixels of the not satisfy the particular species of determination conditions of the first image N2 pixels (N2 is an integer satisfying N1 + N2 = M) corresponding to the plurality of pixels in the second image and corresponding to the plurality of pixels in the second image that do not satisfy the determination condition of the specific type. With the smoothing function, which generates the smoothing data by smoothing,
An edge identification function that identifies a plurality of edge pixels indicating an edge using the smoothing data, and
To the computer ,
The first determination function and the second determination function are filters for detecting pixels representing lines, respectively, and are specified by using a plurality of filters associated with lines having different thicknesses. A computer program that determines whether or not a species judgment condition is met.
JP2017070797A 2017-03-31 2017-03-31 Image processing equipment and computer programs Active JP6834701B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017070797A JP6834701B2 (en) 2017-03-31 2017-03-31 Image processing equipment and computer programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017070797A JP6834701B2 (en) 2017-03-31 2017-03-31 Image processing equipment and computer programs

Publications (2)

Publication Number Publication Date
JP2018174419A JP2018174419A (en) 2018-11-08
JP6834701B2 true JP6834701B2 (en) 2021-02-24

Family

ID=64108832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017070797A Active JP6834701B2 (en) 2017-03-31 2017-03-31 Image processing equipment and computer programs

Country Status (1)

Country Link
JP (1) JP6834701B2 (en)

Also Published As

Publication number Publication date
JP2018174419A (en) 2018-11-08

Similar Documents

Publication Publication Date Title
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
JP4632452B2 (en) Image correction processing apparatus, image correction processing method, program, and storage medium
JP6031286B2 (en) Image processing apparatus and image processing method
JP4878572B2 (en) Image processing apparatus and image processing method
JP4883789B2 (en) Image processing apparatus and image processing method
US9497353B2 (en) Image processing apparatus, image processing method, and image processing system
JP4700721B2 (en) Image processing device
JPH0372778A (en) Area identification system for picture processing unit
JP2008011267A (en) Image processor, image processing method, image processing program, and memory medium
JP4637054B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
US9253368B2 (en) Image processing device setting binary value without using dither matrix when prescribed condition is satisfied
JP7447193B2 (en) Image processing device and image processing method
JP6271874B2 (en) Image processing apparatus and image processing method
JP6794901B2 (en) Image processing equipment and computer programs
JP2004350240A (en) Image processing apparatus and image processing method
JP6834701B2 (en) Image processing equipment and computer programs
JP4659789B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP5165043B2 (en) Device, method and program capable of detecting line
JP6995594B2 (en) Information processing equipment, information processing methods and programs
JP2017135690A (en) Image processing device, image processing method, and program
JP3944032B2 (en) Image processing apparatus and method
JP2018174420A (en) Image processing apparatus and computer program
JP2013202927A (en) Image forming method and image forming apparatus
JP2008124693A (en) Image processor, copier and image processing program for whiteboard
JP5165137B2 (en) Device, method and program capable of detecting line

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R150 Certificate of patent or registration of utility model

Ref document number: 6834701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150