[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2002354242A - Image processor, image reader, image forming device, and color copying machine - Google Patents

Image processor, image reader, image forming device, and color copying machine

Info

Publication number
JP2002354242A
JP2002354242A JP2001157490A JP2001157490A JP2002354242A JP 2002354242 A JP2002354242 A JP 2002354242A JP 2001157490 A JP2001157490 A JP 2001157490A JP 2001157490 A JP2001157490 A JP 2001157490A JP 2002354242 A JP2002354242 A JP 2002354242A
Authority
JP
Japan
Prior art keywords
pixel
image
white
color
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001157490A
Other languages
Japanese (ja)
Inventor
Shinji Yamakawa
愼二 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2001157490A priority Critical patent/JP2002354242A/en
Priority to US10/152,627 priority patent/US7139100B2/en
Priority to EP02253681A priority patent/EP1267219A3/en
Publication of JP2002354242A publication Critical patent/JP2002354242A/en
Priority to US11/491,966 priority patent/US7663783B2/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40062Discrimination between different image types, e.g. two-tone, continuous tone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6072Colour correction or control adapting to different types of images, e.g. characters, graphs, black and white image portions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Color Electrophotography (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor which prevents an image from looking unnatural in a switched boundary part due to switching of image processing. SOLUTION: The image processor which subjects inputted image data to prescribed processing and outputs the result is provided with a gray pixel detection part 323b and a gray pattern matching part 323h which detect muddle- density (gray) areas of the image represented by the picture data, a gray expansion part 323i which performs expansion processing of image data detected by the gray pattern matching part 323h, and a discrimination part 323m which detects the results of expansion processing in the gray expansion part 323i as non-character edge areas of the image, and areas expanded in the gray expansion part 323i are removed from the object of character discrimination. As a result, processing is switched by only middle-density areas, and areas having thick lines can be subjected to the same image processing independently of line width, and the image is prevented from looking unnatural in the switched boundary part due to switching of image processing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像データの中の
文字を検出して適切な画像処理を施す画像処理装置、こ
の画像処理装置を備えた画像読み取り装置、前記画像処
理装置を備えた画像形成装置、および画像処理装置を備
えたカラー複写装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for detecting characters in image data and performing appropriate image processing, an image reading apparatus having the image processing apparatus, and an image having the image processing apparatus. The present invention relates to a color copying apparatus including a forming apparatus and an image processing apparatus.

【0002】[0002]

【従来の技術】この種の技術として、例えば特開平6−
152945号公報に開示された発明が公知である。こ
の発明は、白地を検出して線幅の小さいところと、線幅
の広いところの文字領域を別々に処理を行っている。
2. Description of the Related Art Japanese Patent Laid-Open No.
The invention disclosed in 152,945 is known. According to the present invention, a white background is detected, and a character area having a small line width and a character area having a large line width are separately processed.

【0003】また、特開平10−108012号公報に
開示された発明も知られている。この発明は、白地を検
出して白地に囲まれているところを絵柄領域として処理
するようにしたものである。
The invention disclosed in Japanese Patent Application Laid-Open No. 10-108012 is also known. According to the present invention, a white background is detected and a portion surrounded by the white background is processed as a picture region.

【0004】[0004]

【発明が解決しようとする課題】しかし、前者のように
線幅で画像処理を切り換えると、切り換える線幅境界で
処理が切り換わってしまうために不自然に見える。すな
わち、例えば濃度0.7〜1.0の薄い濃度の字を読み
取って出力すると、文字エッジが強調され、前記文字の
輪郭が縁取られてしまい、見苦しくなる場合がある。
However, when the image processing is switched based on the line width as in the former case, it seems unnatural because the processing is switched at the boundary of the line width to be switched. That is, for example, when a character having a low density of 0.7 to 1.0 is read and output, the character edge is emphasized, and the outline of the character is bordered, which may make the character hard to see.

【0005】そこで、本発明の目的は、画像処理の切り
換えによって切り換えた境界部分で画像が不自然に見え
ることのない画像処理装置を提供することにある。
An object of the present invention is to provide an image processing apparatus in which an image does not look unnatural at a boundary portion switched by switching image processing.

【0006】また、他の目的は、画像処理の切り換えに
よって切り換えた境界部分で画像が不自然に見えること
のない画像処理装置を使用した画像読み取り装置、画像
形成装置およびカラー複写装置を提供することにある。
It is another object of the present invention to provide an image reading apparatus, an image forming apparatus, and a color copying apparatus using an image processing apparatus in which an image does not look unnatural at a boundary switched by switching image processing. It is in.

【0007】[0007]

【課題を解決するための手段】前記目的を達成するた
め、第1の手段は、入力された画像データに対して所定
の処理を施して出力する画像処理装置において、前記画
像データが表す画像の中濃度領域を検出する中濃度検出
手段と、前記中濃度検出手段において検出した画像デー
タを膨張処理する膨張手段と、前記膨張手段によって膨
張処理した結果を画像の非文字エッジ領域として検出す
る非文字エッジ判定手段とを備えていることを特徴とす
る。なお、ここでいう中濃度領域とは後述の実施形態で
は、グレー領域に対応し、中濃度検出手段はRGB白抽
出部323bのグレー画素検出部323b−1及びグレ
ーパターンマッチング部323hに対応する。なお、中
濃度領域の検出は、後述の<グレー判定>の項に詳細に
説明されている。
To achieve the above object, a first means is an image processing apparatus which performs predetermined processing on input image data and outputs the processed image data. Medium density detection means for detecting a medium density area, expansion means for expanding the image data detected by the medium density detection means, and non-text for detecting the result of expansion processing by the expansion means as a non-character edge area of the image Edge determination means. The medium density area here corresponds to a gray area in the embodiment described later, and the medium density detection means corresponds to the gray pixel detection section 323b-1 and the gray pattern matching section 323h of the RGB white extraction section 323b. Note that the detection of the medium density region is described in detail in the section of <Gray Determination> described later.

【0008】第2の手段は、第1の手段において、前記
膨張手段は収縮処理を行った後、膨張処理を行うことを
特徴とする。なお、この膨張処理はグレー膨張部323
iで行われる。
A second means is the first means, wherein the expansion means performs an expansion processing after performing a contraction processing. This expansion processing is performed by the gray expansion section 323.
i.

【0009】第3の手段は、第1の手段において、前記
中濃度検出手段は中濃度領域の検出を万線パターンとの
パターンマッチングで行うことを特徴する。なお、この
パターンマッチングは、グレーパターンマッチング部3
23hで行われる。
A third means is the first means, wherein the medium density detection means detects the medium density area by pattern matching with a line pattern. This pattern matching is performed by the gray pattern matching unit 3
23h.

【0010】第4の手段は、第1の手段において、エッ
ジを検出するエッジ検出手段をさらに備えていることを
特徴とする。なお、エッジ検出手段は、エッジ抽出部3
22に対応する。
A fourth means is the first means, further comprising an edge detecting means for detecting an edge. In addition, the edge detecting means is the edge extracting unit 3
22.

【0011】第5の手段は、第1ないし第4の手段に係
る画像処理装置と、原稿画像を色分解して読み取って生
成した画像データを前記画像処理装置に入力する画像読
み取り手段とから画像読み取り装置を構成したことを特
徴とする。なお、画像読み取り手段は、後述の実施形態
では、スキャナ200に対応する。
The fifth means includes an image processing apparatus according to the first to fourth means and an image reading means for inputting image data generated by separating and reading an original image to the image processing apparatus. A reading device is configured. Note that the image reading unit corresponds to the scanner 200 in an embodiment described later.

【0012】第6の手段は、第1ないし第4の手段に係
る画像処理装置と、前記画像処理装置から出力された画
像データに基づいて作像し、作像された画像を用紙上に
形成し、画像出力する画像出力手段とから画像形成装置
を構成したことを特徴とする。なお、後述の実施形態で
は、画像出力手段はプリンタ400に対応する。
The sixth means is an image processing apparatus according to the first to fourth means, and forms an image based on image data output from the image processing apparatus, and forms the formed image on paper. The image forming apparatus comprises an image output means for outputting an image. In an embodiment described later, the image output unit corresponds to the printer 400.

【0013】第7の手段は、第1ないし第4の手段に係
る画像処理装置と、原稿画像を色分解して読み取って生
成した画像データを前記画像処理装置に入力する画像読
み取り手段と、前記画像処理装置から出力された画像デ
ータに基づいて作像し、作像された画像を用紙上に形成
し、画像出力する画像出力手段とからカラー複写装置を
構成したことを特徴とする。
The seventh means is an image processing apparatus according to the first to fourth means, an image reading means for inputting image data generated by reading an original image by color separation to the image processing apparatus, An image is formed based on the image data output from the image processing apparatus, the formed image is formed on a sheet, and an image output means for outputting the image forms a color copying apparatus.

【0014】第8の手段は、第7の手段において、外部
からのプリント指示コマンドを解析して前記画像出力手
段によって外部からの画像情報をプリント出力させる制
御手段を更に備えていることを特徴とする。なお、後述
の実施形態では、前記制御手段はプリンタコントローラ
16に対応する。
An eighth means is the seventh means, further comprising control means for analyzing an external print instruction command and causing the image output means to print out external image information. I do. In the embodiment described later, the control means corresponds to the printer controller 16.

【0015】[0015]

【発明の実施の形態】以下、本発明の画像処理装置につ
いて、図面を参照して詳細に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing apparatus according to the present invention will be described in detail with reference to the drawings.

【0016】<デジタルフルカラー複写機>本発明の一
実施形態の機構の概要を図1に示す。図1は本実施形態
に係る画像処理装置を備えたデジタルフルカラー複写機
の概略構成図である。
<Digital Full-Color Copying Machine> FIG. 1 shows an outline of a mechanism according to an embodiment of the present invention. FIG. 1 is a schematic configuration diagram of a digital full-color copying machine including an image processing apparatus according to the present embodiment.

【0017】本実施形態に係るデジタルフルカラー複写
機は、カラー画像読み取り装置(以下、スキャナとい
う)200とカラー画像記録装置(以下、カラープリン
タという)400とからなる。
The digital full-color copying machine according to this embodiment includes a color image reading device (hereinafter, referred to as a scanner) 200 and a color image recording device (hereinafter, referred to as a color printer) 400.

【0018】スキャナ200は、コンタクトガラス20
2上の原稿180の画像を照明ランプ205、ミラー群
204A、204B、204C、およびレンズ206を
介してカラーセンサ207に結像して、原稿のカラー画
像情報を、例えば、ブルー(以下、Bという)、グリー
ン(以下、Gという)およびレッド(以下、Rという)
の色分解光毎に読み取り、電気的な画像信号に変換す
る。カラーセンサ207は、この例では、3ラインCC
Dセンサで構成されており、B、G、Rの画像を色ごと
に読取る。スキャナ200で得たB、G、Rの色分解画
像信号強度レベルをもとにして、図示省略された画像処
理ユニットにて色変換処理を行い、ブラック(以下、B
kという)、シアン(以下、Cという)、マゼンダ(以
下、Mという)およびイエロー(以下、Yという)の記
録色情報を含むカラー画像データを得る。
The scanner 200 includes a contact glass 20
2 is formed on the color sensor 207 via the illumination lamp 205, the mirror groups 204A, 204B, 204C, and the lens 206, and color image information of the document is, for example, blue (hereinafter, referred to as B). ), Green (hereinafter, referred to as G) and red (hereinafter, referred to as R)
Is read for each color separation light and is converted into an electric image signal. The color sensor 207 has three lines CC in this example.
It is composed of a D sensor and reads B, G, and R images for each color. Based on the B, G, and R color separation image signal intensity levels obtained by the scanner 200, color conversion processing is performed by an image processing unit (not shown), and black (hereinafter, referred to as B)
k), cyan (hereinafter, referred to as C), magenta (hereinafter, referred to as M) and yellow (hereinafter, referred to as Y) color image data including recording color information.

【0019】このカラー画像データを用い、カラープリ
ンタ400によって、Bk、C、M、Yの画像を中間転
写ベルト上に重ね形成し、そして転写紙に転写する。ス
キャナ200は、カラープリンタ400の動作とタイミ
ングをとったスキャナスタート信号を受けて、照明ラン
プ205やミラー群204A、204B、204Cなど
からなる照明・ミラー光学系が左矢印方向へ原稿走査
し、1回走査毎に1色の画像データを得る。そして、そ
の都度、カラープリンタ400で順次、顕像化しつつ、
これらを中間転写ベルト上に重ね合わせて、4色のフル
カラー画像を形成する。
Using the color image data, Bk, C, M, and Y images are formed on an intermediate transfer belt by a color printer 400, and then transferred to transfer paper. The scanner 200 receives a scanner start signal synchronized with the operation of the color printer 400, and scans a document in the left arrow direction by an illumination / mirror optical system including an illumination lamp 205 and mirror groups 204A, 204B, and 204C. Image data of one color is obtained for each scan. Each time, while sequentially visualizing the color printer 400,
These are superposed on the intermediate transfer belt to form four full-color images.

【0020】カラープリンタ400の露光手段としての
書き込み光学ユニット401は、スキャナ200からの
カラー画像データを光信号に変換して、原稿画像に対応
した光書き込みを行い、感光体ドラム414上に静電潜
像を形成する。光書き込み光学ユニット401は、レー
ザ発光器441、これを発光駆動する発光駆動制御部
(図示省略)、ポリゴンミラー443、これを回転駆動
する回転用モータ444、fθレンズ442、反射ミラ
ー446などで構成されている。感光体ドラム414
は、矢印で示すように図示反時計方向に回転するが、そ
の周りには、感光体クリーニングユニット421、除電
ランプ414M、帯電器419、感光体ドラム上の潜像
電位を検知する電位センサ414D、リボルバ現像装置
420のうちの選択された現像器、現像濃度パターン検
知器414P、中間転写ベルト415などが配置されて
いる。
A writing optical unit 401 as an exposure unit of the color printer 400 converts color image data from the scanner 200 into an optical signal, performs optical writing corresponding to a document image, and forms an electrostatic image on the photosensitive drum 414. Form a latent image. The optical writing optical unit 401 includes a laser light emitter 441, a light emission drive control unit (not shown) for driving the light emission, a polygon mirror 443, a rotation motor 444 for rotating the same, a fθ lens 442, a reflection mirror 446, and the like. Have been. Photoconductor drum 414
Rotates counterclockwise in the figure as indicated by the arrow, but around it, a photoconductor cleaning unit 421, a neutralization lamp 414M, a charger 419, a potential sensor 414D for detecting a latent image potential on the photoconductor drum, A developing unit selected from the revolver developing device 420, a developing density pattern detector 414P, an intermediate transfer belt 415, and the like are arranged.

【0021】リボルバ現像装置420は、BK現像器4
20K、C現像器420C、M現像器420M、Y現像
器420Yと、各現像器を矢印で示すように図示反時計
方向に回転させるリボルバ回転駆動部(図示省略)など
からなる。これら各現像器は、静電潜像を顕像化するた
めに、現像剤の穂を感光体ドラム414の表面に接触さ
せ、回転する現像スリーブ420KS、420CS、4
20MS、420YSと、現像剤を組み上げ・撹拌する
ために回転する現像パドルなどで構成されている。待機
状態では、リボルバ現像装置420はBK現像器420
Kで現像を行う位置にセットされており、コピー動作が
開始されると、スキャナ200で所定のタイミングから
BK画像データの読み取りがスタートし、この画像デー
タに基づき、レーザ光による光書き込み・潜像形成が始
まる。以下、Bk画像データによる静電潜像をBk潜像
という。C、M、Yの各画像データについても同様であ
る。このBk潜像の先端部から現像可能とすべく、Bk
現像器420Kの現像位置に潜像先端部が到達する前
に、現像スリーブ420KSの回転を開始させ、Bk潜
像をBkトナーで現像する。そして、以後、Bk潜像領
域の現像動作を続けるが、潜像後端部がBk潜像位置を
通過した時点で、速やかに、Bk現像器420Kによる
現像位置から次の色の現像器による現像位置まで、リボ
ルバ現像装置420を駆動して回動させる。この回動動
作は、少なくとも次の画像データによる潜像先端部が到
達する前に完了させる。
The revolver developing device 420 includes a BK developing device 4
20K, C developing unit 420C, M developing unit 420M, Y developing unit 420Y, and a revolver rotation drive unit (not shown) that rotates each developing unit in the counterclockwise direction as shown by the arrow. In order to visualize the electrostatic latent image, each of these developing units makes the ears of the developer contact the surface of the photosensitive drum 414, and rotates the developing sleeves 420KS, 420CS, and 4CS.
20 MS, 420 YS, and a developing paddle that rotates to assemble and stir the developer. In the standby state, the revolver developing device 420 is the BK developing device 420
When the copying operation is started, the scanner 200 starts reading BK image data at a predetermined timing, and based on the image data, writes the BK image data using a laser beam and performs latent image writing. Formation begins. Hereinafter, the electrostatic latent image based on the Bk image data is referred to as a Bk latent image. The same applies to each of the C, M, and Y image data. In order to enable development from the tip of this Bk latent image, Bk
Before the leading end of the latent image reaches the developing position of the developing device 420K, the rotation of the developing sleeve 420KS is started to develop the Bk latent image with Bk toner. Thereafter, the developing operation of the Bk latent image area is continued. When the rear end of the latent image passes the Bk latent image position, the developing operation of the next color developing unit is immediately performed from the developing position of the Bk developing unit 420K. The revolver developing device 420 is driven and rotated to the position. This rotation operation is completed at least before the leading end of the latent image based on the next image data arrives.

【0022】像の形成サイクルが開始されると、感光体
ドラム414は矢印で示すように反時計方向に回転し、
中間転写ベルト415は図示しない駆動モータにより、
時計方向に回転する。中間転写ベルト415の回転動作
に伴って、BKトナー像形成、Cトナー像形成、Mトナ
ー像形成およびYトナー像形成が順次行われ、最終的
に、BK、C、M、Yの順に中間転写ベルト415上に
重ねてトナー像が形成される。BK像の形成は、以下の
ようにして行われる。すなわち、帯電器419がコロナ
放電によって、感光体ドラム414を負電荷で約−70
0Vに一様に帯電する。続いて、レーザダイオード44
1は、Bk信号に基づいてラスタ露光を行う。このよう
にラスタ像が露光されたとき、当初、一様に荷電された
感光体ドラム414の露光された部分については、露光
光量に比例する電荷が消失し、静電潜像が形成される。
リボルバ現像装置420内のトナーは、フェライトキャ
リアとの撹拌によって負極性に帯電され、また、本現像
装置のBK現像スリーブ420KSは、感光体ドラム4
14の金属基体層に対して図示しない電源回路によっ
て、負の直流電位と交流とが重畳された電位にバイアス
されている。この結果、感光体ドラム414の電荷が残
っている部分には、トナーが付着せず、電荷のない部
分、つまり、露光された部分にはBkトナーが吸着さ
れ、潜像と相似なBk可視像が形成される。中間転写ベ
ルト415は、駆動ローラ415D、転写対向ローラ4
15T、クリーニング対向ローラ415Cおよび従動ロ
ーラ415F群に張架されており、図示しない駆動モー
タにより回動駆動される。さて、感光体ドラム414上
に形成したBkトナー像は、感光体と接触状態で等速駆
動している中間転写ベルト415の表面に、ベルト転写
コロナ放電器(以下、ベルト転写部という。)416に
よって転写される。以下、感光体ドラム414から中間
転写ベルト415へのトナー像転写を、ベルト転写と称
する。感光体ドラム414上の若干の未転写残留トナー
は、感光体ドラム414の再使用に備えて、感光体クリ
ーニングユニット421で清掃される。ここで回収され
たトナーは、回収パイプを経由して図示しない排トナー
タンクに蓄えられる。
When the image forming cycle is started, the photosensitive drum 414 rotates counterclockwise as indicated by an arrow,
The intermediate transfer belt 415 is driven by a drive motor (not shown).
Rotate clockwise. With the rotation of the intermediate transfer belt 415, BK toner image formation, C toner image formation, M toner image formation, and Y toner image formation are sequentially performed, and finally, the intermediate transfer is performed in the order of BK, C, M, and Y A toner image is formed over the belt 415. The formation of the BK image is performed as follows. In other words, the charger 419 causes the photoconductor drum 414 to have a negative charge of about -70 by corona discharge.
It is uniformly charged to 0V. Subsequently, the laser diode 44
1 performs raster exposure based on the Bk signal. When the raster image is exposed in this manner, in the initially exposed portion of the photosensitive drum 414 that is uniformly charged, the charge proportional to the amount of exposure light disappears, and an electrostatic latent image is formed.
The toner in the revolver developing device 420 is negatively charged by stirring with the ferrite carrier, and the BK developing sleeve 420KS of the present developing device is
A power supply circuit (not shown) biases the 14 metal base layers to a potential at which a negative DC potential and an AC are superimposed. As a result, the toner does not adhere to the portion of the photosensitive drum 414 where the charge remains, and the Bk toner is adsorbed to the portion having no charge, that is, the exposed portion, and the Bk visible light similar to the latent image is obtained. An image is formed. The intermediate transfer belt 415 includes a driving roller 415D, a transfer opposing roller 4
15T, the cleaning opposing roller 415C, and the driven roller 415F are stretched around and driven to rotate by a drive motor (not shown). The Bk toner image formed on the photoconductor drum 414 is applied to the surface of the intermediate transfer belt 415 that is driven at a constant speed in a state of contact with the photoconductor, by a belt transfer corona discharger (hereinafter, referred to as a belt transfer unit) 416. Is transcribed. Hereinafter, the transfer of the toner image from the photosensitive drum 414 to the intermediate transfer belt 415 is referred to as belt transfer. Some untransferred residual toner on the photoconductor drum 414 is cleaned by the photoconductor cleaning unit 421 in preparation for reuse of the photoconductor drum 414. The collected toner is stored in a waste toner tank (not shown) via a collection pipe.

【0023】なお、中間転写ベルト415には、感光体
ドラム414上に順次形成するBk、C、M、Yのトナ
ー像を、同一面に順次、位置合わせして、4色重ねのベ
ルト転写画像を形成し、その後、転写紙にコロナ放電転
写器によって一括転写を行う。ところで、感光体ドラム
414側では、BK画像の形成工程の次に、C画像の形
成工程に進むが、所定のタイミングから、スキャナ20
0によるC画像データの読み取りが始まり、その画像デ
ータによるレーザ光書き込みで、C潜像の形成を行う。
C現像器420Cは、その現像位置に対して、先のBk
潜像後端部が通過した後で、かつ、C潜像先端が到達す
る前に、リボルバ現像装置の回転動作を行い、C潜像を
Cトナーで現像する。以降、C潜像領域の現像を続ける
が、潜像後端部が通過した時点で、先のBk現像器の場
合と同様にリボルバ現像装置420を駆動して、C現像
器420Cを送り出し、次のM現像器420Mを現像位
置に位置させる。この動作もやはり、次のM潜像先端部
が現像部に到達する前に行う。なお、MおよびYの各像
の形成工程については、それぞれの画像データの読み取
り、潜像形成、現像の動作が、前述のBk像や、C像の
工程に準ずるので、説明は省略する。
On the intermediate transfer belt 415, Bk, C, M, and Y toner images sequentially formed on the photosensitive drum 414 are sequentially aligned on the same surface, and a four-color superimposed belt transfer image is formed. After that, collective transfer is performed on transfer paper by a corona discharge transfer device. On the photosensitive drum 414 side, the process proceeds to the C image forming process after the BK image forming process.
The reading of the C image data by 0 starts, and the formation of the C latent image is performed by writing the laser light with the image data.
The C developing device 420C moves the Bk
After the rear end of the latent image has passed and before the front end of the C latent image has arrived, the rotating operation of the revolver developing device is performed to develop the C latent image with the C toner. Thereafter, development of the C latent image area is continued, but when the rear end of the latent image has passed, the revolver developing device 420 is driven in the same manner as in the case of the Bk developing device, and the C developing device 420C is sent out. Of the M developing device 420M is positioned at the developing position. This operation is also performed before the leading end of the next M latent image reaches the developing unit. In the process of forming the M and Y images, the operations of reading the image data, forming the latent image, and developing are the same as those of the Bk image and the C image described above, and a description thereof will be omitted.

【0024】ベルトクリーニング装置415Uは、入口
シール、ゴムブレード、排出コイルおよび、これら入口
シールやゴムブレードの接離機構により構成される。1
色目のBk画像をベルト転写した後の、2、3、4色目
を画像をベルト転写している間は、ブレード接離機構に
よって、中間転写ベルト面から入口シール、ゴムブレー
ドなどは離間させておく。
The belt cleaning device 415U includes an inlet seal, a rubber blade, a discharge coil, and a mechanism for contacting and separating the inlet seal and the rubber blade. 1
After the Bk image of the color is transferred to the belt, while the images of the second, third, and fourth colors are transferred to the belt, the entrance seal, the rubber blade, and the like are separated from the intermediate transfer belt surface by the blade contact / separation mechanism. .

【0025】紙転写コロナ放電器(以下、紙転写器とい
う。)417は、中間転写ベルト415上の重ねトナー
像を転写紙に転写するべく、コロナ放電方式にて、AC
+DCまたは、DC成分を転写紙および中間転写ベルト
に印加するものである。
A paper transfer corona discharger (hereinafter, referred to as a paper transfer device) 417 uses an AC corona discharge method to transfer the superimposed toner image on the intermediate transfer belt 415 to transfer paper.
+ DC or a DC component is applied to the transfer paper and the intermediate transfer belt.

【0026】給紙バンク内の転写紙カセット482に
は、各種サイズの転写紙が収納されており、指定された
サイズの用紙を収納しているカセットから、給紙コロ4
83によってレジストローラ対418R方向に給紙・搬
送される。なお、符号412B2は、OHP用紙や厚紙
などを手差しするための給紙トレイを示している。像形
成が開始されるタイミングで、転写紙は前記いずれかの
給紙トレイから給送され、レジストローラ対418Rの
ニップ部にて待機している。そして、紙転写器417に
中間転写ベルト415上のトナー像の先端がさしかかる
ときに、丁度、転写紙先端がこの像の先端に一致する如
くにレジストローラ対418Rが駆動され、紙と像との
合わせが行われる。このようにして、転写紙が中間転写
ベルト上の色重ね像と重ねられて、正電位につながれた
紙転写器417の上を通過する。このとき、コロナ放電
電流で転写紙が正電荷で荷電され、トナー画像の殆どが
転写紙上に転写される。つづいて、紙転写器417の左
側に配置した図示しない除電ブラシによる分離除電器を
通過するときに、転写紙は除電され、中間転写ベルト4
15から剥離されて紙搬送ベルト422に移る。中間転
写ベルト面から4色重ねトナー像を一括転写された転写
紙は、紙搬送ベルト422で定着器423に搬送され、
所定温度にコントロールされた定着ローラ423Aと加
圧ローラ423Bのニップ部でトナー像を溶融定着さ
れ、排出ロール対424で本体外に送り出され、図示省
略のコピートレイに表向きにスタックされる。
Transfer paper of various sizes is stored in a transfer paper cassette 482 in the paper feed bank.
The sheet 83 is fed and conveyed in the direction of the registration roller pair 418R. Reference numeral 412B2 indicates a paper feed tray for manually feeding OHP paper, thick paper, and the like. At the timing when the image formation is started, the transfer paper is fed from any one of the paper feed trays, and is waiting at the nip portion of the registration roller pair 418R. Then, when the leading end of the toner image on the intermediate transfer belt 415 approaches the paper transfer unit 417, the registration roller pair 418R is driven so that the leading end of the transfer paper coincides with the leading end of this image, and the transfer of the paper and the image is performed. Matching is performed. In this way, the transfer paper is superimposed on the color superimposed image on the intermediate transfer belt and passes over the paper transfer unit 417 connected to the positive potential. At this time, the transfer paper is charged with a positive charge by the corona discharge current, and most of the toner image is transferred onto the transfer paper. Subsequently, the transfer paper is discharged when passing through a separation static eliminator by a static elimination brush (not shown) disposed on the left side of the paper transfer device 417, and the intermediate transfer belt 4
15 and is transferred to the paper transport belt 422. The transfer paper on which the four-color superimposed toner image is collectively transferred from the intermediate transfer belt surface is transported to the fixing device 423 by the paper transport belt 422, and
The toner image is melted and fixed at the nip between the fixing roller 423A and the pressure roller 423B controlled to a predetermined temperature, sent out of the main body by a discharge roll pair 424, and stacked face up on a copy tray (not shown).

【0027】なお、ベルト転写後の感光体ドラム414
は、ブラシローラ、ゴムブレードなどからなる感光体ク
リーニングユニット421で表面をクリーニングされ、
また、除電ランプ414Mで均一除電される。また、転
写紙にトナー像を転写した後の中間転写ベルト415
は、再び、クリーニングユニット415Uのブレード接
離機構でブレードを押圧して表面をクリーニングする。
リピートコピーの場合には、スキャナの動作および感光
体への画像形成は、1枚目の4色目画像工程にひきつづ
き、所定のタイミングで2枚目の1色目画像工程に進
む。中間転写ベルト415の方は、1枚目の4色重ね画
像の転写紙への一括転写工程にひきつづき、表面をベル
トクリーニング装置でクリーニングされた領域に、2枚
目のBkトナー像がベルト転写されるようにする。その
後は、1枚目と同様動作になる。
The photosensitive drum 414 after belt transfer
The surface is cleaned by a photoconductor cleaning unit 421 including a brush roller, a rubber blade, and the like.
Further, the charge is uniformly removed by the charge removing lamp 414M. Further, the intermediate transfer belt 415 after transferring the toner image to the transfer paper
Again, the blade is pressed by the blade contact / separation mechanism of the cleaning unit 415U to clean the surface.
In the case of the repeat copy, the operation of the scanner and the image formation on the photoconductor are continued from the first-color image process on the first sheet, and then proceed to the first-color image process on the second sheet at a predetermined timing. In the case of the intermediate transfer belt 415, the second Bk toner image is belt-transferred to an area whose surface has been cleaned by a belt cleaning device, following a batch transfer process of the first four-color superimposed image onto transfer paper. So that Thereafter, the operation is the same as that of the first sheet.

【0028】図1に示すデジタルフルカラー複写機は、
パーソナルコンピュ−タ等のホストから、LANまたは
パラレルI/Fを通じてプリントデ−タが与えられると
それをカラープリンタ400でプリントアウト(画像出
力)でき、しかもスキャナ200で読取った画像データ
を遠隔のフアクシミリに送信し、受信する画像データも
プリントアウトできる複合機能つきのカラー複写機であ
る。この複写機は、構内交換器PBXを介して公衆電話
網に接続され、公衆電話網を介して、ファクシミリ交信
やサ−ビスセンタの管理サ−バと交信することができ
る。
The digital full-color copying machine shown in FIG.
When print data is provided from a host such as a personal computer through a LAN or a parallel I / F, the print data can be printed out (image output) by the color printer 400, and the image data read by the scanner 200 can be transmitted to a remote facsimile. This is a color copier with a composite function that can print out image data to be transmitted to and received from the printer. This copier is connected to a public telephone network via a private branch exchange PBX, and can communicate with a facsimile communication and a management server of a service center via the public telephone network.

【0029】<電気システム> ≪システムの概要≫図2に、図1に示すデジタルフルカ
ラー複写機の電気システムの概要を示す。図2はメイン
コントローラ10を中心に、デジタルフルカラー複写機
の制御装置を図示したものである。メインコントローラ
10は、複写機全体を制御する。メインコントローラ1
0には、オペレータに対する表示と、オペレータからの
機能設定入力制御を行う操作/表示ボードOPB、エデ
ィタ15、スキャナ200およびオプションのADFの
制御、原稿画像を画像メモリに書き込む制御、および、
画像メモリからの作像を行う制御等を行うスキャナコン
トローラ12、プリンタコントローラ16、画像処理ユ
ニット(IPU)300、ならびにカラープリンタ40
0内にあって荷電、露光、現像、給紙、転写、定着、お
よび転写紙搬送を行う作像エンジンの制御を行うエンジ
ンコントローラ13等の分散制御装置が接続されてい
る。各分散制御装置とメインコントローラ10は、必要
に応じて機械の状態、動作指令のやりとりを行ってい
る。また、紙搬送等に必要なメインモータ、各種クラッ
チも、メインコントロ−ラ10内の図示しないドライバ
に接続されている。なお、11はICカード、14はソ
ータコントローラであり、ICカード11は、例えば部
署毎の複写枚数の管理などに使用される。
<Electrical System> {Outline of System} FIG. 2 shows an outline of an electric system of the digital full-color copying machine shown in FIG. FIG. 2 illustrates a control device of a digital full-color copying machine with a focus on the main controller 10. The main controller 10 controls the entire copying machine. Main controller 1
0, control of the operation / display board OPB for performing display to the operator and input of function setting from the operator, control of the editor 15, the scanner 200 and the optional ADF, control of writing a document image in the image memory, and
A scanner controller 12, a printer controller 16, an image processing unit (IPU) 300, and a color printer 40 for performing control and the like for forming an image from an image memory
A distributed control device such as an engine controller 13 which controls an image forming engine which is in the area 0 and performs charge, exposure, development, paper feed, transfer, fixing, and transfer of a transfer sheet is connected. Each decentralized control device and the main controller 10 exchange machine status and operation commands as needed. Further, a main motor and various clutches necessary for paper conveyance and the like are also connected to a driver (not shown) in the main controller 10. Reference numeral 11 denotes an IC card, and reference numeral 14 denotes a sorter controller. The IC card 11 is used, for example, for managing the number of copies for each department.

【0030】カラープリンタ400には、給紙トレイか
らの給紙をはじめとして、感光体414の荷電、レーザ
書込みユニットによる画像露光、現像、転写、定着およ
び排紙を行なう機構要素を駆動する電気回路および制御
回路、および各種センサ等が設けられている。
The color printer 400 includes an electric circuit that drives a mechanism element that performs charging of the photosensitive member 414, image exposure by a laser writing unit, development, transfer, fixing, and paper discharge, starting with paper supply from a paper supply tray. And a control circuit, various sensors, and the like.

【0031】プリンタコントローラ16は、パソコンな
ど外部からの画像およびプリント指示するコマンドを解
析し、画像データとして、印刷できる状態にビットマッ
プ展開し、メインコントローラ10を介して、プリンタ
400を駆動して画像データをプリントアウトする。画
像およびコマンドをLANおよびパラレルI/Fを通じ
て受信し動作するために、LANコントロール19とパ
ラレルI/F18を備えている。
The printer controller 16 analyzes an external image such as a personal computer or the like and a command for instructing printing, develops a bitmap into a printable state as image data, and drives the printer 400 via the main controller 10 to generate an image. Print out the data. A LAN control 19 and a parallel I / F 18 are provided to receive and operate images and commands via the LAN and the parallel I / F.

【0032】FAXコントローラ17は、フアクシミリ
送信指示があるときには、メインコントローラ10を介
してスキャナ200およびIPU300を駆動し、原稿
の画像を読んで画像データを通信コントロール20およ
びPBXを介してファクシミリ通信回線に送出する。通
信回線からファクシミリの呼びを受け、画像データを受
信すると、メインコントローラ10を介してプリンタ4
00を駆動し、画像データをプリントアウトする。
When a facsimile transmission instruction is given, the facsimile controller 17 drives the scanner 200 and the IPU 300 via the main controller 10 to read the image of the document and to transmit the image data to the facsimile communication line via the communication control 20 and the PBX. Send out. Upon receiving a facsimile call from the communication line and receiving image data, the printer 4
00 to print out the image data.

【0033】図3に、画像処理ユニット(IPU)30
0の構成を示す。同図において、スキャナ200から出
力されるR、G、B画像データが、インターフエイス
(1)351を介してIPU300に与えられる。な
お、BまたはR単色の記録をBRユニット355が指示
する時には、R、G、B画像データの選択と集成が行わ
れるが、このモードの画像記録処理の説明は省略する。
IPU300に与えられたR、G、B画像データは、R
GBγ補正部310で、反射率データ(R、G、Bデー
タ)から濃度データ(R、G、Bデータ)に変換され
る。
FIG. 3 shows an image processing unit (IPU) 30.
0 is shown. In the figure, R, G, and B image data output from the scanner 200 is provided to the IPU 300 via the interface (1) 351. When the BR unit 355 instructs recording of B or R single color, selection and aggregation of R, G, and B image data are performed, but description of image recording processing in this mode is omitted.
The R, G, B image data given to the IPU 300 is R
The GBγ correction unit 310 converts the reflectance data (R, G, B data) into density data (R, G, B data).

【0034】原稿認識部320が、この濃度R、G、B
データに基づいて、それらのデータが宛てられる画像領
域が文字領域(文字や線画の領域)か絵柄領域(写真や
絵の領域&文字領域でない領域)かを判定し、C/P信
号およびB/C信号を、RGBフィルタ部330、なら
びに、インターフェイス(3)353を介してメインコ
ントローラ10に与える。なお、C/P信号およびB/
C信号は、 C/P信号:1ビット信号であり、1が文字エッジ領域
を示し、0が絵柄領域を示す。
The document recognizing section 320 detects the density R, G, B
Based on the data, it is determined whether the image area to which the data is addressed is a character area (character or line drawing area) or a picture area (a picture or picture area and not a character area), and the C / P signal and the B / The C signal is provided to the main controller 10 via the RGB filter unit 330 and the interface (3) 353. Note that the C / P signal and B /
The C signal is a C / P signal: a 1-bit signal, where 1 indicates a character edge area and 0 indicates a picture area.

【0035】B/C信号:1ビット信号であり、H
(「1」)が無彩領域を示し、L(「0」)が有彩領域
を示す。
B / C signal: 1-bit signal, H
("1") indicates an achromatic region, and L ("0") indicates a chromatic region.

【0036】≪原稿認識部320(図4)≫図4に、原
稿認識部320の機能をブロック区分で示す。原稿認識
部320は、文字エッジ検出、絵柄検出および有彩/無
彩検出を行って、文字エッジ領域あるいは絵柄領域を表
すC/P信号および有彩領域/無彩領域を表すB/C信
号を発生する。
{Document Recognition Unit 320 (FIG. 4)} FIG. 4 shows the functions of the document recognition unit 320 in block divisions. The document recognizing unit 320 performs character edge detection, picture detection, and chromatic / achromatic detection to generate a C / P signal representing a character edge area or a picture area and a B / C signal representing a chromatic area / achromatic area. appear.

【0037】原稿認識部320は、大別すると、フィル
タ部321、エッジ抽出部322、白領域抽出部32
3、網点抽出部324、色判定部325および総合判定
部326からなる。なお、ここでは、スキャナ200の
読み取り密度が600dpi程度の場合を例として説明
する。
The document recognizing section 320 is roughly divided into a filter section 321, an edge extracting section 322, and a white area extracting section 32.
3, a halftone dot extracting section 324, a color determining section 325 and a comprehensive determining section 326. Here, a case where the reading density of the scanner 200 is about 600 dpi will be described as an example.

【0038】≪フィルタ部321≫フィルタ部321
は、主に文字のエッジの抽出ために、スキャナ200が
発生するG画像データを補正する。ここで、スキャナ2
00で読み取ったデータは、レンズなどの性能でボケて
いることがあるので、エッジ強調フィルタをかける。た
だ、ここでは、単純に原稿上のエッジを強調し、複写機
に広く普及している階調表現のための万線パターンを強
調しない必要がある。万線パターンを強調してしまう
と、絵柄(万線パターンによる階調表現領域)をエッジ
として抽出して、最終的に文字エッジと誤判定する可能
性があるので、強調しないようにする必要がある。ま
た、図8に示すように、600dpiの万線パターンA
と400dpiの万線パターンBは、繰返し周期が異な
るので、同一のフィルタ係数で強調しないようにするの
は難しい。そのため、画像パターンの周期を検出して、
フィルタの係数を切換える。なお、図8において、主走
査方向xの白1ブロック幅とそれに接する黒1ブロック
幅との和が、万線ピッチ(定幅:所定数の画素)すなわ
ち万線周期であり、低濃度中間調の時には白ブロック幅
が広がり黒ブロック幅が狭くなる。高濃度中間調になる
につれて、白ブロック幅が狭くなり黒ブロック幅が広が
る。
{Filter Unit 321} Filter Unit 321
Corrects the G image data generated by the scanner 200 mainly for extracting the edges of the character. Here, the scanner 2
Since the data read at 00 may be blurred due to the performance of the lens or the like, an edge emphasis filter is applied. However, here, it is necessary to simply emphasize the edge on the document and not to emphasize the line pattern for gradation expression widely used in copying machines. If the line pattern is emphasized, a picture (a gradation expression area by the line pattern) is extracted as an edge, and there is a possibility that the character line may be erroneously determined as a character edge. is there. Also, as shown in FIG. 8, a 600 dpi line pattern A
And 400 dpi line pattern B have different repetition periods, so it is difficult to avoid emphasis with the same filter coefficient. Therefore, by detecting the period of the image pattern,
Switch filter coefficients. In FIG. 8, the sum of the width of one white block and the width of one black block in contact with it in the main scanning direction x is the line pitch (constant width: a predetermined number of pixels), that is, the line period, and the low density halftone In the case of, the white block width increases and the black block width decreases. As the density becomes higher, the white block width becomes narrower and the black block width becomes wider.

【0039】この実施形態では、フィルタ部321の画
素マトリクスを、主走査方向xの画素数7×副走査方向
y(スキャナ200の機械的な原稿走査方向)の画素数
5として、図4上のフィルタ部321のブロックに示す
ように、各画素宛てに各重み付け係数a1〜a7、b1
〜b7、c1〜c7、d1〜d7、e1〜e7を宛てた
2組の係数グループ(係数マトリクス)A、Bがある。
次の係数グループAは、図8の600dpiの万線パタ
ーンAの強調は抑制し、しかも文字のエッジを強調する
フィルタ処理用の係数であり、係数グループBは、図8
の400dpiの万線パターンBの強調は抑制し、しか
も文字のエッジを強調するフィルタ処理用の係数であ
る。
In this embodiment, the pixel matrix of the filter unit 321 is defined as 7 pixels in the main scanning direction x 5 pixels in the sub-scanning direction y (mechanical original scanning direction of the scanner 200) in FIG. As shown in the block of the filter unit 321, each weighting coefficient a1 to a7, b1 is assigned to each pixel.
There are two sets of coefficient groups (coefficient matrices) A and B addressed to .about.b7, c1 to c7, d1 to d7, and e1 to e7.
The next coefficient group A is a filter processing coefficient that suppresses the emphasis of the 600 dpi line pattern A in FIG. 8 and also emphasizes the edges of characters.
This is a filter processing coefficient that suppresses the emphasis of the 400 dpi line pattern B and emphasizes the edges of characters.

【0040】係数グループA 0 −1 0 −2 0 −1 0 0 −1 0 −2 0 −1 0 0 −1 −1 20 −1 −1 0 0 −1 0 −2 0 −1 0 0 −1 0 −2 0 −1 0。Coefficient group A 0-10-20-10-10-10-20-10-10-1-20-1-10-10-10-20-10-10-1 0-20-10.

【0041】係数グループB −1 0 0 −2 0 0 −1 −1 0 0 −2 0 0 −1 −1 0 −1 20 −1 0 −1 −1 0 0 −2 0 0 −1 −1 0 0 −2 0 0 −1。Coefficient group B-100-200--1-100-200--1-100-120-110--100--20--100 0-200-1.

【0042】なお、横方向が主走査方向xの並び、縦方
向が副走査方向yの並びである。係数グループA、B
の、グループ内第1行の係数が、図4上のフィルタ32
1のブロックの係数マトリクスの、第1行の係数a1〜
a7であり、係数グループA、Bの第3行の中央の「2
0」が、フィルタ部321のブロックの係数マトリクス
の第3行c1〜c7の中央の画素の係数即ち注目画素の
係数c4である。係数マトリクスの各係数に、それに宛
てられる画素の画像データが表す値を乗算した積(総計
7×5=35個)の総和(積和値)が、注目画素(c4
が宛てられた画素)の、フィルタ部321で処理した画
像データ値として、エッジ抽出部322および白領域抽
出部323に与えられる。ここで注目画素とは、現在処
理対象の画素であり、それが順次にx方向にそしてy方
向に位置が異なるものに更新される。
The horizontal direction is a line in the main scanning direction x, and the vertical direction is a line in the sub-scanning direction y. Coefficient groups A and B
Of the first row in the group is the filter 32 in FIG.
Coefficients a1 to a1 in the first row of the coefficient matrix of one block
a7, and “2” at the center of the third row of the coefficient groups A and B.
“0” is the coefficient of the pixel at the center of the third row c1 to c7 of the coefficient matrix of the block of the filter unit 321, that is, the coefficient c4 of the pixel of interest. The sum (product sum value) of the products (total 7 × 5 = 35) obtained by multiplying each coefficient of the coefficient matrix by the value represented by the image data of the pixel addressed thereto is calculated as the target pixel (c4
(Pixels to which is assigned) is supplied to the edge extraction unit 322 and the white region extraction unit 323 as image data values processed by the filter unit 321. Here, the target pixel is a pixel to be currently processed, and is sequentially updated to a pixel whose position is different in the x direction and the y direction.

【0043】係数グループAは、図8に示す600dp
iの万線パターンAの万線ピッチで負の係数(小さい値
の係数)が分布しそれらの間に0(やや大きい値の係
数)が分布し、そしてエッジ強調のために注目画素には
20(極めて大きな係数)が宛てられている。これによ
り、画像データ(注目画素)が万線パターンAの領域の
黒/白間エッジである時には、それにあてて導出される
加重平均値(積和値)は、万線パターンAでない文字エ
ッジである時に比べて、かなり低い値になる。
The coefficient group A has a capacity of 600 dp shown in FIG.
A negative coefficient (a coefficient having a small value) is distributed at the line pitch of the line pattern A of i, and 0 (a coefficient having a somewhat large value) is distributed between them. (Extremely large coefficient). Accordingly, when the image data (pixel of interest) is the black / white edge of the area of the line pattern A, the weighted average value (product sum value) derived therefrom is a character edge that is not the line pattern A. It is much lower than at some point.

【0044】係数グループBは、図8に示す400dp
iの万線パターンBの万線ピッチで負の係数(小さい値
の係数)が分布し、それらの間に0(やや大きい値の係
数)が分布し、そして、エッジ強調のために注目画素に
は20(極めて大きな係数)が宛てられている。これに
より、画像データ(注目画素)が万線パターンBの領域
の黒/白間エッジである時には、それにあてて導出され
る加重平均値(積和値)は、万線パターンBでない文字
エッジである時に比べて、かなり低い値になる。
The coefficient group B is 400 dp shown in FIG.
A negative coefficient (a coefficient having a small value) is distributed at the line pitch of the line pattern B of i, and 0 (a coefficient having a relatively large value) is distributed between them. Is assigned 20 (an extremely large coefficient). Thus, when the image data (pixel of interest) is a black / white edge of the area of the line pattern B, the weighted average value (product sum value) derived therefrom is a character edge that is not the line pattern B. It is much lower than at some point.

【0045】なお、フィルタ部321では、下記条件
1、2のどちらかが成立したとき、即ち、図8の400
dpiの万線パターンBである可能性が高い時に、係数
グループBによるフィルタ処理を行い、そうでないとき
に係数グループAによるフィルタ処理を行なう: −条件1−〔400dpi系の万線パターンBの薄いと
ころ(図8上の白区間)かを見る条件〕 (D[3][1]<D[3][2])& (D[3][7]<D[3][6])& (ABS(D[3][2]−D[3][4])>ABS
(D[3][4]−D[3][1]))& (ABS(D[3][6]−D[3][4])>ABS
(D[3][4]−D[3][7])) −条件2−〔400dpi系の万線パターンBの濃いと
ころ(図8上の黒区間)かを見る条件〕 (D[3][1]>D[3][2])& (D[3][7]>D[3][6])& (ABS(D[3][2]− D[3][4])>AB
S(D[3][4]−D[3][1]))& (ABS(D[3][6]−D[3][4])>ABS
(D[3][4]−D[3][7])) なお、D[i][j]は、x、y分布の画素マトリクス
上の、x=i、y=jの位置の画素の画像データが表す
値を意味し、例えば、D[3][1]は、図4上のフィ
ルタ部321のブロックに示す係数マトリクスの係数a
3が宛てられる画素の画像データが表す値である。
「&」は「論理積:AND」を意味し、「ABS」は、
絶対値演算子を意味する。注目画素は、D[4][3]
である。
In the filter section 321, when one of the following conditions 1 and 2 is satisfied, that is, 400 in FIG.
When there is a high possibility that the line pattern B is the dpi line pattern B, the filter processing is performed by the coefficient group B. When not, the filter processing is performed by the coefficient group A. (Condition to see if (white section in FIG. 8)) (D [3] [1] <D [3] [2]) & (D [3] [7] <D [3] [6]) & (ABS (D [3] [2] -D [3] [4])> ABS
(D [3] [4] -D [3] [1])) & (ABS (D [3] [6] -D [3] [4])> ABS
(D [3] [4] -D [3] [7]))-Condition 2- [Condition to see if the 400 dpi line pattern B is dark (black section in FIG. 8)] (D [3] ] [1]> D [3] [2]) & (D [3] [7]> D [3] [6]) & (ABS (D [3] [2] -D [3] [4] )> AB
S (D [3] [4] -D [3] [1])) & (ABS (D [3] [6] -D [3] [4])> ABS
(D [3] [4] -D [3] [7]) Here, D [i] [j] is a pixel at a position of x = i, y = j on a pixel matrix of x, y distribution. , For example, D [3] [1] is the coefficient a of the coefficient matrix shown in the block of the filter unit 321 in FIG.
3 is a value represented by the image data of the addressed pixel.
"&" Means "AND" and "ABS"
Absolute value operator. The target pixel is D [4] [3]
It is.

【0046】前記条件1または2が成立すると、その時
の注目画素が、図8に示す600dpi読み取り時の4
00dpiの万線パターンBの領域のものである、と見
なして、係数グループBを用いて文字エッジ強調のフィ
ルタ処理を行う。条件1および2のいずれも成立しない
と、図8に示す600dpi読み取り時の600dpi
の万線パターンAが強調されるのを避ける係数グループ
Aを用いて文字エッジ強調のフィルタ処理を行う。即
ち、画像周期(ピッチ)を検出して、特定周期の画像パ
ターンを強調しないようにしている。万線パターンを強
調せずに、文字のエッジを強調することが可能となる。
なお、図4には、エッジ処理にG画像データを参照する
態様を示すが、G画像データに限らず、輝度データであ
ってもよい。濃い薄いを表現する信号なら適応可能であ
る。
When the above condition 1 or 2 is satisfied, the pixel of interest at that time is 4 pixels at the time of reading at 600 dpi shown in FIG.
Assuming that the image belongs to the area of the line pattern B of 00 dpi, the filter processing of the character edge emphasis is performed using the coefficient group B. If neither of the conditions 1 and 2 is satisfied, 600 dpi at the time of reading 600 dpi shown in FIG.
The character edge enhancement filter processing is performed using the coefficient group A for preventing the line pattern A from being emphasized. That is, the image cycle (pitch) is detected so that the image pattern of the specific cycle is not emphasized. It is possible to emphasize the edge of the character without emphasizing the line pattern.
Note that FIG. 4 shows a mode in which the G image data is referred to for the edge processing. It can be applied to signals that express dark and light.

【0047】<エッジ抽出> ≪エッジ抽出部322≫文字領域は、高レベル濃度の画
素と低レベル濃度の画素(以下、黒画素、白画素と呼
ぶ)が多く、かつ、エッジ部分では、これらの黒画素お
よび白画素が連続している。エッジ抽出部322は、こ
のような黒画素および白画素それぞれの連続性に基づい
て文字エッジを検出する。
<Edge Extraction> {Edge Extraction Unit 322} The character area has many high-level density pixels and low-level density pixels (hereinafter, referred to as black pixels and white pixels). Black pixels and white pixels are continuous. The edge extraction unit 322 detects a character edge based on the continuity of each of such black pixels and white pixels.

【0048】≪3値化部322a≫まず、3値化部32
2aで、2種の閾値TH1およびTH2を用いて、フィ
ルタ部321が文字エッジ強調のフィルタ処理をしたG
画像データ(エッジ抽出部322の入力データ)を3値
化する。閾値TH1およびTH2は、例えば、画像デー
タが0から255までの256階調(0=白)を表す場
合、例えばTH1=20、TH2=80に設定する。3
値化部322aでは、 入力データ<TH1 であると、該データが宛てられる画素を白画素と表す3
値化データに入力データを変換し、 TH1≦入力データ<TH2 であると中間調画素と表す3値化データに入力データを
変換し、 TH2≦入力データ であると黒画素と表す3値化データに入力データを変換
する。
{Ternary conversion section 322a}
In step 2a, the filter unit 321 performs G edge filtering by using two types of thresholds TH1 and TH2.
The image data (input data of the edge extraction unit 322) is ternarized. For example, when the image data represents 256 gradations (0 = white) from 0 to 255, the thresholds TH1 and TH2 are set to, for example, TH1 = 20 and TH2 = 80. 3
If the input data <TH1, the value conversion unit 322a indicates that the pixel addressed to the data is a white pixel.
The input data is converted into ternary data. If TH1 ≦ input data <TH2, the input data is converted into ternary data representing a halftone pixel. If TH2 ≦ input data, ternary data representing a black pixel. Convert the input data to

【0049】≪黒画素連続検出部322b、白画素連続
検出部322c≫黒画素連続検出部322bおよび白画
素連続検出部322cが、3値化データに基づいて黒画
素が連続する箇所および白画素が連続する箇所を、それ
ぞれパターンマッチングにより検出する。このパターン
マッチングには、本実施形態では、図9に示す3×3画
素マトリクスのパターンBPa〜BPdおよびWPa〜
WPdを用いる。図9に示すパターンにおいて、黒丸は
前述の黒画素であることを示し、白丸は前述の白画素で
あることを示し、いずれの丸印もない空白画素は、黒画
素、中間調画素、白画素のいずれであるか問わないもの
である。3×3画素マトリクスの中心の画素が注目画素
である。
{Continuous black pixel detecting section 322b, continuous white pixel detecting section 322c} The continuous black pixel detecting section 322b and the continuous white pixel detecting section 322c determine the position where black pixels continue and the white pixel Successive locations are detected by pattern matching. In this embodiment, in this embodiment, the patterns BPa to BPd and WPa to BPd of the 3 × 3 pixel matrix shown in FIG.
WPd is used. In the pattern shown in FIG. 9, a black circle indicates the above-described black pixel, a white circle indicates the above-described white pixel, and blank pixels without any circle indicate black pixels, halftone pixels, and white pixels. It does not matter which one of them. The pixel at the center of the 3 × 3 pixel matrix is the pixel of interest.

【0050】黒画素連続検出部322bは、3値化デー
タの内容の分布が、図9に示す黒画素分布パターンBP
a〜BPdのいずれかにマッチングすると、その時の注
目画素を「黒連続画素」としてそれを表すデータを該注
目画素に与える。同様に、白画素連続検出部322c
は、図9に示す白画素分布パターンWPa〜WPdのい
ずれかにマッチングすると、その時の注目画素を「白連
続画素」としてそれをあらわすデータを該注目画素に与
える。
The black pixel continuation detecting section 322b determines that the distribution of the contents of the ternary data is the black pixel distribution pattern BP shown in FIG.
When matching is performed with any of a to BPd, the pixel of interest at that time is set as a “black continuous pixel” and data representing the pixel is given to the pixel of interest. Similarly, the white pixel continuation detection unit 322c
When matching with any of the white pixel distribution patterns WPa to WPd shown in FIG. 9, the target pixel at that time is set as a “white continuous pixel”, and data representing the pixel is given to the target pixel.

【0051】≪近傍画素検出部322d≫次の近傍画素
検出部322dは、黒画素連続検出部322bおよび白
画素連続検出部322cの検出結果について、この近傍
画素検出部322dでの注目画素の近傍に黒連続画素ま
たは白連続画素があるか否かを調べることにより、該注
目画素が、エッジ領域と非エッジ領域のいずれにあるか
を判定する。より具体的に述べれば、本実施形態にあっ
ては、5×5画素マトリクスのブロックで、その内部に
黒連続画素と白連続画素がそれぞれ1つ以上存在すると
きに、そのブロックをエッジ領域と判定し、そうでない
ときに、そのブロックを非エッジ領域と判定する。
{Neighboring Pixel Detection Unit 322d} The next neighboring pixel detection unit 322d determines the detection results of the black pixel continuation detection unit 322b and the white pixel continuation detection unit 322c in the vicinity of the pixel of interest in the neighborhood pixel detection unit 322d. By examining whether there is a black continuous pixel or a white continuous pixel, it is determined whether the target pixel is in an edge area or a non-edge area. More specifically, in the present embodiment, when one or more black continuous pixels and one or more white continuous pixels are present in a 5 × 5 pixel matrix block, the block is defined as an edge region. If not, the block is determined to be a non-edge area.

【0052】≪孤立点除去部322e≫さらに、文字エ
ッジは連続して存在するので、孤立点除去部322eに
て孤立しているエッジを非エッジ領域に補正する。そし
て、エッジ領域と判定した画素に対して“1”(エッジ
領域)なるedge信号を出力し、非エッジ領域と判定
した画素に対して“0”(非エッジ領域)なるedge
信号を出力する。
{Isolated point removing unit 322e} Further, since the character edge exists continuously, the isolated point removing unit 322e corrects the isolated edge to a non-edge area. Then, an edge signal of “1” (edge area) is output to a pixel determined to be an edge area, and an edge signal of “0” (non-edge area) is output to a pixel determined to be a non-edge area.
Output a signal.

【0053】<白領域抽出> ≪白領域抽出部323≫図4における白領域抽出部32
3は、図21に示すように2値化部323a、RGB白
抽出部323b、白判定部323c、白パターンマッチ
ング部323d、白パターン補正部323j、白膨張部
323h、白収縮部323l、白補正部323g、グレ
ーパターンマッチング部323h、グレー膨張部323
iおよび判定部323mからなる。なお、図4における
白領域抽出部323は図21のMの部分を置換したもの
である。
<White Area Extraction> {White Area Extraction Unit 323} White Area Extraction Unit 32 in FIG.
Reference numeral 3 denotes a binarization unit 323a, an RGB white extraction unit 323b, a white determination unit 323c, a white pattern matching unit 323d, a white pattern correction unit 323j, a white expansion unit 323h, a white contraction unit 323l, and a white correction unit as shown in FIG. Section 323g, gray pattern matching section 323h, gray expansion section 323
i and a determination unit 323m. It should be noted that the white area extraction unit 323 in FIG. 4 is obtained by replacing the part M in FIG.

【0054】≪2値化部323a≫2値化部323a
は、フィルタ部321の画像濃度データ(G画像デー
タ)のエッジ強調出力を、閾値thwsbで2値化し
て、白パターンマッチング部323d(の処理を表す図
5のステップSS7)が参照する白データの生成のため
の2値化白判定信号を発生する。なお、エッジ強調出力
は、この実施形態では0から255の256階調であ
り、0が濃度の無い白であり、閾値thwsbの一例は
50であって、エッジ強調出力の値がthwsb=50
より小さければ、2値化部323aが「2値化白」と判
定し、2値化白判定信号「1」を発生する。エッジ強調
出力の値がthwsb=50以上のときは2値化白判定
信号「0」を発生する。
{Binarization section 323a} Binarization section 323a
Converts the edge-enhanced output of the image density data (G image data) of the filter unit 321 into a binary value with a threshold thwsb, and outputs the white data of the white data referred to by the white pattern matching unit 323d (Step SS7 in FIG. 5 representing the processing). A binarized white determination signal for generation is generated. In this embodiment, the edge enhancement output is 256 gradations from 0 to 255, 0 is white without density, an example of the threshold thwsb is 50, and the value of the edge enhancement output is thwsb = 50.
If it is smaller, the binarization unit 323a determines "binary white" and generates a binary white determination signal "1". When the value of the edge emphasis output is greater than thwsb = 50, a binary white determination signal “0” is generated.

【0055】≪RGB白抽出部323b≫RGB白抽出
部323bは、 1)RGB白地検出 2)色地検出 3)グレー画素検出 を行って、画像データが白領域かグレー領域(中濃度領
域)か否かを判定する。
{RGB white extraction unit 323b} The RGB white extraction unit 323b performs 1) RGB white background detection 2) color background detection 3) gray pixel detection to determine whether the image data is a white area or a gray area (medium density area). Determine whether or not.

【0056】1)RGB白地検出 該RGB白地検出では、R,G,B画像データで白地領
域を検出することにより、白背景分離の動作をアクティ
ブにする。すなわち白背景分離の処理を起動する。具体
的には、図10のパターンWBPに示すように、3×3
画素マトリックスのR,G,B画像データのすべてが閾
値thwssより小さければ、注目画素(3×3画素マ
トリックスの中心画素)を白領域と判定して白パターン
マッチング部323d(の処理を表す図10のステップ
S3が参照する白地判定信号)をアクティブ(「1」)
にする。これは、ある程度の広がりの白画素領域がある
かを検出するものである。なお、R,G,B画像データ
のそれぞれも、この実施形態では0から255の256
階調であり、0が濃度の無い基底レベルであり、閾値t
hwss<thwsbであって、thwssの一例は4
0であって、R,G,B画像データのすべてがthws
s=40より小さいと、「白地」と判定し白地判定信号
「1」を発生する。R,G,B画像データのいずれかが
thwss=40以上のときは白地判定信号「0」を発
生する。
1) RGB white background detection In the RGB white background detection, a white background separation operation is activated by detecting a white background region from R, G, B image data. That is, the processing of white background separation is started. Specifically, as shown in the pattern WBP of FIG.
If all of the R, G, and B image data of the pixel matrix is smaller than the threshold thwss, the target pixel (the center pixel of the 3 × 3 pixel matrix) is determined to be a white region, and the process of the white pattern matching unit 323d (FIG. Active (“1”) in step S3 of FIG.
To This is to detect whether there is a white pixel area having a certain extent. In this embodiment, each of the R, G, and B image data is also 256 from 0 to 255 in this embodiment.
Is a gradation, 0 is a base level without density, and a threshold value t
hwss <thwsb, and an example of thwss is 4
0, and all of the R, G, B image data is thws
If s is smaller than 40, it is determined as "white background" and a white background determination signal "1" is generated. When any of the R, G, and B image data has a threshold value of thwss = 40 or more, a white background determination signal “0” is generated.

【0057】2)色地検出 薄い色を白背景と判定しないようにするために、色地を
検出する。 A.ここでは先ず、注目画素を中心とする5×5画素マ
トリックスの各画素の符号を、図11のパターンMPp
に示すものとすると、注目画素となる中心画素c3(M
Ca〜MCdの×印画素)のRGB差(1画素宛ての
R,G,B画像データの最大値と最小値との差)が閾値
thcより大きいと色画素判定信号aを「1」(色画
素)とし、閾値thc以下のときは「0」(白黒画素)
とする。 B.注目画素の片側の周辺画素群△(図11のMCa〜
MCdの中)のいずれかの画素のR,G,B画像データ
がすべて閾値thwc以下であると、一方側白判定信号
bを「1」(白画素)とし、閾値thwcを超えるとき
は「0」(非白画素)とする。閾値thwcは例えば2
0である。 C.注目画素の他方側の周辺画素群□(図11のMCa
〜MCdの中)のいずれかの画素のR,G,B画像デー
タがすべて閾値thwc以下であると他方側白判定信号
cを「1」(白画素)とし、閾値thwcを超えるとき
は「0」(非白画素)とする。 D.図11のパターンMCa〜MCdのいずれかにおい
て、 a AND (bとcのエクスクルーシブノア)=
「1」 が成立すると、すなわち、a=「1」(注目画素が色画
素)、かつ、bとcが一致(注目画素の両側ともに白画
素、または、両側ともに非白画素)のとき、注目画素宛
ての色地判定信号dを「1」(色地)とする。この色地
判定信号dは、白パターンマッチング部323d(の処
理を表す図10のステップS6)で参照される。
2) Color ground detection Color ground is detected so that a light color is not determined as a white background. A. Here, first, the sign of each pixel of the 5 × 5 pixel matrix centering on the target pixel is represented by the pattern MPp in FIG.
, The central pixel c3 (M
If the RGB difference (the difference between the maximum value and the minimum value of the R, G, and B image data addressed to one pixel) of the Ca-MCd X mark pixel is larger than the threshold thc, the color pixel determination signal a is set to “1” (color). "0" (black and white pixel) when the value is equal to or less than the threshold thc.
And B. A peripheral pixel group on one side of the target pixel 画素 (MCa to MCa in FIG. 11)
If the R, G, and B image data of any of the pixels (in MCd) are all equal to or smaller than the threshold thwc, the one-side white determination signal b is set to “1” (white pixel). (Non-white pixel). The threshold value thwc is, for example, 2
0. C. Peripheral pixel group □ on the other side of the target pixel (MCa in FIG. 11)
If the R, G, and B image data of any of the pixels (from among .about.MCd) are all equal to or smaller than the threshold value thwc, the other-side white determination signal c is set to “1” (white pixel). (Non-white pixel). D. In any of the patterns MCa to MCd in FIG. 11, a AND (exclusive NOR of b and c) =
When “1” is established, that is, when a = “1” (the target pixel is a color pixel) and b and c match (white pixels on both sides of the target pixel or non-white pixels on both sides), the target The color ground determination signal d addressed to the pixel is set to “1” (color ground). The color ground determination signal d is referred to by the white pattern matching unit 323d (Step S6 in FIG. 10 representing the processing).

【0058】前述のパターンマッチングA〜Dを行うの
は、黒文字のまわりがRGB読取り位置ずれでわずかな
がらに色付きになるとき、そこを色と拾わないためであ
る。黒文字のまわりの色付きの位置では、(bとcのエ
クスクルーシブノア)か゛「0」(注目画素の両側の一
方が白画素、他方が非白画素)となり、この場合は、色
地判定信号d=「0」(非色地)となる。加えて、注目
画素が、周辺を白地で囲まれた色画素のときには、色地
判定信号d=「1」(色地)となり、線が込み入ったと
ころでも、薄い色画素を色地として検出することができ
る。すなわち、線が込み入ったところでは、本来白いと
ころが完全に白に読取られないが、前記処理A.でRG
B差が小さい場合には色画素と判定しないので、閾値t
hwcを、濃度を見るべき白地よりも厳しく設定して
(たとえばthwss=40、thwsb=50に対
し、thwc=20)、B〜Dの処理で白背景か否を厳
密にチエックして薄い色画素を色地として正確に検出す
ることができる。
The above-described pattern matching A to D is performed so that when the surroundings of a black character are slightly colored due to an RGB reading position shift, the color is not picked up as a color. At the colored position around the black character, (exclusive NOR of b and c) or ゛ “0” (one of both sides of the target pixel is a white pixel and the other is a non-white pixel). In this case, the color ground determination signal d = It becomes "0" (non-colored ground). In addition, when the pixel of interest is a color pixel whose periphery is surrounded by a white background, the color ground determination signal d = “1” (color background), and even when a line is complicated, a light color pixel is detected as a color background. be able to. That is, where a line is complicated, a white place is not originally read completely white, but the processing A. RG
If the B difference is small, it is not determined that the pixel is a color pixel.
hwc is set more strictly than the white background where the density is to be checked (for example, thwss = 40, thwsb = 50, but thwc = 20). Can be accurately detected as a color background.

【0059】なお、色時検出に際し、谷白画素検出を行
う場合もある。谷白画素検出は、前記RGB白地検出で
検出できない小さな白領域の谷白画素を図10に示すG
画像データの5×5画素マトリクス分布RDPaおよび
RDPbに基づいて検出する。具体的には、5×5画素
マトリクス分布RDPaに基づいて、 miny=min(G[1][2]、G[1][3]、
G[1][4]、G[5][2]、G[5][3]、G
[5][4]) を算出する。即ち、図10に示す5×5画素マトリクス
分布RDPaの、黒丸を付した画素群の中の最低濃度m
inyを摘出する。そして、 maxy=max(G[3][2]、G[3][3]、
G[3][4]) を算出する。即ち、図10に示す5×5画素マトリクス
分布RDPaの、白丸を付した画素群の中の最高濃度m
axyを摘出する。次に、 mint=min(G[2][1]、G[3][1]、
G[4][1]、G[2][5]、G[3][5]、G
[4][5]) を算出する。即ち、図10に示すもう1つの5×5画素
マトリクス分布RDPbの、黒丸を付した画素群の中の
最低濃度mintを摘出する。そして、 maxt=max(G[2][3]、G[3][3]、
G[4][3]) を算出する。即ち、図10に示す5×5画素マトリクス
分布RDPbの、白丸を付した画素群の中の最高濃度m
axtを摘出する。ここで、min( )は最小値を検
出する関数である。max( )は、最大値を検出する
関数である。次に、 OUT=((miny−maxy) > 0) #
((mint−maxt) > 0) を算出する。即ち、(miny−maxy)と(min
t−maxt)のうち、正値であって大きいほうの値を
谷検出値OUTとし、このOUTの値がある閾値以上で
あると、注目画素(RDPaまたはRDPbの中心画
素)を谷白画素と検出する。このように画像の谷状態を
検出して、1)RGB白地検出では、検出しにくいとこ
ろを補う。
It should be noted that there may be a case where valley white pixels are detected during the color detection. In the valley white pixel detection, a valley white pixel in a small white area that cannot be detected by the RGB white background detection is indicated by G
Detection is performed based on the 5 × 5 pixel matrix distributions RDPa and RDPb of the image data. Specifically, based on the 5 × 5 pixel matrix distribution RDPa, miny = min (G [1] [2], G [1] [3],
G [1] [4], G [5] [2], G [5] [3], G
[5] [4]) is calculated. That is, in the 5 × 5 pixel matrix distribution RDPa shown in FIG.
iny is extracted. Then, maxy = max (G [3] [2], G [3] [3],
G [3] [4]) is calculated. That is, in the 5 × 5 pixel matrix distribution RDPa shown in FIG.
Extract axy. Next, mint = min (G [2] [1], G [3] [1],
G [4] [1], G [2] [5], G [3] [5], G
[4] [5]) is calculated. That is, the lowest density mint in the group of pixels with black circles is extracted from another 5 × 5 pixel matrix distribution RDPb shown in FIG. Then, maxt = max (G [2] [3], G [3] [3],
G [4] [3]) is calculated. That is, in the 5 × 5 pixel matrix distribution RDPb shown in FIG.
axt is removed. Here, min () is a function for detecting the minimum value. max () is a function for detecting the maximum value. Next, OUT = ((miny-maxy)> 0) #
((Mint-maxt)> 0) is calculated. That is, (miny-maxy) and (min
Of the t-maxt), the larger positive value is the valley detection value OUT. If the value of OUT is equal to or greater than a certain threshold, the target pixel (the center pixel of RDPa or RDPb) is regarded as a valley white pixel. To detect. As described above, the valley state of the image is detected, and the 1) RGB white background detection compensates for a portion that is difficult to detect.

【0060】≪白判定部323c≫ここでは、白判定に
用いる状態変数MS、SS[I]の更新を行う。その内
容を図5のフローチャートに示す。ここで、状態変数M
Sは処理対象ライン(注目ライン)の画素宛てのもの、
状態変数SS[I]は処理対象ラインの1ライン前(処
理済ライン)の画素宛てのものであり、いずれも白地の
白の程度を表す4bitの白地情報であり、図5のフロ
ーチャートに示す処理によって生成されるものである。
状態変数MSおよびSS[I]が表す値の最高値は15
に定めており、これが最も白い程度を意味し、最低値は
0である。すなわち状態変数MSおよびSS[I]は、
白の程度を示すデータであり、それが表す値が大きいほ
ど、強い白を意味する。複写動作開始時に、状態変数M
SおよびSS[I]は共に0に初期化される。
{White determination section 323c} Here, the state variables MS and SS [I] used for white determination are updated. The contents are shown in the flowchart of FIG. Here, the state variable M
S is addressed to the pixel of the processing target line (line of interest),
The state variable SS [I] is addressed to the pixel one line before (the processed line) of the line to be processed, and is 4-bit white background information indicating the degree of white on the white background. Is generated by
The highest value represented by the state variables MS and SS [I] is 15
, Which means the whitest degree, and the lowest value is 0. That is, the state variables MS and SS [I] are:
This is data indicating the degree of white, and the larger the value, the stronger white. At the start of the copying operation, the state variable M
S and SS [I] are both initialized to zero.

【0061】図5の処理においてはまず、処理対象であ
る注目画素の1ライン前の状態変数すなわち白地情報S
S[I]と注目画素の同一ライン上の1画素前の画素
(先行画素:処理済画素)の状態変数すなわち白地情報
MSとを比較して(ステップS1)、1ライン前の白地
情報SS[I]の方が大きければ、それを注目画素の仮
の白地情報MSとする(ステップS2)が、そうでない
と先行画素の状態変数MSを注目画素の仮の白地情報M
Sとする。これは、周辺画素の白地情報の、より白に近
い情報を選択することを意味する。
In the process shown in FIG. 5, first, the state variable one line before the target pixel to be processed, that is, the white background information S
S [I] is compared with the state variable of the pixel one pixel before (the preceding pixel: processed pixel) on the same line as the target pixel, that is, the white background information MS (step S1), and the white background information SS [ I] is larger than the temporary white background information MS of the target pixel (step S2). Otherwise, the state variable MS of the preceding pixel is set to the temporary white background information M of the target pixel.
S. This means that information closer to white among the white background information of the peripheral pixels is selected.

【0062】複写動作を開始してから、前記1)RGB
白地検出で白領域すなわち白地を検出すると〔前記1)
RGB白地検出の出力である白地判定信号=「1」〕、
注目画素の1ライン前の画素の白地情報SS[I]を1
5に更新し(ステップS3、4)、注目画素の白地情報
MSも15とする(ステップS5)。そして、注目画素
の白地情報MSは、図12に示すラインメモリLMPの
現ライン(注目ライン)用のラインメモリの注目画素の
主走査位置(F)に書込み、1ライン前の画素宛ての白
地情報SS[I]は、図12に示すラインメモリLMP
の前1ライン用のラインメモリの注目画素の主走査位置
(F)に書込む(ステップS3、4、5)。次に、1ラ
イン前の画素宛ての白地情報SS[I]を、1ライン前
の画素に、次のように、伝搬させる(ステップS14〜
17)。なお、[I]は注目画素の主走査位置を意味
し、[I−1]は主走査方向xでそれより1画素前の画
素(注目画素の直前の画素)の位置を意味する。
After the copying operation is started, 1) RGB
When a white area, that is, a white background is detected by the white background detection [1)
White background determination signal output from RGB white background detection = “1”],
The white background information SS [I] of the pixel one line before the target pixel is set to 1
5 (steps S3 and S4), and the white background information MS of the target pixel is also set to 15 (step S5). Then, the white background information MS of the pixel of interest is written at the main scanning position (F) of the pixel of interest in the line memory for the current line (line of interest) of the line memory LMP shown in FIG. SS [I] is the line memory LMP shown in FIG.
Is written to the main scanning position (F) of the pixel of interest in the line memory for one line before (steps S3, S4, S5). Next, the white background information SS [I] addressed to the pixel of the previous line is propagated to the pixel of the previous line as follows (steps S14 to S14).
17). [I] means the main scanning position of the pixel of interest, and [I-1] means the position of the pixel one pixel before (the pixel immediately before the pixel of interest) in the main scanning direction x.

【0063】SS[I−1]<SS[I]−1 の時、 SS[I−1]=SS[I]−1 をラインメモリにセットする(ステップS14、1
5)。即ち、注目画素より1ライン前のラインにおい
て、主走査方向で注目画素の位置(F)より1画素前
(E)の白地情報SS[I−1]よりも注目画素の位置
(F)の白地情報SS[I]から1を減算した値「SS
[I]−1」のほうが大きい(白程度が強い)と、1ラ
イン前のライン上の注目画素の位置(F)より1画素前
の画素(E)宛ての白地情報SS[I−1]を、注目画
素の位置(F)の白地情報SS[I]より1だけ白強度
を下げた値に更新する。
When SS [I-1] <SS [I] -1, SS [I-1] = SS [I] -1 is set in the line memory (steps S14, S1).
5). That is, in the line one line before the pixel of interest, the white background at the position (F) of the pixel of interest is located ahead of the white background information SS [I-1] one pixel before (E) the pixel (F) in the main scanning direction. The value “SS” obtained by subtracting 1 from the information SS [I]
If [I] -1 ”is larger (white is stronger), the white background information SS [I-1] addressed to the pixel (E) one pixel before the position (F) of the pixel of interest on the previous line. Is updated to a value obtained by lowering the white intensity by 1 from the white background information SS [I] at the position (F) of the target pixel.

【0064】次に、 SS[I−2]<SS[I]−2 の時、 SS[I−2]=SS[I]−2 をラインメモリにセットする(ステップS16、17−
14、15); 次に、 SS[I−3]<SS[I]−3 の時、 SS[I−3]=SS[I]−3 をラインメモリにセットする(ステップS16、17−
14、15)。
Next, when SS [I-2] <SS [I] -2, SS [I-2] = SS [I] -2 is set in the line memory (steps S16 and S17-).
Next, when SS [I-3] <SS [I] -3, SS [I-3] = SS [I] -3 is set in the line memory (steps S16 and 17-).
14, 15).

【0065】以下同様にして、最後に、 SS[I−15]<SS[I]−15 の時、 SS[I−15]=SS[I]−15 をラインメモリにセットする(ステップS16、17−
14、15)。これらの白地情報SS[I]の値の下限
値MINは0であり、0未満になるときには、0にとど
める。これは後述のステップS13においても同様であ
る。
Similarly, when SS [I-15] <SS [I] -15, SS [I-15] = SS [I] -15 is finally set in the line memory (step S16, 17-
14, 15). The lower limit value MIN of the value of the white background information SS [I] is 0, and when it is less than 0, it is kept at 0. This is the same in step S13 described later.

【0066】これらのステツプ14〜17の処理によ
り、1ライン前かつ注目画素の主走査位置より前の白地
情報SSが、注目画素の白地情報MSを、それから主走
査方向xの1画素の位置ずれにつき1の低減率で下げた
値に更新され、注目画素の白地情報が1ライン前の主走
査方向xで主走査の後方に、前記低減率で伝搬する(白
伝搬処理)。但しこれは、1ライン前の白地情報のほう
が小さい値である場合である。例えば1ライン前の画素
が、前記1.)RGB白地検出で白地(白領域)と検出
したものであるときにはそれの白地情報は15であって
最高値であるので書換えは行われない。
By the processing in these steps 14 to 17, the white background information SS one line before and before the main scanning position of the target pixel is replaced with the white background information MS of the target pixel, and then the positional deviation of one pixel in the main scanning direction x. , And the white background information of the pixel of interest propagates at the aforementioned reduction rate in the main scanning direction x one line before and behind the main scanning (white propagation processing). However, this is a case where the value of the white background information one line before is smaller. For example, the pixel before one line is the one. If the white background (white area) is detected by the RGB white background detection, the white background information is 15 which is the highest value, and no rewriting is performed.

【0067】注目画素を更新してそれが白地でないもの
になると〔前記1)RGB白地検出の出力である白地判
定信号=「0」〕、ステップS3からステップS6以下
に進み、注目画素が、色地〔前記2)色地検出の出力で
ある色地判定信号d=「1」〕でなく(非色地であ
り)、2値化白〔前記2値化部323aの出力である2
値化白判定信号=「1」〕であり、しかも、ステツプ
1、2で仮に定めた注目画素の状態変数すなわち白地情
報MSが閾値thw1(例えば13)以上、である時
に、注目画素宛ての白地情報MSを+1する(ステップ
S6〜10)。すなわち、1だけ白程度が強い値に更新
する。白地情報MSの最高値maxは15に定めてお
り、15を超える時には15にとどめる(ステップS
9、10)。この経路を進んできたときにも、前述のス
テップS5および14〜17を実行する。すなわち、白
伝搬処理を行う。
When the target pixel is updated and becomes a non-white background [1) White background determination signal output from RGB white background detection = “0”], the process proceeds from step S3 to step S6 and subsequent steps, where the target pixel is Not the ground [the above [2] color ground detection signal d = “1”] which is the output of the color ground detection (it is a non-color ground), and binarized white [the output 2 of the binarization unit 323a.
When the value-determined white determination signal is “1”] and the state variable of the pixel of interest temporarily determined in Steps 1 and 2, that is, the white background information MS is equal to or greater than the threshold thw1 (for example, 13), the white background addressed to the pixel of interest is The information MS is incremented by 1 (steps S6 to S10). That is, the white value is updated to a value that is strong by one. The maximum value max of the white background information MS is set to 15, and when it exceeds 15, it is kept at 15 (step S
9, 10). The steps S5 and S14 to S17 are also executed when the vehicle has proceeded along this route. That is, white propagation processing is performed.

【0068】注目画素が非色地かつ2値化白ではある
が、白地情報MSがthw1(たとえば7)未満、th
w2(例えば1)以上、かつ、谷白画素である時には、
状態変数MSをそのままの値に保持する(ステップS
8、11、12)。この経路を進んできたときにも、前
述のステップS5および14〜17を実行する。すなわ
ち、白伝搬処理を行う。
Although the target pixel has a non-colored background and a binary white, the white background information MS is smaller than thw1 (for example, 7).
When w2 (for example, 1) or more and a valley white pixel,
The state variable MS is kept as it is (step S
8, 11, 12). The steps S5 and S14 to S17 are also executed when the vehicle has proceeded along this route. That is, white propagation processing is performed.

【0069】前記条件のいずれにも一致しないとき、す
なわち注目画素が色地または非2値化白のときは、注目
画素の白地情報MSを−1する(ステップS13)。す
なわち、白程度が1だけ弱い白地情報に更新する。白地
情報MSの最低値MINは0であり、0未満になる時に
は0にとどめる。この経路を進んできたときにも、前述
のステップS5および14〜17を実行する。すなわ
ち、白伝搬処理を行う。
If none of the above conditions is met, that is, if the target pixel is a color background or non-binarized white, the white background information MS of the target pixel is decremented by one (step S13). That is, the information is updated to white background information in which the degree of white is weak by one. The minimum value MIN of the white background information MS is 0, and when it is less than 0, it is kept at 0. The steps S5 and S14 to S17 are also executed when the vehicle has proceeded along this route. That is, white propagation processing is performed.

【0070】以上の白地情報MSの生成により、ライン
メモリLMP上において、状態変数(白地情報)MSを
介して周辺画素に白情報を伝搬させることができる。こ
の白地情報MSの生成は前述のように、色データ(R,
G,B画像データのすべて)が閾値thwss=40よ
り小さいとき白地と表すRGB白地判定信号に基づいた
図5のステップS3−4−5−14〜17の系統の色対
応の白地情報MSの生成を含み、しかも、濃度データ
(G画像データ)のエッジ強調出力(フィルタ部321
の出力)が、閾値thwsb=50より小さいとき、白
地と2値化白判定信号に基づいた図5のステップS7〜
13−5−14〜17の系統の濃度対応の白地情報MS
の生成を含む。
By the generation of the white background information MS, the white information can be transmitted to the peripheral pixels via the state variable (white background information) MS on the line memory LMP. The generation of the white background information MS is based on the color data (R, R,
Generation of white background information MS corresponding to the colors of the system of steps S3-4-5-14 to 17 in FIG. 5 based on the RGB white background determination signal indicating that the white background is present when all of the G and B image data are smaller than the threshold thwss = 40. And an edge enhancement output of the density data (G image data) (the filter unit 321).
Is smaller than the threshold value thwsb = 50, the steps S7 to S7 in FIG.
13-5-14 to 17 white background information MS corresponding to density
Including the generation of

【0071】この白判定部323cは、まずRGB白抽
出部323bの中の1)RGB白地検出で、白領域を検
出するまで、すなわち前記1)RGB白地検出が白地判
定信号「1」を発生しこれに対応して色対応の白地情報
MSの生成(ステップS3−4−5−14〜17)を開
始するまでは動作(ステップS4の実行)を行わない。
これは、白領域との判定が得られない領域をフィルタ部
321のエッジ強調処理後G画像データの後述する白パ
ターンマッチングにて白画素(白ブロック)と誤判定す
ることを防ぐためである。
The white determination unit 323c first generates a white background determination signal "1" in the 1) RGB white background detection in the RGB white extraction unit 323b until a white region is detected, that is, in the 1) RGB white background detection. In response to this, the operation (execution of step S4) is not performed until the generation of the color-corresponding white background information MS (steps S3-4-5-14 to 17) is started.
This is to prevent a region that cannot be determined as a white region from being erroneously determined as a white pixel (white block) by white pattern matching of the G image data after edge enhancement processing of the filter unit 321, which will be described later.

【0072】薄い色地上の文字にエッジ強調フィルタ部
321をかけると、文字周辺のデータが本来の画像デー
タ(色地)よりレベルの低い値(白)となるので、フィ
ルタ部321のエッジ強調処理後のデータで白パターン
マッチングをすると、すなわち、濃度対応の白地情報M
Sの生成(ステップS7〜13−5−14〜17)のみ
に基づいて白領域判定をすると、色地上の文字周辺を白
地と誤判定しやすいが、前述の色対応の白地情報MSの
生成(ステップS3−4−5−14〜17)によって白
領域との判定が得られる領域に後述する白画素(白ブロ
ック)を判定するための白パターンマッチングを適用す
るように白地情報MSを最高値とし、ステツプ3で白地
でないときには、更にステップS6以下で詳細に白地条
件をチエックして白パターンマッチングを適用するか否
を決定するための1つのパラメータである白地情報MS
を調整するので、フィルタ部321のエッジ強調処理後
G画像データの後述する白パターンマッチングにて白画
素(白ブロック)と誤判定することを防いでいる。
When a character on a light-colored ground is subjected to the edge emphasis filter section 321, the data around the character becomes a value (white) lower in level than the original image data (colored background). When white pattern matching is performed with the subsequent data, that is, white background information M corresponding to the density
If the white area is determined based only on the generation of S (steps S7-13-5-14-17), it is easy to erroneously determine the surroundings of the character on the color ground as a white background. In step S3-4-5-14 to 17), the white background information MS is set to the maximum value so that white pattern matching for determining a white pixel (white block), which will be described later, is applied to an area determined to be a white area. If it is not a white background in step 3, white background information MS which is one parameter for determining whether or not to apply white pattern matching by checking the white background conditions in detail in step S6 and subsequent steps.
Is adjusted, the erroneous determination of a white pixel (white block) in the later-described white pattern matching of the G image data after the edge enhancement processing of the filter unit 321 is prevented.

【0073】例えば、色画素の可能性が高いときには、
白地情報MSを下げ(ステップS13)、色画素の疑い
もあり得るときには白地情報MSをホールド(変更無
し)にして(ステップS11〜13)、後述する白パタ
ーンマッチングによって白画素(白ブロック)と誤判定
することを防ぎ、文字周辺のデータが本来の画像データ
(色地)よりレベルの低い値(白)となるのを防止して
いる。
For example, when the possibility of a color pixel is high,
The white background information MS is lowered (step S13), and if there is a possibility of a color pixel, the white background information MS is held (no change) (steps S11 to S13) and mistaken for a white pixel (white block) by white pattern matching described later. This prevents the data around the character from becoming a value (white) lower in level than the original image data (colored background).

【0074】文字が密なところは前述の処理(ステップ
S3〜5、6〜10および14〜17)によって白地情
報MSを更新し伝搬させるので、密な文字領域が絵柄と
誤判定される可能性が低減する。また、込み入った文字
(例えば、「書」)などの文字の中は、1)RGB白地
検出で白検出ができない場合があるが、そのときには、
3)谷白画素検出によって白と検出し、白地情報MSを
ステップS12のYES出力がステップS5に直進する
経路でホールドして白地傾向にとどめるので、込み入っ
た文字の中が絵柄と誤判定される可能性が低くなる。
Where the character is dense, the white background information MS is updated and propagated by the above-described processing (steps S3-5, 6-10 and 14-17). Is reduced. Also, among characters such as complicated characters (for example, "letter"), 1) there is a case where white detection cannot be performed by RGB white background detection.
3) White is detected by the valley white pixel detection, and the white background information MS is held on the path in which the YES output of step S12 goes straight to step S5, and the white background information is kept in the white background tendency. Less likely.

【0075】また、先に触れたように、注目画素が周辺
を白地で囲まれた色画素のときには、前記2)色地検出
の出力である色地判定信号d=「1」(色地)となり、
線が込み入ったところでも、薄い色画素を色地として検
出することができ、注目画素周辺が白かを見る閾値th
wcを低く設定して(thwc=20)、薄い色画素
(注目画素)の周辺が白背景か否を厳密にチエックして
薄い色画素を色地として検出することができるので、込
み入った文字の中が絵柄と誤判定される可能性を更に低
くすることができる。
Further, as mentioned above, when the target pixel is a color pixel whose periphery is surrounded by a white background, the above-mentioned 2) a color ground determination signal d = “1” (color ground) which is an output of the color ground detection. Becomes
Even when the line is complicated, a light color pixel can be detected as a color ground, and a threshold th for checking whether the periphery of the pixel of interest is white
By setting wc low (thwc = 20), it is possible to strictly check whether or not the periphery of the light color pixel (pixel of interest) has a white background and detect the light color pixel as a color background. The possibility that the inside is erroneously determined as a picture can be further reduced.

【0076】前述のように、薄い色画素を色地としてよ
り厳密に検出できることにより、色地と検出したときに
は図5のステップS6からステップS13に進んで、状
態変数MSを下げて色地を白と判定する可能性を低くで
きるのに加えて、ステップS3で参照する白地判定信号
を生成する時の閾値thwss(例えば40)に対し
て、ステップS7で参照する2値化白判定信号を生成す
る時の閾値thwsb(例えば50)を大きい値とし
て、色地と判定しなかった場合(ステップS6:NO)
には、前記2値化部323aで白と見なす確率を高くし
て、図5のステップS7から10に進んで状態変数MS
を上げて白領域と判定する可能性を高くしている。
As described above, since a light color pixel can be more accurately detected as a color background, when a color background is detected, the process proceeds from step S6 to step S13 in FIG. In addition to the possibility that the threshold is determined, the binarized white determination signal referred to in step S7 is generated with respect to a threshold thwss (for example, 40) at the time of generating the white background determination signal referred to in step S3. When the threshold value thwsb (for example, 50) at the time is set to a large value and the color background is not determined (step S6: NO)
5, the probability of being regarded as white by the binarization unit 323a is increased, and the process proceeds from step S7 to step 10 in FIG.
To increase the possibility of determining a white area.

【0077】すなわち、前記1)RGB白地検出で閾値
thwss=40で、白と判定する確率が低い厳しい白
判定を行って、そこで白地と判定すると、図5のステッ
プS3から4以下の処理により、状態変数MSを上げて
文字背景を白と判定する可能性を高くしている。前記厳
しい白判定で白地との判定が出なかったときには、逆に
色地であるかの薄い色画素も色地として検出する信頼性
が高い厳しい色地判定、すなわち、前記2)色地検出の
結果を参照し、それが色地との判定にならないときに
は、もう一度、今度は白と判定する確率が高い閾値th
wsb=50の甘い白判定、すなわち、前記2値化部3
23aを参照してそれが白の判定であると、状態変数M
Sを上げて文字背景を白と判定する可能性を高くしてい
る(ステップS7〜10)。この処理(ステップS6〜
10)があるので、色地と検出される薄い色画素よりも
更に薄い背景濃度ムラ、例えば裏映りのような原稿の地
にムラがある場合に、原稿の細かい地ムラに連動して状
態変数MSが2値的に大きく変化するのが抑制され、次
の白パターンマッチング部323dでの白画素か否かの
判定が走査方向に細かく変動するのが抑制される。その
結果、背景が薄い色地のときに、裏映りのような原稿の
細かい地ムラに連動して細かい色抜け(白背景)が現わ
れることがなくなる。
That is, in the above 1) RGB white background detection, the threshold value thwss = 40, a strict white determination with a low probability of white determination is performed, and if a white background is determined there, the processing from steps S3 to S4 in FIG. The possibility that the character background is determined to be white by raising the state variable MS is increased. When the white determination is not made in the strict white determination, a strict color determination with high reliability for detecting a light color pixel, which is a light color background, as a color background, that is, the 2) color background detection Referring to the result, when it is not determined that the color is a ground, the threshold th is again high, which is likely to be determined to be white.
wsb = 50, that is, a soft white judgment, that is,
23a, if it is determined to be white, the state variable M
S is raised to increase the possibility that the character background is determined to be white (steps S7 to S10). This processing (steps S6 to
10), when the background density unevenness is lighter than a light color pixel detected as a color background, for example, when there is unevenness in the ground of the original such as back reflection, the state variable is linked to the fine ground unevenness of the original. MS is suppressed from largely changing in a binary manner, and the determination of whether or not the pixel is a white pixel in the next white pattern matching unit 323d is suppressed from being finely changed in the scanning direction. As a result, when the background is a light color background, fine color omission (white background) does not appear in conjunction with fine background unevenness of the original such as back reflection.

【0078】≪白パターンマッチング部323d≫注目
画素を中心とする5×5画素単位のブロックで連続した
白画素が存在するか否かで、背景が白かを判断する。そ
のために、注目画素に関して、次式が満たされる時に、
注目画素を白画素と仮に定めて、白パターンマッチング
を行う: (非色画素&(白地情報MS≧thw1(13))&2
値化白)# (非色画素&(白地情報MS≧thw2(1))&谷白
画素&2値化白) ここで、この条件式を満たすかのチエックを行う注目画
素は、図5のステップS5および14〜17の白伝搬処
理の対象となってその処理過程を経たものであり、前記
条件式の中の「白地情報MS」が、白伝搬処理後の前記
チエックを行う注目画素の白地情報MS[I]である。
但し、このMS[I]は白伝搬処理を終えた白地情報で
あって、そのIは、前記チエックを行う注目画素の主走
査方向xの位置であり、前述の白判定部323cで状態
変数MSを算出する注目画素の主走査方向xの位置とは
別物である。
{White Pattern Matching Unit 323d} Whether the background is white is determined by whether or not there are continuous white pixels in a block of 5 × 5 pixels centered on the target pixel. Therefore, for the target pixel, when the following expression is satisfied,
The target pixel is temporarily determined to be a white pixel, and white pattern matching is performed: (non-color pixel & (white background information MS ≧ thw1 (13)) & 2
(Non-color pixel & (white background information MS ≧ thw2 (1)) & valley white pixel & binarized white) Here, the pixel of interest to be checked whether this conditional expression is satisfied is the step shown in FIG. S5 and the target of the white propagation processing of 14 to 17, which have undergone the processing, and the "white background information MS" in the conditional expression is the white background information of the target pixel on which the check is performed after the white propagation processing. MS [I].
Here, MS [I] is the white background information after the white propagation processing, and I is the position of the pixel of interest to be checked in the main scanning direction x. Is different from the position in the main scanning direction x of the pixel of interest for which is calculated.

【0079】前記条件式の中の、「非色画素」は前記
2)色地検出の出力である色地判定信号dが「0」であ
ること、「2値化白」は前記2値化部323aの2値化
白判定信号が「1」(2値化白)であること、および、
「谷白画素」は、前記3)谷白画素検出の検出結果が谷
白画素であること、をそれぞれ意味し、#は論理和(オ
ア:または)を意味する。白パターンマッチングは、前
記条件式で判定した出力(白画素か否)に対し、図12
の縦横斜めの連続性パターンPMPa〜PMPdのいず
れかに該当するかをチェックするものである。パターン
PMPa〜PMPdに付した白丸は、白画素であること
を意味する。他の空白画素は、白画素であるか否か不問
である。
In the above conditional expression, “non-color pixel” is 2) the color ground determination signal d output from the color ground detection is “0”, and “binary white” is the binary That the binarized white determination signal of the section 323a is "1" (binary white); and
"Valley white pixel" means that the detection result of the above 3) valley white pixel detection is a valley white pixel, respectively, and # means logical sum (OR: or). In the white pattern matching, the output (white pixel or not) determined by the above-described conditional expression is compared with FIG.
Of the vertical / horizontal / diagonal continuity pattern PMPa to PMPd. White circles added to the patterns PMPa to PMPd mean white pixels. It does not matter whether the other blank pixels are white pixels.

【0080】注目画素を中心とする5×5画素マトリク
スの白画素分布が図12のパターンPMPa,PMP
b,PMPcまたはPMPdに該当すると、注目画素が
白パターン画素であると判定する。
The white pixel distribution of the 5 × 5 pixel matrix centered on the target pixel is represented by the patterns PMPa and PMP shown in FIG.
If it corresponds to b, PMPc or PMPd, it is determined that the target pixel is a white pattern pixel.

【0081】<グレー判定> ≪グレー画素検出≫R,G,B,Y,M,C,Bkの色
相分割を行い、色相毎に濃度の低い画素を検出する。色
相分割は、後述する色判定と同一である。ここで、フィ
ルタ後のGデータをthgrと比較して、Gデータより
大きいか、RGB白抽出の色画素検出で色画素であるか
のどちらかを満たしていれば、下記の演算を行い、下記
条件を満たしていれば、グレー画素とする。ここで、色
毎に閾値を変えているのは各インクの最大濃度が異なる
ためである。 4.1)R−Y色相領域境界(ry) R−2 * G+B>0 4.2)Y−G色相領域境界(yg) 11*R−8*G−3*B>0 4.3)GーC色相領域境界(gc) 1*R−5*G+4*B<0 4.4)CーB色相領域境界(cb) 8*R−14*G+6*B<0 4.5)BーM色相領域境界(bm) 9*R−2*G−7*B<0 4.6)MーR色相領域境界(mr) R+5*G−6*B<0 4.8)Y画素画素判定(gry) (色画素である)&(ry==1)& (yg==0)&(RGBの最大値<thmaxy) 4.9)G画素判定(grg) (色画素である)&(yg==1)& (gc==0)&(RGBの最大値<thmaxg) 4.10)C画素判定(grc) (色画素である)&(gc==1)& (cb==0)&(RGBの最大値<thmaxc) 4.11)B画素判定(grb) (色画素である)&(cb==1)& (bm==0)&(RGBの最大値<thmaxb) 4.12)M画素判定(grm) (色画素である)&(bm==1)& (mr==0)&RGBの最大値<thmaxm) 4.13)R画素判定(grr) (色画素である)&(mr==1)& (ry==0)&(RGBの最大値 <thmaxr) 4.14)色画素でない時(grbk) (RGBの最大値<thmaxbk) 4.15)グレー画素判定 4.8)〜4.15)のいずれかの条件を満たす時にグ
レー画素とする。なお、「==」はC言語の表記であ
る。
<Gray Judgment> {Gray Pixel Detection} A hue division of R, G, B, Y, M, C, and Bk is performed, and a pixel with low density is detected for each hue. Hue division is the same as color determination described later. Here, the G data after the filter is compared with thgr, and if either the data is larger than the G data or a color pixel is detected by the color pixel detection of RGB white extraction, the following operation is performed, and the following operation is performed. If the condition is satisfied, a gray pixel is determined. Here, the threshold value is changed for each color because the maximum density of each ink is different. 4.1) RY hue area boundary (ry) R-2 * G + B> 0 4.2) YG hue area boundary (yg) 11 * R-8 * G-3 * B> 0 4.3) GC hue area boundary (gc) 1 * R-5 * G + 4 * B <0 4.4) CB hue area boundary (cb) 8 * R-14 * G + 6 * B <0 4.5) B- M hue area boundary (bm) 9 * R-2 * G-7 * B <0 4.6) MR hue area boundary (mr) R + 5 * G-6 * B <0 4.8) Y pixel pixel determination (Gry) (It is a color pixel) & (ry == 1) & (yg == 0) & (Maximum RGB value <thmaxy) 4.9) G pixel determination (grg) (It is a color pixel) & ( yg == 1) & (gc == 0) & (maximum value of RGB <thmaxg) 4.10) C pixel determination (grc) (color pixel) & (gc == 1) & (cb == 0) ) & (Maximum RGB value <thmaxc) 4.11) B pixel determination (grb) (color pixel) & (cb == 1) & (bm == 0) & (maximum RGB value <thmaxb) 4 .12) M pixel determination (grm) (It is a color pixel) & (bm == 1) & (mr == 0) & RGB maximum value <thmaxm) 4.13) R pixel determination (grr) (Yes) & (mr = 1) & (ry == 0) & (maximum RGB value <thmaxr) 4.14) When not a color pixel (grbk) (Maximum RGB value <thmaxbk) 4.15) Gray pixel Judgment When any one of the conditions 4.8) to 4.15) is satisfied, a gray pixel is determined. Note that “==” is a notation in the C language.

【0082】この処理は図21のグレー画素検出部32
3b−1で行われる。前述のようにRGB白抽出部32
3bをグレー画素検出部323b−1、色画素検出部3
23b−2、RGB白地検出部323b−3から構成
し、これら各部にR,G,Bの各画像データを入力す
る。グレー画素検出部323b−1の出力はグレーパタ
ーンマッチング部323hに入力され、グレーパターン
マッチングのパターンマッチング結果はグレー膨張部3
23iに入力され、膨張処理を行った後、判定部323
mに入力される。また、白判定部323cには、色画素
検出部323b−2、RGB白地検出部323b−3お
よび2値化部323aの出力が入力され、白判定部32
3cの判定結果は白パターンマッチング部323dに入
力され、そのパターンマッチング結果は、白パターン補
正部323jおよび白補正部323gに入力される。白
パターン補正部323hの補正結果はさらに白膨張部3
23kおよび白収縮部323lで処理された後、判定部
323mに入力され、また、白補正部323gの処理結
果はそのまま判定部323mに入力される。なお、グレ
ー膨張部323iで膨張処理する前に、収縮処理を施し
ておけば、孤立点の除去が可能となる。また、白パター
ンマッチング部323d、白パターン補正部323j、
白膨張部323k、白収縮部323lおよび白補正部3
23gは、白と白でない境界領域を検出するための構成
で、白補正部323gの出力は線幅を示し、白収縮部3
23lの出力は白領域を示し、前記グレー膨張部323
iの出力は中濃度であることを示す。そこで、判定部3
23mでは、これら3つの出力に対して優先順位を付け
て判定し、判定結果を後段に出力する。この場合、優先
順位1は白補正部323gからの線幅情報であり、優先
順位2はグレー膨張部323iからの中濃度情報であ
り、優先順位3は、白収縮部323lからの白領域情報
である。
This processing is performed by the gray pixel detection unit 32 shown in FIG.
3b-1. As described above, the RGB white extraction unit 32
3b is a gray pixel detector 323b-1, and a color pixel detector 3 is
23b-2, and an RGB white background detection section 323b-3, to which R, G, and B image data are input. The output of the gray pixel detection unit 323b-1 is input to the gray pattern matching unit 323h, and the pattern matching result of the gray pattern matching is output to the gray expansion unit 3.
23i, and after performing expansion processing, the determination unit 323
m. Further, the outputs of the color pixel detection unit 323b-2, the RGB white background detection unit 323b-3, and the binarization unit 323a are input to the white determination unit 323c.
The determination result of 3c is input to the white pattern matching unit 323d, and the pattern matching result is input to the white pattern correction unit 323j and the white correction unit 323g. The correction result of the white pattern correction unit 323h is further added to the white expansion unit 3.
After being processed by the 23k and the white contraction unit 323l, it is input to the determination unit 323m, and the processing result of the white correction unit 323g is directly input to the determination unit 323m. If contraction processing is performed before expansion processing by the gray expansion section 323i, isolated points can be removed. Also, a white pattern matching unit 323d, a white pattern correction unit 323j,
White expansion section 323k, white contraction section 323l, and white correction section 3
23g is a configuration for detecting a boundary area between white and non-white. The output of the white correction unit 323g indicates the line width, and the white contraction unit 3
The output of 231 indicates a white area, and the gray expansion section 323
The output of i indicates that the density is medium. Therefore, the judgment unit 3
In the case of 23m, these three outputs are prioritized and determined, and the determination result is output to the subsequent stage. In this case, priority 1 is line width information from the white correction unit 323g, priority 2 is medium density information from the gray expansion unit 323i, and priority 3 is white area information from the white contraction unit 323l. is there.

【0083】≪グレーパターンマッチング部323h≫
グレーパターンマッチング部323hでは、Dをグレー
画素として、bkはグレー画素より濃いところとして下
記パターンマッチングを行う。複写原稿は、薄い200
線の万線パターン、300銭の万線であるので、複写原
稿もグレー検出するように下記のようなパターンを採用
している。下記パターンに一致したものは、グレー画素
となる。図22(a)、図22(b)にこのときのパタ
ーンを示す。図22(a)は200線用のパターンであ
り、図22(b)は300線用のパターンである。
{Gray pattern matching section 323h}
The gray pattern matching unit 323h performs the following pattern matching on the assumption that D is a gray pixel and bk is darker than the gray pixel. Copy manuscript is thin 200
Since the line pattern is a line pattern of 300 yen, the following pattern is adopted so that the copy original is also detected in gray. Those that match the following pattern are gray pixels. FIGS. 22A and 22B show patterns at this time. FIG. 22A shows a pattern for 200 lines, and FIG. 22B shows a pattern for 300 lines.

【0084】 ( D15 & D25 & D35 & D32 & D45 & D38 & !BK41 & D42 & !BK43 & !BK44 & D55 & !BK46 & !BK47& D48 & !BK49 D52 & D65 & D58 & D75 & D85 & D95 ) #( D05 & D15 & D25 & D31 & D33 & D35 & D37 & D38& D41 & !BK42 & D43 & !BK44 & D45 & !BK46 & D47 & !BK48 & D48 && D51 & D53 & D55 & D57 & D58 & D65 & D75 & D85 ) ≪白パターン補正部323j≫白パターン補正部323
jでは、白画素パターンマッチングで孤立(1×1、1
×2、2×1、2×2、1×3、3×1の白画素)して
いるアクティブ画素を非アクティブにする。このことに
より、孤立している画素を除去する。
(D15 & D25 & D35 & D32 & D45 & D38 &! BK41 & D42 &! BK43 &! BK44 & D55 &! BK46 &! BK47 & D48 &! BK49 D52 & D65 & D58 & D75 & D85 & D95) # (D05 & D15 & D25 & D31 & D33 & D35 & D37 & D38 & D41 &! BK42 & D43 &! BK44 & D45 &! BK46 & D47 &! BK48 & D48 && D51 & D53 & D55 & D57 & D58 & D65 & D75 & D85) {White pattern correction unit 323j} White pattern correction unit 323
j, isolated by white pixel pattern matching (1 × 1, 1
× 2, 2 × 1, 2 × 2, 1 × 3, 3 × 1 white pixels) are deactivated. As a result, isolated pixels are removed.

【0085】≪白膨張部323k≫白膨張部323kで
は、 白画素パターンマッチングの補正の結果を7×4
1のORを行う。
{White Expansion Section 323k} In the white expansion section 323k, the correction result of the white pixel pattern matching is calculated as 7 × 4
1 is ORed.

【0086】≪白収縮部323l≫白収縮部323lで
は、白膨張部323hにおける白膨張の結果の1×33
のANDを行う。白膨張と白収縮を行うことにより、白
画素パターンマッチング部323dでの補正結果に対し
て膨張と小面積で存在する非アクティブ画素を除去す
る。この判定結果は、白地と境界部分に対して、非白地
側の境界領域を含む結果となる。言いかえれば、白地よ
りも大きな領域となる。
{White contraction section 323l} In the white contraction section 323l, 1 × 33 of the result of white expansion in the white expansion section 323h is obtained.
Is performed. By performing white expansion and white contraction, the inactive pixels existing in the expansion and small area with respect to the correction result in the white pixel pattern matching unit 323d are removed. This determination result includes a non-white background-side boundary region with respect to a white background and a boundary portion. In other words, the area is larger than the white background.

【0087】≪白補正部323g≫白補正部323gで
は、図12のブロックパターンBCPの×を付した注目
画素を中心とした15×11画素において、四隅の各6
×4画素領域それぞれに1つ以上の白候補ブロックが存
在するときに、注目ブロックに白ブロック補正データを
与える。このことにより、白地に囲まれた領域を白領域
とする。
{White Correction Unit 323g} In the white correction unit 323g, each of the four corners of the 15 × 11 pixels centered on the target pixel marked with “X” in the block pattern BCP in FIG.
When one or more white candidate blocks exist in each of the × 4 pixel regions, white block correction data is given to the target block. As a result, an area surrounded by a white background is defined as a white area.

【0088】≪グレー膨張部323i≫グレー膨張部3
23iでは、グレーパターンマッチングの結果に対し
て、11×11のOR処理をする。このことにより、グ
レー領域に対してやや大きな領域となる。
{Gray expansion section 323i} Gray expansion section 3
In 23i, an 11 × 11 OR process is performed on the result of the gray pattern matching. This results in a slightly larger area than the gray area.

【0089】≪判定部323m≫判定部323mでは、
白補正部323gの結果がアクティブまたは、白収縮部
323lの結果がアクティブでかつグレー膨張部323
iの結果が非アクティブの時に白背景とする。式で表現
すると次式のようになる。
{Determination Unit 323m} In the determination unit 323m,
The result of the white correction unit 323g is active, or the result of the white contraction unit 323l is active and the gray expansion unit 323 is active.
A white background is used when the result of i is inactive. This can be expressed by the following equation.

【0090】白補正の結果 # (白収縮の結果 &
!グレー膨張の結果) ここで、白補正の結果では、白地に囲まれた領域を確実
に白領域と判定して、白収縮の結果 & !グレー膨張
の結果の結果では、濃い黒文字周辺を白領域として、濃
度の薄いところを非白領域としている。
Result of White Correction # (Result of White Shrinkage &
! Here, in the result of the white correction, the area surrounded by the white background is definitely determined as the white area, and the result of the white contraction &! In the result of the gray expansion, the area around dark black characters is defined as a white area, and the area with low density is defined as a non-white area.

【0091】図13において、丸Bp1〜Bp4で囲ん
だ黒の突出部は、前述の注目ブロックを中心とした15
×11画素において四隅の各6×4画素領域それぞれに
1つ以上の白候補ブロックが存在するとき、注目ブロッ
クに白ブロック補正データを与える白ブロック補正によ
って白ブロックに置きかえられる。丸Bp1〜Bp4で
囲んだ黒の突出部のように白地で囲まれた黒領域を、白
領域とすることは、そこを絵柄部と判定する可能性を低
くする。後述する総合判定部326では、非白領域は絵
柄と判定するが、丸Bp1〜Bp4で囲んだ黒の突出部
のように白地で囲まれた黒領域を絵柄と誤判定する可能
性が減る。さらに、白収縮の結果、グレー膨張の結果に
よって黒地と白地境界を白領域(文字領域)と判定する
ので、濃い文字エッジは、文字の太さにかかわらず白地
判定するので、文字エッジを正しく文字エッジと判定す
ることが可能となる。濃度の薄い部分は文字エッジ判定
しなくなる。
In FIG. 13, the black protrusions surrounded by circles Bp1 to Bp4 indicate the 15
When one or more white candidate blocks are present in each of the 6 × 4 pixel regions at the four corners of the × 11 pixel, the target block is replaced with a white block by white block correction for providing white block correction data to the target block. Making a black area surrounded by a white background, such as a black protrusion surrounded by circles Bp1 to Bp4, a white area lowers the possibility of determining that area as a picture part. The non-white area is determined to be a pattern by the comprehensive determination unit 326 described later, but the possibility of erroneously determining a black area surrounded by a white background as a pattern, such as a black protrusion surrounded by circles Bp1 to Bp4, is reduced. Further, the boundary between the black and white backgrounds is determined as a white area (character area) based on the result of the white contraction and the gray expansion. It is possible to determine an edge. In a portion with low density, character edge determination is not performed.

【0092】<文字/写真判定レベルの調整>前述のよ
うに白領域抽出部323では、白判定部323cでRG
B白抽出部323bの白地判定信号、色地判定信号dお
よび谷白画素判定信号、ならびに、2値化部323aの
2値化白判定信号に対応する白の程度をあらわす状態変
数である白地情報MSを生成する。そして白パターンマ
ッチング部323dで、前記色地判定信号d、白地情報
MS、2値化白判定信号および谷白画素判定信号に基づ
いて注目画素が白画素か否を仮に定めて、注目画素を含
む画素マトリスクに対する白画素分布パターンマッチン
グによって白画素か否を確定する。この結果と、黒判定
部323eおよび黒パターンマッチング部323fの結
果を用いて、白補正部323gが注目画素が黒地と白地
境界との境界(白領域:文字領域)であるかどうかを判
定する。なお、白領域抽出部323は、グレー画素の判
定の場合図21の回路構成であるが、白黒判定について
は、図4の回路構成で処理される。
<Adjustment of Character / Photo Judgment Level> As described above, the white area extraction unit 323 uses the RG in the white judgment unit 323c.
White background information, which is a state variable indicating the degree of white corresponding to the white background determination signal, the color ground determination signal d and the valley white pixel determination signal of the B white extraction unit 323b, and the binary white determination signal of the binarization unit 323a. Generate MS. Then, the white pattern matching unit 323d temporarily determines whether or not the target pixel is a white pixel based on the color ground determination signal d, the white background information MS, the binary white determination signal, and the valley white pixel determination signal, and includes the target pixel. Whether or not a pixel is a white pixel is determined by white pixel distribution pattern matching for the pixel matrix. Using this result and the results of the black determination unit 323e and the black pattern matching unit 323f, the white correction unit 323g determines whether the target pixel is a boundary between a black background and a white background boundary (white region: character region). Note that the white region extraction unit 323 has the circuit configuration of FIG. 21 in the case of determining a gray pixel, but the white / black determination is processed by the circuit configuration of FIG.

【0093】RGB白抽出部323bの白地判定信号
(図5のステップS3で参照)は、注目画素のR、G、
B画像データのすべてが閾値thwss=40より小さ
いと「1」(白地)である。この閾値thwssを大き
くすると、大きい値の白地情報MSを定める確率が高く
なり、前記「白領域」(黒地と白地境界との境界:文字
領域)を摘出する確率が高くなる(すなわち絵柄領域を
摘出する確率が低下する)。閾値thwssを小さくす
るとこの逆となる。
The white background determination signal (see step S3 in FIG. 5) of the RGB white extraction unit 323b is used for the R, G,
If all the B image data is smaller than the threshold thwss = 40, it is “1” (white background). When the threshold value thwss is increased, the probability of determining a large value of the white background information MS increases, and the probability of extracting the “white region” (the boundary between the black background and the white background: a character region) increases (ie, the pattern region is extracted). The probability of doing so). The opposite is true if the threshold thwss is reduced.

【0094】2値化部323aの2値化白判定信号(図
5のステップS7で参照)は、フィルタ部321のG画
像データのエッジ強調出力が閾値thwsb=50より
小さければ、「1」(2値化白)である。この閾値th
wsbを大きくすると、大きい値の白地情報MSを定め
る確率が高くなり、前記「白領域」を摘出する確率が高
くなる(すなわち絵柄領域を摘出する確率が低下す
る)。閾値thwsbを小さくするとこの逆となる。
The binarized white determination signal (see step S7 in FIG. 5) of the binarizing section 323a is "1" (if the edge enhancement output of the G image data of the filter section 321 is smaller than the threshold thwsb = 50). Binarized white). This threshold th
When wsb is increased, the probability of determining a large value of the white background information MS increases, and the probability of extracting the “white region” increases (ie, the probability of extracting the picture region decreases). The opposite is true if the threshold thwsb is reduced.

【0095】「白領域」の画像データには後工程で、文
字画像を鮮明に表すための画像処理が施されるので、閾
値thwssおよびthwsbを大きくすると、文字に
優先度が高い画像処理が施される。非白領域すなわち絵
柄(写真)領域の画像データには後工程で、写真や絵柄
を忠実に表すための画像処理が施されるので、閾値th
wssおよびthwsbを小さくすると、絵柄(写真)
に優先度が高い画像処理が施される。
The image data of the “white area” is subjected to image processing for clearly representing the character image in a later process. Therefore, if the threshold values thwss and thwsb are increased, the image processing with high priority is applied to the character. Is done. The image data of the non-white area, that is, the picture (photograph) area is subjected to image processing for faithfully representing a picture or a picture in a subsequent process, and thus the threshold value th
When wss and thwsb are reduced, the pattern (photo)
Is subjected to image processing having a high priority.

【0096】ところで、RGB白抽出部323bの色地
判定信号d(図5のステップS6で参照)が「1」(色
地)であると白地情報MSを低くし、前記「白領域」を
摘出する確率が低くなる(すなわち絵柄領域を摘出する
確率が高くなる)。前記2)色地検出で色地判定信号d
を生成する処理B.、C.で用いる閾値thwc(例え
ば20)を小さくすると、周辺画素(図11の△と□)
を同時に色画素と検出する確率すなわち(bとcのエク
スクルーシブノア)=「1」となる確率が高くなって色
地判定信号d=「1」(色地)を得る確率が高くなり、
前記「白領域」を摘出する確率が低くなる(すなわち絵
柄領域を摘出する確率が高くなる)。
When the color / ground determination signal d (see step S6 in FIG. 5) of the RGB white extraction unit 323b is "1" (color background), the white background information MS is lowered, and the "white area" is extracted. (That is, the probability of extracting a picture region increases). 2) Color ground determination signal d in color ground detection
B. generating process , C.I. When the threshold thwc (for example, 20) used in is reduced, peripheral pixels ((and □ in FIG. 11)
At the same time, ie, the probability that (exclusive NOR of b and c) = “1” increases, and the probability of obtaining the color ground determination signal d = “1” (color ground) increases,
The probability of extracting the “white area” is low (that is, the probability of extracting the picture area is high).

【0097】そこで本実施形態では、図2の操作/表示
部OPBにて、キー入力による入力モードのメニュー表
示ならびに液晶ディスプレに表示されたメニュー画面上
のキー画像(パラメータ指定キーおよびアップ、ダウン
キー)の操作によって調整するパラメータ調整の中の
「文字/写真レベル」の調整によって、閾値thws
s、thwsbおよびthwcを次のように調整するよ
うにしている: パラメータ 文字側調整値 標準 写真側調整値 6 5 4 3 2 1 0 thwss 46 44 42 40 38 36 34 thwsb 56 54 52 50 48 46 44 thwc 26 24 22 20 18 16 14 すなわち、オペレータが操作/表示部OPBで調整設定
するパラメータ「文字/写真レベル」の標準値(デフォ
ルト)は「3」であり、このデフォルト値が、前記の文
字/写真レベルと閾値thwss、thwsbおよびt
hwcとの関係を表す変換テーブルと共に、図3に示す
ROM358に書き込まれており、図3に示すIPU3
00に電源が投入され、CPU357がIPU300の
初期化をするときに、CPU357がROM358から
文字/写真レベルのデフォルト値を読み出して、それに
対応する閾値thwss、thwsbおよびthwcを
変換テーブルから読み出してRAM356の、各閾値宛
てレジスタに書きこんで、白領域抽出部323での前述
の処理に用いる。その後、操作ボードOPBからの入力
で文字/写真レベルの調整があり、調整後の値Aがメイ
ンコントローラ10からCPU357に与えられると、
CPU357は、調整後の値Aに対応するパラメータt
hwss、thwsbおよびthwcの各値を、ROM
358の変換テーブルから読み出してRAM356のパ
ラメータ宛てレジスタに書きこむ。
Therefore, in this embodiment, a menu display of an input mode by key input and a key image (a parameter designation key and an up / down key) on a menu screen displayed on the liquid crystal display are displayed on the operation / display unit OPB of FIG. The threshold value thws is adjusted by adjusting the “character / photo level” in the parameter adjustment performed by the operation
The s, thwsb, and thwc are adjusted as follows: Parameter Character-side adjustment value Standard Photo-side adjustment value thwc 26 24 22 20 18 16 14 That is, the standard value (default) of the parameter “character / photo level” adjusted and set by the operator on the operation / display unit OPB is “3”, and the default value is the character / photo level. Photo levels and thresholds thwss, thwsb and t
hwc and a conversion table indicating the relationship between the IPU3 and the IPU3 shown in FIG.
When the power is turned on at 00 and the CPU 357 initializes the IPU 300, the CPU 357 reads the default value of the character / photo level from the ROM 358, reads the corresponding threshold values thwss, thwsb, and thwc from the conversion table and reads Is written in the register addressed to each threshold value, and is used in the above-described processing in the white area extraction unit 323. After that, the character / photo level is adjusted by input from the operation board OPB, and the adjusted value A is given from the main controller 10 to the CPU 357.
The CPU 357 determines the parameter t corresponding to the adjusted value A.
The values of hwss, thwsb and thwc are stored in ROM
The data is read out from the conversion table 358 and written in the parameter address register of the RAM 356.

【0098】閾値を標準値thwss=40、thws
b=50、thwc=20に設定しているときに、操作
ボードOPBを使ってオペレータが「文字/写真レベ
ル」の値をi(例えば1)だけ大きく「Up」すると、
閾値thwss、thwsbおよびthwcが2i
(2)分、文字優先方向に変更した値に定められる。逆
に、オペレータが「文字/写真レベル」の値をi(例え
ば1)だけ小さく「Down」すると、閾値thws
s、thwsbおよびthwcが2i(2)分、写真優
先方向に変更した値に定められる。
The threshold value is set to a standard value thwss = 40, thws
When b = 50 and thwc = 20, when the operator increases the value of “text / photo level” by i (for example, 1) by using the operation board OPB, “Up”
When the thresholds thwss, thwsb and thwc are 2i
(2) The value is set to the value changed in the character priority direction. Conversely, when the operator decreases the value of “text / photo level” by “i” (for example, 1), the threshold value thws
s, thwsb, and thwc are determined to be 2i (2) values changed in the photograph priority direction.

【0099】<網点抽出> ≪網点抽出部324≫網点抽出部324は、図23に示
すように第1網点ピーク検出部324a、第2網点ピー
ク検出部324b、第3網点ピーク検出部324c、第
1網点領域検出部324d、第3網点領域検出部324
eおよび一時記憶手段(一時メモリ)324fからな
る。第1網点ピーク検出部324aおよび第3網点ピー
ク検出部324cには、G画像データが入力され、第2
網点ピーク検出部324bにはB画像データが入力され
る。第1網点領域検出部324dには、第1網点ピーク
検出部324aおよび第2網点ピーク検出部324bの
検出結果が入力され、第2網点領域検出部324eに
は、第3網点ピーク検出部324cの検出結果が入力さ
れる。また、一時メモリ324fは、第1および第2網
点領域検出部324d、324fの検出結果が一時保存
される。なお、図4における網点抽出部324は図23
におけるNに対応する。
<Dot extraction> {Dot extraction unit 324} As shown in FIG. 23, the halftone extraction unit 324 includes a first halftone peak detection unit 324a, a second halftone peak detection unit 324b, and a third halftone dot. Peak detecting section 324c, first halftone area detecting section 324d, third halftone area detecting section 324
e and temporary storage means (temporary memory) 324f. The G image data is input to the first halftone peak detector 324a and the third halftone peak detector 324c,
The B image data is input to the dot peak detector 324b. The first halftone dot region detection unit 324d receives the detection results of the first halftone dot peak detection unit 324a and the second halftone dot peak detection unit 324b, and the second halftone dot region detection unit 324e inputs the third halftone dot detection unit 324e. The detection result of the peak detection unit 324c is input. The temporary memory 324f temporarily stores the detection results of the first and second halftone dot area detection units 324d and 324f. Note that the dot extraction unit 324 in FIG.
Corresponding to N.

【0100】第1網点ピーク検出部324aは、G画像
データを用いて所定の大きさの二次元局所領域内の画素
濃度情報から、網点ドットの一部を形成する画素(網点
ピーク画素と呼ぶ)を検出する回路である。局所領域に
関して次の二つの条件が同時に成立するときに、領域の
中心画素を網点ピーク画素として検出する。 条件1:中心画素の濃度レベルが局所領域内で最大(山
ピーク)または最小(谷ピーク)である。 条件2:中心画素に対し点対称関係にある全ての画素の
ペアについて、画素ペアの濃度レベルの平均と中心画素
の濃度レベルとの差の絶対値が、閾値Th以上である。
The first halftone dot detecting section 324a uses the G image data to obtain a pixel forming a part of a halftone dot (halftone peak pixel) from pixel density information in a two-dimensional local area of a predetermined size. ). When the following two conditions are simultaneously satisfied for the local region, the central pixel of the region is detected as a halftone dot peak pixel. Condition 1: The density level of the central pixel is the maximum (peak) or the minimum (valley peak) in the local area. Condition 2: The absolute value of the difference between the average of the density level of the pixel pair and the density level of the central pixel is equal to or larger than the threshold Th for all pixel pairs having a point-symmetric relationship with the central pixel.

【0101】図14を参照して、第1網点ピーク検出部
324aの検出処理を具体的に説明する。局所領域とし
て5×5画素マトリクス(一般化して示すとM×M画素
マトリクス)のマスクを採用した例である。5×5画素
マトリクスの各画素の符号を、図11のパターンMPp
に示すものとすると、注目画素となる中心画素c3の濃
度Lcが、その周囲画素の濃度L1〜L8と比較して最
大または最小であるとともに、 abs(2Lc−L1−L8)≧Lth かつ abs(2Lc−L2−L7)≧Lth かつ abs(2Lc−L3−L6)≧Lth かつ abs(2Lc−L4−L5)≧Lth のときに、マスクの中心画素(Lc)を網点ピーク画素
として検出する。abs関数は絶対値をとることを意味
する。Lthは閾値(固定値)である。
Referring to FIG. 14, the detection process of first halftone dot detecting section 324a will be specifically described. This is an example in which a mask of a 5 × 5 pixel matrix (M × M pixel matrix in general) is used as a local region. The code of each pixel of the 5 × 5 pixel matrix is represented by the pattern MPp in FIG.
, The density Lc of the center pixel c3, which is the target pixel, is maximum or minimum compared to the density L1 to L8 of the surrounding pixels, and abs (2Lc−L1−L8) ≧ Lth and abs ( When 2Lc−L2−L7) ≧ Lth and abs (2Lc−L3−L6) ≧ Lth and abs (2Lc−L4−L5) ≧ Lth, the center pixel (Lc) of the mask is detected as the halftone dot peak pixel. The abs function means taking an absolute value. Lth is a threshold value (fixed value).

【0102】具体的には、周囲画素は、図14に示す周
囲画素分布パターンMPaまたはMPbの4角形を付記
した画素とする。周囲画素分布パターンMPaとMPb
に基づいた前述の網点ピーク画素検出のどちらかが、網
点ピーク画素と検出した時に、そのときの注目画素(中
心画素c3)に網点ピーク画素を表す検出信号を与え
る。2つのパターンを用いるのは、網点の線数に幅広く
対応するためである。
Specifically, the surrounding pixels are pixels to which a square of the surrounding pixel distribution pattern MPa or MPb shown in FIG. 14 is added. Surrounding pixel distribution patterns MPa and MPb
When either of the above-described halftone peak pixel detection based on the above is detected as a halftone peak pixel, a detection signal indicating the halftone peak pixel is given to the target pixel (center pixel c3) at that time. The two patterns are used in order to widely correspond to the number of halftone dots.

【0103】パターンMPaは、 L1=b2、 L2
=b3、 L3=b4、L4=c2、 L5=c4、
L6=d2、L7=d3、 L8=d4、と定めたもの
である。ここで、L1=b2とは、画素b2の濃度を、
前述の網点ピーク画素検出演算のL1の値とすることを
意味する。
The pattern MPa is as follows: L1 = b2, L2
= B3, L3 = b4, L4 = c2, L5 = c4,
L6 = d2, L7 = d3, and L8 = d4. Here, L1 = b2 means that the density of the pixel b2 is
This means that the value is L1 in the halftone peak pixel detection calculation described above.

【0104】パターンMPbは、 L1=b2、 L2
=a3、 L3=b4、L4=c1、 L5=c5、
L6=d2、L7=e3、 L8=d4、と定めたもの
である。
The pattern MPb is as follows: L1 = b2, L2
= A3, L3 = b4, L4 = c1, L5 = c5,
L6 = d2, L7 = e3, and L8 = d4.

【0105】また、複写の場合、副走査方向yの拡大、
縮小はスキャナ200の原稿走査速度の低、高で行うの
で、スキャナ200からは、副走査方向yの拡大、縮小
があった画像データが与えられる。そこで、縮小のとき
には、前述のパターンMPa、MPbに代えて、図14
上に示すパタン―ンMPc、MPdを用いる。拡大のと
きには、図14上に示すパタ―ンMPe、MPfを用い
る。なお、パタ―ンMPe、MPfにおいて、三角印を
与えた画素も、前述の「周囲画素」に加えても良い。
For copying, enlargement in the sub-scanning direction y,
Since the reduction is performed at low and high document scanning speeds of the scanner 200, the scanner 200 provides image data that has been enlarged or reduced in the sub-scanning direction y. Therefore, at the time of reduction, the patterns MPa and MPb described above are used instead of FIG.
The patterns MPc and MPd shown above are used. At the time of enlargement, patterns MPe and MPf shown in FIG. 14 are used. Note that, in the patterns MPe and MPf, pixels with a triangle mark may be added to the above-mentioned “surrounding pixels”.

【0106】第2網点ピーク検出部324bは、Bデー
タを用いて網点ピーク検出するものであって、機能は、
第1網点ピーク検出部324aと同じである。第1網点
ピーク検出部324aは、G画像データを用いるのでほ
とんどの色に対して反応するが、Yに対しては反応しな
いので、第2網点ピーク検出部324cでは、B画像デ
ータを使用してYの網点ピークを検出することを目的と
している補助的なものである。
The second halftone peak detecting section 324b detects halftone peaks using the B data.
This is the same as the first halftone dot detection unit 324a. The first halftone peak detector 324a uses the G image data and therefore responds to most colors, but does not respond to Y. Therefore, the second halftone peak detector 324c uses the B image data. It is an auxiliary object for detecting the halftone dot peak of Y.

【0107】網点領域検出324cは、第1網点ピーク
画素検出324a、第2網点ピーク画素検出324bの
どちらかにより検出された山と谷の網点ピーク画素を所
定の大きさの二次元の小領域毎に計数し、山と谷の網点
ピーク画素の合計を小領域の計数値Pとする。この計数
値Pが閾値Pthより大きいときに、小領域の全画素
(あるいは画素単位の処理の場合、小領域の中心画素の
み)を網点領域と判定する。判定の結果は一時メモリ3
24fに記憶される。
The halftone dot region detection 324c is a two-dimensional image of a predetermined size having the peak and valley halftone dot pixels detected by either the first halftone peak pixel detection 324a or the second halftone peak pixel detection 324b. , And the sum of the peak pixels of the peaks and valleys is defined as the count value P of the small area. When the count value P is larger than the threshold value Pth, all the pixels of the small area (or only the central pixel of the small area in the case of processing in units of pixels) are determined to be a halftone dot area. The result of the judgment is temporary memory 3.
24f.

【0108】図24(a)を参照して、第3網点ピーク
検出部324cの検出処理を具体的に説明する。この第
3網点ピーク検出部324cの検出処理は、100線以
下、65線(新聞の網点)以上の検出を目的とし、局所
領域として7×7画素マトリクス(一般化して示すとM
×M画素マトリクス)のマスクを採用した例である。図
24(c)のパターンに示すものとすると、注目画素と
なる中心画素群の濃度Lcが、その周囲画素の濃度群L
1〜L8と比較して最大または最小であるとともに、 abs(2Lc−L1−L8)≧Lth かつ abs(2Lc−L2−L7)≧Lth かつ abs(2Lc−L3−L6)≧Lth かつ abs(2Lc−L4−L5)≧Lth のときに、マスクの中心画素(Lc)を網点ピーク画素
として検出する。abs関数は絶対値をとることを意味
する。Lthは閾値(固定値)である。
With reference to FIG. 24A, the detection process of the third halftone dot detecting section 324c will be specifically described. The detection processing of the third halftone dot peak detection unit 324c is intended to detect 100 lines or less and 65 lines (newspaper halftone dots) or more, and a 7 × 7 pixel matrix (M
This is an example employing a (× M pixel matrix) mask. If the pattern shown in FIG. 24C is used, the density Lc of the central pixel group that is the target pixel is the density group L of the surrounding pixels.
Abs (2Lc-L1-L8) ≥Lth and abs (2Lc-L2-L7) ≥Lth and abs (2Lc-L3-L6) ≥Lth and abs (2Lc −L4−L5) ≧ Lth, the center pixel (Lc) of the mask is detected as a halftone peak pixel. The abs function means taking an absolute value. Lth is a threshold value (fixed value).

【0109】具体的には、周囲画素は、図24(a)に
示す周囲画素分布パターンした画素とする。周囲画素分
布パターンに基づいた前述の第1および第2網点ピーク
検出部324a,324bのどちらかが網点ピーク画素
と検出した時に、そのときの注目画素(中心画素d4)
に網点ピーク画素を表す検出信号を与える。2つのパタ
ーンを用いるのは、網点の網点面積率に幅広く対応する
ためである。
More specifically, the surrounding pixels are pixels having a surrounding pixel distribution pattern shown in FIG. When either of the first and second halftone peak detectors 324a and 324b detects a halftone peak pixel based on the surrounding pixel distribution pattern, the pixel of interest at that time (center pixel d4)
Is supplied with a detection signal representing a halftone dot peak pixel. The two patterns are used in order to widely correspond to the halftone dot area ratio.

【0110】Lcの濃度は周辺画素を参照して以下のよ
うに求める。 Lc=Min(d4,d3,d5,c4,e4) このLcが周辺画素に対して最大値の時は、パターン
は、 L1=Max(a1,a2,b1) L2=Max(a3,a4,a5) L3=Max(a6,a7,c7) L4=Max(c1,d1,e1) L5=Max(c7,d7,e7) L6=Max(f1,g1,g2) L7=Max(g3,g4,g5) L8=Max(g6,g7,f7) と定めたものである。ここで、L1=Max(a1,a
2,b1)とは、画素a1,a2,b1の濃度の最大値
を、前述の網点ピーク画素検出演算のL1の値とするこ
とを意味する。 Lc=Min(d4,d3,d5,c4,e4)とは、
Lcがd4、d3、d5、c4、e4の中の最小のもの
であることを意味する。
The density of Lc is determined as follows with reference to peripheral pixels. Lc = Min (d4, d3, d5, c4, e4) When Lc is the maximum value for the peripheral pixels, the pattern is as follows: L1 = Max (a1, a2, b1) L2 = Max (a3, a4, a5) L3 = Max (a6, a7, c7) L4 = Max (c1, d1, e1) L5 = Max (c7, d7, e7) L6 = Max (f1, g1, g2) L7 = Max (g3, g4, g5) ) L8 = Max (g6, g7, f7). Here, L1 = Max (a1, a
2, b1) means that the maximum value of the density of the pixels a1, a2, b1 is used as the value of L1 in the above-described halftone peak pixel detection calculation. What is Lc = Min (d4, d3, d5, c4, e4)?
Lc is the smallest of d4, d3, d5, c4, and e4.

【0111】また、Lc=Max(d4,d3,d5,
c4,e4) このLcが周辺画素に対して最小値の時は、パターン
は、 L1=Min(a1,a2,b1) L2=Min(a3,a4,a5) L3=Max(a6,a7,c7) L4=Max(c1,d1,e1) L5=Max(c7,d7,e7) L6=Max(f1,g1,g2) L7=Max(g3,g4,g5) L8=Max(g6,g7,f7) と定めたものである。
Further, Lc = Max (d4, d3, d5,
c4, e4) When this Lc is the minimum value for the peripheral pixels, the pattern is: L1 = Min (a1, a2, b1) L2 = Min (a3, a4, a5) L3 = Max (a6, a7, c7) L4 = Max (c1, d1, e1) L5 = Max (c7, d7, e7) L6 = Max (f1, g1, g2) L7 = Max (g3, g4, g5) L8 = Max (g6, g7, f7) ).

【0112】また、複写の場合、副走査方向yの拡大、
縮小はスキャナ200の原稿走査速度の低、高で行うの
で、スキャナ200からは、副走査方向yの拡大、縮小
があった画像データが与えられる。そこで、縮小のとき
には、図14(b)に示すパタン―ンを用いる。拡大の
ときには、図14(a)に示すパタ―ンを用いる。
In the case of copying, enlargement in the sub-scanning direction y,
Since the reduction is performed at low and high document scanning speeds of the scanner 200, the scanner 200 provides image data that has been enlarged or reduced in the sub-scanning direction y. Therefore, at the time of reduction, the pattern shown in FIG. 14B is used. At the time of enlargement, the pattern shown in FIG.

【0113】第3網点ピーク検出部324cの演算式
は、1画素のデータで演算するのではなく、複数の画素
(min、maxの演算)で、対象となる画素を参照す
る。これは、低線数の網点は濃淡の周期が大きくなるの
で、1画素で決定するのでは周辺画素を参照することに
より、ノイズ(ごみ)の影響を少なくし、かつ、算術演
算量を減らし、他のブロックを共通に演算式を使えるよ
うにしているので、ハード化が容易である。
The arithmetic expression of the third halftone dot detecting section 324c does not operate on one pixel data, but refers to a target pixel by a plurality of pixels (calculation of min and max). This is because halftone dots having a low screen ruling have a large shading cycle. Therefore, if one pixel is determined, the influence of noise (garbage) is reduced by referring to neighboring pixels, and the amount of arithmetic operation is reduced. Since the arithmetic expressions can be used in common for the other blocks, it is easy to implement hardware.

【0114】第1網点領域検出部324dは、第1網点
ピーク検出部324aによって検出された山と谷の網点
ピーク画素を、所定の大きさの二次元の小領域毎に計数
し、山と谷の網点ピーク画素の合計を小領域の計数値P
とする。この計数値Pが閾値Pthより大きいときに、
小領域の全画素(あるいは画素単位の処理の場合、小領
域の中心画素のみ)を網点領域と判定する。判定の結果
は一時メモリ324fに記憶される。
The first halftone dot area detecting section 324d counts the peak pixels of the peaks and valleys detected by the first halftone dot detecting section 324a for each two-dimensional small area of a predetermined size. The sum of the peak pixels of the peaks and valleys is calculated as the count value P of the small area.
And When the count value P is larger than the threshold value Pth,
All pixels in the small area (or, in the case of pixel-based processing, only the center pixel of the small area) are determined as halftone areas. The result of the determination is stored in the temporary memory 324f.

【0115】第1網点領域検出部324dまたは第2網
点領域検出部324eのどちらかが網点領域ならば、注
目している小領域の近傍の処理済み領域の網点/非網点
判定結果(周辺の特徴情報)に応じ適応的に閾値Pth
を変化させる。本実施形態においては、閾値Pthとし
て、2つの値TH1,TH2(ただしTH1>TH2)
が用意され、一時メモリ324fに記憶されている注目
小領域近傍の処理済み領域の判定結果によって、その一
方の値を選択する。すなわち、近傍の領域が非網点領域
と判定されていた場合には、線画領域である可能性が高
いので、誤検出を減らすために条件が厳しくなるTH1
のほうを閾値Pthとして選択する。これに対し、近傍
領域が網点領域であると判定されていた場合には、網点
領域である可能性が高いので、条件が緩くなるTH2の
ほうを閾値Pthとして用いる。なお、閾値Pthの初
期値としてはTH1を選択する。
If either the first halftone dot area detection section 324d or the second halftone dot area detection section 324e is a halftone area, the halftone / non-halftone area determination of the processed area near the small area of interest is performed. Threshold value Pth adaptively according to the result (peripheral feature information)
To change. In the present embodiment, two values TH1 and TH2 (where TH1> TH2) are set as the threshold value Pth.
Is prepared, and one of the values is selected according to the determination result of the processed area near the small area of interest stored in the temporary memory 324f. In other words, if the neighboring area is determined to be a non-dot area, there is a high possibility that the area is a line drawing area.
Is selected as the threshold value Pth. On the other hand, when it is determined that the neighboring area is a halftone area, it is highly possible that the neighborhood area is a halftone area, and therefore, TH2 under which the condition is relaxed is used as the threshold Pth. Note that TH1 is selected as the initial value of the threshold value Pth.

【0116】図14上のAMPに、前述の小領域の分布
を示す。小領域分布パターンAMPのS1〜S4のそれ
ぞれは、例えば4×4画素の大きさの小領域(ブロッ
ク)であり、S4が注目している小領域、S1,S2お
よびS3は処理済みの小領域であるとする。S1,S2
およびS3のすべてが網点領域であると判定されている
時には、Th2がS4の判定のための閾値Pthとして
用いられる。S1,S2およびS3の1つでも非網点領
域と判定されているときは、閾値PthとしてTH1が
選択される。網点領域と判定したときに“1”で、非網
点と判定した時に“0”の網点領域検出信号htが網点
抽出部324から出力される。ただし、これは一例であ
って、S1,S2およびS3のいずれか1つの小領域で
も網点領域と判定されたときにTH2を選択し、すべて
が非網点領域と判定されたときにのみTH1を選択する
ようにしてもよい。さらに、参照する近傍領域をS1の
み、あるいはS2のみとすることもできる。
The distribution of the aforementioned small area is shown in AMP on FIG. Each of S1 to S4 of the small area distribution pattern AMP is a small area (block) having a size of, for example, 4 × 4 pixels, and S4 is a small area of interest, and S1, S2, and S3 are processed small areas. And S1, S2
When all of S3 and S3 are determined to be halftone areas, Th2 is used as the threshold value Pth for the determination of S4. When at least one of S1, S2 and S3 is determined to be a non-dot area, TH1 is selected as the threshold Pth. A halftone area detection signal ht of “1” is determined when the area is determined to be a halftone area, and “0” is determined when the area is determined to be a non-halftone area. However, this is only an example, and TH2 is selected when any one of S1, S2 and S3 is determined to be a halftone dot region, and TH1 is selected only when all of the small regions are determined to be non-halftone regions. May be selected. Further, the neighboring area to be referred to may be only S1 or only S2.

【0117】≪色判定部325≫原稿中の色(有彩)画
素や黒(無彩)画素を検出する際には、R,G,Bの相
対的な読み取りずれが、各色画像データのサンプリング
や機械的精度のために存在する。図15を用いて説明す
る。図15の(a)は、画像濃度信号で、黒濃度信号は
理想的には、R,B,G濃度信号ともレベルの高低が一
致したとき理想の黒である。ところが、実際の画像デー
タは、レンズ206でCCD207上に画像を結像し、
CCD207の画像信号をデジタル化したもので、図1
5の(b)が理想の高低波形となる。しかし、一般的な
スキャナでは、3ラインCCDセンサを用いているた
め、画像データのR,G,Bの各画像を時間的に同時に
読み取るのではなく、R,G,Bの各ラインセンサは等
間隔で配置され、時間的に同時に読むことができないの
で、どうしても読み取り位置ずれが生じてしまう。例え
ば、図15の(b)に示すレベル変化の黒を表すR,
G,B各色濃度信号は、図15の(c)に示すように相
対的にずれる。このずれが大きいと、黒領域の周縁に色
ずれが現われる。
{Color determination section 325} When detecting a color (chromatic) pixel or a black (achromatic) pixel in a document, the relative reading deviation of R, G, and B is caused by sampling of each color image data. And exists for mechanical accuracy. This will be described with reference to FIG. FIG. 15A shows an image density signal. The black density signal is ideally black when the levels of the R, B, and G density signals match. However, the actual image data forms an image on the CCD 207 by the lens 206,
The image signal of the CCD 207 is digitized.
5 (b) is an ideal high / low waveform. However, since a general scanner uses a three-line CCD sensor, R, G, and B images of image data are not read simultaneously at the same time. Since they are arranged at intervals and cannot be read simultaneously in terms of time, a reading position shift will inevitably occur. For example, R and R representing the level change black shown in FIG.
The G and B color density signals are relatively shifted as shown in FIG. If this shift is large, a color shift appears at the periphery of the black area.

【0118】≪色相分割部325a≫色判定部325
は、有彩色領域を見つけるものである。入力データR,
G,Bは、色相分割部25aにて、c,m,yおよび色
判定用w(白)の信号に変換される。色相分割の例とし
ては、それぞれの色の境界を求め、1画素内のR,G,
Bそれぞれの画像データの最大値と最小値の差をRGB
差と定義して、以下のようにした。ここでは、R,G,
B画像データは、数字が大きくなると黒くなる(濃くな
る)。
{Hue division unit 325a} Color judgment unit 325
Finds a chromatic area. Input data R,
G and B are converted into c, m, y and w (white) signals for color determination by the hue division unit 25a. As an example of hue division, the boundary of each color is obtained, and R, G,
B is the difference between the maximum value and the minimum value of each image data in RGB.
The difference was defined as follows. Here, R, G,
The B image data becomes black (darkens) as the number increases.

【0119】 1)R−Y色相領域境界(ry) R−2*G+B>0 2)Y−G色相領域境界(yg) 11*R−8*G−3*B> 0 3)G−C色相領域境界(gc) 1*R−5*G+4*B<0 4)C−B色相領域境界(cb) 8*R−14*G+6*B<0 5)B−M色相領域境界(bm) 9*R−2*G−7*B<0 6)M−R色相領域境界(mr) R+5*G−6*B<0 7)色判定用w(白)画素判定:(R<thwa)&
(G<thwa)&(B<thwa)ならば、y=m=
c=0とする。thwaは閾値である。
1) RY hue area boundary (ry) R-2 * G + B> 0 2) YG hue area boundary (yg) 11 * R-8 * G-3 * B> 0 3) GC Hue area boundary (gc) 1 * R-5 * G + 4 * B <04) CB hue area boundary (cb) 8 * R-14 * G + 6 * B <05) BM hue area boundary (bm) 9 * R-2 * G-7 * B <06 6) MR hue area boundary (mr) R + 5 * G-6 * B <07 7) w (white) pixel determination for color determination: (R <thwa) &
If (G <thwa) & (B <thwa), y = m =
Let c = 0. thwa is a threshold value.

【0120】8)Y画素判定:(ry==1)&(yg
==0)&(RGB差>thy)ならば、y=1、m=
c=0とする。thyは閾値である。
8) Y pixel determination: (ry == 1) & (yg
== 0) & (RGB difference> thy), y = 1, m =
Let c = 0. thy is a threshold value.

【0121】9)G画素判定:(yg==1)&(gc
==0)&(RGB差>thg)ならば、c=y=1、
m=0とする。thgは閾値である。
9) G pixel determination: (yg == 1) & (gc
== 0) & (RGB difference> thg), c = y = 1,
Let m = 0. thg is a threshold value.

【0122】10)C画素判定:(gc==1)&(c
b==0)&(RGB差>thc)ならば、c=1、m
=y=0とする。thcは閾値である。
10) C pixel determination: (gc == 1) & (c
b == 0) & (RGB difference> thc), c = 1, m
= Y = 0. thc is a threshold value.

【0123】11)B画素判定:(cb==1)&(b
m==0)&(RGB差>thb)ならば、m=c=
1、y=0とする。thbは閾値である。
11) B pixel determination: (cb == 1) & (b
m == 0) & (RGB difference> thb), then m = c =
1, y = 0. thb is a threshold value.

【0124】12)M画素判定:(bm==1)&(m
r==0)&(RGB差>thm)ならば、m=1、y
=c=0とする。thmは閾値である。
12) M pixel determination: (bm == 1) & (m
r == 0) & (RGB difference> thm), m = 1, y
= C = 0. thm is a threshold value.

【0125】13)R画素判定:(mr==1)&(r
y==0)&(RGB差>thr)ならば、y=m=
1、c=0とする。thrは閾値である。
13) R pixel determination: (mr == 1) & (r
If y == 0) & (RGB difference> thr), y = m =
1, and c = 0. thr is a threshold value.

【0126】14)BK画素判定:7)〜13)に該当
しない時、y=m=c=1とする。
14) BK pixel determination: If none of the conditions 7) to 13), y = m = c = 1.

【0127】さらに、色判定用w画素の判定を行う。条
件は、 (R<thw)&(G<thw)&(B<thw) ならば、色画素用w画素とし、wとして出力する。th
wは閾値である。ここで、7)〜14)の優先順位は、
数の小さい方を優先する。前述の閾値thwa、th
y、thm、thc、thr、thg、thbは、複写
(処理)前に決まる閾値である。thwとthwaの関
係は、thw>thaとなっている。出力信号は、c,
m,yに各1ビットの3ビットデータと、さらに、色判
定用色画素検出のwの1ビットである。ここで色相毎に
閾値をかえているのは、色相領域毎に、有彩範囲が異な
る時に色相領域に応じた閾値を決定する。この色相分割
は、一例であって、どんな式を使用してもよい。
Further, the determination of the w pixel for color determination is performed. If the condition is (R <thw) & (G <thw) & (B <thw), the color pixel is set as w pixel and output as w. th
w is a threshold value. Here, the priorities of 7) to 14) are as follows:
Give priority to the smaller number. The aforementioned threshold values thwa and th
y, thm, thc, thr, thg, and thb are threshold values determined before copying (processing). The relationship between thw and thwa is thw> tha. The output signal is c,
m and y are 3-bit data of 1 bit each, and 1 bit of w of color pixel detection for color determination. Here, the reason why the threshold value is changed for each hue is that a threshold value corresponding to the hue region is determined for each hue region when the chromatic range is different. This hue division is an example, and any formula may be used.

【0128】色相分割部325aの出力c,m,y,w
は、ラインメモリ325b〜325eに5ライン蓄え、
色画素判定部325fに入力する。
Outputs c, m, y, w of hue division section 325a
Stores 5 lines in the line memories 325b to 325e,
It is input to the color pixel determination unit 325f.

【0129】≪色画素判定部325f≫図6に、色画素
判定部325fの内容を示す。5ライン分のc,m,
y,wのデータは、パターンマッチング部325f5〜
325f7と、カウント部325f1〜325f4に入
力する。ここでまず、B/C信号を求める流れの中のパ
ターンマッチング部325f6について説明する。
{Color Pixel Determination Unit 325f} FIG. 6 shows the contents of the color pixel determination unit 325f. C, m for 5 lines
The data of y and w are stored in the pattern matching units 325f5 to 325f5.
325f7 and the counts 325f1 to 325f4. Here, the pattern matching unit 325f6 in the flow for obtaining the B / C signal will be described first.

【0130】≪パターンマッチング部325f6≫色画
素用w画素が存在する時は、その画素のc=m=y=0
に補正する。この補正により、注目画素を中心とする5
×5画素マトリクスの白レベルが大きくなる。次に注目
画素が、色相分割部325aで判定した画素のc,m,
yの全てが1(c=m=y=1)または全てが0(c=
m=y=0)以外の画素(色画素)であるかを、該5×
5画素マトリクスが次のパターンにマッチングするかを
チェックすることによつて、判定する。 1)色画素パターン群 1―1) パターン1―1(pm1) D23 & D33 & D43 1―2) パターン1―2(pm2) D32 & D33 & D34 1―3) パターン1―3(pm3) D22 & D33 & D44 1―4) パターン1―4(pm4) D24 & D33 & D42 中心画素(注目画素)はD33である。図16にこれら
のパターンpm1〜pm4を示す。これらのパターン上
の白丸は、c,m,yの少なくとも一者が1であること
を示す。パターンマッチングを採用するのは、孤立点な
どを拾わないようにするためである。逆に、網点など
の、小面積色検出する際には、中心画素が1(c=m=
y=1)または全てが0(c=m=y=0)以外の画素
(色画素)であるかで、判定すればよい。
{Pattern matching unit 325f6} When w pixel for color pixel exists, c = m = y = 0 of that pixel
To be corrected. With this correction, 5
The white level of the × 5 pixel matrix increases. Next, the pixel of interest is c, m, of the pixel determined by the hue division unit 325a.
y is all 1 (c = m = y = 1) or all 0 (c = m = y = 1)
m = y = 0) is determined to be a pixel (color pixel) other than the 5 ×
The determination is made by checking whether the 5-pixel matrix matches the next pattern. 1) Color pixel pattern group 1-1) Pattern 1-1 (pm1) D23 & D33 & D43 1-2) Pattern 1-2 (pm2) D32 & D33 & D34 1-3) Pattern 1-3 (pm3) D22 & D33 & D44 1-4) Pattern 1-4 (pm4) D24 & D33 & D42 The central pixel (pixel of interest) is D33. FIG. 16 shows these patterns pm1 to pm4. Open circles on these patterns indicate that at least one of c, m, and y is 1. The reason for employing the pattern matching is to prevent isolated points and the like from being picked up. Conversely, when detecting a small area color such as a halftone dot, the center pixel is 1 (c = m =
The determination may be made based on whether pixels (color pixels) are other than 0 (c = m = y = 0) or all of them are y = 0.

【0131】2)色細線用パターン群 白に囲まれた色線を検出する。これに用いるパターンを
図17に示す。図17において、白丸を付した画素は、
c,m,yが全て0の画素である。注目画素(中心画
素)を中心とする5×5画素マトリクスのデータ(c,
m,y)の分布が、図17のパターンpw11a〜pw
14dのいずれかにマッチングすると、そのときの注目
画素(中心画素)を色線画素と見なす。 2―1)パターン2―1(pw11a〜pw11d) ((D12&D13&D14)&(D42&D43&D44))# ((D12&D13&D14)&(D52&D53&D54))# ((D22&D23&D42)&(D42&D43&D44))# ((D22&D23&D42)&(D52&D53&D54)) 2―2)パターン2―2(pw12a〜pw12d) ((D21&D31&D41)&(D24&D34&D44))# ((D21&D31&D41)&(D25&D35&D45))# ((D22&D23&D24)&(D24&D34&D44))# ((D22&D23&D24)&(D25&D35&D45)) 2―3)パターン2―3(pw13a〜pw13d) ((D11&D21&D12)&(D35&D44&D53))# ((D11&D21&D12)&(D45&D44&D55))# ((D13&D22&D31)&(D35&D44&D53))# ((D13&D22&D31)&(D45&D44&D55)) 2―4)パターン2―4(pw14a〜pw14d) ((D13&D24&D35)&(D41&D51&D52))# ((D14&D15&D25)&(D41&D51&D52))# ((D13&D24&D35)&(D31&D42&D53))# ((D14&D15&D25)&(D31&D42&D53)) 3)白領域パターン群 c,m,yが全て0のところのパターンマッチングを行
う。これに用いるパターンを図18に示す。図18にお
いて、白丸を付した画素は、c,m,yが全て0の画素
である。注目画素(中心画素)を中心とする5×5画素
マトリクスのデータ(c,m,y)の分布が、図18の
パターンpw21a〜pw24dのいずれかにマッチン
グすると、そのときの注目画素(中心画素)を白領域画
素と見なす。 3―1)パターン3―1(pw21a〜pw21d) (D21&D31&D41)# (D22&D32&D42)# (D24&D34&D44)# (D25&D35&D45) 3―2)パターン3―2(pw22a〜pw22d) (D12&D13&D14)# (D22&D23&D24)# (D42&D43&D44)# (D52&D53&D54) 3―3)パターン3―3(pw23a〜pw23d) (D52&D51&D41)# (D53&D42&D31)# (D35&D24&D13)# (D25&D15&D14) 3―4)パターン3―4(pw24a〜pw24d) (D54&D55&D45)# (D53&D44&D35)# (D31&D22&D13)# (D21&D11&D12) 4)色画素候補2の判定 前記で抽出したパターンマッチング結果が以下のパター
ンに一致すれば、注目画素を、色判定用色画素候補2と
する: ((pm1 == 1) & ((pw11 == 1) # (pw21 != 1))) # ((pm2 == 1) & ((pw12 == 1) # (pw22 != 1))) # ((pm3 == 1) & ((pw13 == 1) # (pw23 != 1))) # ((pm4 == 1) & ((pw14 == 1) # (pw24 != 1))) ここで、(pm1 == 1)は、注目画素を中心とす
るデータ分布が、パターンpm1にマッチングすること
を意味し、(pw11 == 1)はパターンpw11
a〜pw11dのいずれかにマッチングすることを意味
し、(pw21!= 1)はパターンpw21a〜pw
21dのいずれかにマッチングすることを意味する。&
は論理積を、#は論理和を意味する。このパターンマッ
チングにより、白領域に囲まれた色画素を色画素候補と
して、それ以外で白領域が存在する時は、色画素としな
い。白領域がない色画素パターンマッチングで一致した
ものは、色画素候補となる。
2) Pattern group for thin color line A color line surrounded by white is detected. The pattern used for this is shown in FIG. In FIG. 17, the pixels with white circles are:
c, m, and y are all 0 pixels. Data (c, c) of a 5 × 5 pixel matrix centered on the pixel of interest (center pixel)
m, y) are the patterns pw11a to pw of FIG.
When matching with any one of 14d, the target pixel (center pixel) at that time is regarded as a color line pixel. 2-1) Pattern 2-1 (pw11a to pw11d) ((D12 & D13 & D14) & (D42 & D43 & D44)) # ((D12 & D13 & D14) & (D52 & D53 & D54)) # ((D22 & D23 & D42) & (D42 & D43 & D44)) ((D22 & D22 & D) )) 2-2) Pattern 2-2 (pw12a to pw12d) ((D21 & D31 & D41) & (D24 & D34 & D44)) # ((D21 & D31 & D41) & (D25 & D35 & D45)) # ((D22 & D23 & D24) & (D24 & D34 & D44) & (D22 & D24 &&) (D25 & D35 & D45)) 2-3) Pattern 2-3 (pw13a to pw13d) ((D11 & D21 & D12) & (D35) D44 & D53)) # ((D11 & D21 & D12) & (D45 & D44 & D55)) # ((D13 & D22 & D31) & (D35 & D44 & D53)) # ((D13 & D22 & D31) & (D45 & D44 & D55)) 2-4) Pattern 2-4 (pw14a & Dw14 & Dw14 & Dw14 & Dw14) & (D41 & D51 & D52)) # ((D14 & D15 & D25) & (D41 & D51 & D52)) # ((D13 & D24 & D35) & (D31 & D42 & D53)) # (((D14 & D15 & D25) & (D31 & D42 & D53)) &lt; 3 &gt; However, pattern matching is performed. The pattern used for this is shown in FIG. In FIG. 18, the pixels with white circles are pixels in which c, m, and y are all 0. If the distribution of data (c, m, y) of the 5 × 5 pixel matrix centered on the target pixel (center pixel) matches any of the patterns pw21a to pw24d in FIG. ) Are considered as white area pixels. 3-1) Pattern 3-1 (pw21a to pw21d) (D21 & D31 & D41) # (D22 & D32 & D42) # (D24 & D34 & D44) # (D25 & D35 & D45) 3-2) Pattern 3-2 (pw22a to pw22d) (D12 & D13 & D14) & (D22 &# 24 &#) D42 & D43 & D44) # (D52 & D53 & D54) 3-3) Pattern 3-3 (pw23a to pw23d) (D52 & D51 & D41) # (D53 & D42 & D31) # (D35 & D24 & D13) # (D25 & D15 & D14) 3-4) &lt; D &gt;# (D53 & D44 & D35) # (D31 & D22 & D13) # (D21 & D11 & D12) 4) Color pixel candidate 2 If the pattern matching result extracted above matches the following pattern, the pixel of interest is set as color determination color pixel candidate 2: ((pm1 == 1) & ((pw11 == 1) # (pw21! =) 1))) # ((pm2 == 1) & ((pw12 == 1) # (pw22! = 1))) # ((pm3 == 1) & ((pw13 == 1) # (pw23! = 1))) # ((pm4 == 1) & ((pw14 == 1) # (pw24! = 1))) Here, (pm1 == 1) indicates that the data distribution centered on the pixel of interest is This means matching with the pattern pm1, and (pw11 == 1) means the pattern pw11
a to pw11d means that (pw21! = 1) is the pattern pw21a to pw11d
21d means matching. &
Indicates a logical product, and # indicates a logical sum. By this pattern matching, a color pixel surrounded by a white region is set as a color pixel candidate, and when there is a white region other than that, the pixel is not a color pixel. A match in color pixel pattern matching without a white region is a color pixel candidate.

【0132】≪カウント部325f1≫注目画素を中心
とする5×5画素マトリクス内に、色判定用w画素が存
在する時は、その画素の色相分割部325aで判定した
c,m,yデータをc=m=y=0に補正する。この補
正により、該画素マトリクスの白レベルが大きくなる。
そして、該画素マトリクス内の各画素のc,m,yの1
(c=1、m=1、y=1)の数をカウントする。c,
m,yそれぞれについてのカウント値の最大値と最小値
との差が、thcnt以上でかつ最小値がthmin未
満ならば、色画素候補1とする。thcnt、thmi
nは、複写(処理)前に設定する閾値である。y,m,
cにプレーン展開して、N×Nのマトリクスにおいての
それぞれのプレーン毎に数を数えて、最少値をブラック
と仮定している。このことにより、黒画素の読み取りが
漏れても補正が可能となる。そして最大値と最小値の差
で有彩画素を判定している。このことにより、黒画素が
読取りから外れた画素を補正して、有彩画素を抽出す
る。注目画素を中心とする5×5画素マトリクス内に一
定画素の有彩画素があると注目画素を有彩画素としてい
る。
{Counting unit 325f1} When a w pixel for color determination exists in a 5 × 5 pixel matrix centered on the pixel of interest, the c, m, y data determined by the hue dividing unit 325a for that pixel is used. Correct to c = m = y = 0. This correction increases the white level of the pixel matrix.
Then, 1 of c, m, y of each pixel in the pixel matrix is calculated.
The number of (c = 1, m = 1, y = 1) is counted. c,
If the difference between the maximum value and the minimum value of the count values for each of m and y is equal to or more than thcnt and the minimum value is less than thmin, the color pixel candidate 1 is determined. thcnt, thmi
n is a threshold value set before copying (processing). y, m,
The plane is expanded to c, the number is counted for each plane in the N × N matrix, and the minimum value is assumed to be black. As a result, even if reading of black pixels is omitted, correction can be performed. The chromatic pixel is determined based on the difference between the maximum value and the minimum value. Thus, the chromatic pixels are extracted by correcting the pixels from which the black pixels are not read. If there is a certain chromatic pixel in a 5 × 5 pixel matrix centered on the target pixel, the target pixel is determined to be a chromatic pixel.

【0133】≪色画素判定部325f8≫パターンマッ
チング部325f6とカウント部325f1の出力にも
とづいて、色画素判定部325f8で、色画素か否かを
判定する。色画素候補1でかつ色画素候補2であれば、
色画素1とする。
{Color Pixel Determination Unit 325f8} Based on the outputs of the pattern matching unit 325f6 and the count unit 325f1, the color pixel determination unit 325f8 determines whether the pixel is a color pixel. If color pixel candidate 1 is color pixel candidate 2,
Let it be color pixel 1.

【0134】≪ブロック化部325f9≫色画素判定部
325f8の出力をブロック化部325f9にてブロッ
ク化をする。ブロック化とは、4×4画素のマトリック
スにおいて、1画素以上の色画素1があれば、該4×4
画素マトリックス全体を色画素1ブロックとして出力す
るものである。ブロック化部325f9以降の処理は、
4×4画素を1ブロックとしてブロック単位出力する。
{Blocking Unit 325f9} The output of the color pixel determination unit 325f8 is blocked by the blocking unit 325f9. Blocking means that if there is one or more color pixels 1 in a matrix of 4 × 4 pixels, the 4 × 4 pixels
The entire pixel matrix is output as one color pixel block. The processing after the blocking unit 325f9 is
4 × 4 pixels are output as one block as a block.

【0135】≪孤立点除去部325f10≫ブロック化
したデータを孤立点除去部325f10にて、注目ブロ
ックの隣り合うブロックに色画素1ブロックがなければ
孤立点として、除去する。
{Isolated point removing unit 325f10} The isolated data is removed by the isolated point removing unit 325f10 as an isolated point if there is no color pixel block in a block adjacent to the target block.

【0136】≪膨張部325f11≫孤立点除去部32
5f10の出力を、膨張部325f11にて、色画素1
ブロックが存在する場合は、5×5ブロックに膨張す
る。膨張するのは、色画素の周辺を黒文字処理をしない
ようにするためである。ここで、出力するB/C信号
は、色画素1ブロックの時にL(有彩)を出力し、それ
以外の時は、H(無彩)を出力する。
{Expansion part 325f11} Isolated point removal part 32
The output of 5f10 is output to the color pixel 1 by the expansion unit 325f11.
If a block is present, it expands to a 5 × 5 block. The expansion is performed so that black character processing is not performed around color pixels. Here, the output B / C signal outputs L (chromatic) when the color pixel is one block, and outputs H (achromatic) otherwise.

【0137】≪カウント部325f2≫注目画素を中心
とする5×5画素マトリクス内に色判定用w画素が存在
する時は、その画素の色相分割部325aで判定した
c,m,yデータをc=m=y=0に補正する。この補
正により、該画素マトリクスの白レベルが大きくなる。
そして、該画素マトリクス内の各画素の、c,m,yの
1(c=1,m=1,y=1)の数をカウントする。
c,m,yそれぞれについてのカウント値の最大値と最
小値との差が、thacnt以上でかつ最小値がtha
min未満ならば、注目画素を色画素候補1とする。t
hacnt、thaminは、複写(処理)前に設定す
る閾値である。
{Counting unit 325f2} When a w pixel for color determination exists in a 5 × 5 pixel matrix centered on the pixel of interest, the c, m, y data determined by the hue dividing unit 325a for that pixel is converted to c = M = y = 0. This correction increases the white level of the pixel matrix.
Then, the number of 1 of c, m, y (c = 1, m = 1, y = 1) of each pixel in the pixel matrix is counted.
The difference between the maximum value and the minimum value of the count value for each of c, m, and y is greater than or equal to thacnt and the minimum value is tha.
If it is less than min, the target pixel is set as color pixel candidate 1. t
“hacnt” and “thamine” are thresholds set before copying (processing).

【0138】≪色画素判定部325f12≫パターンマ
ッチング部325f6とカウント部325f2の出力に
もとづいて、色画素判定部325f12で、色画素か否
かを判定する。色画素候補1でかつ色画素候補2であれ
ば、色画素2とする。
{Color Pixel Determination Unit 325f12} Based on the outputs of the pattern matching unit 325f6 and the count unit 325f2, the color pixel determination unit 325f12 determines whether the pixel is a color pixel. If the color pixel candidate is 1 and the color pixel candidate is 2, color pixel 2 is set.

【0139】≪ブロック化部325f13≫色画素判定
部325f12の出力をブロック化部325f13にて
ブロック化をする。即ち、4×4画素のマトリックスに
おいて、1画素以上の色画素2があれば、該4×4画素
マトリックの全体を色画素2ブロックとして、出力す
る。ブロック化部325f13以降の処理は、4×4画
素を1ブロックとしてブロック単位出力する。
{Blocking Unit 325f13} The output of the color pixel determination unit 325f12 is blocked by the blocking unit 325f13. That is, if there is one or more color pixels 2 in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as two color pixel blocks. In the processing after the blocking unit 325f13, 4 × 4 pixels are output as one block as one block.

【0140】≪密度部325f14≫孤立ブロックの除
去のために、3×3ブロックの中のアクティブ条件(色
画素2ブロック)が3個以上あり、注目ブロックがアク
ティブ(色画素)ならば、注目ブロックをアクティブブ
ロック(色画素2ブロック)とする。
{Density part 325f14} In order to remove an isolated block, if there are three or more active conditions (two color pixel blocks) in a 3 × 3 block and the target block is active (color pixel), the target block Is an active block (two blocks of color pixels).

【0141】≪カウント部325f3≫注目画素を中心
とする5×5画素マトリクス内の各画素のc,m,yの
1(c=1、m=1、y=1)の数をカウントする。
c,m,yそれぞれについてのカウント値の最大値と最
小値との差が、tha1cnt以上で、かつカウントし
たc,m,yの最小値が、tha1min未満ならば、
色画素候補3とする。tha1cnt、tha1min
は、複写(処理)前に設定する閾値である。
{Counting section 325f3} The number of 1 (c = 1, m = 1, y = 1) of c, m, y of each pixel in the 5 × 5 pixel matrix centering on the target pixel is counted.
If the difference between the maximum value and the minimum value of the count value for each of c, m, and y is equal to or greater than tha1cnt and the minimum value of c, m, and y is less than tha1min,
Let it be color pixel candidate 3. tha1cnt, tha1min
Is a threshold value set before copying (processing).

【0142】≪パターンマッチング部325f5≫色画
素検出で判定した画素(c,m,y)が色画素かどうか
を5×5画素マトリクスを用いるパターンマッチングで
判定する。パターンはパターンマッチング部325f6
のものと同じである。パターンマッチングで一致した画
素は、色画素候補4とする。
{Pattern Matching Unit 325f5} Whether the pixel (c, m, y) determined by color pixel detection is a color pixel is determined by pattern matching using a 5 × 5 pixel matrix. The pattern is a pattern matching unit 325f6
Is the same as The pixel matched by the pattern matching is set as a color pixel candidate 4.

【0143】≪色画素判定部325f15≫色画素候補
3でかつ色画素候補4であれば、色画素3とする。
{Color pixel determination unit 325f15} If color pixel candidate 3 is color pixel candidate 4, color pixel 3 is determined.

【0144】≪ブロック化部325f16≫色画素判定
部325f15の出力をブロック化部325f16にて
ブロック化をする。すなわち、4×4画素のマトリック
スにおいて、1画素以上の色画素3があれば、該4×4
画素マトリックスの全体を色画素3ブロックとして、出
力する。ブロック化部325f16以降の処理は、4×
4を1ブロックとしてブロック単位出力する。
{Blocking Unit 325f16} The output of the color pixel determination unit 325f15 is blocked by the blocking unit 325f16. That is, if there is one or more color pixels 3 in a 4 × 4 pixel matrix, the 4 × 4 pixels
The entire pixel matrix is output as three blocks of color pixels. The processing after the blocking unit 325f16 is 4 ×
4 is output as one block.

【0145】≪密度部325f17≫孤立ブロックの除
去のために、3×3ブロックの中のアクティブ条件(色
画素3ブロック)が3個以上あり、注目ブロックがアク
ティブ(色画素3)ならば、注目ブロックをアクティブ
ブロック(色画素3ブロック)とする。
{Density part 325f17} In order to remove an isolated block, if there are three or more active conditions (three color pixel blocks) in a 3 × 3 block and the target block is active (color pixel 3), Let the block be an active block (three color pixel blocks).

【0146】≪カウント部325f4≫注目画素を中心
とする5×5画素マトリクス内の各画素の、色相分割部
325aで判定したc、m、yの1(c=1、m=1、
y=1)の数をカウントする。c、m、yの各カウント
値の最小値が、thabk以上ならば、注目画素を黒画
素候補1とする。thabkは、複写(処理)前に設定
する閾値である。
{Count section 325f4} 1 of c, m, y determined by the hue division section 325a for each pixel in the 5 × 5 pixel matrix centering on the target pixel (c = 1, m = 1,
The number of y = 1) is counted. If the minimum value of each of the count values of c, m, and y is equal to or larger than thabk, the pixel of interest is set as black pixel candidate 1. thabk is a threshold value set before copying (processing).

【0147】≪パターンマッチング部325f7≫注目
画素を中心とする5×5画素マトリクスにおいて、c=
m=y=1の画素のパターンマッチングを行う。 1―1)パターン1―1(pm1) D23&D33&D43 1―2)パターン1―2(pm2) D32&D33&d34 1―3)パターン1―3(pm3) D22&D33&D44 1―4)パターン1―4(pm4) D42&D33& D24 これらのパターンは図16に示すものであり、図中に丸
印を付した画素が、c=m=y=1の画素である。これ
らのパターンのどれかに一致した時に、注目画素を黒画
素候補2とする。
{Pattern matching unit 325f7} In a 5 × 5 pixel matrix centered on the target pixel, c =
Pattern matching is performed for the pixel of m = y = 1. 1-1) Pattern 1-1 (pm1) D23 & D33 & D43 1-2) Pattern 1-2 (pm2) D32 & D33 & d34 1-3) Pattern 1-3 (pm3) D22 & D33 & D44 1-4) Pattern 1-4 (pm4) D42 & D33 & D24 The pattern shown in FIG. 16 is a pixel indicated by a circle in the figure is a pixel of c = m = y = 1. When it matches any of these patterns, the pixel of interest is set as black pixel candidate 2.

【0148】≪無彩判定部325f18≫注目画素が、
黒画素候補1でかつ黒画素候補2であれば、黒画素とす
る。
{Achromatic determination section 325f18}
If it is the black pixel candidate 1 and the black pixel candidate 2, it is determined as a black pixel.

【0149】≪ブロック化部325f19≫黒画素の出
力をブロック化部325f19にてブロック化をする。
ここでのブロック化とは、4×4画素のマトリックスに
おいて、1画素以上の黒画素があれば、該4×4画素マ
トリックスの全体を黒画素ブロックとして、出力する。
ブロック化部325f19以降の処理は、4×4画素を
1ブロックとしてブロック単位出力する。
{Blocking Unit 325f19} The black pixel output is blocked by the blocking unit 325f19.
In this case, if there is one or more black pixels in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as a black pixel block.
In the processing after the blocking unit 325f19, 4 × 4 pixels are output as one block as one block.

【0150】≪膨張部325f20≫3×3ブロックの
マトリックス内において、注目ブロックがアクティブ
(黒画素ブロック)で、その周辺画素がノンアクティブ
(非黒画素)ならば、注目ブロックをノンアクティブ
(非黒画素ブロック)にする。
{Expansion unit 325f20} In the 3 × 3 block matrix, if the target block is active (black pixel block) and its surrounding pixels are non-active (non-black pixels), the target block is non-active (non-black pixel). Pixel block).

【0151】≪総合色画素判定部325f21≫注目ブ
ロックが、色画素判定部325f12でアクティブ(色
画素2)と判定されかつ無彩判定部325f18でアク
ティブ(黒画素)と判定されていなければ、注目ブロッ
クは色(色ブロック)と判定する。また、色画素判定部
325f15がアクティブ(色画素)の時も色と判定す
る。
{Total color pixel determination unit 325f21} If the target block is determined to be active (color pixel 2) by color pixel determination unit 325f12 and not determined to be active (black pixel) by achromatic determination unit 325f18, The block is determined to be a color (color block). The color is also determined when the color pixel determination unit 325f15 is active (color pixel).

【0152】≪膨張部325f22≫総合色画素判定部
325f21で、色と判定したブロックに対して小さな
文字を連続と見なすために、注目ブロックを中心とする
9×9ブロックのマトリックス内に1ブロックでもアク
ティブブロックがあれば、注目ブロックをアクティブブ
ロックとする。ここで、大きく膨張させるのは、文字同
士のすき間を埋めるためである。
{Expansion Unit 325f22} In order for the overall color pixel determination unit 325f21 to consider small characters to be continuous with respect to the block determined to be a color, even one block in a 9 × 9 block matrix centered on the target block. If there is an active block, the block of interest is set as the active block. Here, the reason for the large expansion is to fill the gap between the characters.

【0153】≪連続カウント部325f23≫連続カウ
ント部325f23では、色画素ブロックの連続性を見
て、カラー原稿か白黒原稿かを判定する。膨張部325
f22の出力データ(色画素ブロック)の中の色画素の
連続数をカウントすることにより、カラー原稿かどうか
判定する。
{Continuous counting section 325f23} The continuous counting section 325f23 determines whether the document is a color document or a monochrome document by checking the continuity of the color pixel blocks. Expansion part 325
It is determined whether the original is a color original by counting the number of consecutive color pixels in the output data (color pixel block) of f22.

【0154】図7に、この判定処理の内容を示す。注目
画素が色画素ブロックにある時に注目画素の左上、上、
右上および左の画素の色画素連続数を参照して、注目画
素の色画素連続数を算出する(ステップS21〜2
6)。ここで、注目画素を、例えば図11の5×5画素
分布パターンMPpのc3画素とすると、左上、上、右
上および左の画素はそれぞれ、b2,b3,b4および
c2の画素である。注目画素が色画素ブロックにないと
きには、それには0なる色画素連続数を与える(ステッ
プS21〜27)。
FIG. 7 shows the contents of this determination processing. When the target pixel is in the color pixel block, the upper left, upper,
The number of continuous color pixels of the target pixel is calculated with reference to the number of continuous color pixels of the upper right pixel and the left pixel (steps S21 and S2).
6). Here, if the target pixel is, for example, the c3 pixel of the 5 × 5 pixel distribution pattern MPp in FIG. 11, the upper left, upper, upper right, and left pixels are b2, b3, b4, and c2 pixels, respectively. When the target pixel is not in the color pixel block, the color pixel continuation number of 0 is given to it (steps S21 to S27).

【0155】注目画素が色画素ブロックにある場合は、
先ず注目画素(c3)の上画素(b3)の色画素連続数
をチェックして(ステップS22)、それが0である
と、参照値Aに右上画素(b4)の色画素連続数に1を
加えた値を与え(ステップS24)、上画素(b3)の
色画素連続数が0であると参照値Aに右上画素(b4)
の色画素連続数を与える(ステップS23)。次に、参
照値Bに左上画素(b2)の色画素連続数に1を加えた
値を与え、参照値Cには上画素(b3)の色画素連続数
に1を加えた値を与え、また参照値Dには左画素(c
2)の色画素連続数に1を加えた値を与える(ステップ
S25)。そして、参照値A、B、CおよびDのうちの
最高値を注目画素(c3)の色画素連続数とする(ステ
ップS26)。
When the target pixel is in the color pixel block,
First, the number of consecutive color pixels of the upper pixel (b3) of the target pixel (c3) is checked (step S22). If it is 0, 1 is set to the reference value A as the number of consecutive color pixels of the upper right pixel (b4). The added value is given (step S24). If the number of continuous color pixels of the upper pixel (b3) is 0, the upper right pixel (b4) is added to the reference value A.
Is given (step S23). Next, a value obtained by adding 1 to the number of continuous color pixels of the upper left pixel (b2) is given to the reference value B, a value obtained by adding 1 to the number of continuous color pixels of the upper pixel (b3) is given to the reference value C, The reference value D includes the left pixel (c
A value obtained by adding 1 to the color pixel continuation number of 2) is given (step S25). Then, the highest value among the reference values A, B, C, and D is set as the color pixel continuation number of the pixel of interest (c3) (step S26).

【0156】注目画素(c3)に色画素連続数を前述の
ように与えると、この色画素連続数が設定値THACS
以上であるかをチエックして(ステップS28)、TH
ACS以上であると、カラー原稿であると決定して(ス
テップS29)、そこで連続カウント部325f23の
処理を終える。色画素連続数が設定値THACS未満で
あると、注目画素を走査方向x、yの次の画素に更新し
て、前述の処理を繰返す。原稿全面について前述の処理
をした結果、最後まで色画素連続数が設定値THACS
未満であったときには(ステップS30〜34)、原稿
は白黒画像であると決定する。
When the number of continuous color pixels is given to the pixel of interest (c3) as described above, the number of continuous color pixels becomes the set value THACS.
It is checked whether it is the above (step S28), and TH
If it is equal to or greater than ACS, it is determined that the original is a color original (step S29), and the process of the continuous counting unit 325f23 ends there. If the number of continuous color pixels is less than the set value THACS, the target pixel is updated to the next pixel in the scanning direction x, y, and the above-described processing is repeated. As a result of performing the above-described processing on the entire original, the number of continuous color pixels is set to the set value
If it is less than (Steps S30 to S34), it is determined that the document is a monochrome image.

【0157】前述の色画素連続数は、ほぼ縦の色付き線
分と横の色付き線分の和となる。右上の色画素連続数
が、他と異なるのは二重カウントを防ぐためである。色
画素連続数の具体的なデータを図19に示した。図19
に示す数字を入れた小四角が色画素であり、数字が該画
素に与えた色画素連続数である。数字を入れた小四角が
連なったブロックが色画素群であり、同一原稿上のどれ
かの色画素群のなかの色画素連続数が1つでも設定値T
HACS以上になるとそこで、カラー原稿であるとカラ
ーか白黒かの判定を確定する(ステップS28、2
9)。
The above-described number of continuous color pixels is substantially the sum of a vertical colored line segment and a horizontal colored line segment. The upper right color pixel continuation number is different from the others in order to prevent double counting. FIG. 19 shows specific data of the color pixel continuation number. FIG.
Is a color pixel, and the number is the number of continuous color pixels given to the pixel. A block formed by a series of small squares containing numbers is a color pixel group, and even if the number of color pixel continuations in any color pixel group on the same document is one, the set value T
If HACS or higher, it is determined whether the original is a color original in color or black and white (steps S28 and S28).
9).

【0158】色画素判定部1〜3(325f8−325
f15)と分けたのは、カラー原稿か白黒原稿かの判定
精度を高くするためである。黒文字処理のための色画素
判定は、誤判定をしても局所的でさほど目立たない。し
かし、カラー原稿か白黒原稿かの判定は、誤判定をする
と原稿全体に影響する。そこで、カウント部325f1
−f4を独立とした。本来ならば、色相分割部325a
から独立にした方がよいが色相分割部325aを独立に
すると、パターンマッチング部325f5−f7のメモ
リが増えるので、好ましくない。カウント部325f1
−f4のパラメータ(色画素候補1、3、黒画素候補
1)で、色画素のパラメータ(色画素1−3)を変更し
ている事により、メモリ量の増加を少なくしている。色
画素判定部2,3(325f12、325f15)を設
けているのは蛍光ペンの黄色のような濃度の低い色を検
出するためで、さらに、無彩判定(黒画素判定)部32
5f18を備えたのは濃度を低くすると誤検出した際に
補正するためである。蛍光ペンなど濃度の薄い色は、あ
る程度の幅で黒データで補正しても問題はない。複数の
色画素を抽出する際に、w(白)のレベルを変えている
だけなので、色画素検出のために2つ分のメモリを持つ
必要がなく、1つ分+1ラインの容量で可能である。
The color pixel determination units 1 to 3 (325f8-325)
The reason for f15) is to increase the accuracy of determining whether a document is a color document or a monochrome document. The color pixel determination for black character processing is local and inconspicuous even if an erroneous determination is made. However, the determination as to whether the document is a color document or a black-and-white document affects the entire document if a wrong determination is made. Therefore, the counting unit 325f1
-F4 was made independent. Normally, the hue division unit 325a
However, it is not preferable to make the hue division unit 325a independent since the memory of the pattern matching units 325f5-f7 increases. Counting part 325f1
By changing the parameters of the color pixels (color pixels 1-3) with the parameter of -f4 (color pixel candidates 1, 3 and black pixel candidate 1), the increase in the memory amount is reduced. The color pixel determination units 2 and 3 (325f12 and 325f15) are provided to detect a low-density color such as a yellow color of a highlighter pen, and are further provided with an achromatic determination (black pixel determination) unit 32.
The reason why 5f18 is provided is to compensate for erroneous detection when the density is lowered. There is no problem if a light color such as a highlighter pen is corrected with black data in a certain width. When extracting a plurality of color pixels, only the level of w (white) is changed, so there is no need to have two memories for detecting color pixels, and a capacity of one line plus one line is possible. is there.

【0159】連続カウント部325f23で、1ライン
前のカウントデータと現在のラインのカウントデータを
参照してカウント値を数えているので、確実に周辺画素
の連続を正確に数えることができ、これにより色画素の
連続を数えることが可能となる。本実施形態では、R,
G,B画像データに対して色相判定を行ったが、R,
G,B画像データに限定するものではなく、輝度色差
(例えばLab)などに対して、色相判定することは、
容易である。
Since the count value is counted by referring to the count data of the previous line and the count data of the current line in the continuous count unit 325f23, the continuation of the peripheral pixels can be counted accurately without fail. It is possible to count the sequence of color pixels. In the present embodiment, R,
The hue was determined for the G and B image data.
The hue determination is not limited to the G and B image data, but may be performed on the luminance / color difference (for example, Lab).
Easy.

【0160】≪総合判定部326≫総合判定部326
は、図4に示すように文字判定部326a、膨張処理部
326b、文字なか判定部326cおよびデコード部3
26dからなる。
{Comprehensive decision section 326} Comprehensive decision section 326
As shown in FIG. 4, the character determination unit 326a, the expansion processing unit 326b, the character absence determination unit 326c, and the decoding unit 3
26d.

【0161】≪文字判定部326a≫文字判定部326
aでは、エッジ抽出部322の結果がエッジありで、網
点抽出部324の結果が網点なしで白領域抽出部323
の結果が白領域ありのときは、文字エッジと判定する。
そうでないときには非文字エッジ(絵柄または文字な
か)と判定し、その結果を図25に示すように膨張処理
部326bに出力する。
{Character determination section 326a} Character determination section 326
In a, the result of the edge extraction unit 322 is an edge, and the result of the halftone dot extraction unit 324 is a white area extraction unit 323 without a halftone dot.
If there is a white area in the result, it is determined to be a character edge.
If not, it is determined as a non-character edge (inside a picture or a character), and the result is output to the expansion processing unit 326b as shown in FIG.

【0162】≪膨張処理部326b≫膨張処理部326
bでは、文字判定部326aの結果を8×8ブロックの
OR処理をして、その後に3×3ブロックのAND処理
をして4ブロックの膨張処理を行う。すなわち、注目ブ
ロックを中心とする8×8ブロックのいずれかのブロッ
クが文字エッジであると、注目ブロックも文字エッジブ
ロックであると仮定し、該注目ブロックを中心とする3
×3ブロックのすべてが文字エッジであると注目ブロッ
クを文字エッジと確定し、注目ブロックとそれに隣接す
る3ブロック、計4ブロックを文字エッジと見なす。O
R処理してからAND処理するのは、特に黒文字の場
合、黒文字の領域の周辺に小領域の非黒文字領域が存在
すると、処理の差により違和感が感じられることがあ
り、例えば黒が薄く見えるからである。これを防ぐため
に、OR処理で非黒文字領域を大きくしている。AND
処理は、望むべき膨張量にするために行っている。
{Expansion Processing Unit 326b} Expansion Processing Unit 326
In b, the result of the character determination unit 326a is subjected to OR processing of 8 × 8 blocks, and thereafter, AND processing of 3 × 3 blocks is performed to perform expansion processing of 4 blocks. That is, if any of the 8 × 8 blocks around the block of interest is a character edge, it is assumed that the block of interest is also a character edge block, and 3
If all of the × 3 blocks are character edges, the target block is determined as a character edge, and the target block and three blocks adjacent thereto are regarded as character edges, for a total of four blocks. O
The reason why the AND processing is performed after the R processing is that, in the case of a black character in particular, if a small non-black character area exists around the black character area, a feeling of incongruity may be felt due to a difference in processing. It is. To prevent this, the non-black character area is enlarged by OR processing. AND
The processing is performed to obtain a desired expansion amount.

【0163】ところでカラー複写機は、1枚の複写をす
るのに、4回スキャンをするので、スキャン毎に、微妙
に文字判定結果が異なる。特に、ブラック作像時に非黒
文字判定をし、ブラック作像以外のときに黒文字判定を
すると、この黒文字領域は薄くなってしまうので、bk
時には8×8ブロックのOR処理をして、その後に3×
3ブロックのAND処理をしてbk以外の作像時は、5
×5ブロックのOR処理をして、その後は1×1ブロッ
クのAND処理をする。なお、1×1のAND処理をす
る、と言うことは、その結果が処理前と同一になるの
で、何の処理もしないと言うことと同義である。膨張処
理の結果は、文字エッジ信号としてデコード部326d
に出力する。
By the way, since a color copying machine scans four times to make one copy, the character judgment result slightly differs for each scan. In particular, if a non-black character determination is made during black image formation and a black character determination is made at times other than black image formation, the black character area becomes thin.
Sometimes 8 × 8 blocks are ORed and then 3 × 8
When an image other than bk is formed by performing AND processing of three blocks, 5
OR processing is performed on the × 5 blocks, and then, AND processing is performed on the 1 × 1 blocks. Note that performing 1 × 1 AND processing is the same as not performing any processing because the result is the same as before the processing. The result of the dilation processing is output as a character edge signal by the decoding unit 326d.
Output to

【0164】このように膨張処理をすることにより、分
離結果が異なって文字の領域が薄くなることがなくな
る。この膨張処理によって、文字の中部分が濃くなるこ
とがあるが、文字のエッジに対して文字のなかが薄いと
濃度は飽和しているので、違和感はない。
By performing the expansion processing in this manner, the character area is not thinned due to a different separation result. Although the middle part of the character may be darkened by the dilation processing, the density is saturated when the character is light relative to the edge of the character, so that there is no sense of incongruity.

【0165】図20に、カラー複写によるカラー色剤の
重なりを、模式的に拡大して示す。図20の(d)が、
4色とも黒文字処理した理想の場合を示す。図20の
(e)が、4色とも黒文字処理して、bkのみ補正がか
からず、bk以外で補正がかかって薄くなった場合を示
す。図20の(f)が、本実施形態によってbkのみ黒
文字処理した、好適な場合を示し、図20の(g)が、
本実施形態によってbkのみ黒文字処理して、bkのみ
補正がかからず、bk以外で補正がかかった好適な場合
を示す。
FIG. 20 is a schematic enlarged view showing the overlap of color coloring materials by color copying. (D) of FIG.
All four colors show ideal cases in which black character processing has been performed. FIG. 20E shows a case where black characters are processed for all four colors, and only bk is not corrected, but correction is applied to other than bk, and the color becomes lighter. (F) of FIG. 20 shows a preferable case in which black character processing is performed only on bk according to the present embodiment, and (g) of FIG.
This embodiment shows a preferable case in which black character processing is performed only on bk, correction is not performed on only bk, and correction is performed on other than bk.

【0166】図20の(a)が、膨張量は同一で黒文字
処理した理想の場合を示す。図20の(b)は、膨張量
は同一で黒文字処理して印字位置がずれた場合(白く抜
ける)を示す。図20の(c)が、bkの膨張量が大き
い場合で、本実施形態によって黒文字処理して印字位置
がずれた場合を示す。
FIG. 20A shows an ideal case where the amount of expansion is the same and black character processing is performed. FIG. 20B shows the case where the expansion amount is the same and the black character processing is performed, and the printing position is shifted (whitened out). FIG. 20C shows a case where the expansion amount of bk is large, and a case where the printing position is shifted due to black character processing according to the present embodiment.

【0167】≪デコード部326d≫デコード部326
dが最終的に出力するC/P信号は、下記のようにな
る: C/P信号 文字エッジ信号 0 なし 1 あり 文字エッジ領域 また、色判定部325からは図4および図25に示すよ
うにB/C信号が出力される。
{Decoding Unit 326d} Decoding Unit 326
The C / P signal finally output by d is as follows: C / P signal Character edge signal 0 None 1 Yes Character edge area Also from the color determination unit 325, as shown in FIGS. A B / C signal is output.

【0168】次に、再度図3を参照する。原稿認識部3
20が発生するC/P信号およびB/C信号は、RGB
フィルタ部330、色補正部340、変倍部350、イ
ンターフェイス部352、UCR部360、CMYBk
フィルタ部370、CMYBkγ補正部380および階
調処理部390に、画像データに同期してカスケードに
与えられる。
Next, FIG. 3 will be referred to again. Document recognition unit 3
The C / P signal and the B / C signal generated by 20 are
Filter section 330, color correction section 340, scaling section 350, interface section 352, UCR section 360, CMYBk
The filter unit 370, the CMYBkγ correction unit 380, and the gradation processing unit 390 are provided to the cascade in synchronization with the image data.

【0169】RGBフィルタ部330は、RGBデータ
をMTF補正するフィルタであり、N×Nの画素マトリ
ックスに対応する係数マトリクスと、各係数に各画像デ
ータを乗じて重み付け平均値を得るロジックで構成され
ている。C/P信号が3を表すもの(文字エッジ領域)
である時には、鮮鋭化処理用の係数マトリクスを用い、
0または1を表すもの(文字なか領域または絵柄領域)
である時には平滑化処理用の係数マトリクスを用いて、
重み付け平均値を導出し色補正部340に出力する。色
補正部340は、R、G、Bデータを一次のマスキング
処理等でC、M、Yデータに変換する。変倍部350
は、画像データに、主走査方向xの拡大・縮小または等
倍処理を施す。
The RGB filter section 330 is a filter for performing MTF correction on RGB data, and is composed of a coefficient matrix corresponding to an N × N pixel matrix and logic for obtaining a weighted average value by multiplying each coefficient by each image data. ing. C / P signal representing 3 (character edge area)
, Use a coefficient matrix for sharpening processing,
Represents 0 or 1 (characterless area or picture area)
, The coefficient matrix for the smoothing process is used,
The weighted average value is derived and output to the color correction unit 340. The color correction unit 340 converts the R, G, and B data into C, M, and Y data by a primary masking process or the like. Magnification section 350
Performs enlargement / reduction or equal magnification processing in the main scanning direction x on image data.

【0170】UCR部360は、画像データの色再現を
向上させるためのものであり、色補正部340から入力
したC、M、Yデータの共通部分をUCR(加色除去)
処理してBkデータを生成し、C、M、Y、Bkデータ
を出力する。ここで、C/P信号が1(文字エッジ領
域)以外の時(文字なか領域または絵柄領域のとき)
は、スケルトンブラック処理を行う。C/P信号が3
(文字エッジ領域)の時は、フルブラック処理を行う。
さらにC/P信号が1(文字エッジ領域)かつB/C信
号がH(無彩領域)の時は、C、M、Yのデータをイレ
ースする。これは、黒文字の時、黒成分のみで表現する
ためである。
The UCR section 360 is for improving the color reproduction of the image data, and converts the common part of the C, M, and Y data input from the color correction section 340 into a UCR (additive color removal).
Process to generate Bk data and output C, M, Y, Bk data. Here, when the C / P signal is other than 1 (character edge area) (when the area is a character area or a picture area)
Performs skeleton black processing. C / P signal is 3
In the case of (character edge area), full black processing is performed.
When the C / P signal is 1 (character edge area) and the B / C signal is H (achromatic area), C, M, and Y data are erased. This is because black characters are represented only by black components.

【0171】また、UCR部360の出力画像信号IM
Gは、一時点はC、M、Y、Bkのうち一色であり、面
順次の一色出力である。すなわち、4回原稿読み取りを
行うことにより、フルカラー(4色)データを生成す
る。また、白黒複写のときは、Bk作像一回でよいの
で、1回の原稿読み取りでよい。カラー原稿か、白黒原
稿かの判定機構があれば、原稿に応じた読み取り回数で
すむので、操作者が、原稿に応じてカラー原稿か白黒原
稿かを判断して複写する必要がなくなる。本実施形態で
は、B/C信号がカラー原稿か、白黒原稿かの判定に参
照する信号である。原稿全面でB/C信号がH(無彩領
域)であったときにメインコントローラ10が、白黒原
稿と判定する。
The output image signal IM of the UCR unit 360 is
G is one color of C, M, Y, and Bk at the temporary point, and is a one-color output of the frame sequence. That is, full-color (four-color) data is generated by reading the document four times. In the case of black and white copying, only one image reading is required since only one Bk image formation is required. If there is a mechanism for determining whether a document is a color document or a black-and-white document, the number of readings according to the document is sufficient, so that the operator does not need to determine whether the document is a color document or a black-and-white document and copy the document. In the present embodiment, the B / C signal is a signal referred to when determining whether the document is a color document or a monochrome document. When the B / C signal is H (achromatic region) over the entire surface of the document, the main controller 10 determines that the document is a monochrome document.

【0172】CMYBkフィルタ部370は、カラープ
リンタ400の周波数特性やC/P信号に応じて、N×
Nの空間フィルタを用い、平滑化や鮮鋭化処理を行う。
CMYBkγ補正部380は、カラープリンタ400の
周波数特性やC/P信号に応じて、γカーブを変更し処
理する。C/P信号が0(絵柄領域)の時は画像を忠実
に再現するγカーブを用い、C/P信号が3(文字エッ
ジ領域)の時はγカーブを立たせてコントラストを強調
する。
The CMYBk filter section 370 performs N × N × F filter processing according to the frequency characteristics of the color printer 400 and the C / P signal.
Smoothing or sharpening processing is performed using N spatial filters.
The CMYBkγ correction unit 380 changes and processes the γ curve according to the frequency characteristics of the color printer 400 and the C / P signal. When the C / P signal is 0 (picture area), a γ curve that faithfully reproduces an image is used, and when the C / P signal is 3 (character edge area), the γ curve stands to enhance the contrast.

【0173】階調処理部390は、カラープリンタ40
0の階調特性やC/P信号に応じて、ディザ処理、誤差
拡散処理等の量子化を行う。Bk作像の時は、C/P信
号が0(絵柄領域)の時は階調重視の処理を行い、それ
以外の時は解像力重視の処理を行う。Bk以外の作像の
時は、C/P信号が0(絵柄領域)の時は階調重視の処
理を行い、それ以外の時は解像力重視の処理を行う。以
上の処理をした画像データは、バッフアメモリを有する
ビデオコントロール359からカラープリンタ400
に、その画像データ書込み動作に同期して、与えられ
る。
The gradation processing unit 390 is provided in the color printer 40.
Quantization such as dither processing and error diffusion processing is performed according to the gradation characteristic of 0 and the C / P signal. At the time of Bk image formation, when the C / P signal is 0 (pattern area), a process emphasizing gradation is performed, and at other times, a process emphasizing resolution is performed. At the time of image formation other than Bk, when the C / P signal is 0 (pattern area), the processing that emphasizes gradation is performed, and at other times, the processing that emphasizes resolution is performed. The image data having undergone the above processing is transmitted from the video control 359 having a buffer memory to the color printer 400.
At the same time as the image data writing operation.

【0174】前記IPU300は、絵柄処理(C/P信
号=0)の時は、RGBフィルタ部330で平滑化処理
を行い、UCR部360でスケルトンブラックの処理を
行い、CMYBkγ補正部380ではリニア(階調性)
を重視したカーブを選択し、CMYBkフィルタ部37
0および階調処理部390では階調を重視した処理を行
う。
In the picture processing (C / P signal = 0), the IPU 300 performs smoothing processing in the RGB filter section 330, performs skeleton black processing in the UCR section 360, and performs linear processing in the CMYBkγ correction section 380. Gradation)
Is selected, and the CMYBk filter unit 37 is selected.
The 0 and gradation processing section 390 performs processing that emphasizes gradation.

【0175】一方、文字処理(C/P信号=1でB/C
信号=L)の時は、RGBフィルタ部330でエッジ強
調処理を行い、UCR部360でフルブラック処理を行
い、CMYBkγ補正部380ではコントラストを重視
したカーブを選択し、CMYBkフィルタ部370およ
び階調処理部390では解像度を重視した処理を行う。
On the other hand, character processing (C / P signal = 1 and B / C
When (signal = L), the RGB filter 330 performs edge enhancement, the UCR 360 performs full black processing, the CMYBkγ correction 380 selects a curve emphasizing contrast, and selects the CMYBk filter 370 and the gradation. The processing unit 390 performs processing emphasizing resolution.

【0176】また、黒文字処理(C/P信号=1でB/
C信号=H)として、Bkを除くC、M、Yの画像形成
時には、C、M、Yデータを印字しない。これは、黒文
字の周りが位置ずれのために色付くのを防ぐためであ
る。また、この時のBkデータのRGBフィルタ部33
0は色文字のときより、エッジ強調を強めに行ってくっ
きりさせても良い。
In addition, black character processing (B / C signal when C / P signal = 1)
As C signal = H), C, M, and Y data are not printed during C, M, and Y image formation except for Bk. This is to prevent the surroundings of the black characters from being colored due to misalignment. In addition, the RGB filter unit 33 of the Bk data at this time.
A value of 0 may be sharpened by performing edge enhancement more strongly than in the case of a color character.

【0177】このようにIPU300では、絵柄、文字
エッジ、絵柄上の文字および文字なか処理の4種の処理
を行う。
As described above, the IPU 300 performs four types of processing, ie, a pattern, a character edge, a character on a pattern, and a character middle processing.

【0178】[0178]

【発明の効果】以上のように請求項1記載の発明によれ
ば、画像データが表す画像の中濃度領域を検出する中濃
度検出手段と、中濃度検出手段において検出した画像デ
ータを膨張処理する膨張手段と、膨張手段によって膨張
処理した領域を画像の非文字エッジ領域と判定する非文
字エッジ判定手段とを備えているので、膨張手段で膨張
した領域は文字として判定しないようにすることができ
る。その結果、中濃度領域のみで処理を切り替えて、線
の濃い領域は、線幅に関わらず同一の画像処理を行うこ
とが可能となる。これにより、一般の印刷物は濃度が濃
いことから、絵柄領域か非絵柄領域かで画像を見た場
合、線幅にかかわらず非絵柄領域として良好に処理する
ことができ、画像処理の切り換えによって切り換えた境
界部分で画像が不自然に見えることのない画像処理装置
を提供することが可能となる。
As described above, according to the first aspect of the present invention, the medium density detecting means for detecting the medium density area of the image represented by the image data, and the image data detected by the medium density detecting means are expanded. Since the image processing apparatus includes the expansion unit and the non-character edge determination unit that determines a region expanded by the expansion unit as a non-character edge region of the image, the region expanded by the expansion unit may not be determined as a character. . As a result, the processing is switched only in the medium density area, and the same image processing can be performed in the dark line area regardless of the line width. Because of this, since the density of general printed matter is high, when an image is viewed in a picture area or a non-picture area, it can be processed well as a non-picture area regardless of the line width. It is possible to provide an image processing apparatus in which an image does not look unnatural at the boundary portion.

【0179】請求項2記載の発明によれば、膨張手段は
収縮処理を行った後、膨張処理を行うので、孤立点除去
を可能とした上で、請求項1記載の発明と同様の効果を
奏する。
According to the second aspect of the present invention, since the expansion means performs the expansion processing after performing the contraction processing, the isolated point can be removed, and the same effect as that of the first aspect can be obtained. Play.

【0180】請求項3記載の発明によれば、中濃度領域
の検出を万線パターンとのパターンマッチングで行うの
で、万線パターンの複写原稿において中濃度の絵柄領域
を、間違いなく絵柄領域として判定することが可能とな
る。
According to the third aspect of the present invention, since the detection of the medium density area is performed by pattern matching with the line pattern, the medium density pattern area in the copy original of the line pattern is definitely determined as the picture area. It is possible to do.

【0181】請求項4記載の発明によれば、エッジを検
出するエッジ検出手段をさらに備えているので、濃度の
濃い線は線幅によらず文字判定し、中濃度に関して細線
のみを文字判定することが可能となり、濃い文字の処理
が混在しなくなる。これにより、一般原稿は濃度が濃い
く、細線はパターンマッチングから外されるので、細線
のみを文字判定すればよく、処理が容易となる。
According to the fourth aspect of the present invention, since edge detecting means for detecting an edge is further provided, a line having a high density is determined as a character irrespective of the line width, and a character having only a thin line is determined as to a medium density. And processing of dark characters is not mixed. As a result, the density of the general original is high, and the thin line is excluded from the pattern matching. Therefore, only the thin line needs to be subjected to character determination, and the processing is facilitated.

【0182】請求項5記載の発明によれば、請求項1な
いし4のいずれか1項に記載の画像処理装置と、原稿画
像を色分解して読み取って生成した画像データを前記画
像処理装置に入力するカラースキャナとを備えて画像読
み取り装置を構成するので、請求項1ないし4記載の発
明の効果を奏する画像読み取り装置を提供することがで
きる。
According to the fifth aspect of the present invention, the image processing apparatus according to any one of the first to fourth aspects, and the image data generated by reading the original image after color separation is transmitted to the image processing apparatus. Since the image reading apparatus is configured to include the color scanner for inputting, it is possible to provide an image reading apparatus having the effects of the first to fourth aspects.

【0183】請求項6記載の発明によれば、請求項1な
いし4のいずれか1項に記載の画像処理装置と、前記画
像処理装置から出力された画像データに基づいて作像
し、作像された画像を用紙上に形成し、画像出力するカ
ラープリンタとを備えて画像読み取り装置を構成するの
で、請求項1ないし4記載の発明の効果を奏する画像形
成装置を提供することができる。
According to a sixth aspect of the present invention, an image is formed based on the image processing apparatus according to any one of the first to fourth aspects and image data output from the image processing apparatus. Since the image reading apparatus includes a color printer that forms the formed image on a sheet and outputs the image, an image forming apparatus having the effects of the first to fourth aspects of the invention can be provided.

【0184】請求項7記載の発明によれば、請求項1な
いし4のいずれか1項に記載の画像処理装置と、原稿画
像を色分解して読み取って生成した画像データを前記画
像処理装置に入力するカラースキャナと、前記画像処理
装置から出力された画像データに基づいて作像し、作像
された画像を用紙上に形成し、画像出力するカラープリ
ンタとを備えてカラー複写装置を構成するので、請求項
1ないし4記載の発明の効果を奏するカラー複写装置を
提供することができる。
According to the seventh aspect of the present invention, the image processing apparatus according to any one of the first to fourth aspects, and the image data generated by reading the original image by color separation is sent to the image processing apparatus. A color copying apparatus comprises a color scanner for inputting, and a color printer for forming an image based on image data output from the image processing apparatus, forming the formed image on paper, and outputting the image. Therefore, it is possible to provide a color copying apparatus having the effects of the first to fourth aspects of the present invention.

【0185】請求項8記載の発明によれば、外部からの
プリント指示コマンドを解析して前記カラープリンタに
よって外部からの画像情報をプリントアウトさせるプリ
ンタコントローラを更に備えているので、カラー複写機
をネットワークプリンタなどの外部入力のプリンタとし
て使用することができる。
According to the eighth aspect of the present invention, there is further provided a printer controller for analyzing an external print instruction command and printing out external image information by the color printer. It can be used as an external input printer such as a printer.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態に係る画像処理装置を備えたデジタ
ルフルカラー複写機の概略構成図である。
FIG. 1 is a schematic configuration diagram of a digital full-color copying machine including an image processing apparatus according to an embodiment.

【図2】図1に示すデジタルフルカラー複写機の電気シ
ステムの概要を示すブロック図である。
FIG. 2 is a block diagram showing an outline of an electric system of the digital full-color copying machine shown in FIG.

【図3】図2における画像処理ユニット(IPU)の構
成を示すブロック図である。
FIG. 3 is a block diagram illustrating a configuration of an image processing unit (IPU) in FIG. 2;

【図4】図3の原稿認識部の構成を示す機能ブロック図
である。
FIG. 4 is a functional block diagram illustrating a configuration of a document recognition unit in FIG. 3;

【図5】白判定に用いる状態変数MS、SS[I]の更
新の処理手順を示すフローチャートである。
FIG. 5 is a flowchart illustrating a processing procedure for updating state variables MS and SS [I] used for white determination.

【図6】図3における色画素判定部の内容を示す機能ブ
ロック図である。
FIG. 6 is a functional block diagram showing the contents of a color pixel determination unit in FIG. 3;

【図7】図6における連続カウント部におけるカラー原
稿か白黒原稿かを判定する判定処理の処理手順を示すフ
ローチャートである。
FIG. 7 is a flowchart showing a processing procedure of a determination process for determining whether a document is a color document or a monochrome document in the continuous counting unit in FIG.

【図8】600dpiの万線パターンと400dpiの
万線パターンを比較して示す図である。
FIG. 8 is a diagram showing a 600 dpi line pattern compared with a 400 dpi line pattern.

【図9】図4における黒画素連続検出部および白画素連
続検出部で行うパターンマッチングに使用する3×3画
素マトリクスのパターンを示す図である。
FIG. 9 is a diagram showing a pattern of a 3 × 3 pixel matrix used for pattern matching performed by a black pixel continuation detection unit and a white pixel continuation detection unit in FIG. 4;

【図10】図4におけるRGB白地検出部の白背景分離
に使用するパターン例を示す図である。
10 is a diagram illustrating an example of a pattern used for separating a white background by an RGB white background detection unit in FIG. 4;

【図11】図4における色地検出時に使用するパターン
例を示す図である。
FIG. 11 is a diagram showing an example of a pattern used when detecting a color ground in FIG. 4;

【図12】ラインメモリLMPの現ライン(注目ライ
ン)を模式的に示す図である。
FIG. 12 is a diagram schematically showing a current line (line of interest) of the line memory LMP.

【図13】図4における白領域抽出部の処理を説明する
ための領域を示す図である。
FIG. 13 is a diagram showing an area for explaining a process of a white area extracting unit in FIG. 4;

【図14】図4における網点抽出部の第1網点ピーク検
出部の検出処理を説明するための図である。
FIG. 14 is a diagram for describing a detection process of a first halftone peak detection unit of the halftone dot extraction unit in FIG. 4;

【図15】図4における色判定部の処理を説明するため
の図である。
FIG. 15 is a diagram for explaining processing of a color determination unit in FIG. 4;

【図16】図6の色画素判定におけるパターンマッチン
グを説明するための図である。
FIG. 16 is a diagram for explaining pattern matching in color pixel determination in FIG. 6;

【図17】白に囲まれた色線を検出する色細線用パター
ンを示す図である。
FIG. 17 is a diagram showing a color fine line pattern for detecting a color line surrounded by white.

【図18】c,m,yが全て0のところのパターンマッ
チングを行うための白領域パターンを示す図である。
FIG. 18 is a diagram showing a white area pattern for performing pattern matching where c, m, and y are all 0.

【図19】色画素連続数の具体的なデータを示す図であ
る。
FIG. 19 is a diagram showing specific data of the color pixel continuation number.

【図20】カラー複写によるカラー色剤の重なりを模式
的に拡大して示す図である。
FIG. 20 is a diagram schematically showing an enlarged overlap of color coloring materials by color copying.

【図21】図4における白領域抽出部の詳細を示すブロ
ック図である。
FIG. 21 is a block diagram illustrating details of a white region extraction unit in FIG. 4;

【図22】グレー画素を検出するための万線パターンと
のパターンマッチングのパターン例を示す図で、(a)
は200線用のパターンであり、(b)は300線用の
パターンである。
FIG. 22 is a diagram showing an example of pattern matching with a line pattern for detecting a gray pixel;
Is a pattern for 200 lines, and (b) is a pattern for 300 lines.

【図23】図4における網点抽出部の詳細を示すブロッ
ク図である。
FIG. 23 is a block diagram showing details of a halftone dot extraction unit in FIG. 4;

【図24】第3網点ピーク検出部の検出処理を説明する
ための図である。
FIG. 24 is a diagram for describing a detection process of a third halftone dot detection unit.

【図25】図4における総合判定部の処理内容を示す説
明図である。
FIG. 25 is an explanatory diagram showing processing contents of a comprehensive judgment unit in FIG. 4;

【符号の説明】[Explanation of symbols]

10 メインコントローラ 12 スキャナコントローラ 16 プリンタコントローラ 17 FAXコントローラ 18 パラレルI/F 19 LANコントロール 20 通信コントローラ 40 画像処理ユニット(IPU) 200 カラー画像読み取り装置(スキャナ) 300 画像処理ユニット(IPU) 320 原稿認識部 321 フィルタ部 322 エッジ抽出部 323 白領域抽出部 323a 2値化部 323b RGB白抽出部 323b−1 グレー画素検出部 323b−2 色画素検出部 323b−3 RGB白地検出部 323c 白判定部 323d 白パターンマッチング部 323g 白補正部 323h グレーパターンマッチング部 323i グレー膨張部 323j 白パターン補正部 323k 白膨張部 323l 白収縮部 323m 判定部 324 網点抽出部 324a 第1網点ピーク検出部 324b 第2網点ピーク検出部 324c 第3網点ピーク検出部 324d 第1網点領域検出部 324e 第2網点領域検出部 324f 一時メモリ 325 色判定部 326 総合判定 326a 文字判定部 326b 膨張処理部 330 RGBフィルタ 400 カラー画像記録装置(カラープリンタ) DESCRIPTION OF SYMBOLS 10 Main controller 12 Scanner controller 16 Printer controller 17 FAX controller 18 Parallel I / F 19 LAN control 20 Communication controller 40 Image processing unit (IPU) 200 Color image reading device (scanner) 300 Image processing unit (IPU) 320 Document recognition unit 321 Filter section 322 Edge extraction section 323 White area extraction section 323a Binarization section 323b RGB white extraction section 323b-1 Gray pixel detection section 323b-2 Color pixel detection section 323b-3 RGB white background detection section 323c White determination section 323d White pattern matching Unit 323g white correction unit 323h gray pattern matching unit 323i gray expansion unit 323j white pattern correction unit 323k white expansion unit 323l white contraction unit 323m determination unit 3 4 Halftone dot extraction unit 324a First halftone peak detection unit 324b Second halftone peak detection unit 324c Third halftone peak detection unit 324d First halftone region detection unit 324e Second halftone region detection unit 324f Temporary memory 325 colors Judgment unit 326 Overall judgment 326a Character judgment unit 326b Expansion processing unit 330 RGB filter 400 Color image recording device (color printer)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/60 H04N 1/40 D Fターム(参考) 2H030 AD11 BB02 BB24 BB42 BB63 5C077 LL19 MP02 MP05 MP07 PP27 PP32 PP52 PP53 PP55 PP68 PQ17 PQ20 SS01 SS02 TT02 TT06 5C079 HB01 HB03 LA03 LA06 MA04 MA11 NA06 PA02 PA03 5L096 BA17 EA02 FA06 FA14 FA44 GA55 JA03 ────────────────────────────────────────────────── ─── of the front page continued (51) Int.Cl. 7 identification mark FI theme Court Bu (reference) H04N 1/60 H04N 1/40 D F term (reference) 2H030 AD11 BB02 BB24 BB42 BB63 5C077 LL19 MP02 MP05 MP07 PP27 PP32 PP52 PP53 PP55 PP68 PQ17 PQ20 SS01 SS02 TT02 TT06 5C079 HB01 HB03 LA03 LA06 MA04 MA11 NA06 PA02 PA03 5L096 BA17 EA02 FA06 FA14 FA44 GA55 JA03

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 入力された画像データに対して所定の処
理を施して出力する画像処理装置において、 前記画像データが表す画像の中濃度領域を検出する中濃
度検出手段と、 前記中濃度検出手段において検出した画像データを膨張
処理する膨張手段と、 前記膨張手段によって膨張処理した領域を画像の非文字
エッジ領域として判定する非文字エッジ判定手段と、を
備えていることを特徴とする画像処理装置。
1. An image processing apparatus that performs predetermined processing on input image data and outputs the processed image data, wherein: a medium density detection unit that detects a medium density region represented by the image data; An image processing apparatus comprising: an expansion unit that performs expansion processing on the image data detected in step 1; and a non-character edge determination unit that determines a region expanded by the expansion unit as a non-character edge region of the image. .
【請求項2】 前記膨張手段は、収縮処理を行った後、
膨張処理を行うことを特徴とする請求項1記載の画像処
理装置。
2. The method according to claim 1, wherein the expansion unit performs a contraction process.
The image processing apparatus according to claim 1, wherein the expansion processing is performed.
【請求項3】 前記中濃度検出手段は、中濃度領域の検
出を万線パターンとのパターンマッチングで行うことを
特徴する請求項1記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein said medium density detecting means detects the medium density area by pattern matching with a line pattern.
【請求項4】 エッジを検出するエッジ検出手段をさら
に備えていることを特徴とする請求項1記載の画像処理
装置。
4. The image processing apparatus according to claim 1, further comprising edge detection means for detecting an edge.
【請求項5】 請求項1ないし4のいずれか1項に記載
の画像処理装置と、 原稿画像を色分解して読み取って生成した画像データを
前記画像処理装置に入力する読み取り手段と、を備えて
いることを特徴とする画像読み取り装置。
5. An image processing apparatus according to claim 1, further comprising: reading means for inputting, to the image processing apparatus, image data generated by reading a document image by color separation. An image reading apparatus, comprising:
【請求項6】 請求項1ないし4のいずれか1項に記載
の画像処理装置と、 前記画像処理装置から出力された画像データに基づいて
作像し、作像された画像を用紙上に形成し、画像出力す
る画像出力手段と、を備えていることを特徴とする画像
形成装置。
6. An image processing apparatus according to claim 1, wherein an image is formed based on image data output from the image processing apparatus, and the formed image is formed on a sheet. And an image output means for outputting an image.
【請求項7】 請求項1ないし4のいずれか1項に記載
の画像処理装置と、 原稿画像を色分解して読み取って生成した画像データを
前記画像処理装置に入力する読み取り手段と、 前記画像処理装置から出力された画像データに基づいて
作像し、作像された画像を用紙上に形成し、画像出力す
る画像出力手段と、を備えていることを特徴とするカラ
ー複写装置。
7. An image processing apparatus according to claim 1, wherein said image processing apparatus reads color-separated document images and inputs the generated image data to said image processing apparatus. An image output unit that forms an image based on image data output from a processing device, forms the formed image on paper, and outputs the image.
【請求項8】 外部からのプリント指示コマンドを解析
して前記画像出力手段によって外部から入力される画像
情報をプリント出力させる制御手段を更に備えているこ
とを特徴とする請求項7記載のカラー複写装置。
8. A color copying apparatus according to claim 7, further comprising control means for analyzing an external print instruction command and printing out image information input from the outside by said image output means. apparatus.
JP2001157490A 2001-05-25 2001-05-25 Image processor, image reader, image forming device, and color copying machine Pending JP2002354242A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2001157490A JP2002354242A (en) 2001-05-25 2001-05-25 Image processor, image reader, image forming device, and color copying machine
US10/152,627 US7139100B2 (en) 2001-05-25 2002-05-23 Image-processing device processing image data by judging a detected and expanded medium-density field as a non-character edge field
EP02253681A EP1267219A3 (en) 2001-05-25 2002-05-24 Image processing device for processing image data by judging a detected and expanded medium-density field as a non-character edge field
US11/491,966 US7663783B2 (en) 2001-05-25 2006-07-25 Image-processing device processing image data by judging a detected and expanded medium-density field as a non-character edge field

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001157490A JP2002354242A (en) 2001-05-25 2001-05-25 Image processor, image reader, image forming device, and color copying machine

Publications (1)

Publication Number Publication Date
JP2002354242A true JP2002354242A (en) 2002-12-06

Family

ID=19001343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001157490A Pending JP2002354242A (en) 2001-05-25 2001-05-25 Image processor, image reader, image forming device, and color copying machine

Country Status (3)

Country Link
US (2) US7139100B2 (en)
EP (1) EP1267219A3 (en)
JP (1) JP2002354242A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7139100B2 (en) * 2001-05-25 2006-11-21 Ricoh Company, Ltd. Image-processing device processing image data by judging a detected and expanded medium-density field as a non-character edge field
JP2009069312A (en) * 2007-09-11 2009-04-02 Canon Inc Image forming apparatus, image forming method, program, and storage medium
JP2009111645A (en) * 2007-10-29 2009-05-21 Ricoh Co Ltd Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program
JP2010220250A (en) * 2003-07-01 2010-09-30 Xerox Corp Segmentation method and system for multiple raster content (mrc) representation of document

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6676127B2 (en) 1997-03-13 2004-01-13 Shuffle Master, Inc. Collating and sorting apparatus
US6655684B2 (en) 1998-04-15 2003-12-02 Shuffle Master, Inc. Device and method for forming and delivering hands from randomly arranged decks of playing cards
US6254096B1 (en) 1998-04-15 2001-07-03 Shuffle Master, Inc. Device and method for continuously shuffling cards
US8590896B2 (en) 2000-04-12 2013-11-26 Shuffle Master Gmbh & Co Kg Card-handling devices and systems
US6726205B1 (en) * 2000-08-15 2004-04-27 Vendingdata Corporation Inspection of playing cards
JP3983101B2 (en) * 2001-05-25 2007-09-26 株式会社リコー Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus
JP2003051949A (en) * 2001-08-08 2003-02-21 Fujitsu Ltd Image processing method and image output device
US7753373B2 (en) 2001-09-28 2010-07-13 Shuffle Master, Inc. Multiple mode card shuffler and card reading device
US8011661B2 (en) 2001-09-28 2011-09-06 Shuffle Master, Inc. Shuffler with shuffling completion indicator
US8337296B2 (en) 2001-09-28 2012-12-25 SHFL entertaiment, Inc. Method and apparatus for using upstream communication in a card shuffler
US7677565B2 (en) 2001-09-28 2010-03-16 Shuffle Master, Inc Card shuffler with card rank and value reading capability
US8616552B2 (en) 2001-09-28 2013-12-31 Shfl Entertainment, Inc. Methods and apparatuses for an automatic card handling device and communication networks including same
US6886829B2 (en) 2002-02-08 2005-05-03 Vendingdata Corporation Image capturing card shuffler
JP4214459B2 (en) * 2003-02-13 2009-01-28 ソニー株式会社 Signal processing apparatus and method, recording medium, and program
US20060066048A1 (en) 2004-09-14 2006-03-30 Shuffle Master, Inc. Magnetic jam detection in a card shuffler
US7764836B2 (en) 2005-06-13 2010-07-27 Shuffle Master, Inc. Card shuffler with card rank and value reading capability using CMOS sensor
JP4169023B2 (en) * 2005-08-26 2008-10-22 ブラザー工業株式会社 Image processing apparatus and image processing program
US7556266B2 (en) 2006-03-24 2009-07-07 Shuffle Master Gmbh & Co Kg Card shuffler with gravity feed system for playing cards
US8353513B2 (en) 2006-05-31 2013-01-15 Shfl Entertainment, Inc. Card weight for gravity feed input for playing card shuffler
US8342525B2 (en) 2006-07-05 2013-01-01 Shfl Entertainment, Inc. Card shuffler with adjacent card infeed and card output compartments
US8579289B2 (en) 2006-05-31 2013-11-12 Shfl Entertainment, Inc. Automatic system and methods for accurate card handling
US8070574B2 (en) 2007-06-06 2011-12-06 Shuffle Master, Inc. Apparatus, system, method, and computer-readable medium for casino card handling with multiple hand recall feature
US8919775B2 (en) 2006-11-10 2014-12-30 Bally Gaming, Inc. System for billing usage of an automatic card handling device
JP2009130596A (en) * 2007-11-22 2009-06-11 Brother Ind Ltd Image processing device and program
JP4487320B2 (en) * 2008-03-04 2010-06-23 村田機械株式会社 Image processing apparatus, document reading apparatus, and color / monochrome determination method
JP5540553B2 (en) 2008-06-30 2014-07-02 株式会社リコー Image processing apparatus, image forming apparatus, image processing method, and image processing program
US8289573B2 (en) * 2009-01-12 2012-10-16 Xerox Corporation Method for reducing registration defects in color printing
US8330990B2 (en) * 2009-01-12 2012-12-11 Xerox Corporation Method and system for modifying a multi-bit rasterized digital image to reduce registration artifacts
US8967621B2 (en) 2009-04-07 2015-03-03 Bally Gaming, Inc. Card shuffling apparatuses and related methods
US7988152B2 (en) 2009-04-07 2011-08-02 Shuffle Master, Inc. Playing card shuffler
US8800993B2 (en) 2010-10-14 2014-08-12 Shuffle Master Gmbh & Co Kg Card handling systems, devices for use in card handling systems and related methods
JP2012244210A (en) 2011-05-16 2012-12-10 Ricoh Co Ltd Image processing device, method, program, and recording medium
US9731190B2 (en) 2011-07-29 2017-08-15 Bally Gaming, Inc. Method and apparatus for shuffling and handling cards
US8485527B2 (en) 2011-07-29 2013-07-16 Savant Shuffler LLC Card shuffler
US8960674B2 (en) 2012-07-27 2015-02-24 Bally Gaming, Inc. Batch card shuffling apparatuses including multi-card storage compartments, and related methods
KR20140028558A (en) * 2012-08-29 2014-03-10 삼성디스플레이 주식회사 Transparent display apparatus and driving method thereof
US9511274B2 (en) 2012-09-28 2016-12-06 Bally Gaming Inc. Methods for automatically generating a card deck library and master images for a deck of cards, and a related card processing apparatus
US9378766B2 (en) 2012-09-28 2016-06-28 Bally Gaming, Inc. Card recognition system, card handling device, and method for tuning a card handling device
JP5849206B2 (en) 2013-03-27 2016-01-27 パナソニックIpマネジメント株式会社 Image processing apparatus, image processing method, and image processing program
JP5834253B2 (en) 2013-03-27 2015-12-16 パナソニックIpマネジメント株式会社 Image processing apparatus, image processing method, and image processing program
JP5899475B2 (en) 2013-04-05 2016-04-06 パナソニックIpマネジメント株式会社 Image processing apparatus, image processing method, and image processing program
SG10201706403RA (en) 2014-04-11 2017-09-28 Bally Gaming Inc Method and apparatus for shuffling and handling cards
US9474957B2 (en) 2014-05-15 2016-10-25 Bally Gaming, Inc. Playing card handling devices, systems, and methods for verifying sets of cards
JP5990217B2 (en) * 2014-05-21 2016-09-07 キヤノン株式会社 Image processing apparatus, image forming apparatus, and control method thereof
US9566501B2 (en) 2014-08-01 2017-02-14 Bally Gaming, Inc. Hand-forming card shuffling apparatuses including multi-card storage compartments, and related methods
USD764599S1 (en) 2014-08-01 2016-08-23 Bally Gaming, Inc. Card shuffler device
US9504905B2 (en) 2014-09-19 2016-11-29 Bally Gaming, Inc. Card shuffling device and calibration method
JP6045625B2 (en) * 2015-03-20 2016-12-14 株式会社Pfu Image processing apparatus, region detection method, and computer program
US9993719B2 (en) 2015-12-04 2018-06-12 Shuffle Master Gmbh & Co Kg Card handling devices and related assemblies and components
US10933300B2 (en) 2016-09-26 2021-03-02 Shuffle Master Gmbh & Co Kg Card handling devices and related assemblies and components
US10339765B2 (en) 2016-09-26 2019-07-02 Shuffle Master Gmbh & Co Kg Devices, systems, and related methods for real-time monitoring and display of related data for casino gaming devices
US11376489B2 (en) 2018-09-14 2022-07-05 Sg Gaming, Inc. Card-handling devices and related methods, assemblies, and components
US11896891B2 (en) 2018-09-14 2024-02-13 Sg Gaming, Inc. Card-handling devices and related methods, assemblies, and components
US11338194B2 (en) 2018-09-28 2022-05-24 Sg Gaming, Inc. Automatic card shufflers and related methods of automatic jam recovery
US11898837B2 (en) 2019-09-10 2024-02-13 Shuffle Master Gmbh & Co Kg Card-handling devices with defect detection and related methods
US11173383B2 (en) 2019-10-07 2021-11-16 Sg Gaming, Inc. Card-handling devices and related methods, assemblies, and components

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2744619B2 (en) 1988-06-28 1998-04-28 富士通株式会社 Image processing device
JP3337723B2 (en) 1992-11-06 2002-10-21 キヤノン株式会社 Image processing apparatus and image processing method
JPH07220091A (en) * 1994-02-04 1995-08-18 Canon Inc Device and method for image processing
JPH10108012A (en) 1996-10-02 1998-04-24 Ricoh Co Ltd Image area separating device
JP3891654B2 (en) 1997-08-20 2007-03-14 株式会社東芝 Image forming apparatus
EP0967792B1 (en) * 1998-06-26 2011-08-03 Sony Corporation Printer having image correcting capability
JP3558893B2 (en) 1998-10-08 2004-08-25 シャープ株式会社 Image processing apparatus and image processing method
JP3983922B2 (en) * 1999-04-26 2007-09-26 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus, image reading apparatus and image forming apparatus equipped with the same, and image processing method
JP2001205827A (en) 1999-11-19 2001-07-31 Canon Inc Ink-jet recording method, ink-jet recording device, computer readable memory medium, and program
JP2002344242A (en) 2001-05-18 2002-11-29 Nippon Precision Circuits Inc Voltage-controlled oscillator
JP2002354242A (en) * 2001-05-25 2002-12-06 Ricoh Co Ltd Image processor, image reader, image forming device, and color copying machine
JP4954469B2 (en) * 2004-12-20 2012-06-13 株式会社トプコン Appearance inspection method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7139100B2 (en) * 2001-05-25 2006-11-21 Ricoh Company, Ltd. Image-processing device processing image data by judging a detected and expanded medium-density field as a non-character edge field
JP2010220250A (en) * 2003-07-01 2010-09-30 Xerox Corp Segmentation method and system for multiple raster content (mrc) representation of document
JP2009069312A (en) * 2007-09-11 2009-04-02 Canon Inc Image forming apparatus, image forming method, program, and storage medium
JP2009111645A (en) * 2007-10-29 2009-05-21 Ricoh Co Ltd Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program

Also Published As

Publication number Publication date
US7663783B2 (en) 2010-02-16
US7139100B2 (en) 2006-11-21
EP1267219A3 (en) 2005-06-22
EP1267219A2 (en) 2002-12-18
US20030048476A1 (en) 2003-03-13
US20060256383A1 (en) 2006-11-16

Similar Documents

Publication Publication Date Title
JP3983101B2 (en) Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus
JP2002354242A (en) Image processor, image reader, image forming device, and color copying machine
US6965695B2 (en) Method and system for processing character edge area data
JP4010434B2 (en) Image processing, forming and color copying equipment
JP4380696B2 (en) Image processing device
JP2007215204A (en) Image processing apparatus
JP4063480B2 (en) Image processing device
JP2004153563A (en) Image processing device, image readout device, image forming device and color copying device
JP4833893B2 (en) Image processing apparatus, image processing method, image reading apparatus, image forming apparatus, copying apparatus, program, and computer-readable recording medium
JP2007006526A (en) Image processor, low-linear-density dot region detecting unit, image scanner, image forming apparatus and color copier
JP2005051353A (en) Image processor, image reader, image forming apparatus, computer program, and recording medium
JP2006005680A (en) Image processor, image scanner, image forming apparatus, and color copying machine
JP2004104625A (en) Image processing, reading and forming device and color copying machine
JP2003259115A (en) Image processor, image reader, image forming device, and color copying machine
JP4133674B2 (en) Image processing apparatus, image reading apparatus, and color copying apparatus
JP2006014094A (en) Image processor, image reader, image forming device, color copier, image processing program, and recording medium
JP3982669B2 (en) Image processing device
JP4695472B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and storage medium
JP4379873B2 (en) Image processing apparatus, storage medium, image reading apparatus, and image forming apparatus
JP2009111645A (en) Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program
JP2004112725A (en) Image processing apparatus, image reading apparatus, image forming apparatus, and copying machine
JP4320309B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the program
JPH0541796A (en) Copying machine
JP2004112355A (en) Image processing apparatus
JPH09130596A (en) Image processing unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080507