JP2013246396A - Image forming apparatus, image forming method, program, and recording medium - Google Patents
Image forming apparatus, image forming method, program, and recording medium Download PDFInfo
- Publication number
- JP2013246396A JP2013246396A JP2012122010A JP2012122010A JP2013246396A JP 2013246396 A JP2013246396 A JP 2013246396A JP 2012122010 A JP2012122010 A JP 2012122010A JP 2012122010 A JP2012122010 A JP 2012122010A JP 2013246396 A JP2013246396 A JP 2013246396A
- Authority
- JP
- Japan
- Prior art keywords
- color
- image
- toner
- hue
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Color Electrophotography (AREA)
Abstract
Description
本発明は、有色トナーと透明トナーを用いて画像を形成する画像形成装置、画像形成方法、プログラムおよび記録媒体に関する。 The present invention relates to an image forming apparatus, an image forming method, a program, and a recording medium that form an image using colored toner and transparent toner.
従来、無色トナー(透明トナー、クリアトナー)を付着することにより、印刷物の光沢度を変更する技術がある。例えば、特許文献1では、入力された画像信号の色に応じて、透明トナーの付着量(現像量)を調整している。 Conventionally, there is a technique for changing the glossiness of a printed matter by attaching colorless toner (transparent toner, clear toner). For example, in Patent Document 1, the amount (development amount) of the transparent toner is adjusted according to the color of the input image signal.
しかし、上記したような従来の技術では、透明トナーの付着量を、入力画像信号の色味に応じて決定しているため、原稿表面の滑らかさが異なっていても、原稿の同じ色味に対する透明トナーの付着量が同一であるので、透明トナーの付着量を変えることにより光沢を変えることができない。 However, in the conventional techniques as described above, the amount of the transparent toner attached is determined according to the color of the input image signal. Since the adhesion amount of the transparent toner is the same, the gloss cannot be changed by changing the adhesion amount of the transparent toner.
また、上記技術を適応した印刷物においては、有色トナーの量が同一であっても、有色トナーの上に重ねる無色トナーの付着量により、色再現性が低下するという問題もある。 In addition, in the printed matter to which the above technique is applied, there is a problem that even if the amount of the colored toner is the same, the color reproducibility is lowered due to the amount of the colorless toner deposited on the colored toner.
本発明は上記した課題に鑑みてなされたもので、
本発明の目的は、透明トナーの付着量を変えることにより光沢を変える場合に、透明トナーの付着量の変化によって色再現性を低下させない画像形成装置、画像形成方法、プログラムおよび記録媒体を提供することにある。
The present invention has been made in view of the above problems,
An object of the present invention is to provide an image forming apparatus, an image forming method, a program, and a recording medium that do not deteriorate color reproducibility due to a change in the adhesion amount of the transparent toner when the gloss is changed by changing the adhesion amount of the transparent toner. There is.
本発明は、原稿を読み取った画像データに基づいて、所定媒体上に有色トナーと透明トナーを用いて出力画像を形成する画像形成装置であって、前記画像データの画素毎に光沢を付加するか否かを判定する判定手段と、前記光沢を付加すると判定した画素に対して、透明トナーによる光沢付加量と前記光沢付加量に応じた有色トナーの付着量を決定する決定手段を備えたことを最も主要な特徴とする。 The present invention is an image forming apparatus that forms an output image on a predetermined medium using colored toner and transparent toner based on image data obtained by reading a document, and adds gloss to each pixel of the image data. Determining means for determining whether or not to add the gloss to the pixel determined to add gloss, and a determination means for determining the amount of color toner attached according to the gloss addition amount based on the gloss addition amount. The most important feature.
本発明によれば、透明トナーの付着量が異なることによる色再現性の低下を防止することができる。 According to the present invention, it is possible to prevent a decrease in color reproducibility due to a difference in the amount of transparent toner attached.
以下、発明の実施の形態について図面により詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
以下、本発明を画像形成装置である電子写真複写機(以下、単に複写機と言う)に適用した実施例を説明する。図1は、複写機全体の構成を示す。 An embodiment in which the present invention is applied to an electrophotographic copying machine (hereinafter simply referred to as a copying machine) as an image forming apparatus will be described below. FIG. 1 shows the configuration of the entire copying machine.
図1において、複写機本体101の中央部に5つ並んで配置された、像担持体としてのφ30[mm]の有機感光体(OPC)ドラム102a〜eの周囲には、感光体ドラム102a〜eの表面を帯電する帯電チャージャー103a〜e、一様帯電された感光体ドラム102a〜eの表面上に半導体レーザ光を照射して静電潜像を形成するレーザ光学系104a〜e、静電潜像に各色トナーを供給して現像し、色毎にトナー像を得る、透明トナーT現像装置105a、黒現像装置105b、イエローY、マゼンタM,シアンCの3つのカラー現像装置105c、105d、105e、感光体ドラム102a〜e上に形成された色毎のトナー像を順次転写する中間転写ベルト109、中間転写ベルト109に転写電圧を印加するバイアスローラ110a〜e、転写後の感光体ドラム102の表面に残留するトナーを除去するクリーニング装置111a〜e、転写後の感光体ドラム102a〜eの表面に残留する電荷を除去する除電部などが順次配列されている。 In FIG. 1, around the organic photosensitive member (OPC) drums 102a-102 having a diameter of 30 [mm], which are arranged side by side at the center of the copying machine main body 101, are arranged as photosensitive drums 102a-102. electrification chargers 103a to 103e for charging the surface of e, laser optical systems 104a to 104e for irradiating semiconductor laser light onto the surfaces of the uniformly charged photoreceptor drums 102a to 102e to form an electrostatic latent image, electrostatic Three color developing devices 105c, 105d of transparent toner T developing device 105a, black developing device 105b, yellow Y, magenta M, and cyan C are obtained by supplying each color toner to the latent image and developing the toner image for each color. 105e, an intermediate transfer belt 109 that sequentially transfers toner images for each color formed on the photosensitive drums 102a to 102e, and a bias roller that applies a transfer voltage to the intermediate transfer belt 109 10a to 10e, cleaning devices 111a to 111e for removing the toner remaining on the surface of the photosensitive drum 102 after transfer, and a charge eliminating unit for removing charges remaining on the surface of the photosensitive drum 102a to 102e after transfer Has been.
また、中間転写ベルト109には、転写されたトナー像を転写材に転写する電圧を印加するための転写バイアスローラ、転写材に転写後に残留したトナー像をクリーニングするためのベルトクリーニング装置が配設されている。 Further, the intermediate transfer belt 109 is provided with a transfer bias roller for applying a voltage for transferring the transferred toner image to the transfer material, and a belt cleaning device for cleaning the toner image remaining on the transfer material after transfer. Has been.
中間転写ベルト109から剥離された転写材を搬送する搬送ベルトの出口側端部には、トナー像を加熱、加圧して定着させる定着装置116が配置されているとともに、この定着装置116の出口部には、排紙トレイ117が取り付けられている。 A fixing device 116 that heats and pressurizes and fixes the toner image is disposed at an end portion on the exit side of the conveyance belt that conveys the transfer material peeled off from the intermediate transfer belt 109, and an exit portion of the fixing device 116. A paper discharge tray 117 is attached.
レーザ光学系104の上部には、複写機本体101の上部に配置された原稿載置台としてのコンタクトガラス、このコンタクトガラス上の原稿に走査光を照射する露光ランプ、原稿からの反射光を反射ミラーによって結像レンズに導き、光電変換素子であるCCDのイメージセンサアレイに入光させる。CCDのイメージセンサアレイで電気信号に変換された画像信号は図示しない画像処理装置を経て、レーザ光学系104中の半導体レーザのレーザ発振を制御する。 The upper part of the laser optical system 104 has a contact glass as an original placement table arranged on the upper part of the copying machine main body 101, an exposure lamp for irradiating the original on the contact glass with scanning light, and a reflection mirror for reflecting light from the original. Then, the light is guided to an imaging lens and is incident on a CCD image sensor array which is a photoelectric conversion element. An image signal converted into an electrical signal by the CCD image sensor array passes through an image processing device (not shown) and controls laser oscillation of the semiconductor laser in the laser optical system 104.
次に、上記複写機に内蔵される制御系を説明する。図2に示すように、制御系は、メイン制御部(CPU)130を備え、このメイン制御部130に対して所定のRAM131、ROM132が付設されているとともに、メイン制御部130には、インターフェースI/O133を介してレーザ光学系制御部134、電源回路135、YMCK各作像部に設置された光学センサー136、YMCK各現像器内に設置されたトナー濃度センサー137、環境センサー138、感光体表面電位センサー139a〜e、トナー補給回路140、中間転写ベルト駆動部141、操作部142がそれぞれ接続されている。 Next, a control system built in the copying machine will be described. As shown in FIG. 2, the control system includes a main control unit (CPU) 130, a predetermined RAM 131 and ROM 132 are attached to the main control unit 130, and the main control unit 130 has an interface I. / O 133 through the laser optical system control unit 134, the power supply circuit 135, the optical sensor 136 installed in each image forming unit of YMCK, the toner density sensor 137 installed in each developing unit of YMCK, the environment sensor 138, the surface of the photoreceptor The potential sensors 139a to 139e, the toner supply circuit 140, the intermediate transfer belt driving unit 141, and the operation unit 142 are connected to each other.
レーザ光学系制御部134は、レーザ光学系104a〜dのレーザ出力を調整するものであり、また電源回路135は、帯電チャージャー113a〜eに対して所定の帯電用放電電圧を与えると共に、現像装置105a〜eに対して所定電圧の現像バイアスを与え、かつバイアスローラ110a〜eおよび転写バイアスローラに対して所定の転写電圧を与えるものである。 The laser optical system control unit 134 adjusts the laser output of the laser optical systems 104a to 104d, and the power supply circuit 135 supplies a predetermined discharge voltage for charging to the charging chargers 113a to 113e and a developing device. A development bias having a predetermined voltage is applied to 105a to 105e, and a predetermined transfer voltage is applied to the bias rollers 110a to 110e and the transfer bias roller.
なお、光学センサー136は、それぞれ感光体102a〜eに対向させ、感光体102a〜e上のトナー付着量を検知するための光学センサー136a、転写ベルト109に対向させ、転写ベルト109上のトナー付着量を検知するための光学センサー136b、搬送ベルトに対向させ、搬送ベルト上のトナー付着量を検知するための光学センサー136cを図示した。なお、実用上は光学センサー136a〜cのいずれか1カ所で検知すれば良い。 The optical sensor 136 is opposed to the photoconductors 102a to 102e, respectively, and is opposed to the optical sensor 136a and the transfer belt 109 for detecting the toner adhesion amount on the photoconductors 102a to 102e. An optical sensor 136b for detecting the amount and an optical sensor 136c for detecting the amount of toner adhering to the conveyance belt while facing the conveyance belt are illustrated. In practice, detection may be performed at any one of the optical sensors 136a to 136c.
光学センサー136(a〜c)は、感光体ドラム102a〜eの転写後の領域に近接配置される発光ダイオードなどの発光素子とフォトセンサーなどの受光素子とからなり、感光体ドラム102上に形成される検知パターン潜像のトナー像におけるトナー付着量、および地肌部におけるトナー付着量が色毎にそれぞれ検知されるとともに、感光体除電後のいわゆる残留電位が検知されるようになっている。 The optical sensors 136 (a to c) include a light emitting element such as a light emitting diode and a light receiving element such as a photo sensor that are disposed in proximity to the areas after transfer of the photosensitive drums 102 a to 102 e, and are formed on the photosensitive drum 102. The toner adhesion amount in the toner image of the detection pattern latent image and the toner adhesion amount in the background portion are detected for each color, and the so-called residual potential after the charge elimination on the photosensitive member is detected.
この光電センサー136(a〜c)からの検知出力信号は、図示しない光電センサー制御部に印加されている。光電センサー制御部は、検知パターントナー像におけるトナー付着量と地肌部におけるトナー付着量との比率を求め、その比率値を基準値と比較して画像濃度の変動を検知し、YMCK各色のトナー濃度センサー137の制御値の補正を行なっている。 Detection output signals from the photoelectric sensors 136 (a to c) are applied to a photoelectric sensor control unit (not shown). The photoelectric sensor control unit obtains a ratio between the toner adhesion amount in the detection pattern toner image and the toner adhesion amount in the background portion, compares the ratio value with a reference value, detects a change in image density, and detects the toner density of each color of YMCK. The control value of the sensor 137 is corrected.
更に、トナー濃度センサー137は、現像装置105a〜e内に存在する現像剤の透磁率変化に基づいてトナー濃度を検知する。トナー濃度センサー137は、検知されたトナー濃度値と基準値と比較し、トナー濃度が一定値を下回ってトナー不足状態になった場合に、その不足分に対応した大きさのトナー補給信号をトナー補給回路140に印加する機能を備えている。 Further, the toner concentration sensor 137 detects the toner concentration based on a change in magnetic permeability of the developer present in the developing devices 105a to 105e. The toner density sensor 137 compares the detected toner density value with a reference value, and when the toner density falls below a certain value and becomes a toner shortage state, a toner replenishment signal having a magnitude corresponding to the shortage is supplied to the toner. A function of applying to the supply circuit 140 is provided.
電位センサー139は、像担持体である感光体102a〜eのそれぞれの表面電位を検知し、中間転写ベルト駆動部141は、中間転写ベルトの駆動を制御する。 The potential sensor 139 detects the surface potential of each of the photoconductors 102a to 102e, which are image carriers, and the intermediate transfer belt driving unit 141 controls the driving of the intermediate transfer belt.
黒現像器105b内に黒トナーとキャリアを含む現像剤が収容されていて、これが現像剤撹拌部材の回転によって撹拌され、現像スリーブ上で、現像剤規制部材によってスリーブ上に汲み上げられる現像剤量を調整する。この供給された現像剤は、現像スリーブ上に磁気的に担持されつつ、磁気ブラシとして現像スリーブの回転方向に回転する。 A developer containing black toner and a carrier is accommodated in the black developing device 105b. The developer is agitated by the rotation of the developer agitating member, and the amount of the developer pumped up on the sleeve by the developer regulating member on the developing sleeve is reduced. adjust. The supplied developer is magnetically carried on the developing sleeve and rotates as a magnetic brush in the rotation direction of the developing sleeve.
図3は、本発明の画像処理部の全体構成を示す。図3において、400aはCCDを読み取りデバイスとして使用するスキャナ、400bはCIS(Contact Image Sensor)を読み取りデバイスとして使用するスキャナ、401aはスキャナ(CCD)400a用のシェーディング補正回路、401bはスキャナ(CIS)400b用のシェーディング補正回路、430はスキャナ(CCD)400a用のFL補正処理回路、431はスキャナ(CIS)400b用のチップ間画素補間回路、432はメモリコントローラ(1)、433は画像メモリ、402はスキャナγ変換回路、403は像域分離・ACS判定(1)回路、404は空間フィルタ(1)回路、405は自動濃度調整(ADS:Auto Density Selection)レベル検出・除去回路、406は色相判定(1)回路、407は色補正UCR処理(1)回路、408は変倍処理(1)回路、409はγ変換(2)回路、410は階調処理(1)回路、411は編集処理(1)回路、412はMutilayer BUS、413はパターン生成(2)回路、414はγ変換(3)回路、415はプリンタである。 FIG. 3 shows the overall configuration of the image processing unit of the present invention. 3, 400a is a scanner that uses a CCD as a reading device, 400b is a scanner that uses a CIS (Contact Image Sensor) as a reading device, 401a is a shading correction circuit for the scanner (CCD) 400a, and 401b is a scanner (CIS). 400b shading correction circuit, 430 an FL correction processing circuit for the scanner (CCD) 400a, 431 an inter-chip pixel interpolation circuit for the scanner (CIS) 400b, 432 a memory controller (1), 433 an image memory, 402 Is a scanner γ conversion circuit, 403 is an image area separation / ACS determination (1) circuit, 404 is a spatial filter (1) circuit, 405 is an automatic density adjustment (ADS) level detection / removal circuit, 406 is a hue determination (1) circuit, 407 is a color correction UCR processing (1) circuit, 408 is a scaling process (1) circuit, 409 is a γ conversion (2) circuit, 410 is a gradation processing (1) circuit, 411 Is an editing process (1) circuit, 412 is a Multilayer BUS, 413 is a pattern generation (2) circuit, 414 is a γ conversion (3) circuit, and 415 is a printer.
また、439は像域分離・ACS判定(2)回路、425はグレー/RGB変換回路、426はRGB合成回路、427は内部パターン発生回路、428は空間フィルタ(2)回路、429はADS除去回路、430は色相判定処理(2)回路、431は色補正・UCR処理(2)回路、432はパターン発生(1)回路、433は変倍処理(2)回路、434は総量規制回路、422は特徴量抽出回路、423はγ変換(2)回路、424は階調処理(2)回路、435は編集(2)回路、416は圧縮・伸張回路、418はHDDI/F、419はHDD(Hard Disk)、420は回転処理回路、421は外部インターフェースI/F、436はメモリコントローラ(2)回路、437はメインメモリ、438はCPUである。 439 is an image area separation / ACS determination (2) circuit, 425 is a gray / RGB conversion circuit, 426 is an RGB synthesis circuit, 427 is an internal pattern generation circuit, 428 is a spatial filter (2) circuit, and 429 is an ADS removal circuit. 430 is a hue determination processing (2) circuit, 431 is a color correction / UCR processing (2) circuit, 432 is a pattern generation (1) circuit, 433 is a scaling process (2) circuit, 434 is a total amount regulation circuit, and 422 is Feature extraction circuit 423 γ conversion (2) circuit 424 gradation processing (2) circuit 435 editing (2) circuit 416 compression / decompression circuit 418 HDD I / F 419 HDD (Hard Disk), 420 is a rotation processing circuit, 421 is an external interface I / F, 436 is a memory controller (2) circuit, 437 is a main memory, and 438 is a CPU.
複写すべき原稿は、両面同時読み取りをユーザーに指定された場合には、原稿の一方を表面として、カラースキャナ(CCD)400aによりR、G、Bに色分解されて一例として10ビット信号で読み取られ、原稿の表面と反対側を裏面として、カラースキャナ(CIS)により一回の搬送により、原稿の両面が同時に読み取られる。 When the user designates double-sided simultaneous reading, the original to be copied is separated into R, G, and B by a color scanner (CCD) 400a with one side of the original as the front and is read as a 10-bit signal as an example. Then, both sides of the document are simultaneously read by a single conveyance by the color scanner (CIS) with the opposite side of the document as the back side.
スキャナ(CCD)400aで読みとられた画像信号は、シェーディング補正回路401aにより、主走査方向のムラが補正され、8ビット信号で出力される。スキャナ(CIS)400bで読み取られた画像信号は、同様にシェーディング補正回路401bにより、主走査方向のムラが補正され、8ビット信号で出力される。FL補正処理回路430では、主走査方向に並べた2組のCCDの感度差(階調性の差)を補正する。チップ間画素補間回路431は、主走査方向に並べられたCISデバイスのチップ間の間隙の画像データを、両隣の画素から補間する。 The image signal read by the scanner (CCD) 400a is corrected for unevenness in the main scanning direction by the shading correction circuit 401a and output as an 8-bit signal. Similarly, the image signal read by the scanner (CIS) 400b is corrected for unevenness in the main scanning direction by the shading correction circuit 401b and output as an 8-bit signal. The FL correction processing circuit 430 corrects a sensitivity difference (tone difference) between two sets of CCDs arranged in the main scanning direction. The inter-chip pixel interpolation circuit 431 interpolates the image data of the gap between the chips of the CIS device arranged in the main scanning direction from the adjacent pixels.
メモリコントローラ432は、スキャナ(CCD)400aで読み取られ、シェーディング補正回路401a、FL補正回路430の処理後の画像データ1、あるいは、スキャナ(CIS)400bで読み取られ、シェーディング補正回路401b、チップ間画素補間回路431で処理された画像データ2を、一時的に、DDRメモリを使用した画像メモリ433に記憶させておくためのDDRメモリコントローラである。 The memory controller 432 is read by the scanner (CCD) 400a and is read by the image data 1 after processing by the shading correction circuit 401a and the FL correction circuit 430 or by the scanner (CIS) 400b, and the shading correction circuit 401b and the inter-chip pixel are read. This is a DDR memory controller for temporarily storing image data 2 processed by the interpolation circuit 431 in an image memory 433 using a DDR memory.
像域分離・ACS(1)回路403は、画像データ(信号R、G、B)の画素毎に、文字領域、写真領域などの像域分離判定結果(信号X)、カラー原稿であるか、白黒原稿であるかのカラー判定結果ACS Result、光沢付加量Tを出力する。 The image area separation / ACS (1) circuit 403 is, for each pixel of the image data (signals R, G, B), an image area separation determination result (signal X) such as a character area, a photographic area, or a color original. A color determination result ACS Result and gloss addition amount T as to whether the document is a black and white document are output.
図4(a)は、像域分離・ACS(1)回路403の構成を示す。図4(a)において、501は、入力画像I/F(インターフェース)であり、503〜505の処理に応じて、画像データ(信号R,G,B)の論理反転を行う。502は遅延調整メモリ部であり、503〜505の処理に応じて、画像データと各種の出力結果を遅延させて出力する。503aは像域分離部であり、入力画像の各画素について、文字・非文字、有彩・無彩、網点・非網点、低濃度網点などの判定を行い、像域分離結果Xとして出力する。504aは光沢付加部であり、画像データと像域分離結果Xに基づいて画像データの各画素に付加する透明トナーによる光沢付加量T(透明トナーの付着量)を決定する。505はACS(自動カラー選択)部であり、画像データが白黒原稿であるか、カラー原稿であるかを判定し、判定結果ACS Resultを出力する。506は出力画像I/Fであり、入力画像I/F501により論理反転した画像データに対して、論理判定を行い、像域分離・ACS(1)処理回路403に入力した画像データと白黒の論理(白が0であるか、黒が0であるか)を一致させる処理を行う。 FIG. 4A shows the configuration of the image area separation / ACS (1) circuit 403. 4A, reference numeral 501 denotes an input image I / F (interface), which performs logical inversion of image data (signals R, G, B) in accordance with the processing of 503 to 505. Reference numeral 502 denotes a delay adjustment memory unit that delays and outputs image data and various output results in accordance with the processing of 503 to 505. Reference numeral 503a denotes an image area separation unit that performs character / non-character, chromatic / achromatic, halftone / non-halftone, low density halftone, etc. for each pixel of the input image, Output. Reference numeral 504a denotes a gloss adding unit, which determines a gloss addition amount T (transparent toner adhesion amount) based on the transparent toner added to each pixel of the image data based on the image data and the image area separation result X. An ACS (automatic color selection) unit 505 determines whether the image data is a monochrome document or a color document, and outputs a determination result ACS Result. Reference numeral 506 denotes an output image I / F. The image data logically inverted by the input image I / F 501 is subjected to logical determination, and the image data input to the image area separation / ACS (1) processing circuit 403 is combined with the monochrome logic. A process of matching (whether white is 0 or black is 0) is performed.
図4(b)は、像域分離・ACS(2)回路439の構成を示す。図4(a)に示す像域分離・ACS(1)回路から、像域分離結果Xと、光沢付加量Tが出力されている場合には、像域分離・ACS(2)回路439では、そのX、Tを、それぞれ入力信号Xin、信号Tinとして、加工することなく、出力信号X(=Xin)、出力信号T(=Tin)として出力する。そのため、像域分離部503b、光沢付加部504bは、それぞれ入力する信号Xin、信号Tinを加工せずに信号X(=Xin)、信号T(=Tin)として出力する要求に対応する。 FIG. 4B shows the configuration of the image area separation / ACS (2) circuit 439. When the image area separation result X and the gloss addition amount T are output from the image area separation / ACS (1) circuit shown in FIG. 4A, the image area separation / ACS (2) circuit 439 The X and T are output as an input signal Xin and a signal Tin, respectively, as an output signal X (= Xin) and an output signal T (= Tin) without being processed. For this reason, the image area separation unit 503b and the gloss adding unit 504b respond to requests to output the input signals Xin and Tin as signals X (= Xin) and T (= Tin) without processing them.
一方、外部のコンピュータから入力される印刷データなど、像域分離信号Xin、光沢付加量信号Tinが付加されていない画像データに対しては、それぞれ像域分離部503b、光沢付加部504bが、ユーザーからの生成要求に対応する。 On the other hand, for image data to which the image area separation signal Xin and the gloss addition signal Tin are not added, such as print data input from an external computer, the image area separation unit 503b and the gloss addition unit 504b respectively This corresponds to the generation request from.
図5は、像域分離部503a、503bの構成を示す。図5において、511はMTF補正部、512はエッジ分離部、513は白背景分離部、514は網点分離部、515は色判定部、516はパターン検出部、517は総合判定部、518は像域分離結果パッキング部である。 FIG. 5 shows the configuration of the image area separation units 503a and 503b. In FIG. 5, 511 is an MTF correction unit, 512 is an edge separation unit, 513 is a white background separation unit, 514 is a halftone separation unit, 515 is a color determination unit, 516 is a pattern detection unit, 517 is an overall determination unit, and 518 is It is an image area separation result packing unit.
MTF補正部511は、エッジや白地を検出するために、画像データをエッジ強調し、MTF特性の劣化を補正する。エッジ分離部512は、白画素、黒画素の連続性から、文字と写真(高線数網点なども含む)を分離する。網点分離部514は、画像データのピークの有無により網点を分離する。白背景分離部513は、白画素が周囲に存在するか否かに基づいて、白背景画素を判定する。色判定部515は、RGB信号の差の大小により、無彩色か有彩色の画素であるかを判定する。総合判定部517は、文字エッジ内部を調べて、絵柄の線を非文字と判定する。 The MTF correction unit 511 performs edge enhancement on the image data in order to detect an edge or a white background, and corrects the deterioration of the MTF characteristic. The edge separation unit 512 separates characters and photographs (including high line number halftone dots) from the continuity of white pixels and black pixels. The halftone dot separation unit 514 separates halftone dots based on the presence or absence of peaks in the image data. The white background separation unit 513 determines the white background pixel based on whether or not the white pixel exists in the surrounding area. The color determination unit 515 determines whether the pixel is an achromatic color or a chromatic color based on the difference in RGB signal. The comprehensive determination unit 517 determines the pattern line as a non-character by examining the inside of the character edge.
パターン検出部516は、地肌上の所定パターンを検出し、パターン検出結果を出力する。像域分離結果パッキング部518は、MTF補正部511〜パターン検出部516の判定結果を、対応した所定ビットに反映して、後段の像域分離判定結果Xとして出力する。 The pattern detection unit 516 detects a predetermined pattern on the background and outputs a pattern detection result. The image area separation result packing unit 518 reflects the determination results of the MTF correction unit 511 to the pattern detection unit 516 in the corresponding predetermined bits and outputs them as the subsequent image area separation determination result X.
図6は、光沢付加部504の処理フローチャートを示す。ステップS101において、画像データを読み出し、ステップS102において、読み出した画像データ中の注目画素と周辺画素の画素データについて、像域分離部503aの像域分離結果Xを取得する。ステップS103において、像域分離結果Xが、地肌判定画素である場合には(Yes)、ステップS104において、所定の地肌濃度閾値と比較する。地肌濃度閾値よりも明るい(すなわち、画像濃度が低い)画素データである場合には(Yes)、ステップS112において、光沢付加画素[タイプ1]と判定し、ステップS113において、光沢付加量T[タイプ1]を取得する。 FIG. 6 shows a processing flowchart of the gloss adding unit 504. In step S101, image data is read out, and in step S102, the image area separation result X of the image area separation unit 503a is acquired for the pixel data of the target pixel and the peripheral pixels in the read image data. If the image area separation result X is a background determination pixel in step S103 (Yes), it is compared with a predetermined background density threshold in step S104. When the pixel data is brighter than the background density threshold (that is, the image density is low) (Yes), it is determined in step S112 that the pixel is a gloss added pixel [type 1]. In step S113, the gloss added amount T [type 1].
ステップS104において、地肌判定画素が所定の地肌濃度閾値よりも暗い(画像濃度が高い)場合には(No)、ステップS114において、光沢付加画素[タイプ2]と判定し、ステップS115において、光沢付加量T[タイプ2]を取得する。 If the background determination pixel is darker (the image density is higher) than the predetermined background density threshold value in step S104 (No), it is determined in step S114 as a glossy addition pixel [type 2], and in step S115, gloss addition is performed. The quantity T [type 2] is acquired.
ステップS105において、像域分離部503aの像域分離結果Xが、網点判定画素である場合には(Yes)、ステップS106において、所定の地肌濃度閾値と比較する。所定の地肌濃度閾値よりも画像濃度が低い(明るい)場合には(Yes)、ステップS116において、光沢付加画素[タイプ3]と判定し、ステップS117において、光沢付加量T[タイプ3]を求める。 If the image area separation result X of the image area separation unit 503a is a halftone dot determination pixel in step S105 (Yes), it is compared with a predetermined background density threshold value in step S106. When the image density is lower (brighter) than the predetermined background density threshold (Yes), it is determined in step S116 that it is a gloss added pixel [type 3], and in step S117, the gloss added amount T [type 3] is obtained. .
ステップS107において、像域分離部503aの像域分離結果Xが、文字判定画素である場合には(Yes)、ステップS108において、所定の地肌濃度閾値と比較する。所定の地肌濃度閾値よりも画像濃度が低い(明るい)場合には(Yes)、ステップS112以降の処理を行う。所定の地肌濃度閾値よりも画像濃度が高い(暗い)場合には(No)、ステップS109において、所定の文字画素濃度閾値と比較し、文字画素濃度閾値よりも画像濃度が低い(明るい)場合には(Yes)、ステップS118において、光沢付加画素[タイプ4]と判定し、ステップS119において、光沢付加量T[タイプ4]を取得する。所定の文字画素濃度閾値よりも画像濃度が高い(暗い)場合には(No)、ステップS120において、光沢付加しない画素と判定し、ステップS121において、光沢付加量Tを0にする。 If the image area separation result X of the image area separation unit 503a is a character determination pixel in step S107 (Yes), it is compared with a predetermined background density threshold value in step S108. When the image density is lower (brighter) than the predetermined background density threshold (Yes), the processes after step S112 are performed. When the image density is higher (darker) than the predetermined background density threshold (No), in step S109, the image density is lower (brighter) than the character pixel density threshold compared with the predetermined character pixel density threshold. (Yes), in step S118, it is determined that the pixel is a gloss added pixel [type 4], and in step S119, the gloss added amount T [type 4] is acquired. If the image density is higher (darker) than the predetermined character pixel density threshold (No), it is determined in step S120 that the pixel is not glossy added, and the gloss addition amount T is set to 0 in step S121.
ステップS107において、像域分離部503aの像域分離結果Xが、文字判定画素でない場合には(No)、ステップS110において、所定の地肌濃度閾値と比較する。所定の地肌濃度閾値よりも画像濃度が低い(明るい)場合には(Yes)、ステップS112以降の処理を行う。 In step S107, when the image area separation result X of the image area separation unit 503a is not a character determination pixel (No), it is compared with a predetermined background density threshold value in step S110. When the image density is lower (brighter) than the predetermined background density threshold (Yes), the processes after step S112 are performed.
ステップS110において、所定の地肌濃度閾値よりも画像濃度が高い(暗い)場合には(No)、ステップS111において、所定の写真画素濃度閾値と比較し、所定の写真画素濃度閾値よりも濃度が低い(明るい)場合には(Yes)、ステップS118以降の処理を行う。ステップS111において、所定の写真画素濃度閾値よりも濃度が高い(暗い)場合には(No)、ステップS120以降の処理を実行する。 In step S110, if the image density is higher (darker) than the predetermined background density threshold (No), in step S111, the density is lower than the predetermined photographic pixel density threshold compared with the predetermined photographic pixel density threshold. If it is bright (Yes), the processing from step S118 is performed. In step S111, if the density is higher (darker) than the predetermined photographic pixel density threshold (No), the processes in and after step S120 are executed.
図7は、光沢付加部が実行する、光沢付加量T[タイプ1]の処理フローチャートを示す。ステップS201において、注目画素(x0,y0)が、地肌データ、もしくは地肌に近い明るさの画像データである場合には、ステップS202以降の処理を実行し、地肌データでない画素の場合には、透明トナーを使用しない。 FIG. 7 shows a processing flowchart of the gloss addition amount T [type 1] executed by the gloss adding unit. In step S201, when the target pixel (x0, y0) is background data or image data with brightness close to the background, the processing from step S202 is executed. Do not use toner.
注目画素(x0,y0)が、地肌データもしくは地肌に近い明るさの画像データであると判定する方法を、以下説明する。注目画素(x0,y0)の画像データS(x0,y0)が、信号(R(x0,y0)、G(x0,y0)、B(x0,y0))からなるとする。すなわち、
S(x0,y0)=(R(x0,y0)、G(x0,y0)、B(x0,y0))であるとする。S(x0,y0)が反射率に比例するか、もしくは、明度に比例する場合は、値が大きいほど“明るい”ので、地肌データは、地肌判定閾値Sgth=(Rgth,Ggth,Bght)と比較して、
S(x0,y0)≧Sgth、またはR(x0,y0)≧Rgth,かつ、G(x0,y0)≧Ggth、かつB(x0,y0)≧Bgth
が成り立つ。
A method for determining that the pixel of interest (x0, y0) is background data or image data with brightness close to the background will be described below. Assume that the image data S (x0, y0) of the pixel of interest (x0, y0) is composed of signals (R (x0, y0), G (x0, y0), B (x0, y0)). That is,
Assume that S (x0, y0) = (R (x0, y0), G (x0, y0), B (x0, y0)). When S (x0, y0) is proportional to reflectance or proportional to lightness, the larger the value is, the brighter it is, and the background data is compared with the background determination threshold Sgth = (Rgth, Ggth, Bght). do it,
S (x0, y0) ≧ Sgth or R (x0, y0) ≧ Rgth and G (x0, y0) ≧ Ggth and B (x0, y0) ≧ Bgth
Holds.
注目画素(x0,y0)と周辺画素(x,y)から移動平均(Save(x0,y0))を求める。注目画素(x0,y0)の画像データS(x0,y0)(信号R(x0,y0),G(x0,y0),B(x0,y0))のRGB成分のそれぞれについて、注目領域A(x,y)(一例として、主走査方向Px画素×副走査方向Py画素とする)の画像データS(x,y)について、平均値Save(x0,y0)(移動平均)を求める。 A moving average (Save (x0, y0)) is obtained from the pixel of interest (x0, y0) and the surrounding pixels (x, y). For each of the RGB components of the image data S (x0, y0) (signals R (x0, y0), G (x0, y0), B (x0, y0)) of the pixel of interest (x0, y0), the region of interest A ( The average value Save (x0, y0) (moving average) is obtained for the image data S (x, y) of x, y) (as an example, Px pixels in the main scanning direction × Py pixels in the sub scanning direction).
Save(x0, y0)=(Rave(x0,y0),Gave(x0,y0),Bave(x0,y0))
これを、
Save (x0, y0) = (Rave (x0, y0), Gave (x0, y0), Bave (x0, y0))
this,
画素数px、pyを奇数として、座標(x0,y0)を領域Aの中心画素とすると、領域Aに含まれる座標(x,y)は、一例として
x0−(px/2)≦x≦x0+(px/2)、
y0−(py/2)≦y≦y0+(py/2) (式2)
の範囲に含まれる。画像データの端部領域を注目画素とした場合には、(式2)に示す範囲に限定されず、注目画素(x0,y0)を注目領域Sの中心画素としなくてもよい。
Assuming that the number of pixels px and py are odd numbers and the coordinates (x0, y0) are the center pixel of the area A, the coordinates (x, y) included in the area A are, for example, x0− (px / 2) ≦ x ≦ x0 + (Px / 2),
y0− (py / 2) ≦ y ≦ y0 + (py / 2) (Formula 2)
Included in the range. When the end region of the image data is the target pixel, the target pixel (x0, y0) may not be the center pixel of the target region S without being limited to the range shown in (Expression 2).
また、pxと、pyは、 Also, px and py are
上記(式1)の平均値は、注目領域A(x,y)内のすべての画素が地肌データである場合に使用できるが、注目領域A(x,y)内に、地肌データ以外の画素を含む場合には、地肌データ以外の画素を除外して、平均値を求める。地肌データを除外した注目領域A(地肌)(x,y)と表記して、
A(地肌)(x,y)⊆A(x,y) (式4)
の関係がある。ここで、A(地肌)⊆Aは、地肌データのみの領域A(地肌)が領域Aに等しいか、または含まれることを表す。
The average value of (Expression 1) can be used when all the pixels in the attention area A (x, y) are background data, but the pixels other than the background data are in the attention area A (x, y). Is included, pixels other than the background data are excluded and an average value is obtained. Notation of attention area A (background) (x, y) excluding background data,
A (background) (x, y) ⊆ A (x, y) (Formula 4)
There is a relationship. Here, A (background) ⊆A indicates that the area A (background) having only the background data is equal to or included in the area A.
(式1)から、注目画素(x0,y0)を含む領域Aの地肌データのみの平均値Save(地肌)(x0,y0)は、
(式3)、(式4)から、
From (Equation 1), the average value Save (background) (x0, y0) of only the background data of the region A including the target pixel (x0, y0) is
From (Formula 3) and (Formula 4),
ステップS202において、注目画素(x0,y0)の画像データS(x0,y0)と移動平均Save(地肌)(x0,y0)との差から不偏分散V(地肌)(x0,y0)を求める。すなわち、注目領域A(地肌)(x0,y0)の各画素と、平均値Save(地肌)(x0,y0)との差から、不偏分散V(地肌)(x0,y0)を求めると、 In step S202, the unbiased variance V (background) (x0, y0) is obtained from the difference between the image data S (x0, y0) of the target pixel (x0, y0) and the moving average Save (background) (x0, y0). That is, when the unbiased variance V (background) (x0, y0) is obtained from the difference between each pixel of the attention area A (background) (x0, y0) and the average value Save (background) (x0, y0),
(式6)は、A(地肌)を満たす画素が2画素以上存在しないと有効な値が得られない。また、地肌データのバラつきを求める上では、注目領域A(x0,y0)内の地肌データの画素数p(A(地肌)) In (Expression 6), an effective value cannot be obtained unless two or more pixels satisfy A (background). Further, in obtaining the variation of the background data, the number of pixels p (A (background)) of the background data in the attention area A (x0, y0).
p(A(地肌))≧pth
が必要である。従って、p(A(地肌))<pthである場合には、透明トナーを使用しない、などとする。
is necessary. Therefore, when p (A (background)) <pth, the transparent toner is not used.
ステップS203において、不偏分散V(地肌)(x0,y0)が所定値Vth以下か否かを判定し、所定値Vth以下の場合には、画像が滑らかであるとして、ステップS204において、不偏分散V(地肌)(x0,y0)に基づいて、光沢付加量T(x0,y0)を決定する。ステップS205において、不偏分散V(地肌)(x0,y0)が所定値Vth以上の場合には、光沢付加量T(x0,y0)を0とする。 In step S203, it is determined whether or not the unbiased variance V (background) (x0, y0) is equal to or less than a predetermined value Vth. If the unbiased variance V (background) (x0, y0) is equal to or less than the predetermined value Vth, the image is smooth and the unbiased variance V is determined in step S204. Based on (background) (x0, y0), the gloss addition amount T (x0, y0) is determined. In step S205, when the unbiased variance V (background) (x0, y0) is equal to or greater than the predetermined value Vth, the gloss addition amount T (x0, y0) is set to zero.
不偏分散V(地肌)(x0,y0)の値が、所定値Vth以下の場合
V(地肌)(x0,y0)≦Vth
には、注目画素(x0,y0)はバラつきの少ない地肌領域内の画像データであると判断し、透明トナーを使用する。V(地肌)(x0,y0)>Vthの場合には、透明トナーを使用しない。
When the value of unbiased variance V (background) (x0, y0) is less than or equal to a predetermined value Vth V (background) (x0, y0) ≦ Vth
In this case, the pixel of interest (x0, y0) is determined to be image data in a background area with little variation, and transparent toner is used. When V (background) (x0, y0)> Vth, the transparent toner is not used.
また、光沢付加量Tは、光沢付加量の最大値Tmaxを上限として、(地肌)(x0,y0)または、[V(地肌)(x0,y0)]2の値に応じて変更し、V(地肌)(x0,y0)の値または、[V(地肌)(x0,y0)]2が小さいほど、光沢付加量Tを大きくする。光沢付加量Tmaxは、光沢が最大となる光沢付加量か、または、許容される光沢付加量の上限値のいずれか小さい値などとする。 Further, the gloss addition amount T is changed according to the value of (background) (x0, y0) or [V (background) (x0, y0)] 2 with the maximum value Tmax of the gloss addition amount as an upper limit. As the value of (background) (x0, y0) or [V (background) (x0, y0)] 2 is smaller, the gloss addition amount T is increased. The gloss addition amount Tmax is set to the smaller value of the gloss addition amount that maximizes the gloss or the upper limit value of the allowable gloss addition amount.
図8は、光沢付加量Tと、地肌データのバラつき(分散V(地肌))との関係を示す。横軸は、地肌データのばらつきとして、上記不偏分散V(地肌)(x0,y0)または、不偏分散の2乗値[V(地肌)(x0,y0)]2であり、縦軸は光沢付加量Tである。不偏分散V(地肌)が小さいほど、地肌データのバラつきは小さく、従って、画像データの平滑性が高い、あるいは、地肌データが滑らかである。一方、不偏分散V(地肌)、または、その2乗値[V(地肌)(x0,y0)]2が大きいほど、地肌データはばらついており、地肌データの平滑性が低い、あるいは、ざらついている(滑らかでない)ということができる。 FIG. 8 shows the relationship between the gloss addition amount T and the variance of the background data (dispersion V (background)). The horizontal axis is the uneven variance V (background) (x0, y0) or the square value of the unbiased variance [V (background) (x0, y0)] 2 as the variation of the background data, and the vertical axis is glossy. The quantity T. The smaller the unbiased variance V (background), the smaller the variance of the background data. Therefore, the smoothness of the image data is high, or the background data is smooth. On the other hand, as the unbiased variance V (background) or its square value [V (background) (x0, y0)] 2 is larger, the background data is more scattered, and the smoothness of the background data is lower or rougher. Yes (not smooth).
光沢付加量Tは、図8に示すように、所定の上限値Tmaxとして、地肌データの不偏分散V(地肌)が大きくなるにつれて、光沢付加量Tを少なくする。 As shown in FIG. 8, the gloss addition amount T is set to a predetermined upper limit value Tmax, and the gloss addition amount T is decreased as the unbiased variance V (background) of the background data increases.
図9は、透明トナーの付着量(M/A)Tと、画像濃度D(有色トナーの付着量(M/A)Color,Color=Y,M,C,orK)との関係を示す。横軸は画像濃度D、あるいは、有色トナー(KCMY)の単位面積あたりの付着量(M/A)であり、縦軸は透明トナーの単位面積あたりの付着量(M/A)Tである。転写紙上に載せる有色トナーの付着量を多くするに従って、透明トナーの付着量を減らすようにする。 FIG. 9 shows the relationship between the adhesion amount (M / A) T of the transparent toner and the image density D (color toner adhesion amount (M / A) Color, Color = Y, M, C, or K). The horizontal axis represents the image density D or the adhesion amount (M / A) of the color toner (KCMY) per unit area, and the vertical axis represents the adhesion amount (M / A) T of the transparent toner per unit area. As the amount of colored toner deposited on the transfer paper increases, the amount of transparent toner deposited decreases.
注目画素(x0,y0)が地肌データでない場合でも、隣接画素に透明トナーが使用されている場合には、透明トナーを使用すると判定する。X軸、Y軸、Z軸を直交する軸として、地肌データのバラつきをX軸に、有色トナーの塗布量をY軸に、透明トナーの付着量をZ軸に割り当て、地肌データのバラつきと、トナー付着量に応じて、透明トナーの付着量を決定する。 Even when the pixel of interest (x0, y0) is not background data, when the transparent toner is used for the adjacent pixel, it is determined that the transparent toner is used. The X-axis, Y-axis, and Z-axis are orthogonal to each other, the background data variation is assigned to the X-axis, the color toner application amount is assigned to the Y-axis, and the transparent toner adhesion amount is assigned to the Z-axis. The adhesion amount of the transparent toner is determined according to the toner adhesion amount.
図10は、光沢付加部が実行する、光沢付加量T[タイプ2]の処理フローチャートを示す。ステップS301において、網点画素の間隔を取得する。ここで、網点画素の間隔は、600dpi〜1200dpiの読取解像度で、一例として、50線〜300線の線数を検出する。ステップS302において、網点画素を除外した周辺画素の画素数を求める。ステップS303において、周辺画素の画素数が所定値以上のとき、ステップS304において、網点画素を除外した周辺画素から移動平均を求める。網点画素は、地肌濃度を判定する閾値より画像濃度が高い(暗い)画素を除外する。 FIG. 10 shows a processing flowchart of the gloss addition amount T [type 2] executed by the gloss adding unit. In step S301, the interval between halftone pixels is acquired. Here, the interval between the halftone pixels is a resolution of 600 dpi to 1200 dpi, and the number of lines of 50 lines to 300 lines is detected as an example. In step S302, the number of peripheral pixels excluding halftone pixels is obtained. In step S303, when the number of surrounding pixels is greater than or equal to a predetermined value, a moving average is obtained from the surrounding pixels excluding halftone pixels in step S304. A halftone pixel excludes a pixel whose image density is higher (darker) than the threshold value for determining the background density.
ステップS305において、移動平均の取得に使用した画素と移動平均との差、あるいは差から不偏分散を求める。ステップS306において、ステップS305で求めた差あるいは不偏分散が所定値以下の場合には、ステップS307において、差あるいは不偏分散に基づいて光沢付加量Tを求める。ステップS308において、ステップS301で取得した網点画素の間隔が所定値以下か否かを判定し、所定値以下の場合には、ステップS309において、網点画素の間隔に応じて光沢付加量Tを調整する。ここでは、網点画素の間隔が短いほど、光沢付加量Tを少なくする(図8を参照)。これは、有色トナーと無色トナーとの重なりにより、総トナー量の増加を防ぎ、転写時のチリなどの発生を低減するためである。ステップS306において、差または不偏分散が所定値以下でない場合には、光沢付加量Tを0とする。 In step S305, the unbiased variance is obtained from the difference between the pixels used for obtaining the moving average and the moving average or from the difference. In step S306, when the difference or unbiased variance obtained in step S305 is equal to or smaller than a predetermined value, the gloss addition amount T is obtained based on the difference or unbiased variance in step S307. In step S308, it is determined whether or not the halftone pixel interval acquired in step S301 is equal to or smaller than a predetermined value. If it is equal to or smaller than the predetermined value, the gloss addition amount T is set in step S309 according to the halftone pixel interval. adjust. Here, as the interval between the halftone pixels is shorter, the gloss addition amount T is decreased (see FIG. 8). This is because the overlap of the colored toner and the colorless toner prevents an increase in the total toner amount and reduces the occurrence of dust and the like during transfer. In step S306, if the difference or unbiased variance is not less than the predetermined value, the gloss addition amount T is set to zero.
ステップS303において、周辺画素の画素数が所定値以上でないとき、ステップS311において、注目画素の周辺の画素が光沢付着されているか否かを調査し、周辺画素の光沢付加量Tを周辺画素の座標を用いて、注目画素の座標位置に対して外挿あるいは内挿により、注目画素の光沢付加量Tの初期値を取得する。この際、周辺画素が地肌データの場合には、位置的な内挿あるいは外挿をする。 In step S303, when the number of surrounding pixels is not equal to or larger than the predetermined value, in step S311, it is checked whether or not the surrounding pixels of the target pixel are glossy attached, and the gloss addition amount T of the surrounding pixels is determined as the coordinates of the surrounding pixels. The initial value of the gloss addition amount T of the target pixel is acquired by extrapolation or interpolation with respect to the coordinate position of the target pixel. At this time, if the surrounding pixels are background data, positional interpolation or extrapolation is performed.
光沢付加されている周辺画素が地肌濃度でない場合には、光沢付加量Tが付加されている周辺画素の画像濃度IDから、図11の関係を元にして、地肌濃度時の光沢付与量Tを推測し、注目画素の光沢付加量Tを求める。 If the peripheral pixel to which the gloss is added is not the background density, the gloss application amount T at the background density is calculated from the image density ID of the peripheral pixel to which the gloss addition amount T is added based on the relationship of FIG. By estimating, the gloss addition amount T of the target pixel is obtained.
ステップS312において、注目画素の光沢付加量Tから、図11の関係を元にして、注目画素の網点濃度に応じて光沢付加量を減らし、注目画素の光沢付加量Tを求める。周辺画素の地肌濃度の光沢付加量Tが取得できない場合には、周辺画素の網点濃度の光沢付加量Tから推測する。 In step S312, the gloss addition amount T of the target pixel is obtained by reducing the gloss addition amount according to the halftone dot density of the target pixel from the gloss addition amount T of the target pixel based on the relationship of FIG. When the glossiness addition amount T of the background density of the surrounding pixels cannot be acquired, the glossiness addition amount T of the halftone density of the surrounding pixels is estimated.
注目画素(x0,y0)の光沢付加量T(x0,y0)は、主走査方向を横軸とし、左右の画素の座標をそれぞれ、(x0−1,y0)、(x0+1,y0)とした場合、
T(x0,y0)={w(−1,0)×T(x0−1,y0)+w(+1,0)×T(x0+1,y0)/{w(−1,0)+w(1,0)}
のように、重みつき平均処理として光沢付加量T(x0,y0)を取得する。
The gloss addition amount T (x0, y0) of the pixel of interest (x0, y0) has the horizontal axis as the main scanning direction, and the coordinates of the left and right pixels are (x0-1, y0) and (x0 + 1, y0), respectively. If
T (x0, y0) = {w (-1, 0) * T (x0-1, y0) + w (+1, 0) * T (x0 + 1, y0) / {w (-1, 0) + w (1, 0)}
As described above, the gloss addition amount T (x0, y0) is acquired as the weighted average process.
副走査方向を縦軸として、前後の画素の座標を、それぞれ、(x0,y0−1)、(x0,y0+1)として、注目画素(x0,y0)の周囲の8画素の座標(x0−1,y0−1),〜,(x0+1,y0+1)を領域Sとして、それぞれの画素の光沢付加量T(x0−1,y0−1)〜T(x0+1,y0+1)が求められる場合には、周囲の画素の重みつき平均により、 With the sub-scanning direction as the vertical axis, the coordinates of the preceding and following pixels are (x0, y0-1) and (x0, y0 + 1), respectively, and the coordinates of the eight pixels around the pixel of interest (x0, y0) (x0-1) , Y0-1),..., (X0 + 1, y0 + 1) as region S, the gloss addition amounts T (x0-1, y0-1) to T (x0 + 1, y0 + 1) of the respective pixels are obtained. The weighted average of the pixels of
図12(a)は、光沢付加部が実行する、光沢付加量T[タイプ3]の処理フローチャートを示す。ステップS401において、網点画素の間隔を取得する。ここで、網点画素の間隔は、600dpi〜1200dpiの読取解像度で、一例として50線〜300線の線数を検出する。ステップS402において、網点画素を除外した周辺画素から移動平均を求める。網点画素は、地肌濃度を判定する閾値より画像濃度が高い(暗い)画素を除外する。ステップS403において、移動平均の取得に使用した画素と移動平均との差あるいは差から不偏分散を求める。ステップS404において、ステップS403で求めた差あるいは不偏分散が所定値以下の場合には、ステップS405において、差あるいは不偏分散に基づいて光沢付加量Tを求める。 FIG. 12A shows a processing flowchart of the gloss addition amount T [type 3] executed by the gloss adding unit. In step S401, an interval between halftone pixels is acquired. Here, the interval between the halftone pixels is a resolution of 600 dpi to 1200 dpi, and the number of lines from 50 lines to 300 lines is detected as an example. In step S402, a moving average is obtained from surrounding pixels excluding halftone pixels. A halftone pixel excludes a pixel whose image density is higher (darker) than the threshold value for determining the background density. In step S403, unbiased variance is obtained from the difference or difference between the pixel used for obtaining the moving average and the moving average. In step S404, if the difference or unbiased variance obtained in step S403 is equal to or smaller than a predetermined value, the gloss addition amount T is obtained based on the difference or unbiased variance in step S405.
ステップS407において、ステップS401で取得した網点画素の間隔が所定値以下か否かを判定し、所定値以下の場合には、ステップS408において、網点画素の間隔に応じて光沢付加量Tを調整する。ここでは、前述したと同様に網点画素の間隔が短いほど、光沢付加量Tを少なくする。ステップS404において、差または不偏分散が所定値以下でない場合には、光沢付加量Tを0とする。 In step S407, it is determined whether or not the halftone pixel interval acquired in step S401 is equal to or smaller than a predetermined value. If it is equal to or smaller than the predetermined value, the gloss addition amount T is set in step S408 according to the halftone pixel interval. adjust. Here, as described above, the gloss addition amount T is decreased as the interval between the halftone pixels is shorter. In step S404, if the difference or unbiased variance is not less than the predetermined value, the gloss addition amount T is set to zero.
図12(b)は、光沢付加部が実行する、光沢付加量T[タイプ4]の処理フローチャートを示す。ステップS501において、注目画素の周辺の画素が光沢付与されているか否かを調査し、周辺画素の光沢付加量Tを周辺画素の座標を用いて、注目画素の座標位置に対して外挿、あるいは内挿により、注目画素の光沢付加量Tの初期値を取得する。この際、周辺画素が地肌データの場合には、位置的な内挿あるいは外挿をする。 FIG. 12B shows a processing flowchart of the gloss addition amount T [type 4] executed by the gloss adding unit. In step S501, it is investigated whether or not the peripheral pixels of the target pixel are glossed, and the gloss addition amount T of the peripheral pixel is extrapolated from the coordinate position of the target pixel using the coordinates of the peripheral pixel, or An initial value of the gloss addition amount T of the target pixel is acquired by interpolation. At this time, if the surrounding pixels are background data, positional interpolation or extrapolation is performed.
光沢付加されている周辺画素が地肌濃度でない場合には、光沢付加量Tが付加されている周辺画素の画像濃度IDから、地肌濃度時の光沢付加量Tを推測し、注目画素の光沢付加量Tを求める。 When the peripheral pixel to which the gloss is added is not the background density, the gloss addition amount T at the background density is estimated from the image density ID of the peripheral pixel to which the gloss addition amount T is added, and the gloss addition amount of the target pixel is calculated. Find T.
ステップS502において、注目画素の地肌濃度の光沢付加量Tから、注目画素の網点濃度に応じて光沢付加量を減らし、注目画素の光沢付加量Tを求める。 In step S502, the gloss addition amount T of the target pixel is obtained by reducing the gloss addition amount according to the halftone dot density of the target pixel from the gloss addition amount T of the background density of the target pixel.
なお、図6に示す網点画素濃度閾値、文字濃度閾値は、印刷原稿やトナーを使用した原稿、インクジェットプリンタで使用されるインクなどの色材に応じて切り替える。また、印刷原稿であっても、地図など通常使用されるプロセスインクと異なるインクが使用されるので、地図や特色インクなどに応じて切り替えることにより、より使用者の好みに調整することが可能である。 Note that the halftone pixel density threshold and the character density threshold shown in FIG. 6 are switched according to a color material such as a printed document, a document using toner, or ink used in an inkjet printer. In addition, even for a printed document, an ink different from the process ink that is normally used, such as a map, is used. Therefore, it can be adjusted to the user's preference by switching according to the map or spot color ink. is there.
図13(b)は、地肌データの特徴と、原稿で使用された用紙(推定)の関係を示す。図13(b)の関係を基に、画像データから抽出した地肌データのRGB値に応じた用紙の種類を判別する。 FIG. 13B shows the relationship between the characteristics of the background data and the paper (estimated) used in the document. Based on the relationship shown in FIG. 13B, the type of paper corresponding to the RGB value of the background data extracted from the image data is determined.
図13(a)は、原稿で使用された用紙の種類と、印刷物に使用する光沢付加量Tとの対応関係を示す。上記した用紙で、特に光沢性や表面の平滑性が良く、光沢度性が良い用紙に対して、透明トナーを使用する。なお、図13(a)に示す、原稿で使用された用紙の種類と光沢付加量Tとの関係は、使用者により選択可能とする。また、図13(a)における、銀塩写真用のマット(絹目)印画紙と、インクジェットプリンタ用のマット紙の設定1※1、設定2※1は、光沢付加の有無を使用者により設定が可能であることを示す。 FIG. 13A shows the correspondence between the type of paper used in the original and the gloss addition amount T used for the printed material. A transparent toner is used for the above-described paper, particularly for paper having good glossiness, smooth surface, and good glossiness. It should be noted that the relationship between the type of paper used in the document and the gloss addition amount T shown in FIG. 13A can be selected by the user. In addition, the setting 1 * 1 and setting 2 * 1 of the mat (silk) photographic paper for silver salt photography and the mat paper for the inkjet printer in FIG. Indicates that is possible.
図8では、地肌のばらつきが小さいほど、透明トナーの付着量を多くしているが、使用者の選択により、地肌のバラつきが大きい原稿に対して、透明トナーの付着量を多くするように、設定することも可能である。 In FIG. 8, the smaller the background variation, the greater the amount of transparent toner attached. However, depending on the user's choice, the amount of transparent toner attached is increased for a document with a large background variation. It is also possible to set.
図14は、光沢付加部504が実行する、画像データのばらつき、滑らかさの判定(第1の判定)の処理フローチャートを示す。ステップS601において、所定領域内で、所定値より明るい画素のRGB成分のそれぞれについてヒストグラムを求める。ステップS602において、求めたヒストグラムから画素数で規格化した、
1.ピーク値
2.ピークの幅(例:半値幅)
3.ピークの数
を求める。
FIG. 14 shows a processing flowchart of determination (first determination) of variation and smoothness of image data executed by the gloss adding unit 504. In step S601, a histogram is obtained for each of RGB components of pixels brighter than a predetermined value within a predetermined area. In step S602, normalized by the number of pixels from the obtained histogram.
1. 1. Peak value Peak width (eg half width)
3. Find the number of peaks.
ステップS603において、下記のいずれかが成立するかを判定する。
1.ピーク値が所定値以下
2.ピークの幅が所定値より大きい
3.複数のピークが存在するか
上記した何れかが成立する場合には、画像がばらついているとして、ステップS605において、透明トナーを使用しない。成立しない場合には、ステップS604において、透明トナーを使用する。
In step S603, it is determined whether any of the following is satisfied.
1. 1. The peak value is below a predetermined value 2. The peak width is larger than a predetermined value. If there are a plurality of peaks or one of the above is true, it is determined that the images are dispersed, and no transparent toner is used in step S605. If not, transparent toner is used in step S604.
図15は、原稿の地肌領域のヒストグラム例を示す。横軸は画像データ(RGB成分)の反射率リニアのデータであり、値が大きいほど明るく、値が小さいほど暗い。縦軸はヒストグラムの頻度を表す。図のサンプルには、ピーク値、半値幅、平均値(図ではピーク値と一致している)を示す。また、原稿a、原稿bの同一の画素数の地肌領域に対するRGB成分のそれぞれのヒストグラムを、原稿aに対して、Ra,Ga,Ba、原稿bに対してRb,Gb,Bbを示す。 FIG. 15 shows an example of the histogram of the background area of the document. The horizontal axis represents the reflectance linear data of the image data (RGB components). The larger the value is, the brighter the data is, and the smaller the value is, the darker the data is. The vertical axis represents the histogram frequency. The sample in the figure shows the peak value, the half-value width, and the average value (in the figure, it matches the peak value). Further, the respective histograms of the RGB components for the background area having the same number of pixels of the original document a and the original document b are shown as Ra, Ga, Ba for the original document a, and Rb, Gb, Bb for the original document b.
原稿aは、Ra<Ga<Ba、原稿bは、Bb<Gb<Rbの関係を示している。原稿aのヒストグラムのピークは、原稿bに比べて高く、半値幅についても、原稿aの方が原稿bの方が小さい。このことから、原稿aの地肌のバラつきが、原稿bの地肌のバラつきよりも大きいと判断する。また、原稿aの方が原稿bに比べて、平滑性が高い、あるいは、滑らかであると判断し、透明トナーの付着量を多くする。 The document a has a relationship of Ra <Ga <Ba, and the document b has a relationship of Bb <Gb <Rb. The peak of the histogram of the document “a” is higher than that of the document “b”, and the half-value width of the document “a” is smaller in the document “b”. From this, it is determined that the variation of the background of the document “a” is larger than the variation of the background of the document “b”. Further, it is determined that the original a is higher or smoother than the original b, and the amount of transparent toner attached is increased.
図16は、印刷原稿の画像データのばらつき、滑らかさの判定(第2の判定)の処理フローチャートを示す。ステップS701において、(低濃度)網点を検出する。ステップS702〜S704において、網点であると判定された画素について、網点の周波数成分を検出し、周波数成分を除去する。ステップS705において、注目画素と周辺画素から移動平均を求める。ステップS706において、注目画素と移動平均との差、あるいは差から(不偏)分散を求める。ステップS707〜S710において、差または分散が所定値以下か否かを判定し、所定値以下の場合には、画像が滑らかであるとして、透明トナーを使用する。所定以上である場合には、透明トナーを使用しない。 FIG. 16 shows a process flowchart of determination (second determination) of variation and smoothness of image data of a printed document. In step S701, a (low density) halftone dot is detected. In steps S702 to S704, the frequency component of the halftone dot is detected for the pixel determined to be a halftone dot, and the frequency component is removed. In step S705, a moving average is obtained from the target pixel and surrounding pixels. In step S706, the difference between the pixel of interest and the moving average, or the (unbiased) variance is obtained from the difference. In steps S707 to S710, it is determined whether or not the difference or variance is equal to or smaller than a predetermined value. If the difference or variance is equal to or smaller than the predetermined value, the image is smooth and transparent toner is used. If it exceeds the predetermined value, the transparent toner is not used.
ステップS709において、所定値以上の場合でも、隣接画素で透明トナーが使用されている場合には、透明トナーを使用する。ステップS711において、網点が検出されない場合には、図17に示す画像データのばらつき・滑らかさの判定処理(第3の判定)を実行する。図17のステップS801〜805の処理は、前述した図7のステップS201〜205の処理と同様である。 In step S709, even when the value is equal to or larger than the predetermined value, when the transparent toner is used in the adjacent pixel, the transparent toner is used. If a halftone dot is not detected in step S711, the image data variation / smoothness determination process (third determination) shown in FIG. 17 is executed. The processing in steps S801 to S805 in FIG. 17 is the same as the processing in steps S201 to S205 in FIG.
図18は、印刷原稿の画像データのばらつき、滑らかさの判定(第4の判定)の処理フローチャートを示す。ステップS901において、注目画素と周辺画素から移動平均を求める。ステップS902において、注目画素と移動平均との差を用いて自己相関関数を求める。ステップS903において、フーリエ変換を行い、パワースペクトルを求める。ステップS904において、網点の周波数成分を除去する。ステップS905において、パワースペクトルを積分する。 FIG. 18 shows a process flowchart of determination (fourth determination) of variation and smoothness of image data of a printed document. In step S901, a moving average is obtained from the target pixel and surrounding pixels. In step S902, an autocorrelation function is obtained using the difference between the target pixel and the moving average. In step S903, Fourier transform is performed to obtain a power spectrum. In step S904, the halftone dot frequency component is removed. In step S905, the power spectrum is integrated.
ステップS906〜908において、値が所定値以下か否かを判定し、所定値以下の場合には、画像が滑らかであるとして、透明トナーを使用し、所定以上である場合には、透明トナーを使用しない。 In steps S906 to S908, it is determined whether or not the value is equal to or smaller than a predetermined value. If the value is equal to or smaller than the predetermined value, it is determined that the image is smooth, and transparent toner is used. do not use.
上記したように、本発明では、原稿を読み取って得た画像データから、文字領域、網点領域、地肌領域を抽出し、地肌領域と判定された画素のばらつきを算出し、ばらつきに応じて透明トナーを付加する領域と、透明トナーを付加しない領域とを判別する。また、透明トナーを付加すると判別した領域では、地肌データのばらつきの大きさに応じて、透明トナーの付着量を決定する。これにより、原稿として使用されている紙種に応じて、透明トナーの付加を判断することができる。 As described above, in the present invention, a character area, a halftone dot area, and a background area are extracted from image data obtained by reading a document, and variations in pixels determined to be a background area are calculated. It discriminate | determines from the area | region which adds a toner, and the area | region which does not add transparent toner. Further, in an area where it is determined that transparent toner is to be added, the amount of transparent toner attached is determined according to the degree of variation in the background data. Accordingly, it is possible to determine whether or not transparent toner is added according to the type of paper used as the document.
図3に戻り、スキャナγ変換回路402では、スキャナからの読み取り信号を、反射率データから明度データに変換する。画像メモリ433はスキャナγ変換後の画像信号を記憶し、像域分離回路403では、文字部と写真部を判定し、また有彩色・無彩色を判定する。 Returning to FIG. 3, the scanner γ conversion circuit 402 converts the read signal from the scanner from reflectance data to brightness data. The image memory 433 stores the image signal after the scanner γ conversion, and the image area separation circuit 403 determines a character portion and a photograph portion, and determines a chromatic color and an achromatic color.
空間フィルタ404では、シャープな画像やソフトな画像など、使用者の好みに応じてエッジ強調や平滑化等、画像信号の周波数特性を変更する処理に加えて、画像信号のエッジ度に応じたエッジ強調処理(適応エッジ強調処理)を行う。例えば、文字エッジにはエッジ強調を行い、網点画像にはエッジ強調を行わないという所謂適応エッジ強調をR、G、B信号のそれぞれに対して行う。 In the spatial filter 404, in addition to processing for changing the frequency characteristics of the image signal, such as edge enhancement and smoothing according to the user's preference, such as a sharp image or a soft image, the edge according to the edge degree of the image signal Perform enhancement processing (adaptive edge enhancement processing). For example, so-called adaptive edge enhancement is performed on each of the R, G, and B signals, in which edge enhancement is performed on a character edge and edge enhancement is not performed on a halftone image.
図19は、適応エッジ強調回路の例を示す。スキャナγ変換回路402によって反射率リニアから明度リニアに変換された画像信号は、平滑化フィルタ回路1101によって平滑化を行う。次段の3×3のラプラシアンフィルタ1102によって画像データの微分成分が抽出される。図20(a)は、ラプラシアンフィルタの具体例を示す。 FIG. 19 shows an example of an adaptive edge enhancement circuit. The image signal converted from the reflectance linearity to the lightness linearity by the scanner γ conversion circuit 402 is smoothed by the smoothing filter circuit 1101. The differential component of the image data is extracted by the 3 × 3 Laplacian filter 1102 at the next stage. FIG. 20A shows a specific example of a Laplacian filter.
スキャナγ変換によるγ変換されない10ビットの画像信号のうち、例えば上位8ビット成分から、エッジ量検出フィルタ1103によりエッジが検出される。図20(b)〜(e)は、エッジ量検出フィルタの具体例を示す。図20(b)〜(e)のエッジ検出フィルタにより得られたエッジ量のうち、最大値がエッジ度として後段で使用される。エッジ度は、必要に応じて後段の平滑化フィルタ1104により平滑化される。これにより、スキャナの偶数画素と奇数画素の感度差の影響を軽減する。図20(f)は、平滑化フィルタの係数例を示す。 Of the 10-bit image signal not subjected to γ conversion by the scanner γ conversion, an edge is detected by the edge amount detection filter 1103 from, for example, an upper 8-bit component. 20B to 20E show specific examples of edge amount detection filters. Among the edge amounts obtained by the edge detection filters of FIGS. 20B to 20E, the maximum value is used as the edge degree in the subsequent stage. The edge degree is smoothed by the subsequent smoothing filter 1104 as necessary. This reduces the influence of the sensitivity difference between the even and odd pixels of the scanner. FIG. 20F shows an example of coefficients of the smoothing filter.
テーブル変換回路1105は、求められたエッジ度をテーブル変換する。このテーブルの値により、線や点の濃さ(コントラスト、濃度を含む)および網点部の滑らかさを指定する。図21は、エッジ度に応じたテーブル値に変換する例を示す。エッジ度は、白地に黒い線や点などで最も大きくなり、印刷の細かい網点や、銀塩写真や熱転写原稿などのように画素の境界が滑らかなものになるほど小さくなる。 A table conversion circuit 1105 converts the obtained edge degree into a table. The values of this table specify the darkness of lines and dots (including contrast and density) and the smoothness of the halftone dots. FIG. 21 shows an example of conversion to a table value corresponding to the edge degree. The edge degree is the largest with black lines or dots on a white background, and the edge degree becomes smaller as the pixel boundaries become smoother, such as finely printed halftone dots, silver halide photographs, and thermal transfer originals.
テーブル変換回路1105によって変換されたエッジ度(画像信号C)と、ラプラシアンフィルタ1102の出力値(画像信号B)との積(画像信号D)が、平滑処理後の画像信号(画像信号A)に加算され、画像信号Eとして後段の画像処理回路に伝達される。 The product (image signal D) of the edge degree (image signal C) converted by the table conversion circuit 1105 and the output value (image signal B) of the Laplacian filter 1102 becomes the smoothed image signal (image signal A). The signals are added and transmitted as an image signal E to a subsequent image processing circuit.
色補正処理は、前述した色補正・UCR処理(1)回路407および色補正・UCR処理(2)回路431において行われる。色補正UCR処理(1)回路407、色補正・UCR処理(2)回路431は、入力系の色分解特性と出力系の色材の分光特性の違いを補正し、忠実な色再現に必要な色材YMCTの量を計算する色補正処理部と、YMCの3色が重なる部分をBk(ブラック)に置き換えるためのUCR処理部からなる。図22、23を用いて色補正処理を説明する。 The color correction process is performed in the color correction / UCR process (1) circuit 407 and the color correction / UCR process (2) circuit 431 described above. The color correction UCR processing (1) circuit 407 and the color correction / UCR processing (2) circuit 431 correct the difference between the color separation characteristics of the input system and the spectral characteristics of the color material of the output system, and are necessary for faithful color reproduction. The color correction processing unit calculates the amount of the color material YMCT, and the UCR processing unit replaces the portion where the three colors of YMC overlap with Bk (black). The color correction process will be described with reference to FIGS.
図22に示すように、色補正処理は、無彩色軸(R=G=B(≡N軸))を中心として放射状に広がる平面で、色空間(R,G,B)を分割して行われる。彩度Crは、N軸からの距離Lnに沿って変化する。また、色相Hは、N軸に垂直な平面においてN軸を中心とした回転方向Hに沿って変化する。すなわち、所定の回転方向HにおいてN軸に平行に形成された面上のすべての点は、回転方向Hによって定まる色相を示す色の点である。 As shown in FIG. 22, the color correction processing is performed by dividing the color space (R, G, B) on a plane extending radially around the achromatic color axis (R = G = B (≡N axis)). Is called. The saturation Cr changes along the distance Ln from the N axis. Further, the hue H changes along the rotation direction H around the N axis on a plane perpendicular to the N axis. That is, all the points on the surface formed in parallel with the N axis in the predetermined rotation direction H are color points indicating a hue determined by the rotation direction H.
点C(T),M(T),Y(T)は、それぞれプリンタの一次色であるCMY、透明トナー量Tにおいて、彩度が最大となる点である。ここで、透明トナー量Tは、R,G,Bの値によって異なり、T(R,G,B)≡Tとしている。点C(0)、M(0)、Y(0)は、透明トナー量T=0、すなわち、透明トナーをプリンタの一次色であるCMYに重ねない場合に、彩度が最大となる点である。点R(T),G(T),B(T)は、それぞれプリンタの2次色であるRGBに、透明トナー量Tを重ねて、彩度が最大となる点である。プリンタ色再現領域672は、これらの点C(T),M(T),Y(T),R(T),G(T),B(T)と、点W(T)および点K(T)を曲線で結ぶことによって形成された略球面状の領域である。すなわち、このプリンタ色再現領域672の内側がプリンタにおいて出力可能な色の領域である。また、信号色領域660は、カラー画像信号に対する信号色が取り得る色の領域である。 Points C (T), M (T), and Y (T) are points at which the saturation becomes maximum at CMY and the transparent toner amount T, which are the primary colors of the printer, respectively. Here, the transparent toner amount T varies depending on the values of R, G, and B, and T (R, G, B) ≡T. Points C (0), M (0), and Y (0) are points where the saturation becomes maximum when the transparent toner amount T = 0, that is, when the transparent toner is not overlaid on the primary color CMY of the printer. is there. Points R (T), G (T), and B (T) are points where the saturation is maximized by superimposing the transparent toner amount T on RGB that is the secondary color of the printer. The printer color reproduction area 672 includes these points C (T), M (T), Y (T), R (T), G (T), B (T), point W (T) and point K ( This is a substantially spherical region formed by connecting T) with a curve. That is, the inside of the printer color reproduction area 672 is a color area that can be output by the printer. The signal color region 660 is a color region that can be taken by the signal color for the color image signal.
なお、この色空間において信号色を補正する場合に、処理を簡単にするために、プリンタ色再現領域670をプリンタ色再現領域672とみなす。ここで、プリンタ色再現領域670は、8色の最大値に対応する点C(T),M(T),Y(T),R(T),G(T),B(T)、点W(T)および点K(T)を直線で結ぶことによって形成された12面体状の領域である。このように、プリンタ色再現領域670を、プリンタ色再現領域672とみなすことにより、補正量X(T)に実質的な誤差は生じない。 In addition, when correcting the signal color in this color space, the printer color reproduction area 670 is regarded as the printer color reproduction area 672 in order to simplify the processing. Here, the printer color reproduction area 670 includes points C (T), M (T), Y (T), R (T), G (T), B (T), points corresponding to the maximum values of eight colors. This is a dodecahedron-like region formed by connecting W (T) and point K (T) with a straight line. In this way, by regarding the printer color reproduction area 670 as the printer color reproduction area 672, no substantial error occurs in the correction amount X (T).
次に、図23に基づいて色相領域を説明する。図23は、複数の色相領域に分割された色空間を示す。C境界面633は、点C(T),W(T),K(T)により定まる平面である。同様に、i境界面634〜638(i=M,Y,R,G,B)は、それぞれ、点i,W,K(i=M,Y,R,G,B)により定まる平面である。色空間は、これらの境界面633〜638によって分割される。これら境界面633〜638によって分割された色空間には、CB色相領域640、BM色相領域641、MR色相領域642、RY色相領域643、YG色相領域644、GC色相領域645が形成されている。 Next, the hue area will be described with reference to FIG. FIG. 23 shows a color space divided into a plurality of hue regions. The C boundary surface 633 is a plane determined by points C (T), W (T), and K (T). Similarly, i boundary surfaces 634 to 638 (i = M, Y, R, G, B) are planes determined by points i, W, K (i = M, Y, R, G, B), respectively. . The color space is divided by these boundary surfaces 633 to 638. In the color space divided by the boundary surfaces 633 to 638, a CB hue region 640, a BM hue region 641, an MR hue region 642, an RY hue region 643, a YG hue region 644, and a GC hue region 645 are formed.
色相判定(1)回路406、色相判定(2)回路430による画像データの色相判定方法について説明する。まず、3次元空間の色相判定の方法を説明し、次に2次元色平面における色相判定の方法を説明する。 A hue determination method for image data by the hue determination (1) circuit 406 and the hue determination (2) circuit 430 will be described. First, a method for determining a hue in a three-dimensional space will be described, and then a method for determining a hue in a two-dimensional color plane will be described.
3次元空間の色相判定においては、画像データから各色相評価値Fxを算出し、色相評価値Fxに基づいて、信号色を含む色相領域の色相領域コードを決定する。ここで、色相評価値Fxの理論的な導出方法を説明する。図22に示した点C(T),M(T),Y(T),R(T),G(T),B(T),W(T),K(T)を示す色座標をそれぞれ(Dir,Dig,Dib)(i=c,m,y,r,g,b,w,k)と示すことにする。例えば、点C(T)に対応する色座標は、(Dcr,Dcg,Dcb)である。 In the hue determination of the three-dimensional space, each hue evaluation value Fx is calculated from the image data, and the hue area code of the hue area including the signal color is determined based on the hue evaluation value Fx. Here, a theoretical derivation method of the hue evaluation value Fx will be described. The color coordinates indicating the points C (T), M (T), Y (T), R (T), G (T), B (T), W (T), and K (T) shown in FIG. These are respectively represented as (Dir, Dig, Dib) (i = c, m, y, r, g, b, w, k). For example, the color coordinates corresponding to the point C (T) are (Dcr, Dcg, Dcb).
この場合、例えばC境界面633は次式で表される。
(Dcg−Dcb)・Dr+(Dcb−Dcr)・Dg+(Dcr−Dcg)・Db=0・・・(式7)
となる。同様に、境界面634〜638は、それぞれ次式で表される。
(Dmg−Dmb)・Dr+(Dmb−Dmr)・Dg+(Dmr−Dmg)・Db=0・・・(式8)
(Dyg−Dyb)・Dr+(Dyb−Dyr)・Dg+(Dyr−Dyg)・Db=0・・・(式9)
(Drg−Drb)・Dr+(Drb−Drr)・Dg+(Drr−Drg)・Db=0・・・(式10)
(Dgg−Dgb)・Dr+(Dgb−Dgr)・Dg+(Dgr−Dgg)・Db=0・・・(式11)
(Dbg−Dbb)・Dr+(Dbb−Dbr)・Dg+(Dbr−Dbg)・Db =0・・・(式12)
色空間は、例えば、境界面633によって、C(T)B(T)色相領域640を含む領域とG(T)C(T)色相領域645を含む領域との2つの領域に分割される。以降では、C(T)B(T)色相領域、G(T)C(T)色相領域を、記載を簡単にするために、CB色相領域、GC色相領域というように、記載を略す。同様に、色空間は、各境界面634〜638によって2つの領域に分割される。そこで、カラー画像信号がいずれの色相領域に含まれるかは、カラー画像信号が各境界面633〜638によって形成される2つの領域のうちいずれの領域に含まれるかに基づいて判定することができる。すなわち、(式7)〜(式12)のそれぞれにカラー画像信号(Dr,Dg,Db)を代入して得られた値の正負に基づいて、カラー画像信号が含まれる色相領域を判定することができる。そこで、(式7)〜(式12)に基づいて色相評価値Fxを定める。すなわち、(式7)〜(式12)の左辺をそれぞれFc,Fm,Fy,Fr,Fg,Fbとする。
Fc=(Dcg−Dcb)・Dr+(Dcb−Dcr)・Dg+(Dcr−Dcg)・Db・・・(式13)
Fm=(Dmg−Dmb)・Dr+(Dmb−Dmr)・Dg+(Dmr−Dmg)・Db・・・(式14)
Fy=(Dyg−Dyb)・Dr+(Dyb−Dyr)・Dg+(Dyr−Dyg)・Db・・・(式15)
Fr=(Drg−Drb)・Dr+(Drb−Drr)・Dg+(Drr−Drg)・Db・・・(式16)
Fg=(Dgg−Dgb)・Dr+(Dgb−Dgr)・Dg+(Dgr−Dgg)・Db・・・(式17)
Fb=(Dbg−Dbb)・Dr+(Dbb−Dbr)・Dg+(Dbr−Dbg)・Db・・・(式18)
In this case, for example, the C boundary surface 633 is expressed by the following equation.
(Dcg−Dcb) · Dr + (Dcb−Dcr) · Dg + (Dcr−Dcg) · Db = 0 (Expression 7)
It becomes. Similarly, the boundary surfaces 634 to 638 are represented by the following equations, respectively.
(Dmg−Dmb) · Dr + (Dmb−Dmr) · Dg + (Dmr−Dmg) · Db = 0 (Equation 8)
(Dyg−Dyb) · Dr + (Dyb−Dyr) · Dg + (Dyr−Dyg) · Db = 0 (Equation 9)
(Drg−Drb) · Dr + (Drb−Drr) · Dg + (Drr−Drg) · Db = 0 (Equation 10)
(Dgg−Dgb) · Dr + (Dgg−Dgr) · Dg + (Dgr−Dgg) · Db = 0 (Equation 11)
(Dbg−Dbb) · Dr + (Dbb−Dbr) · Dg + (Dbr−Dbg) · Db = 0 (Equation 12)
For example, the color space is divided by the boundary surface 633 into two regions, a region including the C (T) B (T) hue region 640 and a region including the G (T) C (T) hue region 645. Hereinafter, in order to simplify the description of the C (T) B (T) hue region and the G (T) C (T) hue region, the description will be omitted as a CB hue region and a GC hue region. Similarly, the color space is divided into two regions by each boundary surface 634-638. Therefore, in which hue region the color image signal is included can be determined based on which region of the two regions formed by the boundary surfaces 633 to 638 is included in the color image signal. . That is, the hue region including the color image signal is determined based on the sign of the value obtained by substituting the color image signal (Dr, Dg, Db) for each of (Expression 7) to (Expression 12). Can do. Therefore, the hue evaluation value Fx is determined based on (Expression 7) to (Expression 12). That is, the left sides of (Expression 7) to (Expression 12) are respectively Fc, Fm, Fy, Fr, Fg, and Fb.
Fc = (Dcg−Dcb) · Dr + (Dcb−Dcr) · Dg + (Dcr−Dcg) · Db (Formula 13)
Fm = (Dmg−Dmb) · Dr + (Dmb−Dmr) · Dg + (Dmr−Dmg) · Db (Formula 14)
Fy = (Dyg−Dyb) · Dr + (Dyb−Dyr) · Dg + (Dyr−Dyg) · Db (Expression 15)
Fr = (Drg−Drb) · Dr + (Drb−Drr) · Dg + (Drr−Drg) · Db (Expression 16)
Fg = (Dgg−Dgb) · Dr + (Dgb−Dgr) · Dg + (Dgr−Dgg) · Db (Expression 17)
Fb = (Dbg−Dbb) · Dr + (Dbb−Dbr) · Dg + (Dbr−Dbg) · Db (Expression 18)
すなわち、3次元空間の色相判定においては、(式13)〜(式18)において定められた各色相評価値Fxを算出する。例えば、色空間における任意の点(Dr,Dg,Db)から算出されたFc,Fgが、「Fc≦0andFb>0」を満たす場合、この点はCB色相領域に含まれることが図24(a)からわかる。このように、各色相領域は、色相評価値Fxにより定義される。すなわち、図24(a)に示した色相領域コードテーブルにおいて、色相領域コードに対応付けられている色相評価値Fxの条件は、以上の式から定められた条件である。 That is, in the hue determination in the three-dimensional space, each hue evaluation value Fx defined in (Expression 13) to (Expression 18) is calculated. For example, if Fc and Fg calculated from an arbitrary point (Dr, Dg, Db) in the color space satisfy “Fc ≦ 0 and Fb> 0”, it is indicated that this point is included in the CB hue region. ) Thus, each hue region is defined by the hue evaluation value Fx. That is, in the hue area code table shown in FIG. 24A, the condition of the hue evaluation value Fx associated with the hue area code is a condition determined from the above formula.
なお、図24(a)に示した色相領域コードテーブルにおいては、便宜的にN軸上の色座標をGC色相領域に含めているが、他の色相領域に含めてもよい。また色相評価値Fxは、(Dir,Dig,Dib)(i=c,m,y,r,g,b,w,k)の実際の値によって変化する。したがって、色相領域コードテーブル(図24(a))において各色相領域コードに対応付けるべき色相評価値の条件は色相評価値の値に応じて変更してもよい。 In the hue area code table shown in FIG. 24A, the color coordinates on the N-axis are included in the GC hue area for convenience, but may be included in other hue areas. The hue evaluation value Fx varies depending on the actual value of (Dir, Dig, Div) (i = c, m, y, r, g, b, w, k). Accordingly, the condition of the hue evaluation value to be associated with each hue area code in the hue area code table (FIG. 24A) may be changed according to the value of the hue evaluation value.
次に、3次元の色空間を2次元平面に写像し、2次元平面における、カラー画像信号の色座標を利用して、カラー画像信号が含まれる色相領域を判定する方法について、図25(a)の色平面図と図26のフローチャートに基づいて色相判定回路の動作を説明する。 Next, a method for mapping a three-dimensional color space to a two-dimensional plane and using the color coordinates of the color image signal in the two-dimensional plane to determine a hue region including the color image signal will be described with reference to FIG. ) And a flowchart of FIG. 26, the operation of the hue judgment circuit will be described.
図26のステップS1001において、まず、色相判定回路にカラー画像信号が入力されると、カラー画像信号の値を2次元化する。すなわち、カラー画像信号の値を下記の(式19)、(式20)に代入して差分GRおよび差分BGを得る。これにより、カラー画像信号の色空間における値(Dr,Dg,Db)を色平面における値(GR,BG)に変換する。 In step S1001 of FIG. 26, first, when a color image signal is input to the hue determination circuit, the value of the color image signal is two-dimensionalized. That is, the difference GR and the difference BG are obtained by substituting the values of the color image signal into the following (Expression 19) and (Expression 20). As a result, the values (Dr, Dg, Db) in the color space of the color image signal are converted into values (GR, BG) in the color plane.
図25(a)は、カラー画像信号を写像すべき2次元平面を示す。この2次元平面において、「Dg−Dr」に相当する直線をGR軸とし、「Db−Dg」に相当する直線をBG軸とする。GR軸とBR軸とは互いに直交している。色空間上の点(Dr,Dg,Db)は、次式により、図25(a)に示す色平面に写像される。
GR=Dg−Dr・・・(式19)
BG=Db−Dg・・・(式20)
FIG. 25A shows a two-dimensional plane on which a color image signal is to be mapped. In this two-dimensional plane, a straight line corresponding to “Dg−Dr” is a GR axis, and a straight line corresponding to “Db−Dg” is a BG axis. The GR axis and the BR axis are orthogonal to each other. The point (Dr, Dg, Db) on the color space is mapped to the color plane shown in FIG.
GR = Dg−Dr (Equation 19)
BG = Db−Dg (Equation 20)
また、色空間におけるN軸上の点(Dnr,Dng,Dnb)は、図25(a)に示す色平面における点(Dng−Dnr,Dnb−Dng)に写像される。Dnr=Dng=Dnbであるから、
(Dng−Dnr,Dnb・Dng)=(0,0)・・・(式21)
となる。すなわち、N軸上のすべての点は、図25(a)に示す平面における原点nに写像される。また、色空間における点C,M,Y,R,G,Bは、原点nの周囲に図25(a)に示すように配置されている。したがって、図23に示した6つの色相領域640〜645は、色平面においてN軸と点C,M,Y,R,G,Bとをそれぞれ結んだ直線で分割された領域740〜745に写像される。
Further, the point (Dnr, Dng, Dnb) on the N axis in the color space is mapped to the point (Dng-Dnr, Dnb-Dng) on the color plane shown in FIG. Since Dnr = Dng = Dnb,
(Dng−Dnr, Dnb · Dng) = (0, 0) (Equation 21)
It becomes. That is, all points on the N axis are mapped to the origin n on the plane shown in FIG. Further, the points C, M, Y, R, G, and B in the color space are arranged around the origin n as shown in FIG. Therefore, the six hue regions 640 to 645 shown in FIG. 23 are mapped to regions 740 to 745 divided by straight lines connecting the N axis and the points C, M, Y, R, G, and B on the color plane. Is done.
図25(b)は、図25(a)の色平面と同一の色平面を示す。色相角HUEは、GR軸を0°として、点nを中心とする回転角である。また、8つの等分領域700〜712は、色相角HUEが45°の倍数の角度となる直線を境界とした領域である。各等分領域に対して色相角HUEに応じて単調増加する値、すなわち上位擬似色相角Haを定める。具体的には、等分領域700内では、上位擬似色相角Ha=0、等分領域702ではHa=1、等分領域704ではHa=2、等分領域706ではHa=3、等分領域708ではHa=4、等分領域710ではHa=5、等分領域712ではHa=6、等分領域714ではHa=7である。 FIG. 25B shows the same color plane as the color plane of FIG. The hue angle HUE is a rotation angle around the point n with the GR axis as 0 °. Further, the eight equally divided regions 700 to 712 are regions having a boundary with a straight line having a hue angle HUE that is a multiple of 45 °. A value that monotonously increases in accordance with the hue angle HUE, that is, the upper pseudo hue angle Ha is determined for each equally divided region. Specifically, in the equal area 700, the upper pseudo hue angle Ha = 0, Ha = 1 in the equal area 702, Ha = 2 in the equal area 704, Ha = 3 in the equal area 706, and the equal area. In 708, Ha = 4, in the equally divided area 710, Ha = 5, in the equally divided area 712, Ha = 6, and in the equally divided area 714, Ha = 7.
次に、ステップS1002において、入力されたカラー画像信号の各色の値から差分GR、差分BG、および各色相評価値Fx’(x=c,m,y,r,g,b)を算出し、ステップS1003において、各色相評価値Fx’、差分GR、および差分BGに基づいて、色相領域コードテーブル(図24(b))を利用して、信号色を含む色相領域の色相領域コードを決定する。 Next, in step S1002, a difference GR, a difference BG, and each hue evaluation value Fx ′ (x = c, m, y, r, g, b) are calculated from the values of the respective colors of the input color image signal. In step S1003, based on each hue evaluation value Fx ′, difference GR, and difference BG, the hue area code of the hue area including the signal color is determined using the hue area code table (FIG. 24B). .
色相評価値Fx’の導出方法について説明する。図25(a)に示した色平面において、点Nと、点C,M,Y,R,G,Bとをそれぞれ結んだ直線、すなわち、直線NC、直線NM、直線NY、直線NR、直線NG、および直線NBはそれぞれ以下のように表される。
BG=(Dcb−Dcg)/(Dcg−Dcr)・GR(但し、Dcg−Dcr≠0)・・・(式22)
BG=(Dmb−Dmg)/(Dmg−Dmr)・GR(但し、Dmg−Dmr≠0)・・・(式23)
BG=(Dyb−Dyg)/(Dyg−Dyr)・GR(但し、Dyg−Dyr≠0)・・・(式24)
BG=(Drb−Drg)/(Drg−Drr)・GR(但し、Drg−Drr≠0)・・・(式25)
BG=(Dgb−Dgg)/(Dgg−Dgr)・GR(但し、Dgg−Dgr≠0)・・・(式26)
BG=(Dbb−Dbg)/(Dbg−Dbr)・GR(但し、Dbg−Dbr≠0)・・・(式27)
A method for deriving the hue evaluation value Fx ′ will be described. In the color plane shown in FIG. 25A, straight lines connecting the point N and the points C, M, Y, R, G, and B, that is, a straight line NC, a straight line NM, a straight line NY, a straight line NR, and a straight line. NG and straight line NB are respectively expressed as follows.
BG = (Dcb−Dcg) / (Dcg−Dcr) · GR (where Dcg−Dcr ≠ 0) (Equation 22)
BG = (Dmb−Dmg) / (Dmg−Dmr) · GR (where Dmg−Dmr ≠ 0) (Equation 23)
BG = (Dyb−Dyg) / (Dyg−Dyr) · GR (where Dyg−Dyr ≠ 0) (Equation 24)
BG = (Drb−Drg) / (Drg−Drr) · GR (where Drg−Drr ≠ 0) (Equation 25)
BG = (Dgb−Dgg) / (Dgg−Dgr) · GR (where Dgg−Dgr ≠ 0) (Equation 26)
BG = (Dbb−Dbg) / (Dbg−Dbr) · GR (where Dbg−Dbr ≠ 0) (Equation 27)
(式22)〜(式27)のそれぞれに、カラー画像信号のGR値を代入して得られるBG値と、実際のカラー画像信号のBG値との大小関係から、各式によって定まる直線と、カラー画像信号に対応する点との位置関係がわかる。したがって、カラー画像信号が、いずれの色相領域に含まれるかは、(式22)〜(式27)にカラー画像信号のGR値を代入して得られるBG値と、カラー画像信号のBG値との大小関係に基づいて判定することができる。 A straight line determined by each equation from the magnitude relationship between the BG value obtained by substituting the GR value of the color image signal for each of (Equation 22) to (Equation 27) and the BG value of the actual color image signal; The positional relationship with the point corresponding to the color image signal is known. Therefore, in which hue region the color image signal is included is determined by substituting the BG value of the color image signal into (Equation 22) to (Equation 27), the BG value of the color image signal, and It can be determined based on the magnitude relationship of.
そこで、(式22)〜(式27)に基づいて次のように色相評価値Fx’を定める。すなわち、(式22)〜(式27)の左辺をそれぞれFc’,Fm’,Fy’,Fr’,Fg’,Fb’とする。
Fc’=(Dcb−Dcg)/(Dcg−Dcr)・GR・・・(式28)
Fm’=(Dmb−Dmg)/(Dmg−Dmr)・GR・・・(式29)
Fy’=(Dyb−Dyg)/(Dyg−Dyr)・GR・・・(式30)
Fr’=(Drb−Drg)/(Drg−Drr)・GR・・・(式31)
Fg’=(Dgb−Dgg)/(Dgg−Dgr)・GR・・・(式32)
Fb’=(Dbb−Dbg)/(Dbg−Dbr)・GR・・・(式33)
Therefore, the hue evaluation value Fx ′ is determined as follows based on (Expression 22) to (Expression 27). That is, the left sides of (Expression 22) to (Expression 27) are respectively Fc ′, Fm ′, Fy ′, Fr ′, Fg ′, and Fb ′.
Fc ′ = (Dcb−Dcg) / (Dcg−Dcr) · GR (Formula 28)
Fm ′ = (Dmb−Dmg) / (Dmg−Dmr) · GR (formula 29)
Fy ′ = (Dyb−Dyg) / (Dyg−Dyr) · GR (Expression 30)
Fr ′ = (Drb−Drg) / (Drg−Drr) · GR (Formula 31)
Fg ′ = (Dgb−Dgg) / (Dgg−Dgr) · GR (Formula 32)
Fb ′ = (Dbb−Dbg) / (Dbg−Dbr) · GR (Expression 33)
例えば、色平面における任意の点(GR,BG)から算出されたFc’およびFb’が、「BG≦Fc’andBG>Fb’」を満たす場合、この点は、CB色相領域に含まれることがわかる。すなわち、図24(b)に示した色相領域コードテーブルにおいて色相領域コードに対応付けられている色相評価値Fx’の条件は、以上の式から定められた条件である。このように、図24(b)の色相領域コードテーブルに色相評価値Fx’の条件が予め設定されている。したがって、色相判定回路は、図24(b)の色相領域コードテーブルのように、各色相領域コードに対応付けられている色相評価値Fx’の条件の中から、BGおよび色相評価値Fx’が満たす条件を特定し、色相領域コードテーブル(図24(b))において、この条件に対応付けられている色相領域コードを選択すればよい。 For example, when Fc ′ and Fb ′ calculated from an arbitrary point (GR, BG) in the color plane satisfy “BG ≦ Fc′andBG> Fb ′”, this point may be included in the CB hue region. Recognize. That is, the condition of the hue evaluation value Fx ′ associated with the hue area code in the hue area code table shown in FIG. 24B is a condition determined from the above formula. As described above, the condition of the hue evaluation value Fx ′ is set in advance in the hue area code table of FIG. Therefore, the hue determination circuit determines that the BG and the hue evaluation value Fx ′ are selected from the conditions of the hue evaluation value Fx ′ associated with each hue area code, as in the hue area code table of FIG. A condition to be satisfied may be specified, and a hue area code associated with this condition may be selected in the hue area code table (FIG. 24B).
なお、図24(b)に示した色相領域コードテーブルにおいては、N軸上の色座標をGC色相領域に含めているが、他の色相領域に含めてもよい。また色相評価値Fx’は、(Dir,Dig,Dib)(i=c,m,y,r,g,b,w,k)の実際の値によって変化する。したがって、色相領域コードテーブル(図24(b))において各色相領域コードに対応付けるべき色相評価値の条件は色相評価値Fx’の値に応じて変更してもよい。 In the hue area code table shown in FIG. 24B, the color coordinates on the N-axis are included in the GC hue area, but may be included in other hue areas. The hue evaluation value Fx ′ varies depending on the actual value of (Dir, Dig, Div) (i = c, m, y, r, g, b, w, k). Therefore, the condition of the hue evaluation value to be associated with each hue area code in the hue area code table (FIG. 24B) may be changed according to the value of the hue evaluation value Fx ′.
なお、(式19)、(式20)に示した変換式によりカラー画像信号(Dr,Dg,Db)を色平面における値(GR,BG)に変換したが、これに代えて、以下に示す変換式により、変換してもよい。
GR=Ri・Dr+Gi・Dg+Bi・Db・・・(式34)
BG=Rj・Dr+Gj・Dg+Bj・Db・・・(式35)
ここで、Ri=Gi=Bi=0,Rj=Gj=Bj=0である。
The color image signals (Dr, Dg, Db) are converted into values (GR, BG) on the color plane by the conversion formulas shown in (Equation 19) and (Equation 20). You may convert by a conversion type | formula.
GR = Ri · Dr + Gi · Dg + Bi · Db (Formula 34)
BG = Rj · Dr + Gj · Dg + Bj · Db (Formula 35)
Here, Ri = Gi = Bi = 0 and Rj = Gj = Bj = 0.
入力された画像信号(R,G,B)が分割された空間の何処に属するかを前述したように、色相判定回路において判定し、その後、各空間毎に予め設定しておいたマスキング係数(色補正係数)(式36)を用いて色補正処理を行う。その際、濃度調整やカラーバランス調整など、必要に応じてマスキング係数の線形処理等を行う。なお、以下で分割点とは、例えば図22における点G(Green)のように、境界面と辺が交わった点である。 As described above, the hue determination circuit determines where the input image signal (R, G, B) belongs to the divided space, and then a masking coefficient (preliminarily set for each space) Color correction processing is performed using (color correction coefficient) (formula 36). At that time, linear processing of the masking coefficient is performed as necessary, such as density adjustment and color balance adjustment. In the following description, the dividing point is a point where a boundary surface and a side intersect, for example, a point G (Green) in FIG.
ここで、左辺P(hue)(P=C,M,Y,K;hue=色相R,G,B,Y,M,C,K,Wなど)をプリンタベクトル、右辺S(hue)(S=B,G,R;hue=色相R,G,B,Y,M,C,K,Wなど)をスキャナベクトル、aPS(hue)(P=C,M,Y,K;S=B,G,R)を色相毎の線形マスキング係数と呼ぶ。 Here, the left side P (hue) (P = C, M, Y, K; hue = hue R, G, B, Y, M, C, K, W, etc.) is the printer vector, and the right side S (hue) (S = B, G, R; hue = hue R, G, B, Y, M, C, K, W, etc.) is a scanner vector, aPS (hue) (P = C, M, Y, K; S = B, G, R) is called a linear masking coefficient for each hue.
通常、各空間の線形マスキング係数aPS(色相)(P=Y,M,C,K;S=R,G,B,定数)は、図23に示すような無彩色軸上の異なる2点(R1,G1,B1)及び(R2,G2,B2)と、無彩色軸上にない2境界面上の2点(R3,G3,B3)及び(R4,G4,B4)の計4点のR,G,Bの値とその色再現に最適な現像部のC、M、Y及びKの記録値(C1,M1,Y1,K1)、(C2,M2,Y2,K2)、(C3,M3,Y3,K3)及び(C4,M4,Y4,K4)を予め決めておき、以下に示す演算により求める。 Normally, the linear masking coefficient aPS (hue) (P = Y, M, C, K; S = R, G, B, constant) in each space is different from two points on the achromatic color axis as shown in FIG. R1, G1, B1) and (R2, G2, B2) and two points (R3, G3, B3) and (R4, G4, B4) on the two boundary surfaces that are not on the achromatic axis. , G, B values and C, M, Y, and K recorded values (C1, M1, Y1, K1), (C2, M2, Y2, K2), (C3, M3) of the developing unit that are optimal for color reproduction , Y3, K3) and (C4, M4, Y4, K4) are determined in advance and obtained by the following calculation.
ここで、aXY(3−4)は、色相3と色相4の間の色領域で成り立つマスキング係数を表す。また、各点のC、M、Y及びKの記録値はUCR(下色除去)前の等価無彩色濃度換算値とする。なお、以下では説明を簡略にするために、無彩色軸上の2点を白点と黒点とする。この場合、等価無彩色濃度換算値が取り得る最大値をXmaxとすれば、各値には以下のような関係がある。
白点の場合R1=G1=B1=C1=M1=Y1=0≧K1
黒点の場合R1=G1=B1=C1=M1=Y1=Xmax≧K2
また、境界面上の2点は、現像部のC、M、Y及びKの記録値の最小値が0で、記録値の最大値がXmaxとなる点、即ち、各境界面上で記録可能な、最も彩度の高い点とすると良い。すなわち、
Min(C3,M3,Y3)=0≧K3
Max(C3,M3,Y3)=Xmax
Min(C4,M4,Y4)=0≧K4
Max(C4,M4,Y4)=Xmax
が成立する。
Here, aXY (3-4) represents a masking coefficient that is established in a color region between hue 3 and hue 4. The recorded values of C, M, Y, and K at each point are equivalent achromatic color density converted values before UCR (under color removal). In the following, in order to simplify the description, two points on the achromatic color axis are set as a white point and a black point. In this case, if the maximum value that can be taken by the equivalent achromatic color density conversion value is Xmax, each value has the following relationship.
In the case of a white point R1 = G1 = B1 = C1 = M1 = Y1 = 0 ≧ K1
In the case of a black dot R1 = G1 = B1 = C1 = M1 = Y1 = Xmax ≧ K2
In addition, two points on the boundary surface are points where the minimum value of the recorded values of C, M, Y and K of the developing portion is 0 and the maximum value of the recorded value is Xmax, that is, recording is possible on each boundary surface. It should be the point with the highest saturation. That is,
Min (C3, M3, Y3) = 0 ≧ K3
Max (C3, M3, Y3) = Xmax
Min (C4, M4, Y4) = 0 ≧ K4
Max (C4, M4, Y4) = Xmax
Is established.
現像部のKの記録値を現像部のC、M、及びYのうちの最小値から、例えば以下のように決定しておくことで、UCR率を制御することもできる。
UCR率100%の場合:K=Min(C,M,Y)
UCR率70%の場合:K=Min(C,M,Y)×0.7
図22のように、6つの境界面で色空間(R,G,B)を分割する場合、少なくとも各境界面上の6点と無彩色軸上の2点の、計8点のR,G,Bの値と、その色の再現に最適な現像部のC、M、Y及びKの記録値を予め決めておき、これらに基づいて各空間のマスキング係数を求める。なお、前述にように各空間のマスキング係数を予め求めてROM、RAM等に記憶しておき、色補正処理において、色相判定で判定された色に応じて適切なマスキング係数を選択し、色補正を行うことができる。
The UCR rate can also be controlled by determining the K recording value of the developing unit from the minimum value among C, M, and Y of the developing unit, for example, as follows.
When the UCR rate is 100%: K = Min (C, M, Y)
When UCR rate is 70%: K = Min (C, M, Y) × 0.7
When dividing the color space (R, G, B) with six boundary surfaces as shown in FIG. 22, a total of eight R, G points, at least six points on each boundary surface and two points on the achromatic color axis, are used. , B and the recording values of C, M, Y, and K of the developing unit that are optimal for reproducing the color are determined in advance, and the masking coefficient of each space is obtained based on these values. As described above, the masking coefficient of each space is obtained in advance and stored in ROM, RAM, etc., and in the color correction process, an appropriate masking coefficient is selected according to the color determined in the hue determination, and color correction is performed. It can be performed.
(式38)において、透明トナーTを使用しない場合(T=0)の場合と、透明トナーTを使用する場合を、それぞれ、Y(0)(1)〜Y(0)(4)、M(0)(1)〜M(0)(4)、C(0)(1)〜C(0)(4)、K(0)(1)〜K(0)(4)、および、Y(T)(1)〜Y(T)(4)、M(T)(1)〜M(T)(4)、C(T)(1)〜C(T)(4)、K(T)(1)〜K(T)(4)と表記すると、透明トナーを使用しない画像領域に適応するマスキング係数は、 In (Equation 38), the case where the transparent toner T is not used (T = 0) and the case where the transparent toner T is used are Y (0) (1) to Y (0) (4), M, respectively. (0) (1) -M (0) (4), C (0) (1) -C (0) (4), K (0) (1) -K (0) (4), and Y (T) (1) to Y (T) (4), M (T) (1) to M (T) (4), C (T) (1) to C (T) (4), K (T ) (1) to K (T) (4), the masking coefficient adapted to the image area not using the transparent toner is
CCDやCISの分光特性の違いを補正するために上記の線形マスキング係数を図27に示したスキャナデータ・キャリブレーションチャートの読み取り値に基づいて新たな線形マスキング係数を算出する。以下、その方法について説明する。 In order to correct the difference in the spectral characteristics of the CCD and CIS, a new linear masking coefficient is calculated based on the read value of the scanner data / calibration chart shown in FIG. The method will be described below.
無彩色軸上にない境界面上の点を、例えば標準的な分光特性を示すスキャナCCDで読取った場合の値を(Ri,Gi,Bi)(i=色相1〜4)とする。同じ点を他のスキャナで読み取った場合、スキャナCCDの分光特性のばらつきにより、この点は(Ri,Gi,Bi)(i=色相1〜4)とは異なる値である(Ri’,Gi’,Bi’)(i=色相1〜4)として読み取られる。この結果、式(1)により現像部C、M、Y及びKの記録値は(Ci’,Mi’,Yi’,Ki’)(i=色相1〜4)として計算される。すなわち、(式38)を次の(式42)のように表すことができる。 A value when a point on the boundary surface that is not on the achromatic color axis is read by, for example, a scanner CCD showing standard spectral characteristics is defined as (Ri, Gi, Bi) (i = hue 1 to 4). When the same point is read by another scanner, this point is different from (Ri, Gi, Bi) (i = hue 1 to 4) due to variations in the spectral characteristics of the scanner CCD (Ri ′, Gi ′). , Bi ′) (i = hue 1 to 4). As a result, the recording values of the developing portions C, M, Y, and K are calculated as (Ci ′, Mi ′, Yi ′, Ki ′) (i = hues 1 to 4) according to the equation (1). That is, (Equation 38) can be expressed as the following (Equation 42).
プリンタベクトルP(i)(P=Y,M,C,K;i=各色相)は、コピーを行う対象である原稿の種類に応じて変更することにより、コピーの色再現性を向上させることができる。原稿種とは、たとえば、インクを色材に用いた印刷原稿、YMC感光層を色材にした印画紙写真原稿、トナーを色材にした複写原稿、インクジェットプリンタ出力を原稿としたインクジェット原稿、特色インクを使用した地図原稿、蛍光ペンを識別させるための蛍光ペンを対象とした色補正係数などが一例としてあげられる。 The printer vector P (i) (P = Y, M, C, K; i = each hue) is changed according to the type of the original to be copied, thereby improving the color reproducibility of the copy. Can do. Document types include, for example, a printed document using ink as a color material, a photographic paper photo document using a YMC photosensitive layer as a color material, a copy document using toner as a color material, an inkjet document using an inkjet printer output as a document, and a special color. Examples include a map document using ink, a color correction coefficient for a fluorescent pen for identifying the fluorescent pen, and the like.
すなわち、プリンタベクトルP(i)(P=Y,M,C,K;i=各色相)を上記の各原稿種に対応したP原稿種(i)(P=Y,M,C,K;i=各色相、原稿種=印刷、印画紙写真、複写原稿、地図、インクジェット、蛍光ペンなど)を操作部で選択された各画質モードに対応したaPS原稿種(色相)(P=Y,M,C,K;S=R,G,B,定数)を演算し、回路(ASIC)に設定してコピー時に用いる。 That is, the printer vector P (i) (P = Y, M, C, K; i = each hue) is a P document type (i) (P = Y, M, C, K; corresponding to each document type). i = each hue, original type = printing, photographic paper photograph, copy original, map, inkjet, highlighter pen, etc.) aPS original type (hue) corresponding to each image quality mode selected on the operation unit (P = Y, M , C, K; S = R, G, B, constants) are calculated and set in a circuit (ASIC) for use in copying.
UCR処理は次式を用いて演算することにより行うことができる。
Y’=Y−α・min(Y,M,C)
M’=M−α・min(Y,M,C)
C’=C−α・min(Y,M,C)
Bk=α・min(Y,M,C) (式45)
上式において、αはUCRの量を決める係数であり、α=1のとき100%UCR処理となる。αは一定値でも良い。例えば、高濃度部では、αは1に近く、ハイライト部(低画像濃度部)では、0に近くすることにより、ハイライト部での画像を滑らかにすることができる。
The UCR process can be performed by calculating using the following equation.
Y ′ = Y−α · min (Y, M, C)
M ′ = M−α · min (Y, M, C)
C ′ = C−α · min (Y, M, C)
Bk = α · min (Y, M, C) (Formula 45)
In the above equation, α is a coefficient that determines the amount of UCR. When α = 1, 100% UCR processing is performed. α may be a constant value. For example, when α is close to 1 in the high density portion and close to 0 in the highlight portion (low image density portion), the image in the highlight portion can be smoothed.
上記の色補正係数は、RGBYMCの6色相をそれぞれ更に2分割した12色相に、更に黒および白の14色相毎に異なる。色相判定回路は、読み取った画像データがどの色相に判別するかを判定する。判定した結果に基づいて、色相毎の色補正係数が選択される。 The color correction coefficient is different from the six hues of RGBYMC into 12 hues obtained by further dividing each of the six hues of RGBYMC and into every 14 hues of black and white. The hue determination circuit determines to which hue the read image data is determined. Based on the determination result, a color correction coefficient for each hue is selected.
色相hueに対応する輝度L(hue)を算出するためのプリンタベクタの生成について説明する。 Generation of a printer vector for calculating the luminance L (hue) corresponding to the hue hue will be described.
単色SingleのプリンタベクタP(Single)(P=Y,M,C,K)として表すと、色相hueのプリンタベクタP(hue)(hueは色相R,G,B,C,M,Y,K,W)は、(式46)で求めた色相hueに対応する輝度L(hue)を、単色SingleのプリンタベクタP(Single)に乗算して(式47)で求める。なお、P(Singleを、(式47)の右辺の[…]の形式で表した。 When expressed as a single color single printer vector P (Single) (P = Y, M, C, K), the hue hue printer vector P (hue) (hue is the hue R, G, B, C, M, Y, K). , W) is obtained by (Equation 47) by multiplying the single-color Single printer vector P (Single) by the luminance L (hue) corresponding to the hue hue obtained by (Equation 46). Note that P (Single is represented in the form of [...] on the right side of (Expression 47).
上記の色補正係数は、RGBYMCの6色相をそれぞれ更に2分割した12色相に、更に黒および白の14色相毎に異なる。色相判定回路は、読み取った画像データがどの色相に判別するかを判定する。判定した結果に基づいて、色相毎の色補正係数が選択される。 The color correction coefficient is different from the six hues of RGBYMC into 12 hues obtained by further dividing each of the six hues of RGBYMC and into every 14 hues of black and white. The hue determination circuit determines to which hue the read image data is determined. Based on the determination result, a color correction coefficient for each hue is selected.
本発明の第1の透明トナーの使用方法を説明する。図25において、透明トナーを使用しない色再現域Y(0)−G(0)−C(0)−B(0)−M(0)−R(0)に対して、透明トナーを使用する色再現域Y(T)−G(T)−C(T)−B(T)−M(T)−R(T)が狭くなる場合には、透明トナーを使用しない色再現域Y(0)(Dy)−G(0)(Dy,Dc)−C(0)(Dc)−B(0)(Dc,Dm)−M(0)(Dm)−R(0)(Dm,Dy)が、透明トナーを使用する色再現域Y(T)−G(T)−C(T)−B(T)−M(T)−R(T)に略一致するように、透明トナーを使用しない場合のCMYトナーの使用量の上限値(Dc(hue)(0),Dm(hue)(0)、Dy(hue)(0))(hueは色相を表す)を、透明トナーを使用した場合のCMYトナーの使用量の上限値(Dc(hue)(T)、Dm(hue)(T)、Dy(hue)(T))に対して、それぞれDc(hue)(0)≦Dc(hue)(T)、Dm(hue)(0)≦Dm(hue)(T)、Dy(hue)(0)≦Dy(hue)(T)とする。 A method for using the first transparent toner of the present invention will be described. In FIG. 25, transparent toner is used for the color gamut Y (0) -G (0) -C (0) -B (0) -M (0) -R (0) that does not use transparent toner. When the color gamut Y (T) -G (T) -C (T) -B (T) -M (T) -R (T) becomes narrow, the color gamut Y (0) without using transparent toner. ) (Dy) -G (0) (Dy, Dc) -C (0) (Dc) -B (0) (Dc, Dm) -M (0) (Dm) -R (0) (Dm, Dy) Is used so that the color gamut Y (T) -G (T) -C (T) -B (T) -M (T) -R (T) substantially matches the color gamut using the transparent toner. The upper limit of the amount of CMY toner used (Dc (hue) (0), Dm (hue) (0), Dy (hue) (0)) (where hue represents the hue) was used for transparent toner. CMY in case Dc (hue) (0) ≦ Dc (hue) (Dc (hue) (T), Dm (hue) (T), Dy (hue) (T)) T), Dm (hue) (0) ≦ Dm (hue) (T), Dy (hue) (0) ≦ Dy (hue) (T).
これにより、透明トナーを使用する画像領域の彩度方向の色再現範囲と、透明トナーを使用しない画像領域の色再現範囲とのずれを低減することができる。 Accordingly, it is possible to reduce a deviation between the color reproduction range in the saturation direction of the image area using the transparent toner and the color reproduction range of the image area not using the transparent toner.
上記の上限値(Dc(hue)(0),Dm(hue)(0)、Dy(hue)(0))およびDc(hue)(T)、Dm(hue)(T)、Dy(hue)(T)は、転写紙の種類により異なるので、転写紙の種類に応じて切り替える。 The upper limit values (Dc (hue) (0), Dm (hue) (0), Dy (hue) (0)) and Dc (hue) (T), Dm (hue) (T), Dy (hue) Since (T) differs depending on the type of transfer paper, it is switched according to the type of transfer paper.
これにより、紙種の種類による、透明トナーを使用する画像領域と、透明トナーを使用しない画像領域の色再現性の差を抑制することができる。 Accordingly, it is possible to suppress a difference in color reproducibility between an image area using the transparent toner and an image area not using the transparent toner depending on the type of paper.
上記の上限値(Dc(hue)(0),Dm(hue)(0)、Dy(hue)(0))およびDc(hue)(T)、Dm(hue)(T)、Dy(hue)(T)は、文字モード、写真モードなどの画質モードにより異なるので、画質モードに応じて切り替える。 The upper limit values (Dc (hue) (0), Dm (hue) (0), Dy (hue) (0)) and Dc (hue) (T), Dm (hue) (T), Dy (hue) Since (T) differs depending on the image quality mode such as the character mode and the photo mode, it is switched according to the image quality mode.
これにより、使用者が選択した画質モードに関わらず、透明トナーを使用する画像領域と、透明トナーを使用しない画像領域の色再現性の差を抑制することができる。 Thereby, regardless of the image quality mode selected by the user, it is possible to suppress the difference in color reproducibility between the image area using the transparent toner and the image area not using the transparent toner.
上記の上限値(Dc(hue)(0),Dm(hue)(0)、Dy(hue)(0))およびDc(hue)(T)、Dm(hue)(T)、Dy(hue)(T)は、階調処理の種類(ディザ処理、誤差拡散処理など)により異なるので、階調処理の種類に応じて切り替える。 The upper limit values (Dc (hue) (0), Dm (hue) (0), Dy (hue) (0)) and Dc (hue) (T), Dm (hue) (T), Dy (hue) Since (T) differs depending on the type of gradation processing (dither processing, error diffusion processing, etc.), it is switched according to the type of gradation processing.
色再現は、有色トナーを透明トナーの覆い方、覆う量によって異なるので、有色トナーの上に、透明トナーのベタを乗せる場合、色の補正量を大、有色トナーの万線パターンの間に透明トナーを万線状に形成する場合、色の補正量を中、有色トナーの上に網点状に透明トナーを乗せる場合、色の補正量を小とするように、有色トナーの階調処理と、透明トナーの階調処理の組み合わせに応じて色の補正量を切り替える。これにより、有色トナーのみの色味と、有色トナー+透明トナーの色味とのずれを小さくすることができる。 Color reproduction varies depending on how and how much of the color toner is covered with the transparent toner, so if the solid color of the transparent toner is placed on the color toner, the color correction amount is large and the color toner is transparent between the line patterns of the color toner. When the toner is formed in a line shape, when the color correction amount is medium, and when transparent toner is placed on the color toner in a halftone dot shape, the color toner gradation processing is performed so that the color correction amount is small. The color correction amount is switched according to the combination of gradation processing of the transparent toner. Thereby, the shift | offset | difference of the color tone of only a color toner and the color tone of a color toner + transparent toner can be made small.
透明トナーを使用する画像領域に使用するマスキング係数は、(式41)から求められ、透明トナーを使用しない画像領域に使用するマスキング係数は、(式40)から求めることができる。 The masking coefficient used for the image area using the transparent toner can be obtained from (Equation 41), and the masking coefficient used for the image area not using the transparent toner can be obtained from (Equation 40).
本発明の第2の透明トナーの使用方法を説明する。図22において、色再現領域W(T)−Y(0)−G(0)−C(0)−B(0)−M(0)−R(0)−K(0)は、転写紙の地肌部に対して透明トナーTを使用し、CMYトナーの付着量を多くすることにより彩度を大きくする場合に、透明トナーの使用量を減らしていくときの近似的な色再現域を表す。 A method of using the second transparent toner of the present invention will be described. In FIG. 22, the color reproduction area W (T) -Y (0) -G (0) -C (0) -B (0) -M (0) -R (0) -K (0) is a transfer sheet. This expresses an approximate color gamut when the amount of transparent toner used is reduced when transparent toner T is used on the background of the image and the saturation is increased by increasing the amount of CMY toner attached. .
(式39)に対して、無彩色軸上の異なる2点(R1,G1,B1)及び(R2,G2,B2)のR,G,Bの値とその色再現に最適な現像部のC、M、Y及びKの記録値(C1,M1,Y1,K1)、(C2,M2,Y2,K2)のうち、(C1,M1,Y1,K1)に透明トナーを使用した白部、(C2,M2,Y2,K2)に透明トナーを使用しない黒部として、白部に対して透明トナーを使用するマスキング係数は、 With respect to (Equation 39), the values of R, G, B at two different points (R1, G1, B1) and (R2, G2, B2) on the achromatic color axis and the C of the developing unit optimum for the color reproduction. , M, Y, and K recorded values (C1, M1, Y1, K1), (C2, M2, Y2, K2), white portions using transparent toner for (C1, M1, Y1, K1), ( C2, M2, Y2, K2) As a black portion that does not use a transparent toner, a masking coefficient that uses a transparent toner for a white portion is:
図28は、コート紙を使用した場合の色再現の概念図である。図28(a)は、L*a*b*表色系の明度L*−クロマティクス指数a*平面上の色再現範囲の概念図であり、図28(b)は、同じくL*a*b*表色系のクロマティクス指数a*−b*平面上の色再現範囲の概念図である。 FIG. 28 is a conceptual diagram of color reproduction when coated paper is used. FIG. 28A is a conceptual diagram of the color reproduction range on the L * a * b * color system lightness L * -chromatic index a * plane, and FIG. 28B also shows L * a *. It is a conceptual diagram of the color reproduction range on the chromaticity index a * -b * plane of the b * color system.
図29は、普通紙を使用した場合の色再現の概念図である。図29(a)は、L*a*b*表色系の明度L*−クロマティクス指数a*平面上の色再現範囲の概念図であり、図29(b)は、同じくL*a*b*表色系のクロマティクス指数a*−b*平面上の色再現範囲の概念図である。有色トナーのみの色再現域に比べて、透明トナーを重ねた有色トナーの色再現範囲は、L*a*b*表色系を一例として、明度指数L*が100に近い明るい明度領域でのずれと、クロマティクス指数a*、b*の値が大きい(彩度が大きい)方向での、ずれが生じる場合がある。この場合には、彩度を高める方向(上記a*,b*の絶対値を大きくする方向)に対しては、透明トナーを使用せずに、明るい(100に近い)明度指数L*の領域に対して適応する。 FIG. 29 is a conceptual diagram of color reproduction when plain paper is used. FIG. 29A is a conceptual diagram of the color reproduction range on the L * a * b * color system lightness L * -chromatic index a * plane, and FIG. 29B also shows L * a *. It is a conceptual diagram of the color reproduction range on the chromaticity index a * -b * plane of the b * color system. Compared to the color reproduction range of color toner only, the color reproduction range of color toner with transparent toner superimposed is an example of L * a * b * color system in the lightness range where the brightness index L * is close to 100. There may be a shift and a shift in the direction in which the values of the chromaticity indices a * and b * are large (the saturation is large). In this case, in the direction of increasing the saturation (the direction in which the absolute values of a * and b * are increased), a bright (close to 100) region of lightness index L * is used without using transparent toner. Adapt to
図30は、原稿の彩度とトナー付着量の関係を示す。横軸は、L*C*h*表色系における原稿の彩度C*であり、縦軸は、トナーの付着量である。a.(実線)は有色トナーの付着量、b.(二点鎖線)は転写紙としてコート紙を使用した場合の透明トナーの付着量、c.(長破線)は、転写紙として普通紙を使用した場合の透明トナーの付着量、d.(一点鎖線)はコート紙に対する有色トナー+透明トナーの付着量の和、e.(短破線)は、普通紙に対する有色トナー+透明トナーの付着量の和を示す。コート紙は普通紙に比べて表面の光沢性が高いために、同じ光沢を得るためには、透明トナーの量は少なくてもよい。 FIG. 30 shows the relationship between the saturation of the document and the toner adhesion amount. The horizontal axis is the original chroma C * in the L * C * h * color system, and the vertical axis is the toner adhesion amount. a. (Solid line) is the amount of colored toner attached; b. (Two-dot chain line) indicates the amount of transparent toner adhered when coated paper is used as transfer paper, c. (Long broken line) is the amount of transparent toner adhered when plain paper is used as transfer paper, d. (One-dot chain line) is the sum of the adhesion amount of the colored toner and the transparent toner to the coated paper, (Short dashed line) indicates the sum of the adhesion amount of the color toner + the transparent toner to the plain paper. Since coated paper has higher surface gloss than plain paper, the amount of transparent toner may be small in order to obtain the same gloss.
図31は、印刷原稿と読み取り値との関係を示す。図31(d)は、印刷したコート紙を普通紙に貼付した原稿のサンプルを示す。(c)のグラフの縦軸は、スキャナの読み取り値を表し、横軸は、原稿の主走査方向の読み取り値を示し、(b)のグラフは、原稿の断面図を示す。(a)の画像は、転写紙に透明トナーと有色トナーを付着した概念図を表し、縦軸はトナー付着量を表す。 FIG. 31 shows the relationship between the printed document and the read value. FIG. 31D shows a sample of a document in which printed coated paper is pasted on plain paper. The vertical axis of the graph of (c) represents the reading value of the scanner, the horizontal axis represents the reading value of the document in the main scanning direction, and the graph of (b) represents a cross-sectional view of the document. The image (a) represents a conceptual diagram in which transparent toner and colored toner are adhered to transfer paper, and the vertical axis represents the toner adhesion amount.
原稿に使用したコート紙2に対して、コート紙1の表面の滑らかさ・平滑性が高く、読み取り値のバラつきが小さいことから、原稿の地肌部に付着する透明トナーの付着量を多くした例を示す。 An example in which the amount of transparent toner adhering to the background portion of the original document is increased because the coated paper 1 used for the original document has a high smoothness and smoothness on the surface of the coated paper 1 and a small variation in the reading value. Indicates.
上記した本発明の第1の方法は、使用する透明トナーの使用量を略一定で使用し、CMYトナー付着量を抑制することができるが、色再現域は特に彩度に対して狭くなる場合がある。一方、上記した本発明の第2の方法は、透明トナーを使用した場合も、透明トナーを使用しない場合も彩度方向の色再現域は変わらないが、透明トナーの使用量を地肌部付近に限る方法である。これにより、使用者の好みに応じて、色再現範囲を重視する場合には後者を選択し、透明トナーの光沢効果を重視する場合には、前者を選択するように切り替えることができる。 In the first method of the present invention described above, the amount of transparent toner to be used can be used at a substantially constant level, and the amount of CMY toner adhesion can be suppressed. However, the color reproduction range is particularly narrow with respect to the saturation. There is. On the other hand, in the second method of the present invention described above, the color reproduction range in the saturation direction is the same regardless of whether transparent toner is used or transparent toner is used, but the amount of transparent toner used is close to the background. It is a limited method. Thus, according to the user's preference, the latter can be selected when the color reproduction range is important, and the former can be selected when the gloss effect of the transparent toner is important.
図3に戻り、変倍処理回路408では、主走査、副走査の変倍を行う。γ変換(1)回路409は、像域分離信号に応じて文字用・写真用のγ変換を行ったり、あるいは、階調処理(1)回路410で、二値化処理を行う前にプリンタγ変換を行う。階調処理(1)回路410では、FAX送信やスキャナ配信を行う際に、操作部やI/F421に接続したLANを経由したPCなどから指示された文字モード、写真モード、文字・写真モードに応じた単純二値化処理、二値ディザ処理、二値誤差拡散処理、二値変動閾値誤差拡散処理などの二値化処理を行う。 Returning to FIG. 3, the scaling processing circuit 408 performs scaling for main scanning and sub-scanning. The γ conversion (1) circuit 409 performs γ conversion for characters and photographs according to the image area separation signal, or the printer γ before the binarization processing is performed by the gradation processing (1) circuit 410. Perform conversion. In the gradation processing (1) circuit 410, when performing FAX transmission and scanner delivery, the character mode, photo mode, and character / photo mode are instructed from the operation unit or a PC via a LAN connected to the I / F 421. Corresponding simple binarization processing, binary dither processing, binary error diffusion processing, binary fluctuation threshold error diffusion processing, etc. are performed.
編集(1)回路411では、端部マスク処理、論理反転などの編集処理を行う。画像データ保管時には、Multilayer Bus412を経由して、圧縮・伸張処理回路416で圧縮処理がなされ、HDDI/F418を介して、HDD419内に圧縮された画像データが保管される。保管される画像データは、使用目的に応じて、RGB信号、K(Gray)信号、CMYK信号、RGBX信号(X信号は像域分離結果)として保管される。RGB信号は配信用、K(Gray)信号は配信やFAX送信用、CMYK信号は紙への印刷用、RGBX信号はCMYKデータ生成、もしくは、sRGB信号に色空間変換を行い配信するなどの再処理用として保管する。 The editing (1) circuit 411 performs editing processing such as edge mask processing and logical inversion. At the time of image data storage, compression processing is performed by the compression / decompression processing circuit 416 via the Multilayer Bus 412, and the compressed image data is stored in the HDD 419 via the HDD I / F 418. The stored image data is stored as an RGB signal, a K (Gray) signal, a CMYK signal, and an RGBX signal (X signal is an image area separation result) according to the purpose of use. Reprocessing such as RGB signal for distribution, K (Gray) signal for distribution and FAX transmission, CMYK signal for printing on paper, RGBX signal for CMYK data generation, or color space conversion to sRGB signal for distribution Store for use.
スキャナ400により読み取られた画像データを、FAX送信、あるいはスキャナ送信用に使用する場合には、色補正・UCR処理(1)回路407では、s−RGBもしくはK(Gray)信号に変換した後、メモリコントローラ(2)436を通して、メインメモリ437に保管する。転写紙に印刷出力する場合には、Multilayer Bus412を経由して、Gray/RGB変換回路425は、RGB画像データからGray信号を生成する。その際、Green信号をR=G=BとしてGray化する処理を必要に応じて行う。RGB合成回路426は、RGB画像データを上書き合成、透かし合成を行う。 When the image data read by the scanner 400 is used for FAX transmission or scanner transmission, the color correction / UCR processing (1) circuit 407 converts the image data into s-RGB or K (Gray) signals. The data is stored in the main memory 437 through the memory controller (2) 436. When printing on the transfer paper, the Gray / RGB conversion circuit 425 generates a Gray signal from the RGB image data via the Multilayer Bus 412. At that time, the processing of making the Green signal R = G = B and making it Gray is performed as necessary. The RGB composition circuit 426 performs overwrite composition and watermark composition on RGB image data.
パターン生成回路427は、後述するACC(自動階調補正)パターンや登録色パターンなどを発生する。空間フィルタ(2)回路428は、エッジ強調、平滑化処理など空間フィルタ処理を行う。ADS除去回路429は、原稿追従型の地肌除去処理を行う。色相判定処理(2)回路430、色補正・UCR処理(2)回路431の機能は、それぞれ色相判定処理回路406、色補正・UCR処理回路407と同様である。変倍処理(2)回路433は、変倍処理(1)回路408と同様である。 The pattern generation circuit 427 generates an ACC (automatic gradation correction) pattern, a registered color pattern, and the like which will be described later. The spatial filter (2) circuit 428 performs spatial filter processing such as edge enhancement and smoothing processing. The ADS removal circuit 429 performs document follow-type background removal processing. The functions of the hue determination processing (2) circuit 430 and the color correction / UCR processing (2) circuit 431 are the same as those of the hue determination processing circuit 406 and the color correction / UCR processing circuit 407, respectively. The scaling process (2) circuit 433 is the same as the scaling process (1) circuit 408.
総量規制回路434は、色補正・UCR処理(2)回路431でCMYK信号に変換された際に、転写紙上のYMCKトナーの総量を規制する。特徴量抽出処理回路422は、画像のエッジ、非エッジ、エッジと非エッジの中間の弱エッジなどの判定処理を行い、γ変換(2)回路423では、エッジ、非エッジ、弱エッジなどの判定結果に応じたγ変換処理を行い、階調処理回路424では、二値あるいは多値のディザ処理、二値あるいは多値の誤差拡散処理、二値あるいは多値の変動閾値誤差拡散処理などの階調処理を行う。 The total amount regulating circuit 434 regulates the total amount of YMCK toner on the transfer paper when converted into CMYK signals by the color correction / UCR processing (2) circuit 431. The feature amount extraction processing circuit 422 performs determination processing such as an edge of the image, a non-edge, and a weak edge between the edges, and the γ conversion (2) circuit 423 determines the edge, non-edge, weak edge, and the like. The gradation processing circuit 424 performs γ conversion processing according to the result, and the gradation processing circuit 424 performs processing such as binary or multi-value dither processing, binary or multi-value error diffusion processing, binary or multi-value variation threshold error diffusion processing, or the like. Perform key processing.
図32は、階調処理方式を説明する構成を示す。図32は、図3の特徴量抽出部(1)440、γ変換部(1)409、階調処理部(1)410、特徴量抽出部(2)422、γ変換部(2)423、階調処理部(2)424における、YMCKの内の1色分の処理構成を示す。図1の複写機101は、4色の有色トナーと、無色トナーが平行して処理されるので、図32に示す処理ブロックを有色トナー4色分と無色トナーを含む5色分を使用する。 FIG. 32 shows a configuration for explaining the gradation processing method. 32 shows the feature amount extraction unit (1) 440, the γ conversion unit (1) 409, the gradation processing unit (1) 410, the feature amount extraction unit (2) 422, the γ conversion unit (2) 423 of FIG. The processing configuration for one color of YMCK in the gradation processing unit (2) 424 is shown. The copier 101 in FIG. 1 processes four color toners and colorless toner in parallel, so the processing block shown in FIG. 32 uses four colors and five colors including colorless toner.
図32に示すように、特徴量抽出・低濃度判定処理部4120は、ラインメモリ4121、特徴量抽出部4122、低濃度判定部4123からなる。ラインメモリ4121は、特徴量抽出部4122で使用する複数ライン(一例として5ライン分)を記憶する。特徴量抽出部4122は、後述する処理により、画像データからエッジ部、非エッジ部、弱エッジ部(エッジ部と非エッジ部の中間のエッジ度を有する領域)(1,2)を抽出する。低濃度判定部4123は、画像データと所定の濃度閾値を比較し、画像データが低濃度(ハイライト)部に相当するか、ハイライト以外の画像データであるかを判定する。 As shown in FIG. 32, the feature amount extraction / low density determination processing unit 4120 includes a line memory 4121, a feature amount extraction unit 4122, and a low density determination unit 4123. The line memory 4121 stores a plurality of lines (for example, five lines) used by the feature amount extraction unit 4122. The feature amount extraction unit 4122 extracts an edge portion, a non-edge portion, and a weak edge portion (region having an intermediate edge degree between the edge portion and the non-edge portion) (1, 2) from the image data by a process described later. The low density determination unit 4123 compares the image data with a predetermined density threshold and determines whether the image data corresponds to a low density (highlight) part or is image data other than highlights.
プリンタγ変換処理(2)4130は、プリンタγ変換処理部4132と、プリンタγテーブルデータ4131とからなる。プリンタγ変換処理部4132は、特徴量抽出部4122からの2ビットの特徴量抽出結果に基づいて、プリンタγテーブルデータ4131に設定されたプリンタγテーブルを参照し、プリンタγ変換を行う。 The printer γ conversion process (2) 4130 includes a printer γ conversion processing unit 4132 and printer γ table data 4131. The printer gamma conversion processing unit 4132 refers to the printer gamma table set in the printer gamma table data 4131 based on the 2-bit feature quantity extraction result from the feature quantity extraction unit 4122 and performs printer gamma conversion.
階調処理部4140は、量子化閾値生成部4150、誤差拡散処理部4151からなる。量子化閾値生成部4150は、特徴量抽出・低濃度判定処理4120から、注目画素(x0,y0)における2bitの特徴量抽出結果Chr(x0,y0)(≡C={0,1,2,3}、以下Cと表記)および2bitの低濃度判定結果Dns(x0,y0)(≡D={0,1,2,3}、以下Dと表記)に基づいて、量子化閾値を生成する。ここで、x0は主走査方向の画素を指定する値で、y0は副走査方向の画素の位置を指定する値である。600dpiの場合、例えば、A3サイズの原稿を読み込んだ画素数に余白部を加えて、x0={0,1,2,〜,x0max};y={0,1,2,…,y0max}として、x0max=7,100,y0max=10,000程度の値をとる。A1サイズなどの原稿サイズに対応する場合には、x0max,y0maxはより大きな値となる。 The gradation processing unit 4140 includes a quantization threshold value generation unit 4150 and an error diffusion processing unit 4151. The quantization threshold value generation unit 4150 obtains a 2-bit feature value extraction result Chr (x0, y0) (≡C = {0, 1, 2, 2) at the target pixel (x0, y0) from the feature value extraction / low density determination process 4120. 3}, hereinafter referred to as C), and a 2-bit low density determination result Dns (x0, y0) (≡D = {0, 1, 2, 3}, hereinafter referred to as D) to generate a quantization threshold . Here, x0 is a value that designates a pixel in the main scanning direction, and y0 is a value that designates the position of the pixel in the sub-scanning direction. In the case of 600 dpi, for example, a blank portion is added to the number of pixels read from an A3-size document, and x0 = {0, 1, 2,..., X0max}; y = {0, 1, 2,. X0max = 7,100, y0max = 10,000 or so. When it corresponds to the document size such as A1 size, x0max and y0max are larger values.
量子化閾値テーブル部4142には、特徴量抽出結果C={0,1,2,3}と低濃度判定結果D={0,1,2,3}に対応した量子化閾値Thr[C,D][x,y,i]を設定しておく。また、ブルーノイズ加算選択テーブル部4144には、量子化閾値テーブル部4142に設定した量子化閾値Thr[C,D][x,y,i]のそれぞれに対応したブルーノイズ加算テーブルFbn[C,D][x,y,i]を設定する。 The quantization threshold value table unit 4142 includes a quantization threshold value Thr [C, corresponding to the feature value extraction result C = {0, 1, 2, 3} and the low density determination result D = {0, 1, 2, 3}. D] [x, y, i] are set in advance. Also, the blue noise addition selection table unit 4144 has a blue noise addition table Fbn [C, corresponding to each of the quantization thresholds Thr [C, D] [x, y, i] set in the quantization threshold table unit 4142. D] [x, y, i] are set.
ここで、[x,y,i]のx,yは、それぞれ量子化閾値マトリックスの主走査方向のマトリックスサイズxmaxと副走査方向のマトリックスサイズymaxを用いて、
x={0,1,2,…,xmax−1}
y={0,1,2,…,ymax−1}
であり、iは画像データの出力階調数をMとして、
i={0,1,2,…,M−2}
の値を動く。以下、説明を簡単にするために、Zを整数の集合として、上記した式は、それぞれ
Z{xmax}={x∈Z;0≦x<xmax}
Z{ymax}={y∈Z;0≦y<ymax}
Z{M−1}={i∈Z;0≦i<M−1}
としても同じ意味を表す。すなわち、x∈Zは、“xが整数であること”を表し、0≦x<xmaxの範囲を動くことを表すので、x={0,1,2,…,xmax−1}の値をとりうる。同様に、主走査方向の位置x0が取り得る値の範囲Z{x0max}、副走査方向の位置y0が取り得る値の範囲Z{y0max}、特徴量抽出結果Cが取り得る値の範囲Z{Cmax}、低濃度判定結果Dが取り得る値の範囲Z{Dmax}、量子化閾値Thr[C,D][x,y,i]が取り得る値の範囲Z{N}、ブルーノイズBn[k]が取り得る値の範囲Z{Bn}、Bn[k]のインデックスkが取り得る値の範囲Z{Bnmax}、ブルーノイズ加算選択Fbn[C,D][x,y,i]が取り得る値の範囲Z{Fbn}、も定義し、
Z{x0max}={x0∈Z;0≦x0<x0max}
Z{y0max}={y0∈Z;0≦y0<y0max}
Z{Cmax}={C∈Z;0≦C<Cmax}
Z{Dmax}={D∈Z;0≦D<Dmax}
Z{N}={Din∈Z;0≦Din<N−1}
Z{Bn}={±1}
Z{Bnmax}={k∈Z;0≦k<bnmax}
Z{Fbn}={0,1}
などとする。本実施例では、Cmax=Dmax=4としているが、この値に限るものではなく、必要に応じて変更してもよい。
Here, x and y of [x, y, i] are respectively used as the matrix size xmax in the main scanning direction and the matrix size ymax in the sub-scanning direction of the quantization threshold matrix.
x = {0, 1, 2,..., xmax-1}
y = {0, 1, 2,..., ymax-1}
I is the number of output gradations of the image data, M,
i = {0, 1, 2,..., M-2}
Move the value of. In the following, for simplicity of explanation, let Z be a set of integers, and the above formulas are expressed as Z {xmax} = {x∈Z; 0 ≦ x <xmax}, respectively.
Z {ymax} = {y∈Z; 0 ≦ y <ymax}
Z {M−1} = {i∈Z; 0 ≦ i <M−1}
Represents the same meaning. That is, x∈Z represents “x is an integer” and represents movement within the range of 0 ≦ x <xmax. Therefore, the value of x = {0, 1, 2,..., Xmax−1} is set. Possible. Similarly, a value range Z {x0max} that can be taken by the position x0 in the main scanning direction, a value range Z {y0max} that can be taken by the position y0 in the sub-scanning direction, and a value range Z {that can be taken by the feature amount extraction result C. Cmax}, a range of values Z {Dmax} that the low density determination result D can take, a range of values Z {N} that the quantization threshold Thr [C, D] [x, y, i] can take, and blue noise Bn [ k] can take a range of values Z {Bn}, a range of values Z {Bnmax} that an index k of Bn [k] can take, and a blue noise addition selection Fbn [C, D] [x, y, i]. Define the range of values to be obtained Z {Fbn},
Z {x0max} = {x0∈Z; 0 ≦ x0 <x0max}
Z {y0max} = {y0εZ; 0 ≦ y0 <y0max}
Z {Cmax} = {CεZ; 0 ≦ C <Cmax}
Z {Dmax} = {DεZ; 0 ≦ D <Dmax}
Z {N} = {DinεZ; 0 ≦ Din <N−1}
Z {Bn} = {± 1}
Z {Bnmax} = {kεZ; 0 ≦ k <bnmax}
Z {Fbn} = {0, 1}
And so on. In this embodiment, Cmax = Dmax = 4. However, the value is not limited to this value, and may be changed as necessary.
図33は、量子化閾値Thr[C,D][x,y,i]の構成を示す。主走査方向サイズxmax、副走査方向サイズymaxの量子化閾値Thr[C,D][x,y,i]が、M−1レベル分用意され、それが、特徴量抽出結果Chr(x0,y0)(=C)∈Z{Cmax}に応じて4種類、さらに、低濃度判定結果Dns(x0,y0)(=D)∈Z{Dmax}に対応して4種類、量子化閾値テーブル部4142に設定される。これは、一色分の量子化閾値であるので、実際には4色分設定する。 FIG. 33 shows the configuration of the quantization threshold Thr [C, D] [x, y, i]. Quantization threshold values Thr [C, D] [x, y, i] of the main scanning direction size xmax and the sub-scanning direction size ymax are prepared for M−1 levels, which is the feature amount extraction result Chr (x0, y0). ) (= C) εZ {Cmax}, and four types corresponding to the low density determination result Dns (x0, y0) (= D) εZ {Dmax}, the quantization threshold value table unit 4142 Set to Since this is a quantization threshold for one color, actually four colors are set.
量子化閾値Thr[C,D][x,y,i]∈Z{N}(C∈Z{Cmax},D∈Z{Dmax}x∈Z{xmax},y∈Z{ymax},i∈Z{M−1})の各閾値に対応して、ブルーノイズ加算選択Fbn[C,D][x,y,i]∈Z{Fbn}(C∈Z{Cmax},D∈Z{Dmax}x∈Z{xmax},y∈Z{ymax},i∈Z{M−1})が、ブルーノイズ加算選択テーブル部4144に設定される。 Quantization threshold Thr [C, D] [x, y, i] εZ {N} (CεZ {Cmax}, DεZ {Dmax} xεZ {xmax}, yεZ {ymax}, i Corresponding to each threshold value of εZ {M−1}), blue noise addition selection Fbn [C, D] [x, y, i] εZ {Fbn} (CεZ {Cmax}, DεZ { Dmax} xεZ {xmax}, yεZ {ymax}, iεZ {M−1}) are set in the blue noise addition selection table unit 4144.
量子化閾値選択部4141およびブルーノイズ加算選択部4143は、特徴量抽出結果Cおよび低濃度判定結果Dに基づいて、それぞれ注目画素(x0,y0)に適用する量子化閾値Thr[C,D][x,y,i]を量子化閾値テーブル4142から選択し、ブルーノイズ加算選択フラグFbn[C,D][x,y,i]をブルーノイズ加算選択テーブル4144から選択する。 The quantization threshold selection unit 4141 and the blue noise addition selection unit 4143 are respectively applied to the pixel of interest (x0, y0) based on the feature amount extraction result C and the low density determination result D, and the quantization threshold Thr [C, D]. [X, y, i] is selected from the quantization threshold table 4142, and the blue noise addition selection flag Fbn [C, D] [x, y, i] is selected from the blue noise addition selection table 4144.
図34(a)は、特徴量抽出部4122(図32)の構成を示す。特徴量抽出部4122は、画像データDin(x0,y0)のエッジ検出を行うもので、本実施例では注目画素(x0,y0)に対する特徴量抽出結果Chr(x0,y0)の出力として、レベル3(エッジ度最大)からレベル0(非エッジ)までエッジレベルを表す2ビットのエッジデータを出力する。 FIG. 34A shows the configuration of the feature quantity extraction unit 4122 (FIG. 32). The feature amount extraction unit 4122 performs edge detection of the image data Din (x0, y0). In this embodiment, the feature amount extraction unit 4122 outputs a level as an output of the feature amount extraction result Chr (x0, y0) for the target pixel (x0, y0). 2 bits of edge data representing an edge level from 3 (edge degree maximum) to level 0 (non-edge) are output.
特徴量の抽出は、例えば図34(b)に示す4種類の一次微分5×5の微分フィルタ1〜4、および図34(c)に示す4種類の二次微分フィルタを用いて、主走査方向、副走査方向、主走査方向から±45゜傾いた方向の4方向についてエッジ量を検出し、その中で絶対値が最大のエッジ量を選び、そのエッジ量の絶対値をレベル0からレベル3までの4レベルのエッジレベルに量子化して出力する。 For example, the feature amount is extracted by using four types of first-order differential 5 × 5 differential filters 1 to 4 shown in FIG. 34B and four types of second-order differential filters shown in FIG. Edge amount is detected in 4 directions, which are ± 45 ° tilted from the direction, sub-scanning direction, and main scanning direction, the edge amount having the maximum absolute value is selected, and the absolute value of the edge amount is changed from level 0 to level. Quantize to 4 edge levels up to 3 and output.
低濃度判定部4123は、所定の閾値と入力画像データDinとを比較し、注目画素(x0,y0)に対する低濃度判定結果Dns(x0,y0)の出力として、最も低濃度を0、最も高濃度を3などとした値を出力する。 The low density determination unit 4123 compares a predetermined threshold value with the input image data Din, and outputs the low density determination result Dns (x0, y0) for the target pixel (x0, y0) with the lowest density being 0 and the highest. A value with a density of 3 or the like is output.
誤差積算部4149は、誤差バッファ4148に記憶されている量子化誤差データから次の注目画素に加算する拡散誤差を計算するものである。本実施例では、誤差積算部4149は、図35(a)に示すような副走査方向が3画素、主走査方向が5画素のサイズの誤差拡散マトリクスを用いて拡散誤差データを算出する。図35(a)において、*印は次の注目画素の位置に相当し、a,b,...,k,lは周辺の12個の処理済み画素の位置に対応した係数(総和は32)である。誤差積算部4149では、それら12個の処理済み画素に対する量子化誤差と対応した係数a〜lとの積和を32で除した値を、次の注目画素に対する拡散誤差として加算部に与える。 The error integrating unit 4149 calculates a diffusion error to be added to the next target pixel from the quantization error data stored in the error buffer 4148. In this embodiment, the error integrating unit 4149 calculates diffusion error data using an error diffusion matrix having a size of 3 pixels in the sub-scanning direction and 5 pixels in the main scanning direction as shown in FIG. In FIG. 35A, the * mark corresponds to the position of the next pixel of interest, and a, b,. . . , K, l are coefficients corresponding to the positions of the 12 processed pixels in the vicinity (the sum is 32). In the error integrating unit 4149, a value obtained by dividing the product sum of the quantization errors for the 12 processed pixels and the corresponding coefficients a to l by 32 is given to the adding unit as a diffusion error for the next pixel of interest.
一例として、量子化閾値選択部4141は、図35(b)に示すような1から6までの閾値を小さいものから順に(1が最小、6が最大)ラインを成長させるように配置した4×4のディザ閾値マトリクスを用い、画像平面上で周期的に1から6まで振動するディザ閾値を出力する。ここで、同じ値の画素は同じ閾値を使用している。ディザ閾値周期は、600dpiの画像形成の場合には192Lpiに相当する。このような量子化閾値選択部4141は、上記ディザ閾値マトリクスを格納したROMと、画像データの主、副走査のタイミング信号をカウントして、このROMの読み出しアドレスを発生するカウンタなどによって容易に実現できる。 As an example, the quantization threshold selection unit 4141 is arranged so as to grow the lines in order of increasing thresholds from 1 to 6 as shown in FIG. 35B (1 is the minimum, 6 is the maximum). Using a dither threshold matrix of 4, a dither threshold that oscillates periodically from 1 to 6 on the image plane is output. Here, the same threshold value is used for pixels having the same value. The dither threshold period corresponds to 192 Lpi in the case of 600 dpi image formation. Such a quantization threshold selection unit 4141 is easily realized by a ROM that stores the dither threshold matrix and a counter that counts main and sub-scan timing signals of image data and generates a read address of the ROM. it can.
ここで、図35(b)において、1と設定された画素は、主走査方向に並べることにより、主走査方向に2画素並んだドットを最初に形成することを表す。このように、安定したドット形成がなされることを意図して、エネルギーが少ない書込みレベルである1値を2画素並べる。この場合のスクリーン角とラインの成長方向を図36に示す。ラインの成長方向は、図中の“ラインが成長する方向1“に示す。 Here, in FIG. 35B, the pixels set to 1 represent that dots arranged in the main scanning direction are first formed by arranging them in the main scanning direction. In this way, for the purpose of stable dot formation, two pixels of one value, which is a writing level with less energy, are arranged. The screen angle and line growth direction in this case are shown in FIG. The growth direction of the line is indicated by “direction 1 in which the line grows” in the drawing.
また、図35(d)に示すように、特徴量抽出部4122からのエッジデータで示されるエッジレベルがレベル0(非エッジ)のときに係数3を、レベル1のときに係数2を、レベル2のときに係数1を、レベル3(最大エッジ度合)のときに係数0を、量子化閾値選択部4141の出力値に乗じる。 Further, as shown in FIG. 35D, when the edge level indicated by the edge data from the feature amount extraction unit 4122 is level 0 (non-edge), the coefficient 3 is set, and when the edge level is level 1, the coefficient 2 is set. The output value of the quantization threshold selection unit 4141 is multiplied by a coefficient 1 when 2 and a coefficient 0 when level 3 (maximum edge degree).
以上のように構成された画像処理装置の量子化データを例えば電子写真方式のプリンタなどに与えれば、文字、画像の変化点や比較的低線数の網点画像部などは解像性が良く、写真、画像の変化の少ない部分、高線数の網点画像などは滑らかで安定性が良く、それら領域が違和感なく整合した高品位な画像を形成可能である。これについて以下説明する。 If the quantized data of the image processing apparatus configured as described above is given to, for example, an electrophotographic printer or the like, the resolution of characters, image change points, and relatively low number of halftone dot image portions is good. A photograph, a portion with little change in the image, a halftone dot image with a high number of lines, and the like are smooth and stable, and a high-quality image in which these regions are aligned without a sense of incongruity can be formed. This will be described below.
画像中の文字や線画のエッジ部のような変化が急峻でエッジレベルがレベル3(エッジ度合最高)となる部分では、量子化閾値選択部4141で生成される量子化閾値は固定され、量子化処理部4147で固定閾値を用いた純粋な誤差拡散法による量子化処理が行われるため、解像性の良い画像を形成できる。 In a portion where the change is steep and the edge level is level 3 (edge degree is the highest) such as the edge of a character or line drawing in the image, the quantization threshold generated by the quantization threshold selection unit 4141 is fixed, and the quantization is performed. Since the processing unit 4147 performs a quantization process by a pure error diffusion method using a fixed threshold value, an image with high resolution can be formed.
写真や画像の平坦部のようにエッジ度合が低い部分では、量子化閾値選択部4141によって生成される量子化閾値の振動幅が大きくなるため、量子化処理部4147の量子化処理はディザ基調の処理となり、画像データはディザ閾値周期で網点化される。図35(b)に示すような閾値配置のディザ閾値マトリクスが量子化閾値の生成に用いられるため、画像データの濃度レベルが上昇するにつれて、ディザ閾値周期内でスクリーン角にそって成長したライン中央部より渦巻き状に出力ドットが成長するようになる。 In a portion where the degree of edge is low, such as a flat portion of a photograph or an image, the vibration width of the quantization threshold generated by the quantization threshold selection unit 4141 becomes large. Therefore, the quantization processing of the quantization processing unit 4147 is dithered. Processing is performed, and the image data is converted to halftone dots with a dither threshold period. Since the dither threshold value matrix having the threshold value arrangement as shown in FIG. 35B is used to generate the quantization threshold value, the center of the line grown along the screen angle within the dither threshold period as the density level of the image data increases. The output dots grow in a spiral shape from the part.
図35(c)は、図35(b)の別の実施例として、ラインが成長する順番、および量子化閾値の大小関係を示す。ラインが成長する際に形成されていく画素の順番が図35(b)の場合と異なるが、このような値を設定しても同様にスクリーン角に沿ったラインを形成し、滑らかな画像を得ることができる。 FIG. 35 (c) shows the order of line growth and the magnitude relationship between the quantization thresholds as another example of FIG. 35 (b). Although the order of the pixels formed when the line grows is different from the case of FIG. 35B, even if such a value is set, a line along the screen angle is formed in the same manner, and a smooth image is formed. Can be obtained.
図37は、特徴量抽出を説明する図である。図37に示すように、高濃度閾値、一次微分特徴量抽出閾値1、一次微分特徴量抽出閾値2、二次微分特徴量抽出閾値1、二次微分特徴量抽出閾値2の値によって、文字領域として判定される領域(図のハッチング部分)を調整することができる。例えば、いずれの閾値も低く設定することにより、文字として判定される領域が拡大する。 FIG. 37 is a diagram for explaining feature amount extraction. As shown in FIG. 37, the character region is determined by the values of the high density threshold value, the primary differential feature value extraction threshold value 1, the primary differential feature value extraction threshold value 2, the secondary differential feature value extraction threshold value 1, and the secondary differential feature value extraction threshold value 2. It is possible to adjust the region (hatched portion in the figure) determined as. For example, by setting any threshold value low, the area determined as a character is expanded.
画像濃度(階調性)の自動階調補正(ACC:Auto Color Calibration)の機能を選択するための操作画面について説明する。 An operation screen for selecting a function of automatic gradation correction (ACC: Auto Color Calibration) of image density (gradation property) will be described.
操作部(図38)の液晶画面において、自動階調補正ACCメニュー呼び出すと、図39(a)の画面が表示される。図38(b)は、図38(a)の液晶画面を示し、特にコピーアプリでの設定を選択するための画面を示す。表面がタッチパネルとなっており、使用者が指やタッチペンなどで表面に触れることにより、用紙サイズ選択、濃度調整、画質モード選択、文書蓄積の有無の選択、スタック・ソートの選択、変倍サイズなどを選択する画面(図示しない)が表示され、選択可能である。 When the automatic gradation correction ACC menu is called on the liquid crystal screen of the operation unit (FIG. 38), the screen of FIG. 39 (a) is displayed. FIG. 38B shows the liquid crystal screen of FIG. 38A, and particularly shows a screen for selecting settings in the copy application. The surface is a touch panel, and when the user touches the surface with a finger or a touch pen, paper size selection, density adjustment, image quality mode selection, selection of whether to store documents, stack sorting selection, scaling size, etc. A screen (not shown) for selecting is displayed and can be selected.
コピー使用時、あるいはプリンタ使用時用の自動階調補正の[実行]を選択すると、図39(b)の画面が表示される。コピー使用時を選択した場合には、コピー使用時に使用する階調補正テーブルが、プリンタ使用時を選択するとプリンタ使用時の階調補正テーブルが参照データに基づいて変更される。変更後のYMCK階調補正テーブルで画像形成を行った結果が望ましくない場合には、処理前のYMCK階調補正テーブルを選択することができるように、[元に戻す]キーが図39(a)の画面中に表示されている。 When [Execute] of automatic gradation correction for copy use or printer use is selected, the screen shown in FIG. 39B is displayed. When the copy use is selected, the gradation correction table used when using the copy is changed. When the printer is used, the gradation correction table when the printer is used is changed based on the reference data. If the result of image formation with the changed YMCK tone correction table is not desirable, the [Undo] key is shown in FIG. 39 (a) so that the YMCK tone correction table before processing can be selected. ) Is displayed on the screen.
図39(a)の画面中の他の項目を説明する。“自動階調補正の設定”を選択すると、後述する“地肌の補正”、“高濃度部の補正”、“RGB比の補正”の“実行”または“非実行”を選択することができる。“自動階調補正の設定”メニューでは、“自動階調補正の設定”と“光量ムラ検知の設定”を選択することができる。なお、これらの選択は必ずしも必要ではなく、常に“実行”としてもよい。 Other items in the screen of FIG. 39A will be described. When “automatic gradation correction setting” is selected, “execution” or “non-execution” of “background correction”, “high density portion correction”, and “RGB ratio correction”, which will be described later, can be selected. In the “Auto gradation correction setting” menu, “Auto gradation correction setting” and “Light intensity unevenness detection setting” can be selected. Note that these selections are not always necessary, and may be always “execution”.
上記のように、無彩色パッチからコピー時に使用するRGB各読み取り成分についてスキャナγ変換テーブルを作成する。一方、有彩色パッチと無彩色パッチから、後述するACC(自動階調補正)実行時に出力した調整用パターンを読み取って得た、YMCK各階調パターンの読み取り値を補正する。したがって、前者の処理では、RGB3つの変換テーブルを使用し、後者の処理では、YMCK4つの変換テーブルを使用する。 As described above, a scanner γ conversion table is created for each RGB read component used during copying from an achromatic color patch. On the other hand, the reading value of each YMCK gradation pattern obtained by reading an adjustment pattern output during execution of ACC (automatic gradation correction) described later from the chromatic color patch and the achromatic color patch is corrected. Therefore, in the former process, three RGB conversion tables are used, and in the latter process, four YMCK conversion tables are used.
図40は、ACC実行の処理フローチャートを示す。図39(a)の画面で、コピー使用時、あるいはプリンタ使用時用の自動階調補正の[実行]を選択すると、図39(b)の画面が表示される。 FIG. 40 shows a process flowchart of ACC execution. When [Execute] of automatic gradation correction for copy use or printer use is selected on the screen of FIG. 39A, the screen of FIG. 39B is displayed.
図39(b)の画面中の印刷スタートキーを押し下げると、図39(c)に示すような、YMCK各色、及び文字、写真の各画質モードに対応した、複数の濃度階調パターンを転写材上に形成する(ステップS1101)。 When the print start key in the screen of FIG. 39B is depressed, a plurality of density gradation patterns corresponding to each color mode of YMCK, character, and photograph as shown in FIG. 39C are transferred. It is formed on top (step S1101).
この濃度階調パターンは、予めIPUのROM中に記憶・設定されている。パターンの書込み値は、16進数表示で、00h,11h,22h,…,EEh,FFhの16パターンである。図では、地肌部を除いて5階調分のパッチを表示しているが、00h−FFhの8ビット信号の内、任意の値を選択することができる。文字モードでは、パターン処理などのディザ処理を行わず、1ドット256階調でパターンが形成され、写真モードでは、後述するディザ処理が行われる。 This density gradation pattern is stored and set in the IPU ROM in advance. The written values of the pattern are 16 patterns of 00h, 11h, 22h, ..., EEh, FFh in hexadecimal notation. In the figure, patches for five gradations are displayed excluding the background portion, but any value can be selected from the 8-bit signals of 00h-FFh. In the character mode, a dither process such as a pattern process is not performed, and a pattern is formed with 1 dot 256 gradations. In the photo mode, a dither process described later is performed.
転写材にパターンが出力された後、転写材を原稿台上に載置するように、操作画面上には、図41(a)の画面が表示される。画面の指示に従い、パターンが形成された転写材を原稿台に載置して(ステップS1102)、図39(b)の画面で“読み取りスタート”を選択するか、または“キャンセルを選択する(ステップS1103)。 After the pattern is output on the transfer material, the screen of FIG. 41A is displayed on the operation screen so that the transfer material is placed on the document table. In accordance with the instructions on the screen, the transfer material on which the pattern is formed is placed on the document table (step S1102), and “read start” is selected on the screen of FIG. 39B, or “cancel” is selected (step S1103).
”キャンセル“を選択した場合には終了し、“読み取りスタート”を選択すると、スキャナが走行し、YMCK濃度パターンのRGBデータを読み取る(ステップS1104)。この際、パターン部のデータと転写材の地肌部のデータを読み取る。 If “Cancel” is selected, the process ends. If “Reading start” is selected, the scanner runs and reads the RGB data of the YMCK density pattern (step S1104). At this time, the data of the pattern portion and the data of the background portion of the transfer material are read.
パターン部のデータが正常に読み取られたか否かの判断を行う(ステップS1105)。正常に読み取られない場合には、再び図39(b)の画面が表示される。2回正常に読み取られない場合には処理を終了する(ステップS1106)。 It is determined whether or not the data in the pattern portion has been read normally (step S1105). If it is not read normally, the screen of FIG. 39B is displayed again. If it is not read normally twice, the process is terminated (step S1106).
ACCパターンの各読み取り値は、前述したACCパターン読み取り値補正用テーブルD[ii](ii=0,1,2,…,255)で、YMCKの色毎に補正する(ステップS1107)。地肌データを用いた処理の”実行”、”非実行”を図39(a)の画面で選択された結果により判断する(ステップS1108)。地肌データを用いた処理の”実行”が選択されていた場合には、読み取りデータに対する地肌データの処理を行う(ステップS1109)。 Each read value of the ACC pattern is corrected for each YMCK color in the above-described ACC pattern read value correction table D [ii] (ii = 0, 1, 2,..., 255) (step S1107). “Execution” or “non-execution” of the process using the background data is determined based on the result selected on the screen of FIG. 39A (step S1108). If “execution” of the process using the background data is selected, the background data is processed for the read data (step S1109).
更に、参照データの高画像濃度部の補正の”実行”、”非実行”を図39(a)の画面で選択された結果により判断する(ステップS1110)。参照データの高画像濃度部の補正の”実行”が選択されていた場合には(ステップS1110でYes)、参照データに対する高画像濃度部の処理を行う(ステップS1111)。YMCK階調補正テーブルを作成・選択を行う(ステップS1112)。 Further, “execution” and “non-execution” of the correction of the high image density portion of the reference data are determined based on the result selected on the screen of FIG. 39A (step S1110). If “execution” of the correction of the high image density portion of the reference data has been selected (Yes in step S1110), the processing of the high image density portion is performed on the reference data (step S1111). A YMCK gradation correction table is created and selected (step S1112).
上記の処理をYMCKの各色について行う(ステップS1113)。上記の処理を写真、文字の画質モード毎に行う(ステップS1114)。処理中には、操作画面には、図41(b)の画面が表示される。 The above processing is performed for each color of YMCK (step S1113). The above processing is performed for each picture and character image quality mode (step S1114). During the process, the screen of FIG. 41B is displayed on the operation screen.
処理終了後のYMCK階調補正テーブルで画像形成を行った結果が、望ましくない場合には、処理前のYMCK階調補正テーブルを選択することができるように、[元に戻す]キーが図39(a)の画面中に表示されている。 If the result of image formation using the YMCK tone correction table after the end of processing is not desirable, the [Undo] key is shown in FIG. 39 so that the YMCK tone correction table before processing can be selected. It is displayed on the screen of (a).
地肌の補正について説明する。地肌の補正処理の目的として2つある。1つは、ACC時に使用される転写材の白色度を補正することである。これは、同一の機械に、同じ時に画像を形成しても、使用する転写材の白色度によって、スキャナで読み取られる値が異なるためである。これは補正しない場合のデメリットとしては、例えば、白色度が低い、再生紙などをこのACCに用いた場合、再生紙は一般にイエロー成分が多いために、イエローの階調補正テーブルを作成した場合に、イエロー成分が少なくなるように補正する。この状態で、次に、白色度が高いアート紙などでコピーをした場合に、イエロー成分が少ない画像となって望ましい色再現が得られない場合がある。 The background correction will be described. There are two purposes for the background correction process. One is to correct the whiteness of the transfer material used during ACC. This is because even if an image is formed on the same machine at the same time, the value read by the scanner differs depending on the whiteness of the transfer material used. As a disadvantage of not performing correction, for example, when recycled paper or the like having low whiteness is used for this ACC, the recycled paper generally has a lot of yellow components, and therefore, when a gradation correction table for yellow is created. The correction is made so that the yellow component is reduced. In this state, when copying is next performed on art paper or the like having high whiteness, an image with a small amount of yellow components may be obtained and a desired color reproduction may not be obtained.
もう一つの理由としては、ACC時に用いた転写紙の厚さ(紙厚)が薄い場合には、転写材を押さえつける圧板など色が透けてスキャナに読み取られてしまう。例えば、圧板の代わりにADF(Auto Document Feeder)と呼ばれる原稿自動送り装置を装着している場合には、原稿の搬送用にベルトを用いているが、これが使用しているゴム系の材質により、白色度が低く、若干の灰色味がある。そのため、読み取られた画像信号も見かけ上、全体に高くなった画像信号として読み取られるために、YMCK階調補正テーブルを作成する際に、その分薄くなるように作成する。この状態で、今度は紙厚が厚く、透過性が悪い転写紙を用いた場合には、全体の濃度が薄い画像として再現されるため、必ずしも望ましい画像が得られない。 As another reason, when the thickness of the transfer paper (paper thickness) used at the time of ACC is thin, a color such as a pressure plate for pressing the transfer material is seen through and read by the scanner. For example, when an automatic document feeder called ADF (Auto Document Feeder) is installed instead of the pressure plate, a belt is used for conveying the original, but depending on the rubber material used, The whiteness is low and there is a slight gray taste. For this reason, the read image signal is also read as an image signal that is apparently high as a whole. Therefore, when the YMCK tone correction table is created, the image signal is created so as to be thinner. In this state, when a transfer sheet having a thick paper thickness and poor transparency is used, an image having a low overall density is reproduced, so that a desirable image is not necessarily obtained.
上記のような不具合を防ぐために、紙の地肌部の読み取り画像信号から紙の地肌部の画像信号により、パターン部の読み取り画像信号の補正を行っている。しかし、上記補正を行わない場合にもメリットがあり、常に再生紙のように、イエロー成分が多い転写紙を用いる場合には、補正しない方がイエロー成分の入った色に対しては色再現が良くなる場合がある。また、常に、紙厚が薄い転写紙のみしか用いない場合には、薄い紙に合わせた状態に階調補正テーブルが作成されるというメリットがある。上記のように、使用者の状況と好みとに応じて、地肌部の補正をON/OFFを行うことができる。 In order to prevent the above problems, the read image signal of the pattern portion is corrected from the read image signal of the paper background portion based on the image signal of the paper background portion. However, there is an advantage even when the above correction is not performed. When a transfer sheet having a large amount of yellow components is always used, such as recycled paper, color reproduction is not performed for a color containing a yellow component without correction. May be better. In addition, when only the transfer paper having a thin paper thickness is always used, there is an advantage that the gradation correction table is created in a state matched to the thin paper. As described above, the correction of the background portion can be turned ON / OFF according to the user's situation and preference.
転写紙上に形成した階調パターン(図39(c))の書込み値をLD[i](i=0,1,…,9)、形成されたパターンのスキャナでの読み取り値をベクトル型式でv[t][i]≡(r[t][i],g[t][i],b[t][i])(t=Y,M,C,orK,i=0,1,…,9)とする。(r,g,b)の代わりに、明度、彩度、色相角(L*,c*,h*),あるいは、明度、赤み、青み(L*,a*,b*)などで表しても良い。 LD [i] (i = 0, 1,..., 9) is the written value of the gradation pattern (FIG. 39C) formed on the transfer paper, and the read value of the formed pattern by the scanner is v in vector format. [T] [i] ≡ (r [t] [i], g [t] [i], b [t] [i]) (t = Y, M, C, orK, i = 0, 1,. , 9). Instead of (r, g, b), it is expressed by lightness, saturation, hue angle (L *, c *, h *), lightness, redness, blueness (L *, a *, b *), etc. Also good.
予めROM132またはRAM131中に記憶してある基準となる白の読み取り値を(r[W],g[W],b[W])とする。ACC実行時にγ変換処理部409で行われる階調変換テーブル(LUT)の生成方法について説明する。 A reference white reading value stored in advance in the ROM 132 or RAM 131 is assumed to be (r [W], g [W], b [W]). A method of generating a gradation conversion table (LUT) performed by the γ conversion processing unit 409 when ACC is executed will be described.
パターンの読み取り値v[t][i]≡(r[t][i],g[t][i],b[t][i])において、YMCトナーの各補色の画像信号はそれぞれb[t][i],g[t][i],r[t][i]であるので、それぞれの補色の画像信号のみを用いる。ここでは、後の記載を簡単にするために、a[t][i](i=0,1,2,…,9;t=C,M,Y,orK)を用いて表す。階調変換テーブルを作成すると処理が簡単である。なお、ブラックトナーについては、RGBのいずれの画像信号を用いても十分な精度が得られるが、ここでは、G(グリーン)成分を用いる。 In the pattern read value v [t] [i] ≡ (r [t] [i], g [t] [i], b [t] [i]), the image signal of each complementary color of YMC toner is b. Since [t] [i], g [t] [i], and r [t] [i], only the complementary color image signals are used. Here, in order to simplify the subsequent description, a [t] [i] (i = 0, 1, 2,..., 9; t = C, M, Y, orK) is used. Processing is simple if a gradation conversion table is created. For black toner, sufficient accuracy can be obtained by using any of RGB image signals, but here, a G (green) component is used.
参照データは、スキャナの読み取り値v0[t][i]≡(r0[t][i],g0[t][i],b0[t][i])及び対応するレーザの書込み値LD[i](i=1,2,…,m)の組によって与えられる。同様に、YMCの補色画像信号のみを用いて、後の記載を簡単にするために、A[t][n[i]](0≦n[i]≦255;i=1,2,…,m;t=Y,M,C,orK)と表す。mは参照データの数である。 The reference data includes the scanner reading v0 [t] [i] ≡ (r0 [t] [i], g0 [t] [i], b0 [t] [i]) and the corresponding laser writing value LD [ i] (i = 1, 2,..., m). Similarly, in order to simplify the subsequent description using only YMC complementary color image signals, A [t] [n [i]] (0 ≦ n [i] ≦ 255; i = 1, 2,... , M; t = Y, M, C, or K). m is the number of reference data.
YMCK階調変換テーブルは、前述したa[LD]とROM132中に記憶されている参照データA[n]とを比較することによって得られる。ここで、nは、YMCK階調変換テーブルへの入力値で、参照データA[n]は、入力値nをYMCK階調変換した後のレーザ書込み値LD[i]で出力したYMCトナー・パターンを、スキャナで読み取った読み取り画像信号の目標値である。ここで、参照データは、プリンタの出力可能な画像濃度に応じて補正を行う参照値A[n]と補正を行わない参照値A[n]との2種類の値とからなる。補正を行うかどうかの判断は、予めROMまたはRAM中に記憶されている後述する判断用のデータにより判断される。この補正については後述する。 The YMCK gradation conversion table is obtained by comparing a [LD] described above with reference data A [n] stored in the ROM 132. Here, n is an input value to the YMCK gradation conversion table, and the reference data A [n] is a YMC toner pattern output with the laser writing value LD [i] after the input value n is YMCK gradation converted. Is the target value of the read image signal read by the scanner. Here, the reference data includes two types of values: a reference value A [n] that is corrected according to the image density that can be output by the printer, and a reference value A [n] that is not corrected. The determination as to whether or not to perform the correction is made based on determination data, which will be described later, stored in advance in the ROM or RAM. This correction will be described later.
前述したa[LD]から、A[n]に対応するLDを求めることにより、YMCK階調変換テーブルへの入力値nに対応するレーザ出力値LD[n]を求める。これを、入力値i=0,1,…,255(8bit信号の場合)に対して求めることにより、階調変換テーブルを求めることができる。その際、YMCK階調変換テーブルに対する入力値n=00h,01h…,FFh(16進数)に対するすべての値に対して、上記の処理を行う代わりに、ni=0,11h,22h,…,FFhのようなとびとびの値について上記の処理を行い、それ以外の点については、スプライン関数などで補間を行うか、あるいは、予めROM132中に記憶されているYMCKγ補正テーブルの内、上記の処理で求めた(0,LD[0]),(11h,LD[11h]),(22h,LD[22h]),…,(FFh,LD[FFh])の組を通る、最も近いテーブルを選択する。 The laser output value LD [n] corresponding to the input value n to the YMCK gradation conversion table is obtained by obtaining the LD corresponding to A [n] from the a [LD] described above. By obtaining this with respect to the input values i = 0, 1,..., 255 (in the case of an 8-bit signal), a gradation conversion table can be obtained. At that time, instead of performing the above processing on all values for the input values n = 00h, 01h..., FFh (hexadecimal number) for the YMCK gradation conversion table, ni = 0, 11h, 22h,. The above processing is performed for the jump value such as the above, and other points are interpolated by a spline function or the like, or obtained by the above processing in the YMCKγ correction table stored in the ROM 132 in advance. The nearest table passing through the set of (0, LD [0]), (11h, LD [11h]), (22h, LD [22h]),..., (FFh, LD [FFh]) is selected.
上記の処理を図42に基づいて説明すると、図の第1象現(a)の横軸は、YMCK階調変換テーブルへの入力値n、縦軸は、スキャナの読み取り値(処理後)で、前述した参照データA[i]を表す。スキャナの読み取り値(処理後)は、階調パターンをスキャナで読み取った値に対し、RGBγ変換(ここでは変換を行っていない)、階調パターン内の数ヶ所の読み取りデータの平均処理及び加算処理後の値であり、演算精度向上のために、ここでは12ビットデータ信号として処理する。 The above processing will be described with reference to FIG. 42. The horizontal axis of the first quadrant (a) in the figure is the input value n to the YMCK gradation conversion table, and the vertical axis is the reading value of the scanner (after processing). Represents the reference data A [i] described above. The scanner reading value (after processing) is the RGB γ conversion (no conversion is performed here) to the value read by the scanner, and the average processing and addition processing of the read data in several places in the gradation pattern This is a later value, and is processed here as a 12-bit data signal in order to improve calculation accuracy.
図の第2象現(b)の横軸は、縦軸と同じく、スキャナの読み取り値(処理後)を表す。第3象現(c)の縦軸は、レーザ光(LD)の書込み値を表す。このデータa[LD]は、プリンタ部の特性を表す。また、実際に形成するパターンのLDの書込み値は、00h(地肌),11h,22h,…,EEh,FFhの16点であり、飛び飛びの値を示すが、ここでは、検知点の間を補間し、連続的なグラフとして扱う。第4象現のグラフ(d)は、YMCK階調変換テーブルLD[i]で、このテーブルを求めることが目的である。 The horizontal axis of the second quadrant (b) in the figure represents the reading value (after processing) of the scanner, like the vertical axis. The vertical axis of the third quadrant (c) represents the written value of the laser beam (LD). This data a [LD] represents the characteristics of the printer unit. In addition, the LD writing values of the pattern to be actually formed are 16 points of 00h (background), 11h, 22h,... EEh, FFh, which indicate skipping values. And treated as a continuous graph. The graph (d) of the fourth quadrant is a YMCK gradation conversion table LD [i], and the purpose is to obtain this table.
グラフ(f)の縦軸・横軸は、グラフ(d)の縦軸・横軸と同じである。検知用の階調パターンを形成する場合には、グラフ(f)に示したYMCK階調変換テーブル(g)を用いる。グラフ(e)の横軸は、第3象現(c)と同じであり、階調パターン作成時のLDの書込み値と階調パターンのスキャナの読み取り値(処理後)との関係を表すための、便宜上の線形変換を表す。ある入力値nに対して参照データA[n]が求められ、A[n]を得るためのLD出力LD[n]を階調パターンの読み取り値a[LD]を用いて、図中の矢印(l)に沿って求める。 The vertical axis and horizontal axis of the graph (f) are the same as the vertical axis and horizontal axis of the graph (d). When forming a gradation pattern for detection, the YMCK gradation conversion table (g) shown in the graph (f) is used. The horizontal axis of the graph (e) is the same as that of the third quadrant (c), and represents the relationship between the LD writing value at the time of gradation pattern creation and the reading value (after processing) of the gradation pattern scanner. Represents a linear transformation for convenience. Reference data A [n] is obtained for a certain input value n, and an LD output LD [n] for obtaining A [n] is used as an arrow in the figure using a gradation pattern read value a [LD]. Obtain along (l).
図43は、ACCの演算手順のフローチャートを示す。ステップS1201において、YMCKγ補正テーブルを求めるために必要な入力値を決める。ここでは、n[i]=11(h)×i(i=0,1,…,imax=15)とした。ステップS1202において、参照データA[n]を、プリンタの出力可能な画像濃度に応じて補正を行う。 FIG. 43 shows a flowchart of an ACC calculation procedure. In step S1201, an input value necessary for obtaining the YMCKγ correction table is determined. Here, n [i] = 11 (h) × i (i = 0, 1,..., Imax = 15). In step S1202, the reference data A [n] is corrected according to the image density that can be output by the printer.
プリンタ部で作成可能な最大画像濃度を得られるレーザの書込み値を、FFh(16進数表示)であるとし、この時のパターンの読み取り値m[FFh]をmmaxとする。低画像濃度側から中間画像濃度側にかけて補正を行わない参照データA[i](i=0,1,…,i1)、高画像濃度側の補正を行わない参照データA[i](i=i2+1,…,imax−1)(i1≦i2,i2≦imax−1)、補正を行う参照データA[i](i=i1+1,…,i2)とする。 The writing value of the laser that can obtain the maximum image density that can be created by the printer unit is FFh (hexadecimal number display), and the reading value m [FFh] of the pattern at this time is mmax. Reference data A [i] (i = 0, 1,..., I1) that is not corrected from the low image density side to the intermediate image density side, and reference data A [i] (i = , imax−1) (i1 ≦ i2, i2 ≦ imax−1), and reference data A [i] (i = i1 + 1,..., i2) to be corrected.
以下では、RGB−γ変換を行わない、原稿反射率に比例した画像信号として仮定して、具体的な計算方法を述べる。補正を行わない参照データの内、高画像濃度部の最も画像濃度が低い参照データA[i2+1]と、低画像濃度部の最も画像濃度が低い参照データA[i1]とから、そのデータの差Δrefを求める。すなわち、
Δref=A[i1]−A[i2+1]
ここで、反転処理であるRGBγ変換を行わない反射率リニアあるいは明度リニアの場合には、Δref>0である。
In the following, a specific calculation method will be described on the assumption that the image signal is proportional to the document reflectance without RGB-γ conversion. Among the reference data that is not corrected, the difference between the reference data A [i2 + 1] having the lowest image density in the high image density portion and the reference data A [i1] having the lowest image density in the low image density portion. Δref is obtained. That is,
Δref = A [i1] −A [i2 + 1]
Here, Δref> 0 in the case of reflectance linearity or lightness linearity that does not perform RGBγ conversion, which is inversion processing.
一方、プリンタ部で作成可能な最大画像濃度を得られるパターンの読み取り値mmaxから、同様に差Δdetを求める。すなわち、
Δdet=A[i1]−mmax
とする。これにより、高濃度部の補正を行った参照データA[i](i=i1+1,…,i2)を、
A[i]=A[i1]+(A[i]−A[i1])×(Δdet/Δref)(i=i1+1,i1+2,…,i2−1,i2)
とする。
On the other hand, the difference Δdet is similarly obtained from the read value mmax of the pattern that can obtain the maximum image density that can be created by the printer unit. That is,
Δdet = A [i1] −mmax
And Thereby, the reference data A [i] (i = i1 + 1,..., I2) obtained by correcting the high density portion is
A [i] = A [i1] + (A [i] −A [i1]) × (Δdet / Δref) (i = i1 + 1, i1 + 2,..., I2-1, i2)
And
ステップS1203において、n[i]に対応するスキャナの読み取り画像信号m[i]を参照データA[n]から求める。実際には、飛び飛びのn[j]に対応する参照データA[n[j]](0≦n[j]≦255,j=0,1,…jmax、n[j]≦n[k]forj≦k)を次のようにする。 In step S1203, the read image signal m [i] of the scanner corresponding to n [i] is obtained from the reference data A [n]. Actually, the reference data A [n [j]] (0 ≦ n [j] ≦ 255, j = 0, 1,... Jmax, n [j] ≦ n [k] corresponding to the skipped n [j] forj ≦ k) is as follows.
n[j]≦n[i]<n[j+1]となるj(0≦j≦jmax)を求める。8bit画像信号の場合、n[0]=0,n[jmax]=255、n[jmax+1]=n[jmax]1、A[jmax+1]=A[jmax]として参照データを求めておくと計算が簡単になる。また、参照データの間隔は、n[j]はできるだけ小さい間隔である方が最終的に求めるγ補正テーブルの精度が高くなる。 Find j (0 ≦ j ≦ jmax) such that n [j] ≦ n [i] <n [j + 1]. In the case of an 8-bit image signal, calculation is performed when reference data is obtained as n [0] = 0, n [jmax] = 255, n [jmax + 1] = n [jmax] 1, and A [jmax + 1] = A [jmax]. It will be easy. Further, the accuracy of the γ correction table finally obtained is higher when the interval of the reference data is such that n [j] is as small as possible.
ステップS1204において、書込み値LDに対するACCパターン読み取り値a[LD]を、前述した補正用テーブルD[ii](ii=0,1,2,…,255)を用いて補正する。a1[LD]=D[a[LD]]
このa1[LD]を以下では、a[LD]として表記する。
In step S1204, the ACC pattern read value a [LD] with respect to the write value LD is corrected using the correction table D [ii] (ii = 0, 1, 2,..., 255) described above. a1 [LD] = D [a [LD]]
This a1 [LD] is expressed as a [LD] below.
ステップS1205において、上記のようにして求めたjから、m[i]を次式から求める。m[i]=A[j]+(A[j+1]−A[i])・(n[i]−n[j])/(n[j+1]−n[j])
ここでは、一次式により補間したが、高次関数やスプライン関数などで補間を行っても良い。その場合には、m[i]=f(n[i])
とする。k次関数の場合には、f(x)=Σbixiなどとする(Σはi=0からkまでの和をとる)。
In step S1205, m [i] is obtained from the following equation from j obtained as described above. m [i] = A [j] + (A [j + 1] -A [i]). (n [i] -n [j]) / (n [j + 1] -n [j])
Here, interpolation is performed using a linear expression, but interpolation may be performed using a higher-order function or a spline function. In that case, m [i] = f (n [i])
And In the case of a k-th order function, f (x) = Σbixi or the like (Σ is the sum from i = 0 to k).
ステップS1206において、m[i]を得るためのLDの書込み値LD[i]を同様な手順によって求める。RGBγ変換を行っていない画像信号データを処理する場合には、LDの値が大きくなるに応じて、a[LD]が小さくなる。すなわち、
LD[k]<LD[k+1]に対して、a[LD[k]]≧a[LD[k+1]]となる。ここで、パターン形成時の値をLD[k]=00h,11h,22h,…,66h,88h,AAh,FFh,(k=0,1,…,9)の10値とした。これは、トナー付着量が少ない画像濃度では、トナー付着量に対するスキャナの読み取り値の変化が大きいため、パターンの書込み値LD[k]の間隔を密にし、トナー付着量が多い画像濃度では、トナー付着量に対するスキャナの読み取り値の変化が小さいために、間隔を広げて読み込む。
In step S1206, an LD write value LD [i] for obtaining m [i] is obtained by the same procedure. When image signal data that has not undergone RGBγ conversion is processed, a [LD] decreases as the value of LD increases. That is,
For LD [k] <LD [k + 1], a [LD [k]] ≧ a [LD [k + 1]]. Here, the values at the time of pattern formation are 10 values of LD [k] = 00h, 11h, 22h,..., 66h, 88h, AAh, FFh, (k = 0, 1,..., 9). This is because the change in the reading value of the scanner with respect to the toner adhesion amount is large at an image density with a small amount of toner adhesion, so that the interval between the pattern writing values LD [k] is narrowed. Since the change in the reading value of the scanner with respect to the adhesion amount is small, reading is performed with a wider interval.
これによるメリットとしては、LD[k]=00h,11h,22h,…,EEh,FFh(計16点)などとパターンの数を増やす場合に比べて、トナー消費を抑えられること、また、高画像濃度領域では、LD書込み値に対する変化が少ないこと、感光体上の電位ムラ、トナーの付着ムラ、定着ムラ、電位ムラなどの影響で、読み取り値が逆転したりしやすいため、LD書込み値の間隔を狭めても必ずしも精度の向上に有効ではないことなどから、上記のようなLD書込み値でパターンを形成した。 Advantages of this include that toner consumption can be suppressed compared to the case where the number of patterns is increased to LD [k] = 00h, 11h, 22h,..., EEh, FFh (16 points in total), etc. In the density area, the reading value is likely to be reversed due to the small change in the LD writing value, the potential unevenness on the photoconductor, the toner adhesion unevenness, the fixing unevenness, and the potential unevenness. Narrowing the width is not necessarily effective in improving the accuracy, and thus the pattern was formed with the LD writing value as described above.
a[LD[k]]≧m[i]>a[LD[k+1]]となるLD[k]に対して、LD[i]=LD[k]+(LD[k+1]−LD[k])・(m[i]−a[LD[k]])/(a[LD[k+1]]−a[LD[k]])とする。 For LD [k] where a [LD [k]] ≧ m [i]> a [LD [k + 1]], LD [i] = LD [k] + (LD [k + 1] −LD [k] ) · (M [i] −a [LD [k]]) / (a [LD [k + 1]] − a [LD [k]]).
0≦k≦kmax(kmax>0)としたとき、a[LD[kmax]]>m[i]の場合(参照データから求めた目標値の画像濃度が高い場合)には、LD[i]=LD[k]+(LD[kmax]−LD[kmax−1])・(m[i]−a[LD[kmax−1]])/(a[LD[kmax]]−a[LD[kmax−1]])として、1次式で外挿を行うことによって予測する。 When 0 ≦ k ≦ kmax (kmax> 0), when a [LD [kmax]]> m [i] (when the image density of the target value obtained from the reference data is high), LD [i] = LD [k] + (LD [kmax] -LD [kmax-1]). (M [i] -a [LD [kmax-1]]) / (a [LD [kmax]]-a [LD [ kmax-1]]), and is predicted by extrapolating with a linear equation.
これにより、YMCKγ補正テーブルへの入力値n[i]と出力値LD[i]の組(n[i],LD[i])(i=0,1,…,15)が求められる。求められた(n[i],LD[i])(i=0,1,…,15)を元に、スプライン関数などで内挿を行うか、あるいは、ROM中に有しているγ補正テーブルを選択する。 Thus, a set (n [i], LD [i]) (i = 0, 1,..., 15) of the input value n [i] and the output value LD [i] to the YMCKγ correction table is obtained. Based on the obtained (n [i], LD [i]) (i = 0, 1,..., 15), interpolation is performed with a spline function or the like, or γ correction possessed in the ROM Select a table.
本発明は、前述した実施例の機能を実現するソフトウエアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(CPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても達成される。この場合、記憶媒体から読出されたプログラムコード自体が前述した実施例の機能を実現することになる。プログラムコードを供給するための記憶媒体としては、例えば、ハードディスク、光ディスク、光磁気ディスク、不揮発性のメモリカード、ROMなどを用いることができる。また、コンピュータが読出したプログラムコードを実行することにより、前述した実施例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれる。さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれる。また、本発明の実施例の機能等を実現するためのプログラムは、ネットワークを介した通信によってサーバから提供されるものでも良い。 According to the present invention, a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and the computer (CPU or MPU) of the system or apparatus is stored in the storage medium. It is also achieved by reading and executing the program code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment. As a storage medium for supplying the program code, for example, a hard disk, an optical disk, a magneto-optical disk, a nonvolatile memory card, a ROM, or the like can be used. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program code. A case where part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included. Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. A case where the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing is included. Further, the program for realizing the functions and the like of the embodiments of the present invention may be provided from a server by communication via a network.
501 入力画像I/F(インターフェース)
502 遅延調整メモリ部
503a 像域分離部
504a 光沢付加部
505 ACS(自動カラー選択)部
506 出力画像I/F
501 Input image I / F (interface)
502 Delay adjustment memory unit 503a Image area separation unit 504a Gloss addition unit 505 ACS (automatic color selection) unit 506 Output image I / F
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012122010A JP2013246396A (en) | 2012-05-29 | 2012-05-29 | Image forming apparatus, image forming method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012122010A JP2013246396A (en) | 2012-05-29 | 2012-05-29 | Image forming apparatus, image forming method, program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013246396A true JP2013246396A (en) | 2013-12-09 |
Family
ID=49846184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012122010A Pending JP2013246396A (en) | 2012-05-29 | 2012-05-29 | Image forming apparatus, image forming method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013246396A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016009028A (en) * | 2014-06-23 | 2016-01-18 | 富士ゼロックス株式会社 | Image forming apparatus |
JP2016224111A (en) * | 2015-05-27 | 2016-12-28 | コニカミノルタ株式会社 | Image processing apparatus |
JP2018051971A (en) * | 2016-09-29 | 2018-04-05 | キヤノン株式会社 | Image processing device, image processing method and program |
JP2020197477A (en) * | 2019-06-04 | 2020-12-10 | コニカミノルタ株式会社 | Measuring device, image forming apparatus, and program |
-
2012
- 2012-05-29 JP JP2012122010A patent/JP2013246396A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016009028A (en) * | 2014-06-23 | 2016-01-18 | 富士ゼロックス株式会社 | Image forming apparatus |
JP2016224111A (en) * | 2015-05-27 | 2016-12-28 | コニカミノルタ株式会社 | Image processing apparatus |
US9959492B2 (en) | 2015-05-27 | 2018-05-01 | Konica Minolta, Inc. | Image processing device |
JP2018051971A (en) * | 2016-09-29 | 2018-04-05 | キヤノン株式会社 | Image processing device, image processing method and program |
JP2020197477A (en) * | 2019-06-04 | 2020-12-10 | コニカミノルタ株式会社 | Measuring device, image forming apparatus, and program |
JP7243466B2 (en) | 2019-06-04 | 2023-03-22 | コニカミノルタ株式会社 | Measuring device, image forming device and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7468820B2 (en) | Profile creation for texture simulation with clear toner | |
JP4607723B2 (en) | Image forming apparatus | |
US8218208B2 (en) | Image processing device and image processing method | |
US8179576B2 (en) | Image processing apparatus | |
JP4810450B2 (en) | Image processing apparatus, image processing method, computer program, and recording medium | |
JP5526873B2 (en) | Pseudo halftone processing device, image forming system | |
JPH0380767A (en) | Gradation recorder for image | |
JP2009038529A (en) | Image processing method, image processing device, image forming apparatus, image reading device, computer program, and record medium | |
US5982947A (en) | Image forming apparatus with color adjustment | |
JPH1169157A (en) | Image forming device | |
JP5300418B2 (en) | Image forming apparatus | |
JP4167100B2 (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium | |
JP6179234B2 (en) | Image forming apparatus, image forming method, and program | |
JP2013246396A (en) | Image forming apparatus, image forming method, program, and recording medium | |
US20140111832A1 (en) | Image forming apparatus, image forming method, computer program product, and recording medium | |
JP2003032504A (en) | Image forming device | |
JP6201281B2 (en) | Image forming apparatus, image forming method, program, and recording medium | |
JP5776379B2 (en) | Image forming apparatus and image forming method | |
US10657428B2 (en) | Image processing unit, image forming apparatus, image processing method, and storage medium | |
JP2008154131A (en) | Image forming apparatus | |
JP2000050072A (en) | Image output system | |
JP2010113552A (en) | Image processing apparatus and image forming apparatus | |
JP2009232289A (en) | Image processing apparatus and image forming apparatus | |
JP2013026729A (en) | Image processing device, image forming device, image processing method, and computer program | |
JP3861109B2 (en) | Image forming apparatus |