[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7258600B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP7258600B2
JP7258600B2 JP2019035625A JP2019035625A JP7258600B2 JP 7258600 B2 JP7258600 B2 JP 7258600B2 JP 2019035625 A JP2019035625 A JP 2019035625A JP 2019035625 A JP2019035625 A JP 2019035625A JP 7258600 B2 JP7258600 B2 JP 7258600B2
Authority
JP
Japan
Prior art keywords
image
recording
reference pattern
pattern
recording elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019035625A
Other languages
Japanese (ja)
Other versions
JP2020138426A (en
Inventor
浩二 布施
寛親 松岡
尚 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019035625A priority Critical patent/JP7258600B2/en
Publication of JP2020138426A publication Critical patent/JP2020138426A/en
Application granted granted Critical
Publication of JP7258600B2 publication Critical patent/JP7258600B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Ink Jet (AREA)

Description

本発明は、インクジェットプリンタ等の画像記録装置によるプリント物上の画像のスジムラを低減するための技術に関し、特に、記録素子毎の階調再現関数の導出に関する。 1. Field of the Invention The present invention relates to a technique for reducing streaks in an image printed by an image recording apparatus such as an inkjet printer, and more particularly to derivation of a gradation reproduction function for each recording element.

従来、記録媒体上に画像記録を行う装置として、個々のノズルからインクを吐出することにより画像形成を行うインクジェットプリンタがある。このインクジェットプリンタでは、各ノズルのインク吐出特性のばらつきにより、出力結果であるプリント物上の画像にスジムラ(濃度不均一)が生じることがあり、印刷品質上の問題となっている。このスジムラを低減する技術として、特許文献1には、所謂ヘッドシェーディング技術が開示されている。ヘッドシェーディング技術は、入力階調値とプリント物上の画像濃度との関係を示す階調再現関数をノズル毎に導出し、この逆関数を用いることで、意図する濃度を正確に再現可能な入力階調値を求める技術である。また、特許文献2には、階調再現関数の導出用テスト画像中に同一階調の均一パッチのユニットを複数設け、スキャン画像の歪み補正をユニット毎に行なうことで均一パッチの光学読取値(画素値)を所定のノズルに対応付ける技術が開示されている。 2. Description of the Related Art Conventionally, as an apparatus for recording an image on a recording medium, there is an inkjet printer that forms an image by ejecting ink from individual nozzles. In this inkjet printer, streaks (non-uniform density) may occur in the image on the printed matter, which is the output result, due to variations in the ink ejection characteristics of each nozzle, which poses a problem in terms of print quality. Patent Document 1 discloses a so-called head shading technique as a technique for reducing this streak unevenness. Head shading technology derives a gradation reproduction function that indicates the relationship between input gradation values and image densities on printed matter for each nozzle. This is a technique for obtaining gradation values. Further, in Patent Document 2, a plurality of units of uniform patches of the same gradation are provided in a test image for deriving a gradation reproduction function, and distortion correction of the scanned image is performed for each unit. A technique for associating a pixel value) with a predetermined nozzle is disclosed.

特開2012-66516号公報JP 2012-66516 A 特開2015-189149号公報JP 2015-189149 A

上記特許文献2の技術では、ユニット同士の端部の長さや傾きが一致しないことがあり、その場合、歪み補正後の画素値(各ノズルに対応付ける画素値)に、意図しない段差が発生する。その結果、導出したノズル毎の階調再現関数をシェーディング補正のパラメータとして用いると、ユニットの端部において適切なシェーディング補正がなされず、スジムラが残ってしまうことがあった。 In the technique of Patent Document 2, the lengths and inclinations of the ends of the units may not match, and in such cases, unintended steps occur in pixel values after distortion correction (pixel values associated with each nozzle). As a result, when the derived gradation reproduction function for each nozzle is used as a parameter for shading correction, appropriate shading correction is not performed at the end of the unit, and uneven streaks may remain.

本発明に係る画像処理装置は、記録媒体上に画像を記録する画像記録装置の記録素子毎の階調再現関数を導出する画像処理装置であって、均一パッチの周辺に基準パターンを配置したテスト画像を前記画像記録装置で出力したものを光学的に読み取ったスキャン画像から、前記基準パターンの位置を検出する検出手段と、前記検出手段で検出された前記基準パターンの位置に基づいて、前記スキャン画像における、前記記録素子それぞれが画像記録を行う経路を設定する設定手段と、設定された前記経路に沿って、前記スキャン画像の画素値を積分し、前記記録素子毎の階調再現関数を生成する生成手段と、を備え、前記均一パッチは、前記記録素子が並ぶ方向に連続しており、前記基準パターンは、前記記録素子が並ぶ方向における位置の基準を示す図形パターンである、ことを特徴とする。 An image processing apparatus according to the present invention is an image processing apparatus for deriving a gradation reproduction function for each recording element of an image recording apparatus that records an image on a recording medium, and is a test method in which a reference pattern is arranged around a uniform patch. detection means for detecting the position of the reference pattern from a scanned image obtained by optically reading the image output by the image recording device; setting means for setting a path for image recording by each of the recording elements in an image; and integrating pixel values of the scanned image along the set path to generate a gradation reproduction function for each of the recording elements. wherein the uniform patch is continuous in the direction in which the recording elements are arranged, and the reference pattern is a graphic pattern indicating a positional reference in the direction in which the recording elements are arranged. and

本発明によれば、変換前後の座標の対応関係を、隣接する局所領域間で連続的に変化させることができる。そのため、局所領域の端部において、ノズル等の記録素子に対応する領域が切換わる際の、歪み補正後の画素値の変化が滑らかになる。これにより、用紙の伸縮や光学収差等でスキャン画像が局所的に歪んでいても、シェーディング補正技術で用いる記録素子毎の階調再現関数を好適に導出できる。 According to the present invention, the correspondence between coordinates before and after transformation can be continuously changed between adjacent local regions. Therefore, at the end of the local area, when the area corresponding to the printing element such as the nozzle is switched, the pixel value after the distortion correction changes smoothly. As a result, even if the scanned image is locally distorted due to expansion or contraction of paper, optical aberration, or the like, the gradation reproduction function for each recording element used in the shading correction technique can be preferably derived.

インクジェットプリンタの模式図Schematic diagram of an inkjet printer 画像形成システムのハードウェア構成の一例を示すブロック図1 is a block diagram showing an example of a hardware configuration of an image forming system; FIG. プリント処理回路の内部構成を示す機能ブロック図Functional block diagram showing the internal configuration of the print processing circuit ノズル毎の一次元ルックアップテーブルの一例を示す図A diagram showing an example of a one-dimensional lookup table for each nozzle 従来技術におけるテスト画像の一例を示す図A diagram showing an example of a test image in the conventional technology 画素値段差の説明図Illustration of pixel price difference 実施形態1に係る、ホストPCの機能ブロック図Functional block diagram of the host PC according to the first embodiment 実施形態1に係る、ノズル毎の階調再現関数の導出処理の流れを示すフローチャート3 is a flowchart showing the flow of processing for deriving a tone reproduction function for each nozzle according to the first embodiment; (a)は実施形態1に係るテスト画像の一例、(b)はそのプリント物の輝度を示すスキャン画像の一例(a) is an example of a test image according to the first embodiment, and (b) is an example of a scanned image showing the brightness of the print. メインマーカーの検出枠を示す図Diagram showing the detection frame of the main marker メインマーカーの理想位置を求める方法の説明図Illustration of how to find the ideal position of the main marker 輝度変換後のスキャン画像の一例を示す図A diagram showing an example of a scanned image after luminance conversion (a)~(d)は、経路設定の説明図(a) to (d) are explanatory diagrams of route setting 実施形態1に係る、補間処理方法の説明図Explanatory diagram of an interpolation processing method according to the first embodiment 実施形態1の効果の説明図Explanatory diagram of the effect of the first embodiment 実施形態1の効果の説明図Explanatory diagram of the effect of the first embodiment 実施形態1の効果の説明図Explanatory diagram of the effect of the first embodiment 実施形態2に係る、ホストPCの機能ブロック図Functional block diagram of the host PC according to the second embodiment 実施形態3に係る、ホストPCの機能ブロック図Functional block diagram of the host PC according to the third embodiment (a)~(c)は、局所変位ベクトルの説明図(a) to (c) are explanatory diagrams of local displacement vectors 実施形態4に係る、ホストPCの機能ブロック図Functional block diagram of the host PC according to the fourth embodiment (a)~(c)は、実施形態4における異常判定処理の説明図(a) to (c) are explanatory diagrams of abnormality determination processing in the fourth embodiment. 特定メインマーカーを除外した局所領域設定の説明図Explanatory diagram of local area setting excluding specific main markers 実施形態5に係る、ホストPCの機能ブロック図Functional block diagram of the host PC according to the fifth embodiment (a)及び(b)は、目詰まり防止ドットが打たれる位置を考慮して、メインマーカーの重心位置を求める様子を説明する図(a) and (b) are diagrams for explaining how to determine the center of gravity position of the main marker in consideration of the position where anti-clogging dots are printed. ドット位置検出パターンを付加したテスト画像の一例を示す図A diagram showing an example of a test image to which a dot position detection pattern is added ノズル列方向における局所領域の数を増やした様子を示す図The figure which shows a mode that the number of the local area|regions in the nozzle row direction was increased. (a)は実施形態7のテスト画像の一例を示す図、(b)はそれを印刷出力して得たプリント物のスキャン画像を示す図(a) is a diagram showing an example of a test image of Embodiment 7, and (b) is a diagram showing a scanned image of a printed matter obtained by printing it out.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は、本発明を限定するものではなく、各実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。その他、本発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれ、また、以下の各実施形態の一部を適宜組み合わせることもできる。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in each embodiment are essential to the solution of the present invention. In addition, the present invention includes various forms within a range that does not deviate from the gist of the present invention, and a part of each of the following embodiments can be combined as appropriate.

(プリンタの構成)
図1は、各実施形態において想定する画像記録装置としての、インクジェットプリンタの模式図である。プリンタ10は、その筐体内に記録ヘッド100を備える。記録ヘッド100は、所謂フルラインタイプの記録ヘッドであり、ブラック、シアン、マゼンタ、イエローの各インク色に対応した4つのノズル列を有する。各ノズル列にはインクを吐出するノズルが、一定の間隔でX方向に配列されている。例えば、長さが15インチで600dpiのノズル列の場合は、約9000個のノズルがX方向に並んでいることになる。
(Printer configuration)
FIG. 1 is a schematic diagram of an inkjet printer as an image recording apparatus assumed in each embodiment. The printer 10 has a recording head 100 inside its housing. The recording head 100 is a so-called full-line type recording head, and has four nozzle arrays corresponding to respective ink colors of black, cyan, magenta, and yellow. In each nozzle row, nozzles that eject ink are arranged in the X direction at regular intervals. For example, in the case of a nozzle row of 15 inches in length and 600 dpi, approximately 9000 nozzles are arranged in the X direction.

記録媒体としての用紙106は、搬送ローラ105(および他の不図示のローラ)がモータ(不図示)の駆動力によって回転することにより、Y方向に搬送される。そして、用紙106が搬送される間に、ノズル列101~104それぞれの各ノズルが記録用データに応じてインクを吐出することで紙面上に画像が形成される。以下の説明において、用紙搬送方向の記録解像度は600dpiとする。 Paper 106 as a recording medium is conveyed in the Y direction by rotation of conveying roller 105 (and other rollers not shown) by the driving force of a motor (not shown). While the paper 106 is conveyed, each nozzle of the nozzle arrays 101 to 104 ejects ink according to the recording data, thereby forming an image on the paper surface. In the following description, it is assumed that the recording resolution in the paper transport direction is 600 dpi.

また、記録ヘッド100よりも下流の位置には、インラインセンサ107が備えられている。インラインセンサ107は、X方向に一定の間隔で配列した光学読取素子によって、プリント物上の画像の色を光学的に読み取り、色をRGB色空間で表現したスキャン画像を出力する。以下の説明において、用紙搬送方向の読取解像度は600dpiとする。 An in-line sensor 107 is provided downstream of the print head 100 . The in-line sensor 107 optically reads the colors of the image on the print by optical reading elements arranged at regular intervals in the X direction, and outputs a scanned image expressing the colors in the RGB color space. In the following description, it is assumed that the reading resolution in the paper transport direction is 600 dpi.

なお、各実施形態を適用可能な画像記録装置は、フルラインタイプのインクジェットプリンタに限られない。例えば、記録ヘッドを用紙の搬送方向と交差する方向に走査して画像を形成する所謂シリアルタイプのインクジェットプリンタでもよい。また、ノズル列におけるノズルの間隔および用紙搬送方向の記録解像度は600dpiに限定されない。同様に、インラインセンサ107の光学読取素子の間隔および、用紙搬送方向の読取解像度も600dpiに限定されない。また、画像記録を行う方式もインクジェット方式に限定されるものではなく、記録素子としてLEDや発熱体を使用するプリンタにも適用可能である。具体的には、露光のための光源としてLEDアレイを用いた電子写真プリンタや、固形インクを気化させるための熱源として微小な発熱体が並んだサーマルヘッドを用いた昇華型プリンタにも適用可能である。 Note that the image recording apparatus to which each embodiment can be applied is not limited to a full-line type inkjet printer. For example, a so-called serial type inkjet printer that forms an image by scanning a recording head in a direction that intersects the paper transport direction may be used. Also, the nozzle spacing in the nozzle row and the recording resolution in the paper transport direction are not limited to 600 dpi. Similarly, the interval between the optical reading elements of the in-line sensor 107 and the reading resolution in the paper transport direction are not limited to 600 dpi. Also, the image recording method is not limited to the ink jet method, and can be applied to printers using LEDs or heat generating elements as recording elements. Specifically, it can be applied to an electrophotographic printer that uses an LED array as a light source for exposure, and a sublimation printer that uses a thermal head with an array of minute heating elements as a heat source for vaporizing solid ink. be.

(画像形成システムの構成)
図2は、上述のプリンタ10を含む画像形成システムのハードウェア構成の一例を示すブロック図である。この画像形成システムは、図1に示したプリンタ10と、そのホスト装置としてのパーソナルコンピュータ(PC)20を有する。
(Configuration of image forming system)
FIG. 2 is a block diagram showing an example of a hardware configuration of an image forming system including the printer 10 described above. This image forming system has the printer 10 shown in FIG. 1 and a personal computer (PC) 20 as its host device.

ホストPC20は、CPU201、RAM202、HDD203、データ転送I/F204、キーボード・マウスI/F205、ディスプレイI/F206を有する。CPU201は、RAM202やHDD203に保持されているプログラムに従って所定の処理を実行する。RAM202は、揮発性の記憶装置であり、プログラムやデータを一時的に保持する。HDD203は、不揮発性の記憶装置であり、同じくプログラムやデータを保持する。データ転送I/F204は、プリンタ10との間におけるデータの送受信を制御するインタフェースである。このデータ送受信の接続方式としては、USBやLANが用いられる。キーボード・マウスI/F205は、キーボードやマウス等のHID(Human Interface Device)を制御する。ディスプレイI/F206は、液晶モニタなどのディスプレイ(不図示)の表示を制御するインタフェースである。 The host PC 20 has a CPU 201 , a RAM 202 , an HDD 203 , a data transfer I/F 204 , a keyboard/mouse I/F 205 and a display I/F 206 . The CPU 201 executes predetermined processing according to programs held in the RAM 202 and HDD 203 . A RAM 202 is a volatile storage device that temporarily holds programs and data. The HDD 203 is a non-volatile storage device and similarly holds programs and data. A data transfer I/F 204 is an interface that controls transmission and reception of data with the printer 10 . USB or LAN is used as a connection method for this data transmission/reception. A keyboard/mouse I/F 205 controls a HID (Human Interface Device) such as a keyboard and a mouse. A display I/F 206 is an interface that controls the display of a display (not shown) such as a liquid crystal monitor.

プリンタ10は、CPU211、RAM212、ROM213、データ転送I/F214、ヘッドコントローラ215、プリント処理回路216、センサコントローラ217を有する。CPU211は、RAM212やROM213に保持されているプログラムに従って所定の処理を実行する。RAM212は、揮発性の記憶装置であり、プログラムやデータを一時的に保持する。ROM213は、不揮発性の記憶装置であり、同じくプログラムやデータを保持する。データ転送I/F214は、ホストPC20との間におけるデータの送受信を制御するインタフェースである。ヘッドコントローラ215は、RAM212に格納された例えば二値に量子化されたハーフトーン画像に基づいて、記録ヘッド100の各ノズル列におけるインク吐出動作を制御する。プリント処理回路216は、画像処理に特化したデジタル回路であり、シェーディング補正や量子化処理といったプリント関連の画像処理を実行する。センサコントローラ217は、インラインセンサ107の個々の光学読取素子を制御する。 The printer 10 has a CPU 211 , a RAM 212 , a ROM 213 , a data transfer I/F 214 , a head controller 215 , a print processing circuit 216 and a sensor controller 217 . The CPU 211 executes predetermined processing according to programs held in the RAM 212 and ROM 213 . A RAM 212 is a volatile storage device that temporarily holds programs and data. A ROM 213 is a non-volatile storage device and similarly holds programs and data. The data transfer I/F 214 is an interface that controls data transmission/reception with the host PC 20 . The head controller 215 controls the ink ejection operation in each nozzle array of the print head 100 based on, for example, a binary quantized halftone image stored in the RAM 212 . A print processing circuit 216 is a digital circuit specialized for image processing, and executes print-related image processing such as shading correction and quantization processing. Sensor controller 217 controls the individual optical reading elements of in-line sensor 107 .

後述の各実施形態において、記録素子毎(ここではノズル毎)の階調再現関数の導出処理はホストPC20にて行い、シェーディング補正や量子化といったプリント関連の画像処理はプリンタ10のプリント処理回路216にて行なうものとする。ただし、プリント関連の画像処理の全部又は一部を、ホストPC20側で行なってもよいし、或いはプリンタ10のCPU211で実行しても構わない。 In each embodiment described later, the host PC 20 performs processing for deriving the gradation reproduction function for each recording element (here, each nozzle), and print-related image processing such as shading correction and quantization is performed by the print processing circuit 216 of the printer 10. shall be performed at However, all or part of the print-related image processing may be performed on the host PC 20 side, or may be performed by the CPU 211 of the printer 10 .

(プリント処理回路の構成)
図3は、プリンタ10が有するプリント処理回路216の内部構成を示す機能ブロック図である。プリント処理回路216は、色変換部301、色分解部302、ヘッドシェーディング部303、ガンマ補正部304、量子化部305を有する。以下、各部について説明する。
(Configuration of print processing circuit)
FIG. 3 is a functional block diagram showing the internal configuration of the print processing circuit 216 of the printer 10. As shown in FIG. The print processing circuit 216 has a color conversion section 301 , a color separation section 302 , a head shading section 303 , a gamma correction section 304 and a quantization section 305 . Each part will be described below.

色変換部301は、ホストPC20から入力された印刷対象のRGB色空間で表現された画像(入力RGB画像)を、三次元ルックアップテーブル(3D-LUT)を用いて、プリンタ10の色再現域に対応したRGB画像に変換し、色分解部302に出力する。なお、プリント処理回路216で扱われる画像の解像度は全て、プリンタ10に搭載されている記録ヘッド100のノズル解像度と同じ600dpiである。また、入力RGB画像や色変換後のRGB画像を含め、以降、プリント処理回路216で扱われる画像の各色成分のビット深度は、量子化部305が出力するハーフトーン画像を除き、全て16ビットであるものとする。 The color conversion unit 301 converts an image (input RGB image) to be printed, which is input from the host PC 20 and expressed in the RGB color space, into the color gamut of the printer 10 using a three-dimensional lookup table (3D-LUT). , and output to the color separation unit 302 . The resolution of all images handled by the print processing circuit 216 is 600 dpi, which is the same as the nozzle resolution of the recording head 100 mounted on the printer 10 . The bit depth of each color component of the image handled by the print processing circuit 216, including the input RGB image and the RGB image after color conversion, is 16 bits except for the halftone image output by the quantization unit 305. Assume that there is

色分解部302は、色変換後のRGB画像を、3DLUTを用いて、プリンタ10で使用される各インク色に対応したインク値画像に変換し、ヘッドシェーディング部303に出力する。プリンタ10が、シアン、マゼンタ、イエロー、ブラックの4色のインクを使用する場合、色分解部302に入力されたRGB画像は、シアン、マゼンタ、イエロー、ブラックの4チャンネルから成るインク値画像に変換される。 The color separation unit 302 uses a 3DLUT to convert the color-converted RGB image into an ink value image corresponding to each ink color used in the printer 10 , and outputs the ink value image to the head shading unit 303 . When the printer 10 uses four ink colors of cyan, magenta, yellow, and black, the RGB image input to the color separation unit 302 is converted into an ink value image consisting of four channels of cyan, magenta, yellow, and black. be done.

ヘッドシェーディング部303は、色分解部302が出力する色版毎のインク値画像に対して、各ノズルの吐出特性に応じた補正(以下、「シェーディング補正」と呼ぶ。)を行い、ガンマ補正部304に出力する。ヘッドシェーディング部303におけるシェーディング補正処理の詳細は後述する。 The head shading unit 303 performs correction (hereinafter referred to as “shading correction”) according to the ejection characteristics of each nozzle on the ink value image for each color plate output by the color separation unit 302, and performs a gamma correction unit. output to 304; Details of the shading correction processing in the head shading unit 303 will be described later.

ガンマ補正部304は、ヘッドシェーディング部303が出力するインク値画像に対し、色版毎に、一次元ルックアップテーブル(1D-LUT)を用いて、紙面上に形成されることになるドットの数を調整する。具体的には、各ノズルが吐出するインク滴によって形成されるドットの数と、当該数のドットによって実現される明度との関係が略線形になるように、シェーディング補正後のインク値画像の画素値を変更する。ガンマ補正後のインク値画像は量子化部305に出力される。 The gamma correction unit 304 uses a one-dimensional lookup table (1D-LUT) for each color plate in the ink value image output by the head shading unit 303 to determine the number of dots to be formed on the paper surface. to adjust. Specifically, the pixels of the ink value image after shading correction are adjusted so that the relationship between the number of dots formed by ink droplets ejected from each nozzle and the brightness realized by that number of dots becomes substantially linear. change the value. The gamma-corrected ink value image is output to the quantization unit 305 .

量子化部305は、ガンマ補正部304が出力するガンマ補正後のインク値画像に対し、色版毎に、ディザ法や誤差拡散法といった公知の量子化処理を適用して、ドットのオン又はオフを二値で表したハーフトーン画像を生成する。生成されたハーフトーン画像のデータはRAM212に一旦格納された後、ヘッドコントローラ215によって読み出される。なお、各ノズルが吐出するインク滴のサイズ(ドットサイズ)を制御可能なプリンタの場合は、ドットサイズの種類に対応した階調数(ビット深度)に量子化する処理を行ってハーフトーン画像を生成すればよい。この場合、ヘッドコントローラ215は、4値や16値といった多値のハーフトーン画像に基づいて各ノズルのインク吐出動作を制御することになる。 A quantization unit 305 applies a known quantization process such as a dither method or an error diffusion method to the gamma-corrected ink value image output from the gamma correction unit 304 for each color plate to turn dots on or off. Generates a halftone image that represents in binary. The generated halftone image data is temporarily stored in the RAM 212 and then read out by the head controller 215 . For printers that can control the size of ink droplets ejected from each nozzle (dot size), halftone images are created by quantizing to the number of tones (bit depth) corresponding to the type of dot size. should be generated. In this case, the head controller 215 controls the ink ejection operation of each nozzle based on a multi-value halftone image such as 4-value or 16-value.

(シェーディング補正)
続いて、ヘッドシェーディング部303におけるシェーディング補正について説明する。このシェーディング補正は、色版毎のインク値画像それぞれに対して同様に適用される。以下では、ブラックのインク値画像に適用する場合を例に説明を行い、他の色版については省略するものとする。
(shading correction)
Next, shading correction in the head shading unit 303 will be described. This shading correction is similarly applied to each ink value image for each color plate. In the following, the case of applying to a black ink value image will be described as an example, and other color plates will be omitted.

ここで、ノズル列方向の座標をx、ノズル列方向に直交する用紙搬送方向の座標をyで表すこととする。このとき、シェーディング補正前のインク値画像における座標(x,y)で表される位置の階調値をDpre_K(x,y)、シェーディング補正後のインク値画像における座標(x,y)で表される位置の階調値をDaft_K(x,y)のように表すこととする。この補正後の階調値Daft_K(x,y)は、補正前の階調値Dpre_K(x,y)に対し、ノズル位置毎(すなわちxの値毎)に、異なる1D-LUTを適用することで生成する。xの値が同じ場合、y方向の各画素には、同一の1D-LUTが適用されることになる。1D-LUTを用いるシェーディング補正は、前述の特許文献1にも記載されている公知の手法である。ここで、あるノズル位置x(以下、単に「位置x」と表記)における一次元ルックアップテーブルを、1D-LUT_K_xとしたとき、シェーディング補正後の階調値Daft_K(x,y)は、以下の式(1)によって表される。
Daft_K(x,y)=1D-LUT_K_x(Dpre_K(x,y))・・・式(1)
Let x be the coordinate in the nozzle row direction, and y be the coordinate in the paper transport direction orthogonal to the nozzle row direction. At this time, the gradation value at the position represented by the coordinates (x, y) in the ink value image before shading correction is represented by Dpre_K(x, y), and the coordinates (x, y) in the ink value image after shading correction. Let the gradation value of the position where it is applied be expressed as Daft_K(x, y). This post-correction gradation value Daft_K(x, y) is obtained by applying a different 1D-LUT to the pre-correction gradation value Dpre_K(x, y) for each nozzle position (that is, for each x value). Generate with For the same value of x, the same 1D-LUT will be applied to each pixel in the y direction. Shading correction using a 1D-LUT is a well-known technique that is also described in the above-mentioned Patent Document 1. Here, when a one-dimensional lookup table at a certain nozzle position x (hereinafter simply referred to as "position x") is 1D-LUT_K_x, the gradation value Daft_K(x, y) after shading correction is given by the following: It is represented by Formula (1).
Daft_K(x, y)=1D-LUT_K_x(Dpre_K(x, y)) Expression (1)

図4(a)は、位置x=513のノズルに適用する1D-LUT_K_513の一例、同(b)は位置x=517のノズルに適用する1D-LUT_K_517の一例である。図4(a)及び(b)に示すグラフの横軸は、シェーディング補正を行う前後の階調値を示しており、グラフの縦軸は、プリント物上の画像を光学的に読み取って得られた輝度値を示している。なお、グラフの縦軸は、輝度値に代えて濃度値であっても構わない。グラフの横軸における「紙白」はインク量が最小となるときの階調値である。また、グラフの横軸における「ベタ」はインク量が最大となるときの階調値である。 FIG. 4A shows an example of 1D-LUT_K_513 applied to the nozzle at position x=513, and FIG. 4B shows an example of 1D-LUT_K_517 applied to the nozzle at position x=517. The horizontal axis of the graphs shown in FIGS. 4(a) and 4(b) indicates the gradation values before and after the shading correction, and the vertical axis of the graphs indicates the values obtained by optically reading the image on the printed matter. shows the luminance value. Note that the vertical axis of the graph may be the density value instead of the luminance value. "Paper white" on the horizontal axis of the graph is the gradation value when the amount of ink is minimum. "Solid" on the horizontal axis of the graph is the gradation value when the amount of ink is maximum.

図4(a)及び(b)のグラフにおいて共通の直線401は、入力階調値に対応する目標輝度値を示す関数(以下、「目標輝度関数」と表記)I_T(d)を示している。この場合おいて、dは階調値を表す。いま、I_T(d)は、「紙白」の輝度値と「ベタ」の輝度値を直線で結んだ一次関数であるが、プリンタの階調再現特性を決める設計パラメータとして任意の関数を設定できる。なお、この目標輝度関数I_T(d)は、全てのノズルで同じものを用いる。そして、図4(a)のグラフにおける曲線402及び図4(b)のグラフにおける曲線403は、それぞれ異なるノズル位置xに対応するノズルの階調再現関数I_x(d)を表している。いま、曲線402は位置x=513のノズルの階調再現関数であり、曲線403は位置x=517のノズルの階調再現関数である。このノズル毎の階調再現関数I_x(d)は、位置xのノズルで階調値dの画像を、シェーディング補正をOFFにして記録したときの、紙面上において対応する位置の輝度値を示す関数である。なお、シェーディング補正をOFFにして記録を行う際は、色分解部302から出力されるインク値画像を、ヘッドシェーディング部303を通さずに、ガンマ補正部304に入力すればよい。 A straight line 401 common to the graphs of FIGS. 4A and 4B indicates a function (hereinafter referred to as a “target luminance function”) I_T(d) indicating a target luminance value corresponding to an input tone value. . In this case, d represents a gradation value. Now, I_T(d) is a linear function that connects the luminance value of "paper white" and the luminance value of "solid" with a straight line, but any function can be set as a design parameter that determines the gradation reproduction characteristics of the printer. . The same target luminance function I_T(d) is used for all nozzles. A curve 402 in the graph of FIG. 4A and a curve 403 in the graph of FIG. 4B represent tone reproduction functions I_x(d) of nozzles corresponding to different nozzle positions x. Now curve 402 is the tone reproduction function for the nozzle at position x=513, and curve 403 is the tone reproduction function for the nozzle at position x=517. The gradation reproduction function I_x(d) for each nozzle is a function representing the luminance value at the corresponding position on the paper surface when an image with gradation value d is printed with the nozzle at position x with shading correction turned off. is. When printing with shading correction turned off, the ink value image output from the color separation unit 302 can be input to the gamma correction unit 304 without passing through the head shading unit 303 .

例えば、位置x=513における、シェーディング補正後の階調値Daft_K(x,y)を求める場合は、以下のような手順となる。まず、目標輝度関数I_T(d)により、シェーディング補正前の階調値Dpre_K(513,y)に対応する目標輝度値I_T(Dpre_C(513、y))を求める。そして、位置x=513のノズルに対応する紙面上の位置において目標輝度値I_T(Dpre_K(513,y))を正確に再現するための、シェーディング補正後の階調値Daft_K(513,y)=I_513(I_T(Dpre_K(513,y)))-1 を求める。すなわち、位置x=513における1D-LUT_K_513は、階調再現関数I_513(d)の逆関数I_513-1と、目標輝度関数I_T(d)を合成した関数により実現される。他の位置xのノズルの1D-LUTについても同様である。なお、こうして作成された1D-LUTに存在しない値が引数として入力された場合は、公知の補間処理により出力値を算出すればよい。また、シェーディング補正で用いるノズル毎の1D-LUT_K_xは、階調再現関数の逆関数I_x-1と、目標輝度関数I_T(d)とを組み合わせて実現する。もしくは、階調再現関数の逆関数I_x-1と、目標輝度関数I_T(d)とを用いて事前に算出しておいた値を、単独のテーブルとして保持することにより実現する。 For example, when obtaining the gradation value Daft_K(x, y) after shading correction at the position x=513, the procedure is as follows. First, a target brightness value I_T (Dpre_C (513, y)) corresponding to the gradation value Dpre_K (513, y) before shading correction is obtained from the target brightness function I_T(d). Then, the gradation value after shading correction Daft_K (513, y)= Obtain I_513(I_T(Dpre_K(513,y))) -1 . That is, the 1D-LUT_K_513 at the position x=513 is realized by a function obtained by synthesizing the inverse function I_513 −1 of the tone reproduction function I_513(d) and the target luminance function I_T(d). The same is true for the 1D-LUTs of nozzles at other positions x. If a value that does not exist in the 1D-LUT created in this way is input as an argument, the output value can be calculated by a known interpolation process. Also, the 1D-LUT_K_x for each nozzle used in shading correction is realized by combining the inverse function I_x −1 of the tone reproduction function and the target luminance function I_T(d). Alternatively, values calculated in advance using the inverse function I_x −1 of the tone reproduction function and the target luminance function I_T(d) are stored as a single table.

図4(a)のグラフにおいて、曲線402が示す階調再現関数I_513(d)は、直線401が示す目標輝度関数I_T(d)を常に下回っている。これは、シェーディング補正がOFFの場合、位置x=513のノズルに対応する紙面上の位置に黒スジが発生していることを示している。しかし、シェーディング補正をONにすると、補正前の階調値Dpre_K(513,y)はDaft_K(513,y)へと補正され、紙面上に吐出されるインク量が少なくなるため、黒スジが低減することになる。一方、図4(b)のグラフにおいて、曲線403の階調再現関数I_517(d)は、直線401が示す目標輝度関数I_T(d)を常に上回っている。これは、シェーディング補正がOFFの場合、位置x=517のノズルに対応する紙面上の位置に白スジが発生していることを示している。しかし、シェーディング補正をONにすると、補正前の階調値Dpre_K(517、y)はDaft_K(517、y)へと補正され、紙面上に吐出されるインク量が多くなるため、白スジが低減することになる。 In the graph of FIG. 4A, the tone reproduction function I_513(d) indicated by the curve 402 is always below the target luminance function I_T(d) indicated by the straight line 401. This indicates that when the shading correction is OFF, a black streak occurs at the position on the paper surface corresponding to the nozzle at position x=513. However, when shading correction is turned on, the gradation value Dpre_K (513, y) before correction is corrected to Daft_K (513, y), and the amount of ink ejected onto the paper decreases, reducing black streaks. will do. On the other hand, in the graph of FIG. 4B, the tone reproduction function I_517(d) of the curve 403 always exceeds the target luminance function I_T(d) indicated by the straight line 401. This indicates that when the shading correction is OFF, a white streak occurs at the position on the paper surface corresponding to the nozzle at position x=517. However, when shading correction is turned on, the gradation value Dpre_K (517, y) before correction is corrected to Daft_K (517, y), and the amount of ink ejected onto the paper increases, reducing white streaks. will do.

(本発明の課題の確認)
各実施形態の説明に入る前に、本発明の課題について確認しておく。まず、従来手法によるノズル毎の階調再現関数の導出について説明する。ノズル毎の階調再現関数は、記録ヘッド100が有するノズル列毎に導出される。導出方法は各ノズル列で共通なので、ここではブラックのノズル列101を例として説明を行う。
(Confirmation of problems of the present invention)
Before starting the description of each embodiment, the subject of the present invention will be confirmed. First, derivation of the tone reproduction function for each nozzle by the conventional method will be described. A tone reproduction function for each nozzle is derived for each nozzle array of the print head 100 . Since the derivation method is common to each nozzle row, the black nozzle row 101 will be described here as an example.

まず、図5に示すような、同一階調の均一パッチが複数(ここでは9個)配置されたテスト画像501を、シェーディング補正をOFFにした条件下で、ブラックのノズル列101のみを用いて用紙に出力する。そして、出力結果(プリント物上の画像)をインラインセンサ107で読取り、色をRGB色空間で表現した光学読取画像(スキャン画像)をホストPC20に転送する。ホストPC20は、受け取ったスキャン画像に対し、その画素値(RGB値)の重み和を画素毎に求める輝度変換処理を行う。そして、この輝度変換後のスキャン画像において、各均一パッチの画素値を、各ノズルが画像記録を行う経路、すなわち、インク滴を吐出してドット形成を行う経路(以下、「記録経路」と呼ぶ。)に沿って積分することで、ノズル毎の階調再現関数I_x(d)の値を求める。 First, as shown in FIG. 5, a test image 501 in which a plurality (nine in this case) of uniform patches with the same gradation are arranged is scanned using only the black nozzle row 101 under the condition that shading correction is turned off. Print on paper. Then, the output result (image on the printed matter) is read by the in-line sensor 107, and an optically read image (scanned image) expressing colors in the RGB color space is transferred to the host PC 20. FIG. The host PC 20 performs luminance conversion processing for obtaining the weighted sum of the pixel values (RGB values) of the received scanned image for each pixel. Then, in the scanned image after the luminance conversion, the pixel values of each uniform patch are converted to the path along which each nozzle performs image recording, i.e., the path along which dots are formed by ejecting ink droplets (hereinafter referred to as the "recording path"). ) to obtain the value of the tone reproduction function I_x(d) for each nozzle.

例えば、位置x=513のノズルの階調再現関数I_513(d)を求める際、矢印502~510で示す経路に沿って、各パッチの画素値を積分する。これにより、位置x=513のノズルの階調再現関数として、I_513(d=0)~I_513(d=65535)の9個の値が得られる。他の位置xのノズルについても同様である。このようにして導出したノズル毎の階調再現関数I_x(d)を用いて、前述のヘッドシェーディング部303におけるシェーディング補正が実行可能となる。 For example, when obtaining the tone reproduction function I_513(d) of the nozzle at position x=513, the pixel values of each patch are integrated along the paths indicated by arrows 502-510. As a result, nine values of I_513 (d=0) to I_513 (d=65535) are obtained as the tone reproduction function of the nozzle at position x=513. The same applies to nozzles at other positions x. Shading correction in the head shading unit 303 described above can be executed using the tone reproduction function I_x(d) for each nozzle thus derived.

しかしながら、用紙の伸縮や、インラインセンサ107の光学収差などにより、スキャン画像が局所的に歪むことがある。また、用紙搬送時の誤差により、スキャン画像の位置が上下左右にズレたり、傾いてしまうことがある。そのため、スキャン画像において、各ノズルの記録経路を、固定したパラメータとして設定すると、階調再現関数I_x(d)として、不適切な値を生成してしまうことがある。例えば、位置x=513のノズルの記録経路として矢印502~510で示す位置を、スキャン画像における固定した座標として設定したとする。この場合、スキャン画像の歪みやズレにより、例えば位置x=517のノズルの記録経路に相当する位置の画素値を積分してしまうことがある。この場合、位置x=513のノズルの階調再現関数I_513(d)として、本来は図4(a)に示す曲線402が得られるはずが、図4(b)に示す曲線403が得られてしまう。その結果、位置x=513の位置において黒スジが発生しているにもかかわらず、シェーディング補正を行う際には、当該位置において、位置x=517のノズルの階調再現関数I_517(d)が用いられることになる。これにより、インク値画像の階調値がインク量を増やす方向に補正され、位置x=513における黒スジがさらに悪化してしまう。このように、スキャン画像の歪みやズレにより、スキャン画像の画素値を所定のノズルに正確に対応付けることができず、シェーディング補正によって却ってスジムラが悪化することがあった。 However, the scanned image may be locally distorted due to expansion and contraction of the paper, optical aberration of the in-line sensor 107, and the like. In addition, the position of the scanned image may be displaced vertically and horizontally or tilted due to an error during paper transport. Therefore, if the recording path of each nozzle is set as a fixed parameter in a scanned image, an inappropriate value may be generated as the tone reproduction function I_x(d). For example, assume that positions indicated by arrows 502 to 510 are set as fixed coordinates in the scanned image as the print path of the nozzle at position x=513. In this case, due to distortion or misalignment of the scanned image, pixel values at a position corresponding to the print path of the nozzle at position x=517, for example, may be integrated. In this case, as the tone reproduction function I_513(d) of the nozzle at position x=513, the curve 402 shown in FIG. 4(a) should be obtained, but the curve 403 shown in FIG. put away. As a result, even though a black streak occurs at the position x=513, when performing shading correction, the gradation reproduction function I_517(d) of the nozzle at position x=517 is will be used. As a result, the gradation value of the ink value image is corrected to increase the amount of ink, and the black streak at the position x=513 is further deteriorated. As described above, due to the distortion or deviation of the scanned image, the pixel values of the scanned image cannot be accurately associated with the predetermined nozzles.

この点、前述の特許文献1では、テスト画像中に同一階調の均一パッチのユニットを複数配置し、スキャン画像の歪み補正をユニット毎に行うことで、各ユニットの光学読取値を所定のノズルに対応付けている。しかしながら、隣接するユニット同士の境界が互いに接しておらず、歪み補正で用いる座標変換パラメータは、ユニット毎に独立して設定される。そのため、座標変換パラメータの切換えに伴って誤差の発生が避けられない。そのような誤差を含むノズル毎の階調再現関数をシェーディング補正で用いると、ユニットの端部において画素値の段差が発生してしまう。ここで、具体例を、図6(a)及び(b)を参照して説明する。いま、座標変換前において、互いに隣接する2つのノズルの記録経路がそれぞれ矢印601、602であったとする(図6(a))。双方の記録経路601及び602は、互いに離れた領域(点603~606で囲まれる領域と、点607~610で囲まれる領域)にそれぞれ含まれている。そして、座標変換後の領域が、点603~606で囲まれる領域は点613~616で囲まれる領域へと変化し、点607~610で囲まれる領域は点617~620で囲まれる領域へと変化したとする。このとき、記録経路601と602は、それぞれ記録経路611と612に変換される。いま、2つの局所領域は共通の境界を持たず、座標変換パラメータに関連性を持たせることができないため、座標変換後の記録経路611と612は一般的に平行とはならない。そのため、スキャン画像の画素値を、記録経路611及び612に沿って積分して得られたそれぞれの値の間には、座標変換に起因する意図しない段差が発生してしまう。このような方法で導出したノズル毎の階調再現関数をシェーディング補正に用いると、各ユニットの端部に対応する領域にスジムラが残ってしまうという問題があった。 In this regard, in the above-mentioned Patent Document 1, by arranging a plurality of uniform patch units with the same gradation in a test image and correcting the distortion of the scanned image for each unit, the optical reading value of each unit is obtained by a predetermined nozzle. corresponds to However, the boundaries between adjacent units are not in contact with each other, and coordinate transformation parameters used for distortion correction are set independently for each unit. Therefore, an error cannot be avoided when the coordinate transformation parameters are switched. If a gradation reproduction function for each nozzle containing such an error is used for shading correction, a step in pixel value will occur at the end of the unit. A specific example will now be described with reference to FIGS. Suppose that the print paths of two nozzles adjacent to each other are indicated by arrows 601 and 602, respectively, before coordinate conversion (FIG. 6A). Both recording paths 601 and 602 are included in separate areas (an area surrounded by points 603 to 606 and an area surrounded by points 607 to 610). After the coordinate transformation, the area surrounded by points 603 to 606 changes to the area surrounded by points 613 to 616, and the area surrounded by points 607 to 610 changes to the area surrounded by points 617 to 620. Suppose it has changed. At this time, the recording paths 601 and 602 are converted into recording paths 611 and 612, respectively. Now, since the two local regions do not have a common boundary and the coordinate transformation parameters cannot be related, the recording paths 611 and 612 after the coordinate transformation are generally not parallel. Therefore, an unintended step due to coordinate transformation occurs between the values obtained by integrating the pixel values of the scanned image along the recording paths 611 and 612 . If the gradation reproduction function for each nozzle derived by such a method is used for shading correction, there is a problem that uneven streaks remain in areas corresponding to the ends of each unit.

以下の各実施形態では、用紙の伸縮や光学収差等でスキャン画像が局所的に歪んでいても、上述のような座標変換パラメータの切換えに伴う段差を発生させずに、ノズル毎の階調再現関数I_x(d)を、好適に導出する方法を示す。 In each of the following embodiments, even if the scanned image is locally distorted due to expansion and contraction of the paper, optical aberration, etc., gradation reproduction for each nozzle is achieved without causing a step due to the switching of the coordinate transformation parameters as described above. We show how the function I_x(d) is preferably derived.

[実施形態1]
図7は、本実施形態に係る、ノズル毎の階調再現関数I_x(d)の導出処理を実現する、ホストPC20の機能ブロック図である。そして、図8は、本実施形態に係る、ノズル毎の階調再現関数I_x(d)の導出処理の流れを示すフローチャートである。従来技術と同様、ノズル毎の階調再現関数I_x(d)の導出は、各ノズル列で共通なので、以下では、ブラックのノズル列101を例として説明するものとする。なお、以下の説明において「S」はステップを意味する。
[Embodiment 1]
FIG. 7 is a functional block diagram of the host PC 20 that implements derivation processing of the tone reproduction function I_x(d) for each nozzle according to this embodiment. FIG. 8 is a flow chart showing the flow of processing for deriving the tone reproduction function I_x(d) for each nozzle according to this embodiment. As in the prior art, the derivation of the gradation reproduction function I_x(d) for each nozzle is common to each nozzle row, so the black nozzle row 101 will be described below as an example. In addition, "S" means a step in the following description.

S801では、テスト画像生成部702が、テスト画像パラメータ記憶部701に記憶されているテスト画像パラメータに基づいて、テスト画像を生成する。テスト画像パラメータについては後述する。図9(a)に、テスト画像の一例を示す。テスト画像901は、単独のノズル列を用いて出力(画像記録)することを想定しているため、ブラック1色の色成分を持つグレイ16ビット画像である。ここで、印刷出力に用いる用紙サイズとしてSRA3を想定し、ノズル列方向のサイズを6731画素、用紙搬送方向のサイズを10063画素とする。画像解像度は、各ノズル列のノズル解像度および、用紙搬送方向の記録解像度と同じ600dpiである。テスト画像901の各画素列は常に同じノズルで記録されるため、テスト画像901の座標が分かれば、当該座標の位置にてインクを吐出するノズルを特定できる。なお、本明細書において、上述の図9(a)を含むテスト画像に関する図では、説明の便宜上、実際のテスト画像と寸法や要素の数を変えていることに留意されたい。テスト画像が用意できると、次に、シェーディング補正をOFFにした条件下で、ブラックのノズル列101のみを用いて、テスト画像が印刷出力される。そして、得られたプリント物上の画像をインラインセンサ107で読み取り、読み取った画像(スキャン画像)のRGB値の重み和を画素毎に求める輝度変換処理を行なう。図9(b)に、輝度変換後のスキャン画像の一例を示す。いま、スキャン画像911のノズル列方向のサイズは6967画素、用紙搬送方向のサイズは10328画素である。画像解像度は、光学読取素子の解像度および、用紙搬送方向の記録解像度と同じ600dpiである。図9(b)において、斜めの矩形の枠912は、テスト画像901に対応する領域を示している。前述の通り、用紙搬送時の誤差、用紙の伸縮、インラインセンサ107の光学収差などにより、スキャン画像911における領域912は、通常の場合はテスト画像901と一致しない。そのため、一般的には、ノズル列方向の各位置をどのノズルが画像記録を行うのかをスキャン画像911の座標から特定することは困難である。以降に示す図では、この事実を示すために、領域912に傾きを与えている。 In S<b>801 , the test image generation unit 702 generates test images based on the test image parameters stored in the test image parameter storage unit 701 . Test image parameters are described below. FIG. 9(a) shows an example of the test image. A test image 901 is a 16-bit gray image having a single black color component, since it is assumed to be output (image recorded) using a single nozzle array. Here, it is assumed that SRA3 is used as the paper size for print output, the size in the nozzle row direction is 6731 pixels, and the size in the paper transport direction is 10063 pixels. The image resolution is 600 dpi, which is the same as the nozzle resolution of each nozzle array and the recording resolution in the paper transport direction. Since each pixel row of the test image 901 is always printed by the same nozzles, if the coordinates of the test image 901 are known, the nozzles that eject ink can be specified at the positions of the coordinates. It should be noted that, in this specification, the diagrams relating to the test image including FIG. 9(a) described above have different dimensions and the number of elements from the actual test image for convenience of explanation. After the test image is prepared, the test image is printed out using only the black nozzle row 101 under the condition that the shading correction is turned off. Then, the obtained image on the printed matter is read by the in-line sensor 107, and luminance conversion processing is performed to obtain the weighted sum of the RGB values of the read image (scanned image) for each pixel. FIG. 9B shows an example of a scanned image after luminance conversion. Now, the size of the scanned image 911 in the nozzle row direction is 6967 pixels, and the size in the paper conveying direction is 10328 pixels. The image resolution is 600 dpi, which is the same as the resolution of the optical reading element and the recording resolution in the paper transport direction. In FIG. 9B, a diagonal rectangular frame 912 indicates the area corresponding to the test image 901 . As described above, the area 912 in the scanned image 911 usually does not match the test image 901 due to errors during paper transport, expansion and contraction of the paper, optical aberration of the in-line sensor 107, and the like. Therefore, it is generally difficult to specify from the coordinates of the scan image 911 which nozzle performs image recording at each position in the nozzle row direction. In the following figures, region 912 is slanted to illustrate this fact.

また、スキャン画像における座標と、当該座標の位置にインクを吐出するノズルとの対応関係を求めるために、テスト画像の各均一パッチの周辺には、ノズル列方向の位置の基準を示す図形パターン(以下、「基準パターン」と呼ぶ。)が付加される。実施形態6までの各実施形態においては、所定形状の複数のマーカーを等間隔でノズル列方向に並べたものを基準パターンとして用いる。そして、本実施形態では、図9(a)に示す通り、各均一パッチ904の周囲に、十字形のマーカー(以下、「メインマーカー」と呼ぶ)903を等間隔で並べている。なお、メインマーカーの間隔は等間隔でなくてもよい。テスト画像には、さらに、基準パターンの検出精度を向上させるための、所定形状の複数のマークからなる補助パターンも付加されている。本実施形態では、矩形のマーク(以下、「サブマーカー」と呼ぶ)902を、テスト画像の四隅に配置している。そして、スキャン画像911から各メインマーカー913を検出することで、テスト画像901の座標と、スキャン画像911における座標との対応関係を求める。前述の通り、テスト画像901の座標が分かれば、当該座標の位置でインクを吐出するノズルを特定できるため、スキャン画像911における均一パッチ領域914の画素値を、所定のノズルに正確に対応付けることができる。 In addition, in order to obtain the correspondence between the coordinates in the scanned image and the nozzles that eject ink at the positions of the coordinates, a graphic pattern ( hereinafter referred to as a “reference pattern”) is added. In each of the embodiments up to the sixth embodiment, a reference pattern in which a plurality of markers having a predetermined shape are arranged at regular intervals in the nozzle row direction is used. In this embodiment, as shown in FIG. 9A, cross-shaped markers (hereinafter referred to as "main markers") 903 are arranged around each uniform patch 904 at regular intervals. Note that the intervals between the main markers may not be equal. The test image is also added with an auxiliary pattern consisting of a plurality of marks of a predetermined shape for improving the detection accuracy of the reference pattern. In this embodiment, rectangular marks (hereinafter referred to as "sub-markers") 902 are arranged at the four corners of the test image. Then, by detecting each main marker 913 from the scanned image 911, the correspondence relationship between the coordinates of the test image 901 and the coordinates in the scanned image 911 is obtained. As described above, if the coordinates of the test image 901 are known, it is possible to specify the nozzles that eject ink at the positions of the coordinates. Therefore, it is possible to accurately associate the pixel values of the uniform patch area 914 in the scan image 911 with the predetermined nozzles. can.

以下の説明では、テスト画像901の座標系と、スキャン画像911の座標系とが異なることを明示するために、前者を大文字で表記し、後者を小文字で表記するものとする。すなわち、テスト画像901におけるノズル列方向の座標を“X”、用紙搬送方向の座標を“Y”と表記し、スキャン画像911におけるノズル列方向の座標を“x”、用紙搬送方向の座標を“y”と表記する。 In the following description, in order to clearly indicate that the coordinate system of test image 901 and the coordinate system of scanned image 911 are different, the former will be written in capital letters and the latter will be written in lower case. That is, the coordinate in the nozzle row direction in the test image 901 is denoted by "X", the coordinate in the paper transport direction is denoted by "Y", the coordinate in the nozzle row direction in the scan image 911 is denoted by "x", and the coordinate in the paper transport direction is denoted by " y”.

<テスト画像パラメータ>
ここで、前述の「テスト画像パラメータ」について説明する。本実施形態のテスト画像パラメータは、メインマーカーの配置情報、メインマーカーの形状情報、サブマーカーの配置情報、サブマーカーの形状情報、均一パッチの配置情報から構成される(図7を参照)。メインマーカーの配置情報は、各メインマーカー903の位置を、テスト画像901の座標系で設定した数値データである。本実施形態では、メインマーカー903を均等間隔で、X方向には85個、Y方向には18個を配置する。配置を開始する位置はX=42、Y=742とし、X方向の配置間隔は79画素、Y方向の配置間隔は504画素とする。メインマーカーの形状情報は、メインマーカー903の形状を示す画像データである。本実施形態では、11画素四方の白背景の上に1画素幅の黒の縦線と横線が直交する十字が描かれた画像データを用いる。テスト画像生成部702は、この11画素四方の形状画像を、前述のメインマーカーの配置情報に基づいて、生成過程のテスト画像に描画する。サブマーカーの配置情報は、各サブマーカー902の位置を、テスト画像901の座標系で設定した数値データである。本実施形態では、サブマーカー902を四隅に配置する。配置を開始する位置はX=47、Y=79とし、X方向の配置間隔は6512画素、Y方向の配置間隔は9780画素とする。サブマーカーの形状情報は、サブマーカー902の形状を示す画像データである。本実施形態では、全面が黒ベタの125画素四方の正方形の画像データを用いる。テスト画像生成部702は、この125画素四方の形状画像を、前述のサブマーカーの配置情報に基づいて、生成過程のテスト画像に描画する。均一パッチの配置情報は、各均一パッチ904の位置を、テスト画像901の座標系で設定した数値データである。本実施形態では、均一パッチ904をY方向に均等間隔で17個配置する。配置を開始するX位置は47画素目、Y位置は787画素目とし、Y方向の配置間隔は504画素とする。均一パッチの配置情報には、均一パッチ904のサイズ情報も含んでおり、いま、X方向のサイズは6637画素、Y方向のサイズは425画素とする。また、均一パッチの配置情報には、各均一パッチ904の階調情報も含まれる。本実施形態では、濃度の高い順に以下の17種類(全17階調)の均一パッチを描画する。すなわち、階調値dが上から順に、65535、61440、57344、53248、49152、45056、40960、36864、32768、28672、24576、20480、16384、12288、8192、4096、0の17通りである。テスト画像生成部702は、均一パッチの配置情報に基づいて、生成過程のテスト画像に各階調の均一パッチを描画する。なお、メインマーカー903、サブマーカー902、均一パッチ904は、不等間隔で配置しても構わない。また、配置する個数は、上記のものに限定されない。また、メインマーカー903の形状として十字形は一例であり他の形状でもよい。また、サブマーカー902も基準パターンの検出枠を設定することができればよく、その形状は矩形に限定されない。例えば、メインマーカーの形状を菱形にし、サブマーカーの形状を円形にしても構わない。図8のフローチャートの説明に戻る。
<test image parameters>
Here, the aforementioned "test image parameters" will be explained. The test image parameters of this embodiment consist of main marker placement information, main marker shape information, sub-marker placement information, sub-marker shape information, and uniform patch placement information (see FIG. 7). The main marker arrangement information is numerical data in which the position of each main marker 903 is set in the coordinate system of the test image 901 . In this embodiment, 85 main markers 903 are arranged in the X direction and 18 in the Y direction at regular intervals. The arrangement start position is X=42, Y=742, the arrangement interval in the X direction is 79 pixels, and the arrangement interval in the Y direction is 504 pixels. The shape information of the main marker is image data indicating the shape of the main marker 903 . In this embodiment, image data is used in which a black cross having a width of 1 pixel and vertical and horizontal lines perpendicular to each other is drawn on an 11-pixel square white background. The test image generation unit 702 draws this 11-pixel square shape image on the test image in the generation process based on the above-described arrangement information of the main markers. The submarker arrangement information is numerical data in which the position of each submarker 902 is set in the coordinate system of the test image 901 . In this embodiment, sub-markers 902 are arranged at the four corners. The arrangement start position is X=47, Y=79, the arrangement interval in the X direction is 6512 pixels, and the arrangement interval in the Y direction is 9780 pixels. The sub-marker shape information is image data indicating the shape of the sub-marker 902 . In the present embodiment, image data of a 125-pixel-square square whose entire surface is solid black is used. The test image generation unit 702 draws this 125-pixel square shape image on the test image in the generation process based on the above-described arrangement information of the sub-markers. The uniform patch arrangement information is numerical data in which the position of each uniform patch 904 is set in the coordinate system of the test image 901 . In this embodiment, 17 uniform patches 904 are arranged at regular intervals in the Y direction. The X position where arrangement is started is the 47th pixel, the Y position is the 787th pixel, and the arrangement interval in the Y direction is 504 pixels. The uniform patch arrangement information also includes size information of the uniform patch 904. Now, assume that the size in the X direction is 6637 pixels and the size in the Y direction is 425 pixels. The uniform patch arrangement information also includes gradation information of each uniform patch 904 . In this embodiment, the following 17 types of uniform patches (total of 17 gradations) are drawn in descending order of density. That is, there are 17 gradation values d of 65535, 61440, 57344, 53248, 49152, 45056, 40960, 36864, 32768, 28672, 24576, 20480, 16384, 12288, 8192, 4096, and 0 from the top. The test image generation unit 702 draws uniform patches of each gradation on the test image in the process of generation based on the uniform patch arrangement information. Note that the main markers 903, sub-markers 902, and uniform patches 904 may be arranged at irregular intervals. Moreover, the number to be arranged is not limited to the above. Also, the cross shape is an example of the shape of the main marker 903, and other shapes may be used. Also, the shape of the sub-marker 902 is not limited to a rectangle as long as the detection frame of the reference pattern can be set. For example, the main marker may be rhombic and the sub-marker may be circular. Returning to the description of the flowchart in FIG.

S802では、サブマーカー検出部703が、スキャン画像上に存在するすべてのサブマーカーを検出する。この検出には、例えば公知のテンプレートマッチング手法を用いる。例えば左上隅に配置されたサブマーカー915を検出する場合は、これを囲む破線で示す領域919内の画素毎に、サブマーカーの画像(黒ベタの125画素四方の正方形の画像)との類似度を求める。そして、求めた類似度が最大となる画素位置を、サブマーカー915の中心位置として特定する。このときに用いるサブマーカーの画像データ(形状情報)はテスト画像パラメータ記憶部701から取得する。類似度の尺度としては、例えばZNCC(Zero Means Normalized Cross Correlation)などを適用すればよい。残りのサブマーカー916~918を検出する場合は、それぞれ、領域920~922において同じ処理を実行することになる。 In S802, the submarker detection unit 703 detects all submarkers existing on the scanned image. For this detection, for example, a known template matching technique is used. For example, when detecting the submarker 915 placed in the upper left corner, the degree of similarity with the image of the submarker (solid black 125-pixel square image) is calculated for each pixel in the area 919 surrounded by the dashed line. Ask for Then, the pixel position where the calculated degree of similarity is maximized is specified as the center position of the sub-marker 915 . Image data (shape information) of the sub-markers used at this time is acquired from the test image parameter storage unit 701 . As a measure of similarity, for example, ZNCC (Zero Means Normalized Cross Correlation) may be applied. Detecting the remaining submarkers 916-918 would perform the same processing in regions 920-922, respectively.

S803では、メインマーカー検出部705が、メインマーカーを検出するための枠をスキャン画像上に設定する。図10は、メインマーカーの検出枠が設定された状態を示す図である。図10において、メインマーカー913を囲む破線の枠1001が、設定された検出枠を示している。検出枠を設定する際には、まず、座標変換部704にて、S802で求めたサブマーカーの中心位置と、メインマーカーの配置情報に基づいて、メインマーカーの理想位置を求める。メインマーカーの理想位置は、スキャン画像911において、メインマーカーの中心が存在することが見込まれる座標である。ここで、図11の(a)及び(b)を参照して、メインマーカーの理想位置を求める方法を説明する。図11(a)にはテスト画像901の座標が示され、図11(b)にはスキャン画像911の座標が示されている。なお、図11(b)は説明のため極端な歪みが生じた状態としている。図11(a)において、4つの黒丸1101~1104は、テスト画像901における、四隅のサブマーカー902それぞれの中心位置を示している。サブマーカーの中心位置は、サブマーカーの配置情報と形状情報とに基づいて算出される。図11(a)において、×印1105は、理想位置を算出する対象の注目するメインマーカーの中心位置を示している。メインマーカーの中心位置は、メインマーカーの配置情報と形状情報とに基づいて算出される。図11(a)における“αX”と“αY”は、4つの黒丸1101~1104で囲まれる矩形内において、×印で示すメインマーカーの中心位置1105を、X方向とY方向のそれぞれについて0~1の比率で表現した値である。一方、図11(b)における4つの黒丸1106~1109は、S802で検出したサブマーカーの中心位置を示している。ここで、4つの黒丸を表すベクトルva~vdを、図11(b)に示す通り定義する。この場合において、ベクトルvaの起点はスキャン画像の左隅である。そして、図11(b)において、×印1110は、図11(a)における×印1105に対応する位置である。このとき、×印1110の位置を表すベクトルvoutは、以下の式(2)で表される。
out=va+αXb+αYc+αXαYd ・・・式(2)
In S803, the main marker detection unit 705 sets a frame for detecting the main marker on the scanned image. FIG. 10 is a diagram showing a state in which the detection frame of the main marker is set. In FIG. 10, a dashed frame 1001 surrounding the main marker 913 indicates the set detection frame. When setting the detection frame, first, the ideal position of the main marker is obtained by the coordinate conversion unit 704 based on the center position of the sub-marker obtained in S802 and the arrangement information of the main marker. The ideal position of the main marker is the coordinates at which the center of the main marker is expected to exist in the scanned image 911 . Here, a method for determining the ideal position of the main marker will be described with reference to FIGS. 11(a) and 11(b). 11(a) shows the coordinates of the test image 901, and FIG. 11(b) shows the coordinates of the scan image 911. FIG. For the sake of explanation, FIG. 11B shows a state in which extreme distortion occurs. In FIG. 11( a ), four black circles 1101 to 1104 indicate center positions of the four corner sub-markers 902 in the test image 901 . The center position of the sub-marker is calculated based on the arrangement information and shape information of the sub-marker. In FIG. 11A, the cross mark 1105 indicates the central position of the focused main marker for which the ideal position is to be calculated. The center position of the main marker is calculated based on the arrangement information and shape information of the main marker. “α X ” and “α Y ” in FIG. 11(a) indicate the center position 1105 of the main marker indicated by the cross in the rectangle surrounded by the four black circles 1101 to 1104 in the X direction and the Y direction respectively. It is a value expressed as a ratio between 0 and 1. On the other hand, four black circles 1106 to 1109 in FIG. 11(b) indicate the center positions of the submarkers detected in S802. Here, vectors v a to v d representing four black circles are defined as shown in FIG. 11(b). In this case, the origin of vector v a is the left corner of the scanned image. In FIG. 11(b), the x mark 1110 is the position corresponding to the x mark 1105 in FIG. 11(a). At this time, a vector v out representing the position of the cross mark 1110 is represented by the following equation (2).
v out = v a + α X v b + α Y v c + α X α Y v d Equation (2)

上記式(2)を用いることで、テスト画像901の座標を、スキャン画像911の座標に変換することができる。この変換は、疑似アフィン変換、もしくは共一次変換と呼ばれる。座標変換部704は、この変換処理を全てのメインマーカーに対して行って、各メインマーカーの理想位置を求める。そして、メインマーカー検出部705は、上述のようにして求められた各メインマーカーの理想位置を中心として、メインマーカーの形状情報で特定される各メインマーカーを囲む検出枠を設定する。図8のフローチャートの説明に戻る。 The coordinates of the test image 901 can be transformed into the coordinates of the scanned image 911 by using equation (2) above. This transformation is called a pseudo-affine transformation, or a bilinear transformation. The coordinate transformation unit 704 performs this transformation process on all main markers to find the ideal position of each main marker. Then, the main marker detection unit 705 sets a detection frame surrounding each main marker specified by the shape information of the main marker, centering on the ideal position of each main marker obtained as described above. Returning to the description of the flowchart in FIG.

S804では、メインマーカー検出部705が、スキャン画像上に存在するすべてのメインマーカーを検出する。具体的には、S803で設定した各検出枠について、その領域内における画素値の重心位置を求める。例えば、前述の図10において、メインマーカー913の中心位置は、検出枠1001の領域内における画素値の重心位置とする。なお、図9(b)に示す輝度変換後のスキャン画像911では、暗い領域ほど画素値が小さくなる。そこで、重心位置を求める際は、画素値を反転した画像を用いるのが望ましい。なお、メインマーカーの中心位置は、S802におけるサブマーカーの検出と同様、公知のテンプレートマッチング手法を用いて検出しても構わない。 In S804, the main marker detection unit 705 detects all main markers present on the scanned image. Specifically, for each detection frame set in S803, the position of the center of gravity of the pixel value within that region is obtained. For example, in FIG. 10 described above, the center position of the main marker 913 is the center position of the pixel values within the area of the detection frame 1001 . In the scanned image 911 after luminance conversion shown in FIG. 9B, the darker the area, the smaller the pixel value. Therefore, when obtaining the barycenter position, it is desirable to use an image in which the pixel values are inverted. Note that the center position of the main marker may be detected using a known template matching method, similar to the detection of the sub-markers in S802.

S805では、17種類(すなわち、17階調)の均一パッチそれぞれに対して以下のS806~S813の処理を適用するべく、注目する均一パッチが決定される。そして、S806では、ブラックのノズル列101が有する全てのノズルそれぞれに対して以下のS807~S812の処理を適用するべく、注目するノズルが決定される。本実施形態では、均一パッチのX方向のサイズを6637画素とした。そのため、S807~S812の処理が、6637個のノズルに対して順に適用されることになる。 In S805, a uniform patch of interest is determined in order to apply the following processing of S806 to S813 to each of 17 types (that is, 17 gradations) of uniform patches. Then, in S806, a target nozzle is determined in order to apply the following processing of S807 to S812 to all the nozzles of the black nozzle row 101 respectively. In this embodiment, the size of the uniform patch in the X direction is 6637 pixels. Therefore, the processes of S807 to S812 are applied in order to 6637 nozzles.

S807では、経路設定部706が、S804で検出したメインマーカーの位置に基づいて、スキャン画像911の画素値を積分する経路を設定する。この経路は、各ノズルの記録経路でもある。積分によって得られた累積加算後の画素値を要素数で割った値は、各ノズルの記録経路における平均的な輝度値である。この輝度値を各ノズルに対応付けることにより、ノズル毎の階調再現関数が得られる。ここで、図12及び図13(a)~(d)を参照して、どのようにして経路設定を行うのかを具体的に説明する。図12に示す輝度変換後のスキャン画像911において、テスト画像901に対応する領域912内の矢印1201~1217は、ある同一ノズルの記録経路上に位置し、画素値を積分する経路を示す。なお、均一パッチの上端と下端は、紙白との境界に近く、画素値の信頼度が低いため、積分の対象とはしない。図12において、「+」マーク1218~1226はS804で検出した各メインマーカーの位置を表し、検出した各メインマーカーの位置の間が点線で結ばれている。以降、この点線で囲まれる1つ1つの領域を「局所領域」と呼ぶこととする。本実施形態では、輝度変換後のスキャン画像911を、図12に示すように複数の局所領域に分割し、局所領域毎に異なる座標変換パラメータを設定する。これにより、用紙の伸縮や光学収差などで、スキャン画像911におけるテスト画像901に対応する領域912が、テスト画像901に対して局所的に歪んでいても、スキャン画像911の画素値(輝度値)を所定のノズルに正確に対応付けることを可能にする。 In S807, the path setting unit 706 sets a path for integrating the pixel values of the scan image 911 based on the position of the main marker detected in S804. This path is also the recording path for each nozzle. A value obtained by dividing the pixel value after cumulative addition obtained by integration by the number of elements is the average luminance value in the printing path of each nozzle. By associating this luminance value with each nozzle, a tone reproduction function for each nozzle is obtained. Here, with reference to FIGS. 12 and 13(a) to (d), how the route is set will be specifically described. In the scanned image 911 after luminance conversion shown in FIG. 12, arrows 1201 to 1217 in the area 912 corresponding to the test image 901 are positioned on the printing path of the same nozzle and indicate paths for integrating pixel values. Note that the upper and lower edges of the uniform patch are not included in the integration because they are close to the boundary with the paper white and the reliability of the pixel values is low. In FIG. 12, "+" marks 1218 to 1226 represent the positions of the main markers detected in S804, and the positions of the detected main markers are connected by dotted lines. Hereinafter, each area surrounded by the dotted line will be called a "local area". In this embodiment, the scanned image 911 after luminance conversion is divided into a plurality of local regions as shown in FIG. 12, and different coordinate transformation parameters are set for each local region. As a result, even if a region 912 corresponding to the test image 901 in the scan image 911 is locally distorted with respect to the test image 901 due to expansion and contraction of paper, optical aberration, etc., the pixel value (luminance value) of the scan image 911 is can be accurately associated with a given nozzle.

図13(a)はテスト画像901における座標を示しており、図13(b)はスキャン画像911における対応する座標を示している。そして、図13(b)における9つの黒丸1218~1226は、検出した各メインマーカーの位置であり、図12における同一番号の「+」マークの位置を示している。なお、図13(b)では説明のために、スキャン画像911に極端な歪みが発生した状態としていることに留意されたい。図13(b)における実線の矢印1202は、図12における矢印1202に相当し、図12における上から2つ目の均一パッチ1230の画素値を積分する経路を示している。また、図13(b)における×印1312は、矢印1202で示す経路上の任意の点を示す。図13(a)における9つの黒丸1301~1309は、テスト画像901において、図13(b)の黒丸1218~1226に対応する位置を示す。図13(a)の実線の矢印1310は、図13(b)において矢印1202で示す経路を、テスト画像901の座標系で示したもので、各ノズルのインク吐出方向である用紙搬送方向(Y方向)と向きが同じである。図13(a)において、×印1311は、図13(b)において矢印1202で示す経路上の任意の点1312を、テスト画像901の座標系で示すものであり、矢印1310で示す経路上に位置している。 13(a) shows the coordinates in the test image 901 and FIG. 13(b) shows the corresponding coordinates in the scan image 911. FIG. Nine black circles 1218 to 1226 in FIG. 13(b) indicate the positions of the detected main markers, and indicate the positions of the "+" marks with the same numbers in FIG. Note that FIG. 13B shows a state in which the scan image 911 is extremely distorted for the sake of explanation. A solid-line arrow 1202 in FIG. 13B corresponds to the arrow 1202 in FIG. 12 and indicates a path for integrating the pixel values of the second uniform patch 1230 from the top in FIG. 13B indicates an arbitrary point on the route indicated by the arrow 1202. In FIG. Nine black circles 1301-1309 in FIG. 13(a) indicate positions in the test image 901 corresponding to the black circles 1218-1226 in FIG. 13(b). A solid-line arrow 1310 in FIG. 13A indicates the path indicated by the arrow 1202 in FIG. direction) and direction are the same. In FIG. 13(a), an X mark 1311 indicates an arbitrary point 1312 on the path indicated by the arrow 1202 in FIG. 13(b) in the coordinate system of the test image 901. positioned.

経路設定部706は、まず、図13(a)の矢印1310に示すような経路を、テスト画像901の座標系で、ノズル毎に設定する。そして、×印1311で示すような経路上の点毎に、スキャン画像911において対応する点を求める。例えば、点1311に対応するスキャン画像911上の点は、図13(b)における点1312である。このとき、点1312の座標は、以下の方法で求めることができる。 First, the path setting unit 706 sets paths as indicated by arrows 1310 in FIG. 13A for each nozzle in the coordinate system of the test image 901 . Then, for each point on the path indicated by X marks 1311, a corresponding point in the scanned image 911 is obtained. For example, the point on the scanned image 911 corresponding to point 1311 is point 1312 in FIG. 13(b). At this time, the coordinates of the point 1312 can be obtained by the following method.

まず、座標変換前の点(ここでは、点1311)を含む局所領域を求める。これは、座標変換前の点1311の座標と、メインマーカーの配置情報とを比較することで求められる。点1311を含む局所領域は、4つの黒丸(1305、1306、1308、1309)で囲まれる矩形領域である。そして、座標変換前の点を含む局所領域内において、座標変換前の点の位置を、X方向とY方向のそれぞれについて0~1の比率で表現する。図13(a)において、αXとαYは、点1311を含む局所領域内において、点1311の位置をそれぞれ0~1の比率で表現した値である。 First, a local region including a point (here, point 1311) before coordinate transformation is obtained. This is obtained by comparing the coordinates of the point 1311 before coordinate conversion with the placement information of the main marker. A local area containing the point 1311 is a rectangular area surrounded by four black circles (1305, 1306, 1308, 1309). Then, the positions of the points before the coordinate transformation are expressed at a ratio of 0 to 1 in each of the X direction and the Y direction in the local region containing the points before the coordinate transformation. In FIG. 13A, α X and α Y are values representing the position of the point 1311 in a local region containing the point 1311 with a ratio of 0 to 1, respectively.

次に、点1311を含む局所領域に含まれる点の座標変換に用いる、座標変換パラメータを設定する。いま、図13(a)において4つの黒丸(1305、1306、1308、1309)で囲まれる局所領域は、スキャン画像911においては、同じく4つの黒丸(1222、1223、1225、1226)で囲まれる領域に対応する。このような、スキャン画像911において対応する局所領域は、S804で検出した各メインマーカーの位置に基づいて設定する。そして、4つの黒丸(1305、1306、1308、1309)で囲まれる局所領域に含まれる点の座標変換に用いる座標変換パラメータとして、図13(b)に示すベクトルva~vdを設定する。そして、点1311に対応する位置である、点1312の位置を特定するベクトルvoutを、前述の式(2)により求める。これにより、テスト画像901の座標を、スキャン画像911の座標に変換することができる。なお、座標変換前の点が、異なる局所領域に含まれる場合は、αXとαY、および座標変換パラメータは別途設定する。例えば、座標変換前の点が、図13(c)の点1313の場合、当該点は、4つの黒丸(1301、1302、1304、1305)で囲まれる局所領域に含まれる。そのため、まず、この局所領域内において、座標変換前の点の位置を、X方向とY方向のそれぞれについて0~1の比率で表現する。すなわち、図13(c)に示すようにαXとαYの値を設定する。また、この局所領域に対応する領域は、図13(d)において、4つの黒丸(1218、1219、1221、1222)で囲まれる領域である。そのため、座標変換パラメータとして、図13(d)に示すベクトルva~vdを設定する。そして、点1313に対応する点1314の位置を、前述の式(2)により求める。 Next, coordinate transformation parameters used for coordinate transformation of points included in the local region including the point 1311 are set. Now, the local area surrounded by four black circles (1305, 1306, 1308, 1309) in FIG. corresponds to Such a corresponding local region in the scanned image 911 is set based on the position of each main marker detected in S804. Then, vectors v a to v d shown in FIG. 13B are set as coordinate transformation parameters used for coordinate transformation of points included in the local area surrounded by four black circles (1305, 1306, 1308, 1309). Then, the vector v out specifying the position of the point 1312, which is the position corresponding to the point 1311, is obtained by the above equation (2). This allows the coordinates of the test image 901 to be transformed into the coordinates of the scan image 911 . Note that if points before coordinate transformation are included in different local regions, α X and α Y and coordinate transformation parameters are set separately. For example, if the point before coordinate transformation is point 1313 in FIG. 13(c), the point is included in a local area surrounded by four black circles (1301, 1302, 1304, 1305). Therefore, first, within this local region, the position of the point before coordinate transformation is expressed at a ratio of 0 to 1 for each of the X direction and the Y direction. That is, the values of α X and α Y are set as shown in FIG. 13(c). Also, the area corresponding to this local area is the area surrounded by four black circles (1218, 1219, 1221, 1222) in FIG. 13(d). Therefore, vectors v a to v d shown in FIG. 13(d) are set as coordinate transformation parameters. Then, the position of the point 1314 corresponding to the point 1313 is obtained by the above equation (2).

このようにして経路設定部706は、テスト画像901の座標系でノズル毎に設定した経路上の全ての点(画素位置)に対して、上述の、局所領域毎に異なる座標変換パラメータを用いた座標変換処理を適用する。これにより、スキャン画像911の画素値を積分する各ノズルに対応した経路(例えば、図12における矢印1201、1202、1203、・・・1216、1217で示す経路)を求める。図8のフローチャートの説明に戻る。 In this manner, the path setting unit 706 uses the above-described coordinate transformation parameters that differ for each local region for all points (pixel positions) on the path set for each nozzle in the coordinate system of the test image 901. Apply a coordinate transformation process. Thus, paths corresponding to the respective nozzles for integrating the pixel values of the scanned image 911 (for example, paths indicated by arrows 1201, 1202, 1203, . . . , 1216, 1217 in FIG. 12) are obtained. Returning to the description of the flowchart in FIG.

S808では、画素値取得部707が、S807で設定された経路上の全ての点に対しS809とS810の処理を順次適用するべく、経路上の点のうち注目する点を決定する。そして、続くS809にて、S808で決定した注目点における画素値を取得する。この場合において、S807で設定された経路上の注目点の座標値は、一般的に、整数値にはならず、小数を含む値となる。そのため、経路上において注目点として決定された各点の画素値(サブピクセル位置の画素値)を、バイリニア補間といった補間処理によって取得する。なお、補間処理の詳細は後述する。そして、S810では、補間処理で取得した画素値を、S807で設定された経路に沿って積分(累積加算)する。 In S808, the pixel value acquisition unit 707 determines a point of interest among the points on the path so as to sequentially apply the processing of S809 and S810 to all points on the path set in S807. Then, in subsequent S809, the pixel value at the target point determined in S808 is acquired. In this case, the coordinate value of the point of interest on the route set in S807 is generally not an integer value, but a decimal value. Therefore, a pixel value (pixel value at a sub-pixel position) of each point determined as a point of interest on the path is obtained by interpolation processing such as bilinear interpolation. Details of the interpolation processing will be described later. Then, in S810, the pixel values obtained by the interpolation processing are integrated (accumulated addition) along the path set in S807.

S811では、経路上の全ての点に対して画素値の取得処理が完了したか否かが判定される。未処理の点があればS808に戻って、次の点が注目点に決定されて処理が続行される。一方、経路上の全てについて画素値の取得処理が完了していれば、S812に進む。 In S811, it is determined whether or not pixel value acquisition processing has been completed for all points on the route. If there is an unprocessed point, the process returns to S808, the next point is determined as the target point, and the process continues. On the other hand, if the pixel value acquisition processing has been completed for all the paths, the process proceeds to S812.

S812では、平均化部708が、累積加算後の画素値(積分値)に対して平均化処理、具体的には、積分値を累積加算に用いた要素の数で割る処理を行う。これにより、各ノズルの記録経路における平均的な輝度値が求まる。こうして求めた値を、注目ノズルの階調再現関数の値として決定する。
S813では、ノズル列内の全てのノズルに対してS812までの処理が完了したか否かが判定される。未処理のノズルがあればS806に戻って、次のノズルが注目ノズルに決定されて処理が続行される。一方、ノズル列内の全てのノズルが処理されていれば、S814に進む。
In S812, the averaging unit 708 performs an averaging process on the pixel value (integrated value) after cumulative addition, specifically, a process of dividing the integrated value by the number of elements used for cumulative addition. As a result, the average luminance value in the printing path of each nozzle is obtained. The value obtained in this way is determined as the value of the gradation reproduction function of the nozzle of interest.
In S813, it is determined whether or not the processing up to S812 has been completed for all nozzles in the nozzle row. If there is an unprocessed nozzle, the process returns to S806, the next nozzle is determined as the nozzle of interest, and the process continues. On the other hand, if all nozzles in the nozzle row have been processed, the process proceeds to S814.

S814では、17種類の均一パッチの全てに対してS813までの処理が完了したか否かが判定される。未処理の均一パッチがあればS805に戻って、次の均一パッチが注目パッチに決定されて処理が続行される。一方、17種類の全ての均一パッチが処理されていれば、本処理を終える。 In S814, it is determined whether or not the processing up to S813 has been completed for all 17 types of uniform patches. If there is an unprocessed uniform patch, the process returns to S805, the next uniform patch is determined as the patch of interest, and the process continues. On the other hand, if all 17 types of uniform patches have been processed, this process ends.

以上が、本実施形態に係る、ノズル毎の階調再現関数I_x(d)の導出処理の内容である。なお、本実施形態では、S802にてサブマーカーを検出し、その結果に基づいて、S803にてメインマーカーの検出枠を設定したが、メインマーカーの検出枠の設定方法は、この方法に限定されない。例えば、プリンタ10の用紙搬送の精度が高く、インラインセンサ107の光学収差の影響が少ない場合は、スキャン画像911において常に固定された位置を検出枠として設定しても構わない。すなわち、前述の図8のフローのS802とS803の各処理、及び、これら処理を実行するサブマーカー検出部703、座標変換部704は省略可能である。 The above is the details of the processing for deriving the tone reproduction function I_x(d) for each nozzle according to the present embodiment. In this embodiment, the sub-marker is detected in S802, and the detection frame of the main marker is set in S803 based on the result, but the method of setting the detection frame of the main marker is not limited to this method. . For example, if the printer 10 conveys paper with high accuracy and the influence of optical aberration of the in-line sensor 107 is small, a constantly fixed position in the scanned image 911 may be set as the detection frame. That is, the processes of S802 and S803 in the flow of FIG. 8, and the sub-marker detection unit 703 and the coordinate conversion unit 704 that execute these processes can be omitted.

(補間処理)
続いて、S809における補間処理の詳細を説明する。図14(a)は、本実施形態における補間処理の方法を説明する図であり、前述の図13(b)における点1312の位置の画素値(サブピクセル位置の画素値)を求める様子を示している。図14(a)における黒丸は、スキャン画像911を構成する画素を示している。これら黒丸が表す点の座標値は整数値であるため、その画素値については補間処理を行わずに取得することができる。
(interpolation processing)
Next, details of the interpolation processing in S809 will be described. FIG. 14(a) is a diagram for explaining the interpolation processing method in this embodiment, and shows how the pixel value (pixel value at the sub-pixel position) at the position of point 1312 in FIG. 13(b) described above is obtained. ing. Black circles in FIG. 14( a ) indicate pixels forming the scanned image 911 . Since the coordinate values of the points represented by these black circles are integer values, the pixel values can be obtained without performing interpolation processing.

本実施形態では、注目点に対応するサブピクセル位置の画素値を、バイリニア補間によって求める。なお、図14の(b)及び(c)は、後述の実施形態2における補間処理の方法を説明する図である。 In this embodiment, the pixel value at the sub-pixel position corresponding to the point of interest is obtained by bilinear interpolation. Note that (b) and (c) of FIG. 14 are diagrams for explaining a method of interpolation processing in Embodiment 2, which will be described later.

図14(a)に示すとおり、点1312の位置の、サブピクセル位置の画素値をバイリニア補間で求める場合は、まず、点1312を囲む4つの点の画素値を取得する。次に、点1312の座標値の小数部分であるp_xとp_yを求める。ここで、スキャン画像911の画素値を、図14(a)に示すx、yの座標を用いてI(x,y)と表記することとする。この場合、点1312の位置の、サブピクセル位置の画素値I(x+p_x、y+p_y)は、以下の式(3)で表される。
I(x+p_x、y+p_y)=I_y0+(I_y1-I_y0)×p_y
・・・式(3)
As shown in FIG. 14A, when obtaining the pixel values of the sub-pixel positions at the position of the point 1312 by bilinear interpolation, first, the pixel values of the four points surrounding the point 1312 are obtained. Next, p_x and p_y, which are the decimal part of the coordinate value of the point 1312, are obtained. Here, the pixel value of the scanned image 911 is represented as I(x, y) using the x and y coordinates shown in FIG. 14(a). In this case, the sub-pixel position pixel value I(x+p_x, y+p_y) at the position of the point 1312 is represented by the following equation (3).
I (x + p_x, y + p_y) = I_y0 + (I_y1 - I_y0) x p_y
... formula (3)

上記式(3)において、I_y0とI_y1は計算過程で用いる変数であり、それぞれ以下の式(4)及び式(5)で表される。
I_y0=I(x,y)+(I(x+1、y)-I(x,y))×p_x
・・・式(4)
I_y1=I(x、y+1)+(I(x+1、y+1)-I(x、y+1))×p_x
・・・式(5)
In the above formula (3), I_y0 and I_y1 are variables used in the calculation process and are represented by the following formulas (4) and (5), respectively.
I_y0=I(x,y)+(I(x+1,y)−I(x,y))×p_x
... formula (4)
I_y1=I(x,y+1)+(I(x+1,y+1)−I(x,y+1))×p_x
... formula (5)

このようなバイリニア補間による補間処理によって、注目点に対応するサブピクセル位置の画素値が求められる。 A pixel value at a sub-pixel position corresponding to the point of interest is obtained by such interpolation processing using bilinear interpolation.

(本実施形態の効果の説明)
本実施形態では、テスト画像上のXYの各方向に3個以上のメインマーカーを配置するため(図9(a)を参照)、スキャン画像の歪み補正を行う局所領域の境界を、隣り合う局所領域間で共有できる(図12を参照)。そのため、座標変換パラメータに関連性を持たせ、変換前後の座標の対応関係を、隣接する局所領域間で連続的に変化させることができる。具体例を使って詳しく説明する。図15(a)は、前述の図13(a)に示す4つの局所領域のうち上段2つの局所領域を示しており、当該2つの局領領域を跨ぐ線分1501が描かれている。この線分1501に対し、前述した局所領域毎の疑似アフィン変換を適用すると、図15(b)のようになる。すなわち、変換後の線分は、2つの局所領域の境界において端部が一致した折れ線(線分1502と線分1503とからなる)のようになる。このように本実施形態によれば、変換前後の座標の対応関係を、隣接する局所領域間で連続的に変化させることができる。一方、公知の変換処理として、例えば射影変換を局所領域毎に適用した場合は、図15(c)のようになる。すなわち、変換後の線分は、2つの局所領域の境界において端部が一致せずに離間した2本の線分1504と1505のようになる。このように、変換前後の座標の対応関係が隣接する局所領域間で不連続になると、各局所領域の端部において、所定のノズルに対応する領域が切換わる際の、歪み補正後の画素値(所定のノズルに対応付ける画素値)に、意図しない段差が発生してしまう。図16(a)~(d)は、局所領域毎の疑似アフィン変換を適用することで、変換前後の座標の対応関係を隣接する領域間で連続的に変化させられることを示す図である。図16(a)と図16(c)は変換前の座標を示し、図16(b)と図16(d)は変換後の座標を示す。図16(a)及び(c)において、×印で示す点1601は、線分1501と局所領域の境界とが交わる点を示し、図16(b)及び(d)において、×印で示す点1602は、座標変換後において点1601に対応する点を示す。また、図16(a)と図16(b)は、左側の局所領域のパラメータ(αX1=1、αY1=0~1の値)を用いて座標変換を行う様子を示す。そして、図16(c)と図16(d)は、右側の局所領域のパラメータ(αX2=0、αY2=αY1)を用いて座標変換を行う様子を示す。このとき、左右のどちらの局所領域のパラメータを用いても、境界上の点(例えば点1601)は、同じ位置(点1602)に変換される。以下、詳しく説明する。
(Description of effects of the present embodiment)
In this embodiment, since three or more main markers are arranged in each of the XY directions on the test image (see FIG. 9A), the boundaries of the local regions for distortion correction of the scanned image are defined by adjacent local regions. It can be shared between domains (see Figure 12). Therefore, it is possible to make the coordinate transformation parameters have relevance, and to continuously change the correspondence relationship between the coordinates before and after the transformation between the adjacent local regions. A detailed explanation will be given using a specific example. FIG. 15(a) shows the upper two local regions among the four local regions shown in FIG. 13(a), and a line segment 1501 that spans the two local regions is drawn. If the above-described pseudo-affine transformation for each local region is applied to this line segment 1501, it becomes as shown in FIG. 15(b). That is, the line segment after conversion becomes like a polygonal line (consisting of line segment 1502 and line segment 1503) whose ends match at the boundary of the two local regions. As described above, according to the present embodiment, the correspondence between coordinates before and after transformation can be continuously changed between adjacent local regions. On the other hand, when projective transformation, for example, is applied to each local region as a known transformation process, the result is as shown in FIG. 15(c). That is, the line segments after conversion are like two line segments 1504 and 1505 whose ends do not match at the boundary of the two local regions and are spaced apart. In this way, if the correspondence relationship between the coordinates before and after conversion becomes discontinuous between adjacent local regions, the pixel value after distortion correction when the region corresponding to the predetermined nozzle is switched at the end of each local region. Unintended steps occur in (pixel values associated with predetermined nozzles). FIGS. 16A to 16D are diagrams showing that by applying a pseudo-affine transformation for each local region, the coordinate correspondence relationship before and after transformation can be continuously changed between adjacent regions. 16(a) and 16(c) show coordinates before conversion, and FIGS. 16(b) and 16(d) show coordinates after conversion. In FIGS. 16A and 16C, a point 1601 marked with an X indicates a point where the line segment 1501 intersects the boundary of the local region, and a point marked with an X in FIGS. 16B and 16D. 1602 indicates a point corresponding to the point 1601 after coordinate transformation. 16(a) and 16(b) show how coordinate transformation is performed using the parameters of the left local region (α X1 =1, α Y1 =values from 0 to 1). 16(c) and 16(d) show how coordinate transformation is performed using the parameters of the local region on the right (α X2 =0, α Y2Y1 ). At this time, a point on the boundary (for example, point 1601) is transformed to the same position (point 1602) regardless of which of the left and right local area parameters is used. A detailed description will be given below.

まず、図16(a)と図16(b)を参照して、左側の局所領域のパラメータ(αX1=1、αY1=0~1の値)を用いる場合の、変換後の位置vout1を求める方法を説明する。この場合、座標変換パラメータであるベクトルva1~vd1を図16(b)に示すように設定すると、変換後の位置を表すベクトルvout1は、以下の式(6)で表される。
out1=va1+αX1b1+αY1c1+αX1αY1d1
=(va1+vb1)+αY1(vc1+vd1) ・・・式(6)
First, referring to FIGS. 16(a) and 16(b) , the position v out1 Explain how to find In this case, if vectors v a1 to v d1 , which are coordinate transformation parameters, are set as shown in FIG. 16(b), vector v out1 representing the position after transformation is expressed by the following equation (6).
v out1 = v a1 + α X1 v b1 + α Y1 v c1 + α X1 α Y1 v d1
=(v a1 +v b1 )+α Y1 (v c1 +v d1 ) Expression (6)

次に、図16(c)と図16(d)を参照して、右側の局所領域のパラメータ(αX2=0、αY2=αY1)を用いる場合の、変換後の位置vout2を求める方法を説明する。この場合、座標変換パラメータであるベクトルva2~vd2を図16(d)に示すように設定すると、変換後の位置を表すベクトルvout2は、以下の式(7)で表される。
out2=va2+αX2b2+αY2c2+αX2αY2d2
=va2+αY2c2 ・・・式(7)
Next, referring to FIGS. 16(c) and 16(d), the post-transformation position v out2 when using the parameters of the right local region (α X2 =0, α Y2Y1 ) is determined. Explain how. In this case, if vectors v a2 to v d2 that are coordinate transformation parameters are set as shown in FIG .
v out2 = v a2 + α X2 v b2 + α Y2 v c2 + α X2 α Y2 v d2
=v a2Y2 v c2 Expression (7)

図16(b)と図16(d)から明らかなように、式(7)の右辺第一項のva2は、式(6)の右辺第一項の(va1+vb1)と一致する。また、式(7)の右辺第二項のvc2は、式(6)の右辺第二項の(vc1+vd1)と一致する。また、図16(a)と図16(c)から明らかなように、αY2=αY1であるため、式(7)の右辺は、va2+αY2c2=va2+αY1c2となる。ここに前述のva2=(va1+vb1)と、vc2=(vc1+vd1)を代入すると、式(7)の右辺は、va2+αY2c2=va2+αY1c2=(va1+vb1)+αY1(vc1+vd1)となり、式(6)の右辺と一致する。すなわち、左右のどちらの局所領域のパラメータを用いても、境界上の点(例えば1601)は、同じ位置(1602)に変換される。 As is clear from FIGS. 16(b) and 16(d), v a2 in the first term on the right side of Equation (7) matches ( va1 + v b1 ) in the first term on the right side of Equation (6). . Also, v c2 in the second term on the right side of Equation (7) matches (v c1 +v d1 ) in the second term on the right side of Equation (6). Also, as is clear from FIGS. 16(a) and 16(c), since α Y2Y1 , the right side of equation (7) is: v a2Y2 v c2 = va2Y1 v c2 Become. Substituting the aforementioned v a2 =( va1 +v b1 ) and v c2 =(v c1 +v d1 ) here, the right side of equation (7) is: v a2Y2 v c2 = v a2Y1 v c2 = (v a1 +v b1 )+α Y1 (v c1 +v d1 ), which matches the right side of equation (6). That is, the point on the boundary (for example, 1601) is transformed to the same position (1602) regardless of which of the left and right local region parameters is used.

以上のとおり、本実施形態によれば、変換前後の座標の対応関係を、隣接する局所領域間で連続的に変化させることができる。そのため、局所領域の端部において、所定のノズルに対応する領域が切換わる際の、スキャン画像の歪み補正後の画素値(所定のノズルに対応付ける画素値)の変化を滑らかにすることができる。ここであらためて、図17(a)及び(b)を参照して分かりやすく説明する。図17(a)において2本の矢印1701及び1702は、変換前の隣接する2つのノズルの記録経路をそれぞれ示しており、それぞれ異なる局所領域に含まれている。本実施形態の手法によれば、これら記録経路は、図17(b)において2本の矢印1703及び1704が示すように、ほぼ平行になるように変換される。そのため、スキャン画像911の画素値を、矢印1703及び1704が示す経路に沿って積分して得られたそれぞれの値の間には、座標変換に起因する段差が発生しない。そのため、本実施形態の手法で導出したノズル毎の階調再現関数をシェーディング補正で用いることにより、プリント物上の画像に発生するスジムラを好適に低減できる。 As described above, according to this embodiment, the correspondence between coordinates before and after transformation can be continuously changed between adjacent local regions. Therefore, at the end of the local region, when the region corresponding to the predetermined nozzle is switched, the pixel value after distortion correction of the scanned image (the pixel value associated with the predetermined nozzle) can be changed smoothly. Here again, an easy-to-understand explanation will be given with reference to FIGS. In FIG. 17A, two arrows 1701 and 1702 respectively indicate print paths of two adjacent nozzles before conversion, which are included in different local areas. According to the method of the present embodiment, these print paths are converted to be almost parallel as indicated by two arrows 1703 and 1704 in FIG. 17(b). Therefore, there is no step caused by coordinate transformation between the values obtained by integrating the pixel values of the scanned image 911 along the paths indicated by the arrows 1703 and 1704 . Therefore, by using the gradation reproduction function for each nozzle derived by the method of the present embodiment for shading correction, uneven streaks occurring in an image on a printed matter can be preferably reduced.

[実施形態2]
サブピクセル位置の画素値を補間処理で求めることは、デジタル信号に標本化関数を畳み込んでアナログ信号を復元し、所望するサブピクセル位置のアナログ信号値をサンプリングすることに相当する。実施形態1では、サブピクセル位置の画素値を求める際にバイリニア補間を用いたが、このバイリニア補間で使用される標本化関数は、孤立した三角波に相当する。この場合、エイリアス成分が除去されずに残ってしまう。つまり、実施形態1の手法によって得られるノズル毎の階調再現関数には、バイリニア補間に起因するエイリアス成分が、意図しない誤差として含まれていることになる。その結果、シェーディング補正を実施して出力したプリント物上の画像にわずかなスジムラが視認されることがあった。そこで、エイリアス成分の除去に関して理想的な標本化関数であるsinc関数を用いた補間処理を行う態様を、実施形態2として説明する。
[Embodiment 2]
Determining the pixel value at the sub-pixel position by interpolation processing corresponds to convolving the digital signal with the sampling function to restore the analog signal and sampling the analog signal value at the desired sub-pixel position. In Embodiment 1, bilinear interpolation is used to obtain pixel values at sub-pixel positions, and the sampling function used in this bilinear interpolation corresponds to an isolated triangular wave. In this case, alias components remain without being removed. In other words, the tone reproduction function for each nozzle obtained by the method of the first embodiment includes an alias component caused by bilinear interpolation as an unintended error. As a result, slight streaks may be visible in the printed image output after shading correction. Therefore, a mode of performing interpolation processing using a sinc function, which is an ideal sampling function for removing alias components, will be described as a second embodiment.

なお、画像形成システムの基本構成といった実施形態1と共通の内容については説明を省略し、以下では本実施形態の特徴であるサブピクセル位置の画素値を取得する処理(前述の図8のフローチャートのS809)を中心に説明を行うものとする。 Note that the description of the contents common to the first embodiment, such as the basic configuration of the image forming system, will be omitted, and the processing for obtaining pixel values at sub-pixel positions, which is a feature of this embodiment (see the flowchart in FIG. 8 described above), will be described below. S809) will be mainly described.

図18は、本実施形態に係る、ノズル毎の階調再現関数I_x(d)の導出処理を実現する、ホストPC20の機能ブロック図である。実施形態1の図7の機能ブロック図と共通の処理部については、図7と同じ番号が振られている。図7との違いは、標本化関数生成部1801が追加されている点である。本実施形態の場合、画素値取得部707’は、標本化関数生成部1801で生成したsinc関数を用いて補間処理を行い、サブピクセル位置の画素値を取得する。 FIG. 18 is a functional block diagram of the host PC 20 that implements derivation processing of the tone reproduction function I_x(d) for each nozzle according to this embodiment. The same numbers as in FIG. 7 are assigned to processing units that are common to the functional block diagram of FIG. 7 of the first embodiment. The difference from FIG. 7 is that a sampling function generator 1801 is added. In this embodiment, the pixel value acquisition unit 707' performs interpolation processing using the sinc function generated by the sampling function generation unit 1801, and acquires pixel values at sub-pixel positions.

ここで、前述の図13(b)における点1312が示すサブピクセル位置の画素値を取得する場合について、図14(b)を参照しつつ説明する。図14(b)において黒丸は、図14(a)と同様、スキャン画像911を構成する画素を示す。前述のとおり、これら黒丸の位置の座標値は整数値であるため、その画素値は補間処理を行わずに取得可能である。 Here, the case of obtaining the pixel value at the sub-pixel position indicated by the point 1312 in FIG. 13(b) will be described with reference to FIG. 14(b). In FIG. 14(b), black circles indicate pixels forming the scanned image 911, as in FIG. 14(a). As described above, since the coordinate values of the positions of these black circles are integer values, their pixel values can be obtained without performing interpolation processing.

点1312が示すサブピクセル位置の画素値を取得する際は、まず、点1312を中心とした矩形領域の画素値を取得する。そして、図14(b)に示すように、点1312の座標値の小数部分であるp_xとp_yを求める。この際の矩形領域のサイズは、標本化関数のタップ数に相当する。このタップ数は、標本化関数生成部1801の入力パラメータであり、ノズル列方向のタップ数をnX、用紙搬送方向のタップ数をnYで表すこととする。図14(b)の場合、nX=9、nY=9である。いま、スキャン画像911における位置(x,y)の画素値をI(x,y)と表すと、点1312の画素値I(x+p_x、y+p_y)は、以下の方法で求められる。ここで、標本化関数としてのsinc関数を、sinc(z)=sin(πz)/(πz)とした。 When acquiring the pixel value of the sub-pixel position indicated by the point 1312, first, the pixel value of the rectangular area centered on the point 1312 is acquired. Then, as shown in FIG. 14B, p_x and p_y, which are the decimal part of the coordinate value of the point 1312, are obtained. The size of the rectangular area at this time corresponds to the number of taps of the sampling function. The number of taps is an input parameter of the sampling function generation unit 1801, and the number of taps in the nozzle row direction is represented by nX, and the number of taps in the paper transport direction is represented by nY. In the case of FIG. 14(b), nX=9 and nY=9. Now, if the pixel value at the position (x, y) in the scanned image 911 is represented as I(x, y), the pixel value I(x+p_x, y+p_y) at the point 1312 is obtained by the following method. Here, the sinc function as the sampling function is set to sinc(z)=sin(πz)/(πz).

まず、y-4からy+4の行毎に、スキャン画像911の画素値とsinc関数との積和演算を行い、行毎の累積値S(h)を求める。これを式で表すと、以下の式(8)のようになる。
S(h)=Σ(I(x+w、y+h)×sinc(a_x(w-p_x)))
・・・式(8)
First, for each row from y−4 to y+4, the sum-of-products operation of the pixel value of the scanned image 911 and the sinc function is performed to obtain the cumulative value S(h) for each row. If this is represented by a formula, it becomes like the following Formula (8).
S(h)=Σ(I(x+w, y+h)×sinc(a_x(w−p_x)))
... formula (8)

上記式(8)において、高さを表すhの範囲は-4から+4の整数である。例えば、y-4の行の累積値はS(-4)である。また、Σは、幅を表すwについて加算することを示し、wの範囲は-4から+4の整数である。また、a_xは、ノズル列方向の帯域を制限するパラメータである。 In the above formula (8), the range of h representing the height is an integer from -4 to +4. For example, the cumulative value for row y-4 is S(-4). Also, Σ indicates addition for w representing the width, and the range of w is an integer from -4 to +4. Also, a_x is a parameter that limits the band in the nozzle row direction.

次に、得られた各行の累積値S(h)とsinc関数との積和演算を行い、サブピクセル位置の画素値I(x+p_x、y+p_y)を求める。これを式で表すと、以下の式(9)のようになる。
I(x+p_x、y+p_y)=Σ(S(h)×sinc(a_y(h-p_y)))
・・・式(9)
Next, the sum-of-products operation of the obtained cumulative value S(h) of each row and the sinc function is performed to obtain the pixel value I(x+p_x, y+p_y) at the sub-pixel position. If this is represented by a formula, it becomes like the following Formula (9).
I(x+p_x, y+p_y)=Σ(S(h)×sinc(a_y(h−p_y)))
... formula (9)

上記式(9)において、Σは、高さを表すhについて加算することを示し、hの範囲は-4から+4の整数である。また、a_yは、用紙搬送方向の帯域を制限するパラメータである。 In the above formula (9), Σ indicates addition for h representing height, and the range of h is an integer from -4 to +4. Also, a_y is a parameter that limits the band in the paper transport direction.

標本化関数生成部1801は、上記式(8)及び式(9)で用いるsinc関数を、注目点に対応するサブピクセル位置の画素値を求める都度算出する。標本化関数生成部1801に入力パラメータとして与えられる帯域制限パラメータa_x、a_yは、公知のサンプリング定理に基づき、エイリアス成分を完全に除去できるように設定される。具体的には、前述の図8のフローのS807で行われる座標変換により、任意の2点間の距離が縮小する場合、最も縮小の程度が大きい場所における距離の比率を、a_x、a_yとして用いる。なお、任意の2点間の距離が縮小しない場合は、a_xとa_yはそれぞれ1とする。例えば、各ノズル列の記録解像度が600dpiで、インラインセンサ107の読取解像度が1200dpiの場合、座標変換により任意の2点間の距離は0.5倍になる。この場合、a_xとa_yはそれぞれ0.5とする。また、各ノズル列の記録解像度と、インラインセンサ107の読取解像度とが同じであっても、用紙の伸縮や光学収差により、座標変換を行った際に任意の2点間の距離が縮小し得る。例えば、用紙の縮小によって用紙搬送方向における2点間の距離が0.97倍になるケースであれば、a_y=0.97とする。同様に、用紙の伸縮とインラインセンサ107の光学収差により、ノズル列方向における2点間の距離が0.95倍になるケースであれば、a_x=0.95とする。なお、a_xとa_yは、局所領域毎に異なった値を設定しても構わない。また、検出したメインマーカーの位置に基づいてa_xとa_yを動的に設定しても構わない。 The sampling function generator 1801 calculates the sinc function used in the above equations (8) and (9) each time the pixel value of the sub-pixel position corresponding to the point of interest is obtained. The band-limiting parameters a_x and a_y given as input parameters to the sampling function generator 1801 are set based on a known sampling theorem so as to completely remove alias components. Specifically, when the distance between any two points is reduced by the coordinate conversion performed in S807 of the flow of FIG. . Note that a_x and a_y are each set to 1 when the distance between any two points does not decrease. For example, when the recording resolution of each nozzle row is 600 dpi and the reading resolution of the in-line sensor 107 is 1200 dpi, the distance between arbitrary two points is multiplied by 0.5 by coordinate conversion. In this case, a_x and a_y are each set to 0.5. Even if the recording resolution of each nozzle array and the reading resolution of the in-line sensor 107 are the same, the distance between any two points may be reduced when coordinate conversion is performed due to expansion and contraction of the paper and optical aberration. . For example, in a case where the distance between two points in the paper conveying direction becomes 0.97 times due to paper reduction, a_y=0.97. Similarly, if the distance between the two points in the nozzle row direction is 0.95 times due to the expansion and contraction of the paper and the optical aberration of the in-line sensor 107, then a_x=0.95. Note that a_x and a_y may be set to different values for each local region. Also, a_x and a_y may be dynamically set based on the detected position of the main marker.

(変形例1)
理想的な標本化関数であるsinc関数を用いた補間処理にてサブピクセル位置の画素値を取得する場合、座標変換後の座標値の小数部分p_x、p_yは、サブピクセル位置の画素値を求める位置によって変化する。そのため、サブピクセル位置の画素値を1つ取得する度に複数のsinc関数を算出する必要があり(上述の式(8)及び式(9)を参照)、処理負荷が大きい。そこで、サブピクセル位置の画素値を取得する際に必要な標本化関数を補間処理に先立って生成・保持しておいてもよい。以下、詳しく説明する。
(Modification 1)
When pixel values at sub-pixel positions are obtained by interpolation using a sinc function, which is an ideal sampling function, the decimal parts p_x and p_y of the coordinate values after coordinate transformation are used to obtain pixel values at sub-pixel positions. Varies by position. Therefore, it is necessary to calculate a plurality of sinc functions each time a pixel value at a sub-pixel position is obtained (see Equations (8) and (9) above), resulting in a large processing load. Therefore, a sampling function necessary for acquiring pixel values at sub-pixel positions may be generated and stored prior to interpolation processing. A detailed description will be given below.

本変形例では、上述の式(8)及び式(9)で使用するsinc関数を補間処理の実行前に生成しておき、生成したsinc関数をRAM202に保持しておく。具体的には、前述の図8のフローのS804(メインマーカーの検出)の完了後からS809(注目点の画素値を取得)を実行するまでの間に標本化関数生成部1801にて生成し、例えばルックアップテーブル(LUT)の形式で保持しておく。そして、補間処理を実行するタイミングで、画素値取得部707’がLUTを参照して、上述の式(8)及び式(9)を用いた演算処理を行う。LUTは式(8)及び式(9)のそれぞれについて以下のように作成する。 In this modified example, the sinc function used in the above equations (8) and (9) is generated before execution of interpolation processing, and the generated sinc function is stored in the RAM 202 . Specifically, the sampling function generation unit 1801 generates the , for example, in the form of a lookup table (LUT). Then, at the timing of executing the interpolation processing, the pixel value acquisition unit 707' refers to the LUT and performs arithmetic processing using the above-described equations (8) and (9). The LUT is created as follows for each of equations (8) and (9).

まず、式(8)で用いるLUTは、wとp_xの2つの軸を持つ二次元のテーブルとする。図14(b)に示したように、標本化関数のタップ数が9×9の場合、wの範囲は-4から+4の整数である。この場合、w軸の要素数は9個である。一方、p_xは0から1までの小数を含む値で、例えば0から1までの値を1000等分した値とする。よって、p_x軸の要素数は1001個とする。このようなLUTによって決定される値が、式(8)におけるsinc(a_x(w-p_x))となる。 First, let the LUT used in equation (8) be a two-dimensional table having two axes of w and p_x. As shown in FIG. 14(b), when the number of taps of the sampling function is 9×9, the range of w is an integer from −4 to +4. In this case, the number of elements on the w-axis is nine. On the other hand, p_x is a value including a decimal number from 0 to 1, for example, a value obtained by equally dividing the value from 0 to 1 by 1000. Therefore, the number of elements on the p_x axis is 1001. The value determined by such a LUT is sinc(a_x(w-p_x)) in equation (8).

同様に、式(9)で用いるLUTは、hとp_yの2つの軸を持つ二次元のテーブルとする。図14(b)に示したように、標本化関数のタップ数が9×9の場合、hの範囲は-4から+4の整数である。そのため、h軸の要素数は9個である。一方、p_yは0から1までの小数を含む値で、例えば0から1までの値を1000等分した値とする。よって、p_y軸の要素数は1001個である。このようなLUTによって決定される値が、式(9)におけるsinc(a_y(h-p_y))となる。 Similarly, the LUT used in equation (9) is a two-dimensional table having two axes of h and p_y. As shown in FIG. 14(b), when the number of taps of the sampling function is 9×9, the range of h is an integer from −4 to +4. Therefore, the number of elements on the h-axis is nine. On the other hand, p_y is a value including a decimal number from 0 to 1, for example, a value obtained by equally dividing the value from 0 to 1 by 1000. Therefore, the number of elements on the p_y axis is 1001. The value determined by such a LUT is sinc(a_y(h−p_y)) in equation (9).

なお、両LUTを参照する際は、それぞれ引数として与えるp_xの値及びp_yの値を、それぞれLUTのp_x軸及びp_y軸が持つ最も近い値に丸めればよい。このように、補間処理を実施する前に、標本化関数を算出してLUTとしてメモリに保持しておくことで処理負荷を大幅に低減できる。 When referring to both LUTs, the values of p_x and p_y given as arguments may be rounded to the nearest values of the p_x axis and p_y axis of the LUT. In this manner, the processing load can be greatly reduced by calculating the sampling function and storing it in the memory as an LUT before executing the interpolation processing.

(変形例2)
理想的な標本化関数としては、上述のsinc関数に窓関数を適用したLanczos関数でもよい。この場合も、実施形態1のバイリニア補間の場合に比べて好適な結果を得ることができる。ただし、sinc関数やLanczos関数を用いた補間処理は、バイリニア補間を用いた処理に比べ、処理負荷が大きい。そこで、例えば、図14(c)に示すように、標本化関数の用紙搬送方向のタップ数nYを、ノズル列方向のタップ数nXに比べて小さくし、処理負荷を低減するようにしてもよい。タップ数を小さくすると、無限のタップ数を持つ理想的な標本化関数に対する周波数特性のズレが大きくなる。その結果、取得したノズル毎の階調再現関数の精度が低下してしまうという弊害があるが、これが実際上問題となることはない。実施形態1で説明したとおり、スキャン画像911の画素値は、用紙搬送方向に近い方向に沿って積分されるため(図12の矢印1201~1217を参照)、階調再現関数の導出精度に対し、タップ数nYを小さくすることは殆ど影響しないためである。用紙搬送方向のタップ数nYを、図14(b)の例に比べて大幅に小さくした図14(c)の例においても、ノズル列方向のタップ数nXは同じであるため、ノズル毎の階調再現関数は、ほぼ同じ値となる。
(Modification 2)
An ideal sampling function may be a Lanczos function obtained by applying a window function to the above sinc function. Also in this case, better results can be obtained than in the case of the bilinear interpolation of the first embodiment. However, the interpolation processing using the sinc function or the Lanczos function has a larger processing load than the processing using the bilinear interpolation. Therefore, for example, as shown in FIG. 14C, the number of taps nY in the paper transport direction of the sampling function may be made smaller than the number of taps nX in the nozzle row direction to reduce the processing load. . As the number of taps is reduced, the deviation of frequency characteristics from an ideal sampling function with an infinite number of taps increases. As a result, the accuracy of the acquired tone reproduction function for each nozzle is degraded, but this is not a problem in practice. As described in the first embodiment, the pixel values of the scanned image 911 are integrated along a direction close to the paper transport direction (see arrows 1201 to 1217 in FIG. 12). , and the tap number nY have little effect. Even in the example of FIG. 14C, in which the number of taps nY in the paper transport direction is significantly smaller than the example of FIG. The tone reproduction functions have almost the same value.

また、均一パッチの明るさに基づいてノズル列方向のタップ数nXを変化させることによって処理負荷を低減してもよい。ヴェーバー・フェヒナーの法則により、輝度の違いは、明るいパッチほど目立たなくなることが知られている。輝度変換後のスキャン画像911では、明るいパッチほど(図12において下のパッチほど)、ノズル列方向のタップ数nXを小さくしても、視覚への影響を抑制できることになる。すなわち、ノズル毎の階調再現関数を導出する際に、明るいパッチほどノズル列方向のタップ数nXを小さくすることで、シェーディング補正を実施した際のスジムラの悪化を抑制しつつ、処理負荷を低減することができる。さらには、ノズル列方向のタップ数nXだけでなく、明るさに応じて用紙搬送方向のタップ数nYを変化させても構わない。 Also, the processing load may be reduced by changing the number of taps nX in the nozzle row direction based on the brightness of the uniform patch. According to the Weber-Fechner law, it is known that the brighter the patch, the less noticeable the difference in brightness. In the scanned image 911 after luminance conversion, the brighter the patch (the lower the patch in FIG. 12), the less the number of taps nX in the nozzle row direction can suppress the visual impact. That is, when deriving the gradation reproduction function for each nozzle, the number of taps nX in the nozzle row direction is reduced for brighter patches, thereby reducing the processing load while suppressing the deterioration of uneven streaks when performing shading correction. can do. Furthermore, not only the tap number nX in the nozzle row direction, but also the tap number nY in the paper transport direction may be changed according to the brightness.

以上のとおり、本実施形態によれば、バイリニア補間を行う実施形態1に比べ、より精度の良いノズル毎の階調再現関数を取得できる。その結果、シェーディング補正を実施して出力したプリント物上の画像においては、スジムラの発生がさらに抑制される。 As described above, according to the present embodiment, it is possible to acquire tone reproduction functions for each nozzle with higher accuracy than in the first embodiment in which bilinear interpolation is performed. As a result, the occurrence of uneven streaks is further suppressed in an image on a print that has been output after shading correction has been performed.

[実施形態3]
実施形態1のメインマーカー検出処理(S804)では、メインマーカーの中心位置を、S803で求めた検出枠(図10の1001を参照)内の画素値の重心位置としていた。ここで、インクの飛び散りや微少なゴミなどによって用紙が汚れることがあり、このような汚れが検出枠の中に存在すると、S804で求められる重心位置に意図しない誤差が含まれてしまう。また、メインマーカーの中心位置を、公知のテンプレートマッチング手法で検出する場合であっても、検出枠の中に汚れがあると、検出結果に意図しない誤差が含まれてしまう。いずれにせよ、メインマーカーの検出結果に誤差を含んでいると、S807の経路設定処理において誤った経路が設定されてしまい、ノズル毎の階調再現関数を正しく導出できなくなる。そこで、検出枠の中に汚れがある可能性が高く、メインマーカーの検出結果に誤差を含んでいると推認される場合に検出結果を補正する態様を、実施形態3として説明する。
[Embodiment 3]
In the main marker detection processing (S804) of the first embodiment, the center position of the main marker is set as the barycentric position of the pixel values within the detection frame (see 1001 in FIG. 10) obtained in S803. Here, the paper may become dirty due to ink splattering or fine dust, and if such dirt exists within the detection frame, the position of the center of gravity obtained in S804 will include an unintended error. Moreover, even when the center position of the main marker is detected by a known template matching method, if the detection frame is dirty, the detection result will include an unintended error. In any case, if there is an error in the detection result of the main marker, an erroneous path will be set in the path setting process of S807, making it impossible to correctly derive the gradation reproduction function for each nozzle. Therefore, a mode of correcting the detection result when it is assumed that there is a high possibility that the detection frame contains dirt and that the detection result of the main marker contains an error will be described as a third embodiment.

なお、先の実施形態と共通の内容については説明を省略し、以下では本実施形態の特徴であるメインマーカーの検出結果を補正する処理を中心に説明を行うものとする。 Note that the description of the contents common to the previous embodiment will be omitted, and the following will focus on the process of correcting the detection result of the main marker, which is the feature of the present embodiment.

図19は、本実施形態に係る、ノズル毎の階調再現関数I_x(d)の導出処理を実現する、ホストPC20の機能ブロック図である。実施形態1の図7の機能ブロック図と共通の処理部については、図7と同じ番号が振られている。図7との違いは、メインマーカー位置補正部1900が追加されている点である。本実施形態の場合、メインマーカー検出部705の検出結果が、メインマーカー位置補正部1900において必要に応じて補正される。図19に示すとおり、メインマーカー位置補正部1900は、減算部1901、異常判定部1902、局所変位ベクトル補正部1903及び加算部1904を有する。以下、本実施形態における、ノズル毎の階調再現関数を導出する処理について詳しく説明する。 FIG. 19 is a functional block diagram of the host PC 20 that implements derivation processing of the tone reproduction function I_x(d) for each nozzle according to this embodiment. The same numbers as in FIG. 7 are assigned to processing units that are common to the functional block diagram of FIG. 7 of the first embodiment. The difference from FIG. 7 is that a main marker position corrector 1900 is added. In the case of this embodiment, the detection result of the main marker detection unit 705 is corrected by the main marker position correction unit 1900 as necessary. As shown in FIG. 19 , the main marker position corrector 1900 has a subtractor 1901 , an abnormality determiner 1902 , a local displacement vector corrector 1903 and an adder 1904 . Processing for deriving a tone reproduction function for each nozzle in this embodiment will be described in detail below.

メインマーカーの検出結果が入力されると、まず、減算部1901において、スキャン画像911の局所的な歪み度合いを示す局所変位ベクトルを求める処理がなされる。ここで、図20の(a)~(c)を参照して、局所変位ベクトルについて説明する。図20(a)において、実線の「十字」の中心(交差する2本の線分の交点)は、座標変換部704が出力する、メインマーカーの理想位置を示す。このメインマーカーの理想位置は、前述の通り、サブマーカー検出部703にて検出されたサブマーカーの位置に基づきメインマーカーの配置情報を補正することで求められる。そのため、メインマーカーの理想位置は、スキャン画像911に局所的な歪みが発生していないと仮定したときに、メインマーカーが存在することが見込まれる位置であると言える。一方、図20(a)において、破線の「十字」の中心(交差する2本の線分の交点)は、メインマーカー検出部705にて検出されたメインマーカーの位置(検出位置)を示しており、スキャン画像911の局所的な歪みの影響が付加されている。そのため、メインマーカーの検出位置を示す位置ベクトルvr(w、h)から、メインマーカーの理想位置を示す位置ベクトルvi(w、h)を減算したベクトルve(w、h)は、スキャン画像911における局所的な歪み度合いを示すことになる。このve(w、h)を、局所変位ベクトルと呼ぶ。この場合において、wはメインマーカーのノズル列方向の位置を示すインデックスである。メインマーカーがノズル列方向に85個配置されている場合、wは0~84の整数となる。また、hはメインマーカーの用紙搬送方向の位置を示すインデックスである。メインマーカーが用紙搬送方向に18個配置されている場合、hは0~17の整数となる。なお、図20(a)では、説明の便宜上、実線の「十字」と破線の「十字」との間隔を実際よりも広めに示していることに留意されたい。求めた局所変位ベクトルve(w、h)は、異常判定部1902及び局所変位ベクトル補正部1903に入力される。 When the detection result of the main marker is input, first, the subtraction unit 1901 performs processing to obtain a local displacement vector indicating the degree of local distortion of the scan image 911 . Here, the local displacement vector will be described with reference to (a) to (c) of FIG. In FIG. 20A , the center of the solid “cross” (the intersection of two intersecting line segments) indicates the ideal position of the main marker output by the coordinate conversion section 704 . This ideal position of the main marker is obtained by correcting the arrangement information of the main marker based on the position of the sub-marker detected by the sub-marker detection unit 703, as described above. Therefore, it can be said that the ideal position of the main marker is the position where the main marker is expected to exist when it is assumed that the scan image 911 is not locally distorted. On the other hand, in FIG. 20A, the center of the dashed “cross” (the intersection of two intersecting lines) indicates the position (detection position) of the main marker detected by the main marker detection unit 705. , and the effect of local distortion of the scanned image 911 is added. Therefore, the vector v e (w, h) obtained by subtracting the position vector v i (w, h) indicating the ideal position of the main marker from the position vector v r (w, h) indicating the detected position of the main marker is It indicates the degree of local distortion in the image 911 . This v e (w, h) is called a local displacement vector. In this case, w is an index indicating the position of the main marker in the nozzle row direction. When 85 main markers are arranged in the nozzle row direction, w is an integer from 0 to 84. Also, h is an index indicating the position of the main marker in the paper transport direction. When 18 main markers are arranged in the paper transport direction, h is an integer from 0 to 17. Note that in FIG. 20A, for convenience of explanation, the distance between the solid line "cross" and the dashed line "cross" is shown wider than it actually is. The obtained local displacement vector v e (w, h) is input to an abnormality determination section 1902 and a local displacement vector correction section 1903 .

異常判定部1902は、入力された局所変位ベクトルve(w、h)に基づいて、各メインマーカーの検出結果が正常かどうか、すなわち、許容できないレベルの誤差を含んでいないかどうかを判定する。具体的には、まず、着目するメインマーカー(着目マーカー)を中心とした所定範囲を処理対象領域として設定する。そして、着目マーカーの局所変位ベクトルと、設定した処理対象領域内に存在する着目マーカー以外のメインマーカー(以下、「周辺マーカー」と呼ぶ)の局所変位ベクトルとを比較することにより、着目マーカーの検出結果が正常かどうかを判定する。この処理を、全てのメインマーカーに対して適用(すなわち、着目マーカーを順次変更し、それに応じて処理対象領域をスライド)することで、メインマーカーそれぞれの検出結果について正常かどうかが判定される。図20(b)は、図20(a)におけるメインマーカー2001に着目し、これを中心とする3×3の範囲2003を処理対象領域として設定した場合の異常判定処理の様子を示している。図20(b)において、着目マーカー2001に対応する局所変位ベクトル2011は、8つの周辺マーカーの局所変位ベクトルと、その向きと長さがほぼ同じである。この場合は、着目マーカーの検出結果は正常であると判定する。図20(c)は、図20(a)におけるメインマーカー2002に着目し、これを中心とする3×3の範囲2004を処理対象領域として設定した場合の異常判定処理の様子を示している。図20(c)において、着目マーカー2002に対応する局所変位ベクトル2012は、8つの周辺マーカーの局所変位ベクトルと、その向きが大きく異なっている。用紙の伸縮や、光学収差によるスキャン画像911の局所的な歪みの度合いは、場所によって急激に変化することがほとんど無い。したがって、この場合は、着目マーカーは、汚れなどの影響を受けている可能性が高く、許容できないレベルの誤差を含んでいると考えられるため、検出結果の信頼性が低い(正常ではない)と判定する。 Based on the input local displacement vector v e (w, h), the abnormality determination unit 1902 determines whether the detection result of each main marker is normal, that is, whether it contains an unacceptable level of error. . Specifically, first, a predetermined range around a main marker of interest (marker of interest) is set as a processing target area. Then, the target marker is detected by comparing the local displacement vector of the target marker with the local displacement vectors of the main markers (hereinafter referred to as "peripheral markers") other than the target marker existing within the set processing target area. Determine if the result is normal. By applying this process to all main markers (that is, sequentially changing the target marker and sliding the processing target area accordingly), it is determined whether the detection result of each main marker is normal. FIG. 20(b) shows the state of abnormality determination processing when focusing on the main marker 2001 in FIG. 20(a) and setting a 3×3 range 2003 centering on this as the processing target area. In FIG. 20B, the local displacement vector 2011 corresponding to the target marker 2001 has substantially the same direction and length as the local displacement vectors of the eight surrounding markers. In this case, it is determined that the detection result of the target marker is normal. FIG. 20(c) shows the state of abnormality determination processing when focusing on the main marker 2002 in FIG. 20(a) and setting a 3×3 range 2004 centering on this as the processing target area. In FIG. 20(c), the local displacement vector 2012 corresponding to the target marker 2002 is significantly different in direction from the local displacement vectors of the eight peripheral markers. The degree of local distortion of the scanned image 911 due to expansion and contraction of the paper and optical aberration hardly changes abruptly depending on the location. Therefore, in this case, the marker of interest is likely to be affected by contamination, etc., and is considered to contain an unacceptable level of error, so the reliability of the detection result is low (not normal). judge.

異常判定処理の上記内容についてさらに詳しく説明する。いま、設定された処理対象領域内の9個の局所変位ベクトルve(w、h)を、“0~8”のインデックスiを用いてve(i)で表すこととする。この場合において、着目マーカーのインデックスを“4”とする。図20(b)及び(c)において、各矢印は局所変位ベクトルを示し、各局所変位ベクトルの右横にある括弧書きの数字はインデックスiの値を示している。また、この各局所変位ベクトルve(i)のX成分をe_X(i)、Y成分をe_Y(i)で表すこととする。このとき、e_X(i)のメジアン値e_X_Mと、e_Y(i)のメジアン値e_Y_Mをそれぞれ求め、着目マーカーの局所変位ベクトルの各成分、すなわち、e_X(4)およびe_Y(4)との差分絶対値をそれぞれ求める。そして、求めた差分絶対値が所定の閾値を超える場合は、許容できないレベルの誤差を含んでいると見做し、着目マーカーの検出結果が正常ではないと判定する。この判定手法を式で表すと、以下の式(10)と式(11)のようになる。
|e_X(4)-e_X_M| > th_X ・・・式(10)
|e_Y(4)-e_Y_M| > th_Y ・・・式(11)
The above contents of the abnormality determination process will be described in more detail. Now, suppose that nine local displacement vectors v e (w, h) in the set processing target area are represented by v e (i) using an index i of “0 to 8”. In this case, let the index of the target marker be "4". In FIGS. 20(b) and (c), each arrow indicates a local displacement vector, and the number in parentheses on the right side of each local displacement vector indicates the value of index i. The X component of each local displacement vector v e (i) is represented by e_X(i), and the Y component by e_Y(i). At this time, the median value e_X_M of e_X(i) and the median value e_Y_M of e_Y(i) are obtained, and the absolute difference between each component of the local displacement vector of the marker of interest, that is, e_X(4) and e_Y(4). Find each value. If the obtained absolute difference value exceeds a predetermined threshold value, it is assumed that an unacceptable level of error is included, and it is determined that the detection result of the target marker is not normal. This determination method can be represented by equations (10) and (11) below.
|e_X(4)-e_X_M| > th_X Expression (10)
|e_Y(4)−e_Y_M| > th_Y Expression (11)

上記式(10)及び式(11)のいずれか一方を満たす場合、着目マーカーの検出結果が正常ではないと判定されることになる。上記所定の閾値としてのth_Xとth_Yには、例えば1.5といった値が入る。なお、本実施形態では処理対象領域のサイズを、着目マーカーを中心とした3×3の範囲とした。しかし、処理対象領域のサイズはこれに限定されるものではない。処理対象領域の最小サイズとしては、着目マーカーとその両隣のメインマーカーを包含する3×1の範囲や、或いは、着目マーカーとその上下のメインマーカーを包含する1×3の範囲でもよい。また、用紙搬送方向に比べて、ノズル列方向の方がメインマーカーの間隔が狭いため、例えばノズル列方向のサイズを“9”、用紙搬送方向のサイズを“3”といった具合に、用紙搬送方向よりもノズル列方向の数を大きくしても構わない。 If either one of the above formulas (10) and (11) is satisfied, it will be determined that the detection result of the marker of interest is not normal. A value such as 1.5, for example, is entered in th_X and th_Y as the predetermined thresholds. Note that, in the present embodiment, the size of the processing target area is set to a 3×3 range centered on the target marker. However, the size of the processing target area is not limited to this. The minimum size of the area to be processed may be a 3×1 range including the target marker and the main markers on both sides thereof, or a 1×3 range including the target marker and the main markers above and below it. In addition, since the interval between the main markers is narrower in the nozzle row direction than in the paper transport direction, for example, the size in the nozzle row direction is set to "9" and the size in the paper transport direction is set to "3". The number in the nozzle row direction may be larger than that.

局所変位ベクトル補正部1903は、異常判定部1902にて検出結果が正常ではないと判定されたメインマーカー(以下、「異常マーカー」と呼ぶ)の局所変位ベクトルを補正する。具体的には、着目する異常マーカーを中心とした所定範囲を処理対象領域として設定し、当該処理対象領域内に存在するメインマーカーの局所変位ベクトルのX成分e_X(i)及びY成分e_Y(i)それぞれについて、異常マーカーの成分を除外して平均化する。そして、得られた両成分それぞれの平均値を、着目する異常マーカーの局所変位ベクトルの新たなX成分とY成分とする。ここでは、処理対象領域のサイズを異常判定処理と同じ3×3の範囲とする。この場合、3×3の範囲内に存在するメインマーカーのうち、異常マーカーを除いた全メインマーカーの局所変位ベクトルについて、X成分e_X(i)とY成分e_Y(i)それぞれの平均値を求める。そして、求めた平均値を、着目する異常マーカーの局所変位ベクトルの新たなX成分とY成分の値とする。なお、処理対象領域内に着目する異常マーカーとは別の異常マーカーが存在する場合もある。この場合は、着目マーカー以外の異常マーカーの局所変異ベクトルも除外して平均値を求めればよい。 A local displacement vector correction unit 1903 corrects the local displacement vector of a main marker (hereinafter referred to as an “abnormal marker”) determined by the abnormality determination unit 1902 that the detection result is not normal. Specifically, a predetermined range centered on the abnormal marker of interest is set as the processing target region, and the X component e_X(i) and the Y component e_Y(i) of the local displacement vector of the main marker existing in the processing target region are ) for each, excluding the component of the abnormal marker and averaging. Then, the obtained average values of both components are used as the new X component and Y component of the local displacement vector of the abnormal marker of interest. Here, the size of the processing target area is assumed to be the same 3×3 range as in the abnormality determination process. In this case, the average values of the X component e_X(i) and the Y component e_Y(i) are obtained for the local displacement vectors of all the main markers excluding the abnormal markers among the main markers existing within the 3×3 range. . Then, the obtained average values are used as new values of the X component and the Y component of the local displacement vector of the abnormal marker of interest. It should be noted that there may be other abnormal markers other than the focused abnormal marker within the processing target area. In this case, the average value may be obtained by excluding the local mutation vectors of the abnormal markers other than the target marker.

なお、本実施形態では局所変位ベクトルを補正する際の処理対象領域のサイズを、異常判定処理における処理対象領域のサイズと同じ3×3の範囲としたが、異なっていても構わない。例えば、異常判定処理においては処理対象領域を9×3の範囲とし、局所変位ベクトルを補正する際の処理対象領域を3×1の範囲としても構わない。また、補正後の値として、e_X(i)やe_Y(i)のメジアン値を用いても構わない。また、本実施形態では、検出結果が正常でないと判定されたメインマーカーだけを着目マーカーとして補正処理を行うこととしているが、すべてのメインマーカーに対して適用しても構わない。すなわち、検出結果が正常と判定されたメインマーカーについても上述の補正処理の対象としても構わない。 In this embodiment, the size of the processing target area for correcting the local displacement vector is the same 3×3 range as the size of the processing target area for the abnormality determination process, but it may be different. For example, in the abnormality determination process, the area to be processed may be a range of 9×3, and the area to be processed when correcting the local displacement vector may be a range of 3×1. Alternatively, the median value of e_X(i) or e_Y(i) may be used as the corrected value. Further, in the present embodiment, only the main marker for which the detection result is determined to be abnormal is used as the target marker to perform the correction processing, but it may be applied to all the main markers. In other words, the main marker for which the detection result is determined to be normal may also be subjected to the correction process described above.

加算部1904は、局所変位ベクトル補正部1903が出力する補正後の局所変位ベクトルを、メインマーカーの理想位置を示す位置ベクトルvi(w、h)に加算する。これにより、検出結果が正常でないと判定されたメインマーカーの検出位置が補正され、当該補正後の検出位置が経路設定部706に出力される。 The adder 1904 adds the corrected local displacement vector output from the local displacement vector corrector 1903 to the position vector v i (w, h) indicating the ideal position of the main marker. As a result, the detected position of the main marker for which the detection result is determined to be abnormal is corrected, and the corrected detected position is output to the route setting unit 706 .

以上のとおり、本実施形態によれば、メインマーカーの検出結果に含まれる誤差を打ち消すような補正を検出結果に対して行う。これにより、スキャン画像911の画素値を積分する経路として、間違った経路が設定されることを回避でき、ノズル毎の階調再現関数をより精度よく導出することができる。 As described above, according to the present embodiment, the detection result is corrected so as to cancel the error included in the detection result of the main marker. As a result, it is possible to avoid setting an incorrect path as the path for integrating the pixel values of the scanned image 911, and it is possible to more accurately derive the tone reproduction function for each nozzle.

[実施形態4]
実施形態3では、インクの飛び散りや微少なゴミなどの用紙汚れに起因してメインマーカーの検出結果に誤差が含まれる場合に、検出結果そのものを補正することで正しい経路が設定されるようにしていた。次に、誤差を含んでいると考えられるメインマーカーを除外して局所領域を設定することで正しい経路設定を行う態様を、実施形態4として説明する。なお、先行する実施形態と共通の内容については説明を省略し、以下では本実施形態の特徴であるメインマーカーの異常判定処理とその判定結果に基づく経路設定処理を中心に説明を行うものとする。
[Embodiment 4]
In the third embodiment, when an error is included in the detection result of the main marker due to paper contamination such as ink splattering or fine dust, the detection result itself is corrected so that the correct path is set. rice field. Next, a mode of setting a correct route by setting a local area while excluding main markers that are considered to contain an error will be described as a fourth embodiment. The description of the contents common to the preceding embodiment will be omitted, and the following description will focus on main marker abnormality determination processing and route setting processing based on the determination results, which are features of this embodiment. .

図21は、本実施形態に係る、ノズル毎の階調再現関数I_x(d)の導出処理を実現する、ホストPC20の機能ブロック図である。実施形態1の図7の機能ブロック図と共通の処理部については、図7と同じ番号が振られている。図7との違いは、異常判定部2101が追加され、その出力が経路設定部706’に入力されている点である。本実施形態の場合、経路設定部706’における局所領域の決定時に異常判定部2101の判定結果が考慮される。以下、詳しく説明する。 FIG. 21 is a functional block diagram of the host PC 20 that implements derivation processing of the tone reproduction function I_x(d) for each nozzle according to this embodiment. The same numbers as in FIG. 7 are assigned to processing units that are common to the functional block diagram of FIG. 7 of the first embodiment. The difference from FIG. 7 is that an abnormality determination section 2101 is added and its output is input to a route setting section 706'. In the case of this embodiment, the determination result of the abnormality determination unit 2101 is considered when the route setting unit 706' determines the local region. A detailed description will be given below.

異常判定部2101は、メインマーカーの形状情報(元画像)をテスト画像パラメータ記憶部701から取得し、メインマーカーの元画像と、メインマーカーの検出枠内の画像領域とを比較することで、着目マーカーの検出結果が正常か否かを判定する。図22の(a)~(c)は、本実施形態における異常判定処理を説明する図である。図22(a)は、メインマーカーの元画像における白背景部分を拡張して、検出枠と同じサイズで表した元画像である。図22の(b)と(c)はスキャン画像911における検出枠内の画像領域であり、(b)は汚れがない状態、(c)は右下隅に汚れがある状態である。本実施形態の異常判定処理では、前述の図8のフローのサブマーカー検出処理(S802)と同様、検出枠内の画像領域の画素毎に、メインマーカーの元画像との類似度を求める。そして、類似度の最大値が、所定の閾値を下回る場合は、メインマーカーの検出結果が正常ではないと判定する。類似度の尺度として例えばZNCCを用いる場合、検出枠内の画像領域の画素毎に、元画像とのZNCCを求め、その最大値が例えば0.9を下回ると、検出結果が正常でないと判定する。図22(b)のように汚れがない場合はZNCCの最大値はほぼ1となり、検出結果は正常であると判定される。一方、図22(c)のように汚れがある場合はZNCCの最大値が0.9を下回る値となり、検出結果は正常でないと判定される。このように、本実施形態では、メインマーカーの元画像と、スキャン画像における対応する画像領域との類似度に基づいて、メインマーカーの検出結果が正常であるかどうかを判定する。 The abnormality determination unit 2101 acquires the shape information (original image) of the main marker from the test image parameter storage unit 701, and compares the original image of the main marker with the image area within the detection frame of the main marker to determine the It is determined whether or not the detection result of the marker is normal. (a) to (c) of FIG. 22 are diagrams for explaining the abnormality determination process in this embodiment. FIG. 22(a) is an original image in which the white background portion of the original image of the main marker is expanded and displayed in the same size as the detection frame. (b) and (c) of FIG. 22 are image areas within the detection frame in the scanned image 911, where (b) is the state where there is no stain, and (c) is the state where the lower right corner is stained. Similar to the sub-marker detection process (S802) in the flow of FIG. 8, the abnormality determination process of this embodiment obtains the degree of similarity between the main marker and the original image for each pixel in the image area within the detection frame. If the maximum value of similarity is below a predetermined threshold, it is determined that the detection result of the main marker is not normal. When using, for example, ZNCC as a measure of similarity, the ZNCC with the original image is obtained for each pixel in the image area within the detection frame, and if the maximum value is less than 0.9, for example, the detection result is determined to be abnormal. . When there is no dirt as shown in FIG. 22(b), the maximum value of ZNCC is approximately 1, and the detection result is determined to be normal. On the other hand, when there is dirt as shown in FIG. 22(c), the maximum value of ZNCC is less than 0.9, and the detection result is judged to be abnormal. As described above, in the present embodiment, it is determined whether the detection result of the main marker is normal based on the degree of similarity between the original image of the main marker and the corresponding image area in the scanned image.

経路設定部706’は、異常判定部2101での判定結果を考慮して局所領域の範囲を設定して、局所領域毎に座標変換パラメータを設定する。例えば、前述の図12におけるメインマーカー1222の検出結果が正常でない場合は、当該メインマーカー1222を除外して局所領域を設定する。図23は、特定メインマーカーを除外して局所領域の設定を行う様子を説明する図である。本来であれば、メインマーカー1218、1220、1224、1226で囲まれる範囲には、4つの局所領域が設定される。しかし、メインマーカー1222の検出結果が正常でない場合は、図23に示す通り、メインマーカー1218、1220、1224、1226で囲まれる範囲が、1つの局所領域として設定される。なお、この際には、メインマーカー1219、1221、1223、1225の検出位置は無視し、メインマーカー1218、1220、1224、1226の検出位置が用いられる。一方、メインマーカー1224、1225、2401、2402で囲まれる局所領域に対し座標変換パラメータを設定する際は、メインマーカー1225の検出位置を使用する。同様に、メインマーカー1225、1226、2402、2403で囲まれる局所領域に対し座標変換パラメータを設定する際も、メインマーカー1225の検出位置を使用する。このように、経路設定部706’は、検出結果が正常でないと判定されたメインマーカーを除外して局所領域を設定する。後は、実施形態1と同じ方法で、座標変換パラメータを設定し、画素値を積分する経路を求める。 The route setting unit 706' sets the range of the local region in consideration of the determination result of the abnormality determination unit 2101, and sets the coordinate transformation parameters for each local region. For example, if the detection result of the main marker 1222 in FIG. 12 described above is not normal, the main marker 1222 is excluded to set the local region. FIG. 23 is a diagram for explaining how a local region is set by excluding a specific main marker. Originally, four local regions are set in the range surrounded by the main markers 1218, 1220, 1224, and 1226. FIG. However, if the detection result of the main marker 1222 is not normal, the range surrounded by the main markers 1218, 1220, 1224 and 1226 is set as one local region as shown in FIG. In this case, the detected positions of the main markers 1219, 1221, 1223 and 1225 are ignored, and the detected positions of the main markers 1218, 1220, 1224 and 1226 are used. On the other hand, when setting the coordinate transformation parameters for the local area surrounded by the main markers 1224, 1225, 2401, and 2402, the detected position of the main marker 1225 is used. Similarly, the detected position of the main marker 1225 is used when setting the coordinate transformation parameters for the local area surrounded by the main markers 1225, 1226, 2402, and 2403 as well. In this way, the route setting unit 706' sets the local area by excluding the main markers for which the detection result is determined to be abnormal. After that, the same method as in the first embodiment is used to set coordinate transformation parameters and obtain a path for integrating pixel values.

以上のとおり、本実施形態によれば、実施形態3と同様、スキャン画像911の画素値を積分する経路として、間違った経路が設定されることを回避でき、ノズル毎の階調再現関数をより精度よく導出することができる。 As described above, according to the present embodiment, as in the third embodiment, it is possible to avoid setting an incorrect path as the path for integrating the pixel values of the scanned image 911, and the tone reproduction function for each nozzle can be improved. It can be derived with high precision.

[実施形態5]
一般的に、インクジェットプリンタでは、乾燥などによるノズルの目詰まりを防止するために、人の目でほとんど視認できないノズル目詰まり防止パターンを、プリント対象の画像に重畳して印刷出力する。このノズル目詰まり防止パターンが問題となることは通常はないが、ノズル毎の階調再現関数を導出する際には、前述の実施形態3及び4で説明した紙面上の汚れと同様、メインマーカーの検出結果に誤差が含まれる原因となってしまう。そこで、メインマーカーの検出時にノズル目詰まり防止パターンの存在を考慮して誤差が含まれないようにする態様を、実施形態5として説明する。なお、先行する実施形態と共通の内容については説明を省略し、以下では本実施形態の特徴であるメインマーカーの検出処理を中心に説明を行うものとする。
[Embodiment 5]
Generally, in an inkjet printer, in order to prevent clogging of nozzles due to drying or the like, a nozzle clogging prevention pattern that is almost invisible to the human eye is superimposed on an image to be printed and output. Normally, this nozzle clogging prevention pattern does not pose a problem, but when deriving the gradation reproduction function for each nozzle, the main marker This causes an error in the detection result of Therefore, a fifth embodiment will be described in which the presence of the nozzle clogging prevention pattern is taken into consideration when the main marker is detected so that an error is not included. The description of the contents common to the preceding embodiment will be omitted, and the main marker detection processing, which is a feature of the present embodiment, will be mainly described below.

図24は、本実施形態に係る、ノズル毎の階調再現関数I_x(d)の導出処理を実現する、ホストPC20の機能ブロック図である。実施形態1の図7の機能ブロック図と共通の処理部については、図7と同じ番号が振られている。図7との違いは、ノズル目詰まり防止パターン記憶部2401が追加され、メインマーカー検出部705’にノズル目詰まり防止パターンの位置情報が入力されている点である。以下、詳しく説明する。 FIG. 24 is a functional block diagram of the host PC 20 that implements derivation processing of the tone reproduction function I_x(d) for each nozzle according to this embodiment. The same numbers as in FIG. 7 are assigned to processing units that are common to the functional block diagram of FIG. 7 of the first embodiment. The difference from FIG. 7 is that a nozzle clogging prevention pattern storage unit 2401 is added, and the position information of the nozzle clogging prevention pattern is input to the main marker detection unit 705'. A detailed description will be given below.

ノズル目詰まり防止パターン記憶部2401は、ノズル目詰まり防止パターンを構成するドット(以下、「目詰まり防止ドット」と呼ぶ。)それぞれが紙面上のどの位置に出力されるのかを表す位置情報を格納する。メインマーカー検出部705’は、この位置情報に基づいて、各目詰まり防止ドットが誤差として影響しないように、メインマーカーの重心位置を求める。図25の(a)及び(b)は、目詰まり防止ドットが打たれる位置を考慮して、メインマーカーの重心位置を求める様子を説明する図である。図25(a)は、スキャン画像911の一部分を示している。破線の矩形2601は、図8のフローのS803で設定される検出枠であり、枠内の画素を用いてメインマーカー2602の重心位置が求められる。図25(a)において、白背景部分に満遍なく存在する黒点2603が、目詰まり防止ドットである。図25(a)で示されるように、目詰まり防止ドットは、検出枠の中にも打たれてしまうため、メインマーカーの重心位置に影響を与えてしまう。 The nozzle clogging prevention pattern storage unit 2401 stores position information indicating where each dot constituting the nozzle clogging prevention pattern (hereinafter referred to as "clogging prevention dot") is output at each position on the paper surface. do. The main marker detection unit 705' obtains the center-of-gravity position of the main marker based on this position information so that each anti-clogging dot does not affect as an error. (a) and (b) of FIG. 25 are diagrams for explaining how to determine the center-of-gravity position of the main marker in consideration of the positions where anti-clogging dots are printed. FIG. 25(a) shows a portion of the scanned image 911. FIG. A dashed rectangle 2601 is the detection frame set in S803 of the flow of FIG. 8, and the barycentric position of the main marker 2602 is obtained using the pixels within the frame. In FIG. 25(a), black dots 2603 evenly present in the white background portion are anti-clogging dots. As shown in FIG. 25(a), the anti-clogging dots are also printed in the detection frame, which affects the center of gravity of the main marker.

そこで、本実施形態のメインマーカー検出部705’は、検出枠内に存在する目詰まり防止ドットそれぞれの周辺領域をマスクし、当該周辺領域に含まれる画素を除外して、メインマーカー枠内の重心位置を求める。ここで、周辺領域としては、例えば図25(b)に示すように、検出枠内に存在する各目詰まり防止ドットの出力位置を中心とする円で囲まれる範囲2604とする。この際の円の半径は、スキャン画像の解像度に応じて決定され、600dpiであれば例えば4画素とする。なお、目詰まり防止ドットの出力位置がメインマーカーに近い場合は、一回り小さな円の範囲2605を周辺領域として、メインマーカー2602に周辺領域が掛からないようにする。 Therefore, the main marker detection unit 705' of the present embodiment masks the surrounding area of each clogging prevention dot existing within the detection frame, excludes the pixels included in the surrounding area, and calculates the center of gravity within the main marker frame. find the position. Here, as the peripheral area, for example, as shown in FIG. 25B, a range 2604 surrounded by a circle centered on the output position of each anti-clogging dot existing within the detection frame is used. The radius of the circle at this time is determined according to the resolution of the scanned image. When the output position of the anti-clogging dots is close to the main marker, the area 2605 of a slightly smaller circle is set as the peripheral area so that the main marker 2602 is not covered by the peripheral area.

(変形例)
メインマーカーの重心位置を求める際にノズル目詰まり防止パターンが影響を及ぼさないようにするための手法は、目詰まり防止ドットの周辺領域に対してマスクを適用する以外にもある。例えば、メインマーカーの配置情報とノズル目詰まり防止パターンの位置情報とに基づいて、メインマーカーの周辺にノズル目詰まり防止パターンを出力しないように制御しても構わない。もしくは、ノズル目詰まり防止パターンが全面に出力されてもメインマーカーの重心位置が変動しないよう、メインマーカーの中心位置に対して対称となるように目詰まり防止ドットを配置してもよい。
(Modification)
There are methods other than applying a mask to the peripheral area of the anti-clogging dots so that the anti-nozzle clogging pattern does not affect the determination of the center of gravity of the main marker. For example, based on the arrangement information of the main marker and the positional information of the nozzle clogging prevention pattern, it may be controlled not to output the nozzle clogging prevention pattern around the main marker. Alternatively, the clogging prevention dots may be arranged symmetrically with respect to the center position of the main marker so that the centroid position of the main marker does not change even if the nozzle clogging prevention pattern is output on the entire surface.

以上のとおり、本実施形態によれば、ノズル目詰まり防止パターンが印刷対象の画像に重畳して印刷出力される場合であっても、メインマーカーの検出結果に意図しない誤差が含まれてしまうことを回避することができる。 As described above, according to the present embodiment, even when the nozzle clogging prevention pattern is superimposed on the image to be printed and printed out, the detection result of the main marker does not include an unintended error. can be avoided.

[実施形態6]
実施形態1で説明した通り、メインマーカーをノズル列方向に多く配置することで、座標変換パラメータを設定する局所領域を細かく設定でき、ノズル毎の階調再現関数の導出精度を高めることができる。しかし、ノズル列方向に配置するメインマーカーの数が多すぎると、隣接するメインマーカー同士が重なってしまい、メインマーカーそれぞれの重心位置を正しく検出することが困難になるという問題がある。そこで、ノズル列方向のドット位置を検出するための図形パターンを付加したテスト画像を印刷出力し、そのスキャン画像における当該図形パターンの検出結果に基づきメインマーカーを追加的に設定して局所領域の数を増やす態様を、実施形態6として説明する。なお、先行する実施形態と共通の内容については説明を省略し、以下では本実施形態の特徴である、ドット位置を検出するための図形パターンの検出結果に基づきメインマーカーを追加設定して局所領域の数を増やす方法を中心に説明を行うものとする。なお、以下の説明では、ドット位置検出パターンの検出結果に基づき追加設定される、現実にはテスト画像上に存在しないが同じ役割を果たす仮想的なメインマーカーを、「仮想メインマーカー」と呼ぶこととする。
[Embodiment 6]
As described in the first embodiment, by arranging many main markers in the nozzle row direction, it is possible to finely set the local region for setting the coordinate transformation parameter, and improve the accuracy of deriving the gradation reproduction function for each nozzle. However, if the number of main markers arranged in the nozzle row direction is too large, adjacent main markers overlap each other, making it difficult to correctly detect the center of gravity of each main marker. Therefore, a test image to which a figure pattern is added for detecting dot positions in the nozzle row direction is printed out, and based on the result of detection of the figure pattern in the scanned image, main markers are additionally set to determine the number of local areas. A mode of increasing is described as a sixth embodiment. Note that the description of the contents common to the preceding embodiment will be omitted, and hereinafter, a main marker is additionally set based on the detection result of the figure pattern for detecting the dot position, which is the feature of this embodiment, and the local area is detected. The explanation will focus on the method of increasing the number of . In the following description, a virtual main marker that is additionally set based on the detection result of the dot position detection pattern and that does not actually exist on the test image but plays the same role will be referred to as a "virtual main marker". and

図26は、ノズル列方向のドット位置、すなわち、各ノズルのインク滴によって紙面上に形成されたドットのX方向の位置、を検出するための図形パターン(以下、「ドット位置検出パターン」と呼ぶ。)としての縦万線を付加したテスト画像2601の一例を示す図である。このようなドット位置検出パターンを付加したテスト画像を印刷出力し、そのスキャン画像の測定結果に基づいて、S804で検出した各メインマーカーの間に仮想メインマーカーを設定して、局所領域の数を増やす。図27は、ノズル列方向における局所領域の数を、実施形態1の図12の場合に比べて3倍に増やした様子を示す図である。以下、どのようにして局所領域の数を増やすのかについて詳しく説明する。 FIG. 26 shows a graphic pattern for detecting the dot position in the nozzle row direction, that is, the position in the X direction of the dot formed on the paper surface by the ink droplets of each nozzle (hereinafter referred to as "dot position detection pattern"). ) is a diagram showing an example of a test image 2601 to which vertical lines are added. A test image to which such a dot position detection pattern is added is printed out, virtual main markers are set between the main markers detected in S804 based on the measurement results of the scanned image, and the number of local regions is calculated. increase. FIG. 27 is a diagram showing a state in which the number of local regions in the nozzle row direction is tripled compared to the case of FIG. 12 of the first embodiment. How to increase the number of local regions will be described in detail below.

図26に示すテスト画像2601の場合、その下部に、上述のドット位置検出パターンとして、1画素幅の複数の縦線を設けている。これらの縦線は、ノズル列方向に密集していると各位置の検出が困難になるため、複数段に分けて配置する。図26の例では2段に分けて配置しているが、例えば600dpiの間隔でノズルが並ぶノズル列の場合であれば、縦線のX方向の配置間隔を10画素、縦線のX方向の開始位置を1画素ずつスライドさせつつ10段に分けて配置する。また、1200dpiの間隔でノズルが並ぶノズル列の場合であれば、縦方向のX方向の配置間隔を20画素、縦線のX方向の開始位置を1画素ずつスライドさせつつ20段に分けて配置する。このように配置された縦線のうち一部の縦線のX位置は、メインマーカーの中心のX位置と一致させる。例えば、図26において、縦線2602のX位置は、3つのメインマーカー2610、2612、2603の中心のX位置と一致しており、縦線2604のX位置は、3つのメインマーカー2611、2613、2605の中心のX位置と一致している。このように、一部の縦線のX位置と、メインマーカーの中心のX位置とを一致させることで、縦線のX位置と、メインマーカーの中心のX位置との対応関係を求めることができる。そして、上記一部以外の縦線については、縦線2606や縦線2607のようにメインマーカー同士の間に配置する。そして、各縦線の位置の検出結果と上述の対応関係に基づいて、メインマーカーのない部分に仮想メインマーカーを設定することによって、図27に示すようにノズル列方向の局所領域の数を増やす。なお、テスト画像に付加されるドット位置検出パターンは、均一パッチを配置したテスト画像に含めず、別のテスト画像として、異なるタイミングで出力しても構わない。また、ドット位置検出パターンは、縦線に限定されず、ドット位置を特定可能なものであればどのような形状であっても構わない。例えば、メインマーカーと同じ十字形を複数配置したパターンであっても構わない。 In the case of the test image 2601 shown in FIG. 26, a plurality of vertical lines each having a width of one pixel are provided in the lower part thereof as the dot position detection pattern described above. If these vertical lines are concentrated in the nozzle row direction, it becomes difficult to detect each position, so they are arranged in multiple stages. In the example of FIG. 26, the nozzles are arranged in two rows. The starting position is slid pixel by pixel and arranged in 10 steps. In the case of a nozzle row in which nozzles are arranged at an interval of 1200 dpi, the arrangement interval in the X direction in the vertical direction is 20 pixels, and the vertical line is arranged in 20 rows by sliding the starting position in the X direction by one pixel. do. The X position of some of the vertical lines arranged in this manner is matched with the X position of the center of the main marker. For example, in FIG. 26, the X position of the vertical line 2602 coincides with the X position of the center of the three main markers 2610, 2612, 2603, and the X position of the vertical line 2604 corresponds to the three main markers 2611, 2613, 2605 coincides with the center X position. By matching the X position of some vertical lines with the X position of the center of the main marker in this way, it is possible to obtain the correspondence relationship between the X position of the vertical line and the X position of the center of the main marker. can. Vertical lines other than the above part are arranged between the main markers, such as vertical lines 2606 and 2607 . Then, based on the detection result of the position of each vertical line and the correspondence relationship described above, virtual main markers are set in portions where there are no main markers, thereby increasing the number of local regions in the nozzle row direction as shown in FIG. . Note that the dot position detection pattern added to the test image may not be included in the test image in which uniform patches are arranged, and may be output as a separate test image at different timings. Further, the dot position detection pattern is not limited to vertical lines, and may be of any shape as long as the dot position can be specified. For example, a pattern in which a plurality of crosses that are the same as the main marker are arranged may be used.

図27には、図26のテスト画像2601を印刷出力して得たプリント物のスキャン画像2701であり、斜めの矩形の枠2702はテスト画像2601に対応する領域である。縦線2703、2713、2714、2715はそれぞれ、図26における縦線2602、2606、2607、2604に対応する。一例として、縦線2703のノズル列方向の位置を求める際は、まず、S803と同様の方法により、サブマーカーの検出位置に基づいて、検出枠2704を求める。そして、S804と同様の方法により、検出枠2704内の画素値の重心位置を求めることにより、縦線2703のノズル列方向の位置を求める。他の縦線についても同様である。 FIG. 27 shows a scanned image 2701 of a printed matter obtained by printing out the test image 2601 in FIG. Vertical lines 2703, 2713, 2714 and 2715 respectively correspond to vertical lines 2602, 2606, 2607 and 2604 in FIG. As an example, when obtaining the position of the vertical line 2703 in the nozzle row direction, first, a detection frame 2704 is obtained based on the detection positions of the submarkers by the same method as in S803. Then, the position of the vertical line 2703 in the nozzle row direction is obtained by obtaining the position of the center of gravity of the pixel values within the detection frame 2704 by the same method as in S804. The same applies to other vertical lines.

このように、それぞれの縦線のノズル列方向の位置を求めた後は、その結果に基づいて、S804で検出されたメインマーカーの間に仮想メインマーカーを設けるための補間処理を行う。ここで、図27を参照し、S804で検出された各メインマーカーのうちの4つのメインマーカー2705、2706、2707、2708で囲まれる局所領域において、仮想メインマーカーを設定する場合を例に説明する。上記4つのメインマーカー2705、2706、2707、2708で囲まれる局所領域は、図26のテスト画像2601における、メインマーカー2610、2611、2612、2613で囲まれる領域に対応している。そして、図27において、点2709、2710、2711、2712が、補間処理で求められる仮想メインマーカーの位置を示している。これら仮想メインマーカーを用いて元々の局所領域を分割して、ノズル列方向に局所領域を3倍に増やす。つまり、設定された仮想メインマーカーは、新たな局所領域の頂点となる。 After obtaining the positions of the respective vertical lines in the nozzle row direction in this way, interpolation processing is performed based on the results to provide virtual main markers between the main markers detected in S804. Here, referring to FIG. 27, an example of setting a virtual main marker in a local region surrounded by four main markers 2705, 2706, 2707, and 2708 among the main markers detected in S804 will be described. . The local area surrounded by the four main markers 2705, 2706, 2707 and 2708 corresponds to the area surrounded by the main markers 2610, 2611, 2612 and 2613 in the test image 2601 of FIG. In FIG. 27, points 2709, 2710, 2711, and 2712 indicate the positions of virtual main markers obtained by interpolation processing. These virtual main markers are used to divide the original local area and increase the local area by a factor of three in the nozzle row direction. That is, the set virtual main marker becomes the vertex of the new local region.

ここで、図27に示すスキャン画像2701における本来的なメインマーカーの検出位置を小文字のxとyで表すこととする。例えば、メインマーカー2705の検出位置のノズル列方向の座標をx_2705と表記し、用紙搬送方向の座標をy_2705と表記する。同様に、縦線2703が検出されたノズル列方向の位置を、x_2703と表記する。このとき、補間演算によって求める、仮想メインマーカーとしての点2709のノズル列方向の座標x_2709と、用紙搬送方向の座標y_2709は、以下の式(12)及び式(13)でそれぞれ表される。
x_2709=x_2705+(x_2706-x_2705)÷(x_2715-x_2703)×(x_2713-x_2703) ・・・式(12)
y_2709=y_2705+(y_2706-y_2705)÷(x_2715-x_2703)×(x_2713-x_2703) ・・・式(13)
Here, the original detection position of the main marker in the scanned image 2701 shown in FIG. 27 is represented by lower case letters x and y. For example, the coordinate in the nozzle row direction of the detection position of the main marker 2705 is expressed as x_2705 , and the coordinate in the paper transport direction is expressed as y_2705 . Similarly, the position in the nozzle row direction where the vertical line 2703 is detected is denoted as x_2703 . At this time, the coordinate x_2709 in the nozzle row direction and the coordinate y_2709 in the paper transport direction of the point 2709 as the virtual main marker obtained by the interpolation calculation are expressed by the following equations (12) and (13), respectively. .
x_2709 = x_2705 + ( x_2706 - x_2705 ) ÷ ( x_2715 - x_2703 ) x ( x_2713 - x_2703 ) Equation (12)
y_2709 = y_2705 + ( y_2706 - y_2705 ) ÷ ( x_2715 - x_2703 ) x ( x_2713 - x_2703 ) Equation (13)

なお、上記式(12)では、テスト画像2601における縦線2602及び2604のX位置がそれぞれメインマーカー2610及び2611のX位置と一致していることを利用し、縦線2713に対応する点2709を補間演算により求めている。そして、他の仮想メインマーカーとしての点も、同様の補間演算で求めることができる。こうして得られた仮想メインマーカーを用いて、元々の局所領域をより小さな複数の局所領域へと分割することにより、図27に示すように、ノズル列方向における局所領域の数を3倍に増やすことができる。 Note that in the above equation (12), using the fact that the X positions of the vertical lines 2602 and 2604 in the test image 2601 match the X positions of the main markers 2610 and 2611, respectively, the point 2709 corresponding to the vertical line 2713 is Obtained by interpolation calculation. Points as other virtual main markers can also be obtained by similar interpolation calculations. By dividing the original local region into a plurality of smaller local regions using the virtual main markers thus obtained, the number of local regions in the nozzle row direction is tripled as shown in FIG. can be done.

なお、本実施形態で局所領域の数を増やした場合において、前述の図8のフローのS807にて経路設定を行う際は、着目する経路が属する局所領域を、テスト画像2601における縦線のX位置に基づいて決定する。例えば、図26において、メインマーカー2610、2611、2612、2613で囲まれる元々の局所領域を3つの領域に分割したとする。この場合、着目する経路のX座標が、縦線2606のX座標よりも左のときは、分割した3つの領域のうち、最も左の領域に属すると判定する。同様に、着目する経路のX座標が、縦線2607のX座標よりも右のときは、分割した3つの領域のうち、最も右の領域に属すると判定する。そして、上記以外の場合は、分割した3つの領域の中央の領域に属すると判定する。これにより、実施形態1と同様に、画素値を積分する経路を設定でき、ノズル毎の階調再現関数を導出することができる。 Note that when the number of local regions is increased in this embodiment, when the route is set in S807 of the flow of FIG. Determine based on location. For example, in FIG. 26, assume that the original local region surrounded by main markers 2610, 2611, 2612, and 2613 is divided into three regions. In this case, when the X coordinate of the route of interest is to the left of the X coordinate of the vertical line 2606, it is determined that it belongs to the leftmost region among the three divided regions. Similarly, when the X coordinate of the route of interest is to the right of the X coordinate of the vertical line 2607, it is determined to belong to the rightmost region among the three divided regions. In cases other than the above, it is determined that the area belongs to the central area of the three divided areas. As a result, as in the first embodiment, a path for integrating pixel values can be set, and a tone reproduction function for each nozzle can be derived.

以上のとおり、本実施形態によれば、ドット位置検出パターンの検出結果に基づいて、メインマーカーの間に仮想メインマーカーを設定し、座標変換パラメータを設定する局所領域を細かく設定する。これにより、ノズル毎の階調再現関数の導出精度を高めることができる。 As described above, according to the present embodiment, virtual main markers are set between main markers based on the detection result of the dot position detection pattern, and local regions for setting coordinate transformation parameters are finely set. As a result, it is possible to improve the accuracy of deriving the tone reproduction function for each nozzle.

[実施形態7]
ここまで説明した各実施形態では、十字形のメインマーカーを等間隔で並べたパターンを、ノズル列方向の位置の基準を示す基準パターンとしていた。しかし、基準パターンはこれに限定されるものではなく、ノズル列方向の基準となる位置を規定可能な、階調が場所によって変化する図形パターンであればどのようなものでもよい。そこで、本実施形態では、連続性のあるランダムな図形を均一パッチの周辺に配置したパターンを基準パターンとして用いる態様を説明する。なお、先行する他の実施形態と共通の内容については説明を省略することとする。
[Embodiment 7]
In each of the embodiments described so far, a pattern in which cross-shaped main markers are arranged at regular intervals is used as a reference pattern that indicates the reference of the position in the nozzle row direction. However, the reference pattern is not limited to this, and may be any pattern as long as it can define a reference position in the nozzle row direction and the gradation changes depending on the location. Therefore, in the present embodiment, a mode in which a pattern in which continuous random figures are arranged around a uniform patch is used as a reference pattern will be described. In addition, suppose that description is abbreviate|omitted about the content which is common in other preceding embodiments.

図28(a)は本実施形態のテスト画像の一例を示す図、同(b)はそれを印刷出力して得たプリント物のスキャン画像を示す図である。図28の(a)及び(b)では、説明の便宜上、ランダムパターンの濃さを薄くして表示している。以下、これらの図を参照して、本実施形態について説明する。いま、図28(a)には、テスト画像2801内に配置された各均一パッチ2804の周辺を、連続性のあるランダムな図形2803で埋めたパターン(以下、「ランダムパターン」と呼ぶ)が示されている。このランダムパターン2803は、例えば、公知のグリーンノイズマスクから生成可能である。なお、テスト画像2801の四隅にある矩形2802はサブマーカーを示している。 FIG. 28(a) is a diagram showing an example of a test image of this embodiment, and FIG. 28(b) is a diagram showing a scanned image of a printed matter obtained by printing out the test image. In FIGS. 28(a) and 28(b), the random pattern is displayed with a lighter density for convenience of explanation. The present embodiment will be described below with reference to these figures. FIG. 28(a) shows a pattern (hereinafter referred to as a "random pattern") in which the periphery of each uniform patch 2804 arranged in a test image 2801 is filled with continuous random graphics 2803. FIG. It is This random pattern 2803 can be generated from, for example, a known green noise mask. Rectangles 2802 at the four corners of the test image 2801 indicate submarkers.

図28(b)に示すスキャン画像2811からノズル毎の階調再現関数を導出する場合、まず、先の実施形態で用いたメインマーカーに対応する領域とその中心位置を表す点をテスト画像2801内に設定する。ここでは、図28(a)に示すように、十字型のメインマーカーに対応する領域2805とその中心位置を表す点2806が、各均一パッチ2804の周辺に等間隔でテスト画像2801内に設定される。そして、図28(b)に示すスキャン画像911における、テスト画像2801に対応する位置を、公知のテンプレートマッチング手法により求める。例えば、テスト画像2801における点2806に対応する位置として、スキャン画像2811内の点2816の位置を求める。 When deriving the gradation reproduction function for each nozzle from the scanned image 2811 shown in FIG. set to Here, as shown in FIG. 28A, a region 2805 corresponding to a cross-shaped main marker and a point 2806 representing its center position are set in a test image 2801 at equal intervals around each uniform patch 2804. be. Then, the position corresponding to the test image 2801 in the scanned image 911 shown in FIG. 28(b) is obtained by a known template matching technique. For example, the position of point 2816 in scanned image 2811 is determined as the position corresponding to point 2806 in test image 2801 .

スキャン画像2811における対応位置を求める際は、まず、図8のフローのS803と同じ方法で検出枠を求める。図28(b)における矩形の枠2815は、スキャン画像2811上の対応点2816を求めるときに用いる検出枠を示している。この検出枠2815は、テスト画像2801に設定した対応領域2805を包含するように、対応領域2805よりも大きく設定する。そして、検出枠2815内の画素毎に、対応領域2805との類似度を求め、類似度が最大となる画素位置を、スキャン画像2811における対応点2816とする。なお、類似度の尺度としては例えばZNCCを用いればよい。このようにして、実施形態1等で用いた十字型のメインマーカーを等間隔で並べたパターンと同様に、テスト画像の座標と、そのプリント物のスキャン画像の座標との対応関係が求まる。そして、先の実施形態のときと同様、局所領域毎に座標変換パラメータを設定し、ノズル毎の階調再現関数を導出する。 When obtaining the corresponding position in the scanned image 2811, first, a detection frame is obtained by the same method as S803 in the flow of FIG. A rectangular frame 2815 in FIG. 28B indicates a detection frame used when obtaining corresponding points 2816 on the scanned image 2811 . This detection frame 2815 is set larger than the corresponding area 2805 so as to encompass the corresponding area 2805 set in the test image 2801 . Then, the degree of similarity with the corresponding region 2805 is obtained for each pixel within the detection frame 2815 , and the pixel position where the degree of similarity is maximized is set as the corresponding point 2816 in the scanned image 2811 . ZNCC, for example, may be used as a measure of similarity. In this manner, the correspondence relationship between the coordinates of the test image and the coordinates of the scanned image of the printed matter is obtained in the same manner as the pattern in which the cross-shaped main markers are arranged at regular intervals, as in the first embodiment. Then, as in the previous embodiment, coordinate conversion parameters are set for each local region, and tone reproduction functions for each nozzle are derived.

(変形例)
メインマーカーを等間隔で並べたパターンに代えてランダムパターンを基準パターンとする例を説明したが、均一パッチ自体を、基準パターンとして用いることも可能である。例えば、図28(a)において、均一パッチ2804の上下の境界は、X方向に伸びる線分であり、Y方向の周波数成分を持っている。そのため、均一パッチ2804の上下の境界を含むように、先の実施形態で用いたメインマーカーに対応する領域を設定することで、ランダムパターンを用いることなく、Y方向の位置が検出可能である。これを応用し、X方向の位置も検出したい場合は、X方向とY方向の両方の周波数成分を持つように、例えば、均一パッチの上下の境界の形状を三角波状にすればよい。この変形例の場合、階調の異なる均一パッチを、間隔を空けずに、互いに上下の境界を共有してY方向に隣接して配置でき、テスト画像の面積を削減することができる。
(Modification)
Although an example in which a random pattern is used as a reference pattern instead of a pattern in which main markers are arranged at equal intervals has been described, a uniform patch itself can also be used as a reference pattern. For example, in FIG. 28(a), the upper and lower boundaries of uniform patch 2804 are line segments extending in the X direction and have frequency components in the Y direction. Therefore, by setting an area corresponding to the main marker used in the previous embodiment so as to include the upper and lower boundaries of the uniform patch 2804, the position in the Y direction can be detected without using random patterns. If it is desired to detect the position in the X direction as well, for example, the shape of the upper and lower boundaries of the uniform patch should be triangular so as to have frequency components in both the X and Y directions. In the case of this modified example, uniform patches with different gradations can be arranged adjacent to each other in the Y direction while sharing the upper and lower boundaries with no space between them, and the area of the test image can be reduced.

なお、座標変換前後の座標同士の対応関係が隣り合う局所領域間で連続的であっても、スキャン画像の画素値を積分する経路が隣り合うノズル間で離れていると、テスト画像のプリント物における面内の濃度ムラにより、積分値の間に段差が発生しやすくなる。そのため、画素値を積分する経路は、隣接する2つのノズル間で、その始点と終点が大きく異ならないことが望ましい。具体的には、前述の図17(a)における矢印1701と矢印1702のように、テスト画像の座標系において、積分経路の始点のY座標と、積分経路の終点のY座標とが、互いに隣接する2つのノズル間で略一致していることが望ましい。これを実現するためには、同一階調の均一パッチは、ノズル列方向に対して、途切れることなく連続している必要がある。また、上記変形例のように均一パッチの上下の境界を三角波状にする場合であっても、均一パッチの高さに余裕を持たせることにより、均一パッチの内部に矩形の領域(図9の均一パッチ904を参照)を設定することもできる。この内部に設けた矩形領域内に積分経路を設定することで、積分経路の始点と終点のY座標を、全てのノズルで一致させることができる。 Note that even if the correspondence between the coordinates before and after the coordinate transformation is continuous between adjacent local regions, if the paths for integrating the pixel values of the scanned image are separated between adjacent nozzles, the printed matter of the test image Due to in-plane density unevenness in , a step is likely to occur between integral values. Therefore, it is desirable that the starting point and the ending point of the paths for integrating the pixel values do not greatly differ between two adjacent nozzles. Specifically, as indicated by arrows 1701 and 1702 in FIG. 17A, the Y coordinate of the start point of the integration path and the Y coordinate of the end point of the integration path are adjacent to each other in the coordinate system of the test image. It is desirable that the two nozzles are approximately the same. In order to achieve this, uniform patches with the same gradation must be continuous in the nozzle row direction without interruption. Further, even when the upper and lower boundaries of the uniform patch are formed in a triangular wave shape as in the above modified example, a rectangular area (see FIG. 9) can be formed inside the uniform patch by providing a margin in the height of the uniform patch. uniform patch 904) can also be set. By setting the integration path within the rectangular area provided inside, the Y coordinates of the start point and the end point of the integration path can be matched for all the nozzles.

先の実施形態では、隣接するメインマーカー同士が重ならないように、一定間隔を持たせる必要があった。本実施形態のようなランダムパターンの場合は、各メインマーカーの中心点に対応する位置を、ノズル列方向に最多で1画素おきに設定できる。すなわち、本実施形態の手法の場合、メインマーカーを等間隔に配置した基準パターンを用いる場合に比べ、座標変換パラメータを設定する局所領域を細かく設定でき、ノズル毎の階調再現関数の導出精度を高めることができる。 In the previous embodiment, it was necessary to provide a certain interval so that adjacent main markers would not overlap each other. In the case of a random pattern as in this embodiment, the positions corresponding to the center points of the main markers can be set at most every other pixel in the nozzle row direction. That is, in the case of the method of this embodiment, compared to the case of using a reference pattern in which the main markers are arranged at equal intervals, the local regions for setting the coordinate transformation parameters can be finely set, and the derivation accuracy of the gradation reproduction function for each nozzle can be improved. can be enhanced.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

Claims (21)

記録媒体上に画像を記録する画像記録装置の記録素子毎の階調再現関数を導出する画像処理装置であって、
均一パッチの周辺に基準パターンを配置したテスト画像を前記画像記録装置で出力したものを光学的に読み取ったスキャン画像から、前記基準パターンの位置を検出する検出手段と、
前記検出手段で検出された前記基準パターンの位置に基づいて、前記スキャン画像における、前記記録素子それぞれが画像記録を行う経路を設定する設定手段と、
設定された前記経路に沿って、前記スキャン画像の画素値を積分し、前記記録素子毎の階調再現関数を生成する生成手段と、
を備え、
前記均一パッチは、前記記録素子が並ぶ方向に連続しており、
前記基準パターンは、前記記録素子が並ぶ方向における位置の基準を示す、連続性のあるランダムな図形パターンである、
ことを特徴とする画像処理装置。
An image processing device for deriving a gradation reproduction function for each recording element of an image recording device for recording an image on a recording medium,
a detection means for detecting the position of the reference pattern from a scanned image obtained by optically reading a test image in which the reference pattern is arranged around the uniform patch and output by the image recording device;
setting means for setting a path for image recording by each of the recording elements in the scanned image based on the position of the reference pattern detected by the detection means;
generating means for integrating the pixel values of the scanned image along the set path and generating a tone reproduction function for each of the recording elements;
with
the uniform patches are continuous in the direction in which the recording elements are arranged;
The reference pattern is a continuous random figure pattern that indicates a positional reference in the direction in which the recording elements are arranged.
An image processing apparatus characterized by:
記録媒体上に画像を記録する画像記録装置の記録素子毎の階調再現関数を導出する画像処理装置であって、
均一パッチの周辺に基準パターンを配置したテスト画像を前記画像記録装置で出力したものを光学的に読み取ったスキャン画像から、前記基準パターンの位置を検出する検出手段と、
前記検出手段で検出された前記基準パターンの位置に基づいて、前記スキャン画像における、前記記録素子それぞれが画像記録を行う経路を設定する設定手段と、
設定された前記経路に沿って、前記スキャン画像の画素値を積分し、前記記録素子毎の階調再現関数を生成する生成手段と、
を備え、
前記均一パッチは、前記記録素子が並ぶ方向に連続しており、
前記基準パターンは、前記記録素子が並ぶ方向における位置の基準を示す図形パターンであり、
前記テスト画像の四隅に、前記基準パターンの検出の精度を向上させるための補助パターンが配置されている
ことを特徴とする画像処理装置。
An image processing device for deriving a gradation reproduction function for each recording element of an image recording device for recording an image on a recording medium,
a detection means for detecting the position of the reference pattern from a scanned image obtained by optically reading a test image in which the reference pattern is arranged around the uniform patch and output by the image recording device;
setting means for setting a path for image recording by each of the recording elements in the scanned image based on the position of the reference pattern detected by the detection means;
generating means for integrating the pixel values of the scanned image along the set path and generating a tone reproduction function for each of the recording elements;
with
the uniform patches are continuous in the direction in which the recording elements are arranged;
the reference pattern is a figure pattern indicating a reference of the position in the direction in which the recording elements are arranged;
Auxiliary patterns are arranged at the four corners of the test image for improving accuracy of detection of the reference pattern .
An image processing apparatus characterized by:
記録媒体上に画像を記録する画像記録装置の記録素子毎の階調再現関数を導出する画像処理装置であって、
均一パッチの周辺に基準パターンを配置したテスト画像を前記画像記録装置で出力したものを光学的に読み取ったスキャン画像から、前記基準パターンの位置を検出する検出手段と、
前記検出手段で検出された前記基準パターンの位置に基づいて、前記スキャン画像における、前記記録素子それぞれが画像記録を行う経路を設定する設定手段と、
設定された前記経路に沿って、前記スキャン画像の画素値を積分し、前記記録素子毎の階調再現関数を生成する生成手段と、
を備え、
前記均一パッチは、前記記録素子が並ぶ方向に連続しており、
前記基準パターンは、前記記録素子が並ぶ方向における位置の基準を示す図形パターンであり、
前記設定手段は、
前記テスト画像において複数の局所領域を設定し、
前記検出手段で検出された前記基準パターンの位置に基づいて、前記テスト画像に設定された前記複数の局所領域それぞれに対応する、隣接する局所領域間で互いに境界を共有する複数の局所領域を前記スキャン画像に設定し、
前記スキャン画像に設定された前記複数の局所領域それぞれに、異なる座標変換パラメータを用いた座標変換処理を行って、前記経路を設定する、
ことを特徴とする画像処理装置。
An image processing device for deriving a gradation reproduction function for each recording element of an image recording device for recording an image on a recording medium,
a detection means for detecting the position of the reference pattern from a scanned image obtained by optically reading a test image in which the reference pattern is arranged around the uniform patch and output by the image recording device;
setting means for setting a path for image recording by each of the recording elements in the scanned image based on the position of the reference pattern detected by the detection means;
generating means for integrating the pixel values of the scanned image along the set path and generating a tone reproduction function for each of the recording elements;
with
the uniform patches are continuous in the direction in which the recording elements are arranged;
the reference pattern is a figure pattern indicating a reference of the position in the direction in which the recording elements are arranged;
The setting means
setting a plurality of local regions in the test image;
Based on the position of the reference pattern detected by the detection means, a plurality of local regions having boundaries shared between adjacent local regions corresponding to the plurality of local regions set in the test image are detected. Set to Scan Image,
setting the path by performing coordinate transformation processing using different coordinate transformation parameters on each of the plurality of local regions set in the scan image;
An image processing apparatus characterized by:
記録媒体上に画像を記録する画像記録装置の記録素子毎の階調再現関数を導出する画像処理装置であって、
均一パッチの周辺に基準パターンを配置したテスト画像を前記画像記録装置で出力したものを光学的に読み取ったスキャン画像から、前記基準パターンの位置を検出する検出手段と、
前記検出手段で検出された前記基準パターンの位置に基づいて、前記スキャン画像における、前記記録素子それぞれが画像記録を行う経路を設定する設定手段と、
設定された前記経路に沿って、前記スキャン画像の画素値を積分し、前記記録素子毎の階調再現関数を生成する生成手段と、
を備え、
前記均一パッチは、前記記録素子が並ぶ方向に連続しており、
前記基準パターンは、前記記録素子が並ぶ方向における位置の基準を示す図形パターンであり、
前記生成手段は、前記経路上の注目点の画素値を順に取得し、取得した画素値を積分して得られた積分値を平均化して、前記階調再現関数を生成する、
ことを特徴とする画像処理装置。
An image processing device for deriving a gradation reproduction function for each recording element of an image recording device for recording an image on a recording medium,
a detection means for detecting the position of the reference pattern from a scanned image obtained by optically reading a test image in which the reference pattern is arranged around the uniform patch and output by the image recording device;
setting means for setting a path for image recording by each of the recording elements in the scanned image based on the position of the reference pattern detected by the detection means;
generating means for integrating the pixel values of the scanned image along the set path and generating a tone reproduction function for each of the recording elements;
with
the uniform patches are continuous in the direction in which the recording elements are arranged;
the reference pattern is a figure pattern indicating a reference of the position in the direction in which the recording elements are arranged;
The generating means sequentially obtains pixel values of points of interest on the path, and averages integral values obtained by integrating the obtained pixel values to generate the tone reproduction function.
An image processing apparatus characterized by:
前記生成手段は、前記注目点に対応するサブピクセル位置の画素値を補間処理によって取得することを特徴とする請求項に記載の画像処理装置。 5. The image processing apparatus according to claim 4 , wherein said generating means acquires the pixel value of the sub-pixel position corresponding to said point of interest by interpolation processing. 前記生成手段は、バイリニア補間を用いて、前記注目点に対応するサブピクセル位置の画素値を取得することを特徴とする請求項に記載の画像処理装置。 6. The image processing apparatus according to claim 5 , wherein said generating means obtains the pixel value of the sub-pixel position corresponding to said point of interest using bilinear interpolation. 前記生成手段は、前記スキャン画像の画素値と、標本化関数との積和演算によって、前記サブピクセル位置の画素値を取得することを特徴とする請求項に記載の画像処理装置。 6. The image processing apparatus according to claim 5 , wherein said generating means acquires pixel values at said sub-pixel positions by performing a product-sum operation of pixel values of said scanned image and a sampling function. 前記標本化関数は、sinc関数またはLanczos関数であることを特徴とする請求項に記載の画像処理装置。 8. The image processing apparatus according to claim 7 , wherein said sampling function is a sinc function or a Lanczos function. 前記標本化関数の、前記記録素子の並ぶ方向に直交する方向のタップ数を、前記記録素子の並ぶ方向のタップ数に比べ小さくしたことを特徴とする請求項7又は8に記載の画像処理装置。 9. The image processing apparatus according to claim 7, wherein the number of taps of said sampling function in the direction orthogonal to the direction in which said recording elements are arranged is smaller than the number of taps in said direction in which said recording elements are arranged. . 前記均一パッチの輝度が高いほど、前記標本化関数の前記記録素子が並ぶ方向のタップ数を小さくしたことを特徴とする請求項に記載の画像処理装置。 8. The image processing apparatus according to claim 7 , wherein the higher the brightness of said uniform patch, the smaller the number of taps of said sampling function in the direction in which said recording elements are arranged. 前記標本化関数の値をルックアップテーブルとして保持する記憶手段を有し、
前記生成手段は、前記ルックアップテーブルを用いて、前記補間処理を行う
ことを特徴とする請求項に記載の画像処理装置。
storage means for holding the values of the sampling function as a lookup table;
8. The image processing apparatus according to claim 7 , wherein said generating means performs said interpolation processing using said lookup table.
記録媒体上に画像を記録する画像記録装置の記録素子毎の階調再現関数を導出する画像処理装置であって、
前記記録素子が並ぶ方向に連続している均一パッチの周辺に基準パターンを配置したテスト画像を前記画像記録装置で出力したものを光学的に読み取ったスキャン画像から、前記基準パターンの位置を検出する検出手段であって、前記基準パターンは、前記記録素子が並ぶ方向における位置の基準を示す、所定形状の複数のマークを配置した図形パターンである、検出手段と、
前記検出手段が検出した前記基準パターンを構成する前記複数のマークそれぞれの位置について、正常か否かを判定する判定手段と、
前記判定によって正常でないと判定された前記マークの位置を補正する位置補正手段と、
前記検出手段で検出された前記基準パターンの位置に基づいて、前記スキャン画像における、前記記録素子それぞれが画像記録を行う経路を設定する設定手段と、
設定された前記経路に沿って、前記スキャン画像の画素値を積分し、前記記録素子毎の階調再現関数を生成する生成手段と、
を備えたことを特徴とする画像処理装置。
An image processing device for deriving a gradation reproduction function for each recording element of an image recording device for recording an image on a recording medium,
The position of the reference pattern is detected from a scan image obtained by optically reading a test image in which the reference pattern is arranged around the uniform patches continuous in the direction in which the recording elements are arranged, which is output by the image recording device. detection means, wherein the reference pattern is a figure pattern in which a plurality of marks having a predetermined shape are arranged and which indicates a position reference in the direction in which the recording elements are arranged;
determination means for determining whether or not the positions of the plurality of marks forming the reference pattern detected by the detection means are normal;
position correcting means for correcting the position of the mark determined to be abnormal by the determination;
setting means for setting a path for image recording by each of the recording elements in the scanned image based on the position of the reference pattern detected by the detection means;
generating means for integrating the pixel values of the scanned image along the set path and generating a tone reproduction function for each of the recording elements;
An image processing device comprising :
前記位置補正手段は、前記判定によって正常でないと判定された前記マークの位置を、その周辺で検出されたマークであってその位置が正常と判定されたマークの位置に基づいて補正することを特徴とする請求項12に記載の画像処理装置。 The position correcting means corrects the position of the mark determined to be abnormal by the determination based on the position of the mark detected in the vicinity thereof and determined to be normal. 13. The image processing apparatus according to claim 12 . 前記判定手段は、検出された複数のマークのうち、着目するマークの位置と、その周辺のマークの位置との差分に基づいて、正常か否かを判定することを特徴とする請求項12又は13に記載の画像処理装置。 12 or 13, wherein the determination means determines whether or not the mark is normal based on a difference between the position of the mark of interest and the positions of the marks in the vicinity thereof, among the plurality of detected marks. 14. The image processing apparatus according to 13 . 前記基準パターンは、所定形状の複数のマークを配置した図形パターンである
前記検出手段が検出した前記複数のマークそれぞれの位置について、正常か否かを判定する判定手段をさらに備え、
前記設定手段は、前記判定によって正常でないと判定された前記マークの位置を除外して、前記局所領域を設定する
ことを特徴とする請求項に記載の画像処理装置。
The reference pattern is a figure pattern in which a plurality of marks having a predetermined shape are arranged, further comprising a determination means for determining whether or not the positions of the plurality of marks detected by the detection means are normal,
4. The image processing apparatus according to claim 3 , wherein the setting unit sets the local area by excluding the position of the mark determined to be abnormal by the determination.
前記判定手段は、前記マークの形状を表す元画像と、前記スキャン画像における前記マークに対応する画像領域との類似度に基づいて、正常か否かを判定することを特徴とする請求項12又は15に記載の画像処理装置。 12 or 13 , wherein the determining means determines whether or not the original image representing the shape of the mark is normal based on a degree of similarity between an original image representing the shape of the mark and an image area corresponding to the mark in the scanned image. 16. The image processing apparatus according to 15 . 記録媒体上に画像を記録する画像記録装置の記録素子毎の階調再現関数を導出する画像処理装置であって、
均一パッチの周辺に基準パターンを配置したテスト画像を前記画像記録装置で出力したものを光学的に読み取ったスキャン画像から、前記基準パターンの位置を検出する検出手段と、
前記検出手段で検出された前記基準パターンの位置に基づいて、前記スキャン画像における、前記記録素子それぞれが画像記録を行う経路を設定する設定手段と、
設定された前記経路に沿って、前記スキャン画像の画素値を積分し、前記記録素子毎の階調再現関数を生成する生成手段と、
を備え、
前記均一パッチは、前記記録素子が並ぶ方向に連続しており、
前記基準パターンは、前記記録素子が並ぶ方向における位置の基準を示す、所定形状の複数のマークを配置した図形パターンであり、
前記画像記録装置は、インクジェットプリンタであり、
前記検出手段は、インクを吐出するノズルの目詰まりを防止するための目詰まり防止パターンが付加されたテスト画像の出力結果を光学的に読み取ったスキャン画像から、前記目詰まり防止パターンを構成する各ドットの周辺にある画素を除外して、前記基準パターンを構成する前記複数のマークの位置を検出する
ことを特徴とする画像処理装置。
An image processing device for deriving a gradation reproduction function for each recording element of an image recording device for recording an image on a recording medium,
a detection means for detecting the position of the reference pattern from a scanned image obtained by optically reading a test image in which the reference pattern is arranged around the uniform patch and output by the image recording device;
setting means for setting a path for image recording by each of the recording elements in the scanned image based on the position of the reference pattern detected by the detection means;
generating means for integrating the pixel values of the scanned image along the set path and generating a tone reproduction function for each of the recording elements;
with
the uniform patches are continuous in the direction in which the recording elements are arranged;
The reference pattern is a figure pattern in which a plurality of marks having a predetermined shape are arranged to indicate a positional reference in the direction in which the recording elements are arranged;
The image recording device is an inkjet printer,
The detection means selects each component of the anti-clogging pattern from a scanned image obtained by optically reading an output result of a test image to which an anti-clogging pattern for preventing clogging of nozzles for ejecting ink is added. An image processing apparatus, wherein positions of the plurality of marks forming the reference pattern are detected by excluding pixels around dots.
記録媒体上に画像を記録する画像記録装置の記録素子毎の階調再現関数を導出する画像処理装置であって、
均一パッチの周辺に基準パターンを配置したテスト画像を前記画像記録装置で出力したものを光学的に読み取ったスキャン画像から、前記基準パターンの位置を検出する検出手段と、
前記検出手段で検出された前記基準パターンの位置に基づいて、前記スキャン画像における、前記記録素子それぞれが画像記録を行う経路を設定する設定手段と、
設定された前記経路に沿って、前記スキャン画像の画素値を積分し、前記記録素子毎の階調再現関数を生成する生成手段と、
を備え、
前記均一パッチは、前記記録素子が並ぶ方向に連続しており、
前記基準パターンは、前記記録素子が並ぶ方向における位置の基準を示す、所定形状の複数のマークを配置した図形パターンであり、
前記画像記録装置は、インクジェットプリンタであり、
前記検出手段は、前記基準パターンを構成する前記複数のマークの重心位置が変化しないように、インクを吐出するノズルの目詰まりを防止するための目詰まり防止パターンが付加されたテスト画像の出力結果を光学的に読み取ったスキャン画像から、前記基準パターンを構成する前記複数のマークの位置を検出する
ことを特徴とする画像処理装置。
An image processing device for deriving a gradation reproduction function for each recording element of an image recording device for recording an image on a recording medium,
a detection means for detecting the position of the reference pattern from a scanned image obtained by optically reading a test image in which the reference pattern is arranged around the uniform patch and output by the image recording device;
setting means for setting a path for image recording by each of the recording elements in the scanned image based on the position of the reference pattern detected by the detection means;
generating means for integrating the pixel values of the scanned image along the set path and generating a tone reproduction function for each of the recording elements;
with
the uniform patches are continuous in the direction in which the recording elements are arranged;
The reference pattern is a figure pattern in which a plurality of marks having a predetermined shape are arranged to indicate a positional reference in the direction in which the recording elements are arranged;
The image recording device is an inkjet printer,
The detection means outputs a test image to which a clogging prevention pattern for preventing clogging of nozzles for ejecting ink is added so that the positions of the centers of gravity of the plurality of marks constituting the reference pattern do not change. and detecting the positions of the plurality of marks forming the reference pattern from a scanned image obtained by optically reading the reference pattern.
前記検出手段は、前記記録素子が並ぶ方向のドット位置を検出するためのドット位置検出パターンが付加されたテスト画像の出力結果を光学的に読み取ったスキャン画像から、前記ドット位置をさらに検出し、
前記設定手段は、前記ドット位置の検出結果に基づき、前記基準パターンを構成する各マークと同じ役割を果たす仮想的なマークを追加的に設定して、前記スキャン画像に設定する局所領域の数を増やす
ことを特徴とする請求項に記載の画像処理装置。
the detection means further detects the dot positions from a scanned image obtained by optically reading an output result of a test image to which a dot position detection pattern for detecting dot positions in the direction in which the recording elements are arranged;
The setting means additionally sets a virtual mark that plays the same role as each mark constituting the reference pattern based on the detection result of the dot position, and sets the number of local regions to be set in the scan image. 4. The image processing apparatus according to claim 3 , wherein the number of images is increased.
記録媒体上に画像を記録する画像記録装置の記録素子毎の階調再現関数を導出する方法であって、
均一パッチの周辺に基準パターンを配置したテスト画像を前記画像記録装置で出力したものを光学的に読み取ったスキャン画像から、前記基準パターンの位置を検出する検出ステップと、
前記検出ステップにて検出した前記基準パターンの位置に基づいて、前記スキャン画像における、前記記録素子それぞれが画像記録を行う経路を設定する設定ステップと、
前記設定ステップにて設定した前記経路に沿って、前記スキャン画像の画素値を積分し、前記記録素子毎の階調再現関数を生成する生成ステップと、
を含み、
前記均一パッチは、前記記録素子が並ぶ方向に連続しており、
前記基準パターンは、前記記録素子が並ぶ方向における位置の基準を示す、連続性のあるランダムな図形パターンである、
ことを特徴とする方法。
A method for deriving a tone reproduction function for each recording element of an image recording apparatus for recording an image on a recording medium, comprising:
a detection step of detecting the position of the reference pattern from a scanned image obtained by optically reading a test image in which a reference pattern is arranged around a uniform patch and output by the image recording device;
a setting step of setting a path for image recording by each of the recording elements in the scanned image based on the position of the reference pattern detected in the detecting step;
a generation step of integrating pixel values of the scanned image along the path set in the setting step to generate a tone reproduction function for each recording element;
including
the uniform patches are continuous in the direction in which the recording elements are arranged;
The reference pattern is a continuous random figure pattern that indicates a positional reference in the direction in which the recording elements are arranged.
A method characterized by:
コンピュータを、請求項1乃至19のいずれか一項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 19 .
JP2019035625A 2019-02-28 2019-02-28 Image processing device, image processing method, and program Active JP7258600B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019035625A JP7258600B2 (en) 2019-02-28 2019-02-28 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019035625A JP7258600B2 (en) 2019-02-28 2019-02-28 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2020138426A JP2020138426A (en) 2020-09-03
JP7258600B2 true JP7258600B2 (en) 2023-04-17

Family

ID=72264329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019035625A Active JP7258600B2 (en) 2019-02-28 2019-02-28 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7258600B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010194969A (en) 2009-02-26 2010-09-09 Fujifilm Corp Image recording apparatus, image processing apparatus, image processing method and program
JP2011020305A (en) 2009-07-14 2011-02-03 Fuji Xerox Co Ltd Image forming apparatus and program
JP2012066516A (en) 2010-09-24 2012-04-05 Fujifilm Corp Image recording apparatus, and device, method, and program for calculating correction value
JP2015009501A (en) 2013-06-28 2015-01-19 富士フイルム株式会社 Image recording method and apparatus, and program
JP2015189149A (en) 2014-03-28 2015-11-02 富士フイルム株式会社 Chart for correcting stripe unevenness and chart set for correcting stripe unevenness

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4262318B2 (en) * 1997-11-28 2009-05-13 オリンパス株式会社 Printer device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010194969A (en) 2009-02-26 2010-09-09 Fujifilm Corp Image recording apparatus, image processing apparatus, image processing method and program
JP2011020305A (en) 2009-07-14 2011-02-03 Fuji Xerox Co Ltd Image forming apparatus and program
JP2012066516A (en) 2010-09-24 2012-04-05 Fujifilm Corp Image recording apparatus, and device, method, and program for calculating correction value
JP2015009501A (en) 2013-06-28 2015-01-19 富士フイルム株式会社 Image recording method and apparatus, and program
JP2015189149A (en) 2014-03-28 2015-11-02 富士フイルム株式会社 Chart for correcting stripe unevenness and chart set for correcting stripe unevenness

Also Published As

Publication number Publication date
JP2020138426A (en) 2020-09-03

Similar Documents

Publication Publication Date Title
JP2022034526A (en) Repetition uniformity compensation mechanism
JP7491332B2 (en) Defective nozzle compensation mechanism
US11192386B2 (en) Image processing apparatus, image processing method and storage medium
US11090932B2 (en) Image processing apparatus, image processing method and storage medium
JP6895821B2 (en) Image processing device and image processing method
JP2007320240A (en) Image recorder and image recording method
US20230110982A1 (en) Image processing apparatus, image processing method, and storage medium
JP2008093852A (en) Printer, printer control program, recording medium storing the program, printer control method, image processor, image processing program, recording medium storing the program and image processing method
US20130135683A1 (en) Printing apparatus, method of generating color conversion table, and computer program
JP2008018632A (en) Printer, printer controlling program, storage medium storing the program and printer controlling method, image processing apparatus, image processing program, storage medium storing the program and image processing method, and compensation region information forming apparatus, compensation region information forming program, storage medium storing the program, and compensation region information forming method
US11057528B2 (en) Information processing apparatus, method and storage medium
US8867094B2 (en) Printing system, image forming apparatus, and printing method for detecting image defects
JP7258600B2 (en) Image processing device, image processing method, and program
JP6094278B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program
JP6781399B2 (en) Control device and computer program
JP2013059938A (en) Apparatus, method and program for processing image
JP2011023984A (en) Image processing apparatus
JP6398783B2 (en) Color unevenness detection method, head adjustment method using this color unevenness detection method, and color unevenness inspection apparatus
JP7277175B2 (en) Image processing device, image processing method, and program
JP7427386B2 (en) Information processing device, method, and program
US11936835B2 (en) Image processing apparatus, image processing method, and storage medium which reduce a color difference and a frequency difference between two images
JP2006231915A (en) Printer, printing program, printing method, image processor, image processing program, image processing method, and recording medium with program recorded
JP6007471B2 (en) Image processing apparatus, image processing method, and liquid ejection apparatus
JP2007106066A (en) Printer, printing method, image processor, image processing method, printing program, image processing program, and recording medium
US20240119244A1 (en) Image forming apparatus, image forming method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230405

R151 Written notification of patent or utility model registration

Ref document number: 7258600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151