[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7205693B2 - Image processing device and computer program - Google Patents

Image processing device and computer program Download PDF

Info

Publication number
JP7205693B2
JP7205693B2 JP2019024914A JP2019024914A JP7205693B2 JP 7205693 B2 JP7205693 B2 JP 7205693B2 JP 2019024914 A JP2019024914 A JP 2019024914A JP 2019024914 A JP2019024914 A JP 2019024914A JP 7205693 B2 JP7205693 B2 JP 7205693B2
Authority
JP
Japan
Prior art keywords
color
specific
image data
region
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019024914A
Other languages
Japanese (ja)
Other versions
JP2020136785A (en
Inventor
将也 ▲高▼須
竜司 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2019024914A priority Critical patent/JP7205693B2/en
Publication of JP2020136785A publication Critical patent/JP2020136785A/en
Application granted granted Critical
Publication of JP7205693B2 publication Critical patent/JP7205693B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)

Description

本明細書は、イメージセンサを用いて生成される画像データを用いる画像処理に関する。 The present specification relates to image processing using image data generated using an image sensor.

特許文献1に開示されたデータ変換装置は、RGB画像データにおいてC、M、Yの周辺色の画素を検出し、検出された画素の値をC、M、Yの補正色に補正している。Cの補正色は、例えば、G、Bの2個の成分が最大値(255)を取る色である。 The data conversion device disclosed in Patent Document 1 detects pixels of peripheral colors of C, M, and Y in RGB image data, and corrects the values of the detected pixels to the correction colors of C, M, and Y. . The corrected color of C is, for example, a color in which the two components of G and B take the maximum value (255).

特開2009-159284号公報JP 2009-159284 A

ところで、イメージセンサを用いて生成される画像には、原稿上の網点とイメージセンサの読取位置との関係などの読取特性に起因して、原稿上の色とは異なる色成分が存在する場合がある。このような色成分は、画像の画質を低下させる可能性があった。 By the way, an image generated using an image sensor may contain color components different from those on the document due to reading characteristics such as the relationship between halftone dots on the document and the reading position of the image sensor. There is Such color components may degrade image quality.

本明細書は、イメージセンサを用いて生成される画像データが用いられる場合に、イメージセンサの読取特性に起因する画質の低下を抑制することができる技術を開示する。 This specification discloses a technique capable of suppressing degradation in image quality due to reading characteristics of an image sensor when image data generated using the image sensor is used.

本明細書に開示された技術は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の適用例として実現することが可能である。 The technology disclosed in this specification has been made to solve at least part of the above-described problems, and can be implemented as the following application examples.

[適用例1]画像処理装置であって、イメージセンサを用いて生成される対象画像データを取得する画像取得部と、前記対象画像データを用いて、前記対象画像データによって示される対象画像内の特定色領域を特定する領域特定部であって、前記特定色領域は、特定の表色系の3個以上の成分うちの1個の成分に対応する色である原色と2個の成分に対応する色である二次色とのうちのいずれかである特定色で表されるべき領域である、前記第1の領域特定部と、特定済みの前記特定色領域内の複数個の画素の値に対して特定成分を低減する補正を実行して補正済画像データを生成する補正部であって、前記特定成分は、前記特定色に対応する成分とは異なる成分である、前記補正部と、を備える画像処理装置。 [Application Example 1] An image processing apparatus comprising: an image acquisition unit that acquires target image data generated using an image sensor; A region specifying unit that specifies a specific color region, wherein the specific color region corresponds to a primary color that is a color corresponding to one component among three or more components of a specific color system and two components. the first area specifying unit, which is an area to be represented by a specific color that is one of a secondary color that is a color to be displayed, and values of a plurality of pixels in the specified specific color area a correcting unit that performs correction to reduce a specific component of the image to generate corrected image data, wherein the specific component is a component different from the component corresponding to the specific color; An image processing device comprising:

イメージセンサの読取特性に起因して、特定色領域に、原色や二次色に対応する成分とは異なる成分が混じると、画質が低下する場合がある。上記構成によれば、特定色領域内の複数個の画素の値に対して、対応する成分とは異なる特定成分を低減する補正が実行されるので、原色や二次色に特定成分が混じることで画質が低下することを抑制できる。この結果、イメージセンサを用いて生成される画像データが用いられる場合に、イメージセンサの読取特性に起因する画質の低下を抑制することができる。
[適用例2]
適用例1に記載の画像処理装置であって、さらに、
前記補正済画像データを用いて、複数個の色材を用いて印刷を実行するための印刷データを生成する生成部を備え、
前記特定成分を低減する補正は、前記複数個の色材のうち、少なくとも1個の色材の使用量を低減する補正である、画像処理装置。
[適用例3]
適用例2に記載の画像処理装置であって、
前記対象画像データは、前記イメージセンサによって出力される複数個の信号に対応する成分を含む第1の表色系の色値で画素ごとの色を示す画像データである、画像処理装置。
[適用例4]
適用例3に記載の画像処理装置であって、さらに、
前記対象画像データの各画素の値を、前記第1の表色系の色値から、前記複数個の色材に対応する複数個の成分を有する第2の表色系の色値に変換して、変換済画像データを生成する色変換部を備え、
前記補正部は、前記変換済画像データにおける前記特定色領域内の前記複数個の画素の前記第2の表色系の色値に対して前記特定成分を低減する補正を実行して、前記補正済画像データを生成する、画像処理装置。
[適用例5]
適用例1~4のいずれかに記載の画像処理装置であって、
前記第1の領域特定部は、前記対象画像に設定される複数個のブロックのそれぞれについて、前記ブロック内の複数個の画素の値を用いて前記ブロックが前記特定色領域であるか否かを判定することによって、前記特定色領域を特定する、画像処理装置。
[適用例6]
適用例1~5のいずれかに記載の画像処理装置であって、さらに、
前記対象画像データを用いて、前記対象画像内の文字を示す文字領域と文字とは異なる画像を示す非文字領域とを特定する第2の領域特定部と、
前記非文字領域に対して平滑化処理を実行する平滑化処理部と、
を備え、
前記第1の領域特定部は、前記平滑化処理済みの前記対象画像データを用いて、前記特定色領域を特定する、画像処理装置。
[適用例7]
適用例1~6のいずれかに記載の画像処理装置であって、さらに、
前記対象画像データを用いて、前記対象画像内の文字を示す文字領域と文字とは異なる画像を示す非文字領域とを特定する第2の領域特定部と、
前記非文字領域に対して平滑化処理を実行する平滑化処理部と、
を備え、
前記補正部は、前記平滑化処理済みの前記対象画像データを用いて、特定成分を低減する補正を実行する、画像処理装置。
[適用例8]
適用例1~6のいずれかに記載の画像処理装置であって、
前記特定色領域は、色相が前記原色と前記二次色とのうちのいずれかに対応する範囲であり、かつ、彩度および明度が基準以上である色で表される領域である、画像処理装置。
Due to the reading characteristics of the image sensor, image quality may be degraded when a specific color area contains components different from the components corresponding to the primary and secondary colors. According to the above configuration, since the correction for reducing the specific component different from the corresponding component is executed for the values of the plurality of pixels in the specific color area, the specific component is not mixed with the primary color or the secondary color. It is possible to suppress the deterioration of image quality with As a result, when image data generated using an image sensor is used, deterioration in image quality due to reading characteristics of the image sensor can be suppressed.
[Application example 2]
The image processing device according to Application Example 1, further comprising:
a generation unit that uses the corrected image data to generate print data for executing printing using a plurality of color materials;
The image processing device, wherein the correction for reducing the specific component is correction for reducing the amount of use of at least one colorant among the plurality of colorants.
[Application example 3]
The image processing device according to Application Example 2,
The image processing apparatus, wherein the target image data is image data indicating a color for each pixel with a color value of a first color system including components corresponding to a plurality of signals output from the image sensor.
[Application example 4]
The image processing device according to Application Example 3, further comprising:
converting a value of each pixel of the target image data from a color value of the first color system to a color value of a second color system having a plurality of components corresponding to the plurality of color materials; a color conversion unit for generating converted image data,
The correcting unit performs correction to reduce the specific component with respect to the color values of the plurality of pixels in the specific color area in the converted image data in the second color system, thereby performing the correction. An image processing device that generates processed image data.
[Application example 5]
The image processing device according to any one of Application Examples 1 to 4,
The first region specifying unit determines whether each of a plurality of blocks set in the target image is the specific color region using values of a plurality of pixels in the block. An image processing device that identifies the specific color region by making a determination.
[Application example 6]
The image processing device according to any one of application examples 1 to 5, further comprising:
a second region specifying unit that specifies a character region representing a character and a non-character region representing an image different from the character in the target image using the target image data;
a smoothing processing unit that performs smoothing processing on the non-character area;
with
The image processing device, wherein the first region specifying unit specifies the specific color region using the smoothed target image data.
[Application example 7]
The image processing device according to any one of application examples 1 to 6, further comprising:
a second region specifying unit that specifies a character region representing a character and a non-character region representing an image different from the character in the target image using the target image data;
a smoothing processing unit that performs smoothing processing on the non-character area;
with
The image processing device, wherein the correcting unit performs correction for reducing a specific component using the smoothed target image data.
[Application example 8]
The image processing device according to any one of Application Examples 1 to 6,
wherein the specific color region is a region represented by a color whose hue corresponds to one of the primary color and the secondary color and whose saturation and lightness are equal to or higher than a reference; Device.

なお、本明細書に開示される技術は、種々の形態で実現することが可能であり、例えば、印刷装置、印刷方法、画像処理方法、これら装置の機能または上記方法を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、等の形態で実現することができる。 It should be noted that the technology disclosed in this specification can be implemented in various forms. , a recording medium on which the computer program is recorded, or the like.

画像処理装置の一例である複合機200の構成を示すブロック図である。1 is a block diagram showing the configuration of a multi-function peripheral 200, which is an example of an image processing apparatus; FIG. 画像処理のフローチャートである。4 is a flowchart of image processing; 画像処理で用いられる画像の一例を示す第1の図である。FIG. 4 is a first diagram showing an example of an image used in image processing; 文字特定処理のフローチャートである。4 is a flowchart of character identification processing; 色変換処理のフローチャートである。4 is a flowchart of color conversion processing; 単一判定処理のフローチャートである。4 is a flowchart of single determination processing; 単一判定処理の説明図である。FIG. 10 is an explanatory diagram of single determination processing; 原色/二次色判定処理のフローチャートである。6 is a flowchart of primary color/secondary color determination processing; 特定色領域に対する色変換処理のフローチャートである。4 is a flowchart of color conversion processing for a specific color area; 補正に用いられるトーンカーブの一例を示す図である。FIG. 5 is a diagram showing an example of a tone curve used for correction; 原稿の原色の領域の概念図である。FIG. 2 is a conceptual diagram of primary color areas of a document;

A.実施例:
A-1.複合機200の構成
実施の形態を実施例に基づき説明する。図1は、画像処理装置の一例である複合機200の構成を示すブロック図である。複合機200は、画像処理装置を制御するプロセッサであるCPU210と、DRAMなどの揮発性記憶装置220と、フラッシュメモリやハードディスクドライブなどの不揮発性記憶装置230と、液晶ディスプレイなどの表示部240と、液晶ディスプレイと重畳されたタッチパネルやボタンを含む操作部250と、ユーザの端末装置100などの外部装置と通信を行うためのインタフェース(通信IF)270と、印刷実行部280と、読取実行部290と、を備えている。
A. Example:
A-1. Configuration of MFP 200 An embodiment will be described based on an example. FIG. 1 is a block diagram showing the configuration of a multifunction machine 200, which is an example of an image processing apparatus. The MFP 200 includes a CPU 210 that is a processor that controls an image processing device, a volatile storage device 220 such as a DRAM, a nonvolatile storage device 230 such as a flash memory or a hard disk drive, a display unit 240 such as a liquid crystal display, An operation unit 250 including a touch panel and buttons superimposed on a liquid crystal display, an interface (communication IF) 270 for communicating with an external device such as the user's terminal device 100, a print execution unit 280, and a read execution unit 290. , is equipped with

読取実行部290は、CPU210の制御に従って、一次元イメージセンサを用いて原稿を光学的に読み取ることによってスキャンデータを生成する。印刷実行部280は、CPU210の制御に従って、複数種類のトナー、具体的には、シアン(C)、マゼンタ(M)、イエロ(Y)、ブラック(K)のトナーを、色材として用いて、レーザ方式で用紙などの印刷媒体に画像を印刷する。具体的には、印刷実行部280は、感光ドラムを露光して静電潜像を形成し、該静電潜像にトナーを付着させてトナー像を形成する。印刷実行部280は、感光ドラム上に形成されたトナー像を用紙に転写する。なお、変形例では、印刷実行部280は、色材としてのインクを吐出して、用紙上に画像を形成するインクジェット方式の印刷実行部であっても良い。 Reading execution unit 290 generates scan data by optically reading a document using a one-dimensional image sensor under the control of CPU 210 . Under the control of the CPU 210, the print execution unit 280 uses a plurality of types of toner, specifically, cyan (C), magenta (M), yellow (Y), and black (K) toners, as colorants. An image is printed on a print medium such as paper using a laser method. Specifically, the print execution unit 280 exposes the photosensitive drum to form an electrostatic latent image, and adheres toner to the electrostatic latent image to form a toner image. The print execution unit 280 transfers the toner image formed on the photosensitive drum onto the paper. In a modified example, the print execution unit 280 may be an inkjet print execution unit that forms an image on paper by ejecting ink as a coloring material.

揮発性記憶装置220は、CPU210が処理を行う際に生成される種々の中間データを一時的に格納するバッファ領域を提供する。不揮発性記憶装置230には、コンピュータプログラムPGと色変換テーブルCTとが格納されている。コンピュータプログラムPGは、CPU210に複合機200の制御を実現させる制御プログラムである。本実施例では、コンピュータプログラムPGと色変換テーブルCTは、複合機200の製造時に、不揮発性記憶装置230に予め格納される形態で提供される。これに代えて、コンピュータプログラムPGと色変換テーブルCTは、サーバからダウンロードされる形態で提供されても良く、DVD-ROMなどに格納される形態で提供されてもよい。CPU210は、コンピュータプログラムPGを実行することにより、後述する画像処理を実行することができる。 Volatile storage device 220 provides a buffer area for temporarily storing various intermediate data generated when CPU 210 performs processing. The nonvolatile storage device 230 stores a computer program PG and a color conversion table CT. The computer program PG is a control program that causes the CPU 210 to control the MFP 200 . In this embodiment, the computer program PG and the color conversion table CT are provided in a form pre-stored in the non-volatile storage device 230 when the multifunction machine 200 is manufactured. Alternatively, the computer program PG and the color conversion table CT may be provided in the form of being downloaded from a server, or may be provided in the form of being stored in a DVD-ROM or the like. The CPU 210 can execute image processing, which will be described later, by executing the computer program PG.

A-2.画像処理
図2は、画像処理のフローチャートである。この画像処理は、例えば、ユーザが、読取実行部290の原稿台に、原稿を載置して、コピーの実行指示を入力した場合に実行される。この画像処理は、原稿を、読取実行部290を用いて読み取ることによって生成されるスキャンデータを取得し、該スキャンデータを用いて、原稿を示す印刷データを生成することで、いわゆる原稿のコピーを実現する処理である。
A-2. Image Processing FIG. 2 is a flowchart of image processing. This image processing is executed, for example, when the user places a document on the document platen of the reading execution unit 290 and inputs a copy execution instruction. This image processing acquires scan data generated by reading a document using the reading execution unit 290, and uses the scan data to generate print data representing the document, thereby making a so-called copy of the document. This is the process to be implemented.

S10では、CPU210は、ユーザが原稿台に設置した原稿を、読取実行部290を用いて読み取ることによって、スキャンデータを生成する。原稿は、例えば、複合機200、あるいは、図示しないプリンタによって画像が印刷された印刷物である。生成されたスキャンデータは、揮発性記憶装置220(図1)のバッファ領域に格納される。スキャンデータは、複数個の画素の値を含み、複数個の画素の値のそれぞれは、画素の色をRGB表色系の色値(RGB値とも呼ぶ)で表す。すなわち、スキャンデータは、RGB画像データである。1個の画素のRGB値は、例えば、レッド(R)とグリーン(G)とブルー(B)との3個の色成分の値(以下、R値、G値、B値とも呼ぶ)を含んでいる。本実施例では、各成分値の階調数は、256階調である。 In S<b>10 , the CPU 210 generates scan data by using the reading execution unit 290 to read the document placed on the platen by the user. The document is, for example, a printed matter in which an image is printed by the MFP 200 or a printer (not shown). The generated scan data is stored in a buffer area of volatile storage device 220 (FIG. 1). The scan data includes a plurality of pixel values, and each of the plurality of pixel values represents the color of the pixel with a color value (also called an RGB value) in the RGB color system. That is, the scan data is RGB image data. The RGB values of one pixel include, for example, three color component values of red (R), green (G), and blue (B) (hereinafter also referred to as R value, G value, and B value). I'm in. In this embodiment, the number of gradations of each component value is 256 gradations.

イメージセンサは、例えば、R、G、Bのうち、測定対象の色の光を選択的に透過するフィルタを介して、R、G、Bの各成分の光の強度をそれぞれ測定して、各成分の信号(R信号、G信号、B信号)を出力する。スキャンデータのRGB値の各成分値(R値、G値、B値)は、イメージセンサによって出力される各成分の信号に基づいて生成される。したがって、RGB値は、イメージセンサによって出力される複数個の信号に対応する成分を含む色値である。 For example, the image sensor measures the light intensity of each component of R, G, and B through a filter that selectively transmits light of a color to be measured among R, G, and B, and Component signals (R signal, G signal, B signal) are output. Each component value (R value, G value, B value) of the RGB values of the scan data is generated based on the signal of each component output by the image sensor. An RGB value is therefore a color value that includes components corresponding to a plurality of signals output by the image sensor.

RGB画像データであるスキャンデータは、RGB表色系を構成する3個の色成分に対応する3個の成分画像データ(R成分画像データ、G成分画像データ、B成分画像データ)を含んでいると言うことができる。各成分画像データは、1種類の色成分の値を、画素の値とする画像データである。 Scan data, which is RGB image data, includes three component image data (R component image data, G component image data, and B component image data) corresponding to three color components forming the RGB color system. can be said. Each component image data is image data in which the value of one kind of color component is used as the pixel value.

図3は、画像処理で用いられる画像の一例を示す第1の図である。図3(A)には、スキャンデータによって示されるスキャン画像SIの一例が示されている。スキャン画像SIは、複数個の画素を含む。該複数個の画素は、第1方向D1と、第1方向D1と直交する第2方向D2と、に沿って、マトリクス状に配置されている。 FIG. 3 is a first diagram showing an example of an image used in image processing. FIG. 3A shows an example of a scanned image SI represented by scan data. Scan image SI includes a plurality of pixels. The plurality of pixels are arranged in a matrix along a first direction D1 and a second direction D2 orthogonal to the first direction D1.

図3(A)のスキャン画像SIは、原稿の用紙の地色を示す白色の背景Bg1と、3個の文字とは異なるオブジェクトOb1~Ob3と、4個の文字Ob4~Ob7と、4個の文字Ob4~Ob7の背景Bg2と、を含んでいる。文字とは異なるオブジェクトは、例えば、写真である。背景Bg2は、白色とは異なる色を有する均一な画像である。 The scanned image SI of FIG. 3A includes a white background Bg1 indicating the background color of the paper of the original, three objects Ob1 to Ob3 different from characters, four characters Ob4 to Ob7, four characters Ob4 to Ob7, and four and a background Bg2 of characters Ob4 to Ob7. An object different from text is, for example, a photograph. Background Bg2 is a uniform image having a color different from white.

S20では、CPU210は、スキャンデータに対して、文字特定処理を実行する。文字特定処理は、スキャン画像SI内の複数個の画素を、文字を示す複数個の文字画素と、文字を示さない複数個の非文字画素と、に分類する処理である。これによって、複数個の文字画素によって構成される文字領域と、複数個の非文字画素によって構成される非文字領域と、が特定される。 In S20, the CPU 210 executes character identification processing on the scan data. The character identification process is a process of classifying a plurality of pixels in the scanned image SI into a plurality of character pixels representing characters and a plurality of non-character pixels not representing characters. As a result, a character area composed of a plurality of character pixels and a non-character area composed of a plurality of non-character pixels are specified.

文字特定処理によって、例えば、文字画素の値が「1」とされ、非文字画素の値が「0」とされた二値画像データ(文字特定データとも呼ぶ)が生成される。図3(B)には、文字特定データによって示される文字特定画像TIの一例が示されている。この文字特定画像TIには、スキャン画像SI内の4個の文字Ob4~Ob7のエッジを構成する複数個の画素が、文字画素Tp4~Tp7として、特定されている。なお、比較的大きな文字については、文字のエッジを構成する画素が文字画素として特定され、比較的小さな文字については、文字を構成する画素の全体が文字画素として特定される。文字特定処理については、後述する。 By the character identification process, for example, binary image data (also referred to as character identification data) is generated in which the value of character pixels is set to "1" and the value of non-character pixels is set to "0". FIG. 3B shows an example of the character identification image TI indicated by the character identification data. In this character identification image TI, a plurality of pixels forming edges of four characters Ob4 to Ob7 in the scan image SI are identified as character pixels Tp4 to Tp7. For relatively large characters, the pixels forming the edges of the characters are identified as character pixels, and for relatively small characters, the entire pixels forming the characters are identified as character pixels. The character identification processing will be described later.

S30では、CPU210は、スキャンデータに対して、網点平滑化処理を実行して、平滑化画像を示す平滑化画像データを生成する。具体的には、CPU210は、スキャンデータに含まれる複数個の非文字画素の値のそれぞれに対して、ガウスフィルタなどの平滑化フィルタを用いた平滑化処理を実行して、平滑化処理済みの複数個の非文字画素の値を算出する。平滑化処理の対象となる非文字画素は、S20の文字特定処理によって特定される。CPU210は、スキャンデータに含まれる複数個の文字画素の値と、平滑化処理済みの複数個の非文字画素の値と、を含む平滑化画像データを生成する。 In S30, the CPU 210 executes halftone dot smoothing processing on the scan data to generate smoothed image data representing a smoothed image. Specifically, the CPU 210 executes smoothing processing using a smoothing filter such as a Gaussian filter on each of the values of a plurality of non-character pixels included in the scan data, and performs smoothing processing. Calculate values for a plurality of non-character pixels. Non-character pixels to be smoothed are specified by the character specifying process of S20. The CPU 210 generates smoothed image data including the values of a plurality of character pixels included in the scan data and the values of a plurality of non-character pixels that have been smoothed.

図3(C)には、平滑化画像データによって示される平滑化画像GIが示されている。平滑化画像GIは、白色の背景Bg1gと、スキャン画像SI内のオブジェクトOb1~Ob7、背景Bg2が平滑化されたオブジェクトOb1g~Ob7g、背景Bg2gと、を含んでいる。これらのオブジェクトOb1g~Ob7g、背景Bg2gのうち、文字Ob4g~Ob7g以外の部分(非文字部分とも呼ぶ)は、スキャン画像SIと比較して、平滑化されている。 FIG. 3C shows the smoothed image GI represented by the smoothed image data. The smoothed image GI includes a white background Bg1g, objects Ob1 to Ob7 in the scanned image SI, objects Ob1g to Ob7g obtained by smoothing the background Bg2, and a background Bg2g. Of these objects Ob1g to Ob7g and background Bg2g, portions other than the characters Ob4g to Ob7g (also referred to as non-character portions) are smoothed compared to the scanned image SI.

S40では、CPU210は、平滑化画像データに対して、文字鮮鋭化処理を実行して、処理済み画像データを生成する。具体的には、CPU210は、平滑化画像データに含まれる複数個の文字画素の値のそれぞれに対して、アンシャープマスク処理や鮮鋭化フィルタを適用する処理などの鮮鋭化処理を実行して、鮮鋭化処理済みの複数個の文字画素の値を算出する。鮮鋭化処理の対象となる文字画素は、S20の文字特定処理によって特定される。そして、CPU210は、平滑化画像データに含まれる複数個の非文字画素の値(平滑化処理済みの複数個の非文字画素の値)と、鮮鋭化処理済みの複数個の文字画素の値と、を含む処理済み画像データを生成する。平滑化画像データに含まれる複数個の文字画素の値は、平滑化処理の対象ではないので、スキャンデータに含まれる複数個の文字画素の値と同じである。したがって、本ステップの文字鮮鋭化処理は、スキャンデータに含まれる複数個の文字画素の値に対して実行される、とも言うことができる。 In S40, the CPU 210 executes character sharpening processing on the smoothed image data to generate processed image data. Specifically, the CPU 210 executes sharpening processing such as unsharp mask processing and processing applying a sharpening filter to each of the values of a plurality of character pixels included in the smoothed image data. Values of a plurality of sharpened character pixels are calculated. Character pixels to be sharpened are specified by the character specifying process of S20. Then, the CPU 210 calculates the values of the plurality of non-character pixels (the values of the plurality of non-character pixels that have undergone the smoothing process) and the values of the plurality of character pixels that have undergone the sharpening process, which are included in the smoothed image data. , to generate processed image data including . The values of the plurality of character pixels included in the smoothed image data are the same as the values of the plurality of character pixels included in the scan data because they are not subject to smoothing processing. Therefore, it can be said that the character sharpening process of this step is performed on the values of a plurality of character pixels included in the scan data.

図3(D)には、処理済み画像データによって示される処理済み画像FIが示されている。処理済み画像FIは、白色の背景Bg1fと、スキャン画像SI内のオブジェクトOb1~Ob7、背景Bg2に対応するオブジェクトOb1f~Ob7f、背景Bg2fを含んでいる。これらのオブジェクトOb1f~Ob7f、背景Bg2fのうち、文字Ob4f~Ob7fのエッジは、スキャン画像SI内の文字Ob4~Ob7や、平滑化画像GI内の文字Ob4g~Ob7gと比較して、鮮鋭化されている。また、文字以外のオブジェクトOb1f~Ob3f、背景Bg2fは、鮮鋭化されていない。 FIG. 3D shows the processed image FI indicated by the processed image data. The processed image FI includes a white background Bg1f, objects Ob1 to Ob7 in the scanned image SI, objects Ob1f to Ob7f corresponding to the background Bg2, and a background Bg2f. Among these objects Ob1f to Ob7f and the background Bg2f, the edges of the characters Ob4f to Ob7f are sharpened compared to the characters Ob4 to Ob7 in the scanned image SI and the characters Ob4g to Ob7g in the smoothed image GI. there is Objects Ob1f to Ob3f other than characters and background Bg2f are not sharpened.

以上の説明から解るように、処理済み画像FI内のオブジェクトOb1f~Ob7f、背景Bg2fは、鮮鋭化された文字と、平滑化された非文字を含む。 As can be seen from the above description, the objects Ob1f to Ob7f and the background Bg2f in the processed image FI include sharpened characters and smoothed non-characters.

S45では、CPU210は、処理済み画像データに対して、色変換処理を実行する。色変換処理は、RGB画像データである処理済み画像データを、CMYK画像データに変換する処理である。CMYK画像データは、CMYK値で画素ごとの色を示す画像データである。CMYK値は、印刷に用いられる複数個の色材に対応する複数個の成分(C、M、Y、Kの成分)を有する表色系(CMYK表色系とも呼ぶ)の色値である。本実施例の色変換処理は、C、M、Y、R、G、Bの6色を示す領域の色の濁りを除去するための補正処理を含む。この色変換処理については後述する。 In S45, the CPU 210 executes color conversion processing on the processed image data. Color conversion processing is processing for converting processed image data, which is RGB image data, into CMYK image data. CMYK image data is image data that indicates the color of each pixel using CMYK values. The CMYK values are color values of a color system (also called a CMYK color system) having a plurality of components (C, M, Y, and K components) corresponding to a plurality of colorants used for printing. The color conversion processing of this embodiment includes correction processing for removing color turbidity in areas representing the six colors of C, M, Y, R, G, and B. FIG. This color conversion processing will be described later.

S50では、CPU210は、色変換処理後の処理済み画像データに対してハーフトーン処理を含む印刷データ生成処理を実行する。具体的には、色変換処理後の処理済み画像データ(CMYK画像データ)に対して、ハーフトーン処理が実行されて、印刷に用いられる色材ごと、かつ、画素ごとに、ドットの形成状態を示すドットデータが生成される。ドットの形成状態は、例えば、ドット有、ドット無の2種類の状態や、大ドット、中ドット、小ドット、ドット無の4種類の状態を取り得る。ハーフトーン処理は、例えば、ディザ法や、誤差拡散法に従って実行される。該ドットデータは、印刷時に用いられる順に並べ替えられ、該ドットデータに、印刷コマンドが付加されることによって、印刷データが生成される。 In S50, the CPU 210 executes print data generation processing including halftone processing on the processed image data after the color conversion processing. Specifically, halftone processing is performed on the processed image data (CMYK image data) after color conversion processing, and the dot formation state is determined for each color material used for printing and for each pixel. Dot data shown is generated. The dot formation state can take, for example, two types of dot states and no dot states, and four types of states of large dots, medium dots, small dots, and no dots. Halftone processing is performed, for example, according to a dither method or an error diffusion method. The dot data are rearranged in order of use at the time of printing, and print data is generated by adding a print command to the dot data.

S60では、CPU210は、印刷処理を実行して、画像処理を終了する。具体的には、CPU210は、印刷データを印刷実行部280に供給して、印刷実行部280に処理済み画像を印刷させる。 In S60, the CPU 210 executes print processing and ends the image processing. Specifically, CPU 210 supplies print data to print execution unit 280 and causes print execution unit 280 to print the processed image.

以上説明した画像処理によれば、スキャンデータのうち、特定済みの文字領域を構成する複数個の文字画素Tp4~Tp7の値に対して文字鮮鋭化処理が実行され(S40)、複数個の非文字画素の値に対して網点平滑化処理が実行され(S30)、処理済み画像データが生成される。この結果、文字画素の値と、文字画素とは異なる画素の値と、に対して、互いに異なる画像処理が実行されるので、スキャンデータに対する適切な画像処理を実現できる。なお、変形例では、S40の文字鮮鋭化処理が先に実行され、その後に、S30の網点平滑化処理が実行されても良い。 According to the image processing described above, the character sharpening process is executed on the values of the plurality of character pixels Tp4 to Tp7 that form the specified character area in the scan data (S40). A dot smoothing process is performed on the character pixel values (S30) to generate processed image data. As a result, different image processing is performed on the value of the character pixel and the value of the pixel different from the character pixel, so appropriate image processing for the scan data can be realized. Note that in a modified example, the character sharpening process of S40 may be performed first, and then the halftone dot smoothing process of S30 may be performed.

より具体的には、鮮鋭化処理済みの複数個の文字画素の値と、平滑化処理済みの複数個の非文字画素の値と、を含む処理済み画像データが生成される(S30、S40)。この結果、見栄えの良い処理済み画像FIを示す処理済み画像データを生成することができる。 More specifically, processed image data including a plurality of sharpened text pixel values and a plurality of smoothed non-text pixel values is generated (S30, S40). . As a result, processed image data representing a processed image FI with a good appearance can be generated.

例えば、図3(D)の処理済み画像FIに示すように、処理済み画像データでは、文字画素の値には、鮮鋭化処理済みの値が用いられている。この結果、処理済み画像FIの文字がシャープに見えるので、例えば、印刷される処理済み画像FIの見栄えを向上することができる。 For example, as shown in the processed image FI of FIG. 3D, in the processed image data, sharpened values are used as the values of the character pixels. As a result, the characters in the processed image FI look sharp, so that, for example, the appearance of the printed processed image FI can be improved.

また、処理済み画像データでは、処理済み画像FI内の背景Bg2や、写真などの文字とは異なるオブジェクトを構成する非文字画素の値には、平滑化処理済みの値が用いられている。この結果、処理済み画像FIの文字とは異なる部分に、例えば、モアレの原因となる網点が表れることを抑制できるので、印刷される処理済み画像FIにモアレなどの不具合が発生することを抑制できる。この結果、印刷される処理済み画像FIの見栄えを向上することができる。 In the processed image data, smoothed values are used for the values of the background Bg2 in the processed image FI and the values of the non-character pixels that constitute objects such as photographs that are different from characters. As a result, it is possible to suppress, for example, halftone dots that cause moire from appearing in a portion of the processed image FI that is different from the characters, thereby suppressing the occurrence of defects such as moire in the processed image FI to be printed. can. As a result, the appearance of the processed image FI to be printed can be improved.

例えば、スキャンデータの生成に用いられた原稿は、画像が印刷された印刷物である。このため、例えば、原稿内の白とは異なる色を有する背景Bg2などの均一な部分は、画像を形成するドットレベルでみると、網点を形成している。網点は、複数個のドットと、ドットが配置されていない部分(原稿の地色を示す部分)と、を含む。このために、スキャン画像SI内の背景Bg2を示す領域には、画素レベルでみると、網点が示されている。網点内のドットは、原稿の印刷時に用いられるディザマトリクスなどの影響によって、周期性を持って並んでいる。このためにスキャンデータを用いて印刷を行うと、ハーフトーン処理前の元画像(スキャン画像SI)内に存在している網点のドットの周期成分と、印刷画像を構成する網点のドットの周期成分と、が干渉して、モアレが表れやすい。本実施例の処理済み画像FIでは、平滑化処理によって、元画像(スキャン画像SI)内のエッジとは異なる部分のドットの周期成分が低減される。この結果、処理済み画像データを用いて、処理済み画像FIを印刷する場合に、例えば、印刷される処理済み画像FIにモアレが発生することを抑制できる。 For example, a document used to generate scan data is a printed matter on which an image is printed. Therefore, for example, a uniform portion such as the background Bg2 having a color different from white in the document forms a halftone dot when viewed at the dot level for forming an image. A halftone dot includes a plurality of dots and a portion where no dots are arranged (portion indicating the background color of the document). For this reason, when viewed at the pixel level, halftone dots are shown in the area indicating the background Bg2 in the scan image SI. Dots in halftone dots are arranged with periodicity due to the influence of a dither matrix used when printing an original. For this reason, when printing is performed using scan data, the halftone dot periodic component existing in the original image (scanned image SI) before halftone processing and the halftone dot dot composing the printed image Moire tends to appear due to interference between periodic components and . In the processed image FI of the present embodiment, the smoothing process reduces periodic components of dots in portions different from edges in the original image (scanned image SI). As a result, when the processed image FI is printed using the processed image data, for example, moiré can be suppressed from occurring in the printed processed image FI.

特に、上記画像処理では、処理済み画像データを用いて、印刷データが生成される(S50)ので、例えば、印刷される処理済み画像FIに発生しやすいモアレを抑制可能な適切な印刷データを生成することができる。 In particular, in the above image processing, the processed image data is used to generate the print data (S50). Therefore, for example, appropriate print data capable of suppressing moiré that tends to occur in the processed image FI to be printed is generated. can do.

A-3.文字特定処理
図2のS20の文字特定処理について説明する。図4は、文字特定処理のフローチャートである。S200では、CPU210は、スキャンデータを用いて、輝度データを生成する。具体的には、スキャン画像SIの各画素の色値(RGB値)を、所定の変換式を用いて輝度Yに変換することによって、スキャン画像SIの画素ごとの輝度を表す輝度データが生成される。輝度Yは、RGB値(R、G、B)を用いて、例えば、輝度Y=((0.298912×R)+(0.586611×G)+(0.114478×B))という式で算出される。この例では、RGB値の各成分値および輝度Yは、0~255の256階調の階調値である。
A-3. Character Identification Processing The character identification processing of S20 in FIG. 2 will be described. FIG. 4 is a flowchart of character identification processing. At S200, the CPU 210 uses the scan data to generate luminance data. Specifically, luminance data representing the luminance of each pixel of the scanned image SI is generated by converting the color value (RGB value) of each pixel of the scanned image SI into the luminance Y using a predetermined conversion formula. be. The brightness Y is calculated using RGB values (R, G, B), for example, by the formula brightness Y=((0.298912×R)+(0.586611×G)+(0.114478×B)). In this example, each component value of the RGB values and the luminance Y are gradation values of 256 gradations from 0 to 255.

S220では、CPU210は、輝度データに対して、エッジ抽出処理を実行して、エッジ抽出データを生成する。具体的には、CPU210は、平滑化済みの最小成分データの各画素の値に、いわゆるソーベルフィルタ(Sobel filter)を適用して、エッジ強度Seを算出する。CPU210は、これらのエッジ強度Seを、複数個の画素の値とするエッジ抽出データを生成する。 In S220, the CPU 210 executes edge extraction processing on the luminance data to generate edge extraction data. Specifically, the CPU 210 applies a so-called Sobel filter to the value of each pixel of the smoothed minimum component data to calculate the edge strength Se. The CPU 210 generates edge extraction data in which these edge intensities Se are values of a plurality of pixels.

S240では、CPU210は、エッジ抽出データに対して、二値化処理を実行する。これによって、文字特定データとしての二値画像データが生成される。例えば、CPU210は、エッジ抽出データにおいて、画素の値(すなわち、エッジ強度)が閾値以上である画素を、文字画素に分類し、画素の値が閾値未満である画素を、非文字画素に分類する。二値画像データでは、上述したように、文字画素の値は、「1」とされ、非エッジ画素の値は、「0」とされる。 In S240, the CPU 210 executes binarization processing on the edge extraction data. Thereby, binary image data is generated as character identification data. For example, in the edge extraction data, the CPU 210 classifies pixels whose pixel values (that is, edge strength) are equal to or greater than a threshold as text pixels, and classifies pixels whose pixel values are less than the threshold as non-text pixels. . In the binary image data, as described above, the value of character pixels is "1" and the value of non-edge pixels is "0".

以上説明した文字特定データでは、文字とは異なるグラフィックの線などのエッジも文字画素として特定され得る。この場合には、文字とは異なるエッジがS40の文字鮮鋭化処理の対象とされるが、グラフィックなどの線などがシャープな見栄えとなるので問題はない。なお、変形例としては、文字領域(文字画素)をより精度良く特定するために工夫された他の文字特定処理が採用されても良い。例えば、CPU210は、エッジ強度が基準値より大きい領域を特定し、当該領域をオブジェクト領域として特定する。CPU210は、各オブジェクト領域内のオブジェクトが文字であるか文字以外のオブジェクト(例えば、写真や描画)を判定する。オブジェクトの種類の判定は、各オブジェクト領域の色分布(例えば、オブジェクトが有する色の数)や、オブジェクトに外接する矩形内の総画素数に対するオブジェクトを構成する画素の比率、などに基づいて、行われる。このような文字領域を特定する手法は、様々な公知の手法を採用することができ、公知の手法は、例えば、特開平5-225378号公報、特開2002-288589号公報に開示されている。 In the character identification data described above, edges such as graphic lines that are different from characters can also be identified as character pixels. In this case, the edges that are not the characters are subject to the character sharpening process in S40, but there is no problem because the lines of graphics and the like have a sharp appearance. As a modification, another character specifying process devised to specify a character region (character pixels) with higher accuracy may be employed. For example, the CPU 210 identifies an area where the edge strength is greater than the reference value, and identifies that area as the object area. The CPU 210 determines whether an object in each object area is text or an object other than text (for example, a photograph or drawing). The object type is determined based on the color distribution of each object area (for example, the number of colors that the object has) and the ratio of the pixels that make up the object to the total number of pixels in the rectangle that circumscribes the object. will be Various known methods can be adopted as the method of specifying such a character region, and known methods are disclosed in, for example, Japanese Patent Application Laid-Open No. 5-225378 and Japanese Patent Application Laid-Open No. 2002-288589. .

A-4.色変換処理
図2のS45の色変換処理について説明する。図5は、色変換処理のフローチャートである。S300では、CPU210は、CPU210は、処理済み画像データに対して、単一判定処理を実行する。単一判定処理は、処理済み画像FIを複数個のブロックBLに分割し、各ブロックBLが、単一の色を表す単一領域であるか複数の色を表す非単一領域であるかを判定する処理である。処理済み画像データはスキャンデータに基づく画像データであるので、処理済み画像FIには、読取時のぼけなどに起因して色ムラが含まれている。単一領域は、単一の色値の画素で構成される領域だけではなく、色ムラなどによって完全に単一の色とは言えなくても実質的に単一の色を表していると見なせる領域を含む。
A-4. Color Conversion Processing The color conversion processing of S45 in FIG. 2 will be described. FIG. 5 is a flowchart of color conversion processing. In S300, the CPU 210 executes single determination processing on the processed image data. The single determination process divides the processed image FI into a plurality of blocks BL, and determines whether each block BL is a single area representing a single color or a non-single area representing multiple colors. This is the processing for determination. Since the processed image data is image data based on scan data, the processed image FI contains color unevenness due to blurring during reading. A single area is not only an area made up of pixels with a single color value, but can be regarded as representing a substantially single color even if it cannot be said to be a completely single color due to color unevenness, etc. Including area.

図6は、単一判定処理のフローチャートである。図7は、単一判定処理の説明図である。S410では、CPU210は、処理対象の画像である処理済み画像FIを複数個のブロックBLに分割する。図7(A)には、処理済み画像FIの一部である部分画像PIが図示されている。図7(A)に示すように処理済み画像FIは、マトリクス状に配置された複数個のブロックBLに分割される。1個のブロックBLは、例えば、縦m×横n個の(m×n)個の画素を含んでいる(m、nは2以上の整数)。例えば、mとnは、5である。 FIG. 6 is a flow chart of single determination processing. FIG. 7 is an explanatory diagram of the single determination process. In S410, the CPU 210 divides the processed image FI, which is the image to be processed, into a plurality of blocks BL. FIG. 7A shows a partial image PI that is part of the processed image FI. As shown in FIG. 7A, the processed image FI is divided into a plurality of blocks BL arranged in a matrix. One block BL includes, for example, (m×n) pixels (m in length×n in width) (m and n are integers equal to or greater than 2). For example, m and n are five.

S420では、CPU210は、処理済み画像FIにおいて設定された複数個のブロックBLから、1個の注目ブロックを選択する。 In S420, the CPU 210 selects one block of interest from a plurality of blocks BL set in the processed image FI.

S430では、CPU210は、注目ブロック内の複数個の画素を8個の基本色(C、M、Y、R、G、B、K(黒)、W(白))のいずれかに分類する。図7(B)には、RGB色空間CPが示されている。立法体のRGB色空間CPの8個の頂点は、8個の基本色に対応している。すなわち、8個の頂点は、K点Vk(0,0,0)、R点Vr(255,0,0)、G点Vg(0,255,0)、B点Vb(0,0,255)、C点Vc(0,255,255)、M点Vm(255,0,255)、Y点Vy(255,255,0)、W点Vw(255,255,255))である。括弧内の数字は、(R、G、B)の各色成分の値である。RGB色空間CPは、3枚の平面F1~F3によって、8個の基本色C、M、Y、R、G、B、K、Wに対応する8個の立方体の空間CSc、CSm、CSy、CSr、CSg、CSb、CSk、CSwに分割できる。平面F1は、R軸AXrと垂直で、R軸AXrの中点Mr(128、0、0)を通る平面である。平面F2は、G軸AXgと垂直で、G軸AXgの中点Mg(0、128、0)を通る平面である。平面F3は、B軸AXbと垂直で、B軸AXbの中点Mb(0、0、128)を通る平面である。例えば、図7(B)でハッチングされた空間CScは、シアン(C)に対応する空間である。例えば、注目ブロック内の複数個の画素のうち、スキャン画像SI内の対応するRGB値がCに対応する空間CSc内に位置する画素は、Cに分類される。 In S430, the CPU 210 classifies a plurality of pixels in the block of interest into one of eight basic colors (C, M, Y, R, G, B, K (black), W (white)). FIG. 7B shows the RGB color space CP. The eight vertices of the cube RGB color space CP correspond to the eight basic colors. That is, the eight vertices are K point Vk (0,0,0), R point Vr (255,0,0), G point Vg (0,255,0), B point Vb (0,0,255 ), C point Vc (0, 255, 255), M point Vm (255, 0, 255), Y point Vy (255, 255, 0), W point Vw (255, 255, 255)). The numbers in parentheses are the values of each color component (R, G, B). The RGB color space CP is defined by three planes F1-F3 into eight cubic spaces CSc, CSm, CSy, corresponding to the eight basic colors C, M, Y, R, G, B, K, W; It can be divided into CSr, CSg, CSb, CSk and CSw. The plane F1 is a plane perpendicular to the R-axis AXr and passing through the midpoint Mr (128, 0, 0) of the R-axis AXr. The plane F2 is a plane perpendicular to the G-axis AXg and passing through the midpoint Mg (0, 128, 0) of the G-axis AXg. A plane F3 is a plane perpendicular to the B-axis AXb and passing through the midpoint Mb (0, 0, 128) of the B-axis AXb. For example, the hatched space CSc in FIG. 7B is the space corresponding to cyan (C). For example, among the plurality of pixels in the block of interest, pixels located in the space CSc whose corresponding RGB values in the scanned image SI correspond to C are classified as C.

図7(C)には、注目ブロック内の複数個の画素の分類結果を示すヒストグラムが示されている。S430での分類の結果、図7(C)に示すようなヒストグラムのデータが生成される。 FIG. 7(C) shows a histogram indicating the result of classification of a plurality of pixels in the block of interest. As a result of the classification in S430, histogram data as shown in FIG. 7C is generated.

S440では、CPU210は、CPU210は、画素の分類結果に基づいて、注目ブロックの代表色を決定する。具体的には、8個の基本色のうち、ヒストグラムにおいて閾値TH以上の個数の画素が分類された1以上の色が、注目領域の代表色として決定される。図7(C)の例では、8個の基本色C、M、Y、R、G、B、K、Wのうち、C(シアン)とB(青)とに分類された画素の個数が閾値TH以上である。このために、図7(C)の例では、CとBとが注目領域の代表色として決定される。決定される代表色の数は、2色に限らず、1色あるいは3色以上である場合がある。閾値THは、例えば、注目ブロック内の画素の総数の20%程度に設定される。 In S440, CPU 210 determines the representative color of the block of interest based on the pixel classification result. Specifically, among the eight basic colors, one or more colors into which the number of pixels equal to or greater than the threshold TH are classified in the histogram are determined as the representative colors of the region of interest. In the example of FIG. 7C, among the eight basic colors C, M, Y, R, G, B, K, and W, the number of pixels classified into C (cyan) and B (blue) is It is equal to or greater than the threshold TH. Therefore, in the example of FIG. 7C, C and B are determined as the representative colors of the attention area. The number of determined representative colors is not limited to two, but may be one or three or more. The threshold TH is set, for example, to about 20% of the total number of pixels in the block of interest.

S450では、CPU210は、決定された注目ブロックの代表色の数は、1色であるか否かを判断する。注目領域の代表色の数が1色である場合には(S450:YES)、注目ブロックは、単一の色を表す領域であると考えられる。このために、この場合には、S460にて、CPU210は、注目ブロックを単一領域として決定する。注目ブロックの代表色の数が1色でない場合には(S450:NO)、注目ブロックは、複数の色を表す領域であると考えられる。このために、この場合には、S470にて、CPU210は、注目ブロックを非単一領域として決定する。 In S450, CPU 210 determines whether or not the determined number of representative colors of the block of interest is one. If the number of representative colors in the target area is one (S450: YES), the target block is considered to be an area representing a single color. Therefore, in this case, at S460, CPU 210 determines the block of interest as a single area. If the number of representative colors of the block of interest is not one (S450: NO), the block of interest is considered to be an area representing a plurality of colors. Therefore, in this case, at S470, CPU 210 determines the block of interest as a non-single area.

S480では、CPU210は、処理済み画像FI内の全てのブロックBLを注目ブロックとして処理したか否かを判断する。未処理のブロックBLがある場合には(S480:NO)、CPU210は、S420に処理を戻す。全てのブロックBLが処理された場合には(S480:YES)、CPU210は、単一判定処理を終了する。 In S480, the CPU 210 determines whether or not all blocks BL in the processed image FI have been processed as target blocks. If there is an unprocessed block BL (S480: NO), the CPU 210 returns the process to S420. When all blocks BL have been processed (S480: YES), the CPU 210 terminates the single determination process.

この時点で、処理済み画像FI内の全てのブロックは、単一領域と非単一領域とのいずれかに決定される。例えば、図7(A)のブロックBLa、BLcは、均一な背景BG1f、Bg2fを示す画像を含む。このために、これらのブロックBLa、BLcは、単一領域として決定される。また、ブロックBLbは、文字Ob4fと背景Bg2fとを含んでいる。このために、ブロックBLbは、非単一領域として決定される。また、図示は省略するが、例えば、処理済み画像FIのオブジェクトOb1f~Ob3fが単一の色を表す部分を含む場合には、該部分を示すブロックBLは、単一領域として決定される。また、オブジェクトOb1f~Ob3fのエッジ部分は、複数の色を示すので、該エッジ部分を示すブロックBLは、非単一領域として決定される。 At this point, all blocks in the processed image FI are determined to be either single-region or non-single-region. For example, blocks BLa and BLc in FIG. 7A include images showing uniform backgrounds BG1f and Bg2f. For this reason, these blocks BLa and BLc are determined as a single area. Block BLb also includes characters Ob4f and background Bg2f. For this reason, the block BLb is determined as a non-single area. Also, although illustration is omitted, for example, when the objects Ob1f to Ob3f of the processed image FI include a portion representing a single color, the block BL indicating that portion is determined as a single area. Also, since the edge portions of the objects Ob1f to Ob3f show a plurality of colors, the blocks BL showing the edge portions are determined as non-single regions.

図5のS310では、CPU210は、原色/二次色判定処理を実行する。原色/二次色判定処理は、単一判定処理によって決定された複数個の単一領域のそれぞれについて、該単一領域が特定色領域であるか否かを判定する処理である。特定色領域は、原色領域と二次色領域とを含む。原色領域は、CMYK表色系のC、M、Y成分のうちの1個の成分に対応する色(原色とも呼ぶ)で表されるべき領域である。原色領域は、シアンで表されるべきシアン領域と、マゼンタで表されるべきマゼンタ領域と、イエロで表されるべきマゼンタ領域と、を含む。二次色領域は、C、M、Y成分のうちの2個の成分に対応する色(二次色とも呼ぶ)で表されるべき領域である。本実施例では、二次色は、CとMとに対応する色であるブルー(B)と、MとYとに対応する色であるレッド(R)と、YとCとに対応する色であるグリーン(G)と、の3色である。したがって、二次色領域は、ブルーで表されるべきブルー領域と、レッドで表されるべきレッド領域と、グリーンで表されるべきグリーン領域と、を含む。2個の成分に対応する二次色とは、該2個の成分に対応する2個の原色を混ぜて得られる色であるとも言うことができる。 In S310 of FIG. 5, the CPU 210 executes primary color/secondary color determination processing. The primary color/secondary color determination process is a process of determining whether or not each of a plurality of single areas determined by the single determination process is a specific color area. The specific color area includes a primary color area and a secondary color area. The primary color area is an area to be represented by a color (also called a primary color) corresponding to one of the C, M, and Y components of the CMYK color system. The primary color areas include a cyan area to be represented in cyan, a magenta area to be represented in magenta, and a magenta area to be represented in yellow. A secondary color area is an area to be represented by colors (also called secondary colors) corresponding to two of the C, M, and Y components. In this embodiment, the secondary colors are blue (B) corresponding to C and M, red (R) corresponding to M and Y, and color corresponding to Y and C. and green (G). Thus, the secondary color areas include blue areas to be represented in blue, red areas to be represented in red, and green areas to be represented in green. A secondary color corresponding to two components can also be said to be a color obtained by mixing two primary colors corresponding to the two components.

図8は、原色/二次色判定処理のフローチャートである。S510では、CPU210は、単一判定処理にて決定された複数個の単一領域から、1個の注目単一領域を選択する。 FIG. 8 is a flowchart of primary color/secondary color determination processing. In S510, the CPU 210 selects one target single area from the plurality of single areas determined by the single determination process.

S515では、CPU210は、注目単一領域の平均色値を算出する。具体的には、注目単一領域内の全ての画素の値(RGB値)の平均色値(R_av、G_av、B_av)を算出する。 In S515, the CPU 210 calculates the average color value of the single region of interest. Specifically, average color values (R_av, G_av, B_av) of all pixel values (RGB values) in the single region of interest are calculated.

S525では、CPU210は、公知の変換式を用いて、注目単一領域の平均色値(RGB値)をHSV表色系の色値(HSV値とも呼ぶ)に変換する。各HSV値は、3個の成分値、すなわち、色相を示すH値と、彩度を示すS値と、明度を示すV値と、を含む。H値は、0度~360度の範囲の値を取る。S値は、0%~100%の範囲の値を取り、0%は無彩色を示す。V値は、0%~100%の値を取り、0%は黒、100%は白を示す。 In S525, the CPU 210 converts the average color value (RGB value) of the single region of interest into a color value of the HSV color system (also called HSV value) using a known conversion formula. Each HSV value includes three component values: an H value that indicates hue, an S value that indicates saturation, and a V value that indicates brightness. The H value ranges from 0 degrees to 360 degrees. The S value ranges from 0% to 100%, with 0% indicating achromatic color. The V value ranges from 0% to 100%, with 0% indicating black and 100% indicating white.

S530では、CPU210は、変換後の平均色値(HSV値)の彩度(S値)が閾値THs以上であるか否かを判断する。閾値THsは、例えば、50%である。彩度(S値)が閾値THs未満である場合には(S530:NO)、S550にて、CPU210は、注目単一領域を非特定色領域として決定する。 In S530, the CPU 210 determines whether the saturation (S value) of the converted average color value (HSV value) is equal to or greater than the threshold THs. The threshold THs is, for example, 50%. When the saturation (S value) is less than the threshold THs (S530: NO), in S550, CPU 210 determines the single region of interest as a non-specific color region.

彩度(S値)が閾値THs以上である場合には(S530:YES)、S535にて、CPU210は、変換後の平均色値(HSV値)の明度(V値)が閾値THv以上であるか否かを判断する。閾値THvは、例えば、50%である。明度(V値)が閾値THv未満である場合には(S535:NO)、S550にて、CPU210は、注目単一領域を非特定色領域として決定する。 If the saturation (S value) is equal to or greater than the threshold THs (S530: YES), in S535 the CPU 210 determines that the lightness (V value) of the converted average color value (HSV value) is equal to or greater than the threshold THv. or not. The threshold THv is, for example, 50%. If the lightness (V value) is less than the threshold THv (S535: NO), in S550 CPU 210 determines the single region of interest as a non-specific color region.

明度(V値)が閾値THv以上である場合には(S535:YES)、S540にて、CPU210は、変換後の平均色値(HSV値)の色相(H値)が、所定の原色範囲内、または、所定の二次色範囲内であるか否かを判断する。原色範囲は、例えば、0度~360度の範囲の値のうち、C、M、Yの色相に対応する範囲である。二次色範囲は、0度~360度の範囲の値のうち、R、G、Bの色相に対応する範囲である。例えば、C、M、Yの原色範囲は、それぞれ、C、M、Yの色相を示すH値を中心とした所定幅分(例えば、30度分)の範囲である。例えば、R、G、Bの二次色範囲は、それぞれ、R、G、Bの色相を示すH値を中心とした所定幅分(例えば、30度分)の範囲である。 If the lightness (V value) is equal to or greater than the threshold THv (S535: YES), in S540, the CPU 210 determines whether the hue (H value) of the converted average color value (HSV value) is within a predetermined primary color range. , or whether it is within a predetermined secondary color range. The primary color range is, for example, a range of values from 0 degrees to 360 degrees that correspond to the C, M, and Y hues. The secondary color range is a range of values from 0 degrees to 360 degrees that correspond to the R, G, and B hues. For example, the primary color range of C, M, and Y is a range of a predetermined width (for example, 30 degrees) around the H value indicating the hue of C, M, and Y, respectively. For example, the secondary color range of R, G, and B is a range of a predetermined width (for example, 30 degrees) around the H value indicating the hue of R, G, and B, respectively.

変換後の平均色値(HSV値)の色相(H値)が原色範囲でもなく、かつ、二次色範囲でもない場合には(S540:NO)、平均色値は、原色でも二次色でもない。このために、この場合には、S550にて、CPU210は、注目単一領域を非特定色領域として決定する。 If the hue (H value) of the average color value (HSV value) after conversion is neither in the primary color range nor in the secondary color range (S540: NO), the average color value is the primary color or the secondary color. Absent. Therefore, in this case, in S550, CPU 210 determines the single region of interest as the non-specific color region.

変換後の平均色値(HSV値)の色相(H値)が原色範囲である、あるいは、二次色範囲である場合には(S540:YES)、平均色値は、原色または二次色である。このために、この場合には、S545にて、CPU210は、注目単一領域を特定色領域として決定する。 If the hue (H value) of the average color value (HSV value) after conversion is in the primary color range or in the secondary color range (S540: YES), the average color value is the primary color or the secondary color. be. Therefore, in this case, in S545, CPU 210 determines the single region of interest as the specific color region.

S555では、CPU210は、処理済み画像FI内の全ての単一領域を注目単一領域として処理したか否かを判断する。未処理の単一領域がある場合には(S555:NO)、CPU210は、S510に処理を戻す。全ての単一領域が処理された場合には(S555:YES)、CPU210は、S560に処理を進める。 In S555, the CPU 210 determines whether or not all the single regions in the processed image FI have been processed as single regions of interest. If there is an unprocessed single area (S555: NO), the CPU 210 returns the process to S510. If all single regions have been processed (S555: YES), CPU 210 advances the process to S560.

この時点で、処理済み画像FI内の全ての単一領域は、特定色領域と非特定色領域とのいずれかに決定される。例えば、図7(A)のブロックBLaは単一領域であるが、背景Bg2fが原色または二次色の均一な背景である場合には、ブロックBLaは、特定色領域として決定される。また、ブロックBLcは単一領域であるが、背景Bg1fは白色であるので、非特定色領域として決定される。また、図示は省略するが、例えば、処理済み画像FIのオブジェクトOb1f~Ob3fの一部が単一領域として決定されている場合には、該単一領域は、特定色領域と非特定色領域とのいずれかに決定される。 At this point, every single region in the processed image FI is determined to be either a specific color region or a non-specific color region. For example, the block BLa in FIG. 7A is a single area, but if the background Bg2f is a uniform primary color or secondary color background, the block BLa is determined as a specific color area. Also, the block BLc is a single area, but since the background Bg1f is white, it is determined as a non-specific color area. Further, although illustration is omitted, for example, when a part of the objects Ob1f to Ob3f of the processed image FI is determined as a single area, the single area is divided into a specific color area and a non-specific color area. is determined by either

S560では、CPU210は、全ての非単一領域を非特定色領域として決定する。この結果、処理済み画像FI内の全ての注目ブロックは、特定色領域と非特定色領域とのいずれかに決定される。 In S560, the CPU 210 determines all non-single areas as non-specific color areas. As a result, all target blocks in the processed image FI are determined to be either specific color areas or non-specific color areas.

図5のS320では、CPU210は、処理済み画像FIのうち、非特定色領域に対する色変換処理を実行する。具体的には、非特定色領域に含まれる複数個の画素の値(RGB値)は、1画素ずつ、色変換テーブルCT(図1)を参照して、CMYK値に変換される。色変換テーブルCTは、例えば、RGB値とCMYK値との対応関係を規定する公知のルックアップテーブルである。 In S320 of FIG. 5, the CPU 210 performs color conversion processing on the non-specific color area of the processed image FI. Specifically, the values (RGB values) of a plurality of pixels included in the non-specific color area are converted to CMYK values pixel by pixel with reference to the color conversion table CT (FIG. 1). The color conversion table CT is, for example, a known lookup table that defines the correspondence between RGB values and CMYK values.

S330では、CPU210は、処理済み画像FIのうち、特定色領域に対する色変換処理を実行する。特定色領域に対する色変換処理は、非特定色領域に対する色変換処理とは異なる。図9は、特定色領域に対する色変換処理のフローチャートである。 In S330, the CPU 210 executes color conversion processing on the specific color area of the processed image FI. Color conversion processing for specific color regions is different from color conversion processing for non-specific color regions. FIG. 9 is a flowchart of color conversion processing for a specific color area.

S610では、CPU210は、図5のS310の原色/二次色判定処理によって決定された複数個の特定色領域から、1個の注目特定色領域を選択する。 At S610, the CPU 210 selects one specific color area of interest from among the plurality of specific color areas determined by the primary color/secondary color determination process of S310 of FIG.

S615では、CPU210は、注目特定色領域の平均色値(RGB値)に対応する1個のCMYK値(対応CMYK値とも呼ぶ)を決定する。平均色値(RGB値)には、図8のS515にて算出済みの平均色値が用いられる。対応CMYK値は、色変換テーブルCTを参照して決定される。 In S615, the CPU 210 determines one CMYK value (also called a corresponding CMYK value) corresponding to the average color value (RGB value) of the specific color region of interest. The average color value calculated in S515 of FIG. 8 is used as the average color value (RGB value). Corresponding CMYK values are determined with reference to the color conversion table CT.

S620では、CPU210は、注目特定色領域内の全画素の値を、1個の対応CMYK値に変換する。このために、注目特定色領域内の全ての画素の変換後の値は、該全ての画素に共通する1個のCMYK値となる。 At S620, the CPU 210 converts the values of all pixels in the specific color region of interest into one corresponding CMYK value. For this reason, the converted values of all pixels in the specific color region of interest become one CMYK value common to all the pixels.

S630では、CPU210は、注目特定色領域が原色領域であるか二次色領域であるかを判断する。例えば、注目特定色領域の平均色値(HSV値)のH値が原色範囲にある場合には、注目特定色領域は原色領域であると判断され、該H値が二次色範囲にある場合には、注目特定色領域は二次色領域であると判断される。注目特定色領域が原色領域である場合には(S630:YES)、S640にて、CPU210は、注目特定色領域の各画素のCMYK値の4個の成分値のうち、原色に対応する成分とは異なる3個の成分値を補正する。例えば、注目特定色領域がシアン(C)領域である場合には、C値を除いた3個の成分値(すなわち、M値、Y値、K値)が補正の対象となる。同様に、注目特定色領域がマゼンタ(M)領域である場合には、C値、Y値、K値が補正の対象となる。注目特定色領域がイエロ(Y)領域である場合には、C値、M値、K値が補正の対象となる。 In S630, CPU 210 determines whether the specific color area of interest is a primary color area or a secondary color area. For example, if the H value of the average color value (HSV value) of the specific color area of interest is in the primary color range, the specific color area of interest is determined to be the primary color area, and if the H value is in the secondary color range , the specific color area of interest is determined to be a secondary color area. If the specific color area of interest is a primary color area (S630: YES), in S640 the CPU 210 selects the component corresponding to the primary color among the four component values of the CMYK values of each pixel in the specific color area of interest. corrects for three different component values. For example, if the specific color area of interest is a cyan (C) area, three component values (that is, M value, Y value, and K value) excluding the C value are subject to correction. Similarly, when the specific color area of interest is a magenta (M) area, the C value, Y value, and K value are subject to correction. When the specific color area of interest is a yellow (Y) area, the C value, M value, and K value are subject to correction.

図10は、補正に用いられるトーンカーブの一例を示す図である。CPU210は、注目特定色領域内の各画素の補正対象の各成分値に対して、図10のトーンカーブを適用する。この結果、補正対象の各成分値は、低減されて、補正前よりも小さな値に変換される。具体的には、閾値Vth(例えば、10)未満の補正対象の成分値は、全て最小値(0)に変換される。閾値Vth以上255未満の補正対象の成分値は、トーンカーブに従って補正前よりも小さな値に変換される。なお、トーンカーブでは、最大値(255)は、変換後も最大値(255)のまま維持されるが、原色領域のCMYK値では、補正対象の各成分値は、比較的小さな値であり、最大値であることはないと考えられる。 FIG. 10 is a diagram showing an example of a tone curve used for correction. The CPU 210 applies the tone curve of FIG. 10 to each correction target component value of each pixel in the specific color region of interest. As a result, each component value to be corrected is reduced and converted to a smaller value than before correction. Specifically, all component values to be corrected that are less than the threshold Vth (eg, 10) are converted to the minimum value (0). A component value to be corrected that is greater than or equal to the threshold value Vth and less than 255 is converted to a value smaller than before correction according to the tone curve. In the tone curve, the maximum value (255) is maintained as the maximum value (255) even after conversion, but in the CMYK values of the primary color area, each component value to be corrected is a relatively small value, It is considered not to be the maximum value.

注目特定色領域が二次色領域である場合には(S630:NO)、S650にて、CPU210は、注目特定色領域の各画素のCMYK値の4個の成分値のうち、二次色に対応する成分とは異なる2個の成分値を補正する。例えば、非特定色領域がブルー(B)領域である場合には、C値とM値を除いた2個の成分値(すなわち、Y値、K値)が補正の対象となる。同様に、注目特定色領域がレッド(R)領域である場合には、M値とY値とを除いたC値とK値とが補正の対象となる。注目特定色領域がグリーン(G)領域である場合には、Y値とC値とを除いたM値とK値とが補正の対象となる。 If the specific color area of interest is a secondary color area (S630: NO), in S650 the CPU 210 selects the secondary color among the four component values of the CMYK values of each pixel in the specific color area of interest. Correct two component values that differ from the corresponding component. For example, if the non-specific color area is a blue (B) area, two component values (ie, Y value and K value) excluding C value and M value are subject to correction. Similarly, when the specific color area of interest is a red (R) area, the C value and K value excluding the M value and Y value are subject to correction. When the specific color area of interest is the green (G) area, the M value and K value excluding the Y value and C value are subject to correction.

CPU210は、注目特定色領域内の各画素の補正対象の各成分値に対して、図10のトーンカーブを適用する。この結果、補正対象の各成分値は、低減されて、補正前よりも小さな値に変換される。 The CPU 210 applies the tone curve of FIG. 10 to each correction target component value of each pixel in the specific color region of interest. As a result, each component value to be corrected is reduced and converted to a smaller value than before correction.

S660では、CPU210は、処理済み画像FI内の全ての特定色領域を注目特定色領域として処理したか否かを判断する。未処理の特定色領域がある場合には(S660:NO)、CPU210は、S610に処理を戻す。全ての特定色領域が処理された場合には(S660:YES)、CPU210は、特定色領域に対する色変換処理を終了する。 In S660, the CPU 210 determines whether or not all the specific color areas in the processed image FI have been processed as the target specific color area. If there is an unprocessed specific color area (S660: NO), the CPU 210 returns the process to S610. When all the specific color areas have been processed (S660: YES), the CPU 210 terminates the color conversion process for the specific color areas.

特定色領域に対する色変換処理を終了すると、処理済み画像FIの全ての画素のRGB値がCMYK値に変換され、図5の色変換処理は終了される。 When the color conversion process for the specific color area is finished, the RGB values of all pixels of the processed image FI are converted to CMYK values, and the color conversion process of FIG. 5 is finished.

以上説明した本実施例では、イメージセンサを用いて生成されるスキャンデータを対象画像データとして取得する処理(図2のS10)を実行するCPU210が、画像取得部の一例である。スキャンデータを用いて、スキャンデータに基づく処理済み画像FI内の特定色領域を特定する処理(図2のS30、S40、図5のS300、S310、図6、図8)を実行するCPU210が、第1の領域特定部の一例である。特定色領域は、原色と二次色とのうちのいずれかである特定色で表されるべき領域である。特定済みの特定色領域内の複数個の画素の値に対して特定成分を低減する補正を実行して、補正済画像データ(色変換処理後の処理済み画像データ)を生成する処理を(図5のS330、図9)実行するCPU210が、補正部の一例である。特定成分は、上述したように、特定色(例えば、C)に対応する成分(例えば、C成分)とは異なる成分(例えば、M、Y、K成分)である。 In the embodiment described above, the CPU 210 that executes the process (S10 in FIG. 2) of acquiring scan data generated using an image sensor as target image data is an example of an image acquisition unit. The CPU 210 that uses the scan data to execute the processing (S30 and S40 in FIG. 2, S300 and S310 in FIG. 5, FIG. 6 and FIG. 8) for specifying a specific color region in the processed image FI based on the scan data, It is an example of a first region specifying unit. A specific color area is an area to be represented by a specific color that is either a primary color or a secondary color. Processing to generate corrected image data (processed image data after color conversion processing) by performing correction to reduce specific components for the values of multiple pixels in the specified specific color area (Fig. 5 (S330, FIG. 9) is an example of the correction unit. As described above, the specific component is a component (eg, M, Y, K components) different from the component (eg, C component) corresponding to the specific color (eg, C).

イメージセンサの読取特性に起因して、特定色領域に、原色や二次色に対応する成分とは異なる成分が混じると、画質が低下する場合がある。本実施例によれば、原色や二次色などの特定色領域内の複数個の画素の値に対して特定成分を低減する補正が実行されるので、原色や二次色に特定成分が混じることで画質が低下することを抑制できる。この結果、イメージセンサを用いて生成される画像データが用いられる場合に、イメージセンサの読取特性に起因する画質の低下を抑制することができる。 Due to the reading characteristics of the image sensor, image quality may be degraded when a specific color area contains components different from the components corresponding to the primary and secondary colors. According to this embodiment, since the correction for reducing the specific component is performed on the values of a plurality of pixels in the specific color area such as the primary color and the secondary color, the specific component is mixed in the primary color and the secondary color. By doing so, it is possible to suppress deterioration in image quality. As a result, when image data generated using an image sensor is used, deterioration in image quality due to reading characteristics of the image sensor can be suppressed.

例えば、CMYK表色系の原色であるイエロ(Y)の原稿を読み取った場合を考える。この場合には、原理的には、スキャンデータの画素のRGB値は、R値とG値とが最大値に近い大きな値となり、B値は0になる。しかしながら、イメージセンサの特性(例えば、RGBのフィルタの分光特性)などに起因して、B値も0より大きな値となり得る。 For example, consider the case of reading a yellow (Y) document, which is the primary color of the CMYK color system. In this case, in principle, the RGB values of the pixels of the scan data are such that the R value and the G value are large values close to the maximum values, and the B value is zero. However, the B value can also be a value greater than 0 due to the characteristics of the image sensor (for example, spectral characteristics of RGB filters).

また、原稿は、一般的に、印刷物であることが多い。印刷物である原稿のYの領域を読み取ったスキャンデータには、0より大きなB値を含むRGB値が含まれやすい。図11は、原稿の原色の領域の概念図である。印刷物である原稿のYの領域YAは、マクロな視点では均一なYの領域であるが、図11に示すように、ミクロな視点では、網点領域である。網点領域は、インクやトナーなどの色材で形成されるYドットDTが形成された領域と、用紙の地色(白色)が露出した白領域WAと、が混在した領域である。このために、イメージセンサがYドットDTを読み取る際には、生成されるRGB値のB値はほぼ0になるが、イメージセンサが白領域WAを読み取る際には、生成されるRGB値のB値は0より大きな値となる。このようなイメージセンサの読取特性によって、原稿上のYの領域は、例えば、印刷などによって出力される際には、Yで表されるべき領域であるにも拘わらずに、該原稿を読み取ったスキャンデータには、該Yの領域内のRGB値に0より大きなB値が混じってしまう。このB値に起因して、例えば、スキャンデータによって示される画像や該スキャンデータを用いて印刷される画像において、Yで表されるべき領域に、濁りが生じる場合がある。このような不都合は、Yの領域に限らず、シアン(C)、マゼンタ(M)などのCMYK表色系の他の原色やR、G、BなどのCMYK表色系の二次色の領域でも発生する。本実施例によれば、このような原色および二次色の濁りを低減して、画質の低下を抑制することができる。 Also, the manuscript is generally a printed matter in many cases. Scan data obtained by reading the Y area of a document, which is a printed matter, tends to include RGB values including a B value greater than zero. FIG. 11 is a conceptual diagram of the primary color areas of the document. A Y area YA of a document, which is a printed matter, is a uniform Y area from a macroscopic point of view, but is a halftone dot area from a microscopic point of view, as shown in FIG. A halftone dot area is an area in which an area in which Y dots DT made of a coloring material such as ink or toner are formed and a white area WA in which the base color (white) of the paper is exposed are mixed. For this reason, when the image sensor reads the Y dots DT, the B value of the generated RGB values is approximately 0, but when the image sensor reads the white area WA, the B value of the generated RGB values is approximately 0. The value is greater than 0. Due to such reading characteristics of the image sensor, the document is read even though the area of Y on the document should be represented by Y when output by printing, for example. In the scan data, B values greater than 0 are mixed with the RGB values in the Y area. Due to this B value, for example, in an image indicated by the scan data or an image printed using the scan data, an area to be represented by Y may become cloudy. Such inconveniences are not limited to the Y area, but include other primary colors of the CMYK color system such as cyan (C) and magenta (M), and secondary colors of the CMYK color system such as R, G, and B. It happens though. According to this embodiment, it is possible to reduce the turbidity of such primary colors and secondary colors, thereby suppressing deterioration in image quality.

さらに、上記実施例では、補正済画像データ(色変換処理後の処理済み画像データ)を用いて、CMYKの色材を用いて印刷を実行するための印刷データを生成する処理(図2のS50)を実行するCPU210が、生成部の一例である。特定成分を低減する補正は、CMYKの色材に対応する特定成分を低減させる補正である(図10)。従って、当該補正は、CMYKの色材のうち、少なくとも1個の色材の使用量を低減する補正である、と言うことができる。この結果、スキャンデータを用いて印刷が行われる場合に、イメージセンサの読取特性に起因する印刷画像の画質の低下を抑制することができる。 Furthermore, in the above embodiment, the corrected image data (processed image data after color conversion processing) is used to generate print data for printing using CMYK color materials (S50 in FIG. 2). ) is an example of the generator. The correction for reducing specific components is correction for reducing specific components corresponding to CMYK colorants (FIG. 10). Therefore, it can be said that the correction is a correction for reducing the usage amount of at least one of the CMYK colorants. As a result, when printing is performed using scan data, it is possible to suppress deterioration in the image quality of the printed image due to the reading characteristics of the image sensor.

例えば、CMYK表色系の原色(例えば、C)は、原色に対応する1種類の色材(例えば、Cの色材)のみを用いて印刷されるべき色である。このために、印刷画像における原色の領域に、原色に対応する色材とは異なる少量の色材(例えば、M、Y、Kの色材)が印刷画像に混じると、例えば、3種類以上の色材を用いて印刷されるべき色の領域と比較して、当該少量の色材による色の濁りが目立ちやすい。同様に、CMYK表色系の二次色(例えば、B)は、二次色に対応する2種類の色材(例えば、C、M)のみを用いて印刷されるべき色である。このために、印刷画像における二次色の領域に、二次色に対応する色材とは異なる少量の色材(例えば、Y、Kの色材)が印刷画像に混じると、例えば、3種類以上の色材を用いて印刷されるべき色の領域と比較して、当該少量の色材による色の濁りが目立ちやすい。本実施例によれば、色の濁りが目立ちやすい原色や二次色の濁りを適切に低減できるので、印刷画像の画質の低下を効果的に抑制することができる。 For example, a primary color (eg, C) in the CMYK color system is a color that should be printed using only one type of colorant (eg, C colorant) corresponding to the primary color. For this reason, when a small amount of colorants (for example, M, Y, and K colorants) different from the colorants corresponding to the primary colors are mixed in the printed image in the primary color areas, for example, three or more kinds of Compared with the color area to be printed using the coloring material, the color turbidity due to the small amount of coloring material is easily noticeable. Similarly, a secondary color (for example, B) in the CMYK color system is a color that should be printed using only two types of colorants (for example, C and M) corresponding to the secondary color. For this reason, when a small amount of colorants (for example, Y and K colorants) different from the colorants corresponding to the secondary colors are mixed in the printed image in the secondary color region, for example, three kinds of Compared with the color area to be printed using the above coloring materials, the color turbidity due to the small amount of coloring materials is easily noticeable. According to the present embodiment, it is possible to appropriately reduce the turbidity of the primary colors and secondary colors in which the turbidity of the colors tends to be conspicuous, so that it is possible to effectively suppress the deterioration of the image quality of the printed image.

さらに、上記実施例によれば、対象画像データとしてのスキャンデータは、RGB表色系の色値(RGB値)で画素ごとの色を示すRGB画像データである。RGB表色系では、原色がR、G、Bであり、二次色がC、M、Yである。したがって、特定色は、RGB表色系の原色または二次色とも言うことができる。また、RGB表色系は、イメージセンサによって出力される複数個の信号(R信号、G信号、B信号)に対応する成分を含む表色系である。このように、本実施例によれば、RGBの3個の成分値のうち、理想的には0であるべき成分値が、イメージセンサの読取特性に起因して、0より大きな値になる場合に、当該0であるべき成分値を低減するように補正が行われるので、スキャンデータに基づく画像の画質の低下を効果的に抑制することができる。 Furthermore, according to the above embodiment, the scan data as the target image data is RGB image data that indicates the color of each pixel with the color values (RGB values) of the RGB color system. In the RGB color system, the primary colors are R, G, and B, and the secondary colors are C, M, and Y. Therefore, the specific color can also be said to be a primary color or secondary color of the RGB color system. Also, the RGB color system is a color system including components corresponding to a plurality of signals (R signal, G signal, B signal) output by the image sensor. As described above, according to this embodiment, among the three component values of RGB, the component value that should ideally be 0 becomes a value greater than 0 due to the reading characteristics of the image sensor. In addition, correction is performed so as to reduce the component value that should be 0, so it is possible to effectively suppress deterioration in the image quality of the image based on the scan data.

さらに、上記実施例によれば、色変換部としてのCPU210は、処理済み画像データの画素の値をRGB値からCMYK値に変換する色変換処理を実行する(図5のS320、図9のS620)。補正部としてのCPU210は、特定色領域内の複数個の画素のCMYK値に対して特定成分を低減する補正を実行する(図9のS640、650)。この結果、例えば、RGB値に対して補正を行う場合と比較して、特定成分に対応する色材の使用量を適切に低減できる。したがって、特定成分に対応する少量の色材が混じることに起因する印刷画像の画質の低下を効果的に抑制することができる。 Furthermore, according to the above embodiment, the CPU 210 as the color conversion unit executes color conversion processing for converting the pixel values of the processed image data from RGB values to CMYK values (S320 in FIG. 5, S620 in FIG. 9). ). The CPU 210 as a correction unit performs correction for reducing the specific component on the CMYK values of a plurality of pixels within the specific color area (S640, 650 in FIG. 9). As a result, for example, compared to the case where the RGB values are corrected, the usage amount of the colorant corresponding to the specific component can be appropriately reduced. Therefore, it is possible to effectively suppress the deterioration of the image quality of the printed image due to the mixture of a small amount of the coloring material corresponding to the specific component.

さらに、上記実施例によれば、第1の領域特定部としてのCPU210は、処理済み画像FIに設定される複数個のブロックBLのそれぞれについて、ブロックBL内の複数個の画素の値を用いてブロックBLが特定色領域であるか否かを判定する(図5のS300、S310、図6、図8)。これによって、特定色領域が特定される。この結果、処理済み画像FI内の特定色領域を適切に特定することができる。 Furthermore, according to the above-described embodiment, the CPU 210 as the first area specifying unit uses the values of the pixels in each of the blocks BL set in the processed image FI to It is determined whether or not the block BL is a specific color area (S300, S310 in FIG. 5, FIGS. 6 and 8). Thereby, the specific color area is specified. As a result, the specific color area within the processed image FI can be appropriately specified.

さらに、上記実施例では、スキャンデータを用いてスキャン画像SI内の文字領域と非文字領域とを特定する処理(図2のS20)を実行するCPU210は、第2の領域特定部の一例である。非文字領域に対して平滑化処理を実行する処理(図2のS30)を実行するCPU210は、平滑処理部の一例である。CPU210は、平滑化処理済みのスキャンデータ(すなわち、処理済み画像データ)を用いて特定色領域を特定する(図5のS300、S310)。この結果、平滑化処理済みのスキャンデータを用いて、特定色領域を特定するので、平滑化処理前のスキャンデータを用いる場合よりも、網点領域に含まれる特定色領域を適切に特定することができる。 Furthermore, in the above-described embodiment, the CPU 210 that executes the process (S20 in FIG. 2) of specifying character areas and non-character areas in the scanned image SI using scan data is an example of the second area specifying unit. . The CPU 210 that executes the process (S30 in FIG. 2) of executing the smoothing process on the non-character area is an example of the smoothing processing section. The CPU 210 identifies the specific color area using the smoothed scan data (that is, the processed image data) (S300, S310 in FIG. 5). As a result, since the specific color area is specified using the smoothed scan data, the specific color area included in the halftone dot area can be specified more appropriately than when the scan data before the smoothing process is used. can be done.

例えば、上述のように、網点領域は、マクロの視点では均一であっても、ミクロの視点ではドット(網点)の色や用紙の地色が混在しており不均一である。このために、仮に平滑化処理前のスキャンデータに対して図5の単一判定処理が行われる場合には、マクロの視点では均一な領域が、単一領域として適切に決定できない場合がある。この場合には、マクロの視点では均一な原色や二次色の領域を、特定色領域として適切に決定できない場合がある。本実施例によれば、平滑化処理済みのスキャンデータを用いるので、網点領域がミクロの視点でも均一にされた後に単一判定処理が行われる。この結果、マクロの視点では均一な原色や二次色の領域を、特定色領域として適切に決定することができる。 For example, as described above, even if the halftone dot area is uniform from a macroscopic point of view, it is uneven from a microscopic point of view because the color of the dots (halftone dots) and the ground color of the paper are mixed. For this reason, if the single determination process of FIG. 5 is performed on the scan data before the smoothing process, a uniform area may not be appropriately determined as a single area from a macro viewpoint. In this case, it may not be possible to appropriately determine a uniform primary color or secondary color region as the specific color region from a macro viewpoint. According to this embodiment, since smoothed scan data is used, the single determination process is performed after the halftone dot area has been made uniform even from a micro viewpoint. As a result, a uniform primary color or secondary color area can be appropriately determined as the specific color area from a macro viewpoint.

さらに、上記実施例によれば、CPU210は、平滑化処理済みのスキャンデータを用いて、特定成分を低減する補正を実行する(図4のS330)。この結果、平滑化処理前のスキャンデータを用いる場合よりも、補正後の特定色領域の画質を向上できる。例えば、補正対象の画像において、特定色(原色や二次色)の比較的広い部分がある場合には、当該部分には同じ色の複数個の特定色領域が連続して並ぶ。当該部分に色ムラがあると、補正後において複数個の特定色領域の間で色の違いが生じ得る。この場合には、補正後の画像にブロックノイズが発生して画質が低下し得る。本実施例によれば、平滑化処理をスキャンデータに行うことで、特定色領域が連続して並ぶ部分に生じる色ムラを低減できる。したがって、平滑化処理済みのスキャンデータを用いて特定成分を低減する補正を実行することで、補正後の画像にブロックノイズが発生することを抑制して、補正後の画像の画質を向上できる。 Furthermore, according to the above embodiment, the CPU 210 uses the smoothed scan data to perform correction to reduce the specific component (S330 in FIG. 4). As a result, the image quality of the specific color region after correction can be improved more than when using scan data before smoothing processing. For example, if the image to be corrected has a relatively wide portion of a specific color (primary color or secondary color), a plurality of specific color areas of the same color are continuously arranged in that portion. If there is color unevenness in that portion, color differences may occur between a plurality of specific color regions after correction. In this case, block noise may occur in the corrected image and the image quality may be degraded. According to this embodiment, by performing the smoothing process on the scan data, it is possible to reduce color unevenness that occurs in a portion where the specific color regions are continuously arranged. Therefore, by performing correction for reducing the specific component using the smoothed scan data, it is possible to suppress the occurrence of block noise in the corrected image and improve the image quality of the corrected image.

さらに、上記実施例によれば、特定色領域は、色相(例えばH値)が原色と二次色とのうちのいずれかに対応する範囲であり、かつ、彩度(例えばS値)および明度(例えばV値)が基準以上である色で表される領域である(図8のS530~S550)。彩度および明度が基準以上である領域では、原色や二次色に特定成分が混じる場合に、彩度および明度が基準未満である領域よりも画質の低下が目立ちやすい。上記構成によれば、画質の低下が目立ちやすい特定色領域における画質の低下を効果的に抑制することができる。 Furthermore, according to the above embodiment, the specific color region is a range in which the hue (e.g., H value) corresponds to either the primary color or the secondary color, and the saturation (e.g., S value) and lightness (eg, V value) is a region represented by a color greater than or equal to a reference (S530 to S550 in FIG. 8). In areas where the saturation and lightness are equal to or higher than the standards, deterioration in image quality is more noticeable than in areas where the saturation and lightness are below the standards when a specific component is mixed with the primary color or secondary color. According to the above configuration, it is possible to effectively suppress deterioration of image quality in a specific color region in which deterioration of image quality is likely to be conspicuous.

以上の説明から解るように、RGB表色系は、第1の表色系の例であり、CMYK表色系は、第2の表色系の例である。 As can be seen from the above description, the RGB color system is an example of the first color system, and the CMYK color system is an example of the second color system.

B.変形例
(1)上記実施例では、CMYK表色系の原色であるC、M、Yと二次色であるR、G、Bとを特定色として、図9のS640、S650の補正の対象とされている。これに限らず、他の表色系の原色や二次色がS640、S650の補正の対象とされても良い。例えば、複合機200の読取実行部290が、C、M、Yに加えて、ライトシアン(LC)やライトマゼンタ(LM)を用いて印刷される場合には、C、M、Y、LC、LMの5つの成分の表色系で印刷画像が表現される。この場合には、例えば、C、M、Yの原色に加えて、LCの印刷材のみを用いて表現される原色やLMの印刷材のみを用いて表現される原色を補正の対象としても良い。
B. Modification (1) In the above embodiment, C, M, and Y, which are primary colors of the CMYK color system, and R, G, and B, which are secondary colors, are designated as specific colors, and are subject to correction in S640 and S650 in FIG. It is said that The corrections in S640 and S650 may be performed on primary colors and secondary colors of other color systems without being limited to this. For example, when the reading execution unit 290 of the MFP 200 prints using light cyan (LC) and light magenta (LM) in addition to C, M, and Y, C, M, Y, LC, and LM A printed image is represented by a color system of five components. In this case, for example, in addition to the C, M, and Y primary colors, the primary colors expressed using only the LC printing material or the primary colors expressed using only the LM printing material may be corrected. .

(2)上記実施例では、特定色領域内の画素のRGB値をCMYK値に変換した後に、CMYK値に対して補正を行っている。これに代えて、例えば、特定色領域内の各画素のRGB値に対して補正を行ってもよい。この場合は、RGB表色系の原色であるRの特定色領域に対しては、G値とB値を低減する補正が実行される。例えば、補正後のRGB値がCMYK値に変換される。また、Gの特定色領域に対してはR値とB値を低減する補正が実行される。Bの特定色領域に対してはR値とG値を低減する補正が実行される。また、RGB表色系の二次色であるCの特定色領域に対してはR値を低減する補正が実行される。Mの特定色領域に対してはG値を低減する補正が実行され、Yの特定色領域に対してはB値を低減する補正が実行される。また、特定色領域内の各画素のRGB値に対して補正を行ったあと、CMYK値に色変換することなく、補正後のRGB値で表される画像を、例えば表示部により出力してもよい。 (2) In the above embodiment, the CMYK values are corrected after converting the RGB values of the pixels in the specific color area into CMYK values. Alternatively, for example, the RGB values of each pixel within the specific color area may be corrected. In this case, correction for reducing the G value and the B value is performed for the specific color region of R, which is the primary color of the RGB color system. For example, corrected RGB values are converted to CMYK values. Further, correction for reducing the R value and the B value is performed for the G specific color area. Correction to reduce the R value and the G value is performed on the specific color region of B. FIG. Further, a correction to reduce the R value is performed on a specific color region of C, which is a secondary color in the RGB color system. Correction to reduce the G value is performed on the M specific color region, and correction to reduce the B value is performed on the Y specific color region. Alternatively, after correcting the RGB values of each pixel in the specific color region, an image represented by the corrected RGB values may be output by, for example, a display unit without color conversion to CMYK values. good.

(3)なお、上記実施例では、ブロックBLごとに特定色領域であるか否かが判断され、特定色領域である場合に、当該特定色領域内の画素の値が補正される。これに代えて、画素ごとに、特定色を有するか否かが判断され、特定色を有する場合に、当該画素の値が補正されても良い。 (3) In the above embodiment, it is determined for each block BL whether or not it is a specific color area, and if it is a specific color area, the pixel values within the specific color area are corrected. Alternatively, it may be determined whether each pixel has a specific color, and if it has a specific color, the value of the pixel may be corrected.

(4)なお、上記実施例では、文字領域と非文字領域とを特定し(図2のS20)、非文字領域に対して平滑化処理が実行された(図2のS30)後に、特定色領域の特定と特定色領域に対する補正(図2のS45)が実行される。これに代えて、文字領域と非文字領域とを特定することなく、全体に平滑化処理が実行された後に、特定色領域の特定と特定色領域に対する補正が実行されても良い。また、文字領域の特定や平滑化処理が行われることなく、特定色領域の特定と特定色領域に対する補正が実行されても良い。 (4) In the above embodiment, the character area and the non-character area are identified (S20 in FIG. 2), and after the non-character area is smoothed (S30 in FIG. 2), the specific color Area identification and correction for the specific color area (S45 in FIG. 2) are executed. Alternatively, the specific color area may be specified and the correction for the specific color area may be performed after the smoothing process is performed on the entire area without specifying the character area and the non-character area. Alternatively, the specific color area may be specified and the correction for the specific color area may be performed without specifying the character area and performing the smoothing process.

(5)また、上記実施例では、彩度および明度が基準以上であることが単一領域が特定色領域として決定されるための条件である(図8のS530、S535)。これに代えて、色相のみに基づいて単一領域が特定色領域として決定されても良いし、明度と色相のみ、あるいは、彩度と色相のみに基づいて単一領域が特定色領域として決定されても良い。 (5) In the above embodiment, the condition for determining a single area as a specific color area is that the saturation and brightness are equal to or higher than the reference (S530, S535 in FIG. 8). Alternatively, a single region may be determined as the specific color region based only on hue, or a single region may be determined as the specific color region based on only lightness and hue, or only saturation and hue. can be

(6)上記実施例では、図2のS50では、色変換処理後の処理済み画像データを用いて印刷データが生成される。これに代えて、色変換処理後の処理済み画像データを用いて、保存用の画像データ(例えば、PDFファイル)が生成されても良い。 (6) In the above embodiment, in S50 of FIG. 2, print data is generated using processed image data after color conversion processing. Alternatively, image data for storage (for example, a PDF file) may be generated using processed image data after color conversion processing.

(7)図2の画像処理を実現する画像処理装置は、複合機200に限らず、種々の装置であってよい。例えば、スキャナやデジタルカメラが、自身で生成された対象画像データを用いて、プリンタに供給するための印刷データを生成するために、図2の画像処理を実行しても良い。また、例えば、スキャナやプリンタと通信可能な接続される端末装置(例えば、端末装置100)やサーバ(図示省略)が、スキャナから取得したスキャンデータを用いて、図2の画像処理を実行して、印刷データを生成し、該印刷データをプリンタに供給しても良い。また、ネットワークを介して互いに通信可能な複数個のコンピュータ(例えば、クラウドサーバ)が、画像処理に要する機能を一部ずつ分担して、全体として、画像処理を実行してもよい。この場合、複数個のコンピュータの全体が、画像処理装置の例である。 (7) The image processing apparatus that implements the image processing in FIG. 2 is not limited to the multifunction machine 200, and may be various apparatuses. For example, the image processing of FIG. 2 may be executed by a scanner or digital camera to generate print data to be supplied to a printer using target image data generated by itself. Further, for example, a terminal device (for example, the terminal device 100) or a server (not shown) connected to be able to communicate with a scanner or printer executes the image processing of FIG. 2 using the scan data acquired from the scanner. may generate print data and supply the print data to the printer. Also, a plurality of computers (for example, a cloud server) that can communicate with each other via a network may share functions required for image processing, and execute image processing as a whole. In this case, the entirety of a plurality of computers is an example of an image processing device.

(8)上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部あるいは全部をハードウェアに置き換えるようにしてもよい。例えば、図2の画像処理の一部の処理(例えば、図5のS230の非特定色領域に対する色変換処理)は、ASICなどの専用のハードウェアによって、実行されても良い。 (8) In each of the above embodiments, part of the configuration implemented by hardware may be replaced with software, or conversely, part or all of the configuration implemented by software may be replaced with hardware. You may do so. For example, a part of the image processing in FIG. 2 (for example, color conversion processing for non-specific color areas in S230 in FIG. 5) may be executed by dedicated hardware such as ASIC.

以上、実施例、変形例に基づき本発明について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれる。 Although the present invention has been described above based on examples and modifications, the above-described embodiments of the present invention are intended to facilitate understanding of the present invention, and are not intended to limit the present invention. The present invention may be modified and modified without departing from the spirit and scope of the claims, and the present invention includes equivalents thereof.

100…端末装置、200…複合機、210…CPU、220…揮発性記憶装置、230…不揮発性記憶装置、240…表示部、250…操作部、270…通信IF、280…印刷実行部、290…読取実行部、PG…コンピュータプログラム、CT…色変換テーブル DESCRIPTION OF SYMBOLS 100... Terminal device, 200... MFP, 210... CPU, 220... Volatile memory device, 230... Non-volatile memory device, 240... Display part, 250... Operation part, 270... Communication IF, 280... Print execution part, 290 ... reading execution part, PG ... computer program, CT ... color conversion table

Claims (9)

画像処理装置であって、
イメージセンサを用いて生成される対象画像データを取得する画像取得部と、
前記対象画像データを用いて、前記対象画像データに基づく対象画像内の特定色領域を特定する第1の領域特定部であって、前記特定色領域は、特定の表色系の3個以上の成分うちの1個の成分に対応する色である原色と2個の成分に対応する色である二次色とのうちのいずれかである特定色で表されるべき領域である、前記第1の領域特定部と、
特定済みの前記特定色領域内の複数個の画素の値に対して特定成分を低減する補正を実行して補正済画像データを生成する補正部であって、前記特定成分は、前記特定色に対応する成分とは異なる成分である、前記補正部と、
前記対象画像データを用いて、前記対象画像内の文字を示す文字領域と文字とは異なる画像を示す非文字領域とを特定する第2の領域特定部と、
前記非文字領域に対して平滑化処理を実行する平滑化処理部と、
を備え
前記補正部は、前記平滑化処理済みの前記対象画像データを用いて、前記平滑化処理済みの部分に対して、前記特定成分を低減する補正を実行する、画像処理装置。
An image processing device,
an image acquisition unit that acquires target image data generated using an image sensor;
A first area identifying unit that uses the target image data to identify a specific color area within a target image based on the target image data, wherein the specific color area is three or more colors of a specific color system. a region to be represented by a specific color that is either a primary color that is a color corresponding to one of the components or a secondary color that is a color corresponding to two components; a region identifying part of
A correcting unit that performs correction for reducing a specific component on values of a plurality of pixels in the specified specific color region to generate corrected image data, wherein the specific component is the specific color. The correction unit, which is a component different from the corresponding component;
a second region specifying unit that specifies a character region representing a character and a non-character region representing an image different from the character in the target image using the target image data;
a smoothing processing unit that performs smoothing processing on the non-character area;
with
The image processing device , wherein the correcting unit uses the smoothed target image data to perform correction for reducing the specific component on the smoothed portion .
請求項1に記載の画像処理装置であって、 The image processing device according to claim 1,
前記第1の領域特定部は、さらに、前記対象画像データを用いて、前記対象画像内の前記特定色領域とは異なる領域である非特定色領域を特定し、 The first area specifying unit further uses the target image data to specify a non-specific color area that is different from the specific color area in the target image,
前記補正部は、特定済みの前記特定色領域内の複数個の画素の値に対して前記特定成分を低減する補正を実行し、特定済みの前記非特定色領域内の複数個の画素の値に対して前記特定成分を低減する補正を実行しない、画像処理装置。 The correcting unit performs correction to reduce the specific component with respect to the values of the plurality of pixels in the specified color area, and the values of the plurality of pixels in the specified non-specific color area. image processing device that does not perform correction to reduce the specific component for
請求項1または2に記載の画像処理装置であって、さらに、
前記補正済画像データを用いて、複数個の色材を用いて印刷を実行するための印刷データを生成する生成部を備え、
前記特定成分を低減する補正は、前記複数個の色材のうち、少なくとも1個の色材の使用量を低減する補正である、画像処理装置。
The image processing device according to claim 1 or 2 , further comprising:
a generation unit that uses the corrected image data to generate print data for executing printing using a plurality of color materials;
The image processing device, wherein the correction for reducing the specific component is correction for reducing the amount of use of at least one colorant among the plurality of colorants.
請求項に記載の画像処理装置であって、
前記対象画像データは、前記イメージセンサによって出力される複数個の信号に対応する成分を含む第1の表色系の色値で画素ごとの色を示す画像データである、画像処理装置。
The image processing device according to claim 3 ,
The image processing apparatus, wherein the target image data is image data indicating a color for each pixel with a color value of a first color system including components corresponding to a plurality of signals output from the image sensor.
請求項に記載の画像処理装置であって、さらに、
前記対象画像データの各画素の値を、前記第1の表色系の色値から、前記複数個の色材に対応する複数個の成分を有する第2の表色系の色値に変換して、変換済画像データを生成する色変換部を備え、
前記補正部は、前記変換済画像データにおける前記特定色領域内の前記複数個の画素の前記第2の表色系の色値に対して前記特定成分を低減する補正を実行して、前記補正済画像データを生成する、画像処理装置。
The image processing device according to claim 4 , further comprising:
converting a value of each pixel of the target image data from a color value of the first color system to a color value of a second color system having a plurality of components corresponding to the plurality of color materials; a color conversion unit for generating converted image data,
The correcting unit performs correction to reduce the specific component with respect to the color values of the plurality of pixels in the specific color area in the converted image data in the second color system, thereby performing the correction. An image processing device that generates processed image data.
請求項1~のいずれかに記載の画像処理装置であって、
前記第1の領域特定部は、前記対象画像に設定される複数個のブロックのそれぞれについて、前記ブロック内の複数個の画素の値を用いて前記ブロックが前記特定色領域であるか否かを判定することによって、前記特定色領域を特定する、画像処理装置。
The image processing device according to any one of claims 1 to 5 ,
The first region specifying unit determines whether each of a plurality of blocks set in the target image is the specific color region using values of a plurality of pixels in the block. An image processing device that identifies the specific color region by making a determination.
請求項1~のいずれかに記載の画像処理装置であって
前記第1の領域特定部は、前記平滑化処理済みの前記対象画像データを用いて、前記特定色領域を特定する、画像処理装置。
The image processing device according to any one of claims 1 to 6 ,
The image processing device, wherein the first region specifying unit specifies the specific color region using the smoothed target image data.
請求項1~のいずれかに記載の画像処理装置であって、
前記特定色領域は、色相が前記原色と前記二次色とのうちのいずれかに対応する範囲であり、かつ、彩度および明度が基準以上である色で表される領域である、画像処理装置。
The image processing device according to any one of claims 1 to 7 ,
wherein the specific color region is a region represented by a color whose hue corresponds to one of the primary color and the secondary color and whose saturation and lightness are equal to or higher than a reference; Device.
コンピュータプログラムであって、
イメージセンサを用いて生成される対象画像データを取得する画像取得機能と、
前記対象画像データを用いて、前記対象画像データに基づく対象画像内の特定色領域を特定する第1の領域特定機能であって、前記特定色領域は、特定の表色系の3個以上の成分うちの1個の成分に対応する色である原色と2個の成分に対応する色である二次色とのうちのいずれかである特定色で表されるべき領域である、前記第1の領域特定機能と、
特定済みの前記特定色領域内の複数個の画素の値に対して特定成分を低減する補正を実行して補正済画像データを生成する補正機能であって、前記特定成分は、前記特定色に対応する成分とは異なる成分である、前記補正機能と、
前記対象画像データを用いて、前記対象画像内の文字を示す文字領域と文字とは異なる画像を示す非文字領域とを特定する第2の領域特定機能と、
前記非文字領域に対して平滑化処理を実行する平滑化処理機能と、
をコンピュータに実現させ
前記補正機能は、前記平滑化処理済みの前記対象画像データを用いて、前記平滑化処理済みの部分に対して、前記特定成分を低減する補正を実行する、コンピュータプログラム。
A computer program,
an image acquisition function for acquiring target image data generated using an image sensor;
A first region specifying function for specifying a specific color region in a target image based on the target image data using the target image data, wherein the specific color region is three or more colors of a specific color system. a region to be represented by a specific color that is either a primary color that is a color corresponding to one of the components or a secondary color that is a color corresponding to two components; and the region-specific function of
A correction function for generating corrected image data by performing correction for reducing a specific component on values of a plurality of pixels in the specified specific color region, wherein the specific component is the specific color. The correction function, which is a component different from the corresponding component;
a second region specifying function for specifying a character region representing a character and a non-character region representing an image different from the character in the target image using the target image data;
a smoothing processing function that performs smoothing processing on the non-character area;
is realized on a computer ,
A computer program according to claim 1, wherein the correction function uses the smoothed target image data to perform correction for reducing the specific component on the smoothed portion .
JP2019024914A 2019-02-14 2019-02-14 Image processing device and computer program Active JP7205693B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019024914A JP7205693B2 (en) 2019-02-14 2019-02-14 Image processing device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019024914A JP7205693B2 (en) 2019-02-14 2019-02-14 Image processing device and computer program

Publications (2)

Publication Number Publication Date
JP2020136785A JP2020136785A (en) 2020-08-31
JP7205693B2 true JP7205693B2 (en) 2023-01-17

Family

ID=72279169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019024914A Active JP7205693B2 (en) 2019-02-14 2019-02-14 Image processing device and computer program

Country Status (1)

Country Link
JP (1) JP7205693B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005252993A (en) 2004-03-08 2005-09-15 Seiko Epson Corp Color conversion processing technology for image
JP2005295405A (en) 2004-04-02 2005-10-20 Konica Minolta Business Technologies Inc Color converting method and image processing apparatus
JP2006238321A (en) 2005-02-28 2006-09-07 Murata Mach Ltd Color-determining apparatus and color-determining method
JP2009159284A (en) 2007-12-26 2009-07-16 Nec Access Technica Ltd Color data conversion apparatus, color data conversion method and color data conversion program
JP2012231261A (en) 2011-04-25 2012-11-22 Canon Inc Image processing apparatus and control method thereof
JP2013051652A (en) 2011-08-31 2013-03-14 Brother Ind Ltd Image processing device, image reading device, and image processing program
JP2018148378A (en) 2017-03-03 2018-09-20 ブラザー工業株式会社 Image processing device and computer program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005252993A (en) 2004-03-08 2005-09-15 Seiko Epson Corp Color conversion processing technology for image
JP2005295405A (en) 2004-04-02 2005-10-20 Konica Minolta Business Technologies Inc Color converting method and image processing apparatus
JP2006238321A (en) 2005-02-28 2006-09-07 Murata Mach Ltd Color-determining apparatus and color-determining method
JP2009159284A (en) 2007-12-26 2009-07-16 Nec Access Technica Ltd Color data conversion apparatus, color data conversion method and color data conversion program
JP2012231261A (en) 2011-04-25 2012-11-22 Canon Inc Image processing apparatus and control method thereof
JP2013051652A (en) 2011-08-31 2013-03-14 Brother Ind Ltd Image processing device, image reading device, and image processing program
JP2018148378A (en) 2017-03-03 2018-09-20 ブラザー工業株式会社 Image processing device and computer program

Also Published As

Publication number Publication date
JP2020136785A (en) 2020-08-31

Similar Documents

Publication Publication Date Title
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
US8040569B2 (en) Image processing apparatus and method for contrast processing and intermediate color removal
US8482804B2 (en) Image processing apparatus and image processing method
US11233921B2 (en) Image processing apparatus that specifies edge pixel in target image using single-component image data
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP7248943B2 (en) Image processing device and computer program
JP6808325B2 (en) Image processing equipment, image processing methods and programs
US11636294B2 (en) Image forming apparatus, control method thereof, and storage medium
US9542130B2 (en) Mask based toner reduction
US10529058B2 (en) Image processing apparatus that smooths image using classification result of pixels included therein
US8610957B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
US8559080B2 (en) Image forming apparatus and computer readable medium for image forming
JP2010028314A (en) Image processing apparatus, method, and program
JP7034742B2 (en) Image forming device, its method and program
JP7205693B2 (en) Image processing device and computer program
US10339636B2 (en) Image processing apparatus that specifies edge pixel in target image by calculating edge strength
JP6171727B2 (en) Image processing device, sheet, computer program
JP7205689B2 (en) Image processing device and computer program
US10389909B2 (en) Image processing apparatus that specifies edge pixel in target image using minimum and maximum component values of pixel value in target image data
US20020126303A1 (en) Printer having scanning function, color converting device and color converting method
JP2007088741A (en) Image processing apparatus and image processing method
JP7495660B2 (en) Image processing device and computer program
JP2023129158A (en) Image processing device and computer program
US20120086985A1 (en) Image processing device, image forming apparatus, and non-transitory computer readable recording medium
JP6350877B2 (en) Image forming apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221213

R150 Certificate of patent or registration of utility model

Ref document number: 7205693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150