[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4137067B2 - Image processing method and apparatus - Google Patents

Image processing method and apparatus Download PDF

Info

Publication number
JP4137067B2
JP4137067B2 JP2005061067A JP2005061067A JP4137067B2 JP 4137067 B2 JP4137067 B2 JP 4137067B2 JP 2005061067 A JP2005061067 A JP 2005061067A JP 2005061067 A JP2005061067 A JP 2005061067A JP 4137067 B2 JP4137067 B2 JP 4137067B2
Authority
JP
Japan
Prior art keywords
image data
data
contour
image
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005061067A
Other languages
Japanese (ja)
Other versions
JP2006244277A (en
Inventor
浩 蕪木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005061067A priority Critical patent/JP4137067B2/en
Publication of JP2006244277A publication Critical patent/JP2006244277A/en
Application granted granted Critical
Publication of JP4137067B2 publication Critical patent/JP4137067B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は擬似中間調処理した画像に対して、エッジ部のジャギーを改善する画像処理方法及びその装置に関するものである。   The present invention relates to an image processing method and apparatus for improving edge jaggies with respect to an image subjected to pseudo halftone processing.

従来から、低解像のプリンタで発生するジャギーを改善する技術が、いくつか提案されている。ここでいうジャギーとは、文字のエッジ部などで発生するガタツキ(ギザギザ)のことである。その様子の一例を図18に示した。同図には複数の升目があるが、この1つ1つが1画素に相当し、図18では300dpiである。図18のように画像解像度が300dpiのように低いと、特に斜めの輪郭のエッジ部にジャギーが発生する。   Conventionally, several techniques for improving jaggy generated in a low resolution printer have been proposed. The jaggy here refers to rattling that occurs at the edge of a character. An example of this is shown in FIG. Although there are a plurality of cells in the figure, each one corresponds to one pixel, which is 300 dpi in FIG. When the image resolution is as low as 300 dpi as shown in FIG. 18, jaggy occurs particularly at the edge portion of the oblique contour.

このようなジャギーに対して、従来の技術では、パターンマッチングをおこなってパターンに一致した箇所に画像データを付加またはジャギーの原因となる画素を除去し、ジャギーを改善していた。ここでいうパターンマッチングの詳細については、公知な技術であるため、詳細な説明は省略する。特許文献1にはスムージング技術の一例が開示されている。   In contrast to such jaggies, in the conventional technique, pattern matching is performed to add image data to a portion that matches the pattern or remove pixels that cause jaggy, thereby improving jaggy. Since the details of the pattern matching here are known techniques, detailed description thereof is omitted. Patent Document 1 discloses an example of a smoothing technique.

図19に、そのジャギーを改善した例を示す。図19における(a)は、パターンマッチングで一致した画素にハーフトーンのデータを付加した様子を示している。先ほどのジャギーの発生箇所にハーフトーンデータが付加されている。特に電子写真プロセスを有するようなプリンタでは、このようなハーフトーンデータをジャギー部に付加するだけで画質を大きく改善できる効果がある。
一方、図19の(b)は、パターンマッチングで一致した画素に画素分割したデータを付加した様子を示している。画素分割とは、上記例では300dpiの1画素を複数に分割し部分的にドットを打つ技術である。ここでは、2分割を例にとって示している。画素分割の技術についても公知である為、ここでの詳細な説明は省略する。
FIG. 19 shows an example in which the jaggy is improved. (A) in FIG. 19 shows a state in which halftone data is added to pixels matched by pattern matching. Halftone data is added to the location where the jaggy is generated. Particularly in a printer having an electrophotographic process, there is an effect that the image quality can be greatly improved only by adding such halftone data to the jaggy.
On the other hand, (b) of FIG. 19 shows a state in which pixel-divided data is added to pixels matched by pattern matching. In the above example, the pixel division is a technique in which one pixel of 300 dpi is divided into a plurality of portions and dots are partially formed. Here, two divisions are shown as an example. Since the technique of pixel division is also known, detailed description thereof is omitted here.

前述した従来技術は、ジャギー部にハーフトーンのドットを付加したり、画素分割ドットを付加するものであったが、逆に、フルドットをハーフドットにしたり、フルドットを画素分割ドットにしたりするようなジャギー部の画素を薄くするような処理の場合もあり、このような処理を組み合わせることにより、前述したジャギーを改善していた。   The above-described prior art adds halftone dots or pixel division dots to the jaggy, but conversely changes full dots to half dots or full dots to pixel division dots. In some cases, such a process of thinning the pixels of the jaggy portion is performed, and the above-described jaggy is improved by combining such processes.

しかしながら、このような手法では、図20に示したような問題がある。すなわち、図20の(a)のようなハーフトーン文字に対して、擬似中間調処理、例えばスクリーン処理を施した場合、図20の(b)のようになってしまう。つまり、ハーフトーン文字の場合、プリンタの解像度である300dpi以上に粗いスクリーン解像度で擬似中間調処理を施すため、文字や細線が切れた状態になってしまう。なぜならば、プリンタの画素(ドット)を複数まとめることで擬似的にスクリーン解像度を表現することになる為、プリンタの解像度より高いスクリーン解像度を用いて疑似中間調処理を実施することは無い。例えば、通常のスクリーン解像度(線数)は133線〜175線、高くとも268線程度である。これ以上高い線数の場合、電子写真プリンタの特性で安定した画質が得られない為である。その結果、前述したパターンマッチングによるスムージングではジャギーの改善ができないという問題があった。   However, such a method has a problem as shown in FIG. That is, when pseudo halftone processing such as screen processing is performed on a halftone character as shown in FIG. 20A, the result is as shown in FIG. That is, in the case of halftone characters, the pseudo halftone process is performed at a screen resolution that is coarser than the printer resolution of 300 dpi, so that characters and fine lines are cut off. This is because the screen resolution is represented in a pseudo manner by collecting a plurality of pixels (dots) of the printer, so that the pseudo halftone process is not performed using a screen resolution higher than the resolution of the printer. For example, the normal screen resolution (number of lines) is 133 lines to 175 lines, at most about 268 lines. This is because when the number of lines is higher than this, a stable image quality cannot be obtained due to the characteristics of the electrophotographic printer. As a result, there has been a problem that jaggy cannot be improved by the above-described smoothing by pattern matching.

一方、マクロに見た文字の一部を示す図21から明らかなように、問題にしているジャギー部が、ハーフトーン画像に対してスクリーン処理を施した画像のエッジ部に現われる場合がある。このように、上述したプリンタ解像度によるジャギーはもちろんのこと、スクリーン処理で発生する低線数のジャギーも問題となる。   On the other hand, as apparent from FIG. 21 showing a part of characters seen in a macro, the jaggy part in question may appear at the edge part of the image obtained by performing the screen processing on the halftone image. Thus, not only the above-mentioned jaggy due to the printer resolution but also the low line-number jaggy generated in the screen processing becomes a problem.

さらに、JPEGのような非可逆な圧縮をかけた画像に対してスムージング処理を施そうとした場合には、圧縮による劣化で発生したモスキートノイズ(非可逆圧縮の圧縮率を高くして、ファイル容量を小さくしたとき、高域成分を含んだ映像やエッジ部分に発生するノイズ。蚊の群れがエッジ部分にまとわりついているように見えることから、画像処理技術分野においてモスキートノイズとして一般的に用いられている表現である)によって、パターンマッチング処理によってマッチすべき画像とパターンとが合致しないため、スムージング処理が実行されないといった課題もある。この場合は当然ながら、十分なスムージング効果が得られない。   In addition, when smoothing processing is performed on an image that has been subjected to lossy compression such as JPEG, the mosquito noise generated by deterioration due to compression (the compression rate of lossy compression is increased and the file capacity is increased). When noise is reduced, noise generated in images and edges that contain high-frequency components, which are commonly used as mosquito noise in the image processing technology field because mosquito swarms appear to cling to the edges. There is also a problem that the smoothing process is not executed because the image and the pattern to be matched by the pattern matching process do not match. In this case, of course, a sufficient smoothing effect cannot be obtained.

逆に、上述のようなジャギーを改善するために行うドットを付加する処理を、例えば3ポイント以下の小文字や、1ドットや2ドットの細線に対して施すと、その弊害もあった。例えば、小文字が潰れたり、斜め細線のジャギー部にコブのような塊ができたりして見える現象である。   On the other hand, when the processing for adding dots to improve jaggy as described above is performed on, for example, lower case letters of 3 points or less, or fine lines of 1 dot or 2 dots, there is a disadvantage. For example, it is a phenomenon in which lowercase letters are crushed or bumps like a lump are formed in the jaggy part of diagonal thin lines.

上記問題を解決する為の技術として、特許文献2があげられるが、特許文献2は多値画像から誤差拡散処理などによって変換された2値画像のジャギー改善を対象としているため、多値画像に対しては十分な効果が得られない。さらに、誤差拡散処理系の画像を対象としているため、様々な画像形成処理に対しての対応が難しいことが指摘されている。
特開平4−341060号 特開平10−42141号
As a technique for solving the above problem, Patent Document 2 is cited. However, since Patent Document 2 is intended to improve jaggies of a binary image converted from a multi-value image by error diffusion processing or the like, However, a sufficient effect cannot be obtained. Furthermore, it has been pointed out that it is difficult to cope with various image forming processes since the image of the error diffusion processing system is targeted.
JP-A-4-341060 JP 10-42141 A

本発明は、上記従来の問題点に鑑み、多値画像で誤差拡散処理系の画像でない種々の擬似中間調処理をした処理画像に対してジャギーを改善すると共に、ジャギー改善処理による弊害である、小文字が潰れたり、斜め細線のジャギー部にコブのような塊ができたりする現象を無くした画像処理方法及びその装置を提供する。 In view of the above-described conventional problems, the present invention improves jaggies on various pseudo-halftone processed images that are not multi-level images and images of an error diffusion processing system, and is a negative effect due to jaggy improvement processing. Provided are an image processing method and an apparatus that eliminate the phenomenon that lowercase letters are crushed or that a lump-like lump is formed in a jaggy portion of an oblique thin line.

そこで、本発明では、以下の構成により前記課題を解決した。具体的には、以下の構成を備える。   Therefore, in the present invention, the above problem has been solved by the following configuration. Specifically, the following configuration is provided.

本発明の画像処理装置は、多値画像データと、前記多値画像データを擬似中間調処理した処理画像データと、前記多値画像データの属性データとを入力し、前記処理画像データの輪郭部を補正して出力する画像処理回路を有する画像処理装置であって、前記画像処理回路が、前記多値画像データの注目画素の画像データと該画像データの属性を示す属性データに基づき、前記処理画像データの輪郭部画素の補正を行うか否かを制御する制御手段と、前記制御手段の制御に基づき、前記処理画像データの輪郭部の補正を行う輪郭部補正手段とを有し、前記属性データは、前記多値画像データの注目画素の画像データを含むオブジェクトのサイズを示すデータを含み、前記制御手段は、該オブジェクトのサイズを考慮して前記処理画像データの輪郭部画素の補正を行うか否かを制御することを特徴とする。 The image processing apparatus of the present invention inputs multi-value image data , processed image data obtained by performing pseudo halftone processing on the multi-value image data, and attribute data of the multi-value image data, and includes an outline portion of the processed image data. an image processing apparatus having an image processing circuit configured to correct, said image processing circuitry, based on said multi-value image attribute data indicating an attribute of the image data and the image data of the target pixel data, the Control means for controlling whether or not to correct pixels in the contour portion of the processed image data, and contour portion correcting means for correcting the contour portion of the processed image data based on the control of the control means , the attribute data includes data indicating the size of the object that contains the image data of the target pixel of the multivalued image data, the control means, the processed image data in consideration of the size of the object And controlling whether to perform the correction of the pixel of the contour portion.

ここで、前記属性データは、前記多値画像データの注目画素が細い、あるいは小さなオブジェクトに含まれることを表すデータを含む。また、前記属性データは、前記多値画像データの注目画素が線、グラフィック、文字のいずれかのオブジェクトに含まれることを表すデータを含む。また、前記制御手段は、前記多値画像データの注目画素の画像データと該画像データの属性を示す属性データとに基づき生成された輪郭検出用データに対応して、前記輪郭部補正手段により輪郭部画素の補正を行うか否かを制御する。また、前記輪郭部補正手段は、第1状態の前記輪郭検出用データの画素配置に基づいて輪郭部を検出して補正する第1輪郭部補正手段と、前記第1状態とは異なる第2状態の前記輪郭検出用データの画素配置に基づいて輪郭部を検出して補正する第2輪郭部補正手段とを含み、前記制御手段は、前記輪郭検出用データが第1状態の場合に前記第1輪郭部補正手段を選択し、前記輪郭検出用データが第2状態の場合に前記第2輪郭部補正手段を選択する。また、前記属性データが前記多値画像データの注目画素が細い、あるいは小さなオブジェクトに含まれることを表す場合に、前記制御手段は、前記輪郭部補正手段による輪郭部の補正を回避させる。また、前記制御手段は、前記輪郭部補正手段による輪郭部の検出を回避させる。 Here, the attribute data includes data indicating that the target pixel of the multi-valued image data is included in a thin or small object. The attribute data includes data indicating that the pixel of interest of the multi-valued image data is included in a line, graphic, or character object. Further, the control means corresponds to the contour detection data generated based on the image data of the target pixel of the multi-valued image data and the attribute data indicating the attribute of the image data by the contour correction means. Whether or not to correct the partial pixels is controlled. Further, the contour correction means is a first contour correction means for detecting and correcting the contour based on the pixel arrangement of the contour detection data in the first state, and a second state different from the first state. Second contour correction means for detecting and correcting the contour based on the pixel arrangement of the contour detection data, and the control means is configured to detect the first when the contour detection data is in the first state. The contour correction unit is selected, and the second contour correction unit is selected when the contour detection data is in the second state. Further, when the attribute data indicates that the target pixel of the multi-valued image data is included in a thin or small object, the control unit avoids the correction of the contour portion by the contour portion correcting unit. Further, the control means avoids detection of a contour portion by the contour portion correcting means.

又、本発明の画像処理回路は、多値画像データと、前記多値画像データを擬似中間調処理した処理画像データと、前記多値画像データの属性データとを入力し、前記処理画像データの輪郭部を補正してスムージング処理する画像処理回路であって、前記多値画像データの注目画素の画像データと該画像データの属性を示す属性データに基づき、前記処理画像データの輪郭部画素の補正を行うか否かを制御する制御手段と、前記制御手段の制御に基づき、前記処理画像データの輪郭部の補正を行う輪郭部補正手段とを有し、前記属性データは、前記多値画像データの注目画素の画像データを含むオブジェクトのサイズを示すデータを含み、前記制御手段は、該オブジェクトのサイズを考慮して前記処理画像データの輪郭部画素の補正を行うか否かを制御することを特徴とする。ここで、前記属性データが前記の多値画像データの注目画素が細い、あるいは小さなオブジェクトに含まれることを表す場合に、前記制御手段は、前記輪郭部補正手段による輪郭部の補正を回避させる。 The image processing circuit of the present invention inputs multi-value image data , processed image data obtained by performing pseudo halftone processing on the multi-value image data, and attribute data of the multi-value image data, and An image processing circuit that corrects a contour portion and performs a smoothing process, wherein the pixel of the contour portion of the processed image data is based on image data of a target pixel of the multi-valued image data and attribute data indicating an attribute of the image data Control means for controlling whether or not correction is performed, and contour correction means for correcting the contour of the processed image data based on the control of the control means , wherein the attribute data is the multi-value includes data indicating the size of the object that contains the image data of the target pixel of the image data, the control means, the line correction of the pixel of the contour portion of the processed image data in consideration of the size of the object And controlling whether. Here, when the attribute data indicates that the target pixel of the multi-valued image data is included in a thin or small object, the control unit avoids the correction of the contour portion by the contour portion correcting unit.

又、本発明の画像処理方法は、多値画像データと、前記多値画像データを擬似中間調処理した処理画像データと、前記多値画像データの属性データとを入力し、前記処理画像データの輪郭部を補正してスムージング処理する画像処理方法であって、前記多値画像データの注目画素の画像データと該画像データの属性を示す属性データに基づき、前記処理画像データの輪郭部画素の補正を行うか否かを制御する制御工程と、前記制御工程での制御に基づき、前記処理画像データの輪郭部の補正を行う輪郭部補正工程とを有し、前記属性データは、前記多値画像データの注目画素の画像データを含むオブジェクトのサイズを示すデータを含み、前記制御工程では、該オブジェクトのサイズを考慮して前記処理画像データの輪郭部画素の補正を行うか否かを制御することを特徴とする。ここで、前記属性データが前記多値画像データの注目画素が細い、あるいは小さなオブジェクトに含まれることを表す場合に、前記輪郭部の補正を回避させる。 The image processing method of the present invention inputs multi-valued image data , processed image data obtained by performing pseudo halftone processing on the multi-valued image data, and attribute data of the multi-valued image data. An image processing method for performing a smoothing process by correcting a contour portion, wherein the pixel of the contour portion of the processed image data is based on image data of a target pixel of the multi-valued image data and attribute data indicating an attribute of the image data. and a control step of controlling whether or not to perform the correction, based on the control in the control step, and a contour correction step for correcting the contour of the processing image data, said attribute data, the multi includes data indicating the size of the object that contains the image data of the target pixel value image data, wherein in the control step, the correction of the pixel of the contour portion of the processed image data in consideration of the size of the object And controlling whether to perform. Here, when the attribute data indicates that the target pixel of the multi-valued image data is included in a thin or small object, correction of the contour portion is avoided.

又、本発明の画像処理プログラムは、多値画像データと、前記多値画像データを擬似中間調処理した処理画像データと、前記多値画像データの属性データとを入力し、前記処理画像データの輪郭部を補正してスムージング処理を含む画像処理を実行する画像処理プログラムであって、前記多値画像データの注目画素の画像データと該画像データの属性を示す属性データに基づき、前記処理画像データの輪郭部画素の補正を行うか否かを制御する制御モジュールと、前記制御モジュールの制御に基づき、前記処理画像データの輪郭部の補正を行う輪郭部補正モジュールとを有し、前記属性データは、前記多値画像データの注目画素の画像データを含むオブジェクトのサイズを示すデータを含み、前記制御モジュールでは、該オブジェクトのサイズを考慮して前記処理画像データの輪郭部画素の補正を行うか否かを制御するよう、コンピュータに実行させる。ここで、前記属性データが前記多値画像データの注目画素が細い、あるいは小さなオブジェクトに含まれることを表す場合に、前記制御モジュールは、前記輪郭部補正モジュールによる輪郭部の補正を回避させる。 The image processing program of the present invention inputs multi-valued image data , processed image data obtained by performing pseudo halftone processing on the multi-valued image data, and attribute data of the multi-valued image data. An image processing program for correcting an outline and executing image processing including smoothing processing , wherein the processed image is based on image data of a target pixel of the multivalued image data and attribute data indicating an attribute of the image data A control module that controls whether or not to correct pixels in the contour portion of the data; and a contour portion correction module that corrects the contour portion of the processed image data based on the control of the control module; data includes data indicating the size of the object that contains the image data of the target pixel of the multivalued image data, in the control module, of the object So that in consideration of the size controlling whether or not to correct the pixel of the contour portion of the processed image data, it causes the computer to execute. Here, when the attribute data indicates that the target pixel of the multi-valued image data is included in a thin or small object, the control module avoids correction of the contour portion by the contour portion correction module.

又、本発明の記憶媒体は、多値画像データと、前記多値画像データを擬似中間調処理した処理画像データと、前記多値画像データの属性データとを入力し、前記処理画像データの輪郭部を補正してスムージング処理を含む画像処理を実行する画像処理プログラムを記憶したコンピュータ読み取り可能記憶媒体であって、前記画像処理プログラムが、前記多値画像データの注目画素の画像データと該画像データの属性を示す属性データに基づき、前記処理画像データの輪郭部画素の補正を行うか否かを制御する制御モジュールと、前記制御モジュールの制御に基づき、前記処理画像データの輪郭部の補正を行う輪郭部補正モジュールとを有し、前記属性データは、前記多値画像データの注目画素の画像データを含むオブジェクトのサイズを示すデータを含み、前記制御モジュールでは、該オブジェクトのサイズを考慮して前記処理画像データの輪郭部画素の補正を行うか否かを制御するよう、コンピュータに実行させるための画像処理プログラムであることを特徴とする。ここで、前記属性データが前記多値画像データの注目画素が細い、あるいは小さなオブジェクトに含まれることを表す場合に、前記制御モジュールは、前記輪郭部補正モジュールによる輪郭部の補正を回避させる。 The storage medium of the present invention inputs multi-value image data, processed image data obtained by performing pseudo halftone processing on the multi-value image data, and attribute data of the multi-value image data, and the contour of the processed image data part a computer-readable storage medium storing an image processing program for performing image processing including the correction to smooth the, the image processing program, image data and the image of the target pixel of the multivalued image data A control module that controls whether or not to correct a pixel in the contour portion of the processed image data based on attribute data indicating an attribute of the data; and a control module that controls whether or not the contour portion of the processed image data corresponds to the control module . and a contour portion correction module to correct, the attribute data, the size of the object that contains the image data of the target pixel of the multivalued image data Includes data indicating, in the control module, so that in consideration of the size of the object for controlling whether or not to correct the pixel of the contour portion of the processed image data is the image processing program for causing a computer to execute It is characterized by that. Here, when the attribute data indicates that the target pixel of the multi-valued image data is included in a thin or small object, the control module avoids correction of the contour portion by the contour portion correction module.

本発明によれば、プリンタの解像度に依存して発生するジャギーはもちろんのこと、擬似中間調処理により発生するジャギーをも改善することが可能となった。このような疑似中間調処理によるジャギーは、プリンタの解像度より遥かに低い解像度で発生するため、ハーフトーン文字やラインで顕著に目立っていたが、これを改善することが可能となった。その際、従来は、例えば3ポイント以下の小文字や、1ドットや2ドットの細線において、例えば、小文字が潰れたり、斜め細線のジャギー部にコブのような塊ができたりして見えるという弊害があったが、それを改善することも可能となった。   According to the present invention, it is possible to improve not only jaggy that occurs depending on the resolution of the printer, but also jaggy that occurs due to pseudo halftone processing. Such jaggy due to pseudo-halftone processing occurs at a resolution much lower than the resolution of the printer, and thus was noticeable in halftone characters and lines, but this can be improved. At that time, conventionally, for example, in a small letter of 3 points or less, or in a thin line of 1 dot or 2 dots, for example, the lower case letters are crushed or a hump-like lump appears in the jaggy part of the oblique thin line. It was possible to improve it.

さらに、本発明を用いると、スキャナで読み込んだイメージ画像をビットマップデータからアウトラインデータに変換した、所謂ベクトル化したものにも対応可能である。   Furthermore, when the present invention is used, it is possible to cope with a so-called vectorized image in which an image read by a scanner is converted from bitmap data to outline data.

以下、本発明にかかる一実施形態を、図面を参照しながら説明する。ここでは、好ましい実施形態として、電子写真技術を用いたスキャナ付きの複合機で説明するが、本発明が対象としている画像データは、ベクトル情報をあらわす画像信号である。ベクトル情報をあらわす画像信号とは、PCのようなもので送られてくるPDL(Page Description Language)データやPDLを解釈することで生成されるプリミティブな中間データは言うまでもなく、スキャナで読み取った画像信号をベクトル化したものなども含まれている。これらのベクトル情報は、テキストやグラフィックなどの各種オブジェクトを示すためのデータであり、最終的にビットマップデータに変換されるものである。又、以下の実施形態では、特に電子写真プロセスの複写機やプリンタなどを対象としているが、インクジェットやディスプレイのような他のプロセスを用いた機器でも応用可能である。   Hereinafter, an embodiment according to the present invention will be described with reference to the drawings. Here, as a preferred embodiment, a multifunction apparatus with a scanner using an electrophotographic technique will be described, but the image data targeted by the present invention is an image signal representing vector information. An image signal representing vector information is an image signal read by a scanner, not to mention PDL (Page Description Language) data sent by something like a PC or primitive intermediate data generated by interpreting PDL. Also included is a vectorization of. These vector information are data for indicating various objects such as text and graphics, and are finally converted into bitmap data. In the following embodiments, a copying machine or a printer for an electrophotographic process is particularly targeted. However, the present invention can also be applied to devices using other processes such as an ink jet or a display.

<本実施形態の複写機全体の構成例>
図2は、本実施形態で用いた複合機の機械的構成を示す概略断面図である。
<Configuration Example of Entire Copier of the Present Embodiment>
FIG. 2 is a schematic cross-sectional view showing the mechanical configuration of the multifunction machine used in the present embodiment.

図2に示したように、機械的構成としてカラースキャナ部Aとプリンタ部Bとからなる。   As shown in FIG. 2, the mechanical configuration includes a color scanner section A and a printer section B.

カラースキャナ部Aにおいて、原稿給送装置201Aは、原稿を最終頁から順に1枚ずつプラテンガラス202A上へ給送する。そして、原稿の読み取り動作終了後、プラテンガラス202A上の原稿を排出するものである。原稿がプラテンガラス202A上に搬送されると、ランプ203Aを点灯し、このランプ203Aを搭載したスキャナユニット204Aの移動をおこない原稿を露光走査する。この走査による原稿からの反射光は、ミラー205A,206A,207Aおよびレンズ208AによってCCDカラーイメージセンサ(以下、単に「CCD」という)209Aへ導かれる。そして、CCD209Aに入射した反射光は、R,G,Bの3色に色分解され色毎の輝度信号として読み取られる。さらに、CCD209Aから出力される輝度信号はA−D変換によってデジタル信号の画像データとして画像処理部(304;図3参照)に入力し、シェーディング補正、階調補正、量子化(N値化)、スムージング処理などの周知の画像処理が施された後、プリンタ部B(305)へ転送される。   In the color scanner unit A, the document feeder 201A feeds documents one by one from the last page onto the platen glass 202A. Then, after the original reading operation is finished, the original on the platen glass 202A is discharged. When the document is conveyed onto the platen glass 202A, the lamp 203A is turned on, and the scanner unit 204A on which the lamp 203A is mounted is moved to scan the document for exposure. Reflected light from the original by this scanning is guided to a CCD color image sensor (hereinafter simply referred to as “CCD”) 209A by mirrors 205A, 206A, 207A and a lens 208A. The reflected light incident on the CCD 209A is color-separated into three colors R, G, and B and read as a luminance signal for each color. Further, the luminance signal output from the CCD 209A is input to an image processing unit (304; see FIG. 3) as image data of a digital signal by A / D conversion, and shading correction, gradation correction, quantization (N-value conversion), After performing known image processing such as smoothing processing, it is transferred to the printer unit B (305).

プリンタ部Bにおいて、レーザドライバ221Bは、レーザ発光部201Bを駆動するものであり、画像処理部304から出力された色毎の画像データに応じたレーザ光をレーザ発光部201Bによって発光させる。このレーザ光は感光ドラム202Bに照射され、感光ドラム202Bにはレーザ光に応じた潜像が形成される。そして、この感光ドラム202Bの潜像の部分には現像器203Bによって現像剤であるトナーが付着される。なお、図2では、現像器は、図示の簡略化のため、唯一つのみが示されるが、C,M,Y,Kの色毎にトナーが用意され、それに応じて4つの現像器が設けられることは、勿論である。また、以上の構成の代わりに感光ドラムや現像器等を色毎に4組設ける構成であってもよい。   In the printer unit B, the laser driver 221B drives the laser light emitting unit 201B, and causes the laser light emitting unit 201B to emit laser light corresponding to the image data for each color output from the image processing unit 304. The laser beam is irradiated onto the photosensitive drum 202B, and a latent image corresponding to the laser beam is formed on the photosensitive drum 202B. Then, a toner as a developer is attached to the latent image portion of the photosensitive drum 202B by the developing unit 203B. In FIG. 2, only one developing unit is shown for simplification of illustration, but toner is prepared for each color of C, M, Y, and K, and four developing units are provided accordingly. Of course. Further, instead of the above configuration, four sets of photosensitive drums, developing devices, and the like may be provided for each color.

上述のレーザ光の照射開始と同期したタイミングで、カセット204Bまたはカセット205Bの選択されたいずれかから記録紙が給紙され、転写部206Bへ搬送される。これにより、感光ドラム202Bに付着した現像剤を記録紙に転写することができる。現像剤が転写された記録紙は、定着部207Bに搬送され、定着部207Bの熱と圧力により現像剤の記録紙への定着が行われる。そして、定着部207Bを通過した記録紙は排出ローラ208Bによって排出され、ソータ220Bはこの排出された記録紙をそれぞれ所定のビンに収納して記録紙の仕分けを行う。   The recording paper is fed from either the cassette 204B or the cassette 205B at a timing synchronized with the start of the laser beam irradiation described above, and conveyed to the transfer unit 206B. Thereby, the developer attached to the photosensitive drum 202B can be transferred to the recording paper. The recording sheet to which the developer has been transferred is conveyed to the fixing unit 207B, and the developer is fixed to the recording sheet by the heat and pressure of the fixing unit 207B. Then, the recording paper that has passed through the fixing unit 207B is discharged by the discharge roller 208B, and the sorter 220B stores the discharged recording paper in a predetermined bin and sorts the recording paper.

なお、ソータ220Bは、仕分けが設定されていない場合は、最上位のビンに記録紙を収納する。また、両面記録が設定されている場合は、排出ローラ208Bのところまで記録紙を搬送した後、排出ローラ208Bの回転方向を逆転させ、フラッパ209Bによって再給紙搬送路へ導く。多重記録が設定されている場合は、記録紙を排出ローラ208Bまで搬送しないようにフラッパ209Bによって再給紙搬送路210Bへ導く。再給紙搬送路へ導かれた記録紙は上述したタイミングで転写部206Bへ給紙される。なお、色毎の潜像および現像の処理や定着は、上述の記録紙搬送機構を用いて、潜像形成等を4回分繰り返すことによって実現することは周知の通りである。   The sorter 220B stores the recording paper in the uppermost bin when the sorting is not set. When double-sided recording is set, the recording paper is conveyed to the discharge roller 208B, and then the rotation direction of the discharge roller 208B is reversed and guided to the refeed conveyance path by the flapper 209B. When multiple recording is set, the recording paper is guided to the refeed conveyance path 210B by the flapper 209B so as not to be conveyed to the discharge roller 208B. The recording sheet guided to the refeed conveyance path is fed to the transfer unit 206B at the timing described above. As is well known, the latent image and development processing and fixing for each color are realized by repeating the latent image formation and the like four times using the recording paper transport mechanism described above.

314はネットワークケーブルであり、一般的にイーサネット(登録商標)と呼ばれるシステムである。これは、10BaseTや10Base5などの物理的なケーブルを用いてTCP/IPなどのプロトコルにより、接続される各ユニット相互の情報授受やデータの転送を行うことができる。無論、ネットワークケーブルを用いた有線に限定されたものではなく、無線を用いても同様な環境構築ができることは言うまでもない。このようなネットワークケーブルを介し、PC上からPDLデータやディスプレイリストなどのPDLデータに基づいて生成される中間データ、または画像bitmap信号を受信し、前述したプリンタで出力することも可能な構成となっている。本実施形態では、このPDL信号や中間データに対して本発明の処理を施すことを目的としている。   Reference numeral 314 denotes a network cable, which is a system generally called Ethernet (registered trademark). This enables information exchange and data transfer between connected units by a protocol such as TCP / IP using a physical cable such as 10BaseT or 10Base5. Of course, it is not limited to wired using a network cable, and it goes without saying that a similar environment can be constructed even if wireless is used. Through such a network cable, intermediate data generated based on PDL data such as PDL data and display list, or an image bitmap signal can be received from a PC and output by the printer described above. ing. The object of the present embodiment is to apply the processing of the present invention to this PDL signal and intermediate data.

<本実施形態の複合機の制御部の構成例>
次に、図2で説明した複写機の電気的な制御部の構成例を、図1のブロック図を用いて説明する。
<Configuration Example of Control Unit of Multifunction Device of This Embodiment>
Next, a configuration example of the electrical control unit of the copying machine described with reference to FIG. 2 will be described with reference to the block diagram of FIG.

画像読み取り部309は、レンズ301、CCDセンサ302、アナログ信号処理部303等により構成され、レンズ301を介してCCDセンサ302に結像された原稿画像300が、CCDセンサ302によりアナログ電気信号に変換される。変換された画像情報は、アナログ信号処理部303に入力され、サンプル&ホールド、ダークレベルの補正等が行われた後にアナログ/デジタル変換(A/D変換)される。   The image reading unit 309 includes a lens 301, a CCD sensor 302, an analog signal processing unit 303, and the like. A document image 300 formed on the CCD sensor 302 via the lens 301 is converted into an analog electric signal by the CCD sensor 302. Is done. The converted image information is input to the analog signal processing unit 303 and subjected to analog / digital conversion (A / D conversion) after sample & hold, dark level correction, and the like.

このようにして変換されたデジタル信号は、図3に内部構成を示す画像処理部304において、シェーディング補正部1601、色補正処理部1603、フィルタ処理部1604、γ補正部1602、ビデオカウント処理部1606、画像形成処理部401、スムージング処理部1605などで処理がおこなわれた後、プリンタ305へ出力される。これらの処理のうち、シェーディング補正部1601、色補正処理部1603、フィルタ処理部1604、γ補正部1602の構成及びこれらの処理部で実行される内容については、本発明の本質に直接的に関与しないため、説明を省略する。   The digital signal thus converted is converted into a shading correction unit 1601, a color correction processing unit 1603, a filter processing unit 1604, a γ correction unit 1602, and a video count processing unit 1606 in the image processing unit 304 whose internal configuration is shown in FIG. The image forming processing unit 401, the smoothing processing unit 1605, and the like are processed, and then output to the printer 305. Among these processes, the configurations of the shading correction unit 1601, the color correction processing unit 1603, the filter processing unit 1604, and the γ correction unit 1602 and the contents executed by these processing units are directly related to the essence of the present invention. Therefore, the explanation is omitted.

また、図1のネットワークケーブル314を通して、ホストコンピュータなどから送信されたPDLデータは、プリンタに設けられたインタフェースとしてのネットワーク信号受信部315で受信される。このネットワーク信号受信部315には、受信したPDLデータを解釈して、画像を示す画素単位のビットマップデータを生成するラスタライズ部(不図示)が含まれている。   Also, PDL data transmitted from the host computer or the like through the network cable 314 in FIG. 1 is received by a network signal receiving unit 315 as an interface provided in the printer. The network signal receiving unit 315 includes a rasterizing unit (not shown) that interprets the received PDL data and generates bitmap data in units of pixels indicating an image.

また、PDLデータはテキスト、グラフィック、イメージ等といったオブジェクト毎にその属性を示すデータを保持している。ラスタライズ部では、この属性データを利用して、画像データの生成とともに、各画素の像域信号atrも生成する。像域信号atrについては後に詳細に説明する。   The PDL data holds data indicating the attribute of each object such as text, graphic, image, and the like. The rasterizing unit uses this attribute data to generate image area signals atr for each pixel along with the generation of image data. The image area signal atr will be described later in detail.

そして、ラスタライズ部で生成された画像データは、画像読み取り部309から入力されたデータと同様に、画像処理部304に入力され、矢印で示したように、フィルタ処理部1604に入力され、必要な画像処理が実行される。また、像域信号はスムージング処理部1605に入力される。カラー画像データの場合、CMYKの色毎の濃度データが生成され、色毎のデータ夫々に対して後段の処理が実行される。   Then, the image data generated by the rasterizing unit is input to the image processing unit 304 as in the case of the data input from the image reading unit 309, and is input to the filter processing unit 1604 as indicated by the arrow. Image processing is executed. The image area signal is input to the smoothing processing unit 1605. In the case of color image data, density data for each color of CMYK is generated, and subsequent processing is executed for each color data.

なお、ラスタライズ部はネットワーク信号受信部315の外部に設けられるものであってもよい。   Note that the rasterizing unit may be provided outside the network signal receiving unit 315.

画像形成処理部401では、通常スクリーン処理或いはディザ処理とよばれる処理が行われる。これらの処理については、本発明の本質に直接関係しないため詳細な説明は省略する。なお、本実施例では、画像形成処理部401に入力された色毎の8ビット画像信号を4ビット画像信号に変換したものをInDataSとしてスムージング処理部1605に出力している。   In the image formation processing unit 401, processing called normal screen processing or dither processing is performed. Since these processes are not directly related to the essence of the present invention, a detailed description thereof will be omitted. In this embodiment, an 8-bit image signal for each color input to the image formation processing unit 401 is converted into a 4-bit image signal and output to the smoothing processing unit 1605 as InDataS.

一方、上記のビデオカウント処理部1606では、トナーの消費量を測定するための処理がおこなわれる。これは、プリンタへ出力される信号値より、トナー消費量を計算するためのものである。これによって、トナーの残量をユーザに操作部313を介して知らせる構成となっている。処理の詳細については、周知なものであるため、説明を略する。   On the other hand, the video count processing unit 1606 performs processing for measuring toner consumption. This is for calculating the toner consumption from the signal value output to the printer. Thus, the user is notified of the remaining amount of toner via the operation unit 313. The details of the processing are well known and will not be described.

尚、ネットワーク信号受信部315からの信号が色補正処理部1603の後ろに接続されているが、これは、ネットワークを介して受信した信号がCMYKの濃度データであることを想定している為である。もし、受信した信号がRGBの輝度信号であった場合は、不図示だが色補正処理部1603の前に接続されるようになることは言うまでもない。また、正確にはネットワークを介して受信した信号はCPU回路部310を介しているのだが、ここでは、簡略化して図3のように直接画像処理部304に接続しているように示してある。   The signal from the network signal receiving unit 315 is connected behind the color correction processing unit 1603 because it is assumed that the signal received via the network is CMYK density data. is there. If the received signal is an RGB luminance signal, it goes without saying that the signal is connected in front of the color correction processing unit 1603 (not shown). In addition, although the signal received via the network is accurately transmitted through the CPU circuit unit 310, it is shown here as being directly connected to the image processing unit 304 as shown in FIG. .

図1の説明に戻ると、プリンタ305は、レーザ等からなる露光制御部(図示せず)、画像形成部(図示せず)、転写紙の搬送制御部(図示せず)等により構成され、入力された画像信号を転写紙上に記録する。また、CPU回路部310は、CPU306、ROM307、RAM308等により構成され、画像読み取り部309、画像処理部304、プリンタ部305、操作部313等や、本装置のシーケンスを統括的に制御する。操作部313には、RAM311、ROM312が予め用意されており、UI(ユーザインタフェース)上に文字を表示したり、ユーザが設定した情報を記憶したり、表示したりすることが可能な構成となっている。ユーザによって操作部313で設定された情報は、CPU回路部310を介して、画像読み取り部309、画像処理部304、プリンタ305などに送られる構成となっている。   Returning to the description of FIG. 1, the printer 305 includes an exposure control unit (not shown) made of a laser or the like, an image forming unit (not shown), a transfer paper conveyance control unit (not shown), and the like. The input image signal is recorded on the transfer paper. The CPU circuit unit 310 includes a CPU 306, a ROM 307, a RAM 308, and the like, and comprehensively controls the image reading unit 309, the image processing unit 304, the printer unit 305, the operation unit 313, and the sequence of the apparatus. The operation unit 313 is provided with a RAM 311 and a ROM 312 in advance, and can display characters on a UI (user interface), store and display information set by the user. ing. Information set by the operation unit 313 by the user is sent to the image reading unit 309, the image processing unit 304, the printer 305, and the like via the CPU circuit unit 310.

以上説明した構成の中で、本実施形態の特徴ある構成要素は、画像処理部304に含まれている。以下、画像処理部304内のスムージング処理部1605について詳細に説明をおこなう。   Among the configurations described above, characteristic components of the present embodiment are included in the image processing unit 304. Hereinafter, the smoothing processing unit 1605 in the image processing unit 304 will be described in detail.

尚、以下の各構成要素については、ソフトウエアで実現したものとし、C言語で作成されたプログラムで示すが、これらは等価な機能をハードウエアやファームウエアで構築してもよい。つまり、各構成要素それぞれまたはいくつかの構成要素がASICなどの専用ハードウエアを用いて構成されていても、ソフトウエアによって得られる効果と同様の効果を得ることができる。   The following constituent elements are assumed to be realized by software, and are represented by programs created in C language, but these may have equivalent functions constructed by hardware or firmware. That is, even if each component or some components are configured using dedicated hardware such as ASIC, the same effect as that obtained by software can be obtained.

<本実施形態のスムージング処理の構成例>
図4に、本実施形態のスムージング処理1605の構成例を示す。
<Example of configuration of smoothing process of this embodiment>
FIG. 4 shows a configuration example of the smoothing process 1605 of this embodiment.

図4には、1色の処理しか示していないが、図3に示したようにスムージング処理部1605には4色分のデータが入力される。つまり、図4は、CMYK各色を独立に処理する構成となっている。これらの処理は色によらず基本的に同一なものであるため、本実施形態では説明を簡略化することを目的に、その内の1色だけを示したものとした。それでは、順に各ブロックを説明する。   Although only one color processing is shown in FIG. 4, data for four colors is input to the smoothing processing unit 1605 as shown in FIG. That is, FIG. 4 is configured to process CMYK colors independently. Since these processes are basically the same regardless of the color, in the present embodiment, only one of them is shown for the purpose of simplifying the description. Then, each block is demonstrated in order.

まず、スムージング処理部1605の全体には、8bitの画像データImageData(InData')と、8bitの像域信号atrとが入力される。この画像データは、図3に示したように、γ補正部1602での処理などが施されたものである。像域信号は、画像の種類(文字、小文字、線、細線、イメージ、グラフィックなど)をあらわすためにラスタライズ部で生成されたビット値である。なお、像域信号atrは8bitに限定したものではない。これは、画像データImageDataの各画素に関連付けられている。   First, 8-bit image data ImageData (InData ′) and an 8-bit image area signal atr are input to the entire smoothing processing unit 1605. As shown in FIG. 3, this image data has been subjected to processing by the γ correction unit 1602 and the like. The image area signal is a bit value generated by the rasterizing unit to represent the type of image (character, lower case, line, thin line, image, graphic, etc.). The image area signal atr is not limited to 8 bits. This is associated with each pixel of the image data ImageData.

以下、スムージング処理部1605で実行される処理を順に説明する。なお、以下の説明はCPU306がC言語プログラム501を実行させることで行われる。もちろん、ハードウエアによって実行するものであってもよい。尚、以下の図面で注目画素及び参照画素を示した図において、太枠で囲まれた画素が注目画素、中太枠で囲まれた画素が各処理における参照画素、細枠の画素は非参照画素を示す。かかる参照画素領域はその一例であって、本実施形態はこれに限定されない。   Hereinafter, processing executed by the smoothing processing unit 1605 will be described in order. The following description is performed by causing the CPU 306 to execute the C language program 501. Of course, it may be executed by hardware. In the drawings showing the target pixel and the reference pixel in the following drawings, the pixel surrounded by the thick frame is the target pixel, the pixel surrounded by the middle thick frame is the reference pixel in each processing, and the thin frame pixel is not referenced. Indicates a pixel. Such a reference pixel region is an example thereof, and the present embodiment is not limited to this.

(1.ビット変換部402)
ビット変換部402は、8ビット画像データであるImageData(InData')を3bit画像データへ変換(所謂、量子化)する処理を行う。この処理の詳細を、図5にC言語プログラム501の例で示した。
(1. Bit conversion unit 402)
The bit conversion unit 402 performs a process of converting (so-called quantization) 8-bit image data, ImageData (InData ′), into 3-bit image data. Details of this processing are shown in FIG. 5 as an example of the C language program 501.

図5において、"InData_K[yy][xx]"502で示されるのがInData'として入力される8bitデータ(0〜11111111=255)であり、"InData_K[yy][xx]"503で示されるのが出力される3bitデータ(0〜111=7)である。図4では、ビット変換部402でから出力される3bitデータをInDataとして記載している。   In FIG. 5, “InData_K [yy] [xx]” 502 indicates 8-bit data (0 to 11111111 = 255) input as InData ′, which is indicated by “InData_K [yy] [xx]” 503. Is the 3-bit data (0 to 111 = 7) to be output. In FIG. 4, 3-bit data output from the bit converter 402 is described as InData.

また、C言語プログラム501の"params−>"で記されたものが、パラメータを表している。本実施例では、"params−>SevenConversionK7〜K1"までの7種類のパラメータが設定されている。具体的に、パラメータには、8bitのデータが各々に設定されており、例えば、値はそれぞれ"224,192,160,128,96,64,32"である。この構成により、8bitの入力データは32の等間隔で3bitに変換される。例えば、InData'≧224ならば3bitデータ=7が出力され、InData'<32ならば3bitデータ=0が出力される。なお、パラメータは上記例のように等間隔に限定されず、どの濃度レベルを詳細に制御するかにより任意に変更されるものである。   Also, what is written in “params->” of the C language program 501 represents a parameter. In this embodiment, seven types of parameters from “params → SevenConversionK7 to K1” are set. Specifically, 8-bit data is set for each parameter. For example, the values are “224, 192, 160, 128, 96, 64, 32”, respectively. With this configuration, 8-bit input data is converted into 3 bits at 32 equal intervals. For example, if InData ′ ≧ 224, 3 bit data = 7 is output, and if InData ′ <32, 3 bit data = 0 is output. The parameters are not limited to regular intervals as in the above example, but can be arbitrarily changed depending on which density level is controlled in detail.

ビット変換部402では、このようなパラメータ値と各if文で大小を比較し、3bit画像データ(InData)を出力する構成となっている。上述した処理により、3bitに変換された画像データは、ビット変換部402から出力され、制御信号生成部403に入力される構成となっている。   The bit conversion unit 402 is configured to compare such a parameter value with the size of each if statement and output 3 bit image data (InData). The image data converted into 3 bits by the processing described above is output from the bit conversion unit 402 and input to the control signal generation unit 403.

(2.制御信号生成部403)
制御信号生成部403は、スムージング処理を施す画像を識別するための識別信号とエッジ信号生成用の画像データとを生成している。この識別信号OutDataZ(=out)は1bitであり、詳細は図6のC言語プログラム601に示したとおりである。
(2. Control signal generator 403)
The control signal generation unit 403 generates an identification signal for identifying an image on which smoothing processing is performed and image data for generating an edge signal. The identification signal OutDataZ (= out) is 1 bit, and details are as shown in the C language program 601 of FIG.

具体的には、図6のif文602を実行することにより、像域信号atrに応じて内部信号として生成される。内部信号とは、小文字・細線を表す要素"thin"と、グラフィックを表す要素"graphic"と、ラインを表す要素"line"と、フォントを表す要素"font"の4つ(4bit)から構成される信号である。これらの信号は、画像データを構成する各画素が上記の各要素のいずれかに対応する場合、"1"になり、ない場合に"0"になる。つまり、lineを構成する画素の場合、ラインを表すビットが1となる。   More specifically, by executing the if statement 602 in FIG. 6, the signal is generated as an internal signal in accordance with the image area signal atr. The internal signal is composed of four elements (4 bits): an element “thin” that represents a small letter and a thin line, an element “graphic” that represents a graphic, an element “line” that represents a line, and an element “font” that represents a font. Signal. These signals are “1” when each pixel constituting the image data corresponds to any one of the above elements, and “0” when there is no pixel. That is, in the case of the pixels constituting the line, the bit representing the line is 1.

また、小文字・細線の識別信号"thin"に関しては、細線や小文字の場合にthinが"0"になり、それ以外が"1"になる構成となっている。従って、"graphic(グラフィック)"、"line(線)"、"font(文字)"は排他的に1となるが、"thin"は"graphic(グラフィック)"、"line(線)"、"font(文字)"と重複してよい。これら内部信号は、すべて上述した不図示のラスタライズ部から送られてくる0x02や0x04などの像域信号に応じて生成されるものである。   Further, regarding the identification signal “thin” of the small letter / thin line, the thin is “0” in the case of the fine line or the small letter, and “1” is otherwise. Therefore, "graphic", "line", and "font" are exclusively 1, but "thin" is "graphic", "line", " It may be duplicated with “font”. These internal signals are all generated according to image area signals such as 0x02 and 0x04 sent from the rasterizing unit (not shown).

具体的には、本実施例では、
atr=0x02(00000010) : "image(ビットマップ)"
atr=0x04(00000100) : "graphic(グラフィック)"
atr=0x08(00001000) : "line(線)"
atr=0x10(00010000) : "font(文字)"
atr=0x20(00100000) : "thin-graphic(細いグラフィック)"
atr=0x40(01000000) : "thin-line(細線)"
atr=0x80(10000000) : "thin-font(小文字)"
尚、atr=0x20の細いグラフィックとは、矩形で囲んだ図形が細長い場合などを想定している。これらatr信号は、PDLが送信してくる像域信号であり、PDL側でこれら属性を識別している構成となっている。
Specifically, in this embodiment,
atr = 0x02 (00000010): "image (bitmap)"
atr = 0x04 (00000100): "graphic"
atr = 0x08 (00001000): "line"
atr = 0x10 (00010000): "font (character)"
atr = 0x20 (00100000): "thin-graphic"
atr = 0x40 (01000000): "thin-line"
atr = 0x80 (10000000): "thin-font (lowercase)"
A thin graphic with atr = 0x20 assumes a case in which a figure enclosed by a rectangle is elongated. These atr signals are image area signals transmitted by the PDL, and are configured to identify these attributes on the PDL side.

ところで、ここでは、細線や小文字を区別する属性信号の組み合わせを
0x40(01000000)
0x80(10000000)
のように定義していたが、このような組み合わせではなく、任意のビットに"細い〜"や"小さい〜"のような意味合いのフラグを定義しても実現可能なことは言うまでもない。
By the way, here is a combination of attribute signals that distinguish thin lines and lowercase letters.
0x40 (01000000)
0x80 (10000000)
However, it is needless to say that this can be realized by defining a flag having a meaning such as “thin ~” or “small ~” in an arbitrary bit instead of such a combination.

例えば、LSBにそのフラグを定義した場合、以下のようになる。
atr=0x02(00000010) : "image(ビットマップ)"
atr=0x04(00000100) : "graphic(グラフィック)"
atr=0x08(00001000) : "line(線)"
atr=0x10(00010000) : "font(文字)"
atr=0x84(10000100) : "thin-graphic(細いグラフィック)"
atr=0x88(10001000) : "thin-line(細線)"
atr=0x90(10010000) : "thin-font(小文字)"
このように、図6に示した像域信号は、本実施例を説明するためのほんの1例でしかなく、この像域信号値に限定されたものではないことは言うまでもない。
For example, when the flag is defined in LSB, it is as follows.
atr = 0x02 (00000010): "image (bitmap)"
atr = 0x04 (00000100): "graphic"
atr = 0x08 (00001000): "line"
atr = 0x10 (00010000): "font (character)"
atr = 0x84 (10000100): "thin-graphic (thin graphic)"
atr = 0x88 (10001000): "thin-line"
atr = 0x90 (10010000): "thin-font (lowercase)"
Thus, the image area signal shown in FIG. 6 is only an example for explaining the present embodiment, and it goes without saying that the image area signal is not limited to this image area signal value.

次に、if文603も本実施形態の特徴部分であり、これは、ビット変換部402から出力される入力画像信号(InData:3bit)値と内部信号であるオブジェクト信号とに応じて、制御信号(OutDataZ=out)を生成している箇所である。ここでは、、"graphic(グラフィック)"、"line(線)"、"font(文字)"が条件であり、"thin"であるか否かは無関係である。入力画像信号(InData:3bit)値と比較されるreg_Zcheck3[0]〜reg_Zcheck3[2]は、レジスタ値であり、各オブジェクト毎に制御信号(OutDataZ=out)の生成初期濃度を設定できるようになっている。これらレジスタ値の設定により、所定濃度以上の線だけに輪郭部補正処理をかけたり、所定濃度以上の文字だけに輪郭部補正処理をかけたりすることがコントロール可能となる。例えば、オブジェクト信号が"font"を示している場合には、入力画像信号(InData:3bit)値≧reg_Zcheck3[0]が判定されて、YESの場合は制御信号(OutDataZ=out)に1が出力され、画像信号生成部404で輪郭部補正処理をかけるか否かの判断に使用される。ところで、入力画像信号(InData)は3ビットであるため、これらレジスタも3ビットとなっている。   Next, the if statement 603 is also a characteristic part of the present embodiment. This is based on an input image signal (InData: 3 bit) value output from the bit conversion unit 402 and an object signal that is an internal signal. This is where (OutDataZ = out) is generated. Here, "graphic (graphic)", "line (line)", "font (character)" is a condition, and whether or not it is "thin" is irrelevant. Reg_Zcheck3 [0] to reg_Zcheck3 [2], which are compared with the input image signal (InData: 3bit) value, are register values, and the initial density of the control signal (OutDataZ = out) can be set for each object. ing. By setting these register values, it is possible to control whether the contour correction processing is applied only to lines having a predetermined density or higher, or the contour correction processing is applied only to characters having a predetermined density or higher. For example, when the object signal indicates “font”, the input image signal (InData: 3 bit) value ≧ reg_Zcheck3 [0] is determined, and when YES, 1 is output to the control signal (OutDataZ = out). Then, the image signal generation unit 404 is used to determine whether or not to apply contour correction processing. Incidentally, since the input image signal (InData) is 3 bits, these registers are also 3 bits.

最後に、if文604は、細線・小文字には、輪郭部補正処理をかけないようにする切り替え手段である。これも本実施形態の特徴部分であり、レジスタThinJudgeにより、どのオブジェクトをコントロールするのかを細かく指定できるようになっている。   Finally, the if statement 604 is a switching unit that prevents the outline correction processing from being applied to the thin line / lower case. This is also a characteristic part of this embodiment, and it is possible to specify in detail which object is controlled by the register ThinJudge.

例えば、レジスタThinJudg=1の場合は"graphic"のコントロールである。レジスタThinJudg=1の場合、"graphic"=1で且つ"thin"=1であれば、制御信号(OutDataZ=out)に1が出力され、さらに、輪郭部補正処理を施す箇所の入力データ(InData)は、レジスタreg_Zcheckの値に変更される。   For example, when the register ThinJudg = 1, the control is “graphic”. In the case of the register ThinJudg = 1, if “graphic” = 1 and “thin” = 1, 1 is output to the control signal (OutDataZ = out), and the input data (InData of the portion to be subjected to contour correction processing) ) Is changed to the value of the register reg_Zcheck.

if文603との関連でif文604の処理を表現すると、各オブジェクトで所定濃度以上でなかった場合であっても、レジスタThinJudgにより指定されれば、"thin"=1(細い・小さい)を判定して、制御信号(OutDataZ=out)に1を出力してInDataはレジスタreg_Zcheckの値に変更する。このreg_Zcheckの値は、後述の図11の所定値画素カウント1003でカウントされて、"edge"信号をリセットするのに使用される。   If the processing of the if statement 604 is expressed in relation to the if statement 603, "thin" = 1 (thin / small) is set if specified by the register ThinJudg even if each object does not exceed the predetermined density. After determining, 1 is output to the control signal (OutDataZ = out), and InData is changed to the value of the register reg_Zcheck. The value of reg_Zcheck is counted by a predetermined value pixel count 1003 in FIG. 11 described later, and is used to reset the “edge” signal.

これは、前述したif文603で任意の濃度指定をおこなった場合、グラデーションなどのなだらかに階調が変化するオブジェクトにおいて、輪郭部補正処理をかけたための弊害が発生しないようにする為である。弊害回避処理は、以下の1003,1004,1403,1404などに示した。これら処理の詳細は後述するが、以下に本制御信号生成部403との関連の概略を示す。   This is to prevent the adverse effect caused by the contour correction processing on an object whose gradation changes gently, such as gradation, when an arbitrary density is specified by the above-described if statement 603. Defect avoidance processing is shown in 1003, 1004, 1403, 1404 and the like below. Although details of these processes will be described later, an outline of the relationship with the control signal generation unit 403 is shown below.

図6のC言語プログラムでは、まず、if文602で文字やグラフィックなどのオブジェクト判定をおこなっている。次に、if文603で任意の濃度以上のオブジェクトのみ、本スムージング処理を施すための信号(out)を生成している。ただ、ここで問題(弊害)となるのが、幅が1画素の細線や、1〜2ポイント程度の小文字であり、このようなオブジェクトに本スムージング処理を施すと、細線のジャギー部(ガタツイた部分)が、電子写真プリンターの特性に関係した微妙な濃度バランスで、コブのようにガタガタするケースがある。又、文字に関しては、ガタガタしないまでも、潰れぎみになったりする。   In the C language program shown in FIG. 6, first, an object such as a character or graphic is determined using an if statement 602. Next, in the if statement 603, a signal (out) for performing the smoothing process is generated only for an object having an arbitrary density or higher. However, the problem (disadvantage) here is a thin line with a width of 1 pixel or a small letter of about 1 to 2 points. When this smoothing process is applied to such an object, the jaggy part of the thin line (rattle) There is a case where the part is rattling like a bump with a delicate density balance related to the characteristics of the electrophotographic printer. In addition, characters are crushed even if they are not rattled.

そこでこれら問題を解決するために、PDL(ネットワークの先のPC)から、細線(小文字)フラグを像域信号として得ており、それが、if文604の"thin"である。このフラグ(thin)があるオブジェクトは、inData(入力画像信号)を任意のレジスタ(reg_Zcheck)で書き換えることで、後段の処理にその情報を伝えている。後段の処理とは、図11の1003や図15の1403などである。この箇所で、先ほど書き換えたレジスタ(reg_Zcheck)をカウントし、このカウント値が任意の閾値(params−>thre_B)を超えたときに、本スムージング処理を施さないためのフラグ(edge=0)を生成する。   Therefore, in order to solve these problems, a thin line (lower case) flag is obtained as an image area signal from PDL (PC at the end of the network), and this is “thin” of if statement 604. An object having this flag (thin) transmits the information to subsequent processing by rewriting inData (input image signal) with an arbitrary register (reg_Zcheck). The subsequent processing includes 1003 in FIG. 11 and 1403 in FIG. At this point, the register (reg_Zcheck) rewritten earlier is counted, and when this count value exceeds an arbitrary threshold (params-> thre_B), a flag (edge = 0) for not performing this smoothing process is generated. To do.

以上のように、本制御信号生成部403では、画像形成処理部401でスクリーン処理などの擬似中間調処理を行っていない8bitの画像データから変換された3bitの画像データと、オブジェクトに対応する1bitの制御信号(OutDataZ=out)との組み合わせを生成して、そのデータに基づいて次段の画像信号生成部404でのスムージング処理を実現するような工夫がなされている。   As described above, in the control signal generation unit 403, 3 bits of image data converted from 8 bits of image data not subjected to pseudo halftone processing such as screen processing in the image formation processing unit 401, and 1 bit corresponding to the object The control signal (OutDataZ = out) is generated and a smoothing process in the next-stage image signal generation unit 404 is realized based on the data.

(3.画像信号生成部404)
次に、画像信号生成部404について、図7を用いて説明するが、詳細な処理を説明する前に、まず概要を説明する。
(3. Image signal generator 404)
Next, the image signal generation unit 404 will be described with reference to FIG. 7, but before the detailed processing is described, the outline will be described first.

画像信号生成部の特徴は、OutDataZ信号から非スムージング処理部を検出し、すべてのInData信号にスムージング処理を施した信号と未スムージング処理信号(InDataS)とを切り替えて出力することである。   A feature of the image signal generation unit is that a non-smoothing processing unit is detected from the OutDataZ signal, and a signal obtained by performing smoothing processing on all InData signals and an unsmoothed processing signal (InDataS) are switched and output.

つまり、通常のスムージング処理のように、スムージング処理部を検出するのではなく、非スムージング処理部を検出することで、スムージング処理がかからないパターンがあった問題を改善している。要するに、基本がすべての画素にスムージング処理を施す構成になっている為、従来の問題が改善できた。   That is, instead of detecting a smoothing processing unit as in normal smoothing processing, a problem that there is a pattern that does not require smoothing processing is improved by detecting a non-smoothing processing unit. In short, since the basic configuration is such that smoothing processing is performed on all pixels, the conventional problems can be improved.

さらに、パターンマッチング処理ではなく、注目画素近傍の画素を領域分割し、領域毎の画素カウント値に応じて、非スムージング処理部を検出することで、処理の簡易化・高精度化をおこなっている。   Furthermore, instead of pattern matching processing, pixels near the target pixel are divided into regions, and the non-smoothing processing unit is detected according to the pixel count value for each region, thereby simplifying and increasing the accuracy of the processing. .

ところで、非スムージング処理部を検出する信号に像域信号(OutDataZ)を使用していることも特徴としている。これにより、オブジェクト(文字・グラフィック・写真など)毎に処理を切り替えることを可能としている。   By the way, an image area signal (OutDataZ) is used as a signal for detecting the non-smoothing processing unit. This makes it possible to switch processing for each object (character, graphic, photograph, etc.).

以下、本処理の詳細をブロックごとに説明する。   Hereinafter, details of this processing will be described for each block.

入力される信号は、前述した制御信号生成部403から出力される1bitの制御信号"OutDataZ"と3bit画像信号"InData"、画像形成処理部401から出力される画像形成処理後の4bit信号"InDataS"である。画像信号生成部404では、上記入力される信号に基づいて、注目画素の制御信号(DataZ=OutDataZ)によるセレクタ707の選択で、制御信号が1のときは第1画像信号補正部705の出力を選択し、0のときは第2画像信号補正部706の出力を選択して、好適にスムージングされた、あるいはスムージング処理を回避した4bitの画像データOutputDataが出力される。   The input signals are a 1-bit control signal “OutDataZ” and a 3-bit image signal “InData” output from the control signal generation unit 403, and a 4-bit signal “InDataS after image formation processing output from the image formation processing unit 401”. "It is. Based on the input signal, the image signal generation unit 404 selects the output of the first image signal correction unit 705 when the control signal is 1 when the selector 707 is selected by the control signal (DataZ = OutDataZ) of the target pixel. When the value is 0, the output of the second image signal correction unit 706 is selected, and 4-bit image data OutputData that is preferably smoothed or avoids the smoothing process is output.

ここで、第1画像信号補正部705は0の制御信号(DataZ=OutDataZ)の配置に注目して、第2画像信号補正部706は1の制御信号(DataZ=OutDataZ)の配置に注目して補正あるいは弊害回避処理を行う。   Here, the first image signal correction unit 705 pays attention to the arrangement of 0 control signals (DataZ = OutDataZ), and the second image signal correction unit 706 pays attention to the arrangement of 1 control signals (DataZ = OutDataZ). Perform correction or harm avoidance processing.

以下、各処理の詳細について順に説明する。   Hereinafter, details of each process will be described in order.

(3−1.FiFoメモリ701〜703)
これらの信号は、後述する処理でエリア処理(例えば、図11や図15で7×7や15×7のエリアの"OutDataZ"や"InData"の同時参照処理)をおこなうため、FiFoメモリが数ライン分用意されている。ライン数の詳細は、FiFoメモリ701の6ライン、FiFoメモリ702の6ライン、FiFoメモリ703の3ラインであり、1bitの制御信号"OutDataZ"は一度に7ラインのエリアが、3bit画像信号"InData"も一度に7ラインのエリアが、画像形成処理後の4bit信号"InDataS"は一度に4ラインのエリアが、以降の第1及び第2画像信号補正部で参照できる。これらの信号を用いて、後述する処理を施した後、4bit信号"OutputData"が出力される構成となっている。
(3-1. FiFo memories 701 to 703)
Since these signals are subjected to area processing (for example, simultaneous reference processing of “OutDataZ” and “InData” in areas of 7 × 7 and 15 × 7 in FIGS. 11 and 15) in the later-described processing, the number of FiFo memories is small. Lines are prepared. The details of the number of lines are 6 lines of the FiFo memory 701, 6 lines of the FiFo memory 702, and 3 lines of the FiFo memory 703. The 1-bit control signal "OutDataZ" is an area of 7 lines at a time, and the 3bit image signal "InData “The area of 7 lines at a time and the 4-bit signal“ InDataS ”after image formation processing can refer to the area of 4 lines at a time in the first and second image signal correction units thereafter. These signals are used to perform a process to be described later, and then a 4-bit signal “OutputData” is output.

(3−2.乱数生成部704)
まず、図7における乱数生成部704の詳細を、図8にC言語プログラム801で示した。
(3-2. Random number generator 704)
First, the details of the random number generation unit 704 in FIG. 7 are shown as a C language program 801 in FIG.

図8において、関数802と関数803の2つの関数があるが、関数802は初期化用であり、はじめに1度しか実行されない。それに対し、関数803は画素毎に繰り返し処理されるものである。具体的には、まずはじめに初期化として、関数802において0〜25の26個の1bitレジスタ"p[ii](ii=0〜25)"に0が設定された後、"p[2],p[4],p[8],p[16]"の箇所のみ、1bitのパラメータ値"params−>rd1,rd2,rd3,rd4"が設定される処理となっている。そして、画素毎に関数803の演算を繰り返して乱数rd(out)を生成する処理となっている。   In FIG. 8, there are two functions, a function 802 and a function 803, but the function 802 is for initialization and is executed only once. On the other hand, the function 803 is repeatedly processed for each pixel. Specifically, as initialization, first, 0 is set in 26 1-bit registers “p [ii] (ii = 0 to 25)” of 0 to 25 in the function 802, and then “p [2], Only in the locations of p [4], p [8], p [16] ", 1-bit parameter values" params-> rd1, rd2, rd3, rd4 "are set. The process of generating the random number rd (out) is performed by repeating the calculation of the function 803 for each pixel.

関数803の演算とは、"p[0]=( (p[25]^p[24]^p[23]^p[22]) & 1)"でp[25]〜p[22]の排他的論理和(XOR)演算をおこない、p[0]に結果を代入する。そして、for文で各データをシフトし、p[17]の1bit信号を乱数値rd(out)として出力するものである。このようにして求められた1bitの乱数値rd(out)は、図7に示した第1画像信号補正部705と第1画像信号補正部706とに出力される構成となっている。   The operation of the function 803 is “p [0] = ((p [25] ^ p [24] ^ p [23] ^ p [22]) & 1)” and p [25] to p [22] Performs an exclusive OR (XOR) operation and assigns the result to p [0]. Then, each data is shifted by a for statement, and a 1-bit signal of p [17] is output as a random value rd (out). The 1-bit random value rd (out) obtained in this way is output to the first image signal correction unit 705 and the first image signal correction unit 706 shown in FIG.

(3−3.第1画像信号補正部705)
以下、第1画像信号補正部705について、図9を用いて説明する。
(3-3. First Image Signal Correction Unit 705)
Hereinafter, the first image signal correction unit 705 will be described with reference to FIG.

ここでは、図9に示したように、前述した輪郭部補正処理をかけるか否かの判断に使用される1bitの制御信号"OutDataZ"、制御信号生成部403でレジスタreg_Zcheckの値への変更などの処理を含む3bitの"InData"、画像形成処理部410で例えばスクリーン処理された"InDataS"、乱数発生部704からの乱数"rd"が入力され、補正信号として4bitの"OUTData_0"が出力される構成となっている。   Here, as shown in FIG. 9, a 1-bit control signal “OutDataZ” used for determining whether or not to perform the contour correction processing described above, a change to the value of the register reg_Zcheck by the control signal generation unit 403, etc. 3 bits "InData" including the above processing, "InDataS" screen-processed by the image forming processing unit 410, and the random number "rd" from the random number generation unit 704 are input, and 4 bits "OUTData_0" are output as a correction signal. It is the composition which becomes.

内部の処理は、大きく分けて3つであり、第1補正部用第2エッジ検出手段101と第1補正部用第1エッジ検出手段102、そして、第1補正部用画像出力切り替え手段103である。   The internal processing is roughly divided into three. The first correction unit second edge detection unit 101, the first correction unit first edge detection unit 102, and the first correction unit image output switching unit 103. is there.

(3−3−1.第1補正部用第2エッジ検出手段101)
第1補正部用第2エッジ検出手段101の詳細は、図10のC言語プログラム901で示したとおりである。
(3-3-1. Second edge detection means 101 for the first correction unit)
The details of the second edge detecting means 101 for the first correction unit are as shown in the C language program 901 of FIG.

図10に示したように第1補正部用第2エッジ検出手段101の処理は、大きく分けて、1bitの制御信号"OutDataZ"が0である画素数をカウントする水平カウント処理902と垂直カウント処理904との2つに分かれている。水平カウント処理902の方は、注目画素の上又は下画素が0である場合の、水平方向に注目画素左右の3画素を含む7画素中の0をカウントする処理となっている。その様子を903に示した。一方、垂直カウント処理904の方は、注目画素の左又は右画素が0である場合の、垂直方向に注目画素上下の3画素を含む7画素中の0をカウントする処理となっている。その様子を905に示した。   As shown in FIG. 10, the processing of the second edge detection means 101 for the first correction unit is roughly divided into a horizontal count process 902 and a vertical count process for counting the number of pixels in which the 1-bit control signal “OutDataZ” is 0. It is divided into two, 904. The horizontal counting process 902 is a process of counting 0 out of 7 pixels including 3 pixels on the left and right of the target pixel in the horizontal direction when the upper or lower pixel of the target pixel is 0. This is shown in 903. On the other hand, the vertical count process 904 is a process of counting 0 out of 7 pixels including 3 pixels above and below the target pixel in the vertical direction when the left or right pixel of the target pixel is 0. The situation is shown at 905.

共に前述した1bitの制御信号が0の画素数のカウントからエッジを検出しようとする処理であるが、いずれも、ラプラシアンのようなフィルタ処理ではなく、画素数をカウントすることで水平方向と垂直方向とのエッジを検出していることを特徴としている。具体的な処理については、前述した水平カウント処理902と垂直カウント処理904に示したとおりである。このような処理によって求めたカウント結果を、注目画素における3bitのfg_xとfg_yとして出力する構成になっている。   Both of the above-mentioned processes try to detect the edge from the count of the number of pixels where the 1-bit control signal is 0. In both cases, the horizontal direction and the vertical direction are counted by counting the number of pixels instead of the filter processing like Laplacian. It is characterized in that the edge is detected. Specific processing is as shown in the horizontal count processing 902 and the vertical count processing 904 described above. The count result obtained by such processing is output as 3-bit fg_x and fg_y in the pixel of interest.

すなわち、出力される3bitのfg_xとfg_yは、注目画素を含む水平・垂直方向の7画素中の、1bitの制御信号"OutDataZ"が0(図6の制御信号生成部403によれば、各オブジェクトで所定濃度未満であり、且つ"thin=1"の場合の回避処理が無い場合)である画素数である。   That is, the output 3-bit fg_x and fg_y are set so that the 1-bit control signal “OutDataZ” of 7 pixels in the horizontal and vertical directions including the target pixel is 0 (according to the control signal generation unit 403 in FIG. The number of pixels is less than a predetermined density and there is no avoidance process when “thin = 1”.

(3−3−2.第1補正部用第1エッジ検出手段102)
次に、もう1つのエッジ検出手段である第1補正部用第1エッジ検出手段102について説明する。処理の詳細を図11にC言語プログラム1001で示した。本処理は、大きく分けて3段階の処理になっている。最初の0制御信号検出1002で、注目画素を含む7×7のエリアで全ての1bitの制御信号"OutDataZ"が1でなければ"edge"を1とするが、第2及び第3段階では、15×7のエリアで、図6のif文604での"thin"判断で置き換えられた"reg_Zchech"の画素数に基づいて"edge"を0に変える。
(3-3-2. First edge detecting unit 102 for the first correcting unit)
Next, the first edge detection unit 102 for the first correction unit, which is another edge detection unit, will be described. Details of the processing are shown in FIG. This process is roughly divided into three stages. In the first 0 control signal detection 1002, if all 1-bit control signals “OutDataZ” are not 1 in the 7 × 7 area including the target pixel, “edge” is set to 1, but in the second and third stages, In the 15 × 7 area, “edge” is changed to 0 based on the number of pixels of “reg_Zchech” replaced by the “thin” determination in the if statement 604 of FIG.

まず、0制御信号検出1002では、1005に示したようにパラメータ"EdgeSizeB"の領域内に0の制御信号があるかどうか検出する。その結果がedge信号であり、0の制御信号が1つでもあれば"edge"を1とする。   First, the 0 control signal detection 1002 detects whether or not there is a 0 control signal in the area of the parameter “EdgeSizeB” as indicated by 1005. The result is an edge signal. If there is even one control signal of 0, “edge” is set to 1.

次に、所定値画素カウント1003では、1006に示したように15x7の領域内にパラメータ"reg_Zcheck"と同じ値が何画素あるかをカウントする。そのカウント結果が、fg信号である。   Next, in a predetermined value pixel count 1003, as indicated by 1006, the number of pixels having the same value as the parameter “reg_Zcheck” in the 15 × 7 area is counted. The count result is the fg signal.

そして、最後にedge信号リセット1004では、前述したfgのカウント値が閾値パラメータ"thre_B"以上の場合は、前述したedge信号を0にし、それ以外は、そのままedge信号を出力する構成となっている。   Finally, in the edge signal reset 1004, when the above-described fg count value is greater than or equal to the threshold parameter “thre_B”, the above-described edge signal is set to 0, and otherwise, the edge signal is output as it is. .

ここでの特徴は、前述したようにラプラシアンのようなフィルタを用いずにエッジ処理をおこなっていること、そして、パラメータ"reg_Zcheck"と同じ値がエリア内に存在するかをチェックし、同じ値が所定の数あった場合のみ、前述したedgeの情報をクリアすることである。   The feature here is that edge processing is performed without using a filter like Laplacian as described above, and whether the same value as the parameter "reg_Zcheck" exists in the area is checked. Only when there is a predetermined number, the edge information is cleared.

このedge情報をクリアする処理は、図6のif文603,604で説明した所定の濃度から輪郭部補正処理をおこなう弊害を回避するためのものである。ここでいう弊害とは、前にも説明したが、グラデーション部の途中濃度で、オブジェクトの中に輪郭部補正処理がかかってしまわないようにする為のものである。つまり、通常、本処理は、オブジェクトの輪郭のみに施すことを目的としており、それ以外の箇所に処理をかけない為である。   The processing for clearing the edge information is for avoiding the adverse effect of performing the contour correction processing from the predetermined density described in the if statements 603 and 604 in FIG. As described above, the adverse effect is to prevent the contour portion correction process from being applied to the object at the halfway density of the gradation portion. That is, this processing is usually intended to be performed only on the outline of the object, and processing is not performed on other portions.

以上説明した処理により、1bitのエッジ信号が生成され"EdgeC"が出力される構成となっている。   Through the processing described above, a 1-bit edge signal is generated and "EdgeC" is output.

(3−3−3.第1補正部用画像出力切り替え処理手段103)
つづいて、第1補正部用画像出力切り替え手段103について説明する。処理の詳細を、図12にC言語プログラム1101で示した。
(3-3-3. First Correction Unit Image Output Switching Processing Unit 103)
Next, the first correction unit image output switching means 103 will be described. Details of the processing are shown in FIG.

本処理には、図12に示したように、前述した第1補正部用第2エッジ検出手段101から出力される"fg_x","fg_y"、第1補正部用第1エッジ検出手段102から出力される"EdgeC"、制御信号生成部403からの"InData"、画像形成処理部401からのスクリーンデータ"InDataS"、乱数生成部704からの乱数"rd"などが入力され、後述する処理を施した後、4bitの"OUTDATA_0"が出力される構成となっている。処理の詳細だが、大きくわけて、出力制御処理1102、出力制御処理1103、出力制御処理1104の3つに分かれている。以下、順に説明していく。   In this processing, as shown in FIG. 12, “fg_x”, “fg_y” output from the first edge detecting unit 101 for the first correcting unit, and the first edge detecting unit 102 for the first correcting unit are used. The output “EdgeC”, “InData” from the control signal generation unit 403, screen data “InDataS” from the image formation processing unit 401, random number “rd” from the random number generation unit 704, and the like are input. After application, 4bit "OUTDATA_0" is output. The details of the process are roughly divided into an output control process 1102, an output control process 1103, and an output control process 1104. Hereinafter, it will be described in order.

まず、出力制御処理1102では、
((fg_x>=(params−>seriateBKx) ) || (fg_y<=(params−>seriateBKy))) && edge!=0 ...(1)
のチェックをおこなう。params−>seriateBKxとparams−>seriateBKyは、3bitのパラメータである。
First, in output control processing 1102,
((fg_x> = (params−> seriateBKx)) || (fg_y <= (params−> seriateBKy))) && edge! = 0 ... (1)
Check for. params-> seriateBKx and params-> seriateBKy are 3-bit parameters.

具体的には、第1補正部用第2エッジ検出手段101で注目画素に対して求めたfg_x、もしくは、fg_yが、上記パラメータ以上であるかどうかをチェックし、上記パラメータ以上ならば、さらに、第1補正部用第1エッジ検出手段102で注目画素に対して求めたedge信号が0以外かをチェックしている。このedge信号とは、前述したEdgeCと等価なものである。ここで、edge信号が0以外ということは、図11で説明したように所定の7×7のエリア内に0のデータが幾つか存在し、15×7のエリア内で"reg_Zcheck"と同じ値が所定数未満であるということを意味している。   Specifically, it is checked whether fg_x or fg_y obtained for the target pixel by the second edge detecting unit 101 for the first correction unit is greater than or equal to the above parameter. It is checked whether or not the edge signal obtained for the target pixel by the first correction unit first edge detecting means 102 is other than zero. This edge signal is equivalent to EdgeC described above. Here, when the edge signal is other than 0, there are some 0 data in a predetermined 7 × 7 area as described in FIG. 11, and the same value as “reg_Zcheck” in the 15 × 7 area. Is less than a predetermined number.

要するに、注目画素のedge信号が0以外であった場合に、(1)の比較文を満足することは、注目画素が水平・垂直方向に所定の数以上のedge信号0が続くエッジ部にあることを示している。言い換えると、注目画素を含むエッジ部は水平・垂直以外のエッジ部であることを指し示している。   In short, when the edge signal of the pixel of interest is other than 0, the fact that the comparison sentence of (1) is satisfied is that the pixel of interest is in an edge portion where a predetermined number or more of edge signals 0 continue in the horizontal and vertical directions. It is shown that. In other words, it indicates that the edge portion including the target pixel is an edge portion other than horizontal and vertical.

このようなエッジに対し、1105に示した範囲内の演算をおこなっている。この演算とは、パラメータ" params−>mask2"と注目画素を含む水平・垂直方向の7画素の3bitの入力データ"InData(Data)"との積和演算(Sum+=)である。尚、この積和演算は図12に限定しないが、基本的にスムージングのようなデジタルフィルタ処理であり、ジャギーの発生するエッジ部にハーフトーンデータを出力するためのデータ作成がおこなわれる構成となっている。   For such an edge, a calculation within the range indicated by 1105 is performed. This calculation is a product-sum operation (Sum + =) of the parameter “params−> mask2” and 7-bit input data “InData (Data)” of 7 pixels in the horizontal and vertical directions including the target pixel. This product-sum operation is not limited to that shown in FIG. 12, but is basically a digital filter process such as smoothing, and is configured to generate data for outputting halftone data to the edge portion where jaggy occurs. ing.

ここで作成された演算結果のデータは、最終的に4bitになるようにLUTIで示すようなルックアップテーブル(メモリ)によって、4bitに変換されて出力される。   The calculation result data created here is converted into 4 bits by a look-up table (memory) as indicated by LUTI so as to be finally 4 bits, and then output.

次に、出力制御処理1103は、(1)の条件文にあてはまらないが、edge!=0---(2)の条件(注目画素に対応するedge信号が0以外)にあてはまる場合の処理をおこなっている。(2)の条件とは、要するに、水平・垂直方向のエッジであることを意味している。そのようなエッジに対しては、出力制御処理1103に示した処理を施している。   Next, the output control processing 1103 does not apply to the conditional statement (1), but the processing when the edge! = 0 --- (2) is satisfied (the edge signal corresponding to the target pixel is other than 0). I'm doing it. The condition (2) basically means that the edges are in the horizontal and vertical directions. The processing shown in the output control processing 1103 is performed on such an edge.

具体的には、注目画素のedge信号が0以外であった場合で、且つ注目画素の3bitのInData(Data[yy][xx])が0以外の場合に、{temp=(Data[yy][xx])+rd}のように3bitのInDataに乱数生成部704で生成した1bitの乱数を付加し、上記条件以外の場合は0を出力する(temp=0)処理である。尚、tempは最大7である。   Specifically, when the edge signal of the pixel of interest is other than 0 and the 3-bit InData (Data [yy] [xx]) of the pixel of interest is other than 0, {temp = (Data [yy] [xx]) + rd} is a process of adding a 1-bit random number generated by the random number generation unit 704 to 3-bit InData, and outputting 0 (temp = 0) in cases other than the above conditions. Note that temp is 7 at maximum.

Data(InData)は3bitにビット変換部1の402で変換されていた為、LUTEのようなテーブルを用いて4bitに変換して出力する必要がある。   Since Data (InData) has been converted into 3 bits by 402 of the bit conversion unit 1, it is necessary to convert it into 4 bits using a table such as LUTE and output it.

尚、前述した乱数rdの加算は必須ではなく、加算しない場合(0を加算する場合)もあり得ることは言うまでもない。ただし、この乱数を加算すると、エッジ部の階調性が改善される効果はある。   Needless to say, the addition of the random number rd described above is not essential and may not be added (when 0 is added). However, adding this random number has the effect of improving the gradation of the edge portion.

最後に、出力制御処理1104は、前述した(1),(2)の条件にあてはまらなかった場合(すなわち、edge=0)の処理をおこなっている。つまり、エッジ以外の箇所である。そのような箇所に対しては、入力されたInDataSの値をそのまま出力する構成となっている。言い換えると、画像形成処理部401で擬似中間処理などの画像形成処理したデータをそのまま出力している。   Finally, the output control processing 1104 performs processing when the conditions (1) and (2) described above are not satisfied (that is, edge = 0). That is, it is a place other than the edge. For such a location, the input InDataS value is output as it is. In other words, data subjected to image formation processing such as pseudo intermediate processing by the image formation processing unit 401 is output as it is.

以上、説明した輪郭部補正処理は、エッジ部を検出する処理のデータ(InDataやDataZ, reg_Zcheckなど)が、画像形成処理401の出力データ、つまり擬似中間調処理データとは異なることが、従来のスムージングとは異なる点である。その結果、スクリーンのような画像形成処理を施した画像に対しても、問題なくエッジ部にスムージング処理がかけられ、かつ、JPEGのような画像劣化がある画像に対しても、画像形成処理前のデータを3bit化して1bit信号を作成することで、問題なくスムージング処理がかけられる。さらに、本実施形態により、オブジェクト毎に、自由に輪郭部補正処理がコントロール可能となった。   As described above, in the contour correction processing described above, the processing data (InData, DataZ, reg_Zcheck, etc.) for detecting the edge portion is different from the output data of the image forming processing 401, that is, pseudo halftone processing data. This is different from smoothing. As a result, even for images that have undergone image formation processing such as a screen, smoothing processing is applied to the edge portion without any problem, and even for images that have image degradation such as JPEG, By creating 3bit data and creating 1bit signal, smoothing can be applied without any problem. Furthermore, according to the present embodiment, the contour correction process can be freely controlled for each object.

(3−4.第2画像信号補正部706)
次に、図7に示した第2画像信号補正部706について、図13を用いて説明する。
(3-4. Second Image Signal Correction Unit 706)
Next, the second image signal correction unit 706 shown in FIG. 7 will be described with reference to FIG.

図13に示した処理には、第1画像信号補正部705と同様に、前述した"OutDataZ","InData","InDataS","rd"が入力され、補正信号として4bitの"OUTData_1"が出力される構成となっている。入力される信号は、図9で説明したものと同じである。   In the processing shown in FIG. 13, as in the case of the first image signal correction unit 705, the aforementioned “OutDataZ”, “InData”, “InDataS”, “rd” are input, and 4-bit “OUTData_1” is input as the correction signal. It is configured to output. The input signal is the same as that described in FIG.

内部の処理も、前述した図9と同様に3つに分かれており、第2補正部用第2エッジ検出手段1201と第2補正部用第1エッジ検出手段1202、そして、第2補正部用画像出力切り替え手段1203である。   The internal processing is also divided into three as in FIG. 9 described above. The second correction unit second edge detection unit 1201, the second correction unit first edge detection unit 1202, and the second correction unit use This is image output switching means 1203.

(3−4−1.第2補正部用第2エッジ検出手段1201)
第2補正部用第2エッジ検出手段1201の詳細は、図14のC言語プログラム1301で示したとおりである。
(3-4-1. Second Edge Detection Unit 1201 for Second Correction Unit)
The details of the second edge detection unit 1201 for the second correction unit are as shown in the C language program 1301 of FIG.

図14に示したように、第2補正部用第2エッジ検出手段1201の処理は、大きく分けて、1bitの制御信号"OutDataZ"が1である画素数をカウントする水平カウント処理1302と垂直カウント処理1304との2つに分かれている。水平カウント処理1302の方は、注目画素の上又は下画素が0以外である場合の、水平方向に注目画素左右の3画素を含む7画素中の水平方向に0以外をカウントする処理となっている。その様子を1303に示した。一方、垂直カウント処理1304の方は、注目画素の左又は右画素が0以外である場合の、垂直方向に注目画素上下の3画素を含む7画素中の垂直方向に0以外をカウントする処理となっている。その様子を1305に示した。   As shown in FIG. 14, the processing of the second edge detecting unit 1201 for the second correction unit is roughly divided into a horizontal count process 1302 for counting the number of pixels in which the 1-bit control signal “OutDataZ” is 1, and a vertical count. The process is divided into two processes 1304. The horizontal counting process 1302 is a process of counting non-zero in the horizontal direction among seven pixels including three pixels on the left and right of the target pixel in the horizontal direction when the upper or lower pixel of the target pixel is other than zero. Yes. The situation is shown at 1303. On the other hand, the vertical counting process 1304 is a process of counting non-zero in the vertical direction among seven pixels including three pixels above and below the target pixel in the vertical direction when the left or right pixel of the target pixel is other than zero. It has become. The situation is shown in 1305.

共に前述した0以外である1bitの制御信号からエッジを検出する処理であるが、いずれも、前述した図9と同様、ラプラシアンのようなフィルタ処理ではなく、0以外の画素数をカウントすることで水平方向と垂直方向のエッジを検出している。ところで、fg_x1,fg_x2のように左右、或いは、fg_y1,fg_y2のように上下に分割してカウントし、左右、上下のいずれにも0以外である制御信号がある場合にはカウントを0としているところが、例えばif(fg_x1!=0&&fg_x2!=0){fg_x=0;}、前述した第1補正部用第2エッジ検出手段101と異なる。   Both are processing for detecting an edge from a 1-bit control signal other than 0 as described above. However, as in the case of FIG. 9 described above, both are not filter processing such as Laplacian, but count the number of pixels other than 0. Edges in the horizontal and vertical directions are detected. By the way, it is divided into left and right like fg_x1 and fg_x2, or divided up and down like fg_y1 and fg_y2, and when there is a control signal other than 0 in both left and right and up and down, the count is 0. For example, if (fg_x1! = 0 && fg_x2! = 0) {fg_x = 0;}, which is different from the second edge detection means 101 for the first correction unit described above.

以上、水平カウント処理1302と垂直カウント処理1304に示したような処理によって求めた0以外のカウント結果を、注目画素に対応し3bitのfg_xとfg_yとして出力する構成になっている。   As described above, the count result other than 0 obtained by the processes shown in the horizontal count process 1302 and the vertical count process 1304 is output as 3 bits of fg_x and fg_y corresponding to the target pixel.

(3−4−2.第2補正部用第1エッジ検出手段1202)
次に、もう1つのエッジ検出手段である第2補正部用第1エッジ検出手段1202について説明する。処理の詳細を図15にC言語プログラム1401で示した。本処理は、大きく分けて3段階の処理になっている。
(3-4-2. First Edge Detection Unit 1202 for Second Correction Unit)
Next, the second edge detecting unit first edge detecting unit 1202 which is another edge detecting unit will be described. Details of the processing are shown by a C language program 1401 in FIG. This process is roughly divided into three stages.

まず、1制御信号検出処理1402に示した部分だが、1405に示したようにパラメータ"EdgeSizeW"の領域内に1の制御信号があるかどうか検出する。その結果が、edge信号である。   First, as shown in 1405, it is detected whether there is one control signal in the area of the parameter “EdgeSizeW” as shown in 1405. The result is an edge signal.

次に、所定値画素カウント1403に示した部分だが、1406に示したように15x7の領域内に、パラメータ"Zcheck"と同じ値が何画素あるかをカウントする。その結果が、fg信号である。   Next, in the portion indicated by the predetermined value pixel count 1403, as shown by 1406, the number of pixels having the same value as the parameter “Zcheck” in the 15 × 7 region is counted. The result is the fg signal.

そして、最後にedge信号リセット1404では、前述したfgのカウント値がパラメータ"thre_W"以上の場合は、前述したedge信号を0にし、それ以外は、そのまま、edge信号を出力する構成となっている。   Finally, the edge signal reset 1404 is configured to output the edge signal as it is when the count value of fg described above is equal to or greater than the parameter “thre_W”, otherwise the edge signal is set to 0. .

従来のスムージングと大きく異なる点は、前述したようにラプラシアンのようなフィルタを用いずにエッジ処理をおこなっていること、そして、パラメータ"Zcheck"と同じ値がエリア内に存在するかをチェックし、同じ値が任意の数あった場合のみ、前述したedgeの情報をクリアすることである。   The major difference from conventional smoothing is that edge processing is performed without using a filter like Laplacian as described above, and whether the same value as the parameter "Zcheck" exists in the area, Only when there are an arbitrary number of the same values, the above-described edge information is cleared.

これにより、得られる効果は、図11の説明でおこなったものと等価である。効果の内容については、繰り返しになるので、説明を略する。このような処理により、1bitのエッジ信号が生成され"EdgeC"が出力される構成となっている。   Thus, the obtained effect is equivalent to that obtained in the description of FIG. Since the contents of the effect are repeated, the explanation is omitted. By such processing, a 1-bit edge signal is generated and “EdgeC” is output.

(3−4−3.第2補正部用画像出力切り替え手段1203)
つづいて、第2補正部用画像出力切り替え手段1203について説明する。処理の詳細を、図16にC言語プログラム1501で示した。
(3-4-3. Second Correction Unit Image Output Switching Unit 1203)
Next, the second correction unit image output switching means 1203 will be described. Details of the processing are shown by a C language program 1501 in FIG.

処理の基本は、前述した第1補正部用画像出力切り替え手段103と等価である為、詳細な説明は略する。ただし、fg_x,fg_y,EdgeC(edge)の信号の意味が異なる。これらの意味については前述したとおりであるが、まとめると、第1補正部用画像出力切り替え手段103へ入力されていたfg_x,fg_y,EdgeCは、制御信号(DataZ)が0の画素数をカウントした結果であった。一方、図16に示したfg_x,fg_y,EdgeCは、制御信号(DataZ)が1の画素数をカウントしている。その点が大きく異なる。その他については、基本的に等価である。   Since the basic processing is equivalent to the first correction unit image output switching means 103 described above, detailed description thereof is omitted. However, the meanings of the signals fg_x, fg_y, and EdgeC (edge) are different. Although these meanings are as described above, fg_x, fg_y, and EdgeC input to the first correction unit image output switching unit 103 count the number of pixels with the control signal (DataZ) of 0. It was a result. On the other hand, fg_x, fg_y, and EdgeC shown in FIG. 16 count the number of pixels whose control signal (DataZ) is 1. The point is very different. Others are basically equivalent.

(3−5.セレクタ707)
以上説明してきた第1画像信号補正部705の出力"OUTData_1"と、第2画像信号補正部706の出力"OUTData_2"とが、図7に示したセレクタ707に入力され、4bitの最終出力信号"OutputData"が出力される構成となっている。
(3-5. Selector 707)
The output “OUTData_1” of the first image signal correction unit 705 and the output “OUTData_2” of the second image signal correction unit 706 described above are input to the selector 707 shown in FIG. OutputData "is output.

このセレクタ707は、注目画素位置のデータに応じて出力を切り替える処理をおこなっている。注目画素のデータとは、前述した制御信号(DataZ=OutDataZ)であり、この信号が1のときは、第1画像信号補正部705の出力を選択し、0のときは、第2画像信号補正部706の出力を選択する構成となっている。   The selector 707 performs a process of switching the output according to the data of the target pixel position. The pixel of interest data is the control signal (DataZ = OutDataZ) described above. When this signal is 1, the output of the first image signal correction unit 705 is selected, and when it is 0, the second image signal correction is performed. The output of the unit 706 is selected.

<本実施形態の作用効果>
上記で説明した処理を施した結果が、スムージング処理結果としてプリンタ305に出力される構成となっている。
<Operational effects of this embodiment>
The result of performing the processing described above is output to the printer 305 as the smoothing processing result.

出力されたイメージを図17に示した。着目箇所は、エッジ部である。図17に示したようにスクリーンのパターンの間を埋めるようにデータが薄く出力されることを特徴としている。   The output image is shown in FIG. The point of interest is an edge portion. As shown in FIG. 17, data is output lightly so as to fill in between the screen patterns.

不図示だが、さらに、JPEGのような非可逆な圧縮処理を施した画像に対しても、問題なくエッジ部の改善ができることも前述したとおりである。理由は、エッジ検出用の画像を作成する際、3ビットにビット変換し、さらに、その画像より1ビットの制御信号を作成しているため、圧縮による微妙な劣化情報を除去できる効果があるからである。   Although not shown, as described above, the edge portion can be improved without problems even for an image subjected to irreversible compression processing such as JPEG. The reason is that, when creating an image for edge detection, bit conversion is performed to 3 bits, and furthermore, since a 1-bit control signal is created from the image, it is possible to remove subtle deterioration information due to compression. It is.

同様に不図示だが、本発明の特徴でもある小文字や線幅が1〜2ピクセル(任意)の細線に対してのみ、前述した処理をかけない制御も可能になる。   Similarly, although not shown in the figure, it is possible to perform control without applying the above-described processing only to a small line that is a feature of the present invention and has a line width of 1-2 pixels (arbitrary).

<その他の実施形態例>
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
<Other embodiment examples>
In the present invention, a storage medium recording software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium in the storage medium. Needless to say, this can also be achieved by reading and executing the programmed program code.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク,ハードディスク,光ディスク,光磁気ディスク,CD-ROM,CD-R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written to a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the card or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

例えば、PC上のドライバでこれらの処理をおこなう場合が、これに相当することは言うまでもない。   For example, it goes without saying that this processing is performed by a driver on a PC.

本実施形態の制御システムのブロック構成の概略を示す図である。It is a figure which shows the outline of a block configuration of the control system of this embodiment. 本実施形態のシステムを構成する複写機の機械的構成の概略を示す図である。1 is a diagram illustrating an outline of a mechanical configuration of a copier that constitutes a system of an embodiment. 本実施形態の画像処理信号のフローの概略を示すブロック図である。It is a block diagram which shows the outline of the flow of the image processing signal of this embodiment. 本実施形態スムージング処理の概要を示すブロック図である。It is a block diagram which shows the outline | summary of the smoothing process of this embodiment. 図4のビット変換部を示すブロック図及びC言語プログラムの例を示す図である。FIG. 5 is a block diagram showing a bit conversion unit in FIG. 4 and an example of a C language program. 図4の制御信号生成部を示すブロック図及びC言語プログラムの例を示す図である。FIG. 5 is a block diagram illustrating a control signal generation unit in FIG. 4 and an example of a C language program. 図4の画像信号生成部を示すブロック図である。It is a block diagram which shows the image signal generation part of FIG. 図7の乱数生成部を示すブロック図及びC言語プログラムの例を示す図である。FIG. 8 is a block diagram illustrating a random number generation unit in FIG. 7 and a diagram illustrating an example of a C language program. 図7の第1画像信号補正部を示すブロック図である。It is a block diagram which shows the 1st image signal correction | amendment part of FIG. 図9の第1補正部用第2エッジ検出手段を示すブロック図及びC言語プログラムの例を示す図である。FIG. 10 is a block diagram illustrating a second edge detecting unit for the first correction unit in FIG. 9 and a diagram illustrating an example of a C language program. 図9の第1補正部用第1エッジ検出手段を示すブロック図及びC言語プログラムの例を示す図である。FIG. 10 is a block diagram illustrating a first edge detection unit for the first correction unit in FIG. 9 and a diagram illustrating an example of a C language program. 図9の第1補正部用画像出力切り替え手段を示すブロック図及びC言語プログラムの例を示す図である。FIG. 10 is a block diagram showing the first correction unit image output switching means of FIG. 9 and an example of a C language program. 図7の第2画像信号補正部を示すブロック図である。It is a block diagram which shows the 2nd image signal correction | amendment part of FIG. 図13の第2補正部用第2エッジ検出手段2を示すブロック図及びC言語プログラムの例を示す図である。FIG. 14 is a block diagram illustrating a second edge detecting unit 2 for the second correcting unit in FIG. 13 and an example of a C language program. 図13の第2補正部用第1のエッジ検出手段を示すブロック図及びC言語プログラムの例を示す図である。FIG. 14 is a block diagram illustrating a first edge detecting unit for the second correction unit in FIG. 13 and a diagram illustrating an example of a C language program. 図13の第2補正部用画像出力切り替え手段を示すブロック図及びC言語プログラムの例を示す図である。FIG. 14 is a block diagram illustrating a second correction unit image output switching unit in FIG. 13 and a diagram illustrating an example of a C language program. 本実施形態によりスクリーン処理のジャギーを改善したイメージ図である。It is an image figure which improved the jaggy of the screen processing by this embodiment. ジャギーを示すイメージ図である。It is an image figure which shows jaggy. 従来のスムージングでジャギーを改善した状態を示すイメージ図である。It is an image figure which shows the state which improved jaggy by the conventional smoothing. ハーフトーン文字にスクリーン処理をかけたイメージ図である。It is the image figure which applied the screen process to the halftone character. スクリーン処理により発生するジャギーを示すイメージ図である。It is an image figure which shows the jaggy generated by a screen process.

Claims (15)

多値画像データと、前記多値画像データを擬似中間調処理した処理画像データと、前記多値画像データの属性データとを入力し、前記処理画像データの輪郭部を補正して出力する画像処理回路を有する画像処理装置であって、
前記画像処理回路が、
前記多値画像データの注目画素の画像データと該画像データの属性を示す属性データに基づき、前記処理画像データの輪郭部画素の補正を行うか否かを制御する制御手段と
前記制御手段の制御に基づき、前記処理画像データの輪郭部の補正を行う輪郭部補正手段とを有し、
前記属性データは、前記多値画像データの注目画素の画像データを含むオブジェクトのサイズを示すデータを含み、
前記制御手段は、該オブジェクトのサイズを考慮して前記処理画像データの輪郭部画素の補正を行うか否かを制御することを特徴とする画像処理装置。
And the multi-level image data, and processing the image data of the multivalued image data processed halftone, the type and attribute data of the multivalued image data, image processing for output by correcting the contours of the processed image data An image processing apparatus having a circuit ,
The image processing circuit is
Control means for said based on the multivalued image attribute data indicating the attribute of the image data and the image data of the target pixel data, to control whether or not to correct the pixel of the contour portion of the processed image data,
Contour correction means for correcting the contour of the processed image data based on the control of the control means ;
The attribute data includes data indicating a size of an object including image data of a target pixel of the multi-value image data ,
The image processing apparatus according to claim 1, wherein the control means controls whether or not to correct a pixel in a contour portion of the processed image data in consideration of the size of the object.
前記属性データは、前記多値画像データの注目画素が細い、あるいは小さなオブジェクトに含まれることを表すデータを含むことを特徴とする請求項1記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the attribute data includes data indicating that a target pixel of the multi-value image data is included in a thin or small object. 前記属性データは、前記多値画像データの注目画素が線、グラフィック、文字のいずれかのオブジェクトに含まれることを表すデータを含むことを特徴とする請求項1又は2記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the attribute data includes data indicating that a target pixel of the multi-valued image data is included in a line, graphic, or character object. 前記制御手段は、前記多値画像データの注目画素の画像データと該画像データの属性を示す属性データとに基づき生成された輪郭検出用データに対応して、前記輪郭部補正手段により輪郭部画素の補正を行うか否かを制御することを特徴とする請求項1記載の画像処理装置。 The control unit corresponds to contour detection data generated based on the image data of the target pixel of the multi-valued image data and the attribute data indicating the attribute of the image data. The image processing apparatus according to claim 1, wherein whether or not correction is performed is controlled. 前記輪郭部補正手段は、第1状態の前記輪郭検出用データの画素配置に基づいて輪郭部を検出して補正する第1輪郭部補正手段と、前記第1状態とは異なる第2状態の前記輪郭検出用データの画素配置に基づいて輪郭部を検出して補正する第2輪郭部補正手段とを含み、
前記制御手段は、前記輪郭検出用データが第1状態の場合に前記第1輪郭部補正手段を選択し、前記輪郭検出用データが第2状態の場合に前記第2輪郭部補正手段を選択することを特徴とする請求項4記載の画像処理装置。
The contour correction means detects a contour portion based on a pixel arrangement of the contour detection data in a first state and corrects the contour portion in a second state different from the first state. Second contour correction means for detecting and correcting the contour based on the pixel arrangement of the contour detection data,
The control means selects the first contour correction means when the contour detection data is in the first state, and selects the second contour correction means when the contour detection data is in the second state. The image processing apparatus according to claim 4.
前記属性データが前記多値画像データの注目画素が細い、あるいは小さなオブジェクトに含まれることを表す場合に、前記制御手段は、前記輪郭部補正手段による輪郭部の補正を回避させることを特徴とする請求項2記載の画像処理装置。 When the attribute data indicates that the target pixel of the multi-value image data is included in a thin or small object, the control unit avoids the correction of the contour portion by the contour portion correction unit. The image processing apparatus according to claim 2. 前記制御手段は、前記輪郭部補正手段による輪郭部の検出を回避させることを特徴とする請求項6記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the control unit avoids detection of a contour portion by the contour portion correcting unit. 多値画像データと、前記多値画像データを擬似中間調処理した処理画像データと、前記多値画像データの属性データとを入力し、前記処理画像データの輪郭部を補正してスムージング処理する画像処理回路であって、
前記多値画像データの注目画素の画像データと該画像データの属性を示す属性データに基づき、前記処理画像データの輪郭部画素の補正を行うか否かを制御する制御手段と
前記制御手段の制御に基づき、前記処理画像データの輪郭部の補正を行う輪郭部補正手段とを有し、
前記属性データは、前記多値画像データの注目画素の画像データを含むオブジェクトのサイズを示すデータを含み、
前記制御手段は、該オブジェクトのサイズを考慮して前記処理画像データの輪郭部画素の補正を行うか否かを制御することを特徴とする画像処理回路。
Multi-valued image data, processed image data obtained by performing pseudo halftone processing on the multi-valued image data, and attribute data of the multi-valued image data are input, and an image that is subjected to smoothing processing by correcting the contour of the processed image data A processing circuit,
Control means for said based on the multivalued image attribute data indicating the attribute of the image data and the image data of the target pixel data, to control whether or not to correct the pixel of the contour portion of the processed image data,
Contour correction means for correcting the contour of the processed image data based on the control of the control means ;
The attribute data includes data indicating a size of an object including image data of a target pixel of the multi-value image data ,
The image processing circuit, wherein the control means controls whether or not to correct a pixel in a contour portion of the processed image data in consideration of the size of the object.
前記属性データが前記の多値画像データの注目画素が細い、あるいは小さなオブジェクトに含まれることを表す場合に、前記制御手段は、前記輪郭部補正手段による輪郭部の補正を回避させることを特徴とする請求項8記載の画像処理回路。 When the attribute data indicates that the target pixel of the multi-value image data is included in a thin or small object, the control unit avoids correction of a contour portion by the contour portion correction unit. The image processing circuit according to claim 8. 多値画像データと、前記多値画像データを擬似中間調処理した処理画像データと、前記多値画像データの属性データとを入力し、前記処理画像データの輪郭部を補正してスムージング処理する画像処理方法であって、
前記多値画像データの注目画素の画像データと該画像データの属性を示す属性データに基づき、前記処理画像データの輪郭部画素の補正を行うか否かを制御する制御工程と
前記制御工程での制御に基づき、前記処理画像データの輪郭部の補正を行う輪郭部補正工程とを有し、
前記属性データは、前記多値画像データの注目画素の画像データを含むオブジェクトのサイズを示すデータを含み、
前記制御工程では、該オブジェクトのサイズを考慮して前記処理画像データの輪郭部画素の補正を行うか否かを制御することを特徴とする画像処理方法。
Multi-valued image data, processed image data obtained by performing pseudo halftone processing on the multi-valued image data, and attribute data of the multi-valued image data are input, and an image that is subjected to smoothing processing by correcting the contour of the processed image data A processing method,
And a control step of the based on the multivalued image attribute data indicating the attribute of the image data and the image data of the target pixel data, to control whether or not to correct the pixel of the contour portion of the processed image data,
A contour correction step for correcting the contour of the processed image data based on the control in the control step ;
The attribute data includes data indicating a size of an object including image data of a target pixel of the multi-value image data ,
In the control step, the image processing method is characterized by controlling whether or not to correct a pixel in a contour portion of the processed image data in consideration of the size of the object.
前記属性データが前記多値画像データの注目画素が細い、あるいは小さなオブジェクトに含まれることを表す場合に、前記輪郭部の補正を回避させることを特徴とする請求項10記載の画像処理方法。 The image processing method according to claim 10, wherein when the attribute data indicates that a target pixel of the multi-value image data is included in a thin or small object, correction of the contour portion is avoided. 多値画像データと、前記多値画像データを擬似中間調処理した処理画像データと、前記多値画像データの属性データとを入力し、前記処理画像データの輪郭部を補正してスムージング処理を含む画像処理を実行する画像処理プログラムであって、
前記多値画像データの注目画素の画像データと該画像データの属性を示す属性データに基づき、前記処理画像データの輪郭部画素の補正を行うか否かを制御する制御モジュールと
前記制御モジュールの制御に基づき、前記処理画像データの輪郭部の補正を行う輪郭部補正モジュールとを有し、
前記属性データは、前記多値画像データの注目画素の画像データを含むオブジェクトのサイズを示すデータを含み、
前記制御モジュールでは、該オブジェクトのサイズを考慮して前記処理画像データの輪郭部画素の補正を行うか否かを制御するよう、コンピュータに実行させるための画像処理プログラム。
Including multivalued image data, processed image data obtained by performing pseudo halftone processing on the multivalued image data, and attribute data of the multivalued image data, and correcting a contour portion of the processed image data to include a smoothing process An image processing program for executing image processing,
A control module the based on the multivalued image attribute data indicating the attribute of the image data and the image data of the target pixel data, to control whether or not to correct the pixel of the contour portion of the processed image data,
A contour correction module that corrects the contour of the processed image data based on the control of the control module ;
The attribute data includes data indicating a size of an object including image data of a target pixel of the multi-value image data ,
An image processing program for causing the computer to execute, in the control module, controlling whether or not to correct a pixel in a contour portion of the processed image data in consideration of the size of the object.
前記属性データが前記多値画像データの注目画素が細い、あるいは小さなオブジェクトに含まれることを表す場合に、前記制御モジュールは、前記輪郭部補正モジュールによる輪郭部の補正を回避させることを特徴とする請求項12記載の画像処理プログラム。 When the attribute data indicates that the target pixel of the multi-valued image data is thin or included in a small object, the control module avoids correction of a contour portion by the contour portion correction module. The image processing program according to claim 12. 多値画像データと、前記多値画像データを擬似中間調処理した処理画像データと、前記多値画像データの属性データとを入力し、前記処理画像データの輪郭部を補正してスムージング処理を含む画像処理を実行する画像処理プログラムを記憶したコンピュータ読み取り可能記憶媒体であって、
前記画像処理プログラムが、
前記多値画像データの注目画素の画像データと該画像データの属性を示す属性データに基づき、前記処理画像データの輪郭部画素の補正を行うか否かを制御する制御モジュールと
前記制御モジュールの制御に基づき、前記処理画像データの輪郭部の補正を行う輪郭部補正モジュールとを有し、
前記属性データは、前記多値画像データの注目画素の画像データを含むオブジェクトのサイズを示すデータを含み、
前記制御モジュールでは、該オブジェクトのサイズを考慮して前記処理画像データの輪郭部画素の補正を行うか否かを制御するよう、コンピュータに実行させるための画像処理プログラムであることを特徴とする記憶媒体。
Including multivalued image data, processed image data obtained by performing pseudo halftone processing on the multivalued image data, and attribute data of the multivalued image data, and correcting a contour portion of the processed image data to include a smoothing process a computer-readable storage medium storing an image processing program for performing image processing,
The image processing program is
A control module the based on the multivalued image attribute data indicating the attribute of the image data and the image data of the target pixel data, to control whether or not to correct the pixel of the contour portion of the processed image data,
A contour correction module that corrects the contour of the processed image data based on the control of the control module ;
The attribute data includes data indicating a size of an object including image data of a target pixel of the multi-value image data ,
The control module is an image processing program for causing a computer to execute control to determine whether or not to correct a pixel in a contour portion of the processed image data in consideration of the size of the object. Storage medium.
前記属性データが前記多値画像データの注目画素が細い、あるいは小さなオブジェクトに含まれることを表す場合に、前記制御モジュールは、前記輪郭部補正モジュールによる輪郭部の補正を回避させることを特徴とする請求項14記載の記憶媒体。 When the attribute data indicates that the target pixel of the multi-valued image data is thin or included in a small object, the control module avoids correction of a contour portion by the contour portion correction module. The storage medium according to claim 14.
JP2005061067A 2005-03-04 2005-03-04 Image processing method and apparatus Expired - Fee Related JP4137067B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005061067A JP4137067B2 (en) 2005-03-04 2005-03-04 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005061067A JP4137067B2 (en) 2005-03-04 2005-03-04 Image processing method and apparatus

Publications (2)

Publication Number Publication Date
JP2006244277A JP2006244277A (en) 2006-09-14
JP4137067B2 true JP4137067B2 (en) 2008-08-20

Family

ID=37050619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005061067A Expired - Fee Related JP4137067B2 (en) 2005-03-04 2005-03-04 Image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP4137067B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2230830A2 (en) 2009-03-19 2010-09-22 Canon Kabushiki Kaisha Image processing apparatus and control method of image forming apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2230830A2 (en) 2009-03-19 2010-09-22 Canon Kabushiki Kaisha Image processing apparatus and control method of image forming apparatus
US8416460B2 (en) 2009-03-19 2013-04-09 Canon Kabushiki Kaisha Image processing apparatus and control method of image forming apparatus with exclusive or relative control over the trapping and edge smoothing processing

Also Published As

Publication number Publication date
JP2006244277A (en) 2006-09-14

Similar Documents

Publication Publication Date Title
US9734439B2 (en) Image processing apparatus and method thereof
JP4912270B2 (en) Image processing apparatus and control method thereof
JP3822975B2 (en) How to distinguish text / line drawing and halftone
JP4045015B2 (en) Raster image resolution improvement method
US8228561B2 (en) Method and system for selective bitmap edge smoothing
US7916352B2 (en) Image processing apparatus, image processing method, program, and recording medium
US20220294931A1 (en) Information processing apparatus, image processing method, and medium
JPH11154226A (en) Method and device for improving resolution
US20020067509A1 (en) Method, apparatus and system for dynamic switching of image processing techniques
JP5212294B2 (en) Image processing apparatus and image processing method
EP0878771A2 (en) Programmable mapping of lower resolution digital data to a higher resolution output device
JP4894488B2 (en) Image processing apparatus and image processing method
JP4217706B2 (en) Image processing apparatus and image processing method
US20070258101A1 (en) Method and system for improved copy quality in a multifunction reprographic system
JP4086756B2 (en) Image processing apparatus and image processing method
JP3950839B2 (en) Image processing apparatus and image processing method
JP4861506B2 (en) Image processing apparatus and control method thereof
JP4137067B2 (en) Image processing method and apparatus
JP2007312013A (en) Image processing apparatus, image forming apparatus, and image processing method
US10389909B2 (en) Image processing apparatus that specifies edge pixel in target image using minimum and maximum component values of pixel value in target image data
JP4324532B2 (en) Image processing apparatus and storage medium
JP4143519B2 (en) Image processing method and apparatus
JP3768560B2 (en) Image processing apparatus and method
JP2009134583A (en) Image forming apparatus, image forming method, computer program and recording medium
JP5181916B2 (en) Image processing apparatus, compression method and decompression method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080516

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080603

R150 Certificate of patent or registration of utility model

Ref document number: 4137067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees