[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5675856B2 - Image processing apparatus and method, and storage medium storing program - Google Patents

Image processing apparatus and method, and storage medium storing program Download PDF

Info

Publication number
JP5675856B2
JP5675856B2 JP2013005003A JP2013005003A JP5675856B2 JP 5675856 B2 JP5675856 B2 JP 5675856B2 JP 2013005003 A JP2013005003 A JP 2013005003A JP 2013005003 A JP2013005003 A JP 2013005003A JP 5675856 B2 JP5675856 B2 JP 5675856B2
Authority
JP
Japan
Prior art keywords
correction
saturation
value
luminance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013005003A
Other languages
Japanese (ja)
Other versions
JP2013093897A (en
Inventor
梅田 清
清 梅田
井口 良介
良介 井口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013005003A priority Critical patent/JP5675856B2/en
Publication of JP2013093897A publication Critical patent/JP2013093897A/en
Application granted granted Critical
Publication of JP5675856B2 publication Critical patent/JP5675856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、画像に対して所望の階調補正を行った際に、適切な彩度コントロールを行うことにより、彩度低下感を防止した良好な補正結果を得ることができる画像処理装置、方法に関する。   The present invention provides an image processing apparatus and method capable of obtaining a good correction result that prevents a feeling of desaturation by performing appropriate saturation control when desired gradation correction is performed on an image. About.

従来より、画像中から人物などの主要被写体を検出し、該被写体の明るさを適切にするような階調補正を行う技術が提案されている。その際に課題となるのが、階調補正後の彩度低下感の防止である。このことを、図22、図23を用いて説明する。   Conventionally, a technique has been proposed in which a main subject such as a person is detected from an image and gradation correction is performed so that the brightness of the subject is appropriate. In this case, a problem is prevention of a feeling of lower saturation after gradation correction. This will be described with reference to FIGS. 22 and 23. FIG.

図22は、画像中の暗い領域に含まれる画素値の例で、横軸はRGB各成分を、縦軸は成分値を示している。暗い領域の画素であるため、RGB成分値が全体的に小さい値となっている。   FIG. 22 is an example of pixel values included in a dark area in an image, where the horizontal axis indicates each RGB component and the vertical axis indicates the component value. Since it is a pixel in a dark region, the RGB component value is a small value as a whole.

このような画素値に対して、RGB成分値を輝度色差空間(例えば、YCbCr空間)に変換し、該空間において輝度成分のみ所定量上昇し、再度RGB空間に変換したものが、図23である。   FIG. 23 shows an RGB component value converted into a luminance color difference space (for example, YCbCr space) with respect to such a pixel value, only the luminance component is increased by a predetermined amount in the space, and converted into the RGB space again. .

図23に示すように、輝度成分において輝度値のみを所定量上昇すると、RGB空間において全ての成分に均等に該所定量2301が加算されることとなる。   As shown in FIG. 23, when only the luminance value is increased by a predetermined amount in the luminance component, the predetermined amount 2301 is equally added to all the components in the RGB space.

よく知られているように、画素値の彩度が高い状態とは、RGB成分間の相対的な差異が大きい状態である。もし、RGB成分間の相対比が1.0、つまり同値であれば、その画素は彩度0のグレー画素ということになる。例えば図22でいえば、R成分に対するG成分の相対比は2.0倍程度であるが、輝度上昇後の同比は、1.3倍程度となっており、彩度が低下していることが確認できる。   As is well known, the state in which the saturation of the pixel value is high is a state in which the relative difference between the RGB components is large. If the relative ratio between RGB components is 1.0, that is, the same value, the pixel is a gray pixel with zero saturation. For example, in FIG. 22, the relative ratio of the G component to the R component is about 2.0 times, but the ratio after the increase in luminance is about 1.3 times, and it can be confirmed that the saturation is lowered.

このように、画像中の暗い領域に含まれる画素値を、輝度色差空間において輝度のみを上昇させてしまうと、彩度が低下したような見栄えの悪い画像となってしまう。   As described above, if only the luminance of the pixel value included in the dark area in the image is increased in the luminance / color difference space, the image looks poor in appearance such that the saturation is decreased.

上記課題を解決するために、特許文献1(特開2001-45311)では、輝度色差空間において、色空間境界までの相対距離を保つように彩度コントロールを行う方法が提案されている。また、類似例として、特許文献2(特開2002-271644)も知られている。特許文献2では、様々な色空間境界例を提示して、特許文献1とほぼ同様の処理を行うことで、輝度上昇処理の前後で、相対的に彩度を維持する方法を開示している。   In order to solve the above problem, Patent Document 1 (Japanese Patent Laid-Open No. 2001-45311) proposes a method of performing saturation control so that a relative distance to a color space boundary is maintained in a luminance color difference space. As a similar example, Patent Document 2 (Japanese Patent Laid-Open No. 2002-271644) is also known. Patent Document 2 discloses various color space boundary examples, and discloses a method of relatively maintaining saturation before and after the luminance increase process by performing almost the same processing as Patent Document 1. .

特開2001-45311JP2001-45311 特開2002-271644JP2002-271644

しかし、上記従来例には以下のような課題が存在する。   However, the above conventional example has the following problems.

まず、従来例に記載されているような色空間境界に対する相対距離を保つ方法を、全ての色相、彩度について一律に施すと、補正結果が過補正になる場合がある。例えば、肌色領域の再現性は、デジタルカメラやプリンタの出力では非常に重要となる要素である。この肌色領域に対して上記方式を適用すると、彩度が強調されすぎて人肌や顔が赤っぽくなりすぎて、好ましくない結果が得られることを、実験により確認している。   First, if the method of maintaining the relative distance to the color space boundary as described in the conventional example is uniformly applied to all hues and saturations, the correction result may be overcorrected. For example, the reproducibility of the skin color area is a very important factor in the output of a digital camera or printer. It has been experimentally confirmed that when the above method is applied to this skin color region, the saturation is enhanced too much and the human skin and face become too red, and an undesirable result is obtained.

また、特許文献1を適用した際の問題点について、図24を用いて説明する。同図において、縦軸は輝度、横軸はある色相における彩度を示しており、2405、2404は、それぞれ輝度補正前後の注目画素値の彩度値、輝度値を示している。また、2401は、任意の色空間(例えば、sRGB空間)の境界を示している。すなわち、sRGB色空間は、境界2401とY軸で囲まれる閉領域にのみ存在することができるとする。この場合、同図に示すように、注目画素の輝度上昇前後における色空間境界2401との相対距離2403,および2402が同じ場合には、輝度を上昇しても彩度が強調されず、やはり彩度低下感のある見栄えの悪い画像となってしまう。   Further, problems when applying Patent Document 1 will be described with reference to FIG. In the figure, the vertical axis indicates the luminance, the horizontal axis indicates the saturation in a certain hue, and 2405 and 2404 indicate the saturation value and the luminance value of the target pixel value before and after the luminance correction, respectively. Reference numeral 2401 denotes a boundary of an arbitrary color space (for example, sRGB space). That is, it is assumed that the sRGB color space can exist only in the closed region surrounded by the boundary 2401 and the Y axis. In this case, as shown in the figure, if the relative distances 2403 and 2402 with the color space boundary 2401 before and after the luminance increase of the target pixel is the same, the saturation is not emphasized even if the luminance is increased, and the It will be a poor-looking image with a feeling of deterioration.

さらに、図25に示すように、補正前の注目画素2503の輝度が、注目画素の色相における最大彩度点2502の輝度値よりも高い場合を考える。この場合、色空間境界2501との相対関係を維持しようとすると、同図に示すように補正前に比べ補正後の画素2504の彩度が低下することになる。この場合、やはり彩度低下感のある見栄えの悪い画像となってしまう。   Furthermore, as shown in FIG. 25, a case is considered where the luminance of the target pixel 2503 before correction is higher than the luminance value of the maximum saturation point 2502 in the hue of the target pixel. In this case, if the relative relationship with the color space boundary 2501 is to be maintained, the saturation of the pixel 2504 after the correction is lower than that before the correction as shown in FIG. In this case, the image looks poor with a low saturation.

本発明は上記課題を鑑みたもので、適切な彩度コントロールを行うことにより、階調補正を行った後でも過補正や彩度低下感を防止しながら、従来よりも見栄えの良い良好な画像を提供することが可能な画像処理装置、および方法を提案する。   The present invention has been made in view of the above problems, and by performing appropriate saturation control, it is possible to prevent over-correction and a feeling of lowering of saturation even after performing gradation correction, and provide a good image that looks better than before. An image processing apparatus and method capable of providing

上記目的を達成するために、本発明においては、ルックアップテーブルの注目格子点の輝度値を補正する第1の補正手段と、前記注目格子点の色相と彩度値を用いて、色空間の境界の輝度値と彩度値を算出する算出手段と、前記算出手段によって算出された輝度値と彩度値を用いて、前記色空間における彩度補正ラインを決定する決定手段と、前記第1の補正手段による補正後の前記注目格子点の輝度値と前記決定手段によって決定される彩度補正ラインとを用いて、前記注目格子点の彩度値を補正する第2の補正手段と、前記第1の補正手段による補正後の輝度値と前記第2の補正手段による補正後の彩度値を用いて、輝度と彩度を補正するためのルックアップテーブルを生成する生成手段とを有し、前記第1の補正手段による補正後の輝度値が大きいほど前記第2の補正手段による彩度値の補正量は小さくなるように構成した画像処理装置を提供する。 In order to achieve the above object, according to the present invention, the first correction means for correcting the luminance value of the target lattice point of the lookup table, and the hue and saturation value of the target lattice point are used. Calculating means for calculating a luminance value and a saturation value of a boundary; a determining means for determining a saturation correction line in the color space using the luminance value and the saturation value calculated by the calculating means; Second correction means for correcting the saturation value of the target grid point using the luminance value of the target grid point after correction by the correction means and the saturation correction line determined by the determination means; Generating means for generating a lookup table for correcting the luminance and saturation using the luminance value corrected by the first correction means and the saturation value corrected by the second correction means; , Brightness corrected by the first correcting means Correction amount of the saturation value by the second correction means the larger value to provide an image processing apparatus configured to decrease so.

また、上記目的を達成するために、本発明においては、ルックアップテーブルの注目格子点の輝度値を補正する第1の補正工程と、前記注目格子点の色相と彩度値を用いて、色空間の境界の輝度値と彩度値を算出する算出工程と、前記算出工程により算出された輝度値と彩度値を用いて、前記色空間における彩度補正ラインを決定する決定工程と、前記第1の補正工程による補正後の前記注目格子点の輝度値と前記決定工程によって決定される彩度補正ラインとを用いて、前記注目格子点の彩度値を補正する第2の補正工程と、前記第1の補正工程による補正後の輝度値と前記第2の補正工程による補正後の彩度値を用いて、輝度と彩度を補正するためのルックアップテーブルを生成する生成工程とを有し、前記第1の補正工程による補正後の輝度値が大きいほど前記第2の補正工程による彩度値の補正量は小さくなるように構成した画像処理方法を提供する。 In order to achieve the above object, according to the present invention, the first correction step of correcting the luminance value of the target grid point of the lookup table, and the hue and saturation value of the target grid point are used to determine the color. A calculation step of calculating a luminance value and a saturation value of a boundary of the space; a determination step of determining a saturation correction line in the color space using the luminance value and the saturation value calculated by the calculation step; A second correction step of correcting the saturation value of the target lattice point using the luminance value of the target lattice point after the correction in the first correction step and the saturation correction line determined by the determination step; A generation step of generating a lookup table for correcting the luminance and the saturation using the luminance value after the correction by the first correction step and the saturation value after the correction by the second correction step. And after the correction by the first correction step Correction amount of the saturation value by the second correction process larger the luminance value is to provide an image processing method configured to decrease so.

本発明によれば、画像の階調補正後に等彩度ラインを新たに設定し、該等彩度ラインに基づき彩度補正量を設定することで、階調補正後の彩度低下を防止でき、階調補正後の輝度値に応じた適切な彩度補正量を決定することができる。   According to the present invention, it is possible to prevent a decrease in saturation after gradation correction by newly setting an equal saturation line after gradation correction of an image and setting a saturation correction amount based on the equal saturation line. Thus, it is possible to determine an appropriate saturation correction amount according to the luminance value after gradation correction.

第1の実施例における補正パラメータ算出部のフローチャートFlowchart of correction parameter calculation unit in the first embodiment 本発明の画像処理方法が実行可能なハードウェア構成例Hardware configuration example capable of executing the image processing method of the present invention 第1の実施例における処理のブロック図Block diagram of processing in the first embodiment 画像解析部のフローチャートFlow chart of image analysis unit 輝度ヒストグラムを説明するための図Diagram for explaining luminance histogram 露出適正度判定処理のフローチャートFlow chart of exposure appropriateness determination processing 補正パラメータ算出部のフローチャートFlowchart of correction parameter calculation unit 輝度補正のための階調補正曲線の説明図Illustration of gradation correction curve for brightness correction 彩度と色相の算出方法を説明するための図Diagram for explaining the saturation and hue calculation method 色再現空間情報を説明するための図Diagram for explaining color reproduction space information 注目格子点に対応した色空間境界位置の算出方法の説明図Explanatory drawing of the calculation method of the color space boundary position corresponding to the target grid point 輝度補正後の等彩度ライン設定方法の説明図Illustration of iso-saturation line setting method after brightness correction 等彩度ラインのバリエーションを説明するための図Diagram for explaining variation of iso-saturation line 第2の実施例における画像解析部のフローチャートFlowchart of the image analysis unit in the second embodiment 第2の実施例における補正パラメータ算出部のフローチャートFlowchart of correction parameter calculation unit in the second embodiment 撮影シーンに依存した等彩度ラインの設定方法の説明図Illustration of how to set iso-saturation lines depending on the shooting scene 彩度の過補正を説明するための図A diagram for explaining overcorrection of saturation 第3の実施例における補正パラメータ算出部のフローチャートFlowchart of correction parameter calculation unit in the third embodiment 第4の実施例における処理のブロック図Block diagram of processing in the fourth embodiment 第4の実施例における補正パラメータ算出部のフローチャートFlowchart of correction parameter calculation unit in the fourth embodiment 色空間の違いによる色空間境界の違いを説明するための図Illustration for explaining the difference in color space boundary due to the difference in color space 従来の彩度補正を説明するための図Diagram for explaining conventional saturation correction 従来の彩度補正を説明するための図Diagram for explaining conventional saturation correction 従来の彩度補正を説明するための図Diagram for explaining conventional saturation correction 従来の彩度補正を説明するための図Diagram for explaining conventional saturation correction

(第1の実施例)
以下、本発明における好適な第1の実施例について説明する。なお、以下の記載はプリンタ本体内部の画像処理部を想定して説明を行うが、これはあくまで実施の1つの形態を例として示したものであり、本発明は以下の実施に限定されるものではない。
(First embodiment)
A preferred first embodiment of the present invention will be described below. The following description will be made assuming an image processing unit inside the printer body. However, this is merely an example of the embodiment, and the present invention is limited to the following embodiment. is not.

(ハードウェアの説明)
図2は、本発明の画像処理方法が実行可能なプリンタのハードウェア構成200の例を示している。201はCPU、203が各種制御プログラム・テーブルが格納されているROM、202はRAM、204は2次記憶装置(たとえばハードディスク)である。205は操作部、表示装置などを含むユーザーインターフェースである。206は外部インターフェース(たとえばUSB(商標登録)、メモリカードリーダー)であり、該インターフェースを介して、メモリカード209から画像データを読み込んだり、パーソナルコンピュータ210に接続される。207は原稿読取装置(たとえばスキャナ)、208はプリントエンジンである。以上のリソースが、システムバス211に接続されている。
CPU 201は、ROM 203または2次記憶装置204に格納されたプログラム(以下で説明する処理プログラムを含む)をワークメモリであるRAM 202にロードして当該プログラムを実行する。そして、CPU201は、当該プログラムに従いシステムバス109を介して上記の各構成を制御することで、当該プログラムの機能を実現する。
(Hardware description)
FIG. 2 shows an example of a hardware configuration 200 of a printer that can execute the image processing method of the present invention. 201 is a CPU, 203 is a ROM storing various control program tables, 202 is a RAM, and 204 is a secondary storage device (for example, a hard disk). Reference numeral 205 denotes a user interface including an operation unit and a display device. Reference numeral 206 denotes an external interface (for example, USB (registered trademark), memory card reader), which reads image data from the memory card 209 or is connected to the personal computer 210 via the interface. Reference numeral 207 denotes a document reading device (for example, a scanner), and 208 denotes a print engine. The above resources are connected to the system bus 211.
The CPU 201 loads a program (including a processing program described below) stored in the ROM 203 or the secondary storage device 204 into the RAM 202, which is a work memory, and executes the program. Then, the CPU 201 realizes the function of the program by controlling each of the above components via the system bus 109 according to the program.

(処理のブロック図)
図3は、本実施例における処理のブロック図で、CPU201によって実行される処理である。ユーザーより、例えばプリンタにおける印刷処理などの指示(印刷指示)がUI205を介して入力された場合、まず301において、IF206に接続されたメモリカードや、画像読取装置207(たとえばスキャナ)から、処理対象となる画像データを読み込む。
(Process block diagram)
FIG. 3 is a block diagram of processing in the present embodiment, which is processing executed by the CPU 201. For example, when an instruction (printing instruction) such as a printing process in a printer is input from the user via the UI 205, first, in 301, a processing target is received from a memory card connected to the IF 206 or the image reading device 207 (for example, a scanner). Read the image data.

次に、画像解析部302において、画像の解析処理を行う。本実施例における画像解析部では、主に写真画像の露出の適正度について判定を行う。該判定処理には様々な方法が考えられ、例えば、画像中から公知の顔検出技術を用いて人物の顔領域を抽出し、該顔領域の明るさから、適正度判定を行うことが考えられる。   Next, the image analysis unit 302 performs image analysis processing. The image analysis unit in this embodiment mainly determines the appropriateness of exposure of a photographic image. Various methods are conceivable for the determination process. For example, it is conceivable to extract a person's face area from the image using a known face detection technique and determine the appropriateness level based on the brightness of the face area. .

次に、補正パラメータ算出部303において、該露出の適正度判定に基づいて、画像を補正するための各種パラメータを算出する。算出するパラメータについては、後に詳細を説明する。   Next, the correction parameter calculation unit 303 calculates various parameters for correcting the image based on the appropriateness determination of the exposure. Details of the parameters to be calculated will be described later.

次に、画像補正部304において、該補正パラメータを用いて画像の補正を行い、色変換部305において、補正後の画像をインク色成分(たとえばCMYK)に変換する。その後、擬似階調処理部306において、該インク色成分毎に擬似諧調処理(たとえば誤差拡散、ディザ)を施し、プリントエンジン部307において、印字媒体にプリント処理が施される。   Next, the image correction unit 304 corrects the image using the correction parameters, and the color conversion unit 305 converts the corrected image into an ink color component (for example, CMYK). Thereafter, the pseudo gradation processing unit 306 performs pseudo gradation processing (for example, error diffusion and dither) for each ink color component, and the print engine unit 307 performs print processing on the print medium.

以上が、ブロック図を用いた処理の概要説明である。   The above is the outline description of the processing using the block diagram.

(フローチャートの説明)
以下では、本実施例における処理のフローチャートを参照しながら、上記説明した各処理ブロックの詳細説明を行う。
(Explanation of flowchart)
Hereinafter, detailed description of each processing block described above will be given with reference to a flowchart of processing in the present embodiment.

(画像読み込み部)
画像読み込み部301では、処理対象画像データの読み込みを行う。読み込みは、IF206を介して接続されているメモリカード内に含まれている画像データを読み込んだり、読み取り装置207によって原稿を光学的にスキャンして得られたデータを読み込むことで実現できる。読み込んだ画像データは、その色空間が、例えばsRGB空間であるのか、あるいはadobe RGB(米アドビ社の登録商標)空間であるのか、さらにはその他の色空間であるかを識別するためのフラグ情報と共に、次段の処理に送られる。
(Image reading part)
The image reading unit 301 reads processing target image data. Reading can be realized by reading image data included in a memory card connected via the IF 206, or reading data obtained by optically scanning a document by the reading device 207. The read image data is flag information for identifying whether the color space is, for example, sRGB space, adobe RGB (registered trademark of Adobe Corporation) space, or other color space. At the same time, it is sent to the next processing.

(画像解析部)
図4は、画像解析部302が実行するフローチャートを示している。まずS401において、入力画像のリサイズを行う。以降のヒストグラム算出や顔検出処理は、例えば入力画像が4000×3000画素の場合、全ての画素に対して処理を行うと膨大な処理量が必要となる。上記顔検出処理やヒストグラム算出処理は、画像の特徴を捉えるだけの解像度に縮小し、該縮小画像に対して処理を行うことで、全体の処理量を低減することができる。本発明においては、縮小アルゴリズムや縮小解像度は特に規定しないが、例えば、VGAサイズ(640×480画素相当)に縮小すると効果的である。
(Image Analysis Department)
FIG. 4 shows a flowchart executed by the image analysis unit 302. First, in S401, the input image is resized. For the subsequent histogram calculation and face detection processing, for example, when the input image is 4000 × 3000 pixels, if all pixels are processed, a huge amount of processing is required. In the face detection process and the histogram calculation process, the overall processing amount can be reduced by reducing the resolution to a level that captures the characteristics of the image and processing the reduced image. In the present invention, the reduction algorithm and the reduction resolution are not particularly defined, but for example, it is effective to reduce it to the VGA size (equivalent to 640 × 480 pixels).

次に、S402において該縮小画像に対して、色変換処理を行う。これは、以降の解析処理において、共通の色空間で処理を行う方が、露出適正度判定部などにおけるパラメータ設計が容易になるからである。本実施例においては、共通色空間をsRGB空間とし、その他の色空間が入力された場合には、S402において公知の変換手段を用いてsRGB空間に変換する。   Next, in S402, color conversion processing is performed on the reduced image. This is because parameter design in the exposure appropriateness determination unit or the like is easier when processing is performed in a common color space in subsequent analysis processing. In the present embodiment, the common color space is set as the sRGB space, and when other color spaces are input, conversion into the sRGB space is performed in S402 using a known conversion unit.

次に、S403において、画像全体のヒストグラム算出を行う。ヒストグラム算出はどのような方法を用いてもよいが、ここでは、各画素のsRGB値を輝度色差空間(例えば、YCbCr空間)に変換し、各成分毎にヒストグラムを算出するものとする。入力画像が全体的に露出不足の状態で撮影された場合、輝度成分ヒストグラム(8bit精度とする)は図5に示すように、暗部に偏った分布となる。   Next, in S403, histogram calculation of the entire image is performed. Any method may be used for calculating the histogram. Here, the sRGB value of each pixel is converted into a luminance color difference space (for example, YCbCr space), and a histogram is calculated for each component. When the input image is taken in a state of being underexposed as a whole, the luminance component histogram (with 8-bit accuracy) has a distribution biased toward the dark part as shown in FIG.

次に、S404において、画像中から所望の被写体を検出する。本発明において被写体は特に限定するものではないが、ここでは人物の顔を例に挙げて主要被写体検出を説明する。人物顔の検出に関しては、これまで様々な手法が提案されており、本実施例においてはそのいずれを用いても構わない。   Next, in S404, a desired subject is detected from the image. Although the subject is not particularly limited in the present invention, here, main subject detection will be described by taking a human face as an example. Various methods have been proposed so far for detecting a human face, and any of them may be used in the present embodiment.

次に、S405において、上述したヒストグラム情報、および顔検出情報を用いて、露出の適正度判定を行う。   Next, in S405, the appropriateness of exposure is determined using the above-described histogram information and face detection information.

図6は本実施例における簡単な適正度判定の例を示している。S601において、顔が検出できたか否かの判定を行い、検出できていれば、S602において顔領域内の平均輝度値を、予め定められた露出の適正度合いを決定するための閾値と比較する。比較の結果、顔領域内の平均輝度値が閾値を上回っていれば、適正露出と判断し、下回っていれば、露出不足と判断する。顔が検出できなかった場合、S603において、該ヒストグラムから算出した画像全体の平均輝度値を予め定められた閾値と比較し、閾値を上回っていれば適正露出と判断し、下回っていれば、露出不足と判断する。   FIG. 6 shows an example of simple appropriateness determination in the present embodiment. In S601, it is determined whether or not a face has been detected. If it has been detected, the average luminance value in the face area is compared with a threshold value for determining the appropriate degree of exposure in S602. If the average luminance value in the face area exceeds the threshold value as a result of the comparison, it is determined that the exposure is appropriate, and if it is below the threshold value, it is determined that the exposure is insufficient. If the face cannot be detected, in S603, the average luminance value of the entire image calculated from the histogram is compared with a predetermined threshold value.If the face value is above the threshold value, it is determined that the exposure is appropriate. Judged as insufficient.

以上が、本実施例における画像解析部302の説明である。   The above is the description of the image analysis unit 302 in the present embodiment.

(補正パラメータ算出部)
以下では、補正パラメータ算出部303が実行する処理について、図7のフローチャートを用いて説明する。
(Correction parameter calculation unit)
Hereinafter, processing executed by the correction parameter calculation unit 303 will be described with reference to the flowchart of FIG.

まず同図のS701において、該露出適正度判定の結果に応じて、輝度補正用のトーンカーブTc[256](階調補正曲線)を生成する。図8に、本実施例において露出不足と判定された場合のトーンカーブの生成例を示す。図8において、横軸は補正前の輝度、縦軸は補正後の輝度を示している。また、ObjYおよびTarYは、顔が検出できた場合には、ObjYが顔領域内平均輝度、TarYが予め設定されている顔領域の目標輝度値を意味する。一方、顔が検出できなかった場合には、ObjYは画像全体の平均輝度、TarYは予め設定されている画像全体平均輝度の目標値を意味する。もし、露出不足ではないと判定された場合には、該トーンカーブは、補正前輝度値と補正後輝度値が一致するような直線としてもよい。トーンカーブはどのような輝度レンジ、およびビット精度で生成してもよいが、本実施例では簡単のため、8bit精度(0〜255)の各入力輝度値に対する出力輝度値を、256個の配列に格納する1次元ルックアップテーブルを想定している。   First, in S701 of the figure, a tone curve Tc [256] (tone correction curve) for luminance correction is generated according to the result of the appropriateness of exposure determination. FIG. 8 shows an example of tone curve generation when it is determined that exposure is insufficient in this embodiment. In FIG. 8, the horizontal axis indicates the luminance before correction, and the vertical axis indicates the luminance after correction. ObjY and TarY mean that when a face can be detected, ObjY is the average luminance in the face area, and TarY is the target luminance value of the face area that is preset. On the other hand, when a face cannot be detected, ObjY means the average luminance of the entire image, and TarY means a preset target value of the average luminance of the entire image. If it is determined that there is no underexposure, the tone curve may be a straight line such that the luminance value before correction and the luminance value after correction match. The tone curve may be generated with any luminance range and bit accuracy. However, for the sake of simplicity in this embodiment, the output luminance value for each input luminance value with 8-bit accuracy (0 to 255) is arranged in 256 arrays. Assume a one-dimensional lookup table stored in.

(3DLUTの生成)
次に図7のS702において、上記トーンカーブ(階調補正曲線)を用いて補正用の3次元ルックアップテーブル(以下、3DLUT)を生成する。
(Generate 3DLUT)
Next, in S702 of FIG. 7, a correction three-dimensional lookup table (hereinafter referred to as 3DLUT) is generated using the tone curve (tone correction curve).

ここで、入力画像データの解像度が、上述したような3000×4000画素といった高解像度画像の場合を考える。この場合、各画素毎に該トーンカーブを用いて輝度補正を行い、その後、後述する彩度強調量(彩度補正量)を算出して彩度補正を行おうとすると、膨大な計算量が必要となる。近年のパーソナルコンピュータのように、高速CPUと高速アクセスRAMを搭載したハードウェアであれば、後述するような膨大な演算処理も実現可能である。しかし、デバイス組込み機器(たとえばデジタルカメラやプリンタ)においては、現実的な速度で処理することは不可能である。   Here, consider a case where the resolution of the input image data is a high-resolution image such as 3000 × 4000 pixels as described above. In this case, if the luminance correction is performed for each pixel using the tone curve, and then a saturation enhancement amount (saturation correction amount) to be described later is calculated to perform the saturation correction, a huge amount of calculation is required. It becomes. If a hardware equipped with a high-speed CPU and a high-speed access RAM like a personal computer in recent years, a huge amount of arithmetic processing as described later can be realized. However, in a device embedded device (for example, a digital camera or a printer), it is impossible to process at a realistic speed.

このため、本実施例では3DLUTを用いた補正方法について説明する。3DLUT方式では、あらかじめ定められた格子点の画素値のみに対して上記補正演算を行い、格子点間の画素値に対しては、公知の補間演算を用いて補正後の画素値を算出する。例えば、公知の四面体補間演算では、数回の比較演算と4回の乗算を行うことで1画素1成分の値を算出することが可能であり、高速処理が可能というメリットがある。   Therefore, in this embodiment, a correction method using 3DLUT will be described. In the 3DLUT method, the above correction calculation is performed only on pixel values at predetermined grid points, and the corrected pixel value is calculated using a known interpolation calculation for pixel values between grid points. For example, the known tetrahedral interpolation calculation has the merit that the value of one component per pixel can be calculated by performing several comparison operations and four multiplications, thereby enabling high-speed processing.

図1に、本実施例における3DLUT生成処理のフローチャートを示す。本実施例においては、例としてsRGB空間における格子点数729点の3DLUTを生成する。729格子点の3DLUTは、8bit精度のRGB各成分値(0〜255)を32間隔で均等に分割することで得られる。   FIG. 1 shows a flowchart of 3DLUT generation processing in the present embodiment. In this embodiment, as an example, a 3DLUT having 729 grid points in the sRGB space is generated. A 3DLUT with 729 grid points can be obtained by dividing 8-bit RGB component values (0 to 255) evenly at 32 intervals.

まず、最初の格子点RGB値(R, G, B)に対して、S101で輝度色差成分(ここではYCbCr成分)に変換する。変換は公知の公式によって行えばよい。   First, the first grid point RGB value (R, G, B) is converted into a luminance color difference component (here, YCbCr component) in S101. The conversion may be performed by a known formula.

次に、S102において、次式により、得られた輝度成分Yに対して図8に示したトーンカーブTcを適用し、補正後の輝度値Y’を得る。
Y’=Tc[Y]
Next, in S102, the tone curve Tc shown in FIG. 8 is applied to the obtained luminance component Y by the following equation to obtain a corrected luminance value Y ′.
Y '= Tc [Y]

次に、S103において、S101で算出した色差成分CbCr値を用いて、注目格子点の色相および彩度を算出する。図9は、注目格子点901の色相および彩度の算出方法を説明するための図である。同図において、横軸はCb値、縦軸はCr値を示している。色相は、同図に示すように、CbCr平面において、角度Hで表現できる。また、彩度は、同図に示すように、CbCr平面において、原点からの距離Sで表現できる。   Next, in S103, the hue and saturation of the target lattice point are calculated using the color difference component CbCr value calculated in S101. FIG. 9 is a diagram for explaining a method of calculating the hue and saturation of the target lattice point 901. In FIG. In the figure, the horizontal axis indicates the Cb value, and the vertical axis indicates the Cr value. The hue can be expressed by an angle H in the CbCr plane as shown in FIG. Further, the saturation can be expressed by the distance S from the origin on the CbCr plane as shown in FIG.

次に、S104において、上記注目格子点のYCbCr値、および輝度補正後のY’値、さらに予め保持している色再現空間情報109を用いて、注目格子点に対応している色空間境界位置を算出する。   Next, in S104, using the YCbCr value of the target grid point, the Y ′ value after luminance correction, and the color reproduction space information 109 stored in advance, the color space boundary position corresponding to the target grid point Is calculated.

本ステップの説明を行う前に、色再現空間情報109について説明する。図10は、輝度色差空間におけるsRGB色空間の境界を示している。図10において、横軸はある色相における彩度値(原点からの距離)を、縦軸は輝度成分(0〜255)を示している。同図において直線で囲まれた矩形領域の内側が、sRGB色空間の存在範囲を示しており、その境界は図のようにほぼ直線で近似することができる。そのため、本実施例においては、sRGB色空間の境界情報として、図中に示したような任意の色相hmにおける最大彩度点1001の、彩度値Smax[hm]と輝度値Ymax[hm]を予め算出し、ROM203に記憶しておく。Smax、Ymaxを保持しておく際の色相の間隔について、本実施例では特に限定するものではないが、例えば、色相0度から360度まで、1度刻みの色相間隔毎に保持しておくと、精度も高く効果的である。なお、同図は簡単のためある色相方向のみの2次元平面で示しているが、実際にはYCbCr3次元空間において、各色相毎に同様の色空間境界が形成されている。   Before describing this step, the color reproduction space information 109 will be described. FIG. 10 shows the boundary of the sRGB color space in the luminance color difference space. In FIG. 10, the horizontal axis indicates the saturation value (distance from the origin) in a certain hue, and the vertical axis indicates the luminance component (0 to 255). In the figure, the inside of the rectangular area surrounded by a straight line indicates the existence range of the sRGB color space, and the boundary can be approximated by a straight line as shown in the figure. Therefore, in this embodiment, as the boundary information of the sRGB color space, the saturation value Smax [hm] and the luminance value Ymax [hm] of the maximum saturation point 1001 in an arbitrary hue hm as shown in the figure are used. It is calculated in advance and stored in the ROM 203. The hue interval when holding Smax and Ymax is not particularly limited in the present embodiment.For example, if the hue interval is held from 0 degree to 360 degrees, the hue interval is held every 1 degree. The accuracy is high and effective. For the sake of simplicity, this figure shows a two-dimensional plane only in a certain hue direction, but in reality, a similar color space boundary is formed for each hue in the YCbCr three-dimensional space.

S104では、該色再現空間情報を基に、注目格子点に対応する色空間境界位置を算出する。以下では、色空間境界位置算出処理を、図11を用いて説明する。まず、注目格子点1101の色相がhであるとすると、該色再現空間情報のSmax[h]およびYmax[h]の値を参照し、輝度・彩度平面における色空間境界直線Lu, Llを形成する。Lu, Llは、点(Smax[h], Ymax[h])からそれぞれ、(255,0)、(0,0)に結んだ直線となる。さらに、注目格子点1101と同一彩度となる直線1102を形成し、該直線がLu, Llと交わる点1103, 1104を、注目格子点に対応する色空間境界の最上位点(Su, Yu)、最下位点(Sl, Yl)とする。   In S104, a color space boundary position corresponding to the target lattice point is calculated based on the color reproduction space information. Hereinafter, the color space boundary position calculation process will be described with reference to FIG. First, assuming that the hue of the target lattice point 1101 is h, the values Smax [h] and Ymax [h] of the color reproduction space information are referred to, and the color space boundary lines Lu and Ll on the luminance / saturation plane are referred to. Form. Lu and Ll are straight lines connected from the point (Smax [h], Ymax [h]) to (255,0) and (0,0), respectively. Further, a straight line 1102 having the same saturation as the target grid point 1101 is formed, and points 1103 and 1104 where the straight line intersects with Lu and Ll are the highest points (Su, Yu) of the color space boundary corresponding to the target grid point. , The lowest point (Sl, Yl).

次にS105において、算出した最上位点(境界画素)、最下位点(境界画素)に対して階調補正用トーンカーブを適用し、階調補正後の最上位点、最下位点を設定する(色空間境界位置を更新する)とともに、それらを用いて、階調補正後の等彩度ラインを設定する。ここで、等彩度ラインとは、輝度値が異なっても彩度が等しいと考えることができるラインのことである。   Next, in S105, the tone correction tone curve is applied to the calculated most significant point (boundary pixel) and least significant point (boundary pixel), and the most significant point and the least significant point after gradation correction are set. (Update the color space boundary position) and use them to set the isochromatic line after gradation correction. Here, the iso-saturation line is a line that can be considered to have the same saturation even if the luminance values are different.

本実施例における該等彩度ライン設定処理を、図12を用いて説明する。同図において、まず最上位点、最下位点の輝度成分に対して該トーンカーブ(階調補正曲線)を適用して補正後の輝度値Yu’、Yl’を算出する。
Yu’=Tc[Yu]
Yl’ = Tc[Yl]
The iso-saturation line setting process in the present embodiment will be described with reference to FIG. In the figure, first, the corrected luminance values Yu ′ and Yl ′ are calculated by applying the tone curve (gradation correction curve) to the luminance components of the highest point and the lowest point.
Yu '= Tc [Yu]
Yl '= Tc [Yl]

次に、最下位点について、最下位点は元々色空間境界直線Ll上に存在していたので、輝度補正後の最下位点も、直線Ll上に位置するように、図中(Sl’, Yl’)に設定する。次に、最上位点について、最上位点は元々色空間境界直線Lu上に存在していたが、輝度補正後の最上位点も直線Luに位置するように設定すると、彩度が補正前よりも低下することになり、見栄えの悪い画像を形成する恐れがある。そのため、本実施例においては、最上位点は彩度低下を生じないように、図中(Su, Yu’)に設定するものとする。このようにして色空間境界位置更新処理を行なう。上記点(Su, Yu’)および(Sl’, Yl’)を結んだ直線Lzを、輝度補正後(色空間境界位置更新後)の等彩度ラインとし、注目格子点の階調補正後の彩度は、該直線上に位置するように制御する。言い換えれば、補正前の注目画素の等彩度ラインは、点(Su,Yu)および(Sl,Yl)を結ぶ直線だったが、それが、階調補正により直線Lzに変化すると考えることができる。   Next, for the lowest point, since the lowest point originally existed on the color space boundary line Ll, the lowest point after luminance correction is also located on the straight line Ll (Sl ′, Yl '). Next, for the highest point, the highest point originally existed on the color space boundary line Lu, but if the highest point after luminance correction is also set to be located on the straight line Lu, the saturation will be higher than before the correction. The image may also be lowered, and there is a risk of forming an unsightly image. Therefore, in this embodiment, the highest point is set to (Su, Yu ′) in the figure so as not to cause a decrease in saturation. In this way, the color space boundary position update process is performed. The straight line Lz connecting the above points (Su, Yu ') and (Sl', Yl ') is used as an isochromatic line after luminance correction (after updating the color space boundary position), and after the gradation correction of the target lattice point The saturation is controlled so as to be located on the straight line. In other words, the isochromatic line of the pixel of interest before correction was a straight line connecting the points (Su, Yu) and (Sl, Yl), but it can be considered that it changes to a straight line Lz by gradation correction. .

次にS106において、注目格子点の、輝度補正後の彩度強調量(彩度補正量)を算出する。該算出処理も図12を参照しながら説明する。本実施例では、上述したように、注目格子点の彩度を直線Lz上に制御する。すなわち、輝度補正前の注目格子点(S、Y)は、輝度補正後、直線Lz上の(S’, Y’)に設定する。S, およびS’により、彩度強調係数e=S’/Sが求まるので、以下の式により、注目格子点(Y, Cb, Cr)の階調補正後の値(Y’, Cb’, Cr’)は以下のようにして求まる。
Y’ = Tc[Y]
Cb’ = Cb × e
Cr’ = Cr × e
Next, in S106, the saturation enhancement amount (saturation correction amount) after luminance correction of the target lattice point is calculated. The calculation process will also be described with reference to FIG. In the present embodiment, as described above, the saturation of the target lattice point is controlled on the straight line Lz. That is, the target lattice point (S, Y) before luminance correction is set to (S ′, Y ′) on the straight line Lz after luminance correction. Since the saturation enhancement coefficient e = S ′ / S is obtained from S, and S ′, the gradation-corrected values (Y ′, Cb ′, Cr ') is obtained as follows.
Y '= Tc [Y]
Cb '= Cb × e
Cr '= Cr × e

この結果得られた補正後の格子点画素値(Y’, Cb’, Cr’)を、S107において公知の変換式により(R’,G’,B’)に変換し、3DLUTに格納する。   The corrected lattice point pixel values (Y ′, Cb ′, Cr ′) obtained as a result are converted into (R ′, G ′, B ′) by a known conversion formula in S107 and stored in 3DLUT.

以上の処理を、全ての格子点において処理することで(S110)、補正後の3DLUTを生成することが可能となる。   By performing the above processing at all grid points (S110), it becomes possible to generate a corrected 3DLUT.

3DLUT生成後は、画像補正部304において、入力画像データの各画素値に対して公知の補間方法(例えば四面体補間、三角柱補間、立方体補間)により該3DLUTを適用し、補正後の画像データを生成する。補正後画像データは、色変換部305においてインク色成分(たとえばCMYK)に変換され、擬似階調処理306(たとえば誤差拡散、ディザ)を経て、プリントエンジン部307で印字媒体上に画像として形成される。   After the 3DLUT generation, the image correction unit 304 applies the 3DLUT to each pixel value of the input image data by a known interpolation method (for example, tetrahedral interpolation, triangular prism interpolation, cube interpolation), and the corrected image data is Generate. The corrected image data is converted into an ink color component (for example, CMYK) by the color conversion unit 305, and after being subjected to pseudo gradation processing 306 (for example, error diffusion, dither), is formed as an image on the print medium by the print engine unit 307. The

以上説明したように、本実施例に説明した画像処理によれば、輝度補正後の彩度を図12の直線Lzのように制御することで、中間長全域に渡って彩度を強調することができるため、彩度低下感を防止し、見栄えの良い画像データを生成することができる。   As described above, according to the image processing described in the present embodiment, the saturation is enhanced over the entire intermediate length by controlling the saturation after luminance correction as shown by the straight line Lz in FIG. Therefore, it is possible to prevent a feeling of desaturation and to generate image data with good appearance.

本実施例の本質は、輝度補正後の等彩度ラインを再設定することにある。等彩度ラインとは、輝度が異なっても彩度が等しいと考えることができるラインのことである。輝度補正前(色空間境界位置更新前)、注目格子点の等彩度ラインは、図12中の点(Su, Yu)および点(Sl, Yl)を結ぶ、Y軸に平行なラインであり、この直線状に存在する点は全て彩度が等しい。一方で、本実施例における階調補正後の等彩度ラインは、階調補正後の最下点(Sl’, Yl’)および最上位点(Su, Yu’)を結ぶ直線として再設定し、注目格子点の補正後の彩度を、新たな等彩度ライン上に制御している。さらに、この新たな等彩度ラインが、Y軸に対して平行ではなく、輝度が高いほどY軸に近づくように設定されている。このことにより、輝度の低い格子点に対しては、十分彩度を強調することができ、輝度の高い格子点に対しては、彩度低下せず、さらに過補正も生じにくい彩度制御を行うことができるという、格別の効果が存在する。   The essence of the present embodiment is to reset the isochromatic line after the luminance correction. An iso-saturation line is a line that can be considered to have the same saturation even if the luminance is different. Before luminance correction (before color space boundary position update), the isochromatic line of the target grid point is a line parallel to the Y axis that connects the point (Su, Yu) and the point (Sl, Yl) in FIG. All the points that exist in this straight line have the same saturation. On the other hand, the isochromatic line after gradation correction in this embodiment is reset as a straight line connecting the lowest point (Sl ', Yl') and the highest point (Su, Yu ') after gradation correction. The saturation after correction of the target lattice point is controlled on a new isochromatic line. Further, the new isochromatic line is set not to be parallel to the Y axis but closer to the Y axis as the luminance increases. As a result, saturation control can be sufficiently enhanced for grid points with low brightness, and saturation control is not performed for grid points with high brightness, which does not decrease saturation and is less prone to overcorrection. There is a special effect that can be done.

従って、上述したような、新しい等彩度ラインは、輝度が高いほどY軸に近く、輝度が低いほどY軸から遠ざかるようなラインであれば、本発明の目的を達成することができる。例えば、図13に示したように、本発明の等彩度ラインはLzで示したような直線に限られず、Lz1やLz2のように、曲線になったとしても、本発明の範疇に含まれることになる。   Therefore, the object of the present invention can be achieved as long as the new isochromatic line as described above is a line that is closer to the Y-axis as the luminance is higher and away from the Y-axis as the luminance is lower. For example, as shown in FIG. 13, the isochromatic line of the present invention is not limited to a straight line as indicated by Lz, and even if it is a curved line such as Lz1 or Lz2, it is included in the category of the present invention. It will be.

また、本発明における等彩度ライン再設定は、色空間境界直線Ll、Luの傾きによって決定される。この傾きは、注目格子点の色相に応じて様々に変化する。言い換えれば、色相毎に色空間境界に応じて最適な等彩度ラインを設定することができるというメリットも、本発明には含まれることになる。   In addition, the iso-saturation line resetting in the present invention is determined by the inclination of the color space boundary straight lines Ll and Lu. This inclination changes variously according to the hue of the target lattice point. In other words, the present invention also includes the advantage that an optimal isochromatic line can be set for each hue according to the color space boundary.

なお、本実施例においては、高速化のために3DLUTを用いた補正方法について説明を行ったが、本発明はこれに限定されるものではない。全体の処理量は増加するが、3DLUTを生成せず、入力画像中の全ての画素値に対して本実施例で説明したような彩度強調処理を行っても構わない。   In this embodiment, the correction method using 3DLUT has been described for speeding up, but the present invention is not limited to this. Although the overall processing amount increases, the saturation enhancement processing described in the present embodiment may be performed on all pixel values in the input image without generating 3DLUT.

以上が第1の実施例の説明である。   The above is the description of the first embodiment.

(第2の実施例)
本実施例では、第1の実施例で述べた等彩度ラインを、入力画像の撮影シーンに応じて変化させる方法について説明する。
(Second embodiment)
In the present embodiment, a method for changing the equal saturation line described in the first embodiment in accordance with the shooting scene of the input image will be described.

図14は、本実施例における画像解析部302が実行するフローチャートである。第1の実施例と異なるのは、S1406で撮影シーン判定を行うことにある。図14のS1401〜S1405は、第1の実施例の図4のS401〜S405と同様である。
本実施例において、この撮影シーン判定はどのようなアルゴリズムを用いてもよく、例えば、入力画像に付加されている付加情報から判定してもよいし、画像のヒストグラムを解析し、その結果から撮影シーンを推定してもよい。本実施例では簡単のため、S1406において(風景シーン、人物シーン、夜景シーン、標準シーン)のいずれのシーンであるかが判定されるものとする。判定されたシーン種別情報は、補正パラメータ算出部303に入力され、同部において撮影シーン毎に適切な彩度制御を行った3DLUTを生成する。
FIG. 14 is a flowchart executed by the image analysis unit 302 in the present embodiment. The difference from the first embodiment is that the shooting scene is determined in S1406. S1401 to S1405 in FIG. 14 are the same as S401 to S405 in FIG. 4 of the first embodiment.
In this embodiment, any algorithm may be used for this shooting scene determination. For example, the shooting scene determination may be performed based on additional information added to the input image. A scene may be estimated. In this embodiment, for the sake of simplicity, it is assumed in S1406 whether the scene is (landscape scene, person scene, night scene, or standard scene). The determined scene type information is input to the correction parameter calculation unit 303, which generates a 3DLUT in which appropriate saturation control is performed for each shooting scene.

図15は、本実施例における補正パラメータ算出部303の処理のフローチャートを示している。第1の実施例と異なるのは、S1505に該撮影シーン情報1511とシーン毎等彩度ライン情報1512が入力されている点である。図15のS1501〜S1510は、第1の実施例の図1のS101〜S110と同様である。   FIG. 15 shows a flowchart of processing of the correction parameter calculation unit 303 in the present embodiment. The difference from the first embodiment is that the shooting scene information 1511 and the scene-specific isochromatic line information 1512 are input to S1505. S1501 to S1510 in FIG. 15 are the same as S101 to S110 in FIG. 1 of the first embodiment.

ここで、シーン毎等彩度ライン情報について、図16を用いて説明する。図16は、簡単のため、図12における階調補正後の等彩度ラインLzを横方向に回転した図となっている。本実施例では簡単のため、図16に示すように、撮影シーンが標準だった場合、直線Lstを等彩度ラインとして設定する。撮影シーンが夜景だった場合には、彩度強調量がやや多い直線Lyaを、風景だった場合には、彩度強調量がさらに多いLfuを設定する。さらに、撮影シーンが人物だった場合には、彩度強調をできるだけ抑えるために、直線Ljiを設定することが考えられる。   Here, the scene-specific isochromatic line information will be described with reference to FIG. FIG. 16 is a diagram in which the isochromatic line Lz after gradation correction in FIG. 12 is rotated in the horizontal direction for the sake of simplicity. For the sake of simplicity in this embodiment, as shown in FIG. 16, when the shooting scene is standard, the straight line Lst is set as an isochromatic line. When the shooting scene is a night view, a straight line Lya with a slightly higher saturation enhancement amount is set, and when the shooting scene is a landscape, Lfu with a higher saturation enhancement amount is set. Furthermore, when the shooting scene is a person, it is conceivable to set a straight line Lji in order to suppress saturation enhancement as much as possible.

このような実施形態を考えた場合、S1505の等彩度ライン情報は、例えば、図16中の中央部分の偏差量を、各シーン毎に保持していてもよい(シーン毎等彩度ライン情報保持手段)。同図中では、風景用偏差がdfu、夜景用偏差がdya、人物用偏差がdji、標準用偏差はdstだがこの場合0となっている。また、等彩度ラインは、それぞれの直線形状そのものを、テーブルとして保持しておいてもよい。   In consideration of such an embodiment, the iso-saturation line information in S1505 may hold, for example, the deviation amount of the central portion in FIG. 16 for each scene (iso-saturation line information for each scene). Holding means). In the figure, the landscape deviation is dfu, the night scene deviation is dya, the person deviation is dji, and the standard deviation is dst, but is 0 in this case. In addition, the isochromatic line may hold each linear shape itself as a table.

いずれにせよ、各シーン毎に等彩度ラインの形状を変化させることが本実施例の特徴であり、ラインを形成できるだけの情報を保持しているのが、シーン毎等彩度ライン情報ということになる。   In any case, the feature of this embodiment is that the shape of the isochromatic line is changed for each scene, and it is the isochromatic line information for each scene that has enough information to form the line. become.

その他の処理は、第1の実施例で説明したものと同様のため、ここでは割愛する。   Other processing is the same as that described in the first embodiment, and is omitted here.

以上説明したように、本実施例においては、入力画像の撮影シーンに応じて等彩度ライン形状を変化させることにより、各シーン毎に更に適正な彩度制御を行うことができる。   As described above, in the present embodiment, it is possible to perform more appropriate saturation control for each scene by changing the isochromatic line shape according to the shooting scene of the input image.

以上が第2の実施例の説明である。   The above is the description of the second embodiment.

(第3の実施例)
本実施例では、以上述べた実施例において、注目格子点の色相毎に、過補正を防止するための制御方法について説明する。
(Third embodiment)
In this embodiment, a control method for preventing overcorrection for each hue of the target lattice point in the above-described embodiment will be described.

第1の実施例では、YCbCr空間において、色相毎に色再現空間情報として、図10に示すようなSmax[h]およびYmax[h]をあらかじめ保持しておき、直線によって色空間境界を形成することを説明した。このとき、ちょうど図17のY軸より右側が示すように、例えば青系の色相は、彩度Smax[h]が高く輝度Ymax[h]が低いことから、色空間境界の下端直線Llの傾きは非常に低くなる。このような第1の実施例をそのまま適用すると、以下のような問題が発生する。   In the first embodiment, Smax [h] and Ymax [h] as shown in FIG. 10 are held in advance as color reproduction space information for each hue in the YCbCr space, and a color space boundary is formed by straight lines. I explained that. At this time, as shown on the right side of the Y axis in FIG. 17, for example, the hue of the blue system has a high saturation Smax [h] and a low luminance Ymax [h]. Is very low. If such a first embodiment is applied as it is, the following problems occur.

すなわち、例えば図17に示すように、補正前の最下点(Sl,Yl)に対して、補正後の最下点(Sl’, Yl’)の彩度が強調されすぎ、その結果直線Lz上に注目格子点の彩度を制御してしまうと、過補正になることがある。   That is, for example, as shown in FIG. 17, the saturation of the lowest point (Sl ′, Yl ′) after correction is excessively emphasized with respect to the lowest point (Sl, Yl) before correction, and as a result, the straight line Lz If the saturation of the target lattice point is controlled above, overcorrection may occur.

上記課題を鑑み、本実施例では第2の色再現空間情報を設定する際に、色相毎に彩度強調量に上限を設けることにより、過補正を防止する方法を述べる。   In view of the above problems, this embodiment describes a method for preventing overcorrection by setting an upper limit on the saturation enhancement amount for each hue when setting the second color reproduction space information.

本実施例におけるパラメータ算出部303のフローチャートを図18に示す。第1の実施例と異なる点は、S1805に対して色相毎抑制係数1811が入力される点にある。図18のS1801〜S1810は、第1の実施例の図1のS101〜S110と同様である。
本実施例における該色相毎抑制係数は、輝度補正後の最下位点の彩度の変動量を抑制するために利用する。本実施例においては、最下位点用の抑制係数をRl[360]とし、取りうる値の範囲を、例えば以下のように設定する。
Rl[360]=1.0〜2.5
A flowchart of the parameter calculation unit 303 in this embodiment is shown in FIG. The difference from the first embodiment is that a suppression coefficient 1811 for each hue is input to S1805. S1801 to S1810 in FIG. 18 are the same as S101 to S110 in FIG. 1 of the first embodiment.
The suppression coefficient for each hue in the present embodiment is used to suppress the amount of change in saturation at the lowest point after luminance correction. In this embodiment, the suppression coefficient for the lowest point is Rl [360], and the range of possible values is set as follows, for example.
Rl [360] = 1.0-2.5

上記Rl[h]は、色相に応じて1.0〜2.5までの値が設定されている。特に直線Llの傾きが低い青系の色相付近では2.5に近い値が、傾きが急峻な黄色の色相付近では1.0に近い値となるようなテーブルとして設定されている(彩度抑制係数保持手段)。   Rl [h] is set to a value from 1.0 to 2.5 according to the hue. In particular, the table is set so that a value close to 2.5 is near the blue hue where the slope of the straight line Ll is low, and a value close to 1.0 near the yellow hue where the slope is steep (saturation suppression coefficient holding means). .

注目格子点の色相をhとした時、階調補正前後の最下点の彩度強調量Plは以下のように算出できる。
Pl = Sl’/Sl
When the hue of the target lattice point is h, the saturation enhancement amount Pl at the lowest point before and after the gradation correction can be calculated as follows.
Pl = Sl '/ Sl

上記PlがRl[h]より大きい場合、Sl’を以下のように抑制する。
Sl’ = Sl × Rl[h]
When Pl is larger than Rl [h], Sl ′ is suppressed as follows.
Sl '= Sl x Rl [h]

以上のように抑制した最下位点(Sl’, Yl’)値を用いて、等彩度ラインを設定し、注目格子点の彩度値を決定する。   Using the lowest point (Sl ′, Yl ′) value suppressed as described above, an isochromatic line is set, and the chroma value of the target lattice point is determined.

上記以外の処理については、第1の実施例と同様であるため、ここでは割愛する。   Since other processes are the same as those in the first embodiment, they are omitted here.

以上説明したように、本実施例によれば、色相毎に最下点の彩度抑制係数を保持しておくことで、特に過補正が生じやすい色相領域において、過補正を防止することが可能となる。   As described above, according to the present embodiment, it is possible to prevent overcorrection particularly in a hue region where overcorrection is likely to occur by maintaining the saturation suppression coefficient at the lowest point for each hue. It becomes.

なお、上記実施例中に記載した具体的な数値は全て説明のための例であり、本発明の目的を達成可能であれば、いかなる数値を用いたとしても、本発明の範疇に含まれることは言うまでもない。   It should be noted that the specific numerical values described in the above-mentioned examples are all examples for explanation, and any numerical values can be used as long as the object of the present invention can be achieved and are included in the scope of the present invention. Needless to say.

以上が、第3の実施例の説明である。   The above is the description of the third embodiment.

(第4の実施例)
これまでの実施例では、簡単のために色空間をsRGBに限定して説明を行ってきた。しかし、例えば本方式をプリンタの印刷システムの中に組み込んで行う場合、入力画像の色空間や出力色空間が必ずしもsRGBだけとは限らないため、他の色空間に対しても適用可能な形態を考える必要がある。本実施例においては、入力色空間を複数想定し、該色空間毎に色再現空間情報を保持し、必要に応じてそれらを切り替えて利用することで、上記課題に対応する方法を記載する。
(Fourth embodiment)
In the embodiments so far, the description has been made by limiting the color space to sRGB for simplicity. However, for example, when this method is incorporated in a printer printing system, the color space and output color space of the input image are not necessarily limited to sRGB, so a form applicable to other color spaces is also possible. I need to think about it. In the present embodiment, a method corresponding to the above problem is described by assuming a plurality of input color spaces, holding color reproduction space information for each color space, and switching and using them as necessary.

本実施例における処理のブロック図を図19に示す。第1の実施例と異なる点は、UI設定部1901が追加されている点である。UI設定部は、プリンタのUI205を介して、ユーザーが所望のプリント処理を設定、および実行を指示するためのステップを表している。以降の処理はユーザからの指示内容に応じて実行される。   FIG. 19 shows a block diagram of processing in this embodiment. The difference from the first embodiment is that a UI setting unit 1901 is added. The UI setting unit represents steps for a user to set and instruct execution of desired print processing via the UI 205 of the printer. Subsequent processing is executed according to the content of instructions from the user.

例えば、ユーザーがメモリカードからの写真プリントの実行を指示した場合、画像読み込み部1902では、IF206を介して接続されているメモリカード209から所望の画像データを読み込む。読み込まれた画像データは、入力画像の色空間を特定するための属性情報と共に次段の画像解析部へ入力する。   For example, when the user instructs execution of photo printing from the memory card, the image reading unit 1902 reads desired image data from the memory card 209 connected via the IF 206. The read image data is input to the next-stage image analysis unit together with attribute information for specifying the color space of the input image.

また、ユーザーがコピーの実行を指示した場合、画像読み込み部1902は、プリンタに搭載されているスキャナを駆動させ、原稿の読み取りを行う。このとき、一般印刷物(たとえば雑誌、カタログ)には、sRGB色空間を越えるような広い色域をもつ場合が多いため、adobe RGBデータとして画像を読み取る。その結果得られた画像データは、adobe RGBであることが識別できる付加情報と共に、次段の画像解析部へ入力する。   When the user instructs execution of copying, the image reading unit 1902 drives a scanner mounted on the printer to read a document. At this time, general printed materials (eg, magazines, catalogs) often have a wide color gamut that exceeds the sRGB color space, so an image is read as Adobe RGB data. The image data obtained as a result is input to the next-stage image analysis unit together with additional information that can identify that it is adobe RGB.

画像解析部の処理は、これまでの実施例と同様であるため、ここでの詳細説明は割愛する。   Since the processing of the image analysis unit is the same as in the previous embodiments, detailed description thereof is omitted here.

図20は、本実施例における補正パラメータ算出部1904の処理のフローチャートを示している。これまでの実施例と異なる点は、出力色空間を決定するステップS2001が挿入されている点と、色再現空間情報2011が複数保持されている点である。   FIG. 20 shows a flowchart of processing of the correction parameter calculation unit 1904 in the present embodiment. The differences from the previous embodiments are that step S2001 for determining the output color space is inserted and that a plurality of color reproduction space information 2011 is held.

本実施例においては、出力色空間、すなわち、補正パラメータ算出部で算出する3DLUTの色空間は、簡単のため、sRGBおよびadobe RGBの2種類とする。図21は、ある色相に関して、縦軸が輝度、横軸が彩度で表される平面において、sRGBとadobe RGB空間の色空間境界を示した模式図である。通常、sRGBに比べて太線で示したadobe RGBの方が広い色空間をカバーすることができる。本実施例においては、この2つの色空間に対応するため、sRGBの色空間情報としてS_Smax[h]およびS_Ymax[h]を、adobeRGBの色空間情報として、A_Smax[h]、A_Ymax[h]を予め算出し、保持しておく。上記配列の意味は第1の実施例で説明したものと同様のため、ここでの詳細説明は割愛する。   In this embodiment, the output color space, that is, the 3DLUT color space calculated by the correction parameter calculation unit, is two types of sRGB and Adobe RGB for simplicity. FIG. 21 is a schematic diagram showing a color space boundary between the sRGB and adobe RGB spaces on a plane in which the vertical axis represents luminance and the horizontal axis represents saturation for a certain hue. In general, adobe RGB indicated by a thick line can cover a wider color space than sRGB. In this embodiment, in order to correspond to these two color spaces, S_Smax [h] and S_Ymax [h] are used as sRGB color space information, and A_Smax [h] and A_Ymax [h] are used as adobeRGB color space information. Calculate and hold in advance. Since the meaning of the arrangement is the same as that described in the first embodiment, a detailed description thereof is omitted here.

S2001の出力色空間決定処理では、入力画像に付加されている色空間を表す付加情報を参照し、入力画像がsRGBであれば、2011のsRGB用色再現空間情報を選択し、sRGBの3DLUTを生成する。一方で、入力画像がadobe RGBであれば、2011のadobe RGB用色再現空間情報を選択し、adobe RGBの3DLUTを生成する。   In the output color space determination process of S2001, reference is made to additional information representing the color space added to the input image. If the input image is sRGB, the color reproduction space information for 2011 sRGB is selected, and the 3DLUT of sRGB is selected. Generate. On the other hand, if the input image is adobe RGB, the color reproduction space information for adobe RGB of 2011 is selected, and 3DLUT of adobe RGB is generated.

上記以外の処理については、これまでの実施例と同様のため、ここでは詳細説明を割愛する。   Since the processes other than those described above are the same as those in the previous embodiments, detailed description thereof is omitted here.

以上説明したように、本実施例では入力が想定される様々な色空間に対して、予め輝度色差空間における色再現空間情報を保持しておく。さらに、読み取り装置で読み込んだ画像データの色空間に応じて所望の色再現空間情報を選択して利用することで、色空間に対して適応的な処理が可能となる。   As described above, in this embodiment, the color reproduction space information in the luminance color difference space is held in advance for various color spaces assumed to be input. Furthermore, by selecting and using desired color reproduction space information according to the color space of the image data read by the reading device, adaptive processing can be performed for the color space.

なお、本実施例では、入力画像の色空間に応じて、複数保持してある色空間境界テーブルを切り替える方法について述べたが、本発明はこれに限定されるものではない。例えば、UI設定部で設定した用紙の種類や印刷品位、プロファイルの選択によって切り替えることも本発明の範疇に含まれることは言うまでもない。   In the present embodiment, a method of switching a plurality of color space boundary tables held according to the color space of the input image has been described, but the present invention is not limited to this. For example, it goes without saying that switching according to selection of the paper type, print quality, and profile set in the UI setting unit is also included in the scope of the present invention.

また、色空間もsRGBおよびadobeRGBに限定されるものではなく、他の空間に対しても適用可能であることは言うまでもない。   Needless to say, the color space is not limited to sRGB and adobeRGB, and can be applied to other spaces.

さらに、S2001における出力色空間決定方法も、本実施例では、簡単のため入力画像の色空間に応じて決定することを説明したが、本発明はこれに限定されるものではない。例えば、予め設定されたプリンタの動作モードや用紙、印刷品位によって、出力色空間が定められていてもよい。   Further, in the present embodiment, the output color space determination method in S2001 has been described as being determined according to the color space of the input image for simplicity, but the present invention is not limited to this. For example, the output color space may be determined according to a preset printer operation mode, paper, and print quality.

以上が、第4の実施例の説明である。   The above is the description of the fourth embodiment.

(その他の実施例)
以上の実施例では、簡単のため、輝度色差空間はYCbCrに限定して説明したが、本発明はこれに限定されるものではない。例えば、既知の輝度色差空間(たとえばLab)に適用した場合においても、本発明の範疇に含まれることは言うまでもない。
(Other examples)
In the above embodiment, for the sake of simplicity, the luminance color difference space has been described as being limited to YCbCr, but the present invention is not limited to this. For example, even when applied to a known luminance color difference space (for example, Lab), it goes without saying that it is included in the category of the present invention.

また、色再現空間情報の保持の方法であるが、本実施例においては、色空間の各色相毎に最大彩度値と最大彩度値における輝度値を保持しておき、任意の彩度値における色空間境界位置を算出する方法について説明したが、本発明はこれに限定されるものではない。   In this embodiment, the color reproduction space information is retained, and in this embodiment, the maximum saturation value and the luminance value at the maximum saturation value are retained for each hue of the color space, and an arbitrary saturation value is stored. Although the method of calculating the color space boundary position in the above has been described, the present invention is not limited to this.

色空間境界形状そのものを各色相毎に保持してもよいし、全ての色相角で保持するのはなく、例えば5度間隔で境界情報を保持しておき、その間は補間によって境界情報を求めることもできる。色再現空間情報は、その他類似するいかなる保持手段を採用したとしても、本発明の範疇に含まれることは言うまでもない。   The color space boundary shape itself may be retained for each hue, or not at all hue angles, for example, boundary information is retained at intervals of 5 degrees, and the boundary information is obtained by interpolation between them. You can also. It goes without saying that the color reproduction space information is included in the scope of the present invention even if any other similar holding means is adopted.

また、第1の実施例では階調補正後の最上位点は必ず彩度低下を生じないように設定するよう記載しているが、本発明はこれに限定されるものではない。例えば、補正処理後の画像の見栄えが低下しない範囲で、最上位点(Su, Yu’)が輝度軸側に設定されたとしても、本発明の目的を実現できる範囲であれば、本発明の範疇に含まれる。   In the first embodiment, it is described that the highest point after gradation correction is set so as not to cause a decrease in saturation, but the present invention is not limited to this. For example, even if the highest point (Su, Yu ′) is set on the luminance axis side within a range where the appearance of the image after the correction processing does not deteriorate, the range of the present invention Included in the category.

本発明の実施例は、簡単のためプリンタ200本体における組込み処理として説明したが、本発明はこれに限定されるものではない。例えば、他の画像処理装置(たとえばデジタルカメラ、ファクシミリ装置)の画像補正部に対して、本発明を適用することも容易に可能である。また、PC(パーソナルコンピュータ)で、上述した実施例の処理を実行してもよい。   The embodiment of the present invention has been described as the incorporation process in the printer 200 for simplicity, but the present invention is not limited to this. For example, the present invention can be easily applied to an image correction unit of another image processing apparatus (for example, a digital camera or a facsimile apparatus). Further, the processing of the above-described embodiment may be executed by a PC (personal computer).

また、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタ)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置)に適用しても良い。   In addition, the present invention can be applied to an apparatus (for example, a copier or a facsimile machine) composed of a single device even if it is applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, and a printer). You may do it.

また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   The object of the present invention can also be achieved by executing the following processing. That is, a storage medium that records a program code of software that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus is stored in the storage medium. This is the process of reading the code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention.

301・・・画像読み込み部
302・・・画像解析部
303・・・補正パラメータ算出部
304・・・画像補正部
305・・・色変換部
306・・・擬似諧調処理部
307・・・プリントエンジン部
301 ・ ・ ・ Image reading part
302 ・ ・ ・ Image analysis unit
303 ... Correction parameter calculation unit
304 ・ ・ ・ Image correction unit
305 ... Color converter
306 ・ ・ ・ Pseudo gradation processing part
307 ... Print engine

Claims (12)

ルックアップテーブルの注目格子点の輝度値を補正する第1の補正手段
前記注目格子点の色相と彩度値を用いて、色空間の境界の輝度値と彩度値を算出する算出手段と、
前記算出手段によって算出された輝度値と彩度値を用いて、前記色空間における彩度補正ラインを決定する決定手段と、
前記第1の補正手段による補正後の前記注目格子点の輝度値と前記決定手段によって決定される彩度補正ラインとを用いて、前記注目格子点の彩度値を補正する第2の補正手段と、
前記第1の補正手段による補正後の輝度値と前記第2の補正手段による補正後の彩度値を用いて、輝度と彩度を補正するためのルックアップテーブルを生成する生成手段とを有し、
前記第1の補正手段による補正後の輝度が大きいほど前記第2の補正手段による彩度値の補正量は小さくなることを特徴とする画像処理装置。
A first correction means for correcting the luminance value of the target grid point of a look-up table,
A calculation means for calculating a luminance value and a saturation value of a boundary of a color space using the hue and saturation value of the target lattice point;
Determining means for determining a saturation correction line in the color space using the luminance value and the saturation value calculated by the calculating means;
Second correction means for correcting the saturation value of the grid point of interest using the luminance value of the grid point of interest after correction by the first correction unit and the saturation correction line determined by the determination unit. When,
Generation means for generating a look-up table for correcting the luminance and saturation using the luminance value corrected by the first correction means and the saturation value corrected by the second correction means; And
The image processing apparatus according to claim it small Kunar correction amount of the saturation value by the higher luminance value after compensation that by the first correction means is larger the second correction means.
さらに、前記生成手段によって生成されたルックアップテーブルを用いて、画像の輝度と彩度を補正する第3の補正手段を有することを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising a third correction unit that corrects luminance and saturation of the image using the lookup table generated by the generation unit.
前記第1の補正手段における輝度値の補正量は、前記画像に含まれる顔の明るさに基づき決定されることを特徴とする請求項に記載の画像処理装置。
The image processing apparatus according to claim 2 , wherein the correction amount of the luminance value in the first correction unit is determined based on the brightness of the face included in the image.
前記第2の補正手段における彩度値の補正量は、前記注目格子点の色相に応じて異なることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
4. The image processing apparatus according to claim 1 , wherein a correction amount of the saturation value in the second correction unit is different according to a hue of the target lattice point . 5.
前記第2の補正手段における彩度値の補正量は、前記注目格子点の色相が青系のほうが黄色の場合よりも大きくなることを特徴とする請求項に記載の画像処理装置。
5. The image processing apparatus according to claim 4 , wherein a saturation value correction amount in the second correction unit is larger in a case where the hue of the target lattice point is blue than yellow . 6.
前記色空間は、sRGB空間、または、adobeRGB空間であることを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the color space is an sRGB space or an adobeRGB space .
さらに、色相毎に、前記色空間の最大彩度点の彩度値と輝度値を保持する保持手段を有することを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。
Furthermore, for each hue, the image processing apparatus according to any one of claims 1 to 6, characterized in that it has a holding means for holding a maximum saturation value of saturation point and the luminance value of the color space.
前記決定手段によって決定される彩度補正ラインは、前記色空間において輝度が大きいほど輝度軸に近づくラインであることを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the saturation correction line determined by the determination unit is a line that approaches the luminance axis as the luminance increases in the color space.
画像の画素の輝度値を補正する第1の補正手段と、First correction means for correcting the luminance value of the pixel of the image;
前記画像の画素の色相と彩度値を用いて、色空間の境界の輝度値と彩度値を算出する算出手段と、Calculating means for calculating a luminance value and a saturation value of a boundary of a color space using a hue and a saturation value of a pixel of the image;
前記算出手段によって算出された輝度値と彩度値を用いて、前記色空間における彩度補正ラインを決定する決定手段と、Determining means for determining a saturation correction line in the color space using the luminance value and the saturation value calculated by the calculating means;
前記第1の補正手段による補正後の前記画像の画素の輝度値と前記決定手段によって決定される彩度補正ラインとを用いて、前記画像の画素の彩度値を補正する第2の補正手段とを有し、Second correction means for correcting the saturation value of the pixel of the image using the luminance value of the pixel of the image after correction by the first correction means and the saturation correction line determined by the determination means. And
前記第1の補正手段による補正後の輝度値が大きいほど前記第2の補正手段による彩度値の補正量は小さくなることを特徴とする画像処理装置。The image processing apparatus according to claim 1, wherein the amount of correction of the saturation value by the second correction unit decreases as the luminance value after correction by the first correction unit increases.
ルックアップテーブルの注目格子点の輝度値を補正する第1の補正工程と、A first correction step of correcting the luminance value of the target grid point of the lookup table;
前記注目格子点の色相と彩度値を用いて、色空間の境界の輝度値と彩度値を算出する算出工程と、A calculation step of calculating a luminance value and a saturation value of a boundary of a color space using the hue and saturation value of the target lattice point;
前記算出工程により算出された輝度値と彩度値を用いて、前記色空間における彩度補正ラインを決定する決定工程と、A determination step of determining a saturation correction line in the color space using the luminance value and the saturation value calculated by the calculation step;
前記第1の補正工程による補正後の前記注目格子点の輝度値と前記決定工程によって決定される彩度補正ラインとを用いて、前記注目格子点の彩度値を補正する第2の補正工程と、A second correction step of correcting the saturation value of the target lattice point using the luminance value of the target lattice point after the correction by the first correction step and the saturation correction line determined by the determination step. When,
前記第1の補正工程による補正後の輝度値と前記第2の補正工程による補正後の彩度値を用いて、輝度と彩度を補正するためのルックアップテーブルを生成する生成工程とを有し、A generation step of generating a lookup table for correcting the luminance and the saturation using the luminance value corrected by the first correction step and the saturation value corrected by the second correction step; And
前記第1の補正工程による補正後の輝度値が大きいほど前記第2の補正工程による彩度値の補正量は小さくなることを特徴とする画像処理方法。The image processing method according to claim 1, wherein as the luminance value after the correction in the first correction step is larger, the saturation value correction amount in the second correction step is smaller.
画像の画素の輝度値を補正する第1の補正工程と、A first correction step of correcting the luminance value of the pixel of the image;
前記画像の画素の色相と彩度値を用いて、色空間の境界の輝度値と彩度値を算出する算出工程と、A calculation step of calculating a luminance value and a saturation value of a boundary of a color space using a hue and a saturation value of a pixel of the image;
前記算出工程によって算出された輝度値と彩度値を用いて、前記色空間における彩度補正ラインを決定する決定工程と、A determination step of determining a saturation correction line in the color space using the luminance value and the saturation value calculated by the calculation step;
前記第1の補正工程による補正後の前記画像の画素の輝度値と前記決定工程によって決定される彩度補正ラインとを用いて、前記画像の画素の彩度値を補正する第2の補正工程とを有し、A second correction step of correcting the saturation value of the pixel of the image using the luminance value of the pixel of the image after the correction by the first correction step and the saturation correction line determined by the determination step. And
前記第1の補正工程による補正後の輝度値が大きいほど前記第2の補正工程による彩度値の補正量は小さくなることを特徴とする画像処理方法。The image processing method according to claim 1, wherein as the luminance value after the correction in the first correction step is larger, the saturation value correction amount in the second correction step is smaller.
コンピュータを請求項1乃至の何れか一項に記載の画像処理装置として機能させるためのプログラム。 The program for functioning a computer as an image processing apparatus as described in any one of Claims 1 thru | or 9 .
JP2013005003A 2013-01-15 2013-01-15 Image processing apparatus and method, and storage medium storing program Active JP5675856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013005003A JP5675856B2 (en) 2013-01-15 2013-01-15 Image processing apparatus and method, and storage medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013005003A JP5675856B2 (en) 2013-01-15 2013-01-15 Image processing apparatus and method, and storage medium storing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009122804A Division JP5183568B2 (en) 2009-05-21 2009-05-21 Image processing apparatus and method, and storage medium storing program

Publications (2)

Publication Number Publication Date
JP2013093897A JP2013093897A (en) 2013-05-16
JP5675856B2 true JP5675856B2 (en) 2015-02-25

Family

ID=48616613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013005003A Active JP5675856B2 (en) 2013-01-15 2013-01-15 Image processing apparatus and method, and storage medium storing program

Country Status (1)

Country Link
JP (1) JP5675856B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100750545B1 (en) * 1999-06-10 2007-08-20 램 리써치 코포레이션 Method and system for cleaning a semiconductor wafer

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004254060A (en) * 2003-02-20 2004-09-09 Olympus Corp Chroma correction unit
JP3914168B2 (en) * 2003-04-08 2007-05-16 オリンパス株式会社 Imaging system, image processing program
JP2008131211A (en) * 2006-11-17 2008-06-05 Kyocera Mita Corp Image processor and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100750545B1 (en) * 1999-06-10 2007-08-20 램 리써치 코포레이션 Method and system for cleaning a semiconductor wafer

Also Published As

Publication number Publication date
JP2013093897A (en) 2013-05-16

Similar Documents

Publication Publication Date Title
JP5183568B2 (en) Image processing apparatus and method, and storage medium storing program
KR101248858B1 (en) Image processing apparatus and image processing method
JP5116393B2 (en) Image processing apparatus and image processing method
US8213733B2 (en) Image processing apparatus, image processing method, computer program and storage medium
KR101665428B1 (en) Image processing apparatus and image processing method
US6522427B1 (en) Color table manipulations for contour reduction
US20130322747A1 (en) Image processing device correcting color of border region between object and background in image
US10515453B2 (en) Image processing apparatus, image processing method, and storage medium for performing an edge correction processing based on color variations
JP2000152018A (en) Method and device for picture processing and recording medium
US10194050B2 (en) Image processing apparatus, image processing method, and storage medium in which background removal is performed to remove a background included in an input image based on pixel values
US20080062484A1 (en) Image processing device and image processing method
US8665290B2 (en) Image-based source gamut adjustment for compression-type gamut mapping algorithm
WO2010074729A1 (en) Ridge-based color gamut mapping
US8989489B2 (en) Control apparatus controlling processing of image read by reading device
JP5675856B2 (en) Image processing apparatus and method, and storage medium storing program
JPH10232915A (en) Image processor and its method
JP2010088117A (en) Systems and methods for luminance determination
JP4455261B2 (en) Image processing method, image processing apparatus, and image forming system
JP2005260404A (en) Image processor
JP5632937B2 (en) Image processing apparatus and method, and computer program
JP4375223B2 (en) Image processing apparatus, image processing method, and image processing program
JP2006163557A (en) Apparatus, method and program for image processing, and apparatus, method and program for print control
JP2012039670A (en) Image processing device and image processing method
JP2007258868A (en) Method, apparatus and program for generating color correction profile, and structure of digital image data
JP2009017100A (en) Image processing apparatus, image processing method, program, and recording medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130214

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20130701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141224

R151 Written notification of patent or utility model registration

Ref document number: 5675856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151