[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016054405A - Color processing device and method of the same - Google Patents

Color processing device and method of the same Download PDF

Info

Publication number
JP2016054405A
JP2016054405A JP2014179516A JP2014179516A JP2016054405A JP 2016054405 A JP2016054405 A JP 2016054405A JP 2014179516 A JP2014179516 A JP 2014179516A JP 2014179516 A JP2014179516 A JP 2014179516A JP 2016054405 A JP2016054405 A JP 2016054405A
Authority
JP
Japan
Prior art keywords
color
space
grid
value
uniform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014179516A
Other languages
Japanese (ja)
Inventor
晋 新原
Susumu Niihara
晋 新原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014179516A priority Critical patent/JP2016054405A/en
Publication of JP2016054405A publication Critical patent/JP2016054405A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To create a color conversion profile which is faithful to a human perception and can equalize a perceptive interpolation error.SOLUTION: A measurement value acquisition portion 102 acquires a data set including measurement values of color that an image output apparatus outputs. A correction matrix generation portion 104 generates a second correction parameter for equally rearranging perceptually a first matrix that equally divides a reference color space, using a first correction parameter that converts a color value in the reference color space into a color value in an equal color perception space. A color reproduction area calculation portion 105 converts the measurement values that the data set includes using the first correction parameter so as to calculate a color value indicating the color reproduction area in the equal color perception space of the image output apparatus. A multi-dimensional LUT creation portion 106 creates a table for converting the color value in the reference color space into a signal value depending on the image output apparatus, on the basis of the second correction parameter and the color reproduction area.SELECTED DRAWING: Figure 3

Description

本発明は、色変換プロファイルを作成する色処理に関する。   The present invention relates to color processing for creating a color conversion profile.

各種の画像入出力機器の間の色合わせには、ICCプロファイル(非特許文献1参照)などのカラープロファイルが利用される。ICCプロファイルは、デバイス依存の信号値をデバイス非依存のPCS値に変換するルックアップテーブル(LUT)であるAtoBタグと、PCS値をデバイス依存の信号値に変換するLUTであるBtoAタグを有する。なお、デバイス依存の信号値は一般にRGB値やCMYK値であり、デバイス非依存の信号値にはCIEL*a*b*値などが用いられ、PCSはプロファイル接続空間(profile connection space)の略である。また、AtoBタグやBtoAタグは、マトリクス、一次元LUT、多次元LUTの組み合せによって構成される。   For color matching between various image input / output devices, a color profile such as an ICC profile (see Non-Patent Document 1) is used. The ICC profile has an AtoB tag that is a look-up table (LUT) that converts device-dependent signal values into device-independent PCS values, and a BtoA tag that is an LUT that converts PCS values into device-dependent signal values. Note that device-dependent signal values are generally RGB values and CMYK values, and device-independent signal values are CIEL * a * b * values.PCS is an abbreviation for profile connection space. is there. An AtoB tag and a BtoA tag are configured by a combination of a matrix, a one-dimensional LUT, and a multidimensional LUT.

デバイス依存の信号値からPCS値への変換を行うAtoBタグの作成には、モニタに表示またはプリンタで印刷した、信号値が既知のカラーチャートを測色器によって測定し、信号値に対応するPCS値を取得する。そして、取得したPCS値を補間処理することで、信号値の全域において、デバイス依存の信号値からPCS値への変換を行うAtoBタグが作成される。   To create an AtoB tag that converts device-dependent signal values to PCS values, a color chart with a known signal value displayed on a monitor or printed by a printer is measured by a colorimeter, and the PCS corresponding to the signal value is displayed. Get the value. Then, by interpolating the acquired PCS value, an AtoB tag for converting the device-dependent signal value to the PCS value is created in the entire signal value.

一方、PCS値からデバイス依存の信号値への変換を行うBtoAタグの作成には、PCS上に格子点を定める。そして、それらの格子点のPCS値に対応するデバイス依存の信号値を補間演算により求めることで、BtoAタグが作成される。PCSの格子点には、機器が再現可能な色範囲(以下、色再現範囲)の外の色も含まれ、すべての格子点を機器の色再現範囲に収めるため、PCSに色空間圧縮が施される。   On the other hand, to create a BtoA tag that converts a PCS value to a device-dependent signal value, a grid point is defined on the PCS. Then, BtoA tags are created by obtaining device-dependent signal values corresponding to the PCS values of those lattice points by interpolation calculation. The PCS grid points include colors outside the color range that can be reproduced by the device (hereinafter referred to as the color reproduction range). In order to keep all the grid points within the color reproduction range of the device, the PCS is subjected to color space compression. Is done.

このようにして作成された画像入出力機器のAtoBタグおよびBtoAタグは色マッチングモジュール(CMM)に参照される。CMMがAtoBタグおよびBtoAタグを参照して画像データを色変換することで、入出力機器の間の色合わせが実現される。   The AtoB tag and BtoA tag of the image input / output device thus created are referred to by the color matching module (CMM). The CMM performs color conversion of image data with reference to the AtoB tag and the BtoA tag, thereby realizing color matching between input / output devices.

図1によりBtoAタグに含まれる多次元LUTの一例を示す。BtoAタグに含まれる多次元LUTは、一般に、PCSの各軸の数値範囲を均等に分割した格子(以下、均等格子)の各格子点の座標(色値)と、それら格子点に対応するデバイス依存の信号値が格納された構造を有する。非特許文献1は、例えばL*a*b*値のプロファイルの場合、PCSの数値範囲を次のように定義する。
0≦ L* ≦ 100、
-128≦ a* ≦ 127、
-128≦ b* ≦ 127。
FIG. 1 shows an example of a multidimensional LUT included in a BtoA tag. A multi-dimensional LUT included in a BtoA tag is generally a coordinate (color value) of each grid point of a grid (hereinafter referred to as a uniform grid) obtained by equally dividing the numerical range of each axis of the PCS, and a device corresponding to these grid points. It has a structure in which dependent signal values are stored. In Non-Patent Document 1, for example, in the case of a profile of L * a * b * values, the numerical range of PCS is defined as follows.
0 ≦ L * ≦ 100,
-128 ≦ a * ≦ 127,
-128 ≦ b * ≦ 127.

また、各軸の数値範囲の分割数は精度に応じて8、16、32などから選択することができる。なお、図1は各軸の数値範囲を16分割した173=4913格子点のLUTを示している。CMMは、格子点の間に位置する入力データ(L*a*b*値)が入力された場合、入力データを囲む格子点の出力データ(デバイス依存の信号値)を参照して、入力データに対応する出力データを補間演算する。従って、格子点数が多く、格子点の間の距離が短いほど、補間演算による誤差(以下、補間誤差)を小さくすることができる。 The number of divisions of the numerical range of each axis can be selected from 8, 16, 32, etc. depending on the accuracy. FIG. 1 shows an LUT of 17 3 = 4913 lattice points obtained by dividing the numerical range of each axis into 16 parts. When input data (L * a * b * values) located between grid points is input, the CMM refers to the output data (device-dependent signal values) of the grid points that surround the input data. Interpolate the output data corresponding to. Therefore, as the number of grid points is larger and the distance between the grid points is shorter, the error due to the interpolation calculation (hereinafter, interpolation error) can be reduced.

PCSとして使用されるCIEL*a*b*空間は、必ずしも人間の知覚に対して均等な色空間ではない。そのため、PCSの各軸の数値範囲を均等に分割した多次元LUTを用いると、領域によって、補間誤差が知覚的に不均一になる問題がある。補間誤差は、例えば、低彩度域においては大きく知覚され、高彩度域においては小さく知覚される。言い替えれば、数値的な補間誤差が均等化されたとしても、知覚的な補間誤差は色域によって変動し均等にはならない。   The CIEL * a * b * space used as PCS is not necessarily a color space equivalent to human perception. For this reason, when a multidimensional LUT in which the numerical range of each axis of the PCS is evenly divided is used, there is a problem that the interpolation error is perceptually nonuniform depending on the region. For example, the interpolation error is perceived to be large in the low saturation region and small in the high saturation region. In other words, even if the numerical interpolation error is equalized, the perceptual interpolation error varies depending on the color gamut and is not uniform.

特許文献1は、上記の問題を解決する方法を開示する。特許文献1によれば、S字関数を用いてPCSのa*値、b*値を変換することで、LUTの格子点密度を、グレイ軸近傍は密に、グレイ軸から遠ざかるほど粗くして、補間演算の精度向上を図る。   Patent Document 1 discloses a method for solving the above problem. According to Patent Document 1, by converting the a * value and b * value of PCS using an S-shaped function, the lattice point density of the LUT is made denser in the vicinity of the gray axis and coarsened away from the gray axis. To improve the accuracy of interpolation calculations.

しかし、CIEL*a*b*空間の知覚に対する歪みは複雑であり、特許文献1に示される彩度方向の単純なS字変換だけでは知覚的な補間誤差の均等性は得られず、PCS全体における補間誤差を知覚的に均等化することができない。さらに、特許文献1の技術は、機器の色再現範囲外の格子点を機器の色再現範囲に対応付ける際に、CIEL*a*b*空間上で色空間圧縮を行うため、CIEL*a*b*空間の知覚に対する歪みの影響により視覚的に忠実な色再現が得られない場合が多い。   However, the distortion to the perception of the CIEL * a * b * space is complex, and even with the simple S-shaped transformation in the saturation direction shown in Patent Document 1, the perceptual interpolation error uniformity cannot be obtained. The interpolation error in cannot be perceptually equalized. Furthermore, the technology of Patent Document 1 uses CIEL * a * b to perform color space compression on the CIEL * a * b * space when mapping grid points outside the device's color reproduction range to the device's color reproduction range. * Visually faithful color reproduction is often not obtained due to distortion effects on spatial perception.

特許第4250863号公報(特開2002-152530号)Japanese Patent No. 4250863 (JP 2002-152530) 特開2013-021679号公報JP 2013-021679 A

International Color Consortium, Specification ICC. 1:2004-10, (Profile Version 4.2.0.0)International Color Consortium, Specification ICC. 1: 2004-10, (Profile Version 4.2.0.0) D. L. MacAdam「Visual sensitibities to color differences in daylight」Journal of the Optical Society of America、Vol. 32、No.5、247-274頁、1942年5月D. L. MacAdam "Visual sensitibities to color differences in daylight" Journal of the Optical Society of America, Vol. 32, No. 5, pp. 247-274, May 1942

本発明は、人間の知覚に忠実、かつ、知覚的な補間誤差の均等化が可能な色変換プロファイルの作成を目的とする。   An object of the present invention is to create a color conversion profile that is faithful to human perception and can equalize perceptual interpolation errors.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる色処理は、画像出力機器が出力する色の測定値を含むデータセットを取得し、基準色空間の色値を均等色知覚空間の色値に変換する第一の補正パラメータを用いて、前記基準色空間を均等分割する第一の格子を知覚均等に再配置するための第二の補正パラメータを生成し、前記第一の補正パラメータを用いて前記データセットが含む測定値を変換し、前記画像出力機器の前記均等色知覚空間における色再現域を示す色値を算出し、前記第二の補正パラメータと前記色再現域に基づき、前記基準色空間の色値を前記画像出力機器に依存する信号値に変換するためのテーブルを作成する。   The color processing according to the present invention uses a first correction parameter that obtains a data set that includes measurement values of colors output from an image output device and converts color values in a reference color space into color values in a uniform color perception space. Generating a second correction parameter for rearranging the first grid that equally divides the reference color space in a perceptual manner, and converting the measurement value included in the data set using the first correction parameter. A color value indicating a color gamut in the uniform color perception space of the image output device is calculated, and the color value of the reference color space is calculated based on the second correction parameter and the color gamut. Create a table to convert to signal values that depend on.

本発明によれば、人間の知覚に忠実、かつ、知覚的な補間誤差の均等化が可能な色変換プロファイルを作成することができる。   According to the present invention, it is possible to create a color conversion profile that is faithful to human perception and can equalize perceptual interpolation errors.

BtoAタグに含まれる多次元LUTの一例を示す図。The figure which shows an example of the multidimensional LUT contained in a BtoA tag. 実施例の色処理装置として機能する情報処理装置の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an information processing apparatus that functions as a color processing apparatus according to an embodiment. 実施例1の色処理装置の処理構成例を示すブロック図。FIG. 2 is a block diagram illustrating a processing configuration example of the color processing apparatus according to the first embodiment. 色処理装置が実行する色変換プロファイルの作成処理を説明するフローチャート。5 is a flowchart for explaining color conversion profile creation processing executed by the color processing apparatus. MacAdamが作成した25色それぞれに対する色弁別閾をCIELAB空間にプロットした様子を示す図。The figure which shows a mode that the color discrimination threshold with respect to each of 25 colors which MacAdam created was plotted in CIELAB space. 均等色知覚空間の作成方法の概要を説明する図。The figure explaining the outline | summary of the creation method of uniform color perception space. 補正マトリクスの生成処理を説明するフローチャート。7 is a flowchart for explaining correction matrix generation processing. B2ALUTの生成処理を説明するフローチャート。The flowchart explaining the production | generation process of B2ALUT. 実施例2の色処理装置の処理構成例を示すブロック図。FIG. 6 is a block diagram illustrating a processing configuration example of a color processing apparatus according to a second embodiment. 均等格子UGUCASの生成条件を入力するためのUIの一例を示す図。The figure which shows an example of UI for inputting the production | generation conditions of uniform grid UG UCAS .

以下、本発明にかかる実施例の色処理装置および色処理方法を図面を参照して詳細に説明する。なお、実施例は特許請求の範囲にかかる本発明を限定するものではなく、また、実施例において説明する構成の組み合わせのすべてが本発明の解決手段に必須とは限らない。   Hereinafter, a color processing apparatus and a color processing method according to an embodiment of the present invention will be described in detail with reference to the drawings. In addition, an Example does not limit this invention concerning a claim, and all the combinations of the structure demonstrated in an Example are not necessarily essential for the solution means of this invention.

[装置の構成]
図2のブロック図により実施例の色処理装置として機能する情報処理装置の構成例を示す。CPU201は、RAMなどのメインメモリ202をワークメモリとして、ROM209や記憶部203に格納されたオペレーティングシステム(OS)やプログラムを実行し、システムバス206を介して後述する構成を制御する。なお、記憶部203は、HDDやSSDなどであり、後述する色処理を実現するプログラムや各種データを格納する。
[Device configuration]
The block diagram of FIG. 2 shows a configuration example of an information processing apparatus that functions as the color processing apparatus of the embodiment. The CPU 201 executes an operating system (OS) or a program stored in the ROM 209 or the storage unit 203 using the main memory 202 such as a RAM as a work memory, and controls a configuration to be described later via the system bus 206. The storage unit 203 is an HDD, an SSD, or the like, and stores programs and various data for realizing color processing to be described later.

インタフェイス204には、キーボードやマウスなどの操作部207、測色器101、メモリカードやUSBメモリのような記録媒体210などが接続される。また、ビデオカード(VC)205には、モニタ211が接続される。CPU201は、ユーザインタフェイス(UI)、および、処理経過や処理結果などを示す情報をモニタ211に表示する。   Connected to the interface 204 are an operation unit 207 such as a keyboard and a mouse, a colorimeter 101, a recording medium 210 such as a memory card and a USB memory, and the like. A monitor 211 is connected to the video card (VC) 205. The CPU 201 displays information indicating a user interface (UI), processing progress, processing results, and the like on the monitor 211.

例えば、CPU201は、操作部207を介して入力されるユーザ指示に従い、記憶部203または記録媒体210に格納されたアプリケーションプログラム(AP)をメインメモリ202の所定領域にロードする。そして、APを実行し、APに従いモニタ211にUIを表示する。   For example, the CPU 201 loads an application program (AP) stored in the storage unit 203 or the recording medium 210 into a predetermined area of the main memory 202 in accordance with a user instruction input via the operation unit 207. Then, the AP is executed, and the UI is displayed on the monitor 211 according to the AP.

次に、CPU201は、ユーザによるUIの操作に従い、記憶部203や記録媒体210に格納された各種データや測色器101から測色値を入力し、メインメモリ202の所定領域にロードする。そして、APに従いメインメモリ202にロードした各種データに所定の演算処理を施す。そして、CPU201は、ユーザによるUIの操作に従い演算処理結果をモニタ205に表示したり、記憶部203や記録媒体210に格納する。   Next, the CPU 201 inputs various data stored in the storage unit 203 and the recording medium 210 and the colorimetric values from the colorimeter 101 according to the UI operation by the user, and loads them into a predetermined area of the main memory 202. Then, predetermined arithmetic processing is performed on various data loaded into the main memory 202 in accordance with the AP. Then, the CPU 201 displays the calculation processing result on the monitor 205 or stores it in the storage unit 203 or the recording medium 210 in accordance with the UI operation by the user.

なお、CPU201は、インタフェイス204を介して、有線または無線ネットワーク上のサーバ装置との間でプログラム、データ、演算処理結果の送受信を行うこともできる。また、情報処理装置としてタブレット型コンピュータを利用することも可能であり、その場合、モニタ211のスクリーン上に重畳されたタッチパネルが操作部207である。   Note that the CPU 201 can also exchange programs, data, and arithmetic processing results with a server device on a wired or wireless network via the interface 204. In addition, a tablet computer can be used as the information processing apparatus. In this case, a touch panel superimposed on the screen of the monitor 211 is the operation unit 207.

[色変換プロファイルの作成]
図3のブロック図により色変換プロファイルを作成する実施例1の色処理装置100の処理構成例を示す。なお、図3に示す色変換プロファイルを作成する処理構成や機能は、CPU201が色処理APを実行することにより実現される。また、図4のフローチャートにより色処理装置100が実行する色変換プロファイルの作成処理を説明する。
[Create color conversion profile]
A processing configuration example of the color processing apparatus 100 according to the first embodiment that creates a color conversion profile is shown in the block diagram of FIG. Note that the processing configuration and functions for creating the color conversion profile shown in FIG. 3 are realized by the CPU 201 executing the color processing AP. The color conversion profile creation process executed by the color processing apparatus 100 will be described with reference to the flowchart of FIG.

測色値取得部102は、測色器101や記録媒体210から、色変換プロファイルの作成対象機器の色再現特性を表すデータセットを取得する(S11)。色変換プロファイルの作成対象機器は例えばモニタやプリンタであるが、以下では、作成対象機器をプリンタとして説明を行う。従って、取得されるデータセットは、例えば、所定のCMYK値と測定値の対応関係を示す。   The colorimetric value acquisition unit 102 acquires a data set representing the color reproduction characteristics of the device for which a color conversion profile is to be created from the colorimeter 101 or the recording medium 210 (S11). The device for creating the color conversion profile is, for example, a monitor or a printer. In the following description, the device to be created is described as a printer. Accordingly, the acquired data set indicates, for example, the correspondence between predetermined CMYK values and measured values.

測色値取得部102は、操作部207によって入力されるユーザ指示に従い、例えば記録媒体210からプリンタの色再現特性を予め測定したデータセットが格納されたデータファイルを入力する。測定値は、三刺激値XYZなどの心理物理量でもよいし、CIEL*a*b*値など標準色空間の値でもよい。ただし、測定値が三刺激値XYZの場合、測色値取得部202は、取得した三刺激値XYZをCIEL*a*b*値などの標準的な色空間の値に変換する。   The colorimetric value acquisition unit 102 inputs, for example, a data file storing a data set in which the color reproduction characteristics of the printer are measured in advance from the recording medium 210 in accordance with a user instruction input by the operation unit 207. The measured value may be a psychophysical quantity such as tristimulus values XYZ, or a standard color space value such as CIEL * a * b * values. However, when the measured value is the tristimulus value XYZ, the colorimetric value acquisition unit 202 converts the acquired tristimulus value XYZ into a standard color space value such as a CIEL * a * b * value.

補正パラメータ取得部103は、記憶部203や記録媒体210から、CIEL*a*b*空間などのPCSにおける知覚に対する歪みを補正し、PCSを人間の知覚に対して均等な色空間に変換するための補正パラメータを取得する(S12)。以下では、人間の知覚に対して均等な色空間を「均等色知覚空間」または「UCAS (uniform color apparance space)」と呼ぶ。補正マトリクス生成部104は、詳細は後述するが、補正パラメータを用いて、PCSの均等格子を知覚均等に再配置するための補正マトリクスを生成する(S13)。   The correction parameter acquisition unit 103 corrects distortion for the perception in the PCS such as the CIEL * a * b * space from the storage unit 203 or the recording medium 210, and converts the PCS into a color space equivalent to human perception. The correction parameter is acquired (S12). Hereinafter, a color space that is uniform with respect to human perception is referred to as a “uniform color perception space” or “UCAS (uniform color apparance space)”. Although described in detail later, the correction matrix generation unit 104 generates a correction matrix for rearranging the PCS uniform grid in a perceptual manner using correction parameters (S13).

色再現域算出部105は、補正パラメータを用いて、測色値取得部202が取得したデータセットに含まれる測定値を均等色知覚空間の表色値に変換する(S14)。つまり、色再現域算出部105は、作成対象機器の色再現域を示す測定値を均等色知覚空間に変換することで、作成対象機器の均等色知覚空間における色再現域GamutUCSAを示すデータセットを生成する。 The color gamut calculation unit 105 converts the measurement value included in the data set acquired by the colorimetric value acquisition unit 202 into the color value of the uniform color perception space using the correction parameter (S14). That is, the color gamut calculation unit 105 converts the measurement value indicating the color gamut of the creation target device into a uniform color perception space, thereby representing a data set indicating the color gamut Gamut UCSA in the uniform color perception space of the creation target device. Is generated.

多次元LUT作成部106は、詳細は後述するが、補正マトリクスと作成対象機器の色再現域GamutUCSAを示すデータセットを用いてBtoAタグに格納する多次元ルックアップテーブル(以下、B2ALUT)を生成する(S15)。プロファイル生成部107は、補正マトリクスと、多次元LUT作成部106が生成したB2ALUTをBtoAタグに格納した色変換プロファイルを生成する(S16)。 The multidimensional LUT creation unit 106 generates a multidimensional lookup table (hereinafter referred to as B2ALUT) to be stored in the BtoA tag using a data set indicating the correction matrix and the color gamut Gamut UCSA of the creation target device, which will be described in detail later. (S15). The profile generation unit 107 generates a color conversion profile in which the correction matrix and the B2ALUT generated by the multidimensional LUT generation unit 106 are stored in the BtoA tag (S16).

色変換プロファイルは、記憶部203や記録媒体210などに格納され、作成対象機器である画像出力機器用の色変換プロファイルとして、色マッチングモジュール(CMM)に利用される。   The color conversion profile is stored in the storage unit 203, the recording medium 210, and the like, and is used in the color matching module (CMM) as a color conversion profile for an image output device that is a creation target device.

●均等色知覚空間と補正パラメータ
均等色知覚空間は、CIEL*a*b*空間に代表される従来の標準色空間の色差均等性と色相線形性を改善した色空間である。例えば、図5によりMacAdamが作成した25色それぞれに対する色弁別閾(非特許文献2参照)をCIELAB空間にプロットした様子を示す。なお、説明のために、図5は、MacAdamの色弁別閾(以下、MacAdam楕円)を十倍に拡大し、色度情報のみをa*-b*平面にプロットしたものである。
Uniform color perception space and correction parameters The uniform color perception space is a color space that improves the color difference uniformity and hue linearity of the conventional standard color space represented by the CIEL * a * b * space. For example, FIG. 5 shows how the color discrimination thresholds (see Non-Patent Document 2) for each of the 25 colors created by MacAdam are plotted in the CIELAB space. For the sake of explanation, FIG. 5 is a graph in which the MacAdam color discrimination threshold (hereinafter referred to as MacAdam ellipse) is enlarged ten times and only chromaticity information is plotted on the a * -b * plane.

図6に示す楕円状の各図形は、人間が同じ色と認識する範囲を示し、低彩度の色に対しては比較的図形の面積が小さく、高彩度の色、とくに青色や緑色に対して図形の面積が非常に大きくなる。つまり、人間は、低彩度の色については色空間内の距離が小さくても色を弁別することができ、高彩度の青色や緑色については色空間内の距離が大きくても色を弁別することができない。言い換えれば、CIEL*a*b*空間は人間の知覚に一致していない。また、図形の形状も様々な方向に歪んでいる。これは、人間が同じ色と認識する色空間上のラインが、CIEL*a*b*空間上では曲がって表現されていることを示す。このようなCIEL*a*b*空間の人間の知覚に対する歪みを改善した色空間が均等色知覚空間である。   Each oval figure shown in Fig. 6 shows the range that humans recognize as the same color, and the area of the figure is relatively small for low-saturation colors, and for high-saturation colors, especially blue and green The area of the figure becomes very large. In other words, humans can discriminate colors even when the distance in the color space is small for low-saturation colors, and colors can be distinguished even if the distance in the color space is large for high-saturation blue and green colors. I can't. In other words, the CIEL * a * b * space does not match human perception. The shape of the figure is also distorted in various directions. This indicates that the line on the color space that humans recognize as the same color is expressed in a curved manner on the CIEL * a * b * space. A color space in which distortion of the CIEL * a * b * space with respect to human perception is improved is a uniform color perception space.

図6により均等色知覚空間の作成方法の概要を説明する。まず、図7(a)に示すように、CIEL*a*b*空間のような人間の知覚に対して非均等な色空間(以下、非均等色知覚空間)に格子データを設定する。そして、図7(b)に示すように、格子領域の境界に設定した制御点を移動する。その際、MacAdamの色弁別閾に代表される楕円データが色空間全域で同じ大きさの真円になるように、制御点の移動方法や移動量、さらには制御点の移動に伴う内部の移動比率を最適化する(特許文献2参照)。   An outline of a method for creating a uniform color perception space will be described with reference to FIG. First, as shown in FIG. 7A, lattice data is set in a color space that is non-uniform to human perception (hereinafter, non-uniform color perception space) such as a CIEL * a * b * space. Then, as shown in FIG. 7 (b), the control point set at the boundary of the lattice area is moved. At that time, control point movement method and amount, and internal movement accompanying the movement of the control point so that the elliptic data represented by the MacAdam color discrimination threshold becomes a perfect circle of the same size in the entire color space. The ratio is optimized (see Patent Document 2).

このようにして、図6(c)に示す均等色知覚空間を作成することで、色空間全域に亘って、色差均等性と色相線形性の高い知空間を作成することができる。なお、上述した格子データの各格子点の移動前の座標(L, a, b)と、移動後の座標(Lu, au, bu)の対応をLUT(以下、Lab→UCAS変換LUT)に格納する。そして、Lab→UCAS変換LUTを用いた補間演算を行うことにより、容易にCIEL*a*b*値を均等色知覚空間の色値(以下、UCAS値)に変換することができる。 In this way, by creating the uniform color perception space shown in FIG. 6 (c), it is possible to create an intelligent space with high color difference uniformity and hue linearity over the entire color space. Note that the correspondence between the coordinates (L, a, b) before the movement of each grid point of the grid data described above and the coordinates (L u , a u , b u ) after the movement is represented by an LUT (hereinafter referred to as Lab → UCAS conversion LUT). ). Then, by performing an interpolation operation using the Lab → UCAS conversion LUT, the CIEL * a * b * value can be easily converted into a color value in the uniform color perception space (hereinafter referred to as UCAS value).

つまり、補正パラメータ取得部203は補正パラメータとしてLab→UCAS変換LUTを取得する(S13)。また、色再現域算出部105は、Lab→UCAS変換LUTを用いて、測色値取得部202が取得した測定値を均等色知覚空間の表色値に変換する(S14)。   That is, the correction parameter acquisition unit 203 acquires Lab → UCAS conversion LUT as a correction parameter (S13). Further, the color gamut calculation unit 105 converts the measurement value acquired by the colorimetric value acquisition unit 202 into the color value of the uniform color perception space using the Lab → UCAS conversion LUT (S14).

なお、以下では、CIEL*a*b*色空間のL*、a*、b*の各軸に対応する均等色知覚空間の各軸をLu、au、buで表す。また、PCSがCIEL*a*b*空間ではない場合、補正パラメータ取得部203は、当該PCSに対応した補正パラメータ、つまりPCS→UCAS変換LUTを取得する。 In the following, each axis of the uniform color perception space corresponding to each of the L *, a *, and b * axes of the CIEL * a * b * color space is represented by L u , a u , and b u . When the PCS is not a CIEL * a * b * space, the correction parameter acquisition unit 203 acquires a correction parameter corresponding to the PCS, that is, a PCS → UCAS conversion LUT.

●補正マトリクス生成部
以下では、PCSおよび均等色知覚空間の格子に下記の名称を用いる。
UGPCS1:PCSの均等格子、
UGUCAS:均等色知覚空間の均等格子、
NGPCS2:PCS→UCAS変換LUTを用いてUGUCASをPCSに逆変換した非均等格子。
● Correction matrix generator In the following, the following names are used for the grid of PCS and uniform color perception space.
UG PCS1 : PCS uniform grid,
UG UCAS : Uniform grid of uniform color perception space,
NG PCS2 : A non-uniform grid obtained by inversely converting UG UCAS to PCS using a PCS → UCAS conversion LUT.

補正マトリクスの生成処理(S13)は、UGPCS1が知覚的に均等な間隔になるよう、UGPCS1の配置を歪めるためのマトリクスを生成する。補正マトリクスは、UGPCS1とNGPCS2の対応関係から算出することができる。 The correction matrix generation process (S13) generates a matrix for distorting the arrangement of the UG PCS1 so that the UG PCS1 has a perceptually uniform interval. Correction matrix can be calculated from the correspondence between the UG PCS1 and NG PCS2.

図7のフローチャートにより補正マトリクスの生成処理(S13)を説明する。補正マトリクス生成部104は、均等色知覚空間の各軸の数値範囲を均等分割してUGUCASを生成する(S71)。数値範囲は、補正パラメータ(Lab→UCAS変換LUT)の格子領域の境界であり、例えば、次のように定義される。
0 ≦ Lu ≦ 100、
-100 ≦ au ≦ 100、
-100 ≦ bu ≦ 100。
The correction matrix generation process (S13) will be described with reference to the flowchart of FIG. The correction matrix generation unit 104 generates a UGUCAS by equally dividing the numerical range of each axis of the uniform color perception space (S71). The numerical range is the boundary of the lattice area of the correction parameter (Lab → UCAS conversion LUT), and is defined as follows, for example.
0 ≤ L u ≤ 100,
-100 ≤ a u ≤ 100,
-100 ≤ b u ≤ 100.

また、本実施例では、各軸の数値範囲の分割数を16として、173=4913格子点の均等格子を生成することにする。 In this embodiment, the number of divisions in the numerical range of each axis is set to 16, and a uniform grid of 17 3 = 4913 grid points is generated.

次に、補正マトリクス生成部104は、Lab→UCAS変換LUTを用いて、UGUCASの各格子点のLuaubu値をCIEL*a*b*値に変換し、NGPCS2を算出する(S72)。そして、UGPCS1とNGPCS2の対応関係から補正マトリクスを生成する(S73)。 Next, the correction matrix generation unit 104 converts the L u a u b u value of each grid point of UG UCAS into a CIEL * a * b * value using the Lab → UCAS conversion LUT, and calculates NG PCS2 (S72). Then, to generate a correction matrix from the corresponding relationship between the UG PCS1 and NG PCS2 (S73).

補正マトリクスは、例えば3×3の変換マトリクスなどである。補正マトリクスによって入力データ(UGPCS1)を変換した結果と、NGPCS2の間の色差を小さくするように、減衰最小二乗法(DLS)などの最適化手法を用いてマトリクス係数が最適化される。 The correction matrix is, for example, a 3 × 3 conversion matrix. The matrix coefficient is optimized using an optimization method such as the attenuation least squares (DLS) so as to reduce the color difference between the result of converting the input data (UG PCS1 ) by the correction matrix and the NG PCS2 .

DLS (dumped least square)法は、入力データの列を処理パラメータ(マトリクスなど)で処理した後のデータ列と、ターゲットデータ列の差が目標値列に近付くように、処理パラメータを決定する手法である。つまり、下式の評価値Eを最小にするマトリクス係数が算出される。
E = ΣEi = Σ√{(Lui-L*i)2 + (aui-a*i)2 + (bui-b*i)2} …(1)
ここで、Eiは格子点iの評価値、
(L*i, a*i, b*i)は入力データ(UGPCS1の格子点iの値)、
(Lui, aui, bui)は目標値(NGPCS2の格子点iの値)、
Σ演算の範囲はi=1からN(本実施例においてN=4913)。
The DLS (dumped least square) method is a method that determines the processing parameters so that the difference between the target data string and the data string after processing the input data string with the processing parameter (matrix, etc.) approaches the target value string. is there. That is, the matrix coefficient that minimizes the evaluation value E of the following equation is calculated.
E = ΣEi = Σ√ {(L u iL * i) 2 + (a u ia * i) 2 + (b u ib * i) 2 }… (1)
Where Ei is the evaluation value of grid point i,
(L * i, a * i, b * i) is the input data (value of grid point i of UG PCS1 ),
(L u i, a u i, b u i) is the target value (value of grid point i in NG PCS2 ),
The range of Σ operation is i = 1 to N (N = 4913 in this embodiment).

●多次元LUT作成部
多次元LUTの生成処理(S15)は、PCSの均等格子UGPCS1に補正マトリクスを適用して、変換後の各格子点に対応するデバイス依存の信号値(出力データ)を求め、B2ALUTを生成する処理である。変換後の各格子点に対応するデバイス依存の信号値は、均等知覚色空間上で探索される。
● Multi-dimensional LUT creation part The multi-dimensional LUT generation process (S15) applies a correction matrix to the PCS uniform grid UG PCS1 to generate device-dependent signal values (output data) corresponding to each grid point after conversion. This is a process for obtaining B2ALUT. The device-dependent signal value corresponding to each lattice point after conversion is searched in the uniform perceptual color space.

図8のフローチャートによりB2ALUTの生成処理(S15)を説明する。多次元LUT作成部106は、下式に示すようにPCSの均等格子UGPCS1に補正マトリクスを適用して、PCSの格子点の配置を均等色知覚空間の均等格子UGUCASに対応させる(S81)。言い替えれば、PCSの格子点が知覚的均等に再配置される。以下では、再配置後の格子点を「均等色知覚格子点」と呼ぶ。
┌ ┐ ┌ ┐
│L*t│ │L*│
│a*t│= M│a*│ …(2)
│b*t│ │b*│
└ ┘ └ ┘
┌ ┐
│m1 m2 m3│
M =│m4 m5 m6│
│m7 m8 m9│
└ ┘
ここで、Mは補正マトリクス、
(L*, a*, b*)はUGPCS1の格子点の座標(色値)、
(L*t, a*t, b*t)は知覚均等格子点の座標(色値)。
The B2ALUT generation process (S15) will be described with reference to the flowchart of FIG. The multi-dimensional LUT creation unit 106 applies the correction matrix to the PCS uniform grid UG PCS1 as shown in the following formula, and associates the PCS grid point arrangement with the uniform grid UG UCAS in the uniform color perception space (S81). . In other words, the PCS grid points are rearranged perceptually equally. Hereinafter, the grid points after rearrangement are referred to as “uniform color perception grid points”.
┌ ┐ ┌ ┐
│L * t│ │L * │
│a * t│ = M│a * │… (2)
│b * t│ │b * │
└ ┘ └ ┘
┌ ┐
│m1 m2 m3│
M = │m4 m5 m6│
│m7 m8 m9│
└ ┘
Where M is the correction matrix,
(L *, a *, b *) is the coordinate (color value) of the grid point of UG PCS1 ,
(L * t, a * t, b * t) are the coordinates (color values) of the perceptual uniform grid points.

次に、多次元LUT作成部106は、補正パラメータ(Lab→UCAS変換LUT)を用いる補間演算によって、各均等色知覚格子点の座標(L*t, a*t, b*t)に対応する均等色知覚空間の表色値を算出する(S82)。そして、ステップS14において色再現域算出部105が生成した作成対象機器の色再現域GamutUCSAを示すデータセットと均等色知覚格子点の表色値を用いて、均等色知覚格子点に対応するデバイス依存の信号値を算出する(S83)。 Next, the multidimensional LUT creation unit 106 corresponds to the coordinates (L * t, a * t, b * t) of each uniform color perception grid point by an interpolation operation using a correction parameter (Lab → UCAS conversion LUT). A color value of the uniform color perception space is calculated (S82). Then, using the data set indicating the color gamut Gamut UCSA of the creation target device generated by the color gamut calculation unit 105 in step S14 and the color values of the uniform color perception grid points, a device corresponding to the uniform color perception grid points A dependent signal value is calculated (S83).

つまり、均等色知覚格子点の表色値を囲む、データセットに含まれる表色値を探索する。そして、探索の結果得られた表色値に対応するデバイス依存の信号値(データセットに含まれる)の補間演算により、均等色知覚格子点に対応するデバイス依存の信号値が算出される。その際、均等色知覚格子点の表色値が作成対象機器の色再現域GamutUCSAの外に存在する場合は色域マッピングを行う(S84)。 That is, the color values included in the data set surrounding the color values of the uniform color perception grid points are searched. Then, a device-dependent signal value corresponding to the uniform color perception grid point is calculated by interpolation of a device-dependent signal value (included in the data set) corresponding to the colorimetric value obtained as a result of the search. At this time, if the color value of the uniform color perception grid point exists outside the color reproduction area Gamut UCSA of the creation target device, color gamut mapping is performed (S84).

色域マッピングにおいて、例えば、色再現域GamutUCSAの外に存在する表色値(以下、色域外表色値)を有する均等色知覚格子点(以下、色域外格子点)について、色域外表色値に対応する色再現域GamutUCSAの境界が判定される。そして、色域外表色値に対応する境界の近傍のデバイス依存の信号値の補間演算により、色域外格子点に対応するデバイス依存の信号値が算出される。 In color gamut mapping, for example, an out-of-gamut color specification for a uniform color perception grid point (hereinafter referred to as an out-of-gamut grid point) having a color value (hereinafter referred to as an out-of-gamut color value) existing outside the color reproduction range Gamut UCSA The boundary of the color gamut Gamut UCSA corresponding to the value is determined. Then, the device-dependent signal value corresponding to the out-of-gamut grid point is calculated by the interpolation calculation of the device-dependent signal value in the vicinity of the boundary corresponding to the out-of-gamut color value.

色域外表色値に対応する境界には、最短距離点(色差最小点)、等明度点(彩度圧縮点)、色域外表色値と所定の収束点(例えば無彩色軸のLu=50の点)を結ぶ線分と境界の交点などが使用される。このような色域マッピングによれば、色域外格子点は色再現域GamutUCSAの境界にマッピングされる。 The boundary corresponding to out-of-gamut color values includes the shortest distance point (minimum color difference point), iso-lightness point (saturation compression point), out-of-gamut color values and a predetermined convergence point (for example, Lu = The intersection of the line segment connecting the 50 points) and the boundary is used. According to such color gamut mapping, out-of-gamut grid points are mapped to the boundaries of the color reproduction gamut Gamut UCSA .

このように、色変換プロファイルを作成する際に、均等色知覚空間の均等格子に対応するB2ALUTを作成することで、知覚的な補間誤差を均等化することができる。さらに、色域マッピングを均等色知覚空間上で行うため、視覚的に忠実な色再現を得ることができる。   Thus, when creating a color conversion profile, perceptual interpolation errors can be equalized by creating a B2ALUT corresponding to a uniform grid in a uniform color perception space. Furthermore, since color gamut mapping is performed in a uniform color perception space, visually faithful color reproduction can be obtained.

以下、本発明にかかる実施例2の色処理装置および色処理方法を説明する。なお、実施例2において、実施例1と略同様の構成については、同一の符号を付して、その詳細な説明を省略する場合がある。   A color processing apparatus and color processing method according to a second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof may be omitted.

実施例1では、格子点を知覚的に均等に色空間全体に配置する補正マトリクスを作成する例を説明した。実施例2では、補間精度を重視する領域(以下、精度重視領域)のユーザ指示に従い、補正マトリクスを作成する例を説明する。   In the first embodiment, an example in which a correction matrix in which lattice points are arranged perceptually and uniformly in the entire color space has been described. In the second embodiment, an example will be described in which a correction matrix is created in accordance with a user instruction in an area where interpolation accuracy is important (hereinafter, an area where accuracy is important).

図9のブロック図により実施例2の色処理装置100の処理構成例を示す。図9に示す実施例2の処理構成おいて、図3に示す実施例1の処理構成と異なるのは、UI部111と条件設定部112が備わることである。UI部111は、ユーザ指示を入力するためのユーザインタフェイス(UI)をVC205を介してモニタ211に表示し、操作部207を介してユーザ指示を入力する。   An example of the processing configuration of the color processing apparatus 100 of the second embodiment is shown in the block diagram of FIG. The processing configuration of the second embodiment illustrated in FIG. 9 is different from the processing configuration of the first embodiment illustrated in FIG. 3 in that a UI unit 111 and a condition setting unit 112 are provided. The UI unit 111 displays a user interface (UI) for inputting user instructions on the monitor 211 via the VC 205, and inputs user instructions via the operation unit 207.

図10により均等格子UGUCASの生成条件を入力するためのUIの一例を示す。ユーザは、ラジオボタンにより精度重視領域を示す色域情報をデータファイルから入力するか、色度値の範囲として入力するかを選択することができる。色域設定ラジオボタンを選択した場合、ユーザは、入力部1001によってデータファイル名を入力するか、データファイルを選択する。また、範囲設定ラジオボタンを選択した場合、ユーザは、入力部1002によって精度重視領域を示す色度値の範囲を入力する。また、ユーザは、入力部1003によって均等色知覚空間の分割数を指定することができる。 FIG. 10 shows an example of a UI for inputting the uniform lattice UG UCAS generation conditions. The user can select whether to input color gamut information indicating a precision-critical area from a data file or a range of chromaticity values by using a radio button. When the color gamut setting radio button is selected, the user inputs a data file name by the input unit 1001 or selects a data file. In addition, when the range setting radio button is selected, the user inputs a range of chromaticity values indicating an accuracy-oriented area using the input unit 1002. Further, the user can specify the number of divisions of the uniform color perception space by the input unit 1003.

ユーザがOKボタンを押す(またはタッチする)と、条件設定部112は、UIに設定された生成条件(精度重視領域を示す情報および分割数)を入力する。条件設定部112は、PCS→UCAS変換LUTを用いて、精度重視領域を均等色知覚空間に変換する。そして、変換後の精度重視領域を包含し、au軸に対して正負対称、かつ、bu軸に対して正負対称の領域を均等色知覚空間の均等格子UGUCASの設定範囲とする。 When the user presses (or touches) the OK button, the condition setting unit 112 inputs the generation conditions (information indicating the accuracy-critical area and the number of divisions) set in the UI. The condition setting unit 112 converts the accuracy-critical area into a uniform color perception space using the PCS → UCAS conversion LUT. Then, the accuracy-important area after conversion is included, and an area that is positive / negative symmetric with respect to the a u axis and that is positive / negative symmetric with respect to the b u axis is set as a setting range of the uniform grid UGUCAS in the uniform color perception space.

補正マトリクス生成部104は、設定条件(均等格子UGUCASの設定範囲および指定された分割数)を入力し、設定条件に基づき均等格子UGUCASを生成し(S71)、補正マトリクスを生成する(S73)。このように、B2ALUTの生成処理(S15)に用いる領域を精度重視領域に限定することで、格子点の間隔を狭めることができ、補間精度の向上を図ることができる。 The correction matrix generation unit 104 receives the setting conditions (the setting range of the uniform grid UG UCAS and the specified number of divisions), generates a uniform grid UG UCAS based on the setting conditions (S71), and generates a correction matrix (S73). ). In this way, by limiting the region used for the B2ALUT generation process (S15) to the accuracy-oriented region, the interval between the lattice points can be narrowed, and the interpolation accuracy can be improved.

[変形例]
上記の実施例においては、PCSの格子点を知覚的均等に再配置するための補正マトリクスを用いる例を説明したが、補正マトリクスと一次元LUTの組み合わせなど、他の補正パラメータ形式でもよい。
[Modification]
In the above-described embodiments, an example of using a correction matrix for rearranging PCS lattice points in a perceptual manner has been described, but other correction parameter formats such as a combination of a correction matrix and a one-dimensional LUT may be used.

また、上記の実施例においては、画像出力機器としてCMYK入力のプリンタを例に説明したが、例えば、RGB入力のプリンタ、プロジェクタ、ディスプレイなど他の画像出力機器の色変換プロファイルの作成処理も同様に可能である。   In the above embodiment, a CMYK input printer has been described as an example of the image output device. However, for example, the color conversion profile creation processing of other image output devices such as an RGB input printer, projector, and display is similarly performed. Is possible.

また、上記の実施例においては、CIEL*a*b*空間やCIEXYZ空間を基準色空間に利用する例を説明したが、CIEL*u*v*空間やCIECAM02におけるJCh空間などを基準色空間に利用してもよい。   In the above embodiment, an example in which the CIEL * a * b * space or the CIEXYZ space is used as the reference color space has been described. However, the CIEL * u * v * space or the JCh space in CIECAM02 is used as the reference color space. May be used.

[その他の実施例]
本発明は、上述の実施形態の一以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、一以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program It can also be realized by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

102 … 測定値取得部、104 … 補正マトリクス生成部、105 … 色再現域算出部、106 … 多次元LUT作成部   102 ... Measurement value acquisition unit, 104 ... Correction matrix generation unit, 105 ... Color gamut calculation unit, 106 ... Multidimensional LUT creation unit

Claims (13)

画像出力機器が出力する色の測定値を含むデータセットを取得する取得手段と、
基準色空間の色値を均等色知覚空間の色値に変換する第一の補正パラメータを用いて、前記基準色空間を均等分割する第一の格子を知覚均等に再配置するための第二の補正パラメータを生成する生成手段と、
前記第一の補正パラメータを用いて前記データセットが含む測定値を変換し、前記画像出力機器の前記均等色知覚空間における色再現域を示す色値を算出する算出手段と、
前記第二の補正パラメータと前記色再現域に基づき、前記基準色空間の色値を前記画像出力機器に依存する信号値に変換するためのテーブルを作成する作成手段とを有する色処理装置。
Acquisition means for acquiring a data set including measurement values of colors output by the image output device;
A first correction parameter for converting a color value of the reference color space into a color value of the uniform color perception space, and Generating means for generating correction parameters;
A calculation means for converting a measurement value included in the data set using the first correction parameter and calculating a color value indicating a color gamut in the uniform color perception space of the image output device;
A color processing apparatus comprising: a creating unit that creates a table for converting a color value of the reference color space into a signal value depending on the image output device based on the second correction parameter and the color reproduction range.
前記生成手段は、前記第一の補正パラメータを用いて、前記均等色知覚空間を均等分割する第二の格子を前記基準色空間に逆変換した非均等格子を算出し、前記非均等格子と前記第一の格子の対応関係から前記第二の補正パラメータを生成する請求項1に記載された色処理装置。   The generating means calculates a non-uniform grid obtained by inversely transforming the second grid for equally dividing the uniform color perception space into the reference color space using the first correction parameter, and the non-uniform grid and the non-uniform grid 2. The color processing apparatus according to claim 1, wherein the second correction parameter is generated from a correspondence relationship of the first lattice. 前記作成手段は、前記第二の補正パラメータを用いて前記第一の格子を再配置した均等色知覚格子の格子点の色値を囲む前記色再現域を示す色値を探索し、前記探索の結果得られた色値に基づき、前記均等色知覚格子の格子点に対応する、前記画像出力機器に依存する信号値を算出することで前記テーブルを作成する請求項1または請求項2に記載された色処理装置。   The creation means searches for a color value indicating the color gamut surrounding the color value of a grid point of a uniform color perception grid in which the first grid is rearranged using the second correction parameter, and 3. The table according to claim 1 or 2, wherein the table is created by calculating a signal value depending on the image output device corresponding to a grid point of the uniform color perception grid based on a color value obtained as a result. Color processing device. 前記作成手段は、前記探索の結果得られた色値に対応する前記データセットに含まれる信号値を補間演算して、前記均等色知覚格子の格子点に対応する、前記画像出力機器に依存する信号値を算出する請求項3に記載された色処理装置。   The creating means interpolates a signal value included in the data set corresponding to a color value obtained as a result of the search, and depends on the image output device corresponding to a grid point of the uniform color perception grid. 4. The color processing device according to claim 3, wherein the signal value is calculated. 前記作成手段は、前記色再現域に含まれない前記均等色知覚格子の格子点の色値を前記色再現域の境界に色域マッピングする請求項3または請求項4に記載された色処理装置。   5. The color processing apparatus according to claim 3, wherein the creating unit performs color gamut mapping of color values of lattice points of the uniform color perception grid not included in the color reproduction gamut to boundaries of the color reproduction gamut. . 前記生成手段は、前記第二の補正パラメータとして補正マトリクスを生成する請求項1から請求項5の何れか一項に記載された色処理装置。   6. The color processing apparatus according to claim 1, wherein the generation unit generates a correction matrix as the second correction parameter. さらに、前記第二の補正パラメータと前記テーブルを格納した、前記画像出力機器用の色変換プロファイルを生成する手段を有する請求項1から請求項6の何れか一項に記載された色処理装置。   7. The color processing apparatus according to claim 1, further comprising means for generating a color conversion profile for the image output device that stores the second correction parameter and the table. さらに、前記第二の格子の生成条件を示す情報を入力する入力手段を有する請求項1から請求項7の何れか一項に記載された色処理装置。   8. The color processing apparatus according to claim 1, further comprising an input unit that inputs information indicating a generation condition of the second lattice. さらに、前記第一の補正パラメータを用いて、前記生成条件に含まれる第二の格子の設定範囲を前記均等色知覚空間に変換した設定範囲を前記第二の格子の設定条件とする設定手段を有する請求項8に記載された色処理装置。   Further, setting means for setting a setting range obtained by converting the setting range of the second grid included in the generation condition into the uniform color perception space using the first correction parameter as the setting condition of the second grid. 9. The color processing apparatus according to claim 8, comprising: 前記生成手段は、前記生成条件および前記設定条件に従い、前記第二の格子を前記均等色知覚空間に設定する請求項9に記載された色処理装置。   10. The color processing apparatus according to claim 9, wherein the generation unit sets the second grid in the uniform color perception space according to the generation condition and the setting condition. 画像出力機器が出力する色の測定値を含むデータセットを取得し、
基準色空間の色値を均等色知覚空間の色値に変換する第一の補正パラメータを用いて、前記基準色空間を均等分割する第一の格子を知覚均等に再配置するための第二の補正パラメータを生成し、
前記第一の補正パラメータを用いて前記データセットが含む測定値を変換し、前記画像出力機器の前記均等色知覚空間における色再現域を示す色値を算出し、
前記第二の補正パラメータと前記色再現域に基づき、前記基準色空間の色値を前記画像出力機器に依存する信号値に変換するためのテーブルを作成する色処理方法。
Acquire a data set containing the measured values of the color output by the image output device,
A first correction parameter for converting a color value of the reference color space into a color value of the uniform color perception space, and Generate correction parameters,
Converting the measurement value included in the data set using the first correction parameter, calculating a color value indicating a color gamut in the uniform color perception space of the image output device;
A color processing method for creating a table for converting a color value of the reference color space into a signal value depending on the image output device based on the second correction parameter and the color gamut.
コンピュータを請求項1から請求項10の何れか一項に記載された色処理装置の各手段として機能させるためのプログラム。   11. A program for causing a computer to function as each unit of the color processing apparatus according to claim 1. 請求項12に記載されたプログラムが記録されたコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 12 is recorded.
JP2014179516A 2014-09-03 2014-09-03 Color processing device and method of the same Pending JP2016054405A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014179516A JP2016054405A (en) 2014-09-03 2014-09-03 Color processing device and method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014179516A JP2016054405A (en) 2014-09-03 2014-09-03 Color processing device and method of the same

Publications (1)

Publication Number Publication Date
JP2016054405A true JP2016054405A (en) 2016-04-14

Family

ID=55745412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014179516A Pending JP2016054405A (en) 2014-09-03 2014-09-03 Color processing device and method of the same

Country Status (1)

Country Link
JP (1) JP2016054405A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110830778A (en) * 2018-08-14 2020-02-21 杭州海康威视数字技术股份有限公司 Imaging device color correction method, imaging device color correction device, electronic device and storage medium
US10868957B2 (en) 2018-10-18 2020-12-15 Samsung Electronics Co., Ltd. Apparatus and method for processing image to reconstruct image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110830778A (en) * 2018-08-14 2020-02-21 杭州海康威视数字技术股份有限公司 Imaging device color correction method, imaging device color correction device, electronic device and storage medium
US10868957B2 (en) 2018-10-18 2020-12-15 Samsung Electronics Co., Ltd. Apparatus and method for processing image to reconstruct image

Similar Documents

Publication Publication Date Title
US9025205B2 (en) Color processing apparatus and color processing method
US9020249B2 (en) Color processing apparatus and color processing method
JP5630115B2 (en) Color processing apparatus and program
US7990575B2 (en) Color processing apparatus and method for performing gamut mapping
US20080112025A1 (en) Color processing device and method, and storage medium storing color processing program
KR100834766B1 (en) Color management device and method
JP2019176461A (en) Image display system, method, and program
JP4910557B2 (en) Color conversion apparatus, color conversion method, color conversion program, color conversion coefficient creation apparatus, color conversion coefficient creation method, and color conversion coefficient creation program
JP2016054405A (en) Color processing device and method of the same
JP6521250B2 (en) Image forming apparatus, color conversion program and color conversion method
JP2008177783A (en) Color conversion device and program
JP2009147492A (en) Image processor and program
JP2011205467A (en) Color processing apparatus, and program
JP5206428B2 (en) Color processing apparatus and program
US20130257890A1 (en) Color adjustment device, color adjustment system, color adjustment method, and non-transitory computer-readable medium
JP2011024031A (en) Color processing apparatus and program
WO2013139238A1 (en) Method for managing color data of color image
JP2011254224A (en) Color conversion table creation program, medium storing color conversion table creation program, and color conversion table creation method
JP2018182483A (en) Color processing apparatus and color processing method
JP2018121308A (en) Information processing apparatus, image forming apparatus, and information processing program
JP6405248B2 (en) Image processing apparatus, image processing method, and program
JP2009284261A (en) Color processing device, method and program
JP2013207412A (en) Color adjustment device, color adjustment system, and program
JP2004179847A (en) Color adjustment method and apparatus
JP2009010573A (en) Image forming apparatus, image processing method, and image processing program