[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2006024176A - Visual processing device, visual processing method, visual processing program, integrated circuit, display device, imaging device, and mobile information terminal - Google Patents

Visual processing device, visual processing method, visual processing program, integrated circuit, display device, imaging device, and mobile information terminal Download PDF

Info

Publication number
JP2006024176A
JP2006024176A JP2004264003A JP2004264003A JP2006024176A JP 2006024176 A JP2006024176 A JP 2006024176A JP 2004264003 A JP2004264003 A JP 2004264003A JP 2004264003 A JP2004264003 A JP 2004264003A JP 2006024176 A JP2006024176 A JP 2006024176A
Authority
JP
Japan
Prior art keywords
signal
visual processing
value
processing device
profile data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004264003A
Other languages
Japanese (ja)
Other versions
JP2006024176A5 (en
JP4126297B2 (en
Inventor
Haruo Yamashita
春生 山下
Akio Kojima
章夫 小嶋
Toshiharu Kurosawa
俊晴 黒沢
康浩 ▲くわ▼原
Yasuhiro Kuwabara
Tatsumi Watanabe
辰巳 渡辺
Yuusuke Monobe
祐亮 物部
Takeshi Ito
武志 井東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004264003A priority Critical patent/JP4126297B2/en
Publication of JP2006024176A publication Critical patent/JP2006024176A/en
Publication of JP2006024176A5 publication Critical patent/JP2006024176A5/ja
Application granted granted Critical
Publication of JP4126297B2 publication Critical patent/JP4126297B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Television Receiver Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a visual processing device having a hardware configuration without depending on the visual processing realized. <P>SOLUTION: This visual processing device 1 includes a spatial processing section 2 and a visual processing section 3. The spatial processing section 2 performs a predetermined processing for an input signal IS inputted and outputs an unsharp signal US. The visual processing section 3 outputs an output signal OS based on a 2-dimensional LUT 4 giving the relationship of the input signal IS inputted and the unsharp signal US with the output signal OS which is the input signal IS subjected to the visual processing. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、視覚処理装置、特に、画像信号の空間処理または階調処理などの視覚処理を行う視覚処理装置に関する。また別の本発明は、視覚処理方法、視覚処理プログラム、集積回路、表示装置、撮影装置および携帯情報端末に関する。   The present invention relates to a visual processing device, and more particularly to a visual processing device that performs visual processing such as spatial processing or gradation processing of an image signal. Another aspect of the present invention relates to a visual processing method, a visual processing program, an integrated circuit, a display device, a photographing device, and a portable information terminal.

原画像の画像信号の視覚処理として、空間処理と階調処理とが知られている。
空間処理とは、フィルタ適用の対象となる着目画素の周辺の画素を用い、着目画素の処理を行うことである。また、空間処理された画像信号を用いて、原画像のコントラスト強調、ダイナミックレンジ(DR)圧縮など行う技術が知られている。コントラスト強調では、原画像とボケ信号との差分(画像の鮮鋭成分)を原画像に加え、画像の鮮鋭化が行われる。DR圧縮では、原画像からボケ信号の一部が減算され、ダイナミックレンジの圧縮が行われる。
As visual processing of an image signal of an original image, spatial processing and gradation processing are known.
Spatial processing is to perform processing of a pixel of interest using pixels around the pixel of interest that is the subject of filter application. Further, a technique for performing contrast enhancement of an original image, dynamic range (DR) compression, or the like using a spatially processed image signal is known. In contrast enhancement, the difference between the original image and the blur signal (sharp component of the image) is added to the original image to sharpen the image. In DR compression, a part of the blur signal is subtracted from the original image, and dynamic range compression is performed.

階調処理とは、着目画素の周辺の画素とは無関係に、着目画素毎にルックアップテーブル(LUT)を用いて画素値の変換を行う処理であり、ガンマ補正と呼ばれることもある。例えば、コントラスト強調する場合、原画像での出現頻度の高い(面積の大きい)階調レベルの階調を立てるLUTを用いて画素値の変換が行われる。LUTを用いた階調処理として、原画像全体に1つのLUTを決定して用いる階調処理(ヒストグラム均等化法)と、原画像を複数に分割した画像領域のそれぞれについてLUTを決定して用いる階調処理(局所的ヒストグラム均等化法)とが知られている(例えば、特許文献1参照。)。   The gradation process is a process of converting a pixel value using a look-up table (LUT) for each target pixel regardless of pixels around the target pixel, and is sometimes called gamma correction. For example, when contrast enhancement is performed, pixel values are converted using an LUT that sets gradations of gradation levels with a high appearance frequency (large area) in the original image. As gradation processing using the LUT, gradation processing (histogram equalization method) that determines and uses one LUT for the entire original image, and determines and uses the LUT for each of the image areas obtained by dividing the original image into a plurality of parts. Gradation processing (local histogram equalization method) is known (for example, refer to Patent Document 1).

図104〜図107を用いて、原画像を複数に分割した画像領域のそれぞれについてLUTを決定して用いる階調処理について説明する。
図104に、原画像を複数に分割した画像領域のそれぞれについてLUTを決定して用いる視覚処理装置300を示す。視覚処理装置300は、入力信号ISとして入力される原画像を複数の画像領域Sm(1≦m≦n:nは原画像の分割数)に分割する画像分割部301と、それぞれの画像領域Smに対して階調変換曲線Cmを導出する階調変換曲線導出部310と、階調変換曲線Cmをロードしそれぞれの画像領域Smに対して階調処理した出力信号OSを出力する階調処理部304とを備えている。階調変換曲線導出部310は、それぞれの画像領域Sm内の明度ヒストグラムHmを作成するヒストグラム作成部302と、作成された明度ヒストグラムHmからそれぞれの画像領域Smに対する階調変換曲線Cmを作成する階調曲線作成部303とから構成される。
A gradation process for determining and using an LUT for each of image areas obtained by dividing an original image into a plurality of parts will be described with reference to FIGS.
FIG. 104 shows a visual processing device 300 that determines and uses an LUT for each of image areas obtained by dividing an original image into a plurality of parts. The visual processing device 300 divides an original image input as the input signal IS into a plurality of image regions Sm (1 ≦ m ≦ n: n is the number of divisions of the original image), and each image region Sm. A gradation conversion curve deriving unit 310 for deriving a gradation conversion curve Cm, and a gradation processing unit for loading the gradation conversion curve Cm and outputting an output signal OS obtained by performing gradation processing on each image region Sm 304. The gradation conversion curve deriving unit 310 creates a lightness histogram Hm in each image area Sm, and a floor for creating a gradation conversion curve Cm for each image area Sm from the created lightness histogram Hm. And an adjustment curve creation unit 303.

図105〜図107を用いて、各部の動作について説明を加える。画像分割部301は、入力信号ISとして入力される原画像を複数(n個)の画像領域に分割する(図105(a)参照。)。ヒストグラム作成部302は、それぞれの画像領域Smの明度ヒストグラムHmを作成する(図106参照。)。それぞれの明度ヒストグラムHmは、画像領域Sm内の全画素の明度値の分布状態を示している。すなわち、図106(a)〜(d)に示す明度ヒストグラムHmにおいて、横軸は入力信号ISの明度レベルを、縦軸は画素数を示している。階調曲線作成部303は、明度ヒストグラムHmの「画素数」を明度の順に累積し、この累積曲線を階調変換曲線Cmとする(図107参照。)。図107に示す階調変換曲線Cmにおいて、横軸は入力信号ISにおける画像領域Smの画素の明度値を、縦軸は出力信号OSにおける画像領域Smの画素の明度値を示している。階調処理部304は、階調変換曲線Cmをロードし階調変換曲線Cmに基づいて、入力信号ISにおける画像領域Smの画素の明度値を変換する。こうすることにより、各ブロックにおいて出
現頻度の高い階調の傾きを立てることとなり、ブロックごとのコントラスト感が向上するものである。
The operation of each unit will be described with reference to FIGS. The image dividing unit 301 divides the original image input as the input signal IS into a plurality (n) of image areas (see FIG. 105A). The histogram creation unit 302 creates a brightness histogram Hm for each image region Sm (see FIG. 106). Each brightness histogram Hm shows the distribution state of brightness values of all pixels in the image area Sm. That is, in the lightness histograms Hm shown in FIGS. 106A to 106D, the horizontal axis represents the lightness level of the input signal IS, and the vertical axis represents the number of pixels. The gradation curve creation unit 303 accumulates the “number of pixels” of the brightness histogram Hm in the order of brightness, and sets this accumulated curve as the gradation conversion curve Cm (see FIG. 107). In the gradation conversion curve Cm shown in FIG. 107, the horizontal axis indicates the brightness value of the pixel in the image area Sm in the input signal IS, and the vertical axis indicates the brightness value of the pixel in the image area Sm in the output signal OS. The gradation processing unit 304 loads the gradation conversion curve Cm, and converts the brightness value of the pixel in the image area Sm in the input signal IS based on the gradation conversion curve Cm. By doing so, the gradient of the frequently occurring gradation is set in each block, and the sense of contrast for each block is improved.

一方、空間処理と階調処理とを組み合わせた視覚処理についても知られている。図108〜図109を用いて、空間処理と階調処理とを組み合わせた従来の視覚処理について説明する。
図108にアンシャープマスキングを利用したエッジ強調、コントラスト強調を行う視覚処理装置400を示す。図108に示す視覚処理装置400は、入力信号ISに対して空間処理を行いアンシャープ信号USを出力する空間処理部401と、入力信号ISからアンシャープ信号USを減算し差分信号DSを出力する減算部402と、差分信号DSの強調処理を行い強調処理信号TSを出力する強調処理部403と、入力信号ISと強調処理信号TSとを加算し出力信号OSを出力する加算部404とを備えている。
On the other hand, visual processing combining spatial processing and gradation processing is also known. Conventional visual processing combining spatial processing and gradation processing will be described with reference to FIGS.
FIG. 108 shows a visual processing device 400 that performs edge enhancement and contrast enhancement using unsharp masking. A visual processing device 400 shown in FIG. 108 performs spatial processing on the input signal IS and outputs an unsharp signal US, and subtracts the unsharp signal US from the input signal IS to output a differential signal DS. A subtraction unit 402, an enhancement processing unit 403 that performs enhancement processing of the difference signal DS and outputs an enhancement processing signal TS, and an addition unit 404 that adds the input signal IS and the enhancement processing signal TS and outputs an output signal OS. ing.

ここで、強調処理は、差分信号DSに対して、線形あるいは非線形の強調関数を用いて行われる。図109に強調関数R1〜R3を示す。図109の横軸は、差分信号DS、縦軸は、強調処理信号TSを表している。強調関数R1は、差分信号DSに対して線形な強調関数である。強調関数R1は、例えば、R1(x)=0.5x(xは、差分信号DSの値)で表されるゲイン調整関数である。強調関数R2は、差分信号DSに対して非線形な強調関数であり、過度のコントラストを抑制する関数である。すなわち、絶対値の大きい入力x(xは、差分信号DSの値)に対して、より大きい抑制効果(より大きい抑制率による抑制効果)を発揮する。例えば、強調関数R2は、絶対値のより大きい入力xに対して、より小さい傾きを有するグラフで表される。強調関数R3は、差分信号DSに対して非線形な強調関数であり、小振幅のノイズ成分を抑制する。すなわち、絶対値の小さい入力x(xは、差分信号DSの値)に対して、より大きい抑制効果(より大きい抑制率による抑制効果)を発揮する。例えば、強調関数R3は、絶対値のより大きい入力xに対して、より大きい傾きを有するグラフで表される。強調処理部403では、これらの強調関数R1〜R3のいずれかが用いられている。   Here, the enhancement process is performed on the difference signal DS using a linear or nonlinear enhancement function. FIG. 109 shows enhancement functions R1 to R3. In FIG. 109, the horizontal axis represents the difference signal DS, and the vertical axis represents the enhancement processing signal TS. The enhancement function R1 is an enhancement function that is linear with respect to the differential signal DS. The enhancement function R1 is a gain adjustment function represented by, for example, R1 (x) = 0.5x (x is the value of the difference signal DS). The enhancement function R2 is a nonlinear enhancement function with respect to the differential signal DS, and is a function that suppresses excessive contrast. That is, a larger suppression effect (a suppression effect due to a larger suppression rate) is exerted on an input x having a large absolute value (x is the value of the differential signal DS). For example, the enhancement function R2 is represented by a graph having a smaller slope with respect to an input x having a larger absolute value. The enhancement function R3 is a nonlinear enhancement function with respect to the differential signal DS, and suppresses a noise component having a small amplitude. That is, a larger suppression effect (a suppression effect due to a larger suppression rate) is exhibited with respect to an input x having a small absolute value (x is the value of the difference signal DS). For example, the enhancement function R3 is represented by a graph having a larger slope with respect to an input x having a larger absolute value. In the enhancement processing unit 403, one of these enhancement functions R1 to R3 is used.

差分信号DSは、入力信号ISの鮮鋭成分である。視覚処理装置400では、差分信号DSの強度を変換し、入力信号ISに加算する。このため、出力信号OSでは、入力信号ISのエッジ、コントラストが強調される。
図110に、局所コントラスト(インテンシティ)の改善を行う視覚処理装置406を示す(例えば、特許文献2参照。)。図110に示す視覚処理装置406は、空間処理部407と、減算部408と、第1の変換部409と、乗算部410と、第2の変換部411と、加算部412とを備えている。空間処理部407は、入力信号ISに対して空間処理を行いアンシャープ信号USを出力する。減算部408は、入力信号ISからアンシャープ信号USを減算し差分信号DSを出力する。第1の変換部409は、アンシャープ信号USの強度に基づいて、差分信号DSを局所的に増幅する増幅係数信号GSを出力する。乗算部410は、差分信号DSに増幅係数信号GSを乗算し、差分信号DSを局所的に増幅したコントラスト強調信号HSを出力する。第2の変換部411は、アンシャープ信号USの強度を局所的に修正し、修正アンシャープ信号ASを出力する。加算部412は、コントラスト強調信号HSと修正アンシャープ信号ASとを加算し、出力信号OSを出力する。
The difference signal DS is a sharp component of the input signal IS. In the visual processing device 400, the intensity of the difference signal DS is converted and added to the input signal IS. For this reason, the edge and contrast of the input signal IS are enhanced in the output signal OS.
FIG. 110 shows a visual processing device 406 that improves local contrast (intensity) (see, for example, Patent Document 2). The visual processing device 406 shown in FIG. 110 includes a spatial processing unit 407, a subtraction unit 408, a first conversion unit 409, a multiplication unit 410, a second conversion unit 411, and an addition unit 412. . The spatial processing unit 407 performs spatial processing on the input signal IS and outputs an unsharp signal US. The subtracting unit 408 subtracts the unsharp signal US from the input signal IS and outputs a difference signal DS. The first conversion unit 409 outputs an amplification coefficient signal GS that locally amplifies the difference signal DS based on the intensity of the unsharp signal US. The multiplier 410 multiplies the difference signal DS by the amplification coefficient signal GS, and outputs a contrast enhancement signal HS obtained by locally amplifying the difference signal DS. The second conversion unit 411 locally corrects the intensity of the unsharp signal US and outputs a corrected unsharp signal AS. The adder 412 adds the contrast enhancement signal HS and the corrected unsharp signal AS, and outputs an output signal OS.

増幅係数信号GSは、入力信号ISにおいてコントラストが適切で無い部分について、局所的にコントラストを適正化する非線形の重み係数である。このため、入力信号ISにおいてコントラストの適切な部分は、そのまま出力され、適切で無い部分は、適正化して出力される。   The amplification coefficient signal GS is a non-linear weighting coefficient that locally optimizes the contrast of a portion where the contrast is not appropriate in the input signal IS. For this reason, the appropriate part of the contrast in the input signal IS is output as it is, and the inappropriate part is output after being optimized.

図111に、ダイナミックレンジの圧縮を行う視覚処理装置416を示す(例えば、特許文献3参照。)。図111に示す視覚処理装置416は、入力信号ISに対して空間処
理を行いアンシャープ信号USを出力する空間処理部417と、アンシャープ信号USをLUTを用いて反転変換処理したLUT処理信号LSを出力するLUT演算部418と、入力信号ISとLUT処理信号LSとを加算し出力信号OSを出力する加算部419とを備えている。
FIG. 111 shows a visual processing device 416 that performs dynamic range compression (see, for example, Patent Document 3). A visual processing device 416 shown in FIG. 111 performs spatial processing on the input signal IS and outputs an unsharp signal US, and an LUT processing signal LS obtained by performing inversion conversion processing on the unsharp signal US using an LUT. And an adder 419 that adds the input signal IS and the LUT processing signal LS and outputs the output signal OS.

LUT処理信号LSは、入力信号ISに加算され、入力信号ISの低周波成分(空間処理部417のカットオフ周波数より低い周波数成分)のダイナミックレンジを圧縮する。このため、入力信号ISのダイナミックレンジを圧縮しつつ、高周波成分は保持される。
特開2000−57335号公報(第3頁,第13図〜第16図) 特許第2832954号公報(第2頁,第5図) 特開2001−298619号公報(第3頁,第9図)
The LUT processing signal LS is added to the input signal IS and compresses the dynamic range of the low frequency component (frequency component lower than the cutoff frequency of the spatial processing unit 417) of the input signal IS. For this reason, the high frequency component is held while compressing the dynamic range of the input signal IS.
JP 2000-57335 A (page 3, FIGS. 13 to 16) Japanese Patent No. 2832954 (2nd page, FIG. 5) Japanese Patent Laid-Open No. 2001-298619 (page 3, FIG. 9)

従来、階調処理と空間処理とを組み合わせた視覚処理を行う場合、異なる効果の視覚処理を実現するためには、例えば、図108,図110,図111のようにそれぞれ独立した回路で構成する必要がある。このため、実現される視覚処理に合わせて、専用のLSI設計が必要となり、回路規模が大きくなるという不都合がある。   Conventionally, when visual processing combining gradation processing and spatial processing is performed, in order to realize visual processing with different effects, for example, each circuit is configured as an independent circuit as shown in FIGS. 108, 110, and 111. There is a need. For this reason, a dedicated LSI design is required in accordance with the visual processing to be realized, and there is a disadvantage that the circuit scale becomes large.

そこで、本発明では、実現される視覚処理に依存しないハード構成を有する視覚処理装置を提供することを課題とする。   Accordingly, an object of the present invention is to provide a visual processing device having a hardware configuration that does not depend on the visual processing to be realized.

請求項1に記載の視覚処理装置は、入力信号処理手段と、視覚処理手段とを備えている。入力信号処理手段は、入力された画像信号に対して所定の処理を行い、処理信号を出力する。視覚処理手段は、入力された画像信号および処理信号と、視覚処理された画像信号である出力信号との変換関係を与える変換手段に基づいて、入力された画像信号を変換し、出力信号を出力する。   The visual processing device according to claim 1 includes input signal processing means and visual processing means. The input signal processing means performs predetermined processing on the input image signal and outputs a processed signal. The visual processing means converts the input image signal and outputs the output signal based on a conversion means that provides a conversion relationship between the input image signal and the processed signal and the output signal that is the visually processed image signal. To do.

ここで、所定の処理とは、例えば、画像信号に対する直接的あるいは間接的な処理であって、空間処理や階調処理などの画像信号の画素値に変換を加える処理を含んでいる。
本発明の視覚処理装置では、画像信号および処理信号から視覚処理された出力信号への変換関係を与える変換手段を用いて視覚処理を行う。ここで、変換手段とは、例えば、画像信号と処理信号との値に対する出力信号の値を格納するルックアップテーブル(LUT)や、画像信号と処理信号との値に対して出力信号を出力するためのマトリクスデータなどを含む演算手段などである。このため、変換手段が実現する機能に依存しないハード構成を実現することが可能となる。すなわち、装置全体として実現される視覚処理に依存しないハードウェア構成を実現することが可能となる。
Here, the predetermined processing is, for example, direct or indirect processing for the image signal, and includes processing for converting the pixel value of the image signal, such as spatial processing or gradation processing.
In the visual processing device of the present invention, visual processing is performed using conversion means for providing a conversion relationship from the image signal and the processed signal to the visually processed output signal. Here, the converting means outputs, for example, a look-up table (LUT) that stores the value of the output signal with respect to the value of the image signal and the processed signal, or an output signal for the value of the image signal and the processed signal. Arithmetic means including matrix data for the purpose. Therefore, it is possible to realize a hardware configuration that does not depend on the function realized by the conversion means. That is, it is possible to realize a hardware configuration that does not depend on visual processing realized as the entire apparatus.

請求項2に記載の視覚処理装置は、請求項1に記載の視覚処理装置であって、処理信号は、画像信号が含む着目画素と着目画素の周囲画素とに対して所定の処理を行った信号である。
ここで、所定の処理とは、例えば、着目画素に対して周囲画素を用いた空間処理などであり、着目画素と周囲画素との平均値、最大値あるいは最小値などを導出する処理である。
The visual processing device according to claim 2 is the visual processing device according to claim 1, wherein the processing signal performs predetermined processing on the target pixel included in the image signal and the surrounding pixels of the target pixel. Signal.
Here, the predetermined processing is, for example, spatial processing using surrounding pixels with respect to the target pixel, and is processing for deriving an average value, maximum value, minimum value, or the like between the target pixel and the surrounding pixels.

本発明の視覚処理装置では、例えば、同じ値の着目画素に対する視覚処理であっても、周囲画素の影響により、異なる視覚処理を実現することが可能となる。
請求項3に記載の視覚処理装置は、請求項1に記載の視覚処理装置であって、変換手段が与える変換関係は、画像信号の少なくとも一部または処理信号の少なくとも一部と、出力信号の少なくとも一部とが非線形となる関係である。
In the visual processing device of the present invention, for example, even when visual processing is performed on a pixel of interest having the same value, different visual processing can be realized due to the influence of surrounding pixels.
The visual processing device according to claim 3 is the visual processing device according to claim 1, wherein the conversion relationship provided by the conversion means includes at least part of the image signal or at least part of the processing signal and the output signal. At least a part of the relationship is non-linear.

ここで、非線形の関係とは、例えば、出力信号の少なくとも一部の値が、画像信号の少なくとも一部の値または処理信号の少なくとも一部の値を変数とする非線形の関数で表される、あるいは関数により定式化することが難しいことなどを意味している。
本発明の視覚処理装置では、例えば、画像信号の視覚特性にあった視覚処理あるいは出力信号を出力する機器の非線形特性にあった視覚処理を実現することなどが可能となる。
Here, the non-linear relationship is expressed by, for example, a non-linear function in which at least a part of the output signal has at least a part of the image signal or at least a part of the processed signal as a variable. Or it means that it is difficult to formulate with functions.
With the visual processing device of the present invention, for example, it is possible to realize visual processing that matches the visual characteristics of the image signal or visual processing that matches the nonlinear characteristics of the device that outputs the output signal.

請求項4に記載の視覚処理装置は、請求項3に記載の視覚処理装置であって、変換手段が与える変換関係は、画像信号および処理信号の両方と、出力信号とが非線形となる関係である。
ここで、画像信号および処理信号の両方と、出力信号とが非線形の関係にあるとは、例えば、出力信号の値が、画像信号の値と処理信号の値とを2つの変数とする非線形の関数で表される、あるいは関数により定式化することが難しいことなどを意味している。
The visual processing device according to claim 4 is the visual processing device according to claim 3, wherein the conversion relationship given by the conversion means is such that both the image signal and the processed signal are non-linear. is there.
Here, both the image signal and the processed signal and the output signal are in a non-linear relationship. For example, the value of the output signal is a non-linear relationship in which the value of the image signal and the value of the processed signal are two variables. It means that it is difficult to formulate with a function.

本発明の視覚処理装置では、例えば、画像信号の値が同じであっても、処理信号の値が異なる場合には、処理信号の値に応じて異なる視覚処理を実現することが可能となる。
請求項5に記載の視覚処理装置は、請求項1〜4のいずれかに記載の視覚処理装置であって、変換手段が与える変換関係は、画像信号と処理信号とから算出された値を強調する演算に基づいて定められている。
In the visual processing device of the present invention, for example, even if the value of the image signal is the same, if the value of the processed signal is different, different visual processing can be realized depending on the value of the processed signal.
The visual processing device according to claim 5 is the visual processing device according to any one of claims 1 to 4, wherein the conversion relationship given by the conversion means emphasizes a value calculated from the image signal and the processing signal. It is determined based on the operation to be performed.

ここで、画像信号と処理信号とから算出された値とは、例えば、画像信号と処理信号との四則演算で得られる値、あるいは、画像信号や処理信号をある関数で変換した値を演算することにより得られる値などである。強調する演算とは、例えば、ゲインを調整する演算、過度のコントラストを抑制する演算、小振幅のノイズ成分を抑制する演算などである。   Here, the value calculated from the image signal and the processed signal is, for example, a value obtained by four arithmetic operations of the image signal and the processed signal, or a value obtained by converting the image signal or the processed signal with a certain function. It is a value obtained by this. The calculation for emphasizing is, for example, a calculation for adjusting a gain, a calculation for suppressing excessive contrast, a calculation for suppressing a noise component having a small amplitude, or the like.

本発明の視覚処理装置では、画像信号と処理信号とから算出された値を強調することが可能となる。
請求項6に記載の視覚処理装置は、請求項5に記載の視覚処理装置であって、強調する演算は、非線形の関数である。
In the visual processing device of the present invention, it is possible to emphasize the value calculated from the image signal and the processed signal.
The visual processing device according to claim 6 is the visual processing device according to claim 5, wherein the calculation to be emphasized is a non-linear function.

本発明の視覚処理装置では、例えば、画像信号の視覚特性にあった強調、あるいは出力信号を出力する機器の非線形特性にあった強調を実現することなどが可能となる。
請求項7に記載の視覚処理装置は、請求項5または6に記載の視覚処理装置であって、強調する演算は、画像信号または処理信号を変換した値を用いる変換である。
In the visual processing device of the present invention, for example, it is possible to realize enhancement suited to the visual characteristics of an image signal or enhancement suitable to the nonlinear characteristics of a device that outputs an output signal.
A visual processing device according to a seventh aspect is the visual processing device according to the fifth or sixth aspect, wherein the calculation for emphasis is conversion using a value obtained by converting the image signal or the processing signal.

請求項8に記載の視覚処理装置は、請求項5〜7のいずれかに記載の視覚処理装置であって、強調する演算は、画像信号と処理信号とを変換したそれぞれの変換値の差を強調する強調関数である。
ここで、強調関数とは、例えば、ゲインを調整する関数、過度のコントラストを抑制する関数、小振幅のノイズ成分を抑制する関数などである。
The visual processing device according to claim 8 is the visual processing device according to any one of claims 5 to 7, wherein the calculation for emphasis is performed by calculating a difference between respective converted values obtained by converting the image signal and the processing signal. Emphasis function to emphasize.
Here, the enhancement function is, for example, a function for adjusting a gain, a function for suppressing excessive contrast, a function for suppressing a noise component having a small amplitude, or the like.

本発明の視覚処理装置では、画像信号と処理信号とを別空間に変換した上でそれぞれの差を強調することが可能となる。これにより、例えば、視覚特性にあった強調などを実現することが可能となる。
請求項9に記載の視覚処理装置は、請求項5〜8のいずれかに記載の視覚処理装置であって、強調する演算は、画像信号と処理信号との比を強調する強調関数である。
In the visual processing device of the present invention, it is possible to emphasize the difference between the image signal and the processing signal after converting them into different spaces. Thereby, for example, it is possible to realize enhancement suitable for visual characteristics.
A visual processing device according to a ninth aspect is the visual processing device according to any one of the fifth to eighth aspects, wherein the enhancement operation is an enhancement function that enhances a ratio between the image signal and the processed signal.

本発明の視覚処理装置では、例えば、画像信号と処理信号との比は、画像信号のシャープ成分を表している。このため、例えば、シャープ成分を強調する視覚処理を行うことが可能となる。
請求項10に記載の視覚処理装置は、請求項1または2に記載の視覚処理装置であって、変換手段が与える変換関係は、明るさを変える変換に基づいて定められている。
In the visual processing device of the present invention, for example, the ratio between the image signal and the processed signal represents the sharp component of the image signal. Therefore, for example, it is possible to perform visual processing that emphasizes the sharp component.
A visual processing device according to a tenth aspect is the visual processing device according to the first or second aspect, wherein the conversion relationship given by the conversion means is determined based on a conversion that changes brightness.

本発明の視覚処理装置では、画像信号の明るさを変える視覚処理を実現することが可能となる。
請求項11に記載の視覚処理装置は、請求項10に記載の視覚処理装置であって、明るさを変える変換は、画像信号のレベルまたはゲインを変化させる変換である。
With the visual processing device of this invention, it is possible to realize visual processing that changes the brightness of an image signal.
The visual processing device according to an eleventh aspect is the visual processing device according to the tenth aspect, wherein the conversion for changing the brightness is a conversion for changing the level or gain of the image signal.

ここで、画像信号のレベルを変化させる、とは、例えば、画像信号にオフセットを与えること、画像信号のゲインを変化させること、その他画像信号を変数として演算することなどにより、画像信号の値を変化させることを意味している。画像信号のゲインを変化させる、とは、画像信号に乗算される係数を変化させることを意味している。   Here, changing the level of the image signal means changing the value of the image signal by, for example, adding an offset to the image signal, changing the gain of the image signal, or calculating other image signals as variables. It means to change. Changing the gain of the image signal means changing a coefficient to be multiplied by the image signal.

請求項12に記載の視覚処理装置は、請求項10に記載の視覚処理装置であって、明るさを変える変換は、処理信号に基づいて定められる変換である。
本発明の視覚処理装置では、例えば、画像信号の値が同じであっても、処理信号の値が異なる場合には、処理信号の値に応じて、異なる変換を実現することが可能となる。
A visual processing device according to a twelfth aspect is the visual processing device according to the tenth aspect, in which the conversion for changing the brightness is conversion determined based on the processing signal.
In the visual processing device of the present invention, for example, even if the value of the image signal is the same, if the value of the processed signal is different, different conversions can be realized depending on the value of the processed signal.

請求項13に記載の視覚処理装置は、請求項10に記載の視覚処理装置だって、明るさを変える変換は、処理信号に対して単調減少する出力信号を出力する変換である。
本発明の視覚処理装置では、例えば、処理信号が空間処理された画像信号などである場合には、画像中の暗くて面積の大きい部分は、明るく変換され、画像中の明るくて面積の大きい部分は、暗く変換される。このため、例えば、逆光補正や白飛びなどを補正することが可能となる。
The visual processing device according to claim 13 is the visual processing device according to claim 10, wherein the conversion for changing the brightness is a conversion for outputting an output signal that monotonously decreases with respect to the processing signal.
In the visual processing device of the present invention, for example, when the processed signal is a spatially processed image signal or the like, a dark and large area portion in the image is converted brightly, and a bright and large area portion in the image is converted. Is converted to dark. For this reason, for example, it is possible to correct backlight correction or whiteout.

請求項14に記載の視覚処理装置は、請求項1〜13のいずれかに記載の視覚処理装置であって、変換手段は、画像信号と出力信号との関係を、複数の階調変換曲線からなる階調変換曲線群として格納する。
ここで、階調変換曲線群とは、画像信号の輝度、明度といった画素値に階調処理を施す階調変換曲線の集合である。
The visual processing device according to claim 14 is the visual processing device according to any one of claims 1 to 13, wherein the conversion means determines the relationship between the image signal and the output signal from a plurality of gradation conversion curves. Is stored as a gradation conversion curve group.
Here, the gradation conversion curve group is a set of gradation conversion curves for applying gradation processing to pixel values such as luminance and brightness of an image signal.

本発明の視覚処理装置では、複数の階調変換曲線から選択された階調変換曲線を用いて、画像信号の階調処理を行うことが可能となる。このため、より適切な階調処理を行うことが可能となる。
請求項15に記載の視覚処理装置は、請求項14に記載の視覚処理装置であって、処理信号は、複数の階調変換曲線群から対応する階調変換曲線を選択するための信号である。
In the visual processing device of the present invention, it is possible to perform gradation processing of an image signal using a gradation conversion curve selected from a plurality of gradation conversion curves. For this reason, it is possible to perform more appropriate gradation processing.
The visual processing device according to claim 15 is the visual processing device according to claim 14, wherein the processing signal is a signal for selecting a corresponding gradation conversion curve from a plurality of gradation conversion curve groups. .

ここで、処理信号は、階調変換曲線を選択するための信号であり、例えば、空間処理された画像信号などである。
本発明の視覚処理装置では、処理信号により選択された階調変換曲線を用いて、画像信号の階調処理を行うことが可能となる。
Here, the processing signal is a signal for selecting a gradation conversion curve, and is, for example, a spatially processed image signal.
In the visual processing device of the present invention, it is possible to perform gradation processing of an image signal using the gradation conversion curve selected by the processing signal.

請求項16に記載の視覚処理装置は、請求項15に記載の視覚処理装置であって、処理信号の値は、複数の階調変換曲線群が含む少なくとも1つの階調変換曲線と関連づけられている。
ここで、処理信号の値により、階調処理に用いられる階調変換曲線が少なくとも1つ選択される。
The visual processing device according to claim 16 is the visual processing device according to claim 15, wherein the value of the processing signal is associated with at least one gradation conversion curve included in the plurality of gradation conversion curve groups. Yes.
Here, at least one gradation conversion curve used for gradation processing is selected according to the value of the processing signal.

本発明の視覚処理装置では、処理信号の値により、階調変換曲線が少なくとも1つ選択される。さらに、選択された階調変換曲線を用いて、画像信号の階調処理が行われる。
請求項17に記載の視覚処理装置は、請求項1〜16のいずれかに記載の視覚処理装置であって、変換手段は、ルックアップテーブル(以下、LUTという)で構成され、LUTには、所定の演算によってあらかじめ作成されるプロファイルデータが登録されている。
In the visual processing device of the present invention, at least one gradation conversion curve is selected according to the value of the processing signal. Further, gradation processing of the image signal is performed using the selected gradation conversion curve.
The visual processing device according to claim 17 is the visual processing device according to any one of claims 1 to 16, wherein the conversion means is configured by a look-up table (hereinafter referred to as LUT). Profile data created in advance by a predetermined calculation is registered.

本発明の視覚処理装置では、あらかじめ作成されたプロファイルデータが登録されたLUTを用いて、視覚処理が行われる。視覚処理に際して、プロファイルデータを作成するなどの処理は必要なく、視覚処理の実行速度の高速化が可能となる。
請求項18に記載の視覚処理装置は、請求項17に記載の視覚処理装置であって、LUTは、プロファイルデータの登録により変更可能である。
In the visual processing device of the present invention, visual processing is performed using an LUT in which profile data created in advance is registered. In visual processing, processing such as creating profile data is not necessary, and the execution speed of visual processing can be increased.
The visual processing device according to claim 18 is the visual processing device according to claim 17, wherein the LUT can be changed by registration of profile data.

ここで、プロファイルデータとは、異なる視覚処理を実現するLUTのデータである。
本発明の視覚処理装置では、プロファイルデータの登録により、実現される視覚処理を様々に変更することが可能となる。すなわち、視覚処理装置のハードウェア構成を変更することなく、様々な視覚処理を実現することが可能となる。
Here, the profile data is LUT data that realizes different visual processing.
In the visual processing device of the present invention, the visual processing to be realized can be variously changed by registering profile data. That is, various visual processing can be realized without changing the hardware configuration of the visual processing device.

請求項19に記載の視覚処理装置は、請求項17または18に記載の視覚処理装置であって、プロファイルデータを視覚処理手段に登録させるためのプロファイルデータ登録手段をさらに備えている。
ここで、プロファイルデータ登録手段は、あらかじめ算出されたプロファイルデータを視覚処理に応じて視覚処理手段に登録する。
The visual processing device according to claim 19 is the visual processing device according to claim 17 or 18, further comprising profile data registration means for causing the visual processing means to register profile data.
Here, the profile data registration means registers the profile data calculated in advance in the visual processing means according to the visual processing.

本発明の視覚処理装置では、プロファイルデータの登録により、実現される視覚処理を様々に変更することが可能となる。すなわち、視覚処理装置のハードウェア構成を変更することなく、様々な視覚処理を実現することが可能となる。
請求項20に記載の視覚処理装置は、請求項19に記載の視覚処理装置であって、視覚処理手段は、外部の装置により作成されたプロファイルデータを取得する。
In the visual processing device of the present invention, the visual processing to be realized can be variously changed by registering profile data. That is, various visual processing can be realized without changing the hardware configuration of the visual processing device.
The visual processing device according to claim 20 is the visual processing device according to claim 19, wherein the visual processing means obtains profile data created by an external device.

プロファイルデータは、外部の装置によりあらかじめ作成されている。外部の装置とは、例えば、プロファイルデータの作成が可能なプログラムとCPUを有する計算機などである。視覚処理手段は、プロファイルデータを取得する。取得は、例えば、ネットワークを介して、あるいは記録媒体を介して、行われる。視覚処理手段は、取得したプロファイルデータを用いて、視覚処理を実行する。   The profile data is created in advance by an external device. The external device is, for example, a computer having a program capable of creating profile data and a CPU. The visual processing means acquires profile data. Acquisition is performed via a network or a recording medium, for example. The visual processing means executes visual processing using the acquired profile data.

本発明の視覚処理装置では、外部の装置により作成されたプロファイルデータを用いて、視覚処理を実行することが可能となる。
請求項21に記載の視覚処理装置は、請求項20に記載の視覚処理装置であって、取得されたプロファイルデータにより、LUTは変更可能である。
In the visual processing device of the present invention, visual processing can be executed using profile data created by an external device.
The visual processing device according to claim 21 is the visual processing device according to claim 20, wherein the LUT can be changed by the acquired profile data.

本発明の視覚処理装置では、取得されたプロファイルデータは、LUTとして新たに登録される。これにより、LUTを変更し、異なる視覚処理を実現することが可能となる。
請求項22に記載の視覚処理装置は、請求項20または21に記載の視覚処理装置であって、視覚処理手段は、通信網を介してプロファイルデータを取得する。
In the visual processing device of the present invention, the acquired profile data is newly registered as an LUT. This makes it possible to change the LUT and realize different visual processing.
The visual processing device according to claim 22 is the visual processing device according to claim 20 or 21, wherein the visual processing means acquires profile data via a communication network.

ここで、通信網とは、例えば、専用回線、公衆回線、インターネット、LANなどの通信が可能な接続手段であり、有線であっても無線であってもよい。
本発明の視覚処理装置では、通信網を介して取得されたプロファイルデータを用いて、視覚処理を実現することが可能となる。
Here, the communication network is a connection means capable of communication such as a dedicated line, a public line, the Internet, and a LAN, and may be wired or wireless.
In the visual processing device of the present invention, visual processing can be realized using profile data acquired via a communication network.

請求項23に記載の視覚処理装置は、請求項17に記載の視覚処理装置であって、プロファイルデータを作成するプロファイルデータ作成手段をさらに備えている。
プロファイルデータ作成手段は、例えば、画像信号や処理信号などの特性を用いて、プロファイルデータの作成を行う。
The visual processing device according to claim 23 is the visual processing device according to claim 17, further comprising profile data creation means for creating profile data.
The profile data creation means creates profile data using characteristics such as an image signal and a processing signal, for example.

本発明の視覚処理装置では、プロファイルデータ作成手段により作成されたプロファイルデータを用いて、視覚処理を実現することが可能となる。
請求項24に記載の視覚処理装置は、請求項23に記載の視覚処理装置であって、プロファイルデータ作成手段は、画像信号の階調特性のヒストグラムに基づいて、プロファイ
ルデータを作成する。
In the visual processing device of the present invention, visual processing can be realized using profile data created by the profile data creating means.
A visual processing device according to a twenty-fourth aspect is the visual processing device according to the twenty-third aspect, wherein the profile data creating means creates profile data based on a histogram of gradation characteristics of the image signal.

本発明の視覚処理装置では、画像信号の階調特性のヒストグラムに基づいて作成されたプロファイルデータを用いて、視覚処理が実現される。このため、画像信号の特性に応じて、適切な視覚処理を実現することが可能となる。
請求項25に記載の視覚処理装置は、請求項17に記載の視覚処理装置であって、LUTに登録されるプロファイルデータは、所定の条件に応じて切り替えられる。
In the visual processing device of the present invention, visual processing is realized using profile data created based on a histogram of gradation characteristics of an image signal. Therefore, appropriate visual processing can be realized according to the characteristics of the image signal.
The visual processing device according to claim 25 is the visual processing device according to claim 17, wherein the profile data registered in the LUT is switched according to a predetermined condition.

本発明の視覚処理装置では、所定の条件に応じて切り替えられたプロファイルデータを用いて、視覚処理が実現される。このため、より適切な視覚処理を実現することが可能となる。
請求項26に記載の視覚処理装置は、請求項25に記載の視覚処理装置であって、所定の条件とは、明るさに関する条件である。
In the visual processing device of the present invention, visual processing is realized using profile data switched according to a predetermined condition. For this reason, it is possible to realize more appropriate visual processing.
A visual processing device according to a twenty-sixth aspect is the visual processing device according to the twenty-fifth aspect, wherein the predetermined condition is a condition relating to brightness.

本発明の視覚処理装置では、明るさに関する条件のもとで、より適切な視覚処理を実現することが可能となる。
請求項27に記載の視覚処理装置は、請求項26に記載の視覚処理装置であって、明るさは、画像信号の明るさである。
In the visual processing device of the present invention, more appropriate visual processing can be realized under the conditions related to brightness.
A visual processing device according to a twenty-seventh aspect is the visual processing device according to the twenty-sixth aspect, wherein the brightness is a brightness of the image signal.

本発明の視覚処理装置では、画像信号の明るさに関する条件のもとで、より適切な視覚処理を実現することが可能となる。
請求項28に記載の視覚処理装置は、請求項27に記載の視覚処理装置であって、画像信号の明るさを判定する明度判定手段をさらに備えている。LUTに登録されるプロファイルデータは、明度判定手段の判定結果に応じて切り替えられる。
In the visual processing device of the present invention, it is possible to realize more appropriate visual processing under conditions relating to the brightness of the image signal.
A visual processing device according to a twenty-eighth aspect is the visual processing device according to the twenty-seventh aspect, further comprising lightness determination means for determining the brightness of the image signal. The profile data registered in the LUT is switched according to the determination result of the lightness determination means.

ここで、明度判定手段は、例えば、画像信号の輝度、明度などの画素値に基づいて、画像信号の明るさを判定する。さらに、判定結果に応じて、プロファイルデータが切り替ええられる。
本発明の視覚処理装置では、画像信号の明るさに応じて、より適切な視覚処理を実現することが可能となる。
Here, the brightness determination means determines the brightness of the image signal based on, for example, pixel values such as the luminance and brightness of the image signal. Further, the profile data can be switched according to the determination result.
In the visual processing device of the present invention, more appropriate visual processing can be realized according to the brightness of the image signal.

請求項29に記載の視覚処理装置は、請求項26に記載の視覚処理装置であって、明るさに関する条件を入力させる明度入力手段をさらに備えている。LUTに登録されるプロファイルデータは、明度入力手段の入力結果に応じて切り替えられる。
ここで、明度入力手段は、例えば、明るさに関する条件をユーザに入力させる有線あるいは無線で接続されるスイッチなどである。
A visual processing device according to a twenty-ninth aspect is the visual processing device according to the twenty-sixth aspect, further comprising brightness input means for inputting a condition relating to brightness. The profile data registered in the LUT is switched according to the input result of the brightness input means.
Here, the lightness input means is, for example, a wired or wireless switch that allows the user to input conditions relating to brightness.

本発明の視覚処理装置では、ユーザが明るさに関する条件を判断して、明度入力手段を介して、プロファイルデータの切り替えを行うことが可能となる。このため、よりユーザにとって適切な視覚処理を実現することが可能となる。
請求項30に記載の視覚処理装置は、請求項29に記載の視覚処理装置であって、明度入力手段は、出力信号の出力環境の明るさ、あるいは入力信号の入力環境の明るさを入力させる。
In the visual processing device of the present invention, it is possible for the user to determine the conditions regarding brightness and to switch profile data via the brightness input means. For this reason, it is possible to realize visual processing more appropriate for the user.
The visual processing device according to claim 30 is the visual processing device according to claim 29, wherein the brightness input means inputs the brightness of the output environment of the output signal or the brightness of the input environment of the input signal. .

ここで、出力環境の明るさとは、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDAなど出力信号を出力する媒体周辺の環境光の明るさや、プリンタ用紙など出力信号を出力する媒体自体の明るさなどである。入力環境の明るさとは、例えば、スキャナ用紙など入力信号を入力する媒体自体の明るさなどである。   Here, the brightness of the output environment is, for example, the brightness of ambient light around a medium that outputs an output signal such as a computer, a television, a digital camera, a mobile phone, or a PDA, or the brightness of the medium itself that outputs an output signal such as printer paper. And so on. The brightness of the input environment is, for example, the brightness of a medium itself that inputs an input signal such as scanner paper.

本発明の視覚処理装置では、例えば、ユーザが部屋の明るさなどに関する条件を判断して、明度入力手段を介して、プロファイルデータの切り替えを行うことが可能となる。このため、よりユーザにとって適切な視覚処理を実現することが可能となる。
請求項31に記載の視覚処理装置は、請求項26に記載の視覚処理装置であって、明る
さを少なくとも2種類検出する明度検出手段をさらに備えている。LUTに登録されるプロファイルデータは、明度検出手段の検出結果に応じて切り替えられる。
In the visual processing device of the present invention, for example, the user can determine the conditions relating to the brightness of the room and the like, and can switch the profile data via the brightness input means. For this reason, it is possible to realize visual processing more appropriate for the user.
A visual processing device according to a thirty-first aspect is the visual processing device according to the twenty-sixth aspect, further comprising lightness detection means for detecting at least two types of brightness. The profile data registered in the LUT is switched according to the detection result of the brightness detection means.

ここで、明度検出手段とは、例えば、画像信号の輝度、明度などの画素値に基づいて、画像信号の明るさを検出する手段や、フォトセンサなど出力環境あるいは入力環境の明るさを検出する手段や、ユーザにより入力された明るさに関する条件を検出する手段などである。なお、出力環境の明るさとは、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDAなど出力信号を出力する媒体周辺の環境光の明るさや、プリンタ用紙など出力信号を出力する媒体自体の明るさなどである。入力環境の明るさとは、例えば、スキャナ用紙など入力信号を入力する媒体自体の明るさなどである。   Here, the lightness detection means, for example, means for detecting the brightness of the image signal based on pixel values such as the brightness and brightness of the image signal, and detects the brightness of the output environment or input environment such as a photosensor. And means for detecting a condition relating to brightness input by the user. Note that the brightness of the output environment is, for example, the brightness of ambient light around a medium that outputs an output signal such as a computer, television, digital camera, mobile phone, or PDA, or the brightness of the medium that outputs the output signal such as printer paper. Etc. The brightness of the input environment is, for example, the brightness of a medium itself that inputs an input signal such as scanner paper.

本発明の視覚処理装置では、明るさを少なくとも2種類検出し、それらに応じてプロファイルデータの切り替えが行われる。このため、より適切な視覚処理を実現することが可能となる。
請求項32に記載の視覚処理装置は、請求項31に記載の視覚処理装置であって、明度検出手段が検出する明るさは、画像信号の明るさと、出力信号の出力環境の明るさ、あるいは入力信号の入力環境の明るさとを含む。
In the visual processing device of the present invention, at least two types of brightness are detected, and profile data is switched according to them. For this reason, it is possible to realize more appropriate visual processing.
A visual processing device according to a thirty-second aspect is the visual processing device according to the thirty-first aspect, wherein the brightness detected by the lightness detection means is the brightness of the image signal and the brightness of the output environment of the output signal, or Including the brightness of the input environment of the input signal.

本発明の視覚処理装置では、画像信号の明るさと、出力信号の出力環境の明るさ、あるいは入力信号の入力環境の明るさとに応じて、より適切な視覚処理を実現することが可能となる。
請求項33に記載の視覚処理装置は、請求項25に記載の視覚処理装置であって、LUTに登録されるプロファイルデータの選択を行わせるプロファイルデータ選択手段をさらに備えている。LUTに登録されるプロファイルデータは、プロファイルデータ選択手段の選択結果に応じて切り替えられる。
In the visual processing device of the present invention, more appropriate visual processing can be realized according to the brightness of the image signal and the brightness of the output environment of the output signal or the brightness of the input environment of the input signal.
A visual processing device according to a thirty-third aspect is the visual processing device according to the twenty-fifth aspect, further comprising profile data selection means for selecting profile data registered in the LUT. The profile data registered in the LUT is switched according to the selection result of the profile data selection means.

プロファイルデータ選択手段は、ユーザにプロファイルデータの選択を行わせる。さらに、視覚処理装置では、選択されたプロファイルデータを用いて、視覚処理が実現される。
本発明の視覚処理装置では、ユーザが好みに応じたプロファイルを選択して視覚処理を実現することが可能となる。
The profile data selection means allows the user to select profile data. Further, in the visual processing device, visual processing is realized using the selected profile data.
In the visual processing device of the present invention, the user can select a profile according to his / her preference to realize visual processing.

請求項34に記載の視覚処理装置は、請求項33に記載の視覚処理装置であって、プロファイルデータ選択手段は、プロファイルの選択を行うための入力装置である。
ここで、入力装置は、例えば、視覚処理装置に内蔵、あるいは有線または無線などで接続されたスイッチなどである。
The visual processing device according to claim 34 is the visual processing device according to claim 33, wherein the profile data selection means is an input device for selecting a profile.
Here, the input device is, for example, a switch built in the visual processing device or connected by wire or wireless.

本発明の視覚処理装置では、ユーザは、入力装置を用いて、好みのプロファイルを選択することが可能となる。
請求項35に記載の視覚処理装置は、請求項25に記載の視覚処理装置であって、画像信号の画像特性を判断する画像特性判断手段をさらに備えている。LUTに登録されるプロファイルデータは、画像特性判断手段の判断結果に応じて切り替えられる。
In the visual processing device of the present invention, the user can select a favorite profile using the input device.
A visual processing device according to a thirty-fifth aspect is the visual processing device according to the twenty-fifth aspect, further comprising image characteristic judging means for judging the image characteristic of the image signal. The profile data registered in the LUT is switched according to the determination result of the image characteristic determination means.

画像特性判断手段は、画像信号の輝度、明度、あるいは空間周波数などの画像特性を判断する。視覚処理装置は、画像特性判断手段の判断結果に応じて切り替えられたプロファイルデータを用いて、視覚処理を実現する。
本発明の視覚処理装置では、画像特性判断手段が画像特性に応じたプロファイルデータを自動的に選択する。このため、画像信号に対してより適切なプロファイルデータを用いて視覚処理を実現することが可能となる。
The image characteristic determining means determines image characteristics such as brightness, brightness, or spatial frequency of the image signal. The visual processing device realizes visual processing using the profile data switched according to the determination result of the image characteristic determination means.
In the visual processing device of the present invention, the image characteristic judging means automatically selects profile data corresponding to the image characteristic. For this reason, visual processing can be realized using more appropriate profile data for the image signal.

請求項36に記載の視覚処理装置は、請求項25に記載の視覚処理装置であって、ユーザを識別するユーザ識別手段をさらに備えている。LUTに登録されるプロファイルデータは、ユーザ識別手段の識別結果に応じて切り替えられる。
ユーザ識別手段は、例えば、ユーザを識別するための入力装置、あるいはカメラなどである。
A visual processing device according to a thirty-sixth aspect is the visual processing device according to the twenty-fifth aspect, further comprising user identification means for identifying a user. The profile data registered in the LUT is switched according to the identification result of the user identification means.
The user identification means is, for example, an input device for identifying a user, a camera, or the like.

本発明の視覚処理装置では、ユーザ識別手段が識別したユーザに適した視覚処理を実現することが可能となる。
請求項37に記載の視覚処理装置は、請求項17に記載の視覚処理装置であって、視覚処理手段は、LUTの格納する値を補間演算して出力信号を出力する。
In the visual processing device of the present invention, visual processing suitable for the user identified by the user identifying means can be realized.
A visual processing device according to a thirty-seventh aspect is the visual processing device according to the seventeenth aspect, wherein the visual processing means performs an interpolation operation on a value stored in the LUT and outputs an output signal.

LUTは、所定の間隔の画像信号の値あるいは処理信号の値に対して、値を格納している。入力された画像信号の値あるいは処理信号の値を含む区間に対応するLUTの値を補間演算することにより、入力された画像信号の値あるいは処理信号の値に対する出力信号の値が出力される。   The LUT stores values for image signal values or processing signal values at predetermined intervals. By interpolating the LUT value corresponding to the interval including the input image signal value or the processed signal value, the output signal value corresponding to the input image signal value or the processed signal value is output.

本発明の視覚処理装置では、画像信号あるいは処理信号が取りうる全ての値に対してLUTが値を格納している必要がなく、LUTのための記憶容量を削減することが可能となる。
請求項38に記載の視覚処理装置は、請求項37に記載の視覚処理装置であって、補間演算は、2進数で表された画像信号あるいは処理信号の少なくとも一方の下位ビットの値に基づいた線形補間である。
In the visual processing device of the present invention, it is not necessary for the LUT to store values for all values that can be taken by the image signal or processing signal, and the storage capacity for the LUT can be reduced.
The visual processing device according to claim 38 is the visual processing device according to claim 37, wherein the interpolation operation is based on a value of a lower bit of at least one of the image signal or the processing signal represented by a binary number. Linear interpolation.

LUTは、画像信号あるいは処理信号の上位ビットの値に対応する値を格納している。視覚処理手段は、入力された画像信号あるいは処理信号の値を含む区間に対応するLUTの値を、画像信号あるいは処理信号の下位ビットの値で線形補間することにより、出力信号を出力する。   The LUT stores a value corresponding to the value of the upper bit of the image signal or processing signal. The visual processing means outputs an output signal by linearly interpolating the LUT value corresponding to the interval including the input image signal or the value of the processed signal with the value of the lower bit of the image signal or the processed signal.

本発明の視覚処理装置では、より少ない記憶容量でLUTを記憶しつつ、より正確な視覚処理を実現することが可能となる。
請求項39に記載の視覚処理装置は、請求項1〜38のいずれかに記載の視覚処理装置であって、入力信号処理手段は、画像信号に対して空間処理を行う。
In the visual processing device of the present invention, it is possible to realize more accurate visual processing while storing the LUT with a smaller storage capacity.
The visual processing device according to claim 39 is the visual processing device according to any one of claims 1 to 38, wherein the input signal processing means performs spatial processing on the image signal.

本発明の視覚処理装置では、画像信号と空間処理された画像信号とを用いて、LUTにより視覚処理を実現することが可能となる。
請求項40に記載の視覚処理装置は、請求項39に記載の視覚処理装置であって、入力信号処理手段は、画像信号からアンシャープ信号を生成する。
In the visual processing device of the present invention, visual processing can be realized by LUT using an image signal and a spatially processed image signal.
The visual processing device according to claim 40 is the visual processing device according to claim 39, wherein the input signal processing means generates an unsharp signal from the image signal.

ここで、アンシャープ信号とは、画像信号に対して直接的あるいは間接的に空間処理を施した信号を意味している。
本発明の視覚処理装置では、画像信号とアンシャープ信号とを用いて、LUTにより視覚処理を実現することが可能となる。
Here, the unsharp signal means a signal obtained by performing spatial processing directly or indirectly on the image signal.
In the visual processing device of the present invention, visual processing can be realized by LUT using an image signal and an unsharp signal.

請求項41に記載の視覚処理装置は、請求項39または40に記載の視覚処理装置であって、空間処理では、画像信号の平均値、最大値あるいは最小値が導出される。
ここで、平均値とは、例えば、画像信号の単純平均でもよいし、加重平均でもよい。
本発明の視覚処理装置では、画像信号と、画像信号の平均値、最大値あるいは最小値とを用いて、LUTにより視覚処理を実現することが可能となる。
The visual processing device according to claim 41 is the visual processing device according to claim 39 or 40, wherein an average value, a maximum value, or a minimum value of the image signal is derived in the spatial processing.
Here, the average value may be, for example, a simple average of image signals or a weighted average.
In the visual processing device of the present invention, visual processing can be realized by LUT using an image signal and an average value, maximum value, or minimum value of the image signal.

請求項42に記載の視覚処理装置は、請求項1〜41のいずれかに記載の視覚処理装置であって、視覚処理手段は、入力された画像信号及び処理信号を用いて、空間処理及び階調処理を行う。
本発明の視覚処理装置では、LUTを用いて、空間処理および階調処理を同時に実現することが可能となる。
The visual processing device according to claim 42 is the visual processing device according to any one of claims 1 to 41, wherein the visual processing means uses the input image signal and processing signal to perform spatial processing and floor processing. Perform key processing.
In the visual processing device of the present invention, spatial processing and gradation processing can be realized simultaneously using an LUT.

請求項43に記載の視覚処理方法は、入力信号処理ステップと、視覚処理ステップとを備えている。入力信号処理ステップは、入力された画像信号に対して所定の処理を行い、
処理信号を出力する。視覚処理ステップは、入力された画像信号および処理信号と、視覚処理された画像信号である出力信号との関係を与える変換手段に基づいて、入力された画像信号を変換し、出力信号を出力する。
The visual processing method according to claim 43 comprises an input signal processing step and a visual processing step. The input signal processing step performs predetermined processing on the input image signal,
Output processing signal. The visual processing step converts the input image signal and outputs the output signal based on conversion means for providing a relationship between the input image signal and the processed signal and the output signal which is the visually processed image signal. .

ここで、所定の処理とは、例えば、画像信号に対する直接的あるいは間接的な処理であって、空間処理や階調処理などの画像信号の画素値に変換を加える処理を含んでいる。
本発明の視覚処理方法では、画像信号および処理信号と、視覚処理された出力信号との変換関係を与える変換手段を用いて視覚処理を行う。このため、変換手段以外のハードあるいはソフトを汎用的に用いることが可能となる。すなわち、視覚処理の機能に依存しないハードウェア構成あるいはソフトウェア構成を採用することが可能となる。このため、付随的な効果として、ハードウェアの低コスト化、ソフトウェアの汎用化などが可能となる。
Here, the predetermined processing is, for example, direct or indirect processing for the image signal, and includes processing for converting the pixel value of the image signal, such as spatial processing or gradation processing.
In the visual processing method of the present invention, visual processing is performed using conversion means that provides a conversion relationship between the image signal and the processed signal and the visually processed output signal. For this reason, hardware or software other than the conversion means can be used for general purposes. That is, it is possible to employ a hardware configuration or software configuration that does not depend on the function of visual processing. For this reason, it is possible to reduce the cost of hardware, generalize software, and the like as incidental effects.

請求項44に記載の視覚処理プログラムは、コンピュータにより視覚処理方法を行うための視覚処理プログラムであって、入力信号処理ステップと、視覚処理ステップとを備える視覚処理方法をコンピュータに行わせるものである。入力信号処理ステップは、入力された画像信号に対して所定の処理を行い、処理信号を出力する。視覚処理ステップは、入力された画像信号および処理信号と、視覚処理された画像信号である出力信号との関係を与える変換手段に基づいて、入力された画像信号を変換し、出力信号を出力する。   The visual processing program according to claim 44 is a visual processing program for performing a visual processing method by a computer, and causes a computer to perform a visual processing method including an input signal processing step and a visual processing step. . The input signal processing step performs a predetermined process on the input image signal and outputs a processed signal. The visual processing step converts the input image signal and outputs the output signal based on conversion means for providing a relationship between the input image signal and the processed signal and the output signal which is the visually processed image signal. .

ここで、所定の処理とは、例えば、画像信号に対する直接的あるいは間接的な処理であって、空間処理や階調処理などの画像信号の画素値に変換を加える処理を含んでいる。
本発明の視覚処理プログラムでは、画像信号および処理信号と、視覚処理された出力信号との変換関係を与える変換手段を用いて視覚処理を行う。このため、変換手段以外のソフトを汎用的に用いることが可能となる。すなわち、視覚処理の機能に依存しないソフトウェア構成を採用することが可能となる。このため、付随的な効果として、ソフトウェアの汎用化などが可能となる。
Here, the predetermined processing is, for example, direct or indirect processing for the image signal, and includes processing for converting the pixel value of the image signal, such as spatial processing or gradation processing.
In the visual processing program of the present invention, visual processing is performed using conversion means that provides a conversion relationship between the image signal and the processed signal and the visually processed output signal. For this reason, software other than the conversion means can be used for general purposes. That is, it is possible to adopt a software configuration that does not depend on the function of visual processing. For this reason, the software can be generalized as an incidental effect.

請求項45に記載の集積回路は、請求項1〜42のいずれかに記載の視覚処理装置を含む。
本発明の集積回路では、請求項1〜42のいずれかに記載の視覚処理装置と同様の効果を得ることが可能となる。
An integrated circuit according to a 45th aspect includes the visual processing device according to any one of the 1st to 42nd aspects.
In the integrated circuit of the present invention, it is possible to obtain the same effect as that of the visual processing device according to any one of claims 1 to 42.

請求項46に記載の表示装置は、請求項1〜42のいずれかに記載の視覚処理装置と、視覚処理装置から出力される出力信号の表示を行う表示手段とを備えている。
本発明の表示装置では、請求項1〜42のいずれかに記載の視覚処理装置と同様の効果を得ることが可能となる。
A display device according to a forty-sixth aspect includes the visual processing device according to any one of the first to the forty-second aspects and display means for displaying an output signal output from the visual processing device.
In the display device of the present invention, it is possible to obtain the same effect as the visual processing device according to any one of claims 1 to 42.

請求項47に記載の撮影装置は、画像の撮影を行う撮影手段と、撮影手段により撮影された画像を画像信号として視覚処理を行う請求項1〜42のいずれかに記載の視覚処理装置とを備えている。
本発明の撮影装置では、請求項1〜42のいずれかに記載の視覚処理装置と同様の効果を得ることが可能となる。
An imaging device according to a 47th aspect includes: an imaging unit that captures an image; and the visual processing device according to any one of claims 1 to 42 that performs visual processing using an image captured by the imaging unit as an image signal. I have.
In the imaging device of the present invention, it is possible to obtain the same effect as the visual processing device according to any one of claims 1 to 42.

請求項48に記載の携帯情報端末は、通信あるいは放送された画像データを受信するデータ受信手段と、受信された画像データを画像信号として視覚処理を行う請求項1〜42のいずれかに記載の視覚処理装置と、視覚処理装置により視覚処理された画像信号の表示を行う表示手段とを備えている。   The portable information terminal according to claim 48, the data receiving means for receiving the image data that has been communicated or broadcasted, and visual processing using the received image data as an image signal. A visual processing device and display means for displaying an image signal visually processed by the visual processing device are provided.

本発明の携帯情報端末では、請求項1〜42のいずれかに記載の視覚処理装置と同様の効果を得ることが可能となる。
請求項49に記載の携帯情報端末は、画像の撮影を行う撮影手段と、撮影手段により撮影された画像を画像信号として視覚処理を行う請求項1〜42のいずれかに記載の視覚処
理装置と、視覚処理された画像信号を送信するデータ送信手段とを備えている。
In the portable information terminal of the present invention, it is possible to obtain the same effect as the visual processing device according to any one of claims 1 to 42.
49. A portable information terminal according to claim 49, a photographing means for photographing an image, and a visual processing device according to any one of claims 1-42, wherein visual processing is performed using an image photographed by the photographing means as an image signal. And data transmission means for transmitting the visually processed image signal.

本発明の携帯情報端末では、請求項1〜42のいずれかに記載の視覚処理装置と同様の効果を得ることが可能となる。   In the portable information terminal of the present invention, it is possible to obtain the same effect as the visual processing device according to any one of claims 1 to 42.

本発明の視覚処理装置により、実現される視覚処理に依存しないハード構成を有する視覚処理装置を提供することが可能となる。   According to the visual processing device of the present invention, it is possible to provide a visual processing device having a hardware configuration that does not depend on the visual processing to be realized.

以下、本発明の最良の形態としての第1〜第11実施形態について説明する。
第1実施形態では、2次元LUTを利用した視覚処理装置について説明する。
第2実施形態では、画像を表示する環境に環境光が存在する場合に環境光の補正を行う視覚処理装置について説明する。
Hereinafter, first to eleventh embodiments as the best mode of the present invention will be described.
In the first embodiment, a visual processing device using a two-dimensional LUT will be described.
In the second embodiment, a visual processing device that corrects ambient light when ambient light is present in an environment for displaying an image will be described.

第3実施形態では、第1実施形態および第2実施形態の応用例について説明する。
第4〜第6実施形態では、視覚的効果を向上させる階調処理を実現する視覚処理装置について説明する。
第7実施形態では、適切なボケ信号を用いて視覚処理を行う視覚処理装置について説明する。
In the third embodiment, application examples of the first embodiment and the second embodiment will be described.
In the fourth to sixth embodiments, a visual processing device that realizes gradation processing for improving the visual effect will be described.
In the seventh embodiment, a visual processing device that performs visual processing using an appropriate blur signal will be described.

第8実施形態では、第4〜第7実施形態の応用例について説明する。
第9実施形態では、第1〜第8実施形態の応用例について説明する。
第10実施形態では、上記実施形態の視覚処理装置の表示装置への応用例について説明する。
In the eighth embodiment, application examples of the fourth to seventh embodiments will be described.
In the ninth embodiment, application examples of the first to eighth embodiments will be described.
In the tenth embodiment, an application example of the visual processing device of the above embodiment to a display device will be described.

第11実施形態では、上記実施形態の視覚処理装置の撮影装置への応用例について説明する。
[第1実施形態]
図1〜図10を用いて、本発明の第1実施形態としての2次元LUTを利用した視覚処理装置1について説明する。また、図11〜図14を用いて、視覚処理装置の変形例について説明する。また、図15〜図23を用いて、視覚処理装置1と等価な視覚処理を実現する視覚処理装置について説明する。
In the eleventh embodiment, an application example of the visual processing device of the above embodiment to a photographing device will be described.
[First Embodiment]
A visual processing device 1 using a two-dimensional LUT as a first embodiment of the present invention will be described with reference to FIGS. Moreover, the modification of a visual processing apparatus is demonstrated using FIGS. 11-14. A visual processing device that realizes visual processing equivalent to the visual processing device 1 will be described with reference to FIGS. 15 to 23.

視覚処理装置1は、画像信号の空間処理、階調処理など視覚処理を行う装置である。視覚処理装置1は、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDA、プリンタ、スキャナなどの画像を取り扱う機器において、画像信号の色処理を行う装置とともに画像処理装置を構成する。   The visual processing device 1 is a device that performs visual processing such as spatial processing and gradation processing of an image signal. The visual processing device 1 constitutes an image processing device together with a device that performs color processing of an image signal in a device that handles images, such as a computer, a television, a digital camera, a mobile phone, a PDA, a printer, and a scanner.

〈視覚処理装置1〉
図1に、画像信号(入力信号IS)に視覚処理を行い視覚処理画像(出力信号OS)を出力する視覚処理装置1の基本構成を示す。視覚処理装置1は、入力信号ISとして取得した原画像の画素ごとの輝度値に空間処理を実行しアンシャープ信号USを出力する空間処理部2と、同じ画素についての入力信号ISとアンシャープ信号USとを用いて、原画像の視覚処理を行い、出力信号OSを出力する視覚処理部3とを備えている。
<Visual processing device 1>
FIG. 1 shows a basic configuration of a visual processing device 1 that performs visual processing on an image signal (input signal IS) and outputs a visually processed image (output signal OS). The visual processing device 1 performs spatial processing on the luminance value of each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and the input signal IS and unsharp signal for the same pixel. A visual processing unit 3 that performs visual processing of an original image using US and outputs an output signal OS is provided.

空間処理部2は、例えば、入力信号ISの低域空間のみを通過させる低域空間フィルタによりアンシャープ信号USを得る。低域空間フィルタとしては、アンシャープ信号の生成に通常用いられるFIR(Finite Impulse Respones)型の低域空間フィルタ、あるいはIIR(Infinite Impulse Respones)型の低域空間フィルタなどを用いてもよい。   The spatial processing unit 2 obtains the unsharp signal US using, for example, a low-pass spatial filter that passes only the low-pass space of the input signal IS. As the low-pass spatial filter, a FIR (Finite Impulse Response) -type low-pass spatial filter or an IIR (Infinite Impulse Response) -type low-pass spatial filter that is usually used for generating an unsharp signal may be used.

視覚処理部3は、入力信号ISおよびアンシャープ信号USと出力信号OSとの関係を与える2次元LUT4を有しており、入力信号ISとアンシャープ信号USとに対して、
2次元LUT4を参照して出力信号OSを出力する。
〈2次元LUT4〉
2次元LUT4には、プロファイルデータと呼ばれるマトリクスデータが登録される。プロファイルデータは、入力信号ISのそれぞれの画素値に対応する行(または列)とアンシャープ信号USのそれぞれの画素値に対応する列(または行)とを有しており、行列の要素として、入力信号ISとアンシャープ信号USとの組み合わせに対応する出力信号OSの画素値が格納されている。プロファイルデータは、視覚処理装置1に内蔵あるいは接続されるプロファイルデータ登録装置8により、2次元LUT4に登録される。プロファイルデータ登録装置8には、パーソナルコンピュータ(PC)等によりあらかじめ作成された複数のプロファイルデータが格納されている。例えば、コントラスト強調、Dレンジ圧縮処理、あるいは階調補正など(詳細は、下記〈プロファイルデータ〉の欄参照)を実現する複数のプロファイルデータが格納されている。これにより、視覚処理装置1では、プロファイルデータ登録装置8を用いて2次元LUT4のプロファイルデータの登録内容を変更し、様々な視覚処理を実現することが可能となる。
The visual processing unit 3 has a two-dimensional LUT 4 that gives the relationship between the input signal IS and the unsharp signal US and the output signal OS. For the input signal IS and the unsharp signal US,
An output signal OS is output with reference to the two-dimensional LUT4.
<2D LUT4>
Matrix data called profile data is registered in the two-dimensional LUT 4. The profile data has a row (or column) corresponding to each pixel value of the input signal IS and a column (or row) corresponding to each pixel value of the unsharp signal US. The pixel value of the output signal OS corresponding to the combination of the input signal IS and the unsharp signal US is stored. The profile data is registered in the two-dimensional LUT 4 by a profile data registration device 8 built in or connected to the visual processing device 1. The profile data registration device 8 stores a plurality of profile data created in advance by a personal computer (PC) or the like. For example, a plurality of profile data for realizing contrast enhancement, D range compression processing, gradation correction, and the like (for details, see the <Profile Data> column below) is stored. As a result, the visual processing device 1 can change the registered content of the profile data of the two-dimensional LUT 4 using the profile data registration device 8 to realize various visual processing.

プロファイルデータの一例を図2に示す。図2に示すプロファイルデータは、視覚処理装置1に、図108で示した視覚処理装置400と等価な処理を実現させるためのプロファイルデータである。図2において、プロファイルデータは、64×64のマトリクス形式で表現されており、列方向(縦方向)には8ビットで表現される入力信号ISの輝度値の上位6ビットの値が、行方向(横方向)には8ビットで表現されるアンシャープ信号USの輝度値の上位6ビットの値が示されている。また、2つの輝度値に対する行列の要素として出力信号OSの値が8ビットで示されている。   An example of profile data is shown in FIG. The profile data shown in FIG. 2 is profile data for causing the visual processing device 1 to realize processing equivalent to the visual processing device 400 shown in FIG. In FIG. 2, the profile data is expressed in a 64 × 64 matrix format, and the upper 6 bits of the luminance value of the input signal IS expressed in 8 bits in the column direction (vertical direction) is the row direction. In (horizontal direction), the upper 6 bits of the luminance value of the unsharp signal US expressed in 8 bits is shown. Further, the value of the output signal OS is indicated by 8 bits as an element of a matrix for two luminance values.

図2に示すプロファイルデータの各要素の値C(出力信号OSの値)は、入力信号ISの値A(例えば、8ビットで表現される入力信号ISの下位2ビットを切り捨てた値)とアンシャープ信号USの値B(例えば、8ビットで表現されるアンシャープ信号USの下位2ビットを切り捨てた値)とを用いて、C=A+0.5*(A−B)(以下、式M11という)で表現される。すなわち、視覚処理装置1では、強調関数R1(図109参照)を用いた視覚処理装置400(図108参照)と等価な処理が行われていることを示している。   The value C (value of the output signal OS) of each element of the profile data shown in FIG. 2 is the same as the value A of the input signal IS (for example, a value obtained by truncating the lower 2 bits of the input signal IS represented by 8 bits). Using the value B of the sharp signal US (for example, a value obtained by truncating the lower 2 bits of the unsharp signal US expressed in 8 bits), C = A + 0.5 * (AB) (hereinafter referred to as Expression M11) ). That is, the visual processing device 1 indicates that processing equivalent to that of the visual processing device 400 (see FIG. 108) using the enhancement function R1 (see FIG. 109) is being performed.

なお、入力信号ISの値Aとアンシャープ信号USの値Bとの値の組み合わせによっては、式M11で求められる値Cが負の値となることがある。この場合、入力信号ISの値Aとアンシャープ信号USの値Bとに対応するプロファイルデータの要素は、値0としてもよい。また、入力信号ISの値Aとアンシャープ信号USの値Bとの値の組み合わせによっては、式M11で求められる値Cが飽和してしまうことがある。すなわち、8ビットで表現できる最大値255を超えてしまうことがある。この場合、入力信号ISの値Aとアンシャープ信号USの値Bとに対応するプロファイルデータの要素は、値255としてもよい。図2では、このようにして求めたプロファイルデータの各要素を等高線表示している。   Depending on the combination of the value A of the input signal IS and the value B of the unsharp signal US, the value C obtained by the expression M11 may be a negative value. In this case, the elements of the profile data corresponding to the value A of the input signal IS and the value B of the unsharp signal US may be 0. Further, depending on the combination of the value A of the input signal IS and the value B of the unsharp signal US, the value C obtained by the equation M11 may be saturated. That is, the maximum value 255 that can be expressed by 8 bits may be exceeded. In this case, the element of the profile data corresponding to the value A of the input signal IS and the value B of the unsharp signal US may be the value 255. In FIG. 2, each element of the profile data obtained in this way is displayed in contour lines.

また、例えば、各要素の値Cが、C=R6(B)+R5(B)*(A−B)(以下、式M12という)で表現されるプロファイルデータを用いると、図110で示した視覚処理装置406と等価な処理を実現することが可能である。ここで、関数R5は、第1の変換部409においてアンシャープ信号USから増幅係数信号GSを出力する関数であり、関数R6は、第2の変換部411においてアンシャープ信号USから修正アンシャープ信号ASを出力する関数である。   For example, when the profile data represented by the value C of each element is represented by C = R6 (B) + R5 (B) * (AB) (hereinafter referred to as Expression M12), the visual shown in FIG. Processing equivalent to the processing device 406 can be realized. Here, the function R5 is a function for outputting the amplification coefficient signal GS from the unsharp signal US in the first conversion unit 409, and the function R6 is a function for outputting the unsharp signal US to the corrected unsharp signal in the second conversion unit 411. This function outputs AS.

さらに、各要素の値Cが、C=A+R8(B)(以下、式M13という)で表現されるプロファイルデータを用いると、図111で示した視覚処理装置416と等価な処理を実現することが可能である。ここで、関数R8は、アンシャープ信号USからLUT処理信
号LSを出力する関数である。
Furthermore, when profile data in which the value C of each element is expressed by C = A + R8 (B) (hereinafter referred to as Expression M13) is used, processing equivalent to that of the visual processing device 416 shown in FIG. 111 can be realized. Is possible. Here, the function R8 is a function for outputting the LUT processing signal LS from the unsharp signal US.

なお、式M12、式M13で求められるプロファイルデータのある要素の値Cが0≦C≦255の範囲を超える場合には、その要素の値Cを0又は255としてもよい。
〈視覚処理方法および視覚処理プログラム〉
図3に視覚処理装置1における視覚処理方法を説明するフローチャートを示す。図3に示す視覚処理方法は、視覚処理装置1においてハードウェアにより実現され、入力信号IS(図1参照)の視覚処理を行う方法である。
When the value C of an element in the profile data obtained by the expressions M12 and M13 exceeds the range of 0 ≦ C ≦ 255, the element value C may be set to 0 or 255.
<Visual processing method and visual processing program>
FIG. 3 shows a flowchart for explaining the visual processing method in the visual processing device 1. The visual processing method shown in FIG. 3 is realized by hardware in the visual processing device 1 and is a method for performing visual processing of the input signal IS (see FIG. 1).

図3に示す視覚処理方法では、入力信号ISは、低域空間フィルタにより空間処理され(ステップS11)、アンシャープ信号USが取得される。さらに、入力信号ISとアンシャープ信号USとに対する2次元LUT4の値が参照され、出力信号OSが出力される(ステップS12)。以上の処理が入力信号ISとして入力される画素毎に行われる。   In the visual processing method shown in FIG. 3, the input signal IS is spatially processed by a low-pass spatial filter (step S11), and an unsharp signal US is acquired. Further, the value of the two-dimensional LUT 4 for the input signal IS and the unsharp signal US is referred to, and the output signal OS is output (step S12). The above processing is performed for each pixel input as the input signal IS.

なお、図3に示す視覚処理方法のそれぞれのステップは、コンピュータなどにより、視覚処理プログラムとして実現されるものであっても良い。
〈効果〉
(1)
入力信号ISの値Aだけに基づいて視覚処理を行う場合に(例えば、1次元の階調変換曲線による変換を行う場合など)、画像中の異なる場所で同じ濃度の画素が存在すると、同じ明るさの変換が行われてしまう。より具体的には、画像中の人物の背景の暗い場所を明るくすると、同じ濃度の人物の髪の毛も明るくなる。
Note that each step of the visual processing method shown in FIG. 3 may be realized as a visual processing program by a computer or the like.
<effect>
(1)
When visual processing is performed based only on the value A of the input signal IS (for example, when conversion is performed using a one-dimensional gradation conversion curve), the same brightness is obtained when pixels with the same density exist in different locations in the image. The conversion will be performed. More specifically, when a dark place on the background of the person in the image is brightened, the hair of the person having the same density is also lightened.

それに比較して、視覚処理装置1では、入力信号ISの値Aとアンシャープ信号USの値Bとに対応する2次元の関数に基づいて作成されたプロファイルデータを用いて視覚処理を行う。このため、画像中の異なる場所に存在する同じ濃度の画素を、一様に変換するのでなく、周囲情報を含めて明るくしたり、暗くしたりすることができ、画像中の領域毎に最適な明るさの調整ができる。より具体的には、画像中の人物の髪の毛の濃度を変えずに、同じ濃度の背景を明るくすることができる。   In contrast, the visual processing device 1 performs visual processing using profile data created based on a two-dimensional function corresponding to the value A of the input signal IS and the value B of the unsharp signal US. For this reason, pixels of the same density that exist in different locations in the image can be made brighter or darker, including surrounding information, instead of being uniformly converted, which is optimal for each region in the image. Brightness can be adjusted. More specifically, the background of the same density can be brightened without changing the density of the human hair in the image.

(2)
視覚処理装置1では、2次元LUT4を用いて、入力信号ISの視覚処理を行う。視覚処理装置1は、実現される視覚処理効果に依存しないハードウェア構成を有している。すなわち、視覚処理装置1は、汎用性の有るハードウェアで構成することが可能であり、ハードウェアコストの削減などに有効である。
(2)
The visual processing device 1 uses the two-dimensional LUT 4 to perform visual processing of the input signal IS. The visual processing device 1 has a hardware configuration that does not depend on the visual processing effect to be realized. That is, the visual processing device 1 can be configured with versatile hardware, which is effective in reducing hardware costs.

(3)
2次元LUT4に登録されるプロファイルデータは、プロファイルデータ登録装置8により変更可能である。このため、視覚処理装置1では、視覚処理装置1のハードウェア構成を変更することなく、プロファイルデータを変更することにより、様々な視覚処理を実現することが可能となる。より具体的には、視覚処理装置1では、空間処理および階調処理を同時に実現することが可能となる。
(3)
The profile data registered in the two-dimensional LUT 4 can be changed by the profile data registration device 8. For this reason, in the visual processing device 1, various visual processing can be realized by changing the profile data without changing the hardware configuration of the visual processing device 1. More specifically, the visual processing device 1 can simultaneously realize spatial processing and gradation processing.

(4)
2次元LUT4の登録されるプロファイルデータは、あらかじめ算出しておくことが可能である。一旦作成されたプロファイルデータは、いかに複雑な処理を実現するものであっても、それを用いた視覚処理に要する時間は一定である。このため、ハードウェアあるいはソフトウェアで構成した場合には複雑な構成となる視覚処理であっても、視覚処理装置1を用いた場合には、視覚処理の複雑さに処理時間は依存せず、視覚処理の高速化を図ることが可能となる。
(4)
Profile data registered in the two-dimensional LUT 4 can be calculated in advance. No matter how complicated the profile data is once created, the time required for visual processing using the profile data is constant. For this reason, even if the visual processing has a complicated configuration when configured with hardware or software, the processing time does not depend on the complexity of the visual processing when the visual processing device 1 is used, It is possible to increase the processing speed.

〈変形例〉
(1)
図2では、64×64のマトリクス形式のプロファイルデータについて説明した。ここで、本発明の効果は、プロファイルデータのサイズに依存するものではない。例えば、2次元LUT4は、入力信号ISおよびアンシャープ信号USが取りうる全ての値の組み合わせに応じたプロファイルデータを有することも可能である。例えば、入力信号およびアンシャープ信号USが8ビットで表現される場合、プロファイルデータは、256×256のマトリクス形式であってもよい。
<Modification>
(1)
In FIG. 2, the 64 × 64 matrix profile data has been described. Here, the effect of the present invention does not depend on the size of the profile data. For example, the two-dimensional LUT 4 may have profile data corresponding to all combinations of values that can be taken by the input signal IS and the unsharp signal US. For example, when the input signal and the unsharp signal US are expressed by 8 bits, the profile data may be in a 256 × 256 matrix format.

この場合、2次元LUT4に必要なメモリ容量は増えるが、より正確な視覚処理を実現することが可能となる。
(2)
図2では、プロファイルデータは、8ビットで表現される入力信号ISの輝度値の上位6ビットの値と、8ビットで表現されるアンシャープ信号USの輝度値の上位6ビットの値とについての出力信号OSの値を格納していると説明した。ここで、視覚処理装置1は、隣接するプロファイルデータの要素と、入力信号ISおよびアンシャープ信号USの下位2ビットの大きさとに基づいて、出力信号OSの値を線形補間する補間部をさらに備えていても良い。
In this case, the memory capacity required for the two-dimensional LUT 4 increases, but more accurate visual processing can be realized.
(2)
In FIG. 2, the profile data includes the upper 6 bits of the luminance value of the input signal IS expressed in 8 bits and the upper 6 bits of the luminance value of the unsharp signal US expressed in 8 bits. It has been described that the value of the output signal OS is stored. Here, the visual processing device 1 further includes an interpolation unit that linearly interpolates the value of the output signal OS based on adjacent profile data elements and the magnitudes of the lower two bits of the input signal IS and the unsharp signal US. May be.

この場合、2次元LUT4に必要なメモリ容量を増やすことなく、より正確な視覚処理を実現することが可能となる。
また、補間部は、視覚処理部3に備えられ、2次元LUT4の格納する値を線形補間した値を出力信号OSとして出力するものであってもよい。
In this case, more accurate visual processing can be realized without increasing the memory capacity required for the two-dimensional LUT 4.
The interpolation unit may be provided in the visual processing unit 3 and output a value obtained by linearly interpolating the value stored in the two-dimensional LUT 4 as the output signal OS.

図4に、視覚処理部3の変形例として、補間部501を備える視覚処理部500を示す。視覚処理部500は、入力信号ISおよびアンシャープ信号USと補間前出力信号NSとの関係を与える2次元LUT4と、補間前出力信号NS、入力信号ISおよびアンシャープ信号USを入力とし、出力信号OSを出力する補間部501とを備えている。   FIG. 4 shows a visual processing unit 500 including an interpolation unit 501 as a modification of the visual processing unit 3. The visual processing unit 500 receives the input signal IS and the unsharp signal US and the pre-interpolation output signal NS and the pre-interpolation output signal NS, the pre-interpolation output signal NS, the input signal IS, and the unsharp signal US as input signals. And an interpolation unit 501 that outputs an OS.

2次元LUT4は、8ビットで表現される入力信号ISの輝度値の上位6ビットの値と、8ビットで表現されるアンシャープ信号USの輝度値の上位6ビットの値とについての補間前出力信号NSの値を格納している。補間前出力信号NSの値は、例えば、8ビットの値として格納されている。2次元LUT4は、入力信号ISの8ビット値とアンシャープ信号USの8ビット値とが入力されると、それぞれの値を含む区間に対応する4つの補間前出力信号NSの値を出力する。それぞれの値を含む区間とは、(入力信号ISの上位6ビットの値、アンシャープ信号USの上位6ビットの値)、(入力信号ISの上位6ビットの値を超える最小の6ビットの値、アンシャープ信号USの上位6ビットの値)、(入力信号ISの上位6ビットの値、アンシャープ信号USの上位6ビットの値を超える最小の6ビットの値)、(入力信号ISの上位6ビットの値を超える最小の6ビットの値、アンシャープ信号USの上位6ビットの値を超える最小の6ビットの値)のそれぞれの組み合わせに対して格納されている4つの補間前出力信号NSに囲まれる区間である。   The two-dimensional LUT 4 is a pre-interpolation output for the upper 6 bits of the luminance value of the input signal IS expressed in 8 bits and the upper 6 bits of the luminance value of the unsharp signal US expressed in 8 bits. The value of the signal NS is stored. The value of the output signal NS before interpolation is stored as an 8-bit value, for example. When the 8-bit value of the input signal IS and the 8-bit value of the unsharp signal US are input, the two-dimensional LUT 4 outputs the values of the four pre-interpolation output signals NS corresponding to the sections including these values. The section including each value is (the upper 6-bit value of the input signal IS, the upper 6-bit value of the unsharp signal US), or the minimum 6-bit value exceeding the upper 6-bit value of the input signal IS. , The upper 6 bits of the unsharp signal US), (the upper 6 bits of the input signal IS, and the minimum 6 bits exceeding the upper 6 bits of the unsharp signal US), The four pre-interpolation output signals NS stored for each combination of the minimum 6-bit value exceeding the 6-bit value and the minimum 6-bit value exceeding the upper 6-bit value of the unsharp signal US) It is a section surrounded by.

補間部501には、入力信号ISの下位2ビットの値とアンシャープ信号USの下位2ビットの値とが入力され、これらの値を用いて、2次元LUT4が出力した4つの補間前出力信号NSの値が線形補間される。より具体的には、入力信号ISの下位2ビットの値とアンシャープ信号USの下位2ビットの値とを用いて、4つの補間前出力信号NSの値の加重平均を計算し、出力信号OSが出力される。   The interpolation unit 501 receives the lower 2 bits of the input signal IS and the lower 2 bits of the unsharp signal US, and uses these values to output four pre-interpolation output signals output by the two-dimensional LUT 4. NS values are linearly interpolated. More specifically, the weighted average of the values of the four pre-interpolation output signals NS is calculated using the lower 2 bits of the input signal IS and the lower 2 bits of the unsharp signal US, and the output signal OS Is output.

以上により、2次元LUT4に必要なメモリ容量を増やすことなく、より正確な視覚処理を実現することが可能となる。
なお、補間部501では、入力信号ISあるいはアンシャープ信号USのいずれか一方についてのみ線形補間を行うものでもよい。
As described above, more accurate visual processing can be realized without increasing the memory capacity required for the two-dimensional LUT 4.
Note that the interpolation unit 501 may perform linear interpolation only for either the input signal IS or the unsharp signal US.

(3)
空間処理部2で行われる空間処理では、着目画素についての入力信号ISに対して、着目画素と着目画素の周辺画素との入力信号ISの平均値(単純平均または加重平均)、最大値、最小値、あるいは中央値をアンシャープ信号USとして出力するものであっても良い。また、着目画素の周辺画素のみの平均値、最大値、最小値、あるいは中央値をアンシャープ信号USとして出力するものであってもよい。
(3)
In the spatial processing performed by the spatial processing unit 2, the average value (simple average or weighted average), maximum value, minimum value of the input signal IS between the target pixel and the peripheral pixels of the target pixel with respect to the input signal IS for the target pixel. A value or a median value may be output as the unsharp signal US. Alternatively, an average value, maximum value, minimum value, or median value of only the peripheral pixels of the target pixel may be output as the unsharp signal US.

(4)
図2では、プロファイルデータの各要素の値Cは、入力信号ISの値Aとアンシャープ信号USの値Bとのそれぞれに対して線形の関数M11に基づいて作成されている。一方、プロファイルデータの各要素の値Cは、入力信号ISの値Aに対して非線形の関数に基づいて作成されていても良い。
(4)
In FIG. 2, the value C of each element of the profile data is created based on a linear function M11 with respect to each of the value A of the input signal IS and the value B of the unsharp signal US. On the other hand, the value C of each element of the profile data may be created based on a non-linear function with respect to the value A of the input signal IS.

この場合、例えば、視覚特性に応じた視覚処理の実現や出力信号OSを出力するコンピュータ、テレビ、デジタルカメラ、携帯電話、PDA、プリンタ、スキャナなどの画像を取り扱う機器の非線形特性に適切な視覚処理を実現することが可能となる。
また、プロファイルデータの各要素の値Cは、入力信号ISの値Aとアンシャープ信号USの値Bとのそれぞれに対して非線形の関数、すなわち2次元非線形の関数に基づいて作成されていてもよい。
In this case, for example, visual processing suitable for the nonlinear characteristics of a device that handles images such as a computer, a television, a digital camera, a mobile phone, a PDA, a printer, and a scanner that realizes visual processing according to visual characteristics and outputs an output signal OS. Can be realized.
Further, the value C of each element of the profile data may be created based on a nonlinear function, that is, a two-dimensional nonlinear function, with respect to each of the value A of the input signal IS and the value B of the unsharp signal US. Good.

例えば、入力信号ISの値Aだけに基づいて視覚処理を行う場合に(例えば、1次元の階調変換曲線による変換を行う場合など)、画像中の異なる場所で同じ濃度の画素が存在すると、同じ明るさの変換が行われる。より具体的には、画像中の人物の背景の暗い場所を明るくすると、同じ濃度の人物の髪の毛も明るくなる。   For example, when visual processing is performed based only on the value A of the input signal IS (for example, when conversion is performed using a one-dimensional gradation conversion curve), pixels having the same density exist at different locations in the image. The same brightness conversion is performed. More specifically, when a dark place on the background of the person in the image is brightened, the hair of the person having the same density is also lightened.

一方、2次元非線形の関数に基づいて作成されたプロファイルデータを用いて視覚処理を行う場合、画像中の異なる場所に存在する同じ濃度の画素を、一様に変換するのでなく、周囲情報を含めて明るくしたり、暗くしたりすることができ、画像中の領域毎に最適な明るさの調整ができる。より具体的には、画像中の人物の髪の毛の濃度を変えずに、同じ濃度の背景を明るくすることが可能となる。さらに、線形の関数に基づく視覚処理では処理後の画素値が飽和してしまうような画素領域についても、階調を維持した視覚処理を行うことなどが可能となる。   On the other hand, when visual processing is performed using profile data created based on a two-dimensional non-linear function, pixels of the same density existing at different locations in the image are not uniformly converted but include ambient information. Can be made brighter or darker, and the optimum brightness can be adjusted for each area in the image. More specifically, it is possible to brighten the background of the same density without changing the density of the human hair in the image. Furthermore, visual processing based on a linear function can perform visual processing that maintains gradation even for pixel regions in which pixel values after processing are saturated.

このようなプロファイルデータの一例を図5に示す。図5に示すプロファイルデータは、視覚処理装置1に、視覚特性にあったコントラスト強調を実現させるためのプロファイルデータである。図5において、プロファイルデータは、64×64のマトリクス形式で表現されており、列方向(縦方向)には8ビットで表現される入力信号ISの輝度値の上位6ビットの値が、行方向(横方向)には8ビットで表現されるアンシャープ信号USの輝度値の上位6ビットの値が示されている。また、2つの輝度値に対する行列の要素として出力信号OSの値が8ビットで示されている。   An example of such profile data is shown in FIG. The profile data shown in FIG. 5 is profile data for causing the visual processing device 1 to realize contrast enhancement suitable for visual characteristics. In FIG. 5, the profile data is expressed in a 64 × 64 matrix format, and the upper 6 bits of the luminance value of the input signal IS expressed in 8 bits in the column direction (vertical direction) is the row direction. In (horizontal direction), the upper 6 bits of the luminance value of the unsharp signal US expressed in 8 bits is shown. Further, the value of the output signal OS is indicated by 8 bits as an element of a matrix for two luminance values.

図5に示すプロファイルデータの各要素の値C(出力信号OSの値)は、入力信号ISの値A(例えば、8ビットで表現される入力信号ISの下位2ビットを切り捨てた値)、アンシャープ信号USの値B(例えば、8ビットで表現されるアンシャープ信号USの下位2ビットを切り捨てた値)、変換関数F1、変換関数の逆変換関数F2、強調関数F3を用いて、C=F2(F1(A)+F3(F1(A)−F1(B)))(以下、式M14という)と表される。ここで、変換関数F1は、常用対数関数である。逆変換関数F2は、常用対数関数の逆関数としての指数関数(アンチログ)である。強調関数F3は、図109を用いて説明した強調関数R1〜R3のいずれかの関数である。   The value C of each element of the profile data shown in FIG. 5 (value of the output signal OS) is the value A of the input signal IS (for example, a value obtained by truncating the lower 2 bits of the input signal IS expressed in 8 bits), Using the value B of the sharp signal US (for example, a value obtained by truncating the lower 2 bits of the unsharp signal US expressed in 8 bits), the conversion function F1, the inverse conversion function F2 of the conversion function, and the enhancement function F3, C = F2 (F1 (A) + F3 (F1 (A) -F1 (B))) (hereinafter referred to as Formula M14). Here, the conversion function F1 is a common logarithmic function. The inverse transformation function F2 is an exponential function (antilog) as an inverse function of the common logarithmic function. The enhancement function F3 is one of the enhancement functions R1 to R3 described with reference to FIG.

このプロファイルデータでは、変換関数F1により対数空間に変換された入力信号ISおよびアンシャープ信号USを用いた視覚処理が実現される。人間の視覚特性は、対数的
であり、対数空間に変換して処理を行うことで視覚特性に適した視覚処理が実現される。これにより、視覚処理装置1では、対数空間におけるコントラスト強調が実現される。
With this profile data, visual processing using the input signal IS and the unsharp signal US converted to the logarithmic space by the conversion function F1 is realized. Human visual characteristics are logarithmic, and visual processing suitable for the visual characteristics is realized by performing processing after conversion to logarithmic space. Thereby, in the visual processing device 1, contrast enhancement in the logarithmic space is realized.

なお、入力信号ISの値Aとアンシャープ信号USの値Bとの値の組み合わせによっては、式M14で求められる値Cが負の値となることがある。この場合、入力信号ISの値Aとアンシャープ信号USの値Bとに対応するプロファイルデータの要素は、値0としてもよい。また、入力信号ISの値Aとアンシャープ信号USの値Bとの値の組み合わせによっては、式M14で求められる値Cが飽和してしまうことがある。すなわち、8ビットで表現できる最大値255を超えてしまうことがある。この場合、入力信号ISの値Aとアンシャープ信号USの値Bとに対応するプロファイルデータの要素は、値255としてもよい。図5では、このようにして求めたプロファイルデータの各要素を等高線表示している。   Depending on the combination of the value A of the input signal IS and the value B of the unsharp signal US, the value C obtained by the equation M14 may be a negative value. In this case, the elements of the profile data corresponding to the value A of the input signal IS and the value B of the unsharp signal US may be 0. Further, depending on the combination of the value A of the input signal IS and the value B of the unsharp signal US, the value C obtained by the equation M14 may be saturated. That is, the maximum value 255 that can be expressed by 8 bits may be exceeded. In this case, the element of the profile data corresponding to the value A of the input signal IS and the value B of the unsharp signal US may be the value 255. In FIG. 5, each element of the profile data obtained in this way is displayed in contour lines.

非線形のプロファイルデータについてのさらに詳しい説明は、下記〈プロファイルデータ〉で行う。
(5)
2次元LUT4が備えるプロファイルデータは、入力信号ISの階調補正を実現する階調変換曲線(ガンマ曲線)を複数含んでいるものであってもよい。
A more detailed description of the non-linear profile data will be given in <Profile Data> below.
(5)
The profile data provided in the two-dimensional LUT 4 may include a plurality of gradation conversion curves (gamma curves) that realize gradation correction of the input signal IS.

それぞれの階調変換曲線は、例えば、異なるガンマ係数を有するガンマ関数など、単調増加関数であり、アンシャープ信号USの値に対して関連付けられている。関連付けは、例えば、小さいアンシャープ信号USの値に対して、大きいガンマ係数を有するガンマ関数が選択されるよう行われている。これにより、アンシャープ信号USは、プロファイルデータが含む階調変換曲線群から少なくとも1つの階調変換曲線を選択するための選択信号としての役割を果たしている。   Each tone conversion curve is a monotonically increasing function, such as a gamma function having a different gamma coefficient, and is associated with the value of the unsharp signal US. The association is performed such that, for example, a gamma function having a large gamma coefficient is selected for a value of a small unsharp signal US. Thus, the unsharp signal US serves as a selection signal for selecting at least one gradation conversion curve from the gradation conversion curve group included in the profile data.

以上の構成により、アンシャープ信号USの値Bにより選択された階調変換曲線を用いて、入力信号ISの値Aの階調変換が行われる。
なお、上記(2)で説明したのと同様に2次元LUT4の出力を補間することも可能である。
With the above configuration, gradation conversion of the value A of the input signal IS is performed using the gradation conversion curve selected by the value B of the unsharp signal US.
Note that it is also possible to interpolate the output of the two-dimensional LUT 4 in the same manner as described in (2) above.

(6)
プロファイルデータ登録装置8は、視覚処理装置1に内蔵あるいは接続され、PC等によりあらかじめ作成された複数のプロファイルデータを格納しており、2次元LUT4の登録内容を変更すると説明した。
(6)
It has been described that the profile data registration device 8 is built in or connected to the visual processing device 1 and stores a plurality of profile data created in advance by a PC or the like, and changes the registered contents of the two-dimensional LUT 4.

ここで、プロファイルデータ登録装置8が格納するプロファイルデータは、視覚処理装置1の外部に設置されるPCにより作成されている。プロファイルデータ登録装置8は、ネットワークを介して、あるいは記録媒体を介して、PCからプロファイルデータを取得する。   Here, the profile data stored in the profile data registration device 8 is created by a PC installed outside the visual processing device 1. The profile data registration device 8 acquires profile data from a PC via a network or a recording medium.

プロファイルデータ登録装置8は、格納する複数のプロファイルデータを所定の条件に従って2次元LUT4に登録する。図6〜図8を用いて、詳しく説明する。なお、図1を用いて説明した視覚処理装置1とほぼ同様の機能を有する部分については、同じ符号を付し説明を省略する。   The profile data registration device 8 registers a plurality of profile data to be stored in the two-dimensional LUT 4 according to a predetermined condition. This will be described in detail with reference to FIGS. In addition, about the part which has the function similar to the visual processing apparatus 1 demonstrated using FIG. 1, the same code | symbol is attached | subjected and description is abbreviate | omitted.

《1》
図6に、入力信号ISの画像を判定し、判定結果に基づいて、2次元LUT4に登録するプロファイルデータを切り替える視覚処理装置520のブロック図を示す。
視覚処理装置520は、図1に示した視覚処理装置1と同様の構造に加え、プロファイルデータ登録装置8と同様の機能を備えるプロファイルデータ登録部521を備えている。さらに、視覚処理装置520は、画像判定部522を備えている。
<< 1 >>
FIG. 6 shows a block diagram of a visual processing device 520 that determines an image of the input signal IS and switches profile data to be registered in the two-dimensional LUT 4 based on the determination result.
The visual processing device 520 includes a profile data registration unit 521 having the same function as that of the profile data registration device 8 in addition to the same structure as the visual processing device 1 shown in FIG. Furthermore, the visual processing device 520 includes an image determination unit 522.

画像判定部522は、入力信号ISを入力とし、入力信号ISの判定結果SAを出力とする。プロファイルデータ登録部521は、判定結果SAを入力とし、判定結果SAに基
づいて選択されたプロファイルデータPDを出力とする。
画像判定部522は、入力信号ISの画像を判定する。画像の判定では、入力信号ISの輝度、明度などの画素値を取得することにより、入力信号ISの明るさが判定される。
The image determination unit 522 receives the input signal IS and outputs the determination result SA of the input signal IS. The profile data registration unit 521 receives the determination result SA and outputs the profile data PD selected based on the determination result SA.
The image determination unit 522 determines an image of the input signal IS. In the image determination, the brightness of the input signal IS is determined by acquiring pixel values such as the luminance and brightness of the input signal IS.

プロファイルデータ登録部521は、判定結果SAを取得し、判定結果SAに基づいて、プロファイルデータPDを切り替えて出力する。より具体的には、例えば、入力信号ISが明るいと判定される場合には、ダイナミックレンジを圧縮するプロファイルなどが選択される。これにより、全体的に明るい画像に対してもコントラストを維持することが可能となる。また、出力信号OSを表示する装置の特性を考慮して、適切なダイナミックレンジの出力信号OSが出力されるようなプロファイルが選択される。   The profile data registration unit 521 acquires the determination result SA, and switches and outputs the profile data PD based on the determination result SA. More specifically, for example, when it is determined that the input signal IS is bright, a profile for compressing the dynamic range is selected. As a result, it is possible to maintain contrast even for an overall bright image. In addition, a profile that outputs an output signal OS having an appropriate dynamic range is selected in consideration of the characteristics of the device that displays the output signal OS.

以上により、視覚処理装置520では、入力信号ISに応じて、適切な視覚処理を実現することが可能となる。
なお、画像判定部522は、入力信号ISの輝度、明度などの画素値だけでなく、空間周波数などの画像特性を判定するものであってもよい。
As described above, the visual processing device 520 can realize appropriate visual processing in accordance with the input signal IS.
Note that the image determination unit 522 may determine not only pixel values such as luminance and brightness of the input signal IS but also image characteristics such as spatial frequency.

この場合、例えば、空間周波数が低い入力信号ISに対して、鮮鋭さを強調する度合いがより高いプロファイルが選択されるなど、より適切な視覚処理を実現することが可能となる。
《2》
図7に、明るさに関する条件を入力するための入力装置からの入力結果に基づいて、2次元LUT4に登録するプロファイルデータを切り替える視覚処理装置525のブロック図を示す。
In this case, for example, it is possible to realize more appropriate visual processing such as selecting a profile with a higher degree of sharpness enhancement for the input signal IS having a low spatial frequency.
<< 2 >>
FIG. 7 shows a block diagram of a visual processing device 525 that switches profile data to be registered in the two-dimensional LUT 4 based on an input result from an input device for inputting conditions relating to brightness.

視覚処理装置525は、図1に示した視覚処理装置1と同様の構造に加え、プロファイルデータ登録装置8と同様の機能を備えるプロファイルデータ登録部526を備えている。さらに、視覚処理装置525は、入力装置527を有線または無線により接続して備えている。より具体的には、入力装置527は、出力信号OSを出力するコンピュータ、テレビ、デジタルカメラ、携帯電話、PDA、プリンタ、スキャナなど、画像を取り扱う機器自体に備えられる入力ボタンあるいはそれぞれの機器のリモコンなどとして実現される。   The visual processing device 525 includes a profile data registration unit 526 having the same function as the profile data registration device 8 in addition to the structure similar to that of the visual processing device 1 shown in FIG. Further, the visual processing device 525 includes an input device 527 connected by wire or wirelessly. More specifically, the input device 527 is an input button provided on a device itself that handles images, such as a computer, a television, a digital camera, a mobile phone, a PDA, a printer, or a scanner that outputs an output signal OS, or a remote controller for each device. And so on.

入力装置527は、明るさに関する条件を入力するための入力装置であり、例えば、「明るい」「暗い」などのスイッチを備えている。入力装置527は、ユーザの操作により、入力結果SBを出力する。
プロファイルデータ登録部526は、入力結果SBを取得し、入力結果SBに基づいて、プロファイルデータPDを切り替えて出力する。より具体的には、例えば、ユーザが「明るい」と入力した場合には、入力信号ISのダイナミックレンジを圧縮するプロファイルなどを選択し、プロファイルデータPDとして出力する。これにより、出力信号OSを表示する装置が置かれている環境が「明るい」状態にある場合でも、コントラストを維持することが可能となる。
The input device 527 is an input device for inputting conditions relating to brightness, and includes switches such as “bright” and “dark”, for example. The input device 527 outputs an input result SB by a user operation.
The profile data registration unit 526 acquires the input result SB, and switches and outputs the profile data PD based on the input result SB. More specifically, for example, when the user inputs “bright”, a profile for compressing the dynamic range of the input signal IS is selected and output as profile data PD. This makes it possible to maintain the contrast even when the environment where the device that displays the output signal OS is placed is in a “bright” state.

以上により、視覚処理装置525では、入力装置527からの入力に応じて、適切な視覚処理を実現することが可能となる。
なお、明るさに関する条件とは、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDAなど出力信号を出力する媒体周辺の環境光の明るさに関する条件だけでなく、例えば、プリンタ用紙など出力信号を出力する媒体自体の明るさに関する条件であっても良い。また、例えば、スキャナ用紙など入力信号を入力する媒体自体の明るさなどに関する条件であっても良い。
As described above, the visual processing device 525 can realize appropriate visual processing according to the input from the input device 527.
Note that the conditions relating to brightness include not only conditions relating to the brightness of ambient light around a medium that outputs an output signal such as a computer, a television, a digital camera, a mobile phone, and a PDA, but also an output signal such as printer paper is output. Conditions relating to the brightness of the medium itself may be used. In addition, for example, conditions relating to the brightness of the medium itself for inputting an input signal such as scanner paper may be used.

また、これらは、スイッチなどによる入力だけでなく、フォトセンサなどにより自動的
に入力されるものであっても良い。
なお、入力装置527は、明るさに関する条件を入力するだけでなく、プロファイルデータ登録部526に対して、直接プロファイルの切り替えを動作させるための装置であってもよい。この場合、入力装置527は、明るさに関する条件以外に、プロファイルデータのリストを表示し、ユーザに選択させるものであっても良い。
These may be automatically input by a photo sensor or the like as well as input by a switch or the like.
Note that the input device 527 may be a device that not only inputs the conditions related to brightness, but also causes the profile data registration unit 526 to directly switch the profile. In this case, the input device 527 may display a list of profile data and allow the user to select other than the conditions related to brightness.

これにより、ユーザは、好みに応じた視覚処理を実行することが可能となる。
なお、入力装置527は、ユーザを識別する装置であっても良い。この場合、入力装置527は、ユーザを識別するためのカメラ、あるいは、ユーザ名を入力させるための装置であっても良い。
Thereby, the user can execute visual processing according to his / her preference.
Note that the input device 527 may be a device that identifies a user. In this case, the input device 527 may be a camera for identifying a user or a device for inputting a user name.

例えば、入力装置527により、ユーザが子供であると入力された場合には、過度の輝度変化を抑制するプロファイルデータなどが選択される。
これにより、ユーザに応じた視覚処理を実現することが可能となる。
《3》
図8に、2種類の明るさを検出するための明度検出部からの検出結果に基づいて2次元LUT4に登録するプロファイルデータを切り替える視覚処理装置530のブロック図を示す。
For example, when the input device 527 inputs that the user is a child, profile data that suppresses an excessive change in luminance is selected.
As a result, visual processing according to the user can be realized.
<< 3 >>
FIG. 8 shows a block diagram of a visual processing device 530 that switches profile data to be registered in the two-dimensional LUT 4 based on detection results from a brightness detection unit for detecting two types of brightness.

視覚処理装置530は、図1に示した視覚処理装置1と同様の構造に加え、プロファイルデータ登録装置8と同様の機能を備えるプロファイルデータ登録部531を備えている。さらに、視覚処理装置530は、明度検出部532を備えている。
明度検出部532は、画像判定部522と、入力装置527とから構成される。画像判定部522および入力装置527は、図6,図7を用いて説明したのと同様である。これにより、明度検出部532は、入力信号ISを入力とし、画像判定部522からの判定結果SAと、入力装置527からの入力結果SBとを検出結果として出力する。
The visual processing device 530 includes a profile data registration unit 531 having the same function as that of the profile data registration device 8 in addition to the same structure as the visual processing device 1 shown in FIG. Further, the visual processing device 530 includes a brightness detection unit 532.
The brightness detection unit 532 includes an image determination unit 522 and an input device 527. The image determination unit 522 and the input device 527 are the same as described with reference to FIGS. Thereby, the lightness detection unit 532 receives the input signal IS and outputs the determination result SA from the image determination unit 522 and the input result SB from the input device 527 as detection results.

プロファイルデータ登録部531は、判定結果SAと入力結果SBとを入力とし、判定結果SAと入力結果SBとに基づいて、プロファイルデータPDを切り替えて出力する。より具体的には、例えば、環境光が「明るい」状態にあって、さらに入力信号ISも明るいと判定される場合、入力信号ISのダイナミックレンジを圧縮するプロファイルなどを選択し、プロファイルデータPDとして出力する。これにより、出力信号OSを表示する際に、コントラストを維持することが可能となる。   The profile data registration unit 531 receives the determination result SA and the input result SB, and switches and outputs the profile data PD based on the determination result SA and the input result SB. More specifically, for example, when the ambient light is in a “bright” state and the input signal IS is also determined to be bright, a profile or the like for compressing the dynamic range of the input signal IS is selected as the profile data PD. Output. This makes it possible to maintain contrast when displaying the output signal OS.

以上により、視覚処理装置530では、適切な視覚処理を実現することが可能となる。
《4》
図6〜図8の視覚処理装置において、それぞれのプロファイルデータ登録部は、視覚処理装置と一体として備えられていなくてもよい。具体的には、プロファイルデータ登録部は、プロファイルデータを複数備えるサーバとして、あるいはそれぞれのプロファイルデータを備える複数のサーバとして、ネットワークを介して視覚処理装置と接続されているものでも良い。ここで、ネットワークとは、例えば、専用回線、公衆回線、インターネット、LANなどの通信が可能な接続手段であり、有線であっても無線であってもよい。またこの場合、判定結果SAや入力結果SBも、同様のネットワークを介して視覚処理装置側からプロファイルデータ登録部側に伝えられる。
As described above, the visual processing device 530 can realize appropriate visual processing.
<< 4 >>
In the visual processing devices of FIGS. 6 to 8, each profile data registration unit may not be provided integrally with the visual processing device. Specifically, the profile data registration unit may be connected to the visual processing device via a network as a server including a plurality of profile data or as a plurality of servers including the respective profile data. Here, the network is a connection means capable of communication such as a dedicated line, a public line, the Internet, and a LAN, and may be wired or wireless. In this case, the determination result SA and the input result SB are also transmitted from the visual processing device side to the profile data registration unit side through the same network.

(7)
上記実施形態では、プロファイルデータ登録装置8が複数のプロファイルデータを備え、2次元LUT4への登録を切り替えることにより、異なる視覚処理を実現すると説明した。
(7)
In the above-described embodiment, it has been described that the profile data registration device 8 includes a plurality of profile data and realizes different visual processing by switching registration to the two-dimensional LUT 4.

ここで、視覚処理装置1は、異なる視覚処理を実現するプロファイルデータが登録される複数の2次元LUTを備えるものであってもよい。この場合、視覚処理装置1では、そ
れぞれの2次元LUTへの入力を切り替えることにより、あるいはそれぞれの2次元LUTからの出力を切り替えることにより、異なる視覚処理を実現するものであっても良い。
Here, the visual processing device 1 may include a plurality of two-dimensional LUTs in which profile data for realizing different visual processing is registered. In this case, the visual processing device 1 may realize different visual processing by switching the input to each two-dimensional LUT or by switching the output from each two-dimensional LUT.

この場合、2次元LUTのために確保すべき記憶容量は増大するが、視覚処理の切り替えに必要な時間が短縮可能となる。
また、プロファイルデータ登録装置8は、複数のプロファイルデータに基づいて新たなプロファイルデータを生成し、生成されたプロファイルデータを2次元LUT4に登録する装置であっても良い。
In this case, the storage capacity to be secured for the two-dimensional LUT increases, but the time required for switching the visual processing can be shortened.
Further, the profile data registration device 8 may be a device that generates new profile data based on a plurality of profile data and registers the generated profile data in the two-dimensional LUT 4.

これに関し、図9〜図10を用いて説明を加える。
図9は、プロファイルデータ登録装置8の変形例としてのプロファイルデータ登録装置701について主に説明するブロック図である。プロファイルデータ登録装置701は、視覚処理装置1の2次元LUT4に登録されるプロファイルデータを切り替えるための装置である。
This will be described with reference to FIGS.
FIG. 9 is a block diagram mainly illustrating a profile data registration device 701 as a modification of the profile data registration device 8. The profile data registration device 701 is a device for switching profile data registered in the two-dimensional LUT 4 of the visual processing device 1.

プロファイルデータ登録装置701は、複数のプロファイルデータが登録されるプロファイルデータ登録部702と、複数のプロファイルデータに基づいて新たなプロファイルデータを生成するプロファイル作成実行部703と、新たなプロファイルデータを生成するためのパラメータを入力するためのパラメータ入力部706と、各部の制御を行う制御部705とから構成されている。   The profile data registration device 701 generates a new profile data, a profile data registration unit 702 that registers a plurality of profile data, a profile creation execution unit 703 that generates new profile data based on the plurality of profile data, and the like. A parameter input unit 706 for inputting parameters for the control, and a control unit 705 for controlling each unit.

プロファイルデータ登録部702には、プロファイルデータ登録装置8あるいは図6〜図8に示すそれぞれのプロファイルデータ登録部と同様に複数のプロファイルデータが登録されており、制御部705からの制御信号C10により選択された選択プロファイルデータの読み出しを行う。ここで、プロファイルデータ登録部702からは2つの選択プロファイルデータが読み出されるとし、それぞれを第1の選択プロファイルデータd10および第2の選択プロファイルデータd11とする。   A plurality of profile data are registered in the profile data registration unit 702 in the same manner as the profile data registration device 8 or each of the profile data registration units shown in FIGS. 6 to 8, and are selected by a control signal C10 from the control unit 705. The selected selection profile data is read out. Here, it is assumed that two selection profile data are read from the profile data registration unit 702, which are first selection profile data d10 and second selection profile data d11, respectively.

プロファイルデータ登録部702から読み出されるプロファイルデータは、パラメータ入力部706の入力により決定される。例えば、パラメータ入力部706では、所望される視覚処理効果、その処理度合い、処理された画像の視環境に関する情報などがパラメータとして、手動により、あるいはセンサなどから自動により、入力される。制御部705は、パラメータ入力部706により入力されたパラメータから読み出すべきプロファイルデータを制御信号c10により指定するとともに、それぞれのプロファイルデータの合成度の値を制御信号c12により指定する。   Profile data read from the profile data registration unit 702 is determined by an input from the parameter input unit 706. For example, in the parameter input unit 706, a desired visual processing effect, the degree of processing, information on the visual environment of the processed image, and the like are input as parameters manually or automatically from a sensor or the like. The control unit 705 specifies the profile data to be read from the parameter input by the parameter input unit 706 by the control signal c10, and specifies the value of the degree of synthesis of the respective profile data by the control signal c12.

プロファイル作成実行部703は、第1の選択プロファイルデータd10および第2の選択プロファイルデータd11から新たなプロファイルデータである生成プロファイルデータd6を作成するプロファイル生成部704を備えている。
プロファイル生成部704は、プロファイルデータ登録部702から第1の選択プロファイルデータd10および第2の選択プロファイルデータd11を取得する。さらに、制御部705からそれぞれの選択プロファイルデータの合成度を指定する制御信号c12を取得する。
The profile creation execution unit 703 includes a profile creation unit 704 that creates generation profile data d6 that is new profile data from the first selection profile data d10 and the second selection profile data d11.
The profile generation unit 704 acquires the first selection profile data d10 and the second selection profile data d11 from the profile data registration unit 702. Further, a control signal c12 that specifies the degree of synthesis of each selected profile data is acquired from the control unit 705.

さらに、プロファイル生成部704は、第1の選択プロファイルデータd10の値[m]および第2の選択プロファイルデータd11の値[n]に対して、制御信号c12が指定する合成度の値[k]を用いて、値[l]の生成プロファイルデータd6を作成する。ここで、値[l]は、[l]=(1−k)*[m]+k*[n]により計算される。なお、値[k]が0≦k≦1を満たす場合には、第1の選択プロファイルデータd10と第2の選択プロファイルデータd11とは内分され、値[k]がk<0またはk>1を満たす場合には、第1の選択プロファイルデータd10と第2の選択プロファイルデータd11とは外分されることとなる。   Further, the profile generation unit 704 generates the value [k] of the degree of synthesis specified by the control signal c12 with respect to the value [m] of the first selection profile data d10 and the value [n] of the second selection profile data d11. Is used to create generation profile data d6 of value [l]. Here, the value [l] is calculated by [l] = (1−k) * [m] + k * [n]. When the value [k] satisfies 0 ≦ k ≦ 1, the first selection profile data d10 and the second selection profile data d11 are internally divided, and the value [k] is k <0 or k>. When 1 is satisfied, the first selection profile data d10 and the second selection profile data d11 are separated.

2次元LUT4は、プロファイル生成部704が生成する生成プロファイルデータd6を取得し、取得した値を制御部705のカウント信号c11が指定するアドレスに格納する。ここで、生成プロファイルデータd6は、生成プロファイルデータd6を作成するのに用いられたそれぞれの選択プロファイルデータが関連づけられているのと同じ画像信号値に関連づけられる。   The two-dimensional LUT 4 acquires the generation profile data d6 generated by the profile generation unit 704, and stores the acquired value at the address specified by the count signal c11 of the control unit 705. Here, the generation profile data d6 is associated with the same image signal value with which each selection profile data used to create the generation profile data d6 is associated.

以上により、例えば、異なる視覚処理を実現するプロファイルデータに基づいて、さらに異なる視覚処理を実現する新たなプロファイルデータを作成することが可能となる。
図10を用いて、プロファイルデータ登録装置701を備える視覚処理装置において実行される視覚処理プロファイル作成方法について説明する。
As described above, for example, new profile data that realizes different visual processing can be created based on profile data that realizes different visual processing.
A visual processing profile creation method executed in a visual processing device including the profile data registration device 701 will be described with reference to FIG.

制御部705からのカウント信号c10により、プロファイルデータ登録部702のアドレスが一定のカウント周期で指定され、指定されたアドレスに格納されている画像信号値が読み出される(ステップS701)。詳しくは、パラメータ入力部706により入力されたパラメータに応じて、制御部705はカウント信号c10を出力する。カウント信号c10は、プロファイルデータ登録部702において異なる視覚処理を実現する2つのプロファイルデータのアドレスを指定する。これにより、プロファイルデータ登録部702から第1の選択プロファイルデータd10と第2の選択プロファイルデータd11とが読み出される。   Based on the count signal c10 from the control unit 705, the address of the profile data registration unit 702 is designated at a constant count cycle, and the image signal value stored in the designated address is read (step S701). Specifically, the control unit 705 outputs a count signal c10 according to the parameter input by the parameter input unit 706. The count signal c10 designates the addresses of two profile data that realize different visual processing in the profile data registration unit 702. As a result, the first selection profile data d10 and the second selection profile data d11 are read from the profile data registration unit 702.

プロファイル生成部704は、制御部705から合成度を指定する制御信号c12を取得する(ステップS702)。
プロファイル生成部704は、第1の選択プロファイルデータd10の値[m]および第2の選択プロファイルデータd11の値[n]に対して、制御信号c12が指定する合成度の値[k]を用いて、値[l]の生成プロファイルデータd6を作成する(ステップS703)。ここで、値[l]は、[l]=(1−k)*[m]+k*[n]により計算される。
The profile generation unit 704 acquires a control signal c12 that specifies the degree of synthesis from the control unit 705 (step S702).
The profile generation unit 704 uses the value [k] of the degree of synthesis specified by the control signal c12 for the value [m] of the first selection profile data d10 and the value [n] of the second selection profile data d11. Then, the generation profile data d6 of the value [l] is created (step S703). Here, the value [l] is calculated by [l] = (1−k) * [m] + k * [n].

2次元LUT4に対して生成プロファイルデータd6が書き込まれる(ステップS704)。ここで、書き込み先のアドレスは、2次元LUT4に対して与えられる制御部705からのカウント信号c11により指定される。
制御部705は、選択されたプロファイルデータの全てのデータについての処理が終了したか否かを判断し(ステップ705)、終了するまでステップS701からステップS705の処理を繰り返す。
The generated profile data d6 is written to the two-dimensional LUT 4 (step S704). Here, the write destination address is designated by the count signal c11 from the control unit 705 given to the two-dimensional LUT4.
The control unit 705 determines whether or not the processing for all the selected profile data has been completed (step 705), and repeats the processing from step S701 to step S705 until the processing is completed.

また、このようにして2次元LUT4に格納された新たなプロファイルデータは、視覚処理を実行するのに用いられる。
《(7)の効果》
プロファイルデータ登録装置701を備える視覚処理装置においては、異なる視覚処理を実現するプロファイルデータに基づいて、さらに異なる視覚処理を実現する新たなプロファイルデータを作成し、視覚処理を行うことが可能となる。すなわち、プロファイルデータ登録部702において、少数のプロファイルデータを備えるだけで、任意の処理度合いの視覚処理を実現することが可能となり、プロファイルデータ登録部702の記憶容量を削減することが可能となる。
Also, the new profile data stored in the two-dimensional LUT 4 in this way is used for executing visual processing.
<< Effect of (7) >>
In the visual processing device including the profile data registration device 701, it is possible to create new profile data that realizes different visual processing based on profile data that realizes different visual processing, and to perform visual processing. That is, the profile data registration unit 702 can realize visual processing with an arbitrary degree of processing only by providing a small number of profile data, and the storage capacity of the profile data registration unit 702 can be reduced.

なお、プロファイルデータ登録装置701は、図1に示す視覚処理装置1だけでなく、図6〜図8の視覚処理装置において備えられていてもよい。この場合、プロファイルデータ登録部702とプロファイル作成実行部703とが図6〜図8に示すそれぞれのプロファイルデータ登録部521,526,531の代わりに用いられ、パラメータ入力部706と制御部705とが図6の画像判定部522,図7の入力装置527、図8の明度検出
部532の代わりに用いられてもよい。
Note that the profile data registration device 701 may be provided not only in the visual processing device 1 shown in FIG. 1 but also in the visual processing devices shown in FIGS. In this case, the profile data registration unit 702 and the profile creation execution unit 703 are used instead of the profile data registration units 521, 526, and 531 shown in FIGS. 6 to 8, and the parameter input unit 706 and the control unit 705 are used. The image determination unit 522 in FIG. 6, the input device 527 in FIG. 7, and the lightness detection unit 532 in FIG. 8 may be used.

(8)
視覚処理装置は、入力信号ISの明るさを変換する装置であってもよい。図11を用いて、明るさを変換する視覚処理装置901について説明する。
《構成》
視覚処理装置901は、入力信号IS’の明るさを変換する装置であって、入力信号IS’に対して所定の処理を行い処理信号US’を出力する処理部902と、入力信号IS’および処理信号US’を用いて入力信号IS’の変換を行う変換部903とから構成される。
(8)
The visual processing device may be a device that converts the brightness of the input signal IS. A visual processing device 901 that converts brightness will be described with reference to FIG.
"Constitution"
The visual processing device 901 is a device that converts the brightness of the input signal IS ′, performs a predetermined process on the input signal IS ′ and outputs a processing signal US ′, and the input signal IS ′ and And a conversion unit 903 that converts the input signal IS ′ using the processing signal US ′.

処理部902は、空間処理部2(図1参照)と同様に動作し、入力信号IS’の空間処理を行う。なお、上記〈変形例〉(3)で記載したような空間処理を行うものであってもよい。
変換部903は、視覚処理部3と同様に2次元LUTを備え入力信号IS’(値[x])と処理信号US’(値[z])とに基づいて出力信号OS’(値[y])を出力する。
The processing unit 902 operates in the same manner as the spatial processing unit 2 (see FIG. 1), and performs spatial processing of the input signal IS ′. Note that spatial processing as described in the above <Modification> (3) may be performed.
Similar to the visual processing unit 3, the conversion unit 903 includes a two-dimensional LUT and outputs the output signal OS ′ (value [y] based on the input signal IS ′ (value [x]) and the processing signal US ′ (value [z]). ]) Is output.

ここで、変換部903が備える2次元LUTの各要素の値は、明るさの変更度合いに関する関数fk(z)の値に応じて定められたゲインあるいはオフセットに対して、入力信号IS’の値[x]を作用させることにより定められている。以下、明るさの変更度合いに関する関数fk(z)を「変更度関数」と呼ぶ。   Here, the value of each element of the two-dimensional LUT included in the conversion unit 903 is the value of the input signal IS ′ with respect to the gain or offset determined according to the value of the function fk (z) related to the degree of change in brightness. It is determined by acting [x]. Hereinafter, the function fk (z) related to the degree of change in brightness is referred to as a “change degree function”.

2次元LUTの各要素の値(=出力信号OS’の値[y])は、入力信号IS’の値[x]と処理信号US’の値[z]との関数に基づいて定められている。以下、この関数を「変換関数」と呼び、一例としての変換関数(a)〜(d)を示す。また、図12(a)〜(d)に、変更度関数fk(z)を変化させた場合の入力信号IS’と出力信号OS’との関係を示す。   The value of each element of the two-dimensional LUT (= value [y] of the output signal OS ′) is determined based on a function of the value [x] of the input signal IS ′ and the value [z] of the processing signal US ′. Yes. Hereinafter, this function is referred to as “conversion function”, and conversion functions (a) to (d) are shown as an example. FIGS. 12A to 12D show the relationship between the input signal IS ′ and the output signal OS ′ when the change degree function fk (z) is changed.

《変換関数(a)について》
変換関数(a)は、[y]=f1(z)*[x]と表される。
ここで、変更度関数f1(z)は、入力信号IS’のゲインとして作用している。このため、変更度関数f1(z)の値により、入力信号IS’のゲインが変化し、出力信号OS’の値[y]が変化する。
<< Conversion function (a) >>
The conversion function (a) is expressed as [y] = f1 (z) * [x].
Here, the degree-of-change function f1 (z) acts as a gain of the input signal IS ′. For this reason, the gain of the input signal IS ′ changes and the value [y] of the output signal OS ′ changes depending on the value of the change degree function f1 (z).

図12(a)は、変更度関数f1(z)の値が変化した場合の入力信号IS’と出力信号OS’との関係の変化を示す。
変更度関数f1(z)が大きくなる(f1(z)>1)につれて、出力信号の値[y]は大きくなる。すなわち、変換後の画像は、明るくなる。一方、変更度関数f1(z)が小さくなる(f1(z)<1)につれて、出力信号の値[y]は小さくなる。すなわち、変換後の画像は、暗くなる。
FIG. 12A shows a change in the relationship between the input signal IS ′ and the output signal OS ′ when the value of the change degree function f1 (z) changes.
As the degree-of-change function f1 (z) increases (f1 (z)> 1), the value [y] of the output signal increases. That is, the converted image becomes bright. On the other hand, as the change degree function f1 (z) becomes smaller (f1 (z) <1), the value [y] of the output signal becomes smaller. That is, the image after conversion becomes dark.

ここで、変更度関数f1(z)は、値[z]の定義域における最小値が値[0]未満とならない関数である。
また、変換関数(a)の演算により、出力信号の値[y]が取りうる値の範囲を超える場合には、取りうる値の範囲にクリップされてもよい。例えば、値[1]を超える場合には、出力信号の値[y]は、値[1]にクリップされてもよいし、値[0]に満たない場合には、出力信号の値[y]は、値[0]にクリップされてもよい。これは、以下の変換関数(b)〜(d)についても同様である。
Here, the change degree function f1 (z) is a function in which the minimum value in the domain of the value [z] does not become less than the value [0].
Further, when the value [y] of the output signal exceeds the range of possible values due to the calculation of the conversion function (a), it may be clipped to the range of possible values. For example, when the value [1] is exceeded, the output signal value [y] may be clipped to the value [1], and when the value [0] is not satisfied, the output signal value [y] ] May be clipped to the value [0]. The same applies to the following conversion functions (b) to (d).

《変換関数(b)について》
変換関数(b)は、[y]=[x]+f2(z)と表される。
ここで、変更度関数f2(z)は、入力信号IS’のオフセットとして作用している。このため、変更度関数f2(z)の値により、入力信号IS’のオフセットが変化し、出
力信号OS’の値[y]が変化する。
<< Conversion function (b) >>
The conversion function (b) is expressed as [y] = [x] + f2 (z).
Here, the change degree function f2 (z) acts as an offset of the input signal IS ′. For this reason, the offset of the input signal IS ′ changes depending on the value of the change degree function f2 (z), and the value [y] of the output signal OS ′ changes.

図12(b)は、変更度関数f2(z)の値が変化した場合の入力信号IS’と出力信号OS’との関係の変化を示す。
変更度関数f2(z)が大きくなる(f2(z)>0)につれて、出力信号の値[y]は大きくなる。すなわち、変換後の画像は、明るくなる。一方、変更度関数f2(z)が小さくなる(f2(z)<0)につれて、出力信号の値[y]は小さくなる。すなわち、変換後の画像は、暗くなる。
FIG. 12B shows a change in the relationship between the input signal IS ′ and the output signal OS ′ when the value of the change degree function f2 (z) changes.
As the degree of change function f2 (z) increases (f2 (z)> 0), the value [y] of the output signal increases. That is, the converted image becomes bright. On the other hand, as the change degree function f2 (z) becomes smaller (f2 (z) <0), the value [y] of the output signal becomes smaller. That is, the image after conversion becomes dark.

《変換関数(c)について》
変換関数(c)は、[y]=f1(z)*[x]+f2(z)と表される。
ここで、変更度関数f1(z)は、入力信号IS’のゲインとして作用している。さらに、変更度関数f2(z)は、入力信号IS’のオフセットとして作用している。このため、変更度関数f1(z)の値により、入力信号IS’のゲインが変化するとともに、変更度関数f2(z)の値により、入力信号IS’のオフセットが変化し、出力信号OS’の値[y]が変化する。
<< Conversion function (c) >>
The conversion function (c) is expressed as [y] = f1 (z) * [x] + f2 (z).
Here, the degree-of-change function f1 (z) acts as a gain of the input signal IS ′. Furthermore, the change degree function f2 (z) acts as an offset of the input signal IS ′. Therefore, the gain of the input signal IS ′ changes depending on the value of the change degree function f1 (z), and the offset of the input signal IS ′ changes depending on the value of the change degree function f2 (z), and the output signal OS ′. The value of [y] changes.

図12(c)は、変更度関数f1(z)および変更度関数f2(z)の値が変化した場合の入力信号IS’と出力信号OS’との関係の変化を示す。
変更度関数f1(z)および変更度関数f2(z)が大きくなるにつれて、出力信号の値[y]は大きくなる。すなわち、変換後の画像は、明るくなる。一方、変更度関数f1(z)および変更度関数f2(z)が小さくなるにつれて、出力信号の値[y]は小さくなる。すなわち、変換後の画像は、暗くなる。
FIG. 12C shows a change in the relationship between the input signal IS ′ and the output signal OS ′ when the values of the change degree function f1 (z) and the change degree function f2 (z) change.
As the degree-of-change function f1 (z) and the degree-of-change function f2 (z) increase, the value [y] of the output signal increases. That is, the converted image becomes bright. On the other hand, as the change degree function f1 (z) and change degree function f2 (z) become smaller, the value [y] of the output signal becomes smaller. That is, the image after conversion becomes dark.

《変換関数(d)について》
変換関数(d)は、[y]=[x]^(1−f2(z))と表される。
ここで、変更度関数f2(z)は、「べき関数」の「べき」を決定する。このため、変更度関数f2(z)の値により、入力信号IS’が変化し、出力信号OS’の値[y]が変化する。
<< Conversion function (d) >>
The conversion function (d) is expressed as [y] = [x] ^ (1-f2 (z)).
Here, the degree-of-change function f2 (z) determines “power” of the “power function”. Therefore, the input signal IS ′ changes and the value [y] of the output signal OS ′ changes depending on the value of the change degree function f2 (z).

図12(d)は、変更度関数f2(z)の値が変化した場合の入力信号IS’と出力信号OS’との関係の変化を示す。
変更度関数f2(z)が大きくなる(f2(z)>0)につれて、出力信号の値[y]は大きくなる。すなわち、変換後の画像は、明るくなる。一方、変更度関数f2(z)が小さくなる(f2(z)<0)につれて、出力信号の値[y]は小さくなる。すなわち、変換後の画像は、暗くなる。また、変更度関数f2(z)が値[0]の場合は、入力信号IS’に対する変換は行われないこととなる。
FIG. 12D shows a change in the relationship between the input signal IS ′ and the output signal OS ′ when the value of the change degree function f2 (z) changes.
As the degree of change function f2 (z) increases (f2 (z)> 0), the value [y] of the output signal increases. That is, the converted image becomes bright. On the other hand, as the change degree function f2 (z) becomes smaller (f2 (z) <0), the value [y] of the output signal becomes smaller. That is, the image after conversion becomes dark. Further, when the change degree function f2 (z) is the value [0], the conversion with respect to the input signal IS ′ is not performed.

なお、値[x]は、入力信号IS’の値を[0]〜[1]の範囲に正規化した値である。
《効果》
(1)
視覚処理装置901では、以上に示した変換関数(a)〜(d)のいずれかを用いて定められた要素を有する2次元LUTにより、入力信号IS’の視覚処理が行われる。2次元LUTの各要素は、値[x]と値[z]とに対する値[y]を格納している。このため、入力信号IS’と処理信号US’とに基づいて、入力信号IS’の明るさを変換する視角処理が実現される。
The value [x] is a value obtained by normalizing the value of the input signal IS ′ within the range of [0] to [1].
"effect"
(1)
In the visual processing device 901, visual processing of the input signal IS ′ is performed by a two-dimensional LUT having elements determined using any of the conversion functions (a) to (d) described above. Each element of the two-dimensional LUT stores a value [y] for a value [x] and a value [z]. Therefore, viewing angle processing for converting the brightness of the input signal IS ′ is realized based on the input signal IS ′ and the processing signal US ′.

(2)
ここで、変更度関数f1(z)と変更度関数f2(z)とがともに単調減少する関数である場合、さらに、逆光補正や白飛びの防止などの効果が得られる。これに関して説明を加える。
(2)
Here, when both the degree-of-change function f1 (z) and the degree-of-change function f2 (z) are monotonically decreasing functions, effects such as backlight correction and whiteout prevention can be further obtained. A description will be added regarding this.

図13(a)〜(b)に、単調減少する変更度関数f1(z)およびf2(z)の例を示す。それぞれ3つのグラフ(a1〜a3、b1〜b3)を示しているが、いずれも単調減少する関数の例である。
変更度関数f1(z)は、値[1]をまたぐ値域を有する関数であり、値[z]の定義域に対する最小値が値[0]未満とならない関数である。変更度関数f2(z)は、値[0]をまたぐ値域を有する関数である。
FIGS. 13A to 13B show examples of the degree-of-change functions f1 (z) and f2 (z) that monotonously decrease. Although three graphs (a1 to a3, b1 to b3) are shown, all are examples of monotonically decreasing functions.
The degree-of-change function f1 (z) is a function having a range that crosses the value [1], and is a function in which the minimum value for the domain of the value [z] does not become less than the value [0]. The degree-of-change function f2 (z) is a function having a value range that crosses the value [0].

例えば、画像中の暗くて面積の大きい部分では、処理信号US’の値[z]が小さい。小さい値の[z]に対する変更度関数の値は、大きくなる。すなわち、変換関数(a)〜(d)に基づいて作成された2次元LUTを用いると、画像中の暗くて面積の大きい部分は、明るく変換される。よって、例えば、逆光で撮影された画像では、暗くて面積の大きい部分に対して暗部の改善が行われ、視覚的効果が向上する。   For example, the value [z] of the processing signal US ′ is small in a dark portion having a large area in the image. The value of the change degree function for a small value [z] is large. That is, when a two-dimensional LUT created based on the conversion functions (a) to (d) is used, a dark portion with a large area in the image is brightly converted. Therefore, for example, in an image photographed with backlight, dark portions are improved with respect to a dark and large area, and the visual effect is improved.

また、例えば、画像中の明るくて面積の大きい部分では、処理信号US’の値[z]が大きい。大きい値の[z]に対する変更度関数の値は、小さくなる。すなわち、変換関数(a)〜(d)に基づいて作成された2次元LUTを用いると、画像中の明るくて面積の大きい部分は、暗く変換される。よって、例えば、空などの明るい部分を有する画像では、明るくて面積の大きい部分に対して白飛びの改善が行われ、視覚的効果が向上する。   Further, for example, the value [z] of the processing signal US ′ is large in a bright and large area in the image. The value of the degree-of-change function for a large value [z] is small. That is, when a two-dimensional LUT created based on the conversion functions (a) to (d) is used, a bright and large area portion in the image is converted to dark. Therefore, for example, in an image having a bright part such as the sky, the whiteout is improved for a bright and large area, and the visual effect is improved.

《変形例》
(1)
上記した変換関数は、一例であり、同様の性質を有する変換であれば、任意の関数であってよい。
<Modification>
(1)
The above-described conversion function is an example, and may be an arbitrary function as long as the conversion has similar properties.

(2)
2次元LUTの各要素の値は、厳密に上記した変換関数により定められていなくてもよい。
例えば、上記した変換関数の値が、出力信号OS’として扱うことのできる値の範囲を超える場合には、2次元LUTは、出力信号OS’として扱うことのできる値の範囲にクリップされた値を格納してもよい。
(2)
The value of each element of the two-dimensional LUT may not be strictly determined by the above conversion function.
For example, when the value of the conversion function described above exceeds the range of values that can be handled as the output signal OS ′, the two-dimensional LUT is a value clipped to the range of values that can be handled as the output signal OS ′. May be stored.

(3)
上記と同様の処理は、2次元LUTを用いずに行われてもよい。例えば、変換部903は、入力信号IS’と処理信号US’とに対して、変換関数(a)〜(d)を演算することにより出力信号OS’を出力してもよい。
(3)
Processing similar to the above may be performed without using a two-dimensional LUT. For example, the conversion unit 903 may output the output signal OS ′ by calculating conversion functions (a) to (d) for the input signal IS ′ and the processing signal US ′.

(9)
視覚処理装置は、複数の空間処理部を備え、空間処理の程度の異なる複数のアンシャープ信号を用いて視覚処理を行うものであってもよい。
《構成》
図14に、視覚処理装置905の構成を示す。視覚処理装置905は、入力信号IS”の視覚処理を行う装置であって、入力信号IS”に対して第1の所定の処理を行い第1処理信号U1を出力する第1処理部906aと、入力信号IS”に対して第2の所定の処理を行い第2処理信号U2を出力する第2処理部906bと、入力信号IS”と第1処理信号U1と第2処理信号U2とを用いて入力信号IS”の変換を行う変換部908とから構成される。
(9)
The visual processing device may include a plurality of spatial processing units and perform visual processing using a plurality of unsharp signals having different degrees of spatial processing.
"Constitution"
FIG. 14 shows the configuration of the visual processing device 905. The visual processing device 905 is a device that performs visual processing of the input signal IS ″, and performs a first predetermined processing on the input signal IS ″ and outputs a first processing signal U1; A second processing unit 906b that performs second predetermined processing on the input signal IS "and outputs a second processing signal U2, and the input signal IS", the first processing signal U1, and the second processing signal U2 are used. And a conversion unit 908 for converting the input signal IS ″.

第1処理部906aおよび第2処理部906bは、空間処理部2(図1参照)と同様に動作し、入力信号IS”の空間処理を行う。なお、上記〈変形例〉(3)で記載したような空間処理を行うものであってもよい。
ここで、第1処理部906aと第2処理部906bとは、空間処理において用いる周辺画素の領域の大きさが異なっている。
The first processing unit 906a and the second processing unit 906b operate in the same manner as the spatial processing unit 2 (see FIG. 1), and perform the spatial processing of the input signal IS ". Such spatial processing may be performed.
Here, the first processing unit 906a and the second processing unit 906b have different sizes of peripheral pixel regions used in the spatial processing.

具体的には、第1処理部906aでは、着目画素を中心として縦30画素、横30画素の領域に含まれる周辺画素を用いる(小さいアンシャープ信号)のに対して、第2処理部906bでは、着目画素を中心として縦90画素、横90画素の領域に含まれる周辺画素を用いる(大きいアンシャープ信号)。なお、ここで記載した周辺画素の領域は、あくまで一例であり、これに限定されるわけではない。視覚処理効果を十分に発揮するためには、かなり広い領域からアンシャープ信号を生成することが好ましい。   Specifically, the first processing unit 906a uses peripheral pixels included in the region of 30 pixels vertically and 30 pixels horizontally with the pixel of interest at the center (small unsharp signal), whereas the second processor 906b Peripheral pixels included in the region of 90 pixels vertically and 90 pixels horizontally centering on the pixel of interest are used (large unsharp signal). The peripheral pixel region described here is merely an example, and the present invention is not limited to this. In order to sufficiently exhibit the visual processing effect, it is preferable to generate an unsharp signal from a considerably wide area.

変換部908は、LUTを備え、入力信号IS”(値[x])と第1処理信号U1(値[z1])と第2処理信号U2(値[z2])とに基づいて出力信号OS”(値[y])を出力する。
ここで、変換部903が備えるLUTは、入力信号IS”の値[x]と第1処理信号U1の値[z1]と第2処理信号U2の値[z2]とに対する出力信号OS”の値[y]を格納する3次元LUTである。この3次元LUTの各要素の値(=出力信号OS”の値[y])は、入力信号IS’の値[x]と第1処理信号U1の値[z1]と第2処理信号U2の値[z2]との関数に基づいて定められている。
The conversion unit 908 includes an LUT and outputs an output signal OS based on the input signal IS ″ (value [x]), the first processing signal U1 (value [z1]), and the second processing signal U2 (value [z2]). "(Value [y]) is output.
Here, the LUT included in the conversion unit 903 is the value of the output signal OS ″ with respect to the value [x] of the input signal IS ″, the value [z1] of the first processing signal U1, and the value [z2] of the second processing signal U2. This is a three-dimensional LUT that stores [y]. The value of each element of the three-dimensional LUT (= value [y] of the output signal OS ″) is the value [x] of the input signal IS ′, the value [z1] of the first processing signal U1, and the second processing signal U2. It is determined based on a function with the value [z2].

この3次元LUTは、上記実施形態および下記実施形態で記載する処理を実現可能であるが、ここでは、3次元LUTが《入力信号IS”の明るさを変換する場合》と、《入力信号IS”を強調変換する場合》とについて説明を加える。
《入力信号IS”の明るさを変換する場合》
変換部908は、第1処理信号U1の値[z1]が小さければ、入力信号IS”を明るくするように変換を行う。ただし、第2処理信号U2の値[z2]も小さければ、明るくする度合いを抑制する。
The three-dimensional LUT can realize the processing described in the above embodiment and the following embodiment. Here, the three-dimensional LUT is << when the brightness of the input signal IS is converted >> and << the input signal IS. An explanation will be added about “when emphasizing conversion”.
<When converting the brightness of the input signal IS>
The conversion unit 908 performs conversion so as to brighten the input signal IS ″ if the value [z1] of the first processing signal U1 is small. However, if the value [z2] of the second processing signal U2 is also small, the conversion unit 908 performs lightening. Reduce the degree.

このような変換の一例として、変換部903が備える3次元LUTの各要素の値は、次の変換関数(e)または(f)に基づいて定められている。
(変換関数(e)について)
変換関数(e)は、[y]=[f11(z1)/f12(z2)]*[x]と表される。
As an example of such conversion, the value of each element of the three-dimensional LUT provided in the conversion unit 903 is determined based on the following conversion function (e) or (f).
(Conversion function (e))
The conversion function (e) is expressed as [y] = [f11 (z1) / f12 (z2)] * [x].

ここで、変更度関数f11(z1),f12(z2)は、上記〈変形例〉(8)で記載した変更度関数f1(z)と同様の関数である。また、変更度関数f11(z1)と変更度関数f12(z2)とは、異なる関数となっている。
これにより、[f11(z1)/f12(z2)]は、入力信号IS”のゲインとして作用し、第1処理信号U1の値と第2処理信号U2の値とにより、入力信号IS”のゲインが変化し、出力信号OS”の値[y]が変化する。
Here, the degree-of-change functions f11 (z1) and f12 (z2) are the same functions as the degree-of-change function f1 (z) described in the above <Modification> (8). Further, the change degree function f11 (z1) and the change degree function f12 (z2) are different functions.
Thereby, [f11 (z1) / f12 (z2)] acts as a gain of the input signal IS ″, and the gain of the input signal IS ″ is determined by the value of the first processing signal U1 and the value of the second processing signal U2. Changes, and the value [y] of the output signal OS ″ changes.

(変換関数(f)について)
変換関数(f)は、[y]=[x]+f21(z1)−f22(z2)と表される。
ここで、変更度関数f21(z1),f22(z2)は、上記〈変形例〉(8)で記載した変更度関数f2(z)と同様の関数である。また、変更度関数f21(z1)と変更度関数f22(z2)とは、異なる関数となっている。
(Conversion function (f))
The conversion function (f) is expressed as [y] = [x] + f21 (z1) −f22 (z2).
Here, the degree-of-change functions f21 (z1) and f22 (z2) are functions similar to the degree-of-change function f2 (z) described in the above <Modification> (8). Further, the change degree function f21 (z1) and the change degree function f22 (z2) are different functions.

これにより、[f21(z1)−f22(z2)]は、入力信号IS”のオフセットとして作用し、第1処理信号U1の値と第2処理信号U2の値とにより、入力信号IS”のオフセットが変化し、出力信号OS”の値[y]が変化する。
(効果)
このような変換関数(e)〜(f)を用いた変換により、例えば、逆光部分の小さい領域の暗部を明るくしつつ、夜景の画像の大きい領域の暗部を明るくしすぎないなどといった効果を実現することが可能となる。
Thereby, [f21 (z1) −f22 (z2)] acts as an offset of the input signal IS ″, and the offset of the input signal IS ″ is determined by the value of the first processing signal U1 and the value of the second processing signal U2. Changes, and the value [y] of the output signal OS ″ changes.
(effect)
By using the conversion functions (e) to (f), for example, an effect is achieved such that, for example, a dark area in a small area of a backlight portion is brightened while a dark area in a large area of a night scene image is not excessively brightened. It becomes possible to do.

(変形例)
なお、変換部908における処理は、3次元LUTを用いた処理に限定されず、変換関数(e)や(f)などと同様の演算を行うものであってもよい。
また、3次元LUTの各要素は厳密に変換関数(e)や(f)に基づいて定められていなくてもよい。
(Modification)
Note that the processing in the conversion unit 908 is not limited to processing using a three-dimensional LUT, and may perform operations similar to the conversion functions (e) and (f).
Further, each element of the three-dimensional LUT may not be strictly determined based on the conversion functions (e) and (f).

《入力信号IS”を強調変換する場合》
変換部908における変換が、入力信号IS”を強調する変換である場合、複数の周波数成分を独立して強調することが可能となる。
例えば、第1処理信号U1をより強調する変換であれば、周波数の比較的高い濃淡部分の強調を行うことが可能となるし、第2処理信号U2をより強調する変換であれば、周波数の低い濃淡部分の強調を行うことが可能となる。
<< When the input signal IS is emphasized and converted >>
When the conversion in the conversion unit 908 is conversion that emphasizes the input signal IS ″, it is possible to independently emphasize a plurality of frequency components.
For example, if the conversion further enhances the first processing signal U1, it is possible to emphasize a relatively high-frequency shade portion, and if the conversion further emphasizes the second processing signal U2, the frequency It is possible to emphasize a low density portion.

〈プロファイルデータ〉
視覚処理装置1は、上記で説明した以外にも、様々な視覚処理を実現するプロファイルデータを備えることが可能である。以下、様々な視覚処理を実現する第1〜第7プロファールデータについて、プロファイルデータを特徴づける式と、そのプロファイルデータを備える視覚処理装置1と等価な視覚処理を実現する視覚処理装置の構成とを示す。
<Profile data>
The visual processing device 1 can include profile data that realizes various visual processes other than those described above. Hereinafter, with respect to the first to seventh profile data for realizing various visual processing, an expression characterizing the profile data, and a configuration of the visual processing device for realizing visual processing equivalent to the visual processing device 1 including the profile data Indicates.

それぞれのプロファイルデータは、入力信号ISとアンシャープ信号USとから算出された値を強調する演算を含む数式に基づいて定められている。ここで、強調する演算とは、例えば、非線形の強調関数による演算である。
これにより、それぞれのプロファイルデータでは、入力信号ISの視覚特性にあった強調、あるいは出力信号OSを出力する機器の非線形特性にあった強調を実現することなどが可能となる。
Each profile data is determined based on a mathematical expression including an operation for enhancing a value calculated from the input signal IS and the unsharp signal US. Here, the calculation to be emphasized is, for example, a calculation using a nonlinear enhancement function.
Thereby, in each profile data, it is possible to realize enhancement suitable for the visual characteristics of the input signal IS or enhancement suitable for the nonlinear characteristics of the device that outputs the output signal OS.

(1)
《第1プロファイルデータ》
第1プロファイルデータは、入力信号ISとアンシャープ信号USとに対して所定の変換を行ったそれぞれの変換値の差を強調する関数を含む演算に基づいて定められている。これにより、入力信号ISとアンシャープ信号USとを別空間に変換した上でそれぞれの差を強調することが可能となる。これにより、例えば、視覚特性にあった強調などを実現することが可能となる。
(1)
<First profile data>
The first profile data is determined based on an operation including a function that emphasizes a difference between respective conversion values obtained by performing predetermined conversion on the input signal IS and the unsharp signal US. As a result, the input signal IS and the unsharp signal US can be converted into different spaces, and the respective differences can be emphasized. Thereby, for example, it is possible to realize enhancement suitable for visual characteristics.

以下、具体的に説明する。
第1プロファイルデータの各要素の値C(出力信号OSの値)は、入力信号ISの値A、アンシャープ信号USの値B、変換関数F1、変換関数の逆変換関数F2、強調関数F3を用いて、C=F2(F1(A)+F3(F1(A)−F1(B)))(以下、式M1という)と表される。
This will be specifically described below.
The value C (value of the output signal OS) of each element of the first profile data includes the value A of the input signal IS, the value B of the unsharp signal US, the conversion function F1, the inverse conversion function F2 of the conversion function, and the enhancement function F3. It is expressed as C = F2 (F1 (A) + F3 (F1 (A) −F1 (B))) (hereinafter referred to as Formula M1).

ここで、変換関数F1は、常用対数関数である。逆変換関数F2は、常用対数関数の逆関数としての指数関数(アンチログ)である。強調関数F3は、図109を用いて説明した強調関数R1〜R3のいずれかの関数である。
《等価な視覚処理装置11》
図15に、第1プロファイルデータを2次元LUT4に登録した視覚処理装置1と等価な視覚処理装置11を示す。
Here, the conversion function F1 is a common logarithmic function. The inverse transformation function F2 is an exponential function (antilog) as an inverse function of the common logarithmic function. The enhancement function F3 is one of the enhancement functions R1 to R3 described with reference to FIG.
<< Equivalent visual processing device 11 >>
FIG. 15 shows a visual processing device 11 equivalent to the visual processing device 1 in which the first profile data is registered in the two-dimensional LUT 4.

視覚処理装置11は、入力信号ISとアンシャープ信号USとに対して所定の変換を行ったそれぞれの変換値の差を強調する演算に基づいて出力信号OSを出力する装置である。これにより、入力信号ISとアンシャープ信号USとを別空間に変換した上でそれぞれの差を強調することが可能となり、例えば、視覚特性にあった強調などを実現することが可能となる。   The visual processing device 11 is a device that outputs an output signal OS based on a calculation that emphasizes a difference between respective converted values obtained by performing predetermined conversion on the input signal IS and the unsharp signal US. As a result, the input signal IS and the unsharp signal US can be converted into different spaces, and the respective differences can be emphasized. For example, enhancement suitable for visual characteristics can be realized.

図15に示す視覚処理装置11は、入力信号ISとして取得した原画像の画素ごとの輝度値に空間処理を実行しアンシャープ信号USを出力する空間処理部12と、入力信号ISとアンシャープ信号USとを用いて、原画像の視覚処理を行い、出力信号OSを出力する視覚処理部13とを備えている。   The visual processing device 11 shown in FIG. 15 performs spatial processing on the luminance value for each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and the input signal IS and the unsharp signal. A visual processing unit 13 that performs visual processing of an original image using US and outputs an output signal OS is provided.

空間処理部12は、視覚処理装置1が備える空間処理部2と同様の動作を行うため、説明を省略する。
視覚処理部13は、入力信号ISとアンシャープ信号USとの信号空間の変換を行い、変換入力信号TISと変換アンシャープ信号TUSとを出力する信号空間変換部14と、変換入力信号TISを第1の入力、変換アンシャープ信号TUSを第2の入力とし、それぞれの差分である差分信号DSを出力する減算部17と、差分信号DSを入力とし強調処理された強調処理信号TSを出力する強調処理部18と、変換入力信号TISを第1の入力、強調処理信号TSを第2の入力とし、それぞれを加算した加算信号PSを出力する加算部19と、加算信号PSを入力とし出力信号OSを出力する逆変換部20とを備えている。
Since the spatial processing unit 12 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, description thereof is omitted.
The visual processing unit 13 converts the signal space between the input signal IS and the unsharp signal US, outputs the converted input signal TIS and the converted unsharp signal TUS, and the converted input signal TIS. 1 and the converted unsharp signal TUS as a second input, and a subtraction unit 17 that outputs a difference signal DS that is a difference between them, and an enhancement process signal TS that is subjected to an enhancement process with the difference signal DS as an input. The processing unit 18, the conversion input signal TIS as a first input, the enhancement processing signal TS as a second input, and an addition unit 19 that outputs an addition signal PS obtained by adding them, and the addition signal PS as an input and an output signal OS Is provided.

信号空間変換部14は、入力信号ISを入力とし変換入力信号TISを出力とする第1変換部15と、アンシャープ信号USを入力とし変換アンシャープ信号TUSを出力とする第2変換部16とをさらに有している。
《等価な視覚処理装置11の作用》
視覚処理部13の動作についてさらに説明を加える。
The signal space conversion unit 14 includes a first conversion unit 15 that receives an input signal IS and outputs a conversion input signal TIS, and a second conversion unit 16 that receives an unsharp signal US and outputs a conversion unsharp signal TUS. It has further.
<< Operation of Equivalent Visual Processing Device 11 >>
The operation of the visual processing unit 13 will be further described.

第1変換部15は、変換関数F1を用いて、値Aの入力信号を値F1(A)の変換入力信号TISに変換する。第2変換部16は、変換関数F1を用いて、値Bのアンシャープ信号USを値F1(B)の変換アンシャープ信号TUSに変換する。減算部17は、値F1(A)の変換入力信号TISと、値F1(B)の変換アンシャープ信号TUSとの差分を計算し、値F1(A)−F1(B)の差分信号DSを出力する。強調処理部18は、強調関数F3を用いて、値F1(A)−F1(B)の差分信号DSから値F3(F1(A)−F1(B))の強調処理信号TSを出力する。加算部19は、値F1(A)の変換入力信号TISと、値F3(F1(A)−F1(B))の強調処理信号TSとを加算し、値F1(A)+F3(F1(A)−F1(B))の加算信号PSを出力する。逆変換部20は、逆変換関数F2を用いて、値F1(A)+F3(F1(A)−F1(B))の加算信号PSを逆変換し、値F2(F1(A)+F3(F1(A)−F1(B)))の出力信号OSを出力する。   The first conversion unit 15 converts the input signal having the value A into the conversion input signal TIS having the value F1 (A) using the conversion function F1. The second conversion unit 16 converts the unsharp signal US having the value B into the converted unsharp signal TUS having the value F1 (B) using the conversion function F1. The subtraction unit 17 calculates a difference between the converted input signal TIS having the value F1 (A) and the converted unsharp signal TUS having the value F1 (B), and calculates a difference signal DS having the value F1 (A) −F1 (B). Output. The enhancement processing unit 18 outputs an enhancement processing signal TS having a value F3 (F1 (A) −F1 (B)) from the difference signal DS having the value F1 (A) −F1 (B) using the enhancement function F3. The adder 19 adds the converted input signal TIS having the value F1 (A) and the enhancement processing signal TS having the value F3 (F1 (A) −F1 (B)), and adds the value F1 (A) + F3 (F1 (A ) -F1 (B)) addition signal PS is output. The inverse transform unit 20 inversely transforms the addition signal PS of the value F1 (A) + F3 (F1 (A) −F1 (B)) using the inverse transform function F2, and the value F2 (F1 (A) + F3 (F1) (A) -F1 (B))) is output.

なお、変換関数F1、逆変換関数F2、強調関数F3を用いた計算は、それぞれの関数に対する1次元のLUTを用いて行われても良いし、LUTを用いないで行われても良い。
《効果》
第1プロファイルデータを備える視覚処理装置1と視覚処理装置11とは、同様の視覚処理効果を奏する。
The calculation using the transformation function F1, the inverse transformation function F2, and the enhancement function F3 may be performed using a one-dimensional LUT for each function, or may be performed without using the LUT.
"effect"
The visual processing device 1 and the visual processing device 11 having the first profile data have the same visual processing effect.

(i)
変換関数F1により対数空間に変換された変換入力信号TISおよび変換アンシャープ信号TUSを用いた視覚処理が実現される。人間の視覚特性は、対数的であり、対数空間に変換して処理を行うことで視覚特性に適した視覚処理が実現される。
(I)
Visual processing using the converted input signal TIS and the converted unsharp signal TUS converted into the logarithmic space by the conversion function F1 is realized. Human visual characteristics are logarithmic, and visual processing suitable for the visual characteristics is realized by performing processing after conversion to logarithmic space.

(ii)
それぞれの視覚処理装置では、対数空間におけるコントラスト強調が実現される。
図108に示す従来の視覚処理装置400は、一般的にボケ具合が小さいアンシャープ信号USを用いて輪郭(エッジ)強調を行うために用いられる。しかし、視覚処理装置400は、ボケ具合の大きいアンシャープ信号USを用いてコントラスト強調する場合には、原画像の明部には強調不足、暗部には強調過多になり、視覚特性に適さない視覚処理と
なる。すなわち、明るくする方向への補正は強調不足、暗くする方向への補正は強調過多となる傾向にある。
(Ii)
Each visual processing device realizes contrast enhancement in a logarithmic space.
The conventional visual processing device 400 shown in FIG. 108 is generally used to perform contour (edge) enhancement using an unsharp signal US with a small degree of blur. However, when the visual processing device 400 performs contrast enhancement using the unsharp signal US having a large degree of blur, the bright portion of the original image is under-enhanced and over-enhanced in the dark portion, which is not suitable for visual characteristics. It becomes processing. That is, correction in the brightening direction tends to be under-emphasized, and correction in the darkening direction tends to be over-emphasized.

一方、視覚処理装置1または視覚処理装置11を用いて視覚処理を行った場合には、暗部から明部まで視覚特性に適した視覚処理を行うことが可能であり、明るくする方向の強調と暗くする方向の強調とをバランス良く行うことが可能である。
(iii)
従来の視覚処理装置400では、視覚処理後の出力信号OSが負になり破綻する場合がある。
On the other hand, when visual processing is performed using the visual processing device 1 or the visual processing device 11, it is possible to perform visual processing suitable for visual characteristics from a dark part to a bright part. It is possible to perform the emphasis of the direction to be performed in a well-balanced manner.
(Iii)
In the conventional visual processing device 400, the output signal OS after visual processing may become negative and fail.

一方、式M1で求められるプロファイルデータのある要素の値Cが0≦C≦255の範囲を超える場合には、その要素の値を0又は255としておくことにより、補正後の画素信号が負になり破綻することや、飽和して破綻することが防止可能となる。このことは、プロファイルデータの要素を表現するためのビット長にかかわらず実現される。   On the other hand, when the value C of an element in the profile data obtained by the equation M1 exceeds the range of 0 ≦ C ≦ 255, the value of the element is set to 0 or 255 so that the corrected pixel signal becomes negative. It becomes possible to prevent the failure or saturation and failure. This is realized regardless of the bit length for expressing the elements of the profile data.

《変形例》
(i)
変換関数F1は、対数関数に限られない。例えば、変換関数F1を、入力信号ISにかけられているガンマ補正(例えば、ガンマ係数[0.45])を外す変換とし、逆変換関数F2を入力信号ISに掛けられていたガンマ補正をかける変換としてもよい。
<Modification>
(I)
The conversion function F1 is not limited to a logarithmic function. For example, the conversion function F1 is a conversion that removes the gamma correction (for example, gamma coefficient [0.45]) applied to the input signal IS, and the inverse conversion function F2 is a conversion that applies the gamma correction applied to the input signal IS. It is good.

これにより、入力信号ISにかけられてるガンマ補正を外し、線形特性のもとで処理を行うことが可能となる。このため、光学的なボケの補正を行うことが可能となる。
(ii)
視覚処理装置11では、視覚処理部13は、入力信号ISとアンシャープ信号USとに基づいて、2次元LUT4を用いずに上記式M1を演算するもので有っても良い。この場合、それぞれの関数F1〜F3の計算においては、1次元のLUTを用いても良い。
As a result, it is possible to remove the gamma correction applied to the input signal IS and perform processing based on linear characteristics. For this reason, optical blur correction can be performed.
(Ii)
In the visual processing device 11, the visual processing unit 13 may calculate the above expression M1 based on the input signal IS and the unsharp signal US without using the two-dimensional LUT 4. In this case, a one-dimensional LUT may be used in the calculation of the respective functions F1 to F3.

(2)
《第2プロファイルデータ》
第2プロファイルデータは、入力信号ISとアンシャープ信号USとの比を強調する関数を含む演算に基づいて定められている。これにより、例えば、シャープ成分を強調する視覚処理などを実現することが可能となる。
(2)
<< 2nd profile data >>
The second profile data is determined based on a calculation including a function that emphasizes the ratio between the input signal IS and the unsharp signal US. Thereby, for example, it is possible to realize visual processing that emphasizes the sharp component.

さらに、第2プロファイルデータは、強調された入力信号ISとアンシャープ信号USとの比に対してダイナミックレンジ圧縮を行う演算に基づいて定められている。これにより、例えば、シャープ成分を強調しつつ、ダイナミックレンジの圧縮を行う視覚処理などを実現することが可能となる。   Further, the second profile data is determined based on a calculation that performs dynamic range compression on the ratio between the enhanced input signal IS and the unsharp signal US. Accordingly, for example, it is possible to realize visual processing that compresses the dynamic range while enhancing the sharp component.

以下、具体的に説明する。
第2プロファイルデータの各要素の値C(出力信号OSの値)は、入力信号ISの値A、アンシャープ信号USの値B、ダイナミックレンジ圧縮関数F4、強調関数F5を用いて、C=F4(A)*F5(A/B)(以下、式M2という)と表される。
This will be specifically described below.
The value C (value of the output signal OS) of each element of the second profile data is C = F4 using the value A of the input signal IS, the value B of the unsharp signal US, the dynamic range compression function F4, and the enhancement function F5. (A) * F5 (A / B) (hereinafter referred to as Formula M2).

ここで、ダイナミックレンジ圧縮関数F4は、例えば、上に凸のべき関数などの単調増加関数である。例えば、F4(x)=x^γ(0<γ<1)と表される。強調関数F5は、べき関数である。例えば、F5(x)=x^α(0<α≦1)と表される。
《等価な視覚処理装置21》
図16に、第2プロファイルデータを2次元LUT4に登録した視覚処理装置1と等価な視覚処理装置21を示す。
Here, the dynamic range compression function F4 is a monotonically increasing function such as an upward convex power function, for example. For example, F4 (x) = x ^ γ (0 <γ <1). The enhancement function F5 is a power function. For example, F5 (x) = x ^ α (0 <α ≦ 1).
<< Equivalent visual processing device 21 >>
FIG. 16 shows a visual processing device 21 equivalent to the visual processing device 1 in which the second profile data is registered in the two-dimensional LUT 4.

視覚処理装置21は、入力信号ISとアンシャープ信号USとの比を強調する演算に基づいて出力信号OSを出力する装置である。これにより、例えば、シャープ成分を強調する視覚処理などを実現することが可能となる。
さらに、視覚処理装置21は、強調された入力信号ISとアンシャープ信号USとの比に対してダイナミックレンジ圧縮を行う演算に基づいて出力信号OSを出力する。これにより、例えば、シャープ成分を強調しつつ、ダイナミックレンジの圧縮を行う視覚処理などを実現することが可能となる。
The visual processing device 21 is a device that outputs the output signal OS based on a calculation that emphasizes the ratio between the input signal IS and the unsharp signal US. Thereby, for example, it is possible to realize visual processing that emphasizes the sharp component.
Furthermore, the visual processing device 21 outputs the output signal OS based on a calculation that performs dynamic range compression on the ratio of the emphasized input signal IS and the unsharp signal US. Accordingly, for example, it is possible to realize visual processing that compresses the dynamic range while enhancing the sharp component.

図16に示す視覚処理装置21は、入力信号ISとして取得した原画像の画素ごとの輝度値に空間処理を実行しアンシャープ信号USを出力する空間処理部22と、入力信号ISとアンシャープ信号USとを用いて、原画像の視覚処理を行い、出力信号OSを出力する視覚処理部23とを備えている。   The visual processing device 21 shown in FIG. 16 performs spatial processing on the luminance value for each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and the input signal IS and the unsharp signal. A visual processing unit 23 that performs visual processing of an original image using US and outputs an output signal OS is provided.

空間処理部22は、視覚処理装置1が備える空間処理部2と同様の動作を行うため、説明を省略する。
視覚処理部23は、入力信号ISを第1の入力、アンシャープ信号USを第2の入力とし、入力信号ISをアンシャープ信号USで除算した除算信号RSを出力する除算部25と、除算信号RSを入力とし、強調処理信号TSを出力とする強調処理部26と、入力信号ISを第1の入力、強調処理信号TSを第2の入力とし、出力信号OSを出力する出力処理部27とを備えている。出力処理部27は、入力信号ISを入力とし、ダイナミックレンジ(DR)圧縮されたDR圧縮信号DRSを出力するDR圧縮部28と、DR圧縮信号DRSを第1の入力、強調処理信号TSを第2の入力とし、出力信号OSを出力する乗算部29とを備えている。
The spatial processing unit 22 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, and thus description thereof is omitted.
The visual processing unit 23 uses the input signal IS as a first input, the unsharp signal US as a second input, and a division unit 25 that outputs a division signal RS obtained by dividing the input signal IS by the unsharp signal US; An emphasis processing unit 26 that receives RS as an input and outputs an emphasis processing signal TS; an output processing unit 27 that outputs the output signal OS by using the input signal IS as a first input and the emphasis processing signal TS as a second input; It has. The output processing unit 27 receives the input signal IS, outputs a DR compression signal DRS that has been subjected to dynamic range (DR) compression, a DR compression signal DRS as a first input, and an enhancement processing signal TS as a first input. 2 and a multiplier 29 that outputs an output signal OS.

《等価な視覚処理装置21の作用》
視覚処理部23の動作についてさらに説明を加える。
除算部25は、値Aの入力信号ISを値Bのアンシャープ信号USで除算し、値A/Bの除算信号RSを出力する。強調処理部26は、強調関数F5を用いて、値A/Bの除算信号RSから値F5(A/B)の強調処理信号TSを出力する。DR圧縮部28は、ダイナミックレンジ圧縮関数F4を用いて、値Aの入力信号ISから値F4(A)のDR圧縮信号DRSを出力する。乗算部29は、値F4(A)のDR圧縮信号DRSと値F5(A/B)の強調処理信号TSとを乗算し、値F4(A)*F5(A/B)の出力信号OSを出力する。
<< Operation of Equivalent Visual Processing Device 21 >>
The operation of the visual processing unit 23 will be further described.
The division unit 25 divides the input signal IS having the value A by the unsharp signal US having the value B, and outputs a division signal RS having the value A / B. The enhancement processing unit 26 outputs the enhancement processing signal TS having the value F5 (A / B) from the division signal RS having the value A / B using the enhancement function F5. The DR compression unit 28 outputs a DR compressed signal DRS having a value F4 (A) from an input signal IS having a value A using a dynamic range compression function F4. The multiplier 29 multiplies the DR compressed signal DRS having the value F4 (A) by the enhancement processing signal TS having the value F5 (A / B), and outputs the output signal OS having the value F4 (A) * F5 (A / B). Output.

なお、ダイナミックレンジ圧縮関数F4、強調関数F5を用いた計算は、それぞれの関数に対する1次元のLUTを用いて行われても良いし、LUTを用いないで行われても良い。
《効果》
第2プロファイルデータを備える視覚処理装置1と視覚処理装置21とは、同様の視覚処理効果を奏する。
The calculation using the dynamic range compression function F4 and the enhancement function F5 may be performed using a one-dimensional LUT for each function, or may be performed without using the LUT.
"effect"
The visual processing device 1 and the visual processing device 21 including the second profile data have the same visual processing effect.

(i)
従来では、画像全体のダイナミックレンジを圧縮する場合、図17に示すダイナミックレンジ圧縮関数F4を用いて、暗部からハイライトまで飽和させずに階調レベルを圧縮する。すなわち、圧縮前の画像信号における再現目標の黒レベルをL0、最大の白レベルをL1とすると、圧縮前のダイナミックレンジL1:L0は、圧縮後のダイナミックレンジQ1:Q0に圧縮される。しかし、画像信号レベルの比であるコントラストは、ダイナミックレンジの圧縮により、(Q1/Q0)*(L0/L1)倍に下がることとなる。ここで、ダイナミックレンジ圧縮関数F4は、上に凸のべき関数などである。
(I)
Conventionally, when compressing the dynamic range of the entire image, the gradation level is compressed using the dynamic range compression function F4 shown in FIG. 17 without saturating from the dark part to the highlight. That is, assuming that the reproduction target black level in the image signal before compression is L0 and the maximum white level is L1, the dynamic range L1: L0 before compression is compressed to the dynamic range Q1: Q0 after compression. However, the contrast, which is the ratio of the image signal levels, is reduced to (Q1 / Q0) * (L0 / L1) times due to the compression of the dynamic range. Here, the dynamic range compression function F4 is an upward convex power function or the like.

一方、第2プロファイルデータを備える視覚処理装置1および視覚処理装置21では、値A/Bの除算信号RS、すなわちシャープ信号を強調関数F5で強調処理し、DR圧縮信号DRSに乗じている。このため、局所的なコントラストを強調することになる。ここで、強調関数F5は、図18に示すようなべき関数であり(F5(x)=x^α)、除算
信号RSの値が1より大きいときに明るい方に強調を行い、1より小さいときに暗い方向に強調を行う。
On the other hand, in the visual processing device 1 and the visual processing device 21 including the second profile data, the division signal RS of the value A / B, that is, the sharp signal is enhanced by the enhancement function F5 and multiplied by the DR compressed signal DRS. For this reason, local contrast is emphasized. Here, the enhancement function F5 is a power function as shown in FIG. 18 (F5 (x) = x ^ α). When the value of the division signal RS is larger than 1, the enhancement is performed in the brighter direction and is smaller than 1. Sometimes emphasizes in darker directions.

一般に、人間の視覚は、局所コントラストを維持すれば、全体的なコントラストが低下していても同じコントラストに見える性質がある。これにより、第2プロファイルデータを備える視覚処理装置1および視覚処理装置21では、ダイナミックレンジの圧縮を行いつつ、視覚的にはコントラストを低下させない視覚処理を実現することが可能となる。   In general, human vision has the property that if the local contrast is maintained, the same contrast can be seen even if the overall contrast is lowered. Accordingly, the visual processing device 1 and the visual processing device 21 including the second profile data can realize visual processing that does not visually reduce contrast while compressing the dynamic range.

(ii)
さらに具体的に本発明の効果を説明する。
ダイナミックレンジ圧縮関数F4は、F4(x)=x^γ(例えば、γ=0.6とする)であるとする。また、強調関数F5は、F5(x)=x^α(例えば、α=0.4とする)であるとする。また、入力信号ISの最大の白レベルを値1に正規化した場合の再現目標の黒レベルが値1/300であるとする。すなわち、入力信号ISのダイナミックレンジが300:1であるとする。
(Ii)
The effects of the present invention will be described more specifically.
The dynamic range compression function F4 is assumed to be F4 (x) = x ^ γ (for example, γ = 0.6). The enhancement function F5 is assumed to be F5 (x) = x ^ α (for example, α = 0.4). Further, it is assumed that the black level of the reproduction target when the maximum white level of the input signal IS is normalized to a value 1 is a value 1/300. That is, assume that the dynamic range of the input signal IS is 300: 1.

ダイナミックレンジ圧縮関数F4を用いて、この入力信号ISのダイナミックレンジ圧縮した場合、圧縮後のダイナミックレンジは、F4(1):F4(1/300)=30:1となる。すなわち、ダイナミックレンジ圧縮関数F4により、ダイナミックレンジは1/10に圧縮されることとなる。   When the dynamic range compression of the input signal IS is performed using the dynamic range compression function F4, the dynamic range after compression is F4 (1): F4 (1/300) = 30: 1. That is, the dynamic range is compressed to 1/10 by the dynamic range compression function F4.

一方、出力信号OSの値Cは、上記式M2で表され、C=(A^0.6)*{(A/B)^0.4}、すなわちC=A/(B^0.4)である。ここで、局所的な範囲では、Bの値は一定と見なせるため、CはAに比例する。すなわち、値Cの変化量と値Aの変化量との比は1となり、入力信号ISと出力信号OSとにおいて局所的なコントラストは変化しないこととなる。   On the other hand, the value C of the output signal OS is expressed by the above equation M2, and C = (A ^ 0.6) * {(A / B) ^ 0.4}, that is, C = A / (B ^ 0.4. ). Here, in the local range, the value of B can be regarded as constant, so that C is proportional to A. That is, the ratio between the change amount of the value C and the change amount of the value A is 1, and the local contrast does not change between the input signal IS and the output signal OS.

上記同様、人間の視覚は、局所コントラストを維持すれば、全体的なコントラストが低下していても同じコントラストに見える性質がある。これにより、第2プロファイルデータを備える視覚処理装置1および視覚処理装置21では、ダイナミックレンジの圧縮を行いつつ、視覚的にはコントラストを低下させない視覚処理を実現することが可能となる。   As described above, human vision has the property that if the local contrast is maintained, the same contrast can be seen even if the overall contrast is lowered. Accordingly, the visual processing device 1 and the visual processing device 21 including the second profile data can realize visual processing that does not visually reduce contrast while compressing the dynamic range.

なお、図18に示す強調関数F5のべき乗数αを0.4より大きくすれば、ダイナミックレンジの圧縮を行いつつ、入力信号ISよりも出力信号OSの見かけのコントラストを上げることも可能である。
(iii)
本発明では、以上の効果を実現できるため、次の状況において特に有効である。すなわち、物理的なダイナミックレンジの狭いディスプレイで、暗部も明部もつぶれずにコントラストの高い画像を再現することが可能となる。また例えば、明るい環境下のテレビプロジェクタでコントラストの高い映像を表示する、濃度の低いインク(薄い色しかでないプリンタ)でコントラストの高いプリントを得ることが可能となる。
If the power multiplier α of the enhancement function F5 shown in FIG. 18 is larger than 0.4, it is possible to increase the apparent contrast of the output signal OS rather than the input signal IS while compressing the dynamic range.
(Iii)
In the present invention, since the above effects can be realized, it is particularly effective in the following situation. That is, it is possible to reproduce a high-contrast image on a display with a narrow physical dynamic range without losing dark and bright portions. In addition, for example, a high-contrast print can be obtained with a low-density ink (a printer having only a light color) that displays a high-contrast image on a television projector in a bright environment.

《変形例》
(i)
視覚処理装置21では、視覚処理部23は、入力信号ISとアンシャープ信号USとに基づいて、2次元LUT4を用いずに上記式M2を演算するもので有っても良い。この場合、それぞれの関数F4,F5の計算においては、1次元のLUTを用いても良い。
<Modification>
(I)
In the visual processing device 21, the visual processing unit 23 may calculate the above expression M2 without using the two-dimensional LUT 4 based on the input signal IS and the unsharp signal US. In this case, a one-dimensional LUT may be used in the calculation of the functions F4 and F5.

(ii)
なお、式M2で求められるプロファイルデータのある要素の値CがC>255となる場合には、その要素の値Cを255としてもよい。
(3)
《第3プロファイルデータ》
第3プロファイルデータは、入力信号ISとアンシャープ信号USとの比を強調する関数を含む演算に基づいて定められている。これにより、例えば、シャープ成分を強調する視覚処理などを実現することが可能となる。
(Ii)
When the value C of an element in the profile data obtained by Expression M2 is C> 255, the value C of the element may be set to 255.
(3)
<< Third profile data >>
The third profile data is determined based on a calculation including a function that emphasizes the ratio between the input signal IS and the unsharp signal US. Thereby, for example, it is possible to realize visual processing that emphasizes the sharp component.

以下、具体的に説明する。
上記第2プロファイルデータの式M2において、ダイナミックレンジ圧縮関数F4は、比例係数1の正比例関数であってもよい。この場合、第3プロファイルデータの各要素の値C(出力信号OSの値)は、入力信号ISの値A、アンシャープ信号USの値B、強調関数F5を用いて、C=A*F5(A/B)(以下、式M3という)と表される。
This will be specifically described below.
In the second profile data equation M2, the dynamic range compression function F4 may be a direct proportional function with a proportional coefficient of 1. In this case, the value C (value of the output signal OS) of each element of the third profile data is C = A * F5 (value of the input signal IS, the value B of the unsharp signal US, and the enhancement function F5). A / B) (hereinafter referred to as Formula M3).

《等価な視覚処理装置31》
図19に、第3プロファイルデータを2次元LUT4に登録した視覚処理装置1と等価な視覚処理装置31を示す。
視覚処理装置31は、入力信号ISとアンシャープ信号USとの比を強調する演算に基づいて出力信号OSを出力する装置である。これにより、例えば、シャープ成分を強調する視覚処理などを実現することが可能となる。
<< Equivalent visual processing device 31 >>
FIG. 19 shows a visual processing device 31 equivalent to the visual processing device 1 in which the third profile data is registered in the two-dimensional LUT 4.
The visual processing device 31 is a device that outputs the output signal OS based on a calculation that emphasizes the ratio between the input signal IS and the unsharp signal US. Thereby, for example, it is possible to realize visual processing that emphasizes the sharp component.

図19に示す視覚処理装置31は、DR圧縮部28を備えない点において図16に示す視覚処理装置21と相違している。以下、図19に示す視覚処理装置31において、図16に示す視覚処理装置21と同様の動作を行う部分については、同じ符号を付し、詳しい説明を省略する。   The visual processing device 31 shown in FIG. 19 is different from the visual processing device 21 shown in FIG. 16 in that the DR compression unit 28 is not provided. In the following, in the visual processing device 31 shown in FIG. 19, portions that perform the same operations as those of the visual processing device 21 shown in FIG.

視覚処理装置31は、入力信号ISとして取得した原画像の画素ごとの輝度値に空間処理を実行しアンシャープ信号USを出力する空間処理部22と、入力信号ISとアンシャープ信号USとを用いて、原画像の視覚処理を行い、出力信号OSを出力する視覚処理部32とを備えている。   The visual processing device 31 uses the spatial processing unit 22 that performs spatial processing on the luminance value of each pixel of the original image acquired as the input signal IS and outputs the unsharp signal US, and the input signal IS and the unsharp signal US. A visual processing unit 32 that performs visual processing of the original image and outputs an output signal OS.

空間処理部22は、視覚処理装置1が備える空間処理部2と同様の動作を行うため、説明を省略する。
視覚処理部32は、入力信号ISを第1の入力、アンシャープ信号USを第2の入力とし、入力信号ISをアンシャープ信号USで除算した除算信号RSを出力する除算部25と、除算信号RSを入力とし、強調処理信号TSを出力とする強調処理部26と、入力信号ISを第1の入力、強調処理信号TSを第2の入力とし、出力信号OSを出力する乗算部33とを備えている。
The spatial processing unit 22 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, and thus description thereof is omitted.
The visual processing unit 32 uses the input signal IS as a first input, the unsharp signal US as a second input, and a division unit 25 that outputs a division signal RS obtained by dividing the input signal IS by the unsharp signal US; An enhancement processing unit 26 that receives RS as an input and outputs an enhancement processing signal TS, and a multiplication unit 33 that uses the input signal IS as a first input and the enhancement processing signal TS as a second input and outputs an output signal OS. I have.

《等価な視覚処理装置31の作用》
視覚処理部32の動作についてさらに説明を加える。
除算部25および強調処理部26は、図16に示す視覚処理装置21について説明したのと同様の動作を行う。
<< Operation of Equivalent Visual Processing Device 31 >>
The operation of the visual processing unit 32 will be further described.
The division unit 25 and the enhancement processing unit 26 perform the same operations as described for the visual processing device 21 shown in FIG.

乗算部33は、値Aの入力信号ISと値F5(A/B)の強調処理信号TSとを乗算し、値A*F5(A/B)の出力信号OSを出力する。ここで、強調関数F5は、図18に示したものと同様である。
なお、強調関数F5を用いた計算は、図16に示す視覚処理装置21について説明したのと同様に、それぞれの関数に対する1次元のLUTを用いて行われても良いし、LUTを用いないで行われても良い。
The multiplier 33 multiplies the input signal IS having the value A by the enhancement processing signal TS having the value F5 (A / B), and outputs an output signal OS having the value A * F5 (A / B). Here, the enhancement function F5 is the same as that shown in FIG.
The calculation using the enhancement function F5 may be performed using a one-dimensional LUT for each function, as described for the visual processing device 21 shown in FIG. 16, or without using the LUT. It may be done.

《効果》
第3プロファイルデータを備える視覚処理装置1と視覚処理装置31とは、同様の視覚処理効果を奏する。
(i)
強調処理部26では、入力信号ISとアンシャープ信号USとの比として表されるシャープ信号(除算信号RS)の強調処理が行われ、強調されたシャープ信号が入力信号IS
に乗算される。入力信号ISとアンシャープ信号USとの比として表されるシャープ信号を強調処理することは、対数空間における入力信号ISとアンシャープ信号USとの差分を計算することに相当する。すなわち、対数的な人間の視覚特性に適した視覚処理が実現される。
"effect"
The visual processing device 1 and the visual processing device 31 having the third profile data have the same visual processing effect.
(I)
The enhancement processing unit 26 performs enhancement processing of a sharp signal (division signal RS) expressed as a ratio between the input signal IS and the unsharp signal US, and the enhanced sharp signal is input to the input signal IS.
Is multiplied by Enhancing the sharp signal expressed as the ratio of the input signal IS and the unsharp signal US corresponds to calculating the difference between the input signal IS and the unsharp signal US in logarithmic space. That is, visual processing suitable for logarithmic human visual characteristics is realized.

(ii)
強調関数F5による強調量は、入力信号ISが大きい場合(明るい場合)に大きくなり、小さい場合(暗い場合)に小さくなる。また、明るくする方向への強調量は、暗くする方向への強調量より大きくなる。このため、視覚特性に適した視覚処理が実現可能となり、バランス良く自然な視覚処理が実現される。
(Ii)
The amount of enhancement by the enhancement function F5 increases when the input signal IS is large (when it is bright) and decreases when it is small (when it is dark). Also, the amount of enhancement in the brightening direction is larger than the amount of enhancement in the darkening direction. For this reason, visual processing suitable for visual characteristics can be realized, and natural visual processing with a good balance can be realized.

(iii)
なお、式M3で求められるプロファイルデータのある要素の値CがC>255となる場合には、その要素の値Cを255としてもよい。
(iv)
式M3を用いた処理では、入力信号ISに対するダイナミックレンジの圧縮は施されないが、局所的なコントラストを強調することができ、視覚的にダイナミックレンジの圧縮・伸張を行うことが可能となる。
(Iii)
When the value C of an element in the profile data obtained by the expression M3 is C> 255, the value C of the element may be set to 255.
(Iv)
In the processing using Expression M3, the dynamic range is not compressed with respect to the input signal IS, but the local contrast can be enhanced, and the dynamic range can be visually compressed and expanded.

(4)
《第4プロファイルデータ》
第4プロファイルデータは、入力信号ISとアンシャープ信号USとの差を入力信号ISの値に応じて強調する関数を含む演算に基づいて定められている。これにより、例えば、入力信号ISのシャープ成分などを入力信号ISの値に応じて強調することが可能となる。このため、入力信号ISの暗部から明部まで適切な強調を行うことが可能となる。
(4)
<< 4th profile data >>
The fourth profile data is determined based on an operation including a function for enhancing the difference between the input signal IS and the unsharp signal US according to the value of the input signal IS. Thereby, for example, the sharp component of the input signal IS can be enhanced according to the value of the input signal IS. For this reason, it is possible to appropriately emphasize the dark portion to the bright portion of the input signal IS.

さらに、第4プロファイルデータは、強調された値に対して、入力信号ISをダイナミックレンジ圧縮した値を加える演算に基づいて定められている。これにより、入力信号ISのシャープ成分などを入力信号ISの値に応じて強調しつつ、ダイナミックレンジの圧縮を行うことが可能となる。   Further, the fourth profile data is determined based on an operation of adding a value obtained by compressing the input signal IS to the enhanced range with respect to the emphasized value. This makes it possible to compress the dynamic range while enhancing the sharp component of the input signal IS according to the value of the input signal IS.

以下、具体的に説明する。
第4プロファイルデータの各要素の値C(出力信号OSの値)は、入力信号ISの値A、アンシャープ信号USの値B、強調量調整関数F6、強調関数F7、ダイナミックレンジ圧縮関数F8を用いて、C=F8(A)+F6(A)*F7(A−B)(以下、式M4という)と表される。
This will be specifically described below.
The value C (value of the output signal OS) of each element of the fourth profile data includes the value A of the input signal IS, the value B of the unsharp signal US, the enhancement amount adjustment function F6, the enhancement function F7, and the dynamic range compression function F8. It is expressed as C = F8 (A) + F6 (A) * F7 (AB) (hereinafter referred to as formula M4).

ここで、強調量調整関数F6は、入力信号ISの値に対して単調増加する関数である。すなわち、入力信号ISの値Aが小さい時は、強調量調整関数F6の値も小さく、入力信号ISの値Aが大きい時は、強調量調整関数F6の値も大きくなる。強調関数F7は、図109を用いて説明した強調関数R1〜R3のいずれかの関数である。ダイナミックレンジ圧縮関数F8は、図17を用いて説明したべき関数であり、F8(x)=x^γ(0<γ<1)と表される。   Here, the enhancement amount adjustment function F6 is a function that monotonously increases with respect to the value of the input signal IS. That is, when the value A of the input signal IS is small, the value of the enhancement amount adjustment function F6 is also small, and when the value A of the input signal IS is large, the value of the enhancement amount adjustment function F6 is also large. The enhancement function F7 is one of the enhancement functions R1 to R3 described with reference to FIG. The dynamic range compression function F8 should be described with reference to FIG. 17, and is expressed as F8 (x) = x ^ γ (0 <γ <1).

《等価な視覚処理装置41》
図20に、第4プロファイルデータを2次元LUT4に登録した視覚処理装置1と等価な視覚処理装置41を示す。
視覚処理装置41は、入力信号ISとアンシャープ信号USとの差を入力信号ISの値に応じて強調する演算に基づいて出力信号OSを出力する装置である。これにより、例えば、入力信号ISのシャープ成分などを入力信号ISの値に応じて強調することが可能となる。このため、入力信号ISの暗部から明部まで適切な強調を行うことが可能となる。
<< Equivalent visual processing device 41 >>
FIG. 20 shows a visual processing device 41 equivalent to the visual processing device 1 in which the fourth profile data is registered in the two-dimensional LUT 4.
The visual processing device 41 is a device that outputs the output signal OS based on a calculation that emphasizes the difference between the input signal IS and the unsharp signal US according to the value of the input signal IS. Thereby, for example, the sharp component of the input signal IS can be enhanced according to the value of the input signal IS. For this reason, it is possible to appropriately emphasize the dark portion to the bright portion of the input signal IS.

さらに、視覚処理装置41は、強調された値に対して、入力信号ISをダイナミックレ
ンジ圧縮した値を加える演算に基づいて出力信号OSを出力する。これにより、入力信号ISのシャープ成分などを入力信号ISの値に応じて強調しつつ、ダイナミックレンジの圧縮を行うことが可能となる。
Furthermore, the visual processing device 41 outputs the output signal OS based on an operation of adding a value obtained by compressing the input signal IS to the dynamic range with respect to the emphasized value. This makes it possible to compress the dynamic range while enhancing the sharp component of the input signal IS according to the value of the input signal IS.

図20に示す視覚処理装置41は、入力信号ISとして取得した原画像の画素ごとの輝度値に空間処理を実行しアンシャープ信号USを出力する空間処理部42と、入力信号ISとアンシャープ信号USとを用いて、原画像の視覚処理を行い、出力信号OSを出力する視覚処理部43とを備えている。   A visual processing device 41 shown in FIG. 20 performs spatial processing on the luminance value for each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and the input signal IS and the unsharp signal. A visual processing unit 43 that performs visual processing of an original image using US and outputs an output signal OS is provided.

空間処理部42は、視覚処理装置1が備える空間処理部2と同様の動作を行うため、説明を省略する。
視覚処理部43は、入力信号ISを第1の入力、アンシャープ信号USを第2の入力とし、それぞれの差分である差分信号DSを出力する減算部44と、差分信号DSを入力とし、強調処理信号TSを出力する強調処理部45と、入力信号ISを入力とし、強調量調整信号ICを出力する強調量調整部46と、強調量調整信号ICを第1の入力、強調処理信号TSを第2の入力とし、強調量調整信号ICと強調処理信号TSとを乗算した乗算信号MSを出力する乗算部47と、入力信号ISを第1の入力、乗算信号MSを第2の入力とし、出力信号OSを出力する出力処理部48とを備えている。出力処理部48は、入力信号ISを入力とし、ダイナミックレンジ(DR)圧縮されたDR圧縮信号DRSを出力するDR圧縮部49と、DR圧縮信号DRSを第1の入力、乗算信号MSを第2の入力とし、出力信号OSを出力する加算部50とを備えている。
The spatial processing unit 42 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, and thus description thereof is omitted.
The visual processing unit 43 receives the input signal IS as a first input, the unsharp signal US as a second input, and outputs a difference signal DS that is a difference between them, and the difference signal DS as an input for emphasis. The enhancement processing unit 45 that outputs the processing signal TS, the enhancement amount adjustment unit 46 that receives the input signal IS and outputs the enhancement amount adjustment signal IC, the enhancement amount adjustment signal IC as the first input, and the enhancement processing signal TS The second input, the multiplication unit 47 that outputs the multiplication signal MS obtained by multiplying the enhancement amount adjustment signal IC and the enhancement processing signal TS, the input signal IS as the first input, the multiplication signal MS as the second input, And an output processing unit 48 for outputting an output signal OS. The output processing unit 48 receives the input signal IS, outputs a DR compressed signal DRS that has been subjected to dynamic range (DR) compression, a DR compressed signal DRS as a first input, and a multiplication signal MS as a second input. And an adder 50 that outputs an output signal OS.

《等価な視覚処理装置41の作用》
視覚処理部43の動作についてさらに説明を加える。
減算部44は、値Aの入力信号ISと値Bのアンシャープ信号USとの差分を計算し、値A−Bの差分信号DSを出力する。強調処理部45は、強調関数F7を用いて、値A−Bの差分信号DSから値F7(A−B)の強調処理信号TSを出力する。強調量調整部46は、強調量調整関数F6を用いて、値Aの入力信号ISから値F6(A)の強調量調整信号ICを出力する。乗算部47は、値F6(A)の強調量調整信号ICと値F7(A−B)の強調処理信号TSとを乗算し、値F6(A)*F7(A−B)の乗算信号MSを出力する。DR圧縮部49は、ダイナミックレンジ圧縮関数F8を用いて、値Aの入力信号ISから値F8(A)のDR圧縮信号DRSを出力する。加算部50は、DR圧縮信号DRSと、値F6(A)*F7(A−B)の乗算信号MSとを加算し、値F8(A)+F6(A)*F7(A−B)の出力信号OSを出力する。
<< Operation of Equivalent Visual Processing Device 41 >>
The operation of the visual processing unit 43 will be further described.
The subtractor 44 calculates the difference between the input signal IS having the value A and the unsharp signal US having the value B, and outputs a difference signal DS having the value AB. The enhancement processing unit 45 outputs an enhancement processing signal TS having a value F7 (AB) from the difference signal DS having a value AB using the enhancement function F7. The enhancement amount adjustment unit 46 outputs the enhancement amount adjustment signal IC of the value F6 (A) from the input signal IS of the value A using the enhancement amount adjustment function F6. The multiplier 47 multiplies the enhancement amount adjustment signal IC having the value F6 (A) by the enhancement processing signal TS having the value F7 (AB), and a multiplication signal MS having the value F6 (A) * F7 (AB). Is output. The DR compression unit 49 outputs a DR compressed signal DRS having a value F8 (A) from an input signal IS having a value A using a dynamic range compression function F8. The adder 50 adds the DR compressed signal DRS and the multiplication signal MS of the value F6 (A) * F7 (AB), and outputs the value F8 (A) + F6 (A) * F7 (AB). The signal OS is output.

なお、強調量調整関数F6、強調関数F7、ダイナミックレンジ圧縮関数F8を用いた計算は、それぞれの関数に対する1次元のLUTを用いて行われても良いし、LUTを用いないで行われても良い。
《効果》
第4プロファイルデータを備える視覚処理装置1と視覚処理装置41とは、同様の視覚処理効果を奏する。
The calculation using the enhancement amount adjustment function F6, the enhancement function F7, and the dynamic range compression function F8 may be performed using a one-dimensional LUT for each function, or may be performed without using the LUT. good.
"effect"
The visual processing device 1 including the fourth profile data and the visual processing device 41 have the same visual processing effect.

(i)
入力信号ISの値Aにより、差分信号DSの強調量の調整を行う。このため、ダイナミックレンジ圧縮を行いつつ、暗部から明部までの局所コントラストを維持することが可能となる。
(I)
The enhancement amount of the differential signal DS is adjusted by the value A of the input signal IS. For this reason, it is possible to maintain the local contrast from the dark part to the bright part while performing dynamic range compression.

(ii)
強調量調整関数F6は、単調増加する関数であるが、入力信号ISの値Aが大きいほど、関数の値の増加量が減少する関数とすることができる。この場合、出力信号OSの値が飽和することが防止される。
(Ii)
The enhancement amount adjustment function F6 is a function that increases monotonously. However, the enhancement amount adjustment function F6 can be a function in which the increase amount of the function value decreases as the value A of the input signal IS increases. In this case, the value of the output signal OS is prevented from being saturated.

(iii)
強調関数F7を、図109を用いて説明した強調関数R2とする場合、差分信号DSの絶対値が大きい時の強調量を抑制することが可能となる。このため、鮮鋭度の高い部分での強調量が飽和することが防止され、視覚的にも自然な視覚処理を実行することが可能となる。
(Iii)
When the enhancement function F7 is the enhancement function R2 described with reference to FIG. 109, the enhancement amount when the absolute value of the difference signal DS is large can be suppressed. For this reason, it is possible to prevent the enhancement amount in the portion with high sharpness from being saturated, and it is possible to execute visual processing that is visually natural.

《変形例》
(i)
視覚処理装置41では、視覚処理部43は、入力信号ISとアンシャープ信号USとに基づいて、2次元LUT4を用いずに上記式M4を演算するもので有っても良い。この場合、それぞれの関数F6〜F8の計算においては、1次元のLUTを用いても良い。
<Modification>
(I)
In the visual processing device 41, the visual processing unit 43 may calculate the above expression M4 based on the input signal IS and the unsharp signal US without using the two-dimensional LUT4. In this case, a one-dimensional LUT may be used in the calculation of the respective functions F6 to F8.

(ii)
強調関数F7を比例係数1の正比例関数とする場合には、強調処理部45は、特に設ける必要がない。
(iii)
なお、式M4で求められるプロファイルデータのある要素の値Cが0≦C≦255の範囲を超える場合には、その要素の値Cを0又は255としてもよい。
(Ii)
When the enhancement function F7 is a direct proportional function with the proportionality coefficient 1, the enhancement processing unit 45 does not need to be provided.
(Iii)
When the value C of an element in the profile data obtained by the expression M4 exceeds the range of 0 ≦ C ≦ 255, the value C of the element may be set to 0 or 255.

(5)
《第5プロファイルデータ》
第5プロファイルデータは、入力信号ISとアンシャープ信号USとの差を入力信号ISの値に応じて強調する関数を含む演算に基づいて定められている。これにより、例えば、入力信号ISのシャープ成分などを入力信号ISの値に応じて強調することが可能となる。このため、入力信号ISの暗部から明部まで適切な強調を行うことが可能となる。
(5)
<< 5th profile data >>
The fifth profile data is determined based on an operation including a function for enhancing the difference between the input signal IS and the unsharp signal US according to the value of the input signal IS. Thereby, for example, the sharp component of the input signal IS can be enhanced according to the value of the input signal IS. For this reason, it is possible to appropriately emphasize the dark portion to the bright portion of the input signal IS.

以下、具体的に説明する。
上記第4プロファイルデータの式M4において、ダイナミックレンジ圧縮関数F8は、比例係数1の正比例関数であってもよい。この場合、第5プロファイルデータの各要素の値C(出力信号OSの値)は、入力信号ISの値A、アンシャープ信号USの値B、強調量調整関数F6、強調関数F7を用いて、C=A+F6(A)*F7(A−B)(以下、式M5という)と表される。
This will be specifically described below.
In the fourth profile data equation M4, the dynamic range compression function F8 may be a direct proportional function with a proportional coefficient of 1. In this case, the value C (value of the output signal OS) of each element of the fifth profile data is obtained by using the value A of the input signal IS, the value B of the unsharp signal US, the enhancement amount adjustment function F6, and the enhancement function F7. C = A + F6 (A) * F7 (AB) (hereinafter referred to as Formula M5).

《等価な視覚処理装置51》
図21に、第5プロファイルデータを2次元LUT4に登録した視覚処理装置1と等価な視覚処理装置51を示す。
視覚処理装置51は、入力信号ISとアンシャープ信号USとの差を入力信号ISの値に応じて強調する演算に基づいて出力信号OSを出力する装置である。これにより、例えば、入力信号ISのシャープ成分などを入力信号ISの値に応じて強調することが可能となる。このため、入力信号ISの暗部から明部まで適切な強調を行うことが可能となる。
<< Equivalent visual processing device 51 >>
FIG. 21 shows a visual processing device 51 equivalent to the visual processing device 1 in which the fifth profile data is registered in the two-dimensional LUT 4.
The visual processing device 51 is a device that outputs the output signal OS based on a calculation that emphasizes the difference between the input signal IS and the unsharp signal US according to the value of the input signal IS. Thereby, for example, the sharp component of the input signal IS can be enhanced according to the value of the input signal IS. For this reason, it is possible to appropriately emphasize the dark portion to the bright portion of the input signal IS.

図21に示す視覚処理装置51は、DR圧縮部49を備えない点において図20に示す視覚処理装置41と相違している。以下、図21に示す視覚処理装置51において、図20に示す視覚処理装置41と同様の動作を行う部分については、同じ符号を付し、詳しい説明を省略する。   The visual processing device 51 shown in FIG. 21 is different from the visual processing device 41 shown in FIG. 20 in that the DR compression unit 49 is not provided. Hereinafter, in the visual processing device 51 shown in FIG. 21, the same reference numerals are given to the portions that perform the same operations as those of the visual processing device 41 shown in FIG. 20, and detailed descriptions thereof are omitted.

視覚処理装置51は、入力信号ISとして取得した原画像の画素ごとの輝度値に空間処理を実行しアンシャープ信号USを出力する空間処理部42と、入力信号ISとアンシャープ信号USとを用いて、原画像の視覚処理を行い、出力信号OSを出力する視覚処理部52とを備えている。   The visual processing device 51 uses the spatial processing unit 42 that performs spatial processing on the luminance value of each pixel of the original image acquired as the input signal IS and outputs the unsharp signal US, and the input signal IS and the unsharp signal US. A visual processing unit 52 that performs visual processing of the original image and outputs an output signal OS.

空間処理部42は、視覚処理装置1が備える空間処理部2と同様の動作を行うため、説明を省略する。
視覚処理部52は、入力信号ISを第1の入力、アンシャープ信号USを第2の入力と
し、それぞれの差分である差分信号DSを出力する減算部44と、差分信号DSを入力とし、強調処理信号TSを出力する強調処理部45と、入力信号ISを入力とし、強調量調整信号ICを出力する強調量調整部46と、強調量調整信号ICを第1の入力、強調処理信号TSを第2の入力とし、強調量調整信号ICと強調処理信号TSとを乗算した乗算信号MSを出力する乗算部47と、入力信号ISを第1の入力、乗算信号MSを第2の入力とし、出力信号OSを出力する加算部53とを備えている。
The spatial processing unit 42 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, and thus description thereof is omitted.
The visual processing unit 52 receives the input signal IS as a first input, the unsharp signal US as a second input, and outputs a difference signal DS that is a difference between them, and the difference signal DS as an input for emphasis. The enhancement processing unit 45 that outputs the processing signal TS, the enhancement amount adjustment unit 46 that receives the input signal IS and outputs the enhancement amount adjustment signal IC, the enhancement amount adjustment signal IC as the first input, and the enhancement processing signal TS The second input, the multiplication unit 47 that outputs the multiplication signal MS obtained by multiplying the enhancement amount adjustment signal IC and the enhancement processing signal TS, the input signal IS as the first input, the multiplication signal MS as the second input, And an adder 53 for outputting an output signal OS.

《等価な視覚処理装置51の作用》
視覚処理部52の動作についてさらに説明を加える。
減算部44、強調処理部45、強調量調整部46および乗算部47は、図20に示す視覚処理装置41について説明したのと同様の動作を行う。
<< Operation of Equivalent Visual Processing Device 51 >>
The operation of the visual processing unit 52 will be further described.
The subtraction unit 44, the enhancement processing unit 45, the enhancement amount adjustment unit 46, and the multiplication unit 47 perform the same operations as described for the visual processing device 41 shown in FIG.

加算部53は、値Aの入力信号ISと、値F6(A)*F7(A−B)の乗算信号MSとを加算し、値A+F6(A)*F7(A−B)の出力信号OSを出力する。
なお、強調量調整関数F6、強調関数F7を用いた計算は、図20に示す視覚処理装置41について説明したのと同様に、それぞれの関数に対する1次元のLUTを用いて行われても良いし、LUTを用いないで行われても良い。
The adder 53 adds the input signal IS of the value A and the multiplication signal MS of the value F6 (A) * F7 (AB), and outputs an output signal OS of the value A + F6 (A) * F7 (AB). Is output.
The calculation using the enhancement amount adjustment function F6 and the enhancement function F7 may be performed using a one-dimensional LUT for each function, as described for the visual processing device 41 shown in FIG. This may be performed without using the LUT.

《効果》
第5プロファイルデータを備える視覚処理装置1と視覚処理装置51とは、同様の視覚処理効果を奏する。また、第4プロファイルデータを備える視覚処理装置1および視覚処理装置41が奏する効果と、ほぼ同様の視覚処理効果を奏する。
"effect"
The visual processing device 1 including the fifth profile data and the visual processing device 51 have the same visual processing effect. Moreover, the visual processing effect which is substantially the same as the effect which the visual processing apparatus 1 and the visual processing apparatus 41 provided with 4th profile data show | plays.

(i)
入力信号ISの値Aにより、差分信号DSの強調量の調整を行う。このため、暗部から明部までのコントラストの強調量を均一にすることが可能となる。
《変形例》
(i)
強調関数F7を比例係数1の正比例関数とする場合には、強調処理部45は、特に設ける必要がない。
(I)
The enhancement amount of the differential signal DS is adjusted by the value A of the input signal IS. For this reason, the contrast enhancement amount from the dark part to the bright part can be made uniform.
<Modification>
(I)
When the enhancement function F7 is a direct proportional function with the proportionality coefficient 1, the enhancement processing unit 45 does not need to be provided.

(ii)
なお、式M5で求められるプロファイルデータのある要素の値Cが0≦C≦255の範囲を超える場合には、その要素の値Cを0又は255としてもよい。
(6)
《第6プロファイルデータ》
第6プロファイルデータは、入力信号ISとアンシャープ信号USとの差を強調した値に対して、入力信号ISの値を加えた値を階調補正する演算に基づいて定められている。これにより、例えば、シャープ成分が強調された入力信号ISに対して、階調補正を行う視覚処理を実現することが可能となる。
以下、具体的に説明する。
(Ii)
When the value C of an element in the profile data obtained by Expression M5 exceeds the range of 0 ≦ C ≦ 255, the value C of the element may be set to 0 or 255.
(6)
<< Sixth Profile Data >>
The sixth profile data is determined based on a calculation for gradation correction of a value obtained by adding the value of the input signal IS to a value that emphasizes the difference between the input signal IS and the unsharp signal US. Thereby, for example, it is possible to realize visual processing for performing gradation correction on the input signal IS in which the sharp component is emphasized.
This will be specifically described below.

第6プロファイルデータの各要素の値C(出力信号OSの値)は、入力信号ISの値A、アンシャープ信号USの値B、強調関数F9、階調補正関数F10を用いて、C=F10(A+F9(A−B))(以下、式M6という)と表される。
ここで、強調関数F9は、図109を用いて説明した強調関数R1〜R3のいずれかの関数である。階調補正関数F10は、例えば、ガンマ補正関数、S字型の階調補正関数、逆S字型の階調補正関数など、通常の階調補正で用いられる関数である。
The value C (value of the output signal OS) of each element of the sixth profile data is C = F10 using the value A of the input signal IS, the value B of the unsharp signal US, the enhancement function F9, and the gradation correction function F10. (A + F9 (AB)) (hereinafter referred to as Formula M6).
Here, the enhancement function F9 is one of the enhancement functions R1 to R3 described with reference to FIG. The tone correction function F10 is a function used in normal tone correction, such as a gamma correction function, an S-shaped tone correction function, and an inverse S-shaped tone correction function.

《等価な視覚処理装置61》
図22に、第6プロファイルデータを2次元LUT4に登録した視覚処理装置1と等価な視覚処理装置61を示す。
視覚処理装置61は、入力信号ISとアンシャープ信号USとの差を強調した値に対して、入力信号ISの値を加えた値を階調補正する演算に基づいて、出力信号OSを出力する装置である。これにより、例えば、シャープ成分が強調された入力信号ISに対して、階調補正を行う視覚処理を実現することが可能となる。
<< Equivalent visual processing device 61 >>
FIG. 22 shows a visual processing device 61 equivalent to the visual processing device 1 in which the sixth profile data is registered in the two-dimensional LUT 4.
The visual processing device 61 outputs the output signal OS based on a calculation that performs gradation correction on a value obtained by adding the value of the input signal IS to a value that emphasizes the difference between the input signal IS and the unsharp signal US. Device. Thereby, for example, it is possible to realize visual processing for performing gradation correction on the input signal IS in which the sharp component is emphasized.

図22に示す視覚処理装置61は、入力信号ISとして取得した原画像の画素ごとの輝度値に空間処理を実行しアンシャープ信号USを出力する空間処理部62と、入力信号ISとアンシャープ信号USとを用いて、原画像の視覚処理を行い、出力信号OSを出力する視覚処理部63とを備えている。   The visual processing device 61 shown in FIG. 22 performs spatial processing on the luminance value for each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and the input signal IS and the unsharp signal. A visual processing unit 63 that performs visual processing of an original image using US and outputs an output signal OS is provided.

空間処理部62は、視覚処理装置1が備える空間処理部2と同様の動作を行うため、説明を省略する。
視覚処理部63は、入力信号ISを第1の入力、アンシャープ信号USを第2の入力とし、それぞれの差分である差分信号DSを出力する減算部64と、差分信号DSを入力とし強調処理された強調処理信号TSを出力する強調処理部65と、入力信号ISを第1の入力、強調処理信号TSを第2の入力とし、それぞれを加算した加算信号PSを出力する加算部66と、加算信号PSを入力とし出力信号OSを出力する階調補正部67とを備えている。
The spatial processing unit 62 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, and thus the description thereof is omitted.
The visual processing unit 63 uses the input signal IS as a first input, the unsharp signal US as a second input, and outputs a difference signal DS that is a difference between them. An enhancement processing unit 65 that outputs the enhanced processing signal TS, an addition unit 66 that uses the input signal IS as a first input and the enhancement processing signal TS as a second input, and outputs an addition signal PS obtained by adding them together; And a gradation correction unit 67 that receives the addition signal PS and outputs an output signal OS.

《等価な視覚処理装置61の作用》
視覚処理部63の動作についてさらに説明を加える。
減算部64は、値Aの入力信号ISと、値Bのアンシャープ信号USとの差分を計算し、値A−Bの差分信号DSを出力する。強調処理部65は、強調関数F9を用いて、値A−Bの差分信号DSから値F9(A−B)の強調処理信号TSを出力する。加算部66は、値Aの入力信号ISと、値F9(A−B)の強調処理信号TSとを加算し、値A+F9(A−B)の加算信号PSを出力する。階調補正部67は、階調補正関数F10を用いて、値A+F9(A−B)の加算信号PSから、値F10(A+F9(A−B))の出力信号OSを出力する。
<< Operation of Equivalent Visual Processing Device 61 >>
The operation of the visual processing unit 63 will be further described.
The subtracting unit 64 calculates a difference between the input signal IS having the value A and the unsharp signal US having the value B, and outputs a difference signal DS having the value AB. The enhancement processing unit 65 outputs an enhancement processing signal TS having a value F9 (AB) from the difference signal DS having a value AB using the enhancement function F9. The adder 66 adds the input signal IS with the value A and the enhancement processing signal TS with the value F9 (A−B), and outputs an addition signal PS with the value A + F9 (A−B). The gradation correction unit 67 outputs the output signal OS of the value F10 (A + F9 (AB)) from the addition signal PS of the value A + F9 (AB) using the gradation correction function F10.

なお、強調関数F9、階調補正関数F10を用いた計算は、それぞれの関数に対する1次元のLUTを用いて行われても良いし、LUTを用いないで行われても良い。
《効果》
第6プロファイルデータを備える視覚処理装置1と視覚処理装置61とは、同様の視覚処理効果を奏する。
The calculation using the enhancement function F9 and the gradation correction function F10 may be performed using a one-dimensional LUT for each function, or may be performed without using the LUT.
"effect"
The visual processing device 1 having the sixth profile data and the visual processing device 61 have the same visual processing effect.

(i)
差分信号DSは、強調関数F9により強調処理され、入力信号ISに加算される。このため、入力信号ISのコントラストを強調することが可能となる。さらに、階調補正部67は、加算信号PSの階調補正処理を実行する。このため、例えば、原画像における出現頻度の高い中間調でさらにコントラストを強調することが可能となる。また、例えば、加算信号PS全体を明るくすることが可能となる。以上により、空間処理と階調処理とを同時に組み合わせて実現することが可能となる。
(I)
The difference signal DS is enhanced by the enhancement function F9 and added to the input signal IS. For this reason, it is possible to enhance the contrast of the input signal IS. Further, the gradation correction unit 67 executes gradation correction processing for the addition signal PS. For this reason, for example, the contrast can be further enhanced with a halftone having a high appearance frequency in the original image. In addition, for example, the entire addition signal PS can be brightened. As described above, spatial processing and gradation processing can be realized in combination at the same time.

《変形例》
(i)
視覚処理装置61では、視覚処理部63は、入力信号ISとアンシャープ信号USとに基づいて、2次元LUT4を用いずに上記式M6を演算するもので有っても良い。この場合、それぞれの関数F9,F10の計算においては、1次元のLUTを用いても良い。
<Modification>
(I)
In the visual processing device 61, the visual processing unit 63 may calculate the above expression M6 without using the two-dimensional LUT 4 based on the input signal IS and the unsharp signal US. In this case, a one-dimensional LUT may be used in the calculation of the functions F9 and F10.

(ii)
なお、式M6で求められるプロファイルデータのある要素の値Cが0≦C≦255の範囲を超える場合には、その要素の値Cを0又は255としてもよい。
(7)
《第7プロファイルデータ》
第7プロファイルデータは、入力信号ISとアンシャープ信号USとの差を強調した値に対して、入力信号ISを階調補正した値を加える演算に基づいて定められている。ここで、シャープ成分の強調と入力信号ISの階調補正とは独立して行われる。このため、入力信号ISの階調補正量にかかわらず、一定のシャープ成分の強調を行うことが可能となる。
(Ii)
When the value C of an element in the profile data obtained by the equation M6 exceeds the range of 0 ≦ C ≦ 255, the value C of the element may be set to 0 or 255.
(7)
<< 7th profile data >>
The seventh profile data is determined based on an operation of adding a value obtained by correcting the gradation of the input signal IS to a value that emphasizes the difference between the input signal IS and the unsharp signal US. Here, enhancement of the sharp component and gradation correction of the input signal IS are performed independently. For this reason, it is possible to emphasize certain sharp components regardless of the gradation correction amount of the input signal IS.

以下、具体的に説明する。
第7プロファイルデータの各要素の値C(出力信号OSの値)は、入力信号ISの値A、アンシャープ信号USの値B、強調関数F11、階調補正関数F12に対して、C=F12(A)+F11(A−B)(以下、式M7という)と表される。
This will be specifically described below.
The value C (value of the output signal OS) of each element of the seventh profile data is C = F12 with respect to the value A of the input signal IS, the value B of the unsharp signal US, the enhancement function F11, and the gradation correction function F12. (A) + F11 (AB) (hereinafter referred to as formula M7).

ここで、強調関数F11は、図109を用いて説明した強調関数R1〜R3のいずれかの関数である。階調補正関数F12は、例えば、ガンマ補正関数、S字型の階調補正関数、逆S字型の階調補正関数などである。
《等価な視覚処理装置71》
図23に、第7プロファイルデータを2次元LUT4に登録した視覚処理装置1と等価な視覚処理装置71を示す。
Here, the enhancement function F11 is one of the enhancement functions R1 to R3 described with reference to FIG. The gradation correction function F12 is, for example, a gamma correction function, an S-shaped gradation correction function, an inverse S-shaped gradation correction function, or the like.
<< Equivalent visual processing device 71 >>
FIG. 23 shows a visual processing device 71 equivalent to the visual processing device 1 in which the seventh profile data is registered in the two-dimensional LUT 4.

視覚処理装置71は、入力信号ISとアンシャープ信号USとの差を強調した値に対して、入力信号ISを階調補正した値を加える演算に基づいて出力信号OSを出力する装置である。ここで、シャープ成分の強調と入力信号ISの階調補正とは独立して行われる。このため、入力信号ISの階調補正量にかかわらず、一定のシャープ成分の強調を行うことが可能となる。   The visual processing device 71 is a device that outputs the output signal OS based on an operation of adding a value obtained by correcting the gradation of the input signal IS to a value that emphasizes the difference between the input signal IS and the unsharp signal US. Here, enhancement of the sharp component and gradation correction of the input signal IS are performed independently. For this reason, it is possible to emphasize certain sharp components regardless of the gradation correction amount of the input signal IS.

図23に示す視覚処理装置71は、入力信号ISとして取得した原画像の画素ごとの輝度値に空間処理を実行しアンシャープ信号USを出力する空間処理部72と、入力信号ISとアンシャープ信号USとを用いて、原画像の視覚処理を行い、出力信号OSを出力する視覚処理部73とを備えている。   The visual processing device 71 shown in FIG. 23 performs spatial processing on the luminance value for each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and the input signal IS and the unsharp signal. A visual processing unit 73 that performs visual processing of the original image using US and outputs an output signal OS is provided.

空間処理部72は、視覚処理装置1が備える空間処理部2と同様の動作を行うため、説明を省略する。
視覚処理部73は、入力信号ISを第1の入力、アンシャープ信号USを第2の入力とし、それぞれの差分である差分信号DSを出力する減算部74と、差分信号DSを入力とし強調処理された強調処理信号TSを出力する強調処理部75と、入力信号ISを入力とし、階調補正された階調補正信号GCを出力する階調補正部76と、階調補正信号GCを第1の入力、強調処理信号TSを第2の入力とし、出力信号OSを出力する加算部77とを備えている。
The spatial processing unit 72 performs the same operation as the spatial processing unit 2 included in the visual processing device 1, and thus description thereof is omitted.
The visual processing unit 73 receives the input signal IS as a first input, the unsharp signal US as a second input, and outputs a difference signal DS that is a difference between them. The enhancement processing unit 75 that outputs the enhanced processing signal TS, the gradation correction unit 76 that receives the input signal IS and outputs the gradation correction signal GC subjected to gradation correction, and the gradation correction signal GC as the first. And an enhancement processing signal TS as a second input and an adder 77 for outputting an output signal OS.

《等価な視覚処理装置71の作用》
視覚処理部73の動作についてさらに説明を加える。
減算部74は、値Aの入力信号ISと、値Bのアンシャープ信号USとの差分を計算し、値A−Bの差分信号DSを出力する。強調処理部75は、強調関数F11を用いて、値A−Bの差分信号DSから値F11(A−B)の強調処理信号TSを出力する。階調補正部76は、階調補正関数F12を用いて、値Aの入力信号ISから値F12(A)の階調補正信号GCを出力する。加算部77は、値F12(A)の階調補正信号GCと、値F11(A−B)の強調処理信号TSとを加算し、値F12(A)+F11(A−B)の出力信号OSを出力する。
<< Operation of Equivalent Visual Processing Device 71 >>
The operation of the visual processing unit 73 will be further described.
The subtractor 74 calculates a difference between the input signal IS having the value A and the unsharp signal US having the value B, and outputs a difference signal DS having the value AB. The enhancement processing unit 75 outputs an enhancement processing signal TS having a value F11 (AB) from the difference signal DS having a value AB using the enhancement function F11. The gradation correction unit 76 outputs the gradation correction signal GC having the value F12 (A) from the input signal IS having the value A using the gradation correction function F12. The adder 77 adds the gradation correction signal GC having the value F12 (A) and the enhancement processing signal TS having the value F11 (A−B), and outputs an output signal OS having the value F12 (A) + F11 (A−B). Is output.

なお、強調関数F11、階調補正関数F12を用いた計算は、それぞれの関数に対する
1次元のLUTを用いて行われても良いし、LUTを用いないで行われても良い。
《効果》
第7プロファイルデータを備える視覚処理装置1と視覚処理装置71とは、同様の視覚処理効果を奏する。
Note that the calculation using the enhancement function F11 and the gradation correction function F12 may be performed using a one-dimensional LUT for each function, or may be performed without using the LUT.
"effect"
The visual processing device 1 and the visual processing device 71 including the seventh profile data have the same visual processing effect.

(i)
入力信号ISは、階調補正部76により階調補正された後、強調処理信号TSと加算される。このため、階調補正関数F12の階調変化の少ない領域、すなわちコントラストが低下される領域においても、その後の強調処理信号TSの加算により、局所コントラストを強調することが可能となる。
(I)
The input signal IS is subjected to gradation correction by the gradation correction unit 76 and then added to the enhancement processing signal TS. For this reason, even in a region where the gradation change of the gradation correction function F12 is small, that is, a region where the contrast is lowered, it is possible to enhance the local contrast by adding the enhancement processing signal TS thereafter.

《変形例》
(i)
視覚処理装置71では、視覚処理部73は、入力信号ISとアンシャープ信号USとに基づいて、2次元LUT4を用いずに上記式M7を演算するもので有っても良い。この場合、それぞれの関数F11,F12の計算においては、1次元のLUTを用いても良い。
<Modification>
(I)
In the visual processing device 71, the visual processing unit 73 may calculate the expression M7 based on the input signal IS and the unsharp signal US without using the two-dimensional LUT4. In this case, a one-dimensional LUT may be used in the calculation of the functions F11 and F12.

(ii)
なお、式M7で求められるプロファイルデータのある要素の値Cが0≦C≦255の範囲を超える場合には、その要素の値Cを0又は255としてもよい。
(8)
《第1〜第7プロファイルデータの変形例》
(i)
上記(1)〜(7)において、第1〜第7プロファイルデータの各要素は、式M1〜M7に基づいて計算された値を格納すると説明した。また、それぞれのプロファイルデータでは、式M1〜M7により算出される値がプロファイルデータが格納可能な値の範囲を超える場合には、その要素の値を制限しても良いと説明した。
(Ii)
When the value C of an element in the profile data obtained by the expression M7 exceeds the range of 0 ≦ C ≦ 255, the value C of the element may be set to 0 or 255.
(8)
<< Modification of First to Seventh Profile Data >>
(I)
In the above (1) to (7), it has been described that each element of the first to seventh profile data stores a value calculated based on the equations M1 to M7. In each profile data, it has been described that the value of the element may be limited when the value calculated by the expressions M1 to M7 exceeds the range of values that can be stored in the profile data.

さらに、プロファイルデータでは、一部の値については、任意であっても良い。例えば、暗い夜景の中にある小さい明かりの部分など(夜景の中にあるネオン部分など)、入力信号ISの値は大きいが、アンシャープ信号USの値は小さい場合、視覚処理された入力信号ISの値が画質に与える影響は小さい。このように、視覚処理後の値が画質に与える影響が小さい部分では、プロファイルデータが格納する値は、式M1〜M7により算出される値の近似値、あるいは任意の値であっても良い。   Furthermore, in the profile data, some values may be arbitrary. For example, when the value of the input signal IS is large but the value of the unsharp signal US is small, such as a small light portion in a dark night scene (such as a neon portion in a night scene), the visually processed input signal IS The value of has a small effect on the image quality. As described above, in a portion where the value after visual processing has little influence on the image quality, the value stored in the profile data may be an approximate value of the values calculated by the equations M1 to M7 or an arbitrary value.

プロファイルデータが格納する値が、式M1〜M7により算出される値の近似値、あるいは任意の値となる場合にも、同じ値の入力信号ISとアンシャープ信号USとに対して格納されている値は、入力信号ISとアンシャープ信号USとの値に対して、単調増加、あるいは単調減少する関係を維持していることが望ましい。式M1〜M7等に基づいて作成されたプロファイルデータにおいて、同じ値の入力信号ISとアンシャープ信号USとに対するプロファイルデータが格納する値は、プロファイルデータの特性の概要を示している。このため、2次元LUTの特性を維持するために、上記関係を維持した状態でプロファイルデータのチューニングを行うことが望ましい。   Even when the values stored in the profile data are approximate values of the values calculated by the equations M1 to M7 or arbitrary values, they are stored for the input signal IS and the unsharp signal US having the same value. It is desirable that the values maintain a monotonically increasing or monotonically decreasing relationship with the values of the input signal IS and the unsharp signal US. In profile data created based on the equations M1 to M7 and the like, values stored in profile data for the input signal IS and the unsharp signal US having the same value indicate an outline of the characteristics of the profile data. Therefore, in order to maintain the characteristics of the two-dimensional LUT, it is desirable to tune the profile data while maintaining the above relationship.

[第2実施形態]
図24〜図39を用いて、本発明の第2実施形態としての視覚処理装置600について説明する。
視覚処理装置600は、画像信号(入力信号IS)に視覚処理を行い視覚処理画像(出力信号OS)を出力する視覚処理装置であり、出力信号OSを表示する表示装置(図示しない)が設置される環境(以下、表示環境という。)に応じた視覚処理を行う装置である。
[Second Embodiment]
A visual processing device 600 according to the second embodiment of the present invention will be described with reference to FIGS.
The visual processing device 600 is a visual processing device that performs visual processing on an image signal (input signal IS) and outputs a visual processing image (output signal OS), and is provided with a display device (not shown) that displays the output signal OS. It is a device that performs visual processing according to the environment (hereinafter referred to as display environment).

具体的には、視覚処理装置600は、表示環境の環境光の影響による表示画像の「視覚的なコントラスト」の低下を、人間の視覚特性を利用した視覚処理により改善する装置である。
視覚処理装置600は、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDA、プリンタ、スキャナなどの画像を取り扱う機器において、画像信号の色処理を行う装置とともに画像処理装置を構成する。
Specifically, the visual processing device 600 is a device that improves the reduction of the “visual contrast” of the display image due to the influence of ambient light in the display environment by visual processing using human visual characteristics.
The visual processing device 600 constitutes an image processing device together with a device that performs color processing of an image signal in a device that handles images such as a computer, a television, a digital camera, a mobile phone, a PDA, a printer, and a scanner.

〈視覚処理装置600〉
図24に、視覚処理装置600の基本構成を示す。
視覚処理装置600は、目標コントラスト変換部601と、変換信号処理部602と、実コントラスト変換部603と、目標コントラスト設定部604と、実コントラスト設定部605とから構成されている。
<Visual processing device 600>
FIG. 24 shows a basic configuration of the visual processing device 600.
The visual processing device 600 includes a target contrast conversion unit 601, a converted signal processing unit 602, an actual contrast conversion unit 603, a target contrast setting unit 604, and an actual contrast setting unit 605.

目標コントラスト変換部601は、入力信号ISを第1の入力、目標コントラスト設定部604において設定された目標コントラストC1を第2の入力とし、目標コントラスト信号JSを出力とする。なお、目標コントラストC1の定義については、後述する。
変換信号処理部602は、目標コントラスト信号JSを第1の入力、目標コントラストC1を第2の入力、実コントラスト設定部605において設定された実コントラストC2を第3の入力とし、視覚処理された目標コントラスト信号JSである視覚処理信号KSを出力とする。なお、実コントラストC2の定義については、後述する。
The target contrast conversion unit 601 uses the input signal IS as a first input, the target contrast C1 set by the target contrast setting unit 604 as a second input, and outputs a target contrast signal JS. The definition of the target contrast C1 will be described later.
The converted signal processing unit 602 uses the target contrast signal JS as the first input, the target contrast C1 as the second input, and the actual contrast C2 set in the actual contrast setting unit 605 as the third input, and the visually processed target A visual processing signal KS that is a contrast signal JS is output. The definition of the actual contrast C2 will be described later.

実コントラスト変換部603は、視覚処理信号KSを第1の入力、実コントラストC2を第2の入力とし、出力信号OSを出力とする。
目標コントラスト設定部604および実コントラスト設定部605は、ユーザに対して目標コントラストC1および実コントラストC2の値を入力インターフェイスなどを介して設定させる。
The actual contrast conversion unit 603 uses the visual processing signal KS as the first input, the actual contrast C2 as the second input, and outputs the output signal OS.
The target contrast setting unit 604 and the actual contrast setting unit 605 allow the user to set the values of the target contrast C1 and the actual contrast C2 via an input interface or the like.

以下、各部の詳細について説明する。
〈目標コントラスト変換部601〉
目標コントラスト変換部601は、視覚処理装置600に入力された入力信号ISを、コントラスト表現に適した目標コントラスト信号JSに変換する。ここで、入力信号ISでは、視覚処理装置600に入力される画像の輝度値が値[0.0〜1.0]の階調で表されている。
Details of each part will be described below.
<Target contrast conversion unit 601>
The target contrast conversion unit 601 converts the input signal IS input to the visual processing device 600 into a target contrast signal JS suitable for contrast expression. Here, in the input signal IS, the luminance value of the image input to the visual processing device 600 is represented by a gradation of value [0.0 to 1.0].

目標コントラスト変換部601は、目標コントラストC1(値[m])を用いて、入力信号IS(値[P])を「式M20」により変換し、目標コントラスト信号JS(値[A])を出力する。ここで、式M20は、A={(m−1)/m}*P+1/mである。
目標コントラストC1の値[m]は、表示装置により表示される表示画像が最もコントラスト良く見えるようなコントラスト値として設定される。
The target contrast conversion unit 601 uses the target contrast C1 (value [m]) to convert the input signal IS (value [P]) according to “Expression M20” and outputs the target contrast signal JS (value [A]). To do. Here, the equation M20 is A = {(m−1) / m} * P + 1 / m.
The value [m] of the target contrast C1 is set as a contrast value at which the display image displayed by the display device can be seen with the highest contrast.

ここで、コントラスト値とは、画像の黒レベルに対する白レベルの明度比として表される値であり、黒レベルを1とした場合の白レベルの輝度値を示している(黒レベル:白レベル=1:m)。
目標コントラストC1の値[m]は、100〜1000(黒レベル:白レベル=1:100〜1:1000)程度に設定されるのが適切であるが、表示装置が表示可能な黒レベルに対する白レベルの明度比に基づいて決定してもよい。
Here, the contrast value is a value expressed as a brightness ratio of the white level to the black level of the image, and indicates a luminance value of the white level when the black level is 1 (black level: white level = 1: m).
The value [m] of the target contrast C1 is suitably set to about 100 to 1000 (black level: white level = 1: 100 to 1: 1000), but white relative to the black level that can be displayed by the display device. You may determine based on the brightness ratio of a level.

図25を用いて、式M20による変換をさらに詳しく説明する。図25は、入力信号ISの値(横軸)と目標コントラスト信号JSの値(縦軸)との関係を示すグラフである。図25が示すように、目標コントラスト変換部601により、値[0.0〜1.0]の範囲の入力信号ISが値[1/m〜1.0]の範囲の目標コントラスト信号JSに変換される。   The conversion according to the equation M20 will be described in more detail with reference to FIG. FIG. 25 is a graph showing the relationship between the value of the input signal IS (horizontal axis) and the value of the target contrast signal JS (vertical axis). As shown in FIG. 25, the target contrast converter 601 converts the input signal IS in the range of value [0.0 to 1.0] into the target contrast signal JS in the range of value [1 / m to 1.0]. Is done.

〈変換信号処理部602〉
図24を用いて、変換信号処理部602の詳細について説明する。
変換信号処理部602は、入力される目標コントラスト信号JSの局所的なコントラストを維持しつつ、ダイナミックレンジを圧縮し、視覚処理信号KSを出力する。具体的には、変換信号処理部602は、第1実施形態で示した視覚処理装置21における入力信号IS(図16参照)を目標コントラスト信号JSと見なし、出力信号OS(図16参照)を視覚処理信号KSと見なしたのと同様の構成・作用・効果を有している。
<Conversion signal processing unit 602>
Details of the converted signal processing unit 602 will be described with reference to FIG.
The converted signal processing unit 602 compresses the dynamic range and outputs the visual processing signal KS while maintaining the local contrast of the input target contrast signal JS. Specifically, the conversion signal processing unit 602 regards the input signal IS (see FIG. 16) in the visual processing device 21 shown in the first embodiment as the target contrast signal JS, and visually recognizes the output signal OS (see FIG. 16). It has the same configuration, operation, and effect as the processing signal KS.

変換信号処理部602は、目標コントラスト信号JSとアンシャープ信号USとの比を強調する演算に基づいて視覚処理信号KSを出力する。これにより、例えば、シャープ成分を強調する視覚処理などを実現することが可能となる。
さらに、変換信号処理部602は、強調された目標コントラスト信号JSとアンシャープ信号USとの比に対してダイナミックレンジ圧縮を行う演算に基づいて視覚処理信号KSを出力する。これにより、例えば、シャープ成分を強調しつつ、ダイナミックレンジの圧縮を行う視覚処理などを実現することが可能となる。
The converted signal processing unit 602 outputs the visual processing signal KS based on a calculation that emphasizes the ratio between the target contrast signal JS and the unsharp signal US. Thereby, for example, it is possible to realize visual processing that emphasizes the sharp component.
Furthermore, the converted signal processing unit 602 outputs a visual processing signal KS based on a calculation that performs dynamic range compression on the ratio between the emphasized target contrast signal JS and the unsharp signal US. Accordingly, for example, it is possible to realize visual processing that compresses the dynamic range while enhancing the sharp component.

《変換信号処理部602の構成》
変換信号処理部602は、目標コントラスト信号JSにおける画素ごとの輝度値に空間処理を実行しアンシャープ信号USを出力する空間処理部622と、目標コントラスト信号JSとアンシャープ信号USとを用いて、目標コントラスト信号JSに対する視覚処理を行い、視覚処理信号KSを出力する視覚処理部623とを備えている。
<< Configuration of Conversion Signal Processing Unit 602 >>
The conversion signal processing unit 602 performs spatial processing on the luminance value for each pixel in the target contrast signal JS and outputs an unsharp signal US, and uses the target contrast signal JS and the unsharp signal US. A visual processing unit 623 that performs visual processing on the target contrast signal JS and outputs a visual processing signal KS.

空間処理部622は、視覚処理装置1(図1参照)が備える空間処理部2と同様の動作を行うため、詳しい説明を省略する。
視覚処理部623は、除算部625と、強調処理部626と、DR圧縮部628および乗算部629を有する出力処理部627とを備えている。
Since the spatial processing unit 622 performs the same operation as the spatial processing unit 2 included in the visual processing device 1 (see FIG. 1), detailed description thereof is omitted.
The visual processing unit 623 includes a division unit 625, an enhancement processing unit 626, and an output processing unit 627 having a DR compression unit 628 and a multiplication unit 629.

除算部625は、目標コントラスト信号JSを第1の入力、アンシャープ信号USを第2の入力とし、目標コントラスト信号JSをアンシャープ信号USで除算した除算信号RSを出力する。強調処理部626は、除算信号RSを第1の入力、目標コントラストC1を第2の入力、実コントラストC2を第3の入力とし、強調処理信号TSを出力する。   The division unit 625 outputs the division signal RS obtained by dividing the target contrast signal JS by the unsharp signal US using the target contrast signal JS as the first input and the unsharp signal US as the second input. The enhancement processing unit 626 receives the division signal RS as a first input, the target contrast C1 as a second input, and the actual contrast C2 as a third input, and outputs an enhancement processing signal TS.

出力処理部627は、目標コントラスト信号JSを第1の入力、強調処理信号TSを第2の入力、目標コントラストC1を第3の入力、実コントラストC2を第4の入力とし、視覚処理信号KSを出力する。DR圧縮部628は、目標コントラスト信号JSを第1の入力、目標コントラストC1を第2の入力、実コントラストC2を第3の入力とし、ダイナミックレンジ(DR)圧縮されたDR圧縮信号DRSを出力する。乗算部629は、DR圧縮信号DRSを第1の入力、強調処理信号TSを第2の入力とし、視覚処理信号KSを出力する。   The output processing unit 627 uses the target contrast signal JS as the first input, the enhancement processing signal TS as the second input, the target contrast C1 as the third input, the actual contrast C2 as the fourth input, and the visual processing signal KS as the input. Output. The DR compression unit 628 outputs the DR compressed signal DRS compressed in the dynamic range (DR) with the target contrast signal JS as the first input, the target contrast C1 as the second input, and the actual contrast C2 as the third input. . The multiplier 629 receives the DR compressed signal DRS as a first input and the enhancement processing signal TS as a second input, and outputs a visual processing signal KS.

《変換信号処理部602の作用》
変換信号処理部602は、目標コントラストC1(値[m])および実コントラストC2(値[n])を用いて、目標コントラスト信号JS(値[A])を「式M2」により変換し、視覚処理信号KS(値[C])を出力する。ここで、式M2は、ダイナミックレンジ圧縮関数F4と強調関数F5とを用いて、C=F4(A)*F5(A/B)とあらわされる。なお、値[B]は、目標コントラスト信号JSを空間処理したアンシャープ信号USの値である。
<< Operation of Conversion Signal Processing Unit 602 >>
Using the target contrast C1 (value [m]) and the actual contrast C2 (value [n]), the converted signal processing unit 602 converts the target contrast signal JS (value [A]) according to “Expression M2”, and visually The processing signal KS (value [C]) is output. Here, the expression M2 is expressed as C = F4 (A) * F5 (A / B) using the dynamic range compression function F4 and the enhancement function F5. The value [B] is the value of the unsharp signal US obtained by spatially processing the target contrast signal JS.

ダイナミックレンジ圧縮関数F4は、上に凸の単調増加関数である「べき関数」であり、F4(x)=x^γと表される。ダイナミックレンジ圧縮関数F4の指数γは、常用対数を用いて、γ=log(n)/log(m)と表される。強調関数F5は、「べき関数」であり、F5(x)=x^(1−γ)と表される。   The dynamic range compression function F4 is a “power function” that is a monotonously increasing function convex upward, and is expressed as F4 (x) = x = γ. The exponent γ of the dynamic range compression function F4 is expressed as γ = log (n) / log (m) using a common logarithm. The enhancement function F5 is a “power function” and is expressed as F5 (x) = x ^ (1-γ).

以下、式M2と変換信号処理部602の各部の動作との関係について説明を加える。
空間処理部622は、値[A]の目標コントラスト信号JSに対して空間処理を行い、値[B]のアンシャープ信号USを出力する。
除算部625は、値[A]の目標コントラスト信号JSを値[B]のアンシャープ信号USで除算し、値[A/B]の除算信号RSを出力する。強調処理部626は、強調関数F5を用いて、値[A/B]の除算信号RSから値[F5(A/B)]の強調処理信号TSを出力する。DR圧縮部628は、ダイナミックレンジ圧縮関数F4を用いて、値[A]の目標コントラスト信号JSから値[F4(A)]のDR圧縮信号DRSを出力する。乗算部629は、値[F4(A)]のDR圧縮信号DRSと値[F5(A/B)]の強調処理信号TSとを乗算し、値[F4(A)*F5(A/B)]の視覚処理信号KSを出力する。
Hereinafter, the relationship between the expression M2 and the operation of each unit of the converted signal processing unit 602 will be described.
The spatial processing unit 622 performs spatial processing on the target contrast signal JS having a value [A] and outputs an unsharp signal US having a value [B].
The division unit 625 divides the target contrast signal JS having the value [A] by the unsharp signal US having the value [B], and outputs a division signal RS having the value [A / B]. The enhancement processing unit 626 outputs the enhancement processing signal TS having the value [F5 (A / B)] from the division signal RS having the value [A / B] using the enhancement function F5. The DR compression unit 628 outputs the DR compressed signal DRS having the value [F4 (A)] from the target contrast signal JS having the value [A] using the dynamic range compression function F4. The multiplication unit 629 multiplies the DR compressed signal DRS having the value [F4 (A)] and the enhancement processing signal TS having the value [F5 (A / B)] to obtain the value [F4 (A) * F5 (A / B). ] Visual processing signal KS.

なお、ダイナミックレンジ圧縮関数F4、強調関数F5を用いた計算は、それぞれの関数に対する1次元のLUTを用いて行われても良いし、LUTを用いないで行われても良い。
《変換信号処理部602の効果》
視覚処理信号KSにおける視覚的なダイナミックレンジは、ダイナミックレンジ圧縮関数F4の値により決定される。
The calculation using the dynamic range compression function F4 and the enhancement function F5 may be performed using a one-dimensional LUT for each function, or may be performed without using the LUT.
<< Effect of Conversion Signal Processing Unit 602 >>
The visual dynamic range in the visual processing signal KS is determined by the value of the dynamic range compression function F4.

図26を用いて、式M2による変換をさらに詳しく説明する。図26は、目標コントラスト信号JSの値(横軸)と、目標コントラスト信号JSにダイナミックレンジ圧縮関数F4を適用した値(縦軸)との関係を示すグラフである。図26が示すように、目標コントラスト信号JSのダイナミックレンジは、ダイナミックレンジ圧縮関数F4により圧縮される。より詳しくは、ダイナミックレンジ圧縮関数F4により、値[1/m〜1.0]の範囲の目標コントラスト信号JSは、値[1/n〜1.0]の範囲に変換される。この結果、視覚処理信号KSにおける視覚的なダイナミックレンジは、1/n(最小値:最大値=1:n)へと圧縮される。   The conversion according to the equation M2 will be described in more detail with reference to FIG. FIG. 26 is a graph showing the relationship between the value (horizontal axis) of the target contrast signal JS and the value (vertical axis) obtained by applying the dynamic range compression function F4 to the target contrast signal JS. As shown in FIG. 26, the dynamic range of the target contrast signal JS is compressed by the dynamic range compression function F4. More specifically, the target contrast signal JS in the range of the value [1 / m to 1.0] is converted into the range of the value [1 / n to 1.0] by the dynamic range compression function F4. As a result, the visual dynamic range in the visual processing signal KS is compressed to 1 / n (minimum value: maximum value = 1: n).

ここで、実コントラストC2について説明する。実コントラストC2の値[n]は、表示環境の環境光のもとでの表示画像の視覚的なコントラスト値として設定されている。すなわち、実コントラストC2の値[n]は、目標コントラストC1の値[m]を、表示環境の環境光の輝度による影響分だけ低下させた値として決定することができる。   Here, the actual contrast C2 will be described. The value [n] of the actual contrast C2 is set as the visual contrast value of the display image under the ambient light of the display environment. In other words, the value [n] of the actual contrast C2 can be determined as a value obtained by reducing the value [m] of the target contrast C1 by the influence of the luminance of the environmental light in the display environment.

このようにして設定された実コントラストC2の値[n]を用いているため、式M2により目標コントラスト信号JSのダイナミックレンジは、1:mから1:nへと圧縮されることとなる。なお、ここで「ダイナミックレンジ」とは、信号の最小値と最大値との比を意味している。   Since the value [n] of the actual contrast C2 set in this way is used, the dynamic range of the target contrast signal JS is compressed from 1: m to 1: n by the equation M2. Here, “dynamic range” means the ratio between the minimum value and the maximum value of the signal.

一方、視覚処理信号KSにおける局所的なコントラストの変化は、目標コントラスト信号JSの値[A]と視覚処理信号KSの値[C]との変換の前後における変化量の比として表される。ここで、局所的すなわち狭い範囲におけるアンシャープ信号USの値[B]は一定と見なせる。このため、式M2における値Cの変化量と値Aの変化量との比は1となり、目標コントラスト信号JSと視覚処理信号KSとの局所的なコントラストは変化しないこととなる。   On the other hand, a local contrast change in the visual processing signal KS is expressed as a ratio of a change amount before and after conversion between the value [A] of the target contrast signal JS and the value [C] of the visual processing signal KS. Here, the value [B] of the unsharp signal US locally or in a narrow range can be regarded as constant. For this reason, the ratio of the change amount of the value C and the change amount of the value A in the equation M2 is 1, and the local contrast between the target contrast signal JS and the visual processing signal KS does not change.

人間の視覚は、局所コントラストを維持すれば、全体的なコントラストが低下していても同じコントラストに見える性質がある。このため、変換信号処理部602では、目標コントラスト信号JSのダイナミックレンジの圧縮を行いつつ、視覚的なコントラストを低下させない視覚処理を実現することが可能となる。   Human vision has the property that if the local contrast is maintained, the same contrast can be seen even if the overall contrast is lowered. Therefore, the converted signal processing unit 602 can realize visual processing that does not reduce the visual contrast while compressing the dynamic range of the target contrast signal JS.

〈実コントラスト変換部603〉
図24を用いて、実コントラスト変換部603の詳細について説明する。
実コントラスト変換部603は、視覚処理信号KSを、表示装置(図示しない)に入力可能な範囲の画像データに変換する。表示装置に入力可能な範囲の画像データとは、例えば、画像の輝度値を、値[0.0〜1.0]の階調で表した画像データである。
<Real contrast conversion unit 603>
Details of the actual contrast conversion unit 603 will be described with reference to FIG.
The actual contrast conversion unit 603 converts the visual processing signal KS into image data in a range that can be input to a display device (not shown). The range of image data that can be input to the display device is, for example, image data in which the luminance value of an image is represented by a gradation of a value [0.0 to 1.0].

実コントラスト変換部603は、実コントラストC2(値[n])を用いて、視覚処理信号KS(値[C])を「式M21」により変換し、出力信号OS(値[Q])を出力する。ここで、式M21は、Q={n/(n−1)}*C−{1/(n−1)}である。
図27を用いて、式M21による変換をさらに詳しく説明する。図27は、視覚処理信号KSの値(横軸)と出力信号OSの値(縦軸)との関係を示すグラフである。図27が示すように、実コントラスト変換部603により、値[1/n〜1.0]の範囲の視覚処理信号KSが値[0.0〜1.0]の範囲の出力信号OSに変換される。ここで、それぞれの視覚処理信号KSの値に対して、出力信号OSの値は減少することとなる。この減少分は、表示画像の各輝度が環境光から受ける影響に相当している。
The actual contrast conversion unit 603 converts the visual processing signal KS (value [C]) by “expression M21” using the actual contrast C2 (value [n]), and outputs an output signal OS (value [Q]). To do. Here, the formula M21 is Q = {n / (n-1)} * C- {1 / (n-1)}.
The conversion according to the equation M21 will be described in more detail with reference to FIG. FIG. 27 is a graph showing the relationship between the value of the visual processing signal KS (horizontal axis) and the value of the output signal OS (vertical axis). As shown in FIG. 27, the actual contrast conversion unit 603 converts the visual processing signal KS in the range of values [1 / n to 1.0] into an output signal OS in the range of values [0.0 to 1.0]. Is done. Here, the value of the output signal OS decreases with respect to the value of each visual processing signal KS. This decrease corresponds to the influence of each luminance of the display image from the ambient light.

なお、実コントラスト変換部603では、値[1/n]以下の視覚処理信号KSが入力される場合には、出力信号OSは、値[0]に変換される。また、実コントラスト変換部603では、値[1]以上の視覚処理信号KSが入力される場合には、出力信号OSは、値[1]に変換される。   Note that in the actual contrast conversion unit 603, when a visual processing signal KS having a value of [1 / n] or less is input, the output signal OS is converted to a value [0]. Further, in the actual contrast conversion unit 603, when the visual processing signal KS having the value [1] or more is input, the output signal OS is converted into the value [1].

〈視覚処理装置600の効果〉
視覚処理装置600は、第1実施形態で説明した視覚処理装置21と同様の効果を奏する。以下、視覚処理装置600に特徴的な効果を記載する。
(i)
視覚処理装置600の出力信号OSを表示する表示環境に環境光が存在する場合、出力信号OSは、環境光の影響を受けて視覚される。しかし、出力信号OSは、実コントラスト変換部603により、環境光の影響を補正する処理が施された信号である。すなわち、環境光の存在する表示環境のもとでは、表示装置に表示された出力信号OSは、視覚処理信号KSの特性を持つ表示画像として視覚される。
<Effect of visual processing device 600>
The visual processing device 600 has the same effects as the visual processing device 21 described in the first embodiment. Hereinafter, effects characteristic of the visual processing device 600 will be described.
(I)
When ambient light is present in the display environment that displays the output signal OS of the visual processing device 600, the output signal OS is visually affected by the ambient light. However, the output signal OS is a signal that has been subjected to processing for correcting the influence of ambient light by the actual contrast conversion unit 603. That is, under a display environment in which ambient light is present, the output signal OS displayed on the display device is viewed as a display image having the characteristics of the visual processing signal KS.

視覚処理信号KSの特性とは、第1実施形態で説明した視覚処理装置21の出力信号OS(図16参照)などと同様に、局所的なコントラストを維持しつつ画像全体のダイナミックレンジが圧縮されている、というものである。すなわち、視覚処理信号KSは、局所的には表示画像が最適に表示される目標コントラストC1を維持しつつ、環境光の影響下において表示可能なダイナミックレンジ(実コントラストC2に相当)に圧縮された信号となっている。   Similar to the output signal OS (see FIG. 16) of the visual processing device 21 described in the first embodiment, the characteristics of the visual processing signal KS compress the dynamic range of the entire image while maintaining local contrast. It is that. That is, the visual processing signal KS is compressed to a dynamic range (corresponding to the actual contrast C2) that can be displayed under the influence of ambient light while maintaining the target contrast C1 where the display image is optimally displayed locally. It is a signal.

このため、視覚処理装置600では、環境光の存在によって低下するコントラストの補正を行いつつ、視覚特性を利用した処理により視覚的なコントラストを維持することが可能となる。
〈視覚処理方法〉
図28を用いて、上記視覚処理装置600と同様の効果を奏する視覚処理方法を説明する。なお、それぞれのステップの具体的な処理は、上記視覚処理装置600における処理と同様であるため、説明を省略する。
Therefore, in the visual processing device 600, it is possible to maintain the visual contrast by the process using the visual characteristics while correcting the contrast that decreases due to the presence of the ambient light.
<Visual processing method>
A visual processing method that produces the same effect as the visual processing device 600 will be described with reference to FIG. In addition, since the specific process of each step is the same as the process in the said visual processing apparatus 600, description is abbreviate | omitted.

図28に示す視覚処理方法では、まず、設定された目標コントラストC1および実コントラストC2が取得される(ステップS601)。次に、取得された目標コントラストC1を用いて、入力信号ISに対する変換が行われ(ステップS602)、目標コントラスト信号JSが出力される。次に、目標コントラスト信号JSに対して空間処理が行われ(ステップS603)、アンシャープ信号USが出力される。次に、目標コントラスト信号JSがアンシャープ信号USにより除算され(ステップS604)、除算信号RSが出力される。除算信号RSは、目標コントラストC1および実コントラストC2により決定される指数を持つ「べき関数」である強調関数F5により強調され(ステップS605)、
強調処理信号TSが出力される。一方、目標コントラスト信号JSは、目標コントラストC1および実コントラストC2により決定される指数を持つ「べき関数」であるダイナミックレンジ圧縮関数F4によりダイナミックレンジ圧縮され(ステップS606)、DR圧縮信号DRSが出力される。次に、ステップS605により出力された強調処理信号TSとステップS606により出力されたDR圧縮信号DRSは、乗算され(ステップS607)、視覚処理信号KSが出力される。次に、実コントラストC2を用いて、視覚処理信号KSに対する変換が行われ(ステップS608)、出力信号OSが出力される。入力信号ISのすべての画素についてステップS602〜ステップS608の処理が繰り返される(ステップS609)。
In the visual processing method shown in FIG. 28, first, the set target contrast C1 and actual contrast C2 are acquired (step S601). Next, conversion is performed on the input signal IS using the acquired target contrast C1 (step S602), and the target contrast signal JS is output. Next, spatial processing is performed on the target contrast signal JS (step S603), and an unsharp signal US is output. Next, the target contrast signal JS is divided by the unsharp signal US (step S604), and a division signal RS is output. The division signal RS is enhanced by an enhancement function F5 that is a “power function” having an index determined by the target contrast C1 and the actual contrast C2 (step S605).
The enhancement processing signal TS is output. On the other hand, the target contrast signal JS is subjected to dynamic range compression by the dynamic range compression function F4 which is a “power function” having an index determined by the target contrast C1 and the actual contrast C2 (step S606), and the DR compressed signal DRS is output. The Next, the enhancement processing signal TS output in step S605 and the DR compressed signal DRS output in step S606 are multiplied (step S607), and the visual processing signal KS is output. Next, the visual contrast signal KS is converted using the actual contrast C2 (step S608), and the output signal OS is output. Steps S602 to S608 are repeated for all the pixels of the input signal IS (step S609).

図28に示す視覚処理方法のそれぞれのステップは、視覚処理装置600やその他のコンピュータなどにおいて、視覚処理プログラムとして実現されるものであっても良い。また、ステップS604〜ステップS607までの処理は、式M2を計算することにより一度に行われるものであってもかまわない。   Each step of the visual processing method shown in FIG. 28 may be realized as a visual processing program in the visual processing device 600 or other computer. Further, the processing from step S604 to step S607 may be performed at a time by calculating equation M2.

〈変形例〉
本発明はかかる上記実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形又は修正が可能である。
(i)式M2−強調関数F5を備えない場合−
上記実施形態では、変換信号処理部602は、式M2に基づいて視覚処理信号KSを出力すると記載した。ここで、変換信号処理部602は、ダイナミックレンジ強調関数F4のみに基づいて視覚処理信号KSを出力するものであってもよい。この場合、変形例としての変換信号処理部602では、空間処理部622、除算部625、強調処理部626、乗算部629を備える必要がなく、DR圧縮部628のみを備えていればよい。
<Modification>
The present invention is not limited to the above-described embodiment, and various changes or modifications can be made without departing from the scope of the present invention.
(I) Expression M2-When the enhancement function F5 is not provided-
In the above embodiment, the conversion signal processing unit 602 is described as outputting the visual processing signal KS based on the expression M2. Here, the converted signal processing unit 602 may output the visual processing signal KS based only on the dynamic range enhancement function F4. In this case, the transformed signal processing unit 602 as a modified example does not need to include the spatial processing unit 622, the division unit 625, the enhancement processing unit 626, and the multiplication unit 629, and only needs to include the DR compression unit 628.

変形例としての変換信号処理部602では、環境光の影響下において表示可能なダイナミックレンジに圧縮された視覚処理信号KSを出力することが可能となる。
(ii)強調関数F5−指数・その他の変形例−
上記実施形態では、強調関数F5は、「べき関数」であり、F5(x)=x^(1−γ)と表される、と記載した。ここで、強調関数F5の指数は、目標コントラスト信号JSの値[A]またはアンシャープ信号USの値[B]の関数であってもよい。
The modified signal processing unit 602 as a modified example can output a visual processing signal KS compressed to a dynamic range that can be displayed under the influence of ambient light.
(Ii) Emphasis function F5-exponent and other modifications-
In the embodiment described above, the enhancement function F5 is a “power function” and is expressed as F5 (x) = x ^ (1-γ). Here, the exponent of the enhancement function F5 may be a function of the value [A] of the target contrast signal JS or the value [B] of the unsharp signal US.

以下、具体例《1》〜《6》を示す。
《1》
強調関数F5の指数は、目標コントラスト信号JSの値[A]の関数であって、目標コントラスト信号JSの値[A]がアンシャープ信号USの値[B]よりも大きい場合に、単調減少する関数である。より具体的には、強調関数F5の指数は、α1(A)*(1−γ)と表され、関数α1(A)は、図29に示すように目標コントラスト信号JSの値[A]に対して単調減少する関数である。なお、関数α1(A)の最大値は、[1.0]となっている。
Specific examples << 1 >> to << 6 >> are shown below.
<< 1 >>
The exponent of the enhancement function F5 is a function of the value [A] of the target contrast signal JS, and monotonously decreases when the value [A] of the target contrast signal JS is larger than the value [B] of the unsharp signal US. It is a function. More specifically, the exponent of the enhancement function F5 is expressed as α1 (A) * (1−γ), and the function α1 (A) is set to the value [A] of the target contrast signal JS as shown in FIG. On the other hand, it is a monotonically decreasing function. Note that the maximum value of the function α1 (A) is [1.0].

この場合、強調関数F5により高輝度部の局所コントラストの強調量が少なくなる。このため、着目画素の輝度が周囲画素の輝度よりも高い場合に、高輝度部の局所コントラストの強調過多が抑制される。すなわち、着目画素の輝度値が高輝度へと飽和し、いわゆる白飛びの状態になることが抑制される。   In this case, the enhancement function F5 reduces the amount of local contrast enhancement in the high luminance part. For this reason, when the luminance of the pixel of interest is higher than the luminance of surrounding pixels, excessive enhancement of local contrast in the high luminance portion is suppressed. That is, it is suppressed that the luminance value of the pixel of interest is saturated to a high luminance and a so-called whiteout state is obtained.

《2》
強調関数F5の指数は、目標コントラスト信号JSの値[A]の関数であって、目標コントラスト信号JSの値[A]がアンシャープ信号USの値[B]よりも小さい場合に、単調増加する関数である。より具体的には、強調関数F5の指数は、α2(A)*(1−γ)と表され、関数α2(A)は、図30に示すように目標コントラスト信号JSの値[A]に対して単調増加する関数である。なお、関数α2(A)の最大値は、[1.0]と
なっている。
<< 2 >>
The exponent of the enhancement function F5 is a function of the value [A] of the target contrast signal JS, and increases monotonously when the value [A] of the target contrast signal JS is smaller than the value [B] of the unsharp signal US. It is a function. More specifically, the exponent of the enhancement function F5 is expressed as α2 (A) * (1−γ), and the function α2 (A) is set to the value [A] of the target contrast signal JS as shown in FIG. On the other hand, it is a monotonically increasing function. Note that the maximum value of the function α2 (A) is [1.0].

この場合、強調関数F5により低輝度部の局所コントラストの強調量が少なくなる。このため、着目画素の輝度が周囲画素の輝度よりも低い場合に、低輝度部の局所コントラストの強調過多が抑制される。すなわち、着目画素の輝度値が低輝度へと飽和し、いわゆる黒潰れの状態になることが抑制される。   In this case, the enhancement function F5 reduces the enhancement amount of the local contrast in the low luminance part. For this reason, when the luminance of the pixel of interest is lower than the luminance of surrounding pixels, excessive enhancement of local contrast in the low luminance part is suppressed. That is, it is suppressed that the luminance value of the target pixel is saturated to a low luminance and a so-called blackened state is obtained.

《3》
強調関数F5の指数は、目標コントラスト信号JSの値[A]の関数であって、目標コントラスト信号JSの値[A]がアンシャープ信号USの値[B]よりも大きい場合に、単調増加する関数である。より具体的には、強調関数F5の指数は、α3(A)*(1−γ)と表され、関数α3(A)は、図31に示すように目標コントラスト信号JSの値[A]に対して単調増加する関数である。なお、関数α3(A)の最大値は、[1.0]となっている。
<< 3 >>
The exponent of the enhancement function F5 is a function of the value [A] of the target contrast signal JS, and increases monotonously when the value [A] of the target contrast signal JS is larger than the value [B] of the unsharp signal US. It is a function. More specifically, the exponent of the enhancement function F5 is expressed as α3 (A) * (1-γ), and the function α3 (A) is set to the value [A] of the target contrast signal JS as shown in FIG. On the other hand, it is a monotonically increasing function. Note that the maximum value of the function α3 (A) is [1.0].

この場合、強調関数F5により低輝度部の局所コントラストの強調量が少なくなる。このため、着目画素の輝度が周囲画素の輝度よりも高い場合に、低輝度部の局所コントラストの強調過多が抑制される。画像中の低輝度部は、信号レベルが小さいため、相対的にノイズの割合が高くなっているが、このような処理を行うことで、SN比の劣化を抑制することが可能となる。   In this case, the enhancement function F5 reduces the enhancement amount of the local contrast in the low luminance part. For this reason, when the luminance of the pixel of interest is higher than the luminance of surrounding pixels, excessive enhancement of local contrast in the low luminance part is suppressed. Since the low luminance part in the image has a low signal level, the ratio of noise is relatively high. However, by performing such processing, it is possible to suppress degradation of the SN ratio.

《4》
強調関数F5の指数は、目標コントラスト信号JSの値[A]とアンシャープ信号USの値[B]との関数であって、値[A]と値[B]との差の絶対値に対して単調減少する関数である。言い換えれば、強調関数F5の指数は、値[A]と値[B]との比が1に近い程増加する関数であるとも言える。より具体的には、強調関数F5の指数は、α4(A,B)*(1−γ)と表され、関数α4(A,B)は、図32に示すように値[A−B]の絶対値に対して単調減少する関数である。
<< 4 >>
The exponent of the enhancement function F5 is a function of the value [A] of the target contrast signal JS and the value [B] of the unsharp signal US, and is an absolute value of the difference between the value [A] and the value [B]. Is a monotonically decreasing function. In other words, it can be said that the exponent of the enhancement function F5 is a function that increases as the ratio of the value [A] to the value [B] approaches 1. More specifically, the exponent of the enhancement function F5 is expressed as α4 (A, B) * (1-γ), and the function α4 (A, B) has a value [A−B] as shown in FIG. Is a function that decreases monotonically with respect to the absolute value of.

この場合、周囲画素との明暗差が小さい着目画素における局所的なコントラストを特に強調し、周囲画素との明暗差が大きい着目画素における局所的なコントラストの強調を抑制するということが可能となる。
《5》
上記《1》〜《4》の強調関数F5の演算結果には、上限あるいは下限が設けられていてもよい。具体的には、値[F5(A/B)]が所定の上限値を超える場合には、強調関数F5の演算結果として所定の上限値が採用される。また、値[F5(A/B)]が所定の下限値を超える場合には、強調関数F5の演算結果として所定の下限値が採用される。
In this case, it is possible to particularly emphasize the local contrast in the target pixel having a small contrast with the surrounding pixels, and to suppress the local contrast enhancement in the target pixel having a large contrast with the surrounding pixels.
<< 5 >>
An upper limit or a lower limit may be provided in the calculation result of the enhancement function F5 of the above << 1 >> to << 4 >>. Specifically, when the value [F5 (A / B)] exceeds a predetermined upper limit value, the predetermined upper limit value is adopted as the calculation result of the enhancement function F5. When the value [F5 (A / B)] exceeds a predetermined lower limit value, the predetermined lower limit value is adopted as the calculation result of the enhancement function F5.

この場合、強調関数F5による局所的なコントラストの強調量を適切な範囲に制限することが可能となり、過多あるいは過少のコントラストの強調が抑制される。
《6》
なお、上記《1》〜《5》は、第1実施形態において強調関数F5を用いた演算を行う場合にも同様に適用可能である(例えば、第1実施形態〈プロファイルデータ〉(2)あるいは(3)など)。なお、第1実施形態では、値[A]は、入力信号ISの値であり、値[B]は、入力信号ISを空間処理したアンシャープ信号USの値である。
In this case, the amount of local contrast enhancement by the enhancement function F5 can be limited to an appropriate range, and excessive or insufficient contrast enhancement is suppressed.
<< 6 >>
The above << 1 >> to << 5 >> can be applied in the same manner to the calculation using the enhancement function F5 in the first embodiment (for example, the first embodiment <profile data> (2) or (3) etc.) In the first embodiment, the value [A] is the value of the input signal IS, and the value [B] is the value of the unsharp signal US obtained by spatially processing the input signal IS.

(iii)式M2−ダイナミックレンジ圧縮を行わない場合−
上記実施形態では、変換信号処理部602は、第1実施形態で示した視覚処理装置21と同様の構成を有している、と説明した。ここで、変形例としての変換信号処理部602は、第1実施形態で示した視覚処理装置31(図19参照)と同様の構成を有するものであってもよい。具体的には、視覚処理装置31における入力信号ISを目標コントラスト信号JSと見なし、出力信号OSを視覚処理信号KSと見なすことにより変形例としての
変換信号処理部602が実現される。
(Iii) Formula M2-When Dynamic Range Compression is not Performed-
In the above embodiment, it has been described that the converted signal processing unit 602 has the same configuration as the visual processing device 21 shown in the first embodiment. Here, the converted signal processing unit 602 as a modification may have the same configuration as that of the visual processing device 31 (see FIG. 19) shown in the first embodiment. Specifically, the conversion signal processing unit 602 as a modified example is realized by regarding the input signal IS in the visual processing device 31 as the target contrast signal JS and regarding the output signal OS as the visual processing signal KS.

この場合、変形例としての変換信号処理部602では、目標コントラスト信号JS(値[A])およびアンシャープ信号US(値[B])に対して、「式M3」に基づいて視覚処理信号KS(値[C])が出力される。ここで式M3とは、強調関数F5を用いて、C=A*F5(A/B)と表される。   In this case, in the converted signal processing unit 602 as a modified example, the visual processing signal KS based on “Equation M3” with respect to the target contrast signal JS (value [A]) and the unsharp signal US (value [B]). (Value [C]) is output. Here, the expression M3 is expressed as C = A * F5 (A / B) using the enhancement function F5.

式M3を用いた処理では、入力信号ISに対するダイナミックレンジの圧縮は施されないが、局所的なコントラストを強調することができる。この局所的なコントラストの強調の効果により、「視覚的に」ダイナミックレンジが圧縮あるいは伸張された様な印象を与えることが可能となる。、
なお、本変形例に対しても、上記〈変形例〉(ii)《1》〜《5》を同様に適用可能である。すなわち、本変形例において、強調関数F5は、「べき関数」であり、その指数は、上記〈変形例〉(ii)《1》〜《4》で説明した関数α1(A),α2(A),α3(A),α4(A,B)と同様の傾向を持つ関数であってよい。また、上記〈変形例〉(ii)《5》で説明したように、強調関数F5の演算結果には、上限あるいは下限が設けられていてもよい。
In the processing using the expression M3, the dynamic range is not compressed with respect to the input signal IS, but the local contrast can be enhanced. This local contrast enhancement effect makes it possible to give the impression that the “visually” dynamic range is compressed or expanded. ,
Note that <Modification> (ii) << 1 >> to << 5 >> can be similarly applied to this modification. That is, in the present modification, the enhancement function F5 is a “power function”, and the index thereof is the functions α1 (A), α2 (A) described in the above <Modification> (ii) << 1 >> to << 4 >>. ), Α3 (A), α4 (A, B) may be functions having the same tendency. Further, as described in the above <Modification> (ii) << 5 >>, the calculation result of the enhancement function F5 may be provided with an upper limit or a lower limit.

(iv)パラメータ自動設定
上記実施形態では、目標コントラスト設定部604および実コントラスト設定部605は、ユーザに対して目標コントラストC1および実コントラストC2の値を入力インターフェイスなどを介して設定させる、と説明した。ここで、目標コントラスト設定部604および実コントラスト設定部605は、目標コントラストC1および実コントラストC2の値を自動設定できるものであってもよい。
(Iv) Parameter automatic setting In the above embodiment, the target contrast setting unit 604 and the actual contrast setting unit 605 have been described to allow the user to set the values of the target contrast C1 and the actual contrast C2 via an input interface or the like. . Here, the target contrast setting unit 604 and the actual contrast setting unit 605 may be capable of automatically setting the values of the target contrast C1 and the actual contrast C2.

《1》ディスプレイ
出力信号OSを表示する表示装置がPDP,LCD,CRTなどのディスプレイであり、環境光の無い状態で表示できる白輝度(白レベル)と黒輝度(黒レベル)とが既知の場合に、実コントラストC2の値を自動設定する実コントラスト設定部605について説明する。
<< 1 >> Display When the display device that displays the output signal OS is a display such as a PDP, LCD, or CRT, and the white luminance (white level) and black luminance (black level) that can be displayed without ambient light are known Next, the actual contrast setting unit 605 for automatically setting the value of the actual contrast C2 will be described.

図33に実コントラストC2の値を自動設定する実コントラスト設定部605を示す。実コントラスト設定部605は、輝度測定部605aと、記憶部605bと、計算部605cとを備えている。
輝度測定部605aは、出力信号OSを表示するディスプレイの表示環境における環境光の輝度値を測定する輝度センサである。記憶部605bは、出力信号OSを表示するディスプレイが環境光の無い状態で表示できる白輝度(白レベル)と黒輝度(黒レベル)とを記憶している。計算部605cは、輝度測定部605aと記憶部605bとからそれぞれ値を取得し、実コントラストC2の値を計算する。
FIG. 33 shows an actual contrast setting unit 605 that automatically sets the value of the actual contrast C2. The actual contrast setting unit 605 includes a luminance measurement unit 605a, a storage unit 605b, and a calculation unit 605c.
The luminance measuring unit 605a is a luminance sensor that measures the luminance value of the ambient light in the display environment of the display that displays the output signal OS. The storage unit 605b stores white luminance (white level) and black luminance (black level) that can be displayed on the display that displays the output signal OS without ambient light. The calculation unit 605c acquires values from the luminance measurement unit 605a and the storage unit 605b, and calculates the value of the actual contrast C2.

計算部605cの計算の一例を説明する。計算部605cは、輝度測定部605aから取得した環境光の輝度値を記憶部605bが記憶する黒レベルの輝度値および白レベルの輝度値のそれぞれに加算する。さらに、計算部605cは、黒レベルの輝度値への加算結果を用いて、白レベルの輝度値への加算結果を除算した値を実コントラストC2の値[n]として出力する。これにより、実コントラストC2の値[n]は、環境光が存在する表示環境においてディスプレイが表示するコントラスト値を示すこととなる。   An example of calculation by the calculation unit 605c will be described. The calculation unit 605c adds the luminance value of the ambient light acquired from the luminance measurement unit 605a to each of the black level luminance value and the white level luminance value stored in the storage unit 605b. Further, the calculation unit 605c uses the addition result to the luminance value of the black level and outputs a value obtained by dividing the addition result to the luminance value of the white level as the value [n] of the actual contrast C2. As a result, the value [n] of the actual contrast C2 indicates the contrast value displayed on the display in a display environment where ambient light exists.

また、図33に示した記憶部605bは、ディスプレイが環境光の無い状態で表示できる白輝度(白レベル)と黒輝度(黒レベル)との比を目標コントラストC1の値[m]として記憶しているものであってもよい。この場合、実コントラスト設定部605は、目標コントラストC1を自動設定する目標コントラスト設定部604の機能を同時に果たすこととなる。なお、記憶部605bは、比を記憶しておらず、比は計算部605cにより計算されるものであってもよい。   In addition, the storage unit 605b illustrated in FIG. 33 stores the ratio of white luminance (white level) and black luminance (black level) that can be displayed in a state where the display is free of ambient light as the value [m] of the target contrast C1. It may be. In this case, the actual contrast setting unit 605 simultaneously functions as the target contrast setting unit 604 that automatically sets the target contrast C1. Note that the storage unit 605b may not store the ratio, and the ratio may be calculated by the calculation unit 605c.

《2》プロジェクタ
出力信号OSを表示する表示装置がプロジェクタなどであり、環境光の無い状態で表示できる白輝度(白レベル)と黒輝度(黒レベル)とがスクリーンまでの距離に依存する場合に、実コントラストC2の値を自動設定する実コントラスト設定部605について説明する。
<< 2 >> Projector When the display device that displays the output signal OS is a projector or the like, and the white luminance (white level) and the black luminance (black level) that can be displayed without ambient light depend on the distance to the screen The actual contrast setting unit 605 that automatically sets the value of the actual contrast C2 will be described.

図34に実コントラストC2の値を自動設定する実コントラスト設定部605を示す。実コントラスト設定部605は、輝度測定部605dと、制御部605eとを備えている。
輝度測定部605dは、プロジェクタにより表示された出力信号OSの表示環境における輝度値を測定する輝度センサである。制御部605eは、プロジェクタに対して、白レベルと黒レベルとの表示を行わせる。さらに、それぞれのレベルが表示される際の輝度値を輝度測定部605dから取得し、実コントラストC2の値を計算する。
FIG. 34 shows an actual contrast setting unit 605 that automatically sets the value of the actual contrast C2. The actual contrast setting unit 605 includes a luminance measurement unit 605d and a control unit 605e.
The luminance measuring unit 605d is a luminance sensor that measures the luminance value in the display environment of the output signal OS displayed by the projector. The control unit 605e causes the projector to display a white level and a black level. Further, the luminance value when each level is displayed is acquired from the luminance measuring unit 605d, and the value of the actual contrast C2 is calculated.

図35を用いて、制御部605eの動作の一例を説明する。まず制御部605eは、環境光の存在する表示環境においてプロジェクタを動作させ、白レベルの表示を行わせる(ステップS620)。制御部605eは、輝度測定部605dから、測定された白レベルの輝度を取得する(ステップS621)。次に、制御部605eは、環境光の存在する表示環境においてプロジェクタを動作させ、黒レベルの表示を行わせる(ステップS622)。制御部605eは、輝度測定部605dから、測定された黒レベルの輝度を取得する(ステップS623)。制御部605eは、取得した白レベルの輝度値と黒レベルの輝度値との比を計算し、実コントラストC2の値として出力する。これにより、実コントラストC2の値[n]は、環境光が存在する表示環境においてプロジェクタが表示するコントラスト値を示すこととなる。   An example of the operation of the control unit 605e will be described with reference to FIG. First, the control unit 605e operates the projector in a display environment in which ambient light exists to display a white level (step S620). The control unit 605e obtains the measured white level luminance from the luminance measurement unit 605d (step S621). Next, the control unit 605e causes the projector to operate in a display environment in which ambient light is present, and displays a black level (step S622). The control unit 605e obtains the measured black level luminance from the luminance measurement unit 605d (step S623). The control unit 605e calculates a ratio between the acquired brightness value of the white level and the brightness value of the black level, and outputs it as the value of the actual contrast C2. As a result, the value [n] of the actual contrast C2 indicates the contrast value displayed by the projector in a display environment where ambient light exists.

また、上記と同様にして、環境光が存在しない表示環境における白レベルと黒レベルとの比を計算することにより、目標コントラストC1の値[m]を導出することも可能である。この場合、実コントラスト設定部605は、目標コントラストC1を自動設定する目標コントラスト設定部604の機能を同時に果たすこととなる。   Similarly to the above, it is also possible to derive the value [m] of the target contrast C1 by calculating the ratio between the white level and the black level in a display environment in which no ambient light exists. In this case, the actual contrast setting unit 605 simultaneously functions as the target contrast setting unit 604 that automatically sets the target contrast C1.

(v)他の信号空間
上記実施形態では、視覚処理装置600における処理は、入力信号ISの輝度について行うと説明した。ここで、本発明は、入力信号ISがYCbCr色空間で表されている場合のみに有効であるものではない。入力信号ISは、YUV色空間、Lab色空間、Luv色空間、YIQ色空間、XYZ色空間、YPbPr色空間などで表されているものでもよい。これらの場合に、それぞれの色空間の輝度、明度に対して、上記実施形態で説明した処理を実行することが可能である。
(V) Other Signal Spaces In the above embodiment, it has been described that the processing in the visual processing device 600 is performed on the luminance of the input signal IS. Here, the present invention is not effective only when the input signal IS is expressed in the YCbCr color space. The input signal IS may be expressed in a YUV color space, Lab color space, Luv color space, YIQ color space, XYZ color space, YPbPr color space, or the like. In these cases, it is possible to execute the processing described in the above embodiment for the luminance and brightness of each color space.

また、入力信号ISがRGB色空間で表されている場合に、視覚処理装置600における処理は、RGBそれぞれの成分に対して独立に行われるものであってもよい。すなわち、入力信号ISのRGB成分に対して、目標コントラスト変換部601による処理が独立に行われ、目標コントラスト信号JSのRGB成分が出力される。さらに、目標コントラスト信号JSのRGB成分に対して、変換信号処理部602による処理が独立に行われ、視覚処理信号KSのRGB成分が出力される。さらに、視覚処理信号KSのRGB成分に対して、実コントラスト変換部603による処理が独立に行われ、出力信号OSのRGB成分が出力される。ここで、目標コントラストC1および実コントラストC2は、RGB成分それぞれの処理において、共通の値が用いられる。   Further, when the input signal IS is represented in the RGB color space, the processing in the visual processing device 600 may be performed independently for each component of RGB. That is, the processing by the target contrast conversion unit 601 is independently performed on the RGB components of the input signal IS, and the RGB components of the target contrast signal JS are output. Further, the RGB component of the target contrast signal JS is independently processed by the conversion signal processing unit 602, and the RGB component of the visual processing signal KS is output. Further, the RGB component of the visual processing signal KS is independently processed by the actual contrast conversion unit 603, and the RGB component of the output signal OS is output. Here, common values are used for the target contrast C1 and the actual contrast C2 in the processing of each of the RGB components.

(vi)色差補正処理
視覚処理装置600は、変換信号処理部602により処理された輝度成分の影響により出力信号OSの色相が入力信号ISの色相と異なるものとなることを抑制するため、色差
補正処理部をさらに備えるものであってもよい。
(Vi) Color Difference Correction Processing The visual processing device 600 performs color difference correction in order to prevent the hue of the output signal OS from being different from the hue of the input signal IS due to the influence of the luminance component processed by the conversion signal processing unit 602. A processing unit may be further provided.

図36に色差補正処理部608を備える視覚処理装置600を示す。なお、図24に示す視覚処理装置600と同様の構成については同じ符号を付す。なお、入力信号ISは、YCbCrの色空間を有するとし、Y成分については、上記実施形態で説明したのと同様の処理が行われるとする。以下、色差補正処理部608について説明する。   FIG. 36 shows a visual processing device 600 including a color difference correction processing unit 608. In addition, the same code | symbol is attached | subjected about the structure similar to the visual processing apparatus 600 shown in FIG. It is assumed that the input signal IS has a YCbCr color space, and the same processing as described in the above embodiment is performed on the Y component. Hereinafter, the color difference correction processing unit 608 will be described.

色差補正処理部608は、目標コントラスト信号JSを第1の入力(値[Yin])、視覚処理信号KSを第2の入力(値[Yout])、入力信号ISのCb成分を第3の入力(値[CBin])、入力信号ISのCr成分を第4の入力(値[CRin])とし、色差補正処理されたCb成分を第1の出力(値[CBout])、色差補正処理されたCr成分を第2の出力(値[CRout])とする。   The color difference correction processing unit 608 receives the target contrast signal JS as the first input (value [Yin]), the visual processing signal KS as the second input (value [Yout]), and the Cb component of the input signal IS as the third input. (Value [CBin]), the Cr component of the input signal IS is the fourth input (value [CRin]), the color difference corrected Cb component is the first output (value [CBout]), and color difference corrected Let the Cr component be the second output (value [CRout]).

図37に色差補正処理の概要を示す。色差補正処理部608は、[Yin]、[Yout]、[CBin]、[CRin]の4入力を有し、この4入力を演算することにより、[CBout]、[CRout]の2出力を得る。
[CBout]と[CRout]とは、[Yin]と[Yout]との差および比により、[CBin]と[CRin]とを補正する次式に基づいて導出される。
FIG. 37 shows an outline of the color difference correction process. The color difference correction processing unit 608 has four inputs [Yin], [Yout], [CBin], and [CRin], and obtains two outputs [CBout] and [CRout] by calculating these four inputs. .
[CBout] and [CRout] are derived based on the following equations for correcting [CBin] and [CRin] based on the difference and ratio between [Yin] and [Yout].

[CBout]は、a1*([Yout]−[Yin])*[CBin]+a2*(1−[Yout]/[Yin])*[CBin]+a3*([Yout]−[Yin])*[CRin]+a4*(1−[Yout]/[Yin])*[CRin]+[CBin]、に基づいて導出される(以下、式CBという)。   [CBout] is a1 * ([Yout]-[Yin]) * [CBin] + a2 * (1- [Yout] / [Yin]) * [CBin] + a3 * ([Yout]-[Yin]) * [ CRin] + a4 * (1- [Yout] / [Yin]) * [CRin] + [CBin] (hereinafter referred to as equation CB).

[CRout]は、a5*([Yout]−[Yin])*[CBin]+a6*(1−[Yout]/[Yin])*[CBin]+a7*([Yout]−[Yin])*[CRin]+a8*(1−[Yout]/[Yin])*[CRin]+[CRin]、に基づいて導出される(以下、式CRという)。   [CRout] is a5 * ([Yout]-[Yin]) * [CBin] + a6 * (1- [Yout] / [Yin]) * [CBin] + a7 * ([Yout]-[Yin]) * [ CRin] + a8 * (1- [Yout] / [Yin]) * [CRin] + [CRin] (hereinafter referred to as the expression CR).

式CBおよび式CRにおける係数a1〜a8には、以下に説明する推定演算により事前に視覚処理装置600の外部の計算装置などによって決定された値が用いられている。
図38を用いて、計算装置などにおける係数a1〜a8の推定演算について説明する。
まず、[Yin]、[Yout]、[CBin]、[CRin]の4入力が取得される(ステップS630)。それぞれの入力の値は、係数a1〜a8を決定するためにあらかじめ用意されたデータである。例えば、[Yin]、[CBin]、[CRin]としては、それぞれが取りうる全ての値を所定の間隔で間引いた値などが用いられる。さらに[Yout]としては、[Yin]の値を変換信号処理部602に入力した場合に出力されうる値を所定の間隔で間引いた値などが用いられる。このようにして用意されたデータが、4入力として取得される。
For the coefficients a1 to a8 in the equations CB and CR, values determined in advance by a calculation device outside the visual processing device 600 by an estimation calculation described below are used.
The estimation calculation of the coefficients a1 to a8 in a calculation device or the like will be described using FIG.
First, four inputs [Yin], [Yout], [CBin], and [CRin] are acquired (step S630). Each input value is data prepared in advance to determine the coefficients a1 to a8. For example, as [Yin], [CBin], and [CRin], values obtained by thinning all possible values at predetermined intervals are used. Further, as [Yout], a value obtained by thinning out a value that can be output when the value of [Yin] is input to the converted signal processing unit 602 at a predetermined interval is used. Data prepared in this way is acquired as four inputs.

取得された[Yin]、[CBin]、[CRin]は、Lab色空間に変換され、変換されたLab色空間における色度値[Ain]および[Bin]が計算される(ステップS631)。
次に、デフォルトの係数a1〜a8を用いて、「式CB」および「式CR」が計算され、[CBout]および[CRout]の値が取得される(ステップS632)。取得された値および[Yout]は、Lab色空間に変換され、変換されたLab色空間における色度値[Aout]および[Bout]が計算される(ステップS633)。
The acquired [Yin], [CBin], and [CRin] are converted into the Lab color space, and the chromaticity values [Ain] and [Bin] in the converted Lab color space are calculated (step S631).
Next, “expression CB” and “expression CR” are calculated using default coefficients a1 to a8, and the values of [CBout] and [CRout] are obtained (step S632). The acquired value and [Yout] are converted to the Lab color space, and the chromaticity values [Aout] and [Bout] in the converted Lab color space are calculated (step S633).

次に、計算された色度値[Ain]、[Bin]、[Aout]、[Bout]を用いて、評価関数が計算され(ステップS634)、評価関数の値が所定の閾値以下となるか判断される。ここで、評価関数は、[Ain]および[Bin]と、[Aout]および[Bout]との色相の変化が小さくなる場合に小さな値となる関数であり、例えば、それぞれの成分の偏差の自乗和といった関数である。より具体的には、評価関数は、([A
in]−[Aout])^2+([Bin]−[Bout])^2、などである。
Next, an evaluation function is calculated using the calculated chromaticity values [Ain], [Bin], [Aout], and [Bout] (step S634), and whether the value of the evaluation function is equal to or less than a predetermined threshold value. To be judged. Here, the evaluation function is a function that takes a small value when the change in hue between [Ain] and [Bin] and [Aout] and [Bout] is small. For example, the evaluation function is the square of the deviation of each component. It is a function such as sum. More specifically, the evaluation function is ([A
in]-[Aout]) ^ 2 + ([Bin]-[Bout]) ^ 2.

評価関数の値が所定の閾値よりも大きい場合(ステップS635)、係数a1〜a8が修正され(ステップS636)、新たな係数を用いて、ステップS632〜ステップS635の演算が繰り返される。
評価関数の値が所定の閾値よりも小さい場合(ステップS635)、評価関数の計算に用いられた係数a1〜a8が推定演算の結果として出力される(ステップS637)。
When the value of the evaluation function is larger than the predetermined threshold (step S635), the coefficients a1 to a8 are corrected (step S636), and the operations of steps S632 to S635 are repeated using the new coefficient.
When the value of the evaluation function is smaller than the predetermined threshold (step S635), the coefficients a1 to a8 used for calculating the evaluation function are output as the result of the estimation calculation (step S637).

なお、推定演算においては、あらかじめ用意した[Yin]、[Yout]、[CBin]、[CRin]の4入力の組み合わせのうちの1つを用いて係数a1〜a8を推定演算してもよいが、組み合わせのうちの複数を用いて上述の処理を行い、評価関数を最小とする係数a1〜a8を推定演算の結果として出力してもよい。   In the estimation calculation, the coefficients a1 to a8 may be estimated and calculated using one of four input combinations [Yin], [Yout], [CBin], and [CRin] prepared in advance. The above-described processing may be performed using a plurality of combinations, and the coefficients a1 to a8 that minimize the evaluation function may be output as a result of the estimation calculation.

〔色差補正処理における変形例〕
《1》
上記色差補正処理部608では、目標コントラスト信号JSの値を[Yin]、視覚処理信号KSの値を[Yout]、入力信号ISのCb成分の値を[CBin]、入力信号ISのCr成分の値を[CRin]、出力信号OSのCb成分の値を[CBout]、出力信号OSのCr成分の値を[CRout]とした。ここで、[Yin]、[Yout]、[CBin]、[CRin]、[CBout]、[CRout]は、他の信号の値を表すものであってもよい。
[Modification of color difference correction processing]
<< 1 >>
In the color difference correction processing unit 608, the value of the target contrast signal JS is [Yin], the value of the visual processing signal KS is [Yout], the value of the Cb component of the input signal IS is [CBin], and the value of the Cr component of the input signal IS is The value is [CRin], the value of the Cb component of the output signal OS is [CBout], and the value of the Cr component of the output signal OS is [CRout]. Here, [Yin], [Yout], [CBin], [CRin], [CBout], and [CRout] may represent values of other signals.

例えば、入力信号ISがRGB色空間の信号である場合、目標コントラスト変換部601(図24参照)は、入力信号ISのそれぞれの成分に対して処理を行う。この場合、処理後のRGB色空間の信号をYCbCr色空間の信号に変換し、そのY成分の値を[Yin]、Cb成分の値を[CBin]、Cr成分の値を[CRin]としてもよい。   For example, when the input signal IS is a signal in the RGB color space, the target contrast conversion unit 601 (see FIG. 24) performs processing on each component of the input signal IS. In this case, the processed RGB color space signal is converted to a YCbCr color space signal, the Y component value is [Yin], the Cb component value is [CBin], and the Cr component value is [CRin]. Good.

さらに、出力信号OSがRGB色空間の信号である場合、導出された[Yout]、[CBout]、[CRout]をRGB色空間に変換し、それぞれの成分に対して実コントラスト変換部603による変換処理を行い、出力信号OSとしてもよい。
《2》
色差補正処理部608は、変換信号処理部602の処理の前後における信号値の比を用いて、色差補正処理部608に入力されるRGB成分のそれぞれを補正処理するものであってもよい。
Further, when the output signal OS is a signal in the RGB color space, the derived [Yout], [CBout], and [CRout] are converted into the RGB color space, and the respective components are converted by the actual contrast conversion unit 603. The output signal OS may be processed.
<< 2 >>
The color difference correction processing unit 608 may perform correction processing on each of the RGB components input to the color difference correction processing unit 608 using the ratio of signal values before and after the processing of the conversion signal processing unit 602.

図39を用いて、変形例としての視覚処理装置600の構造について説明する。なお、図36に示す視覚処理装置600とほぼ同様の機能を果たす部分については、同じ符号を付し、説明を省略する。変形例としての視覚処理装置600は、特徴的な構成として、輝度信号生成部610を備えている。   The structure of a visual processing device 600 as a modification will be described with reference to FIG. Note that portions that perform substantially the same functions as those of the visual processing device 600 shown in FIG. 36 are assigned the same reference numerals, and descriptions thereof are omitted. The visual processing device 600 as a modification includes a luminance signal generation unit 610 as a characteristic configuration.

RGB色空間の信号である入力信号ISのそれぞれの成分は、目標コントラスト変換部601において、RGB色空間の信号である目標コントラスト信号JSに変換される。詳しい処理については上述したため説明を省略する。ここで、目標コントラスト信号JSのそれぞれの成分の値を[Rin]、[Gin]、[Bin]とする。   Each component of the input signal IS, which is a signal in the RGB color space, is converted into a target contrast signal JS, which is a signal in the RGB color space, in the target contrast conversion unit 601. Since detailed processing has been described above, description thereof will be omitted. Here, the values of the respective components of the target contrast signal JS are [Rin], [Gin], and [Bin].

輝度信号生成部610は、目標コントラスト信号JSのそれぞれの成分から、値[Yin]の輝度信号を生成する。輝度信号は、RGBのそれぞれの成分の値をある比率で足し合わせることにより求められる。例えば、値[Yin]は、次式、[Yin]=0.299*[Rin]+0.587*[Gin]+0.114*[Bin]、などにより求められる。   The luminance signal generation unit 610 generates a luminance signal having a value [Yin] from each component of the target contrast signal JS. The luminance signal is obtained by adding the values of RGB components at a certain ratio. For example, the value [Yin] is obtained by the following equation: [Yin] = 0.299 * [Rin] + 0.587 * [Gin] + 0.114 * [Bin].

変換信号処理部602は、値[Yin]の輝度信号を処理し、値[Yout]の視覚処理信号KSを出力する。詳しい処理は、目標コントラスト信号JSから視覚処理信号KSを出力する変換信号処理部602(図36参照)における処理と同様であるため説明を省
略する。
The converted signal processing unit 602 processes the luminance signal having the value [Yin] and outputs a visual processing signal KS having the value [Yout]. Detailed processing is the same as the processing in the conversion signal processing unit 602 (see FIG. 36) that outputs the visual processing signal KS from the target contrast signal JS, and thus the description thereof is omitted.

色差補正処理部608は、輝度信号(値[Yin])、視覚処理信号KS(値[Yout])、目標コントラスト信号JS(値[Rin]、[Gin]、[Bin])を用いて、RGB色空間の信号である色差補正信号(値[Rout]、[Gout]、[Bout])を出力する。   The color difference correction processing unit 608 uses the luminance signal (value [Yin]), the visual processing signal KS (value [Yout]), and the target contrast signal JS (value [Rin], [Gin], [Bin]) to perform RGB. A color difference correction signal (values [Rout], [Gout], [Bout]) that is a color space signal is output.

具体的には、色差補正処理部608では、値[Yin]と値[Yout]との比(値[[Yout]/[Yin]])が計算される。計算された比は、色差補正係数として、目標コントラスト信号JS(値[Rin]、[Gin]、[Bin])のそれぞれの成分に乗算される。これにより、色差補正信号(値[Rout]、[Gout]、[Bout])が出力される。   Specifically, the color difference correction processing unit 608 calculates a ratio (value [[Yout] / [Yin]]) between the value [Yin] and the value [Yout]. The calculated ratio is multiplied by each component of the target contrast signal JS (values [Rin], [Gin], [Bin]) as a color difference correction coefficient. As a result, color difference correction signals (values [Rout], [Gout], [Bout]) are output.

実コントラスト変換部603は、RGB色空間の信号である色差補正信号のそれぞれの成分に対して変換を行い、RGB色空間の信号である出力信号OSに変換する。詳しい処理については、上述したため説明を省略する。
変形例としての視覚処理装置600では、変換信号処理部602における処理は、輝度信号に対する処理のみであり、RGB成分のそれぞれについて処理を行う必要がない。このため、RGB色空間の入力信号ISに対しての視覚処理の負荷が軽減される。
The actual contrast conversion unit 603 performs conversion on each component of the color difference correction signal that is a signal in the RGB color space, and converts the component into an output signal OS that is a signal in the RGB color space. Since the detailed processing has been described above, the description thereof will be omitted.
In the visual processing device 600 as a modified example, the process in the converted signal processing unit 602 is only a process on the luminance signal, and there is no need to process each of the RGB components. This reduces the visual processing load on the input signal IS in the RGB color space.

《3》
「式CB」および「式CR」は、一例であり、他の式が用いられてもよい。
(vii)視覚処理部623
図24に示す視覚処理部623は、2次元LUTにより形成されていてもよい。
<< 3 >>
“Formula CB” and “Formula CR” are examples, and other formulas may be used.
(Vii) Visual processing unit 623
The visual processing unit 623 shown in FIG. 24 may be formed by a two-dimensional LUT.

この場合、2次元LUTは、目標コントラスト信号JSの値とアンシャープ信号USの値とに対する視覚処理信号KSの値を格納している。より具体的には、[第1実施形態]〈プロファイルデータ〉(2)《第2プロファイルデータ》で説明した「式M2」に基づいて視覚処理信号KSの値が定められている。なお、「式M2」中、値Aとして目標コントラスト信号JSの値が、値Bとしてアンシャープ信号USの値が用いられる。   In this case, the two-dimensional LUT stores the value of the visual processing signal KS with respect to the value of the target contrast signal JS and the value of the unsharp signal US. More specifically, the value of the visual processing signal KS is determined based on “Formula M2” described in [First Embodiment] <Profile Data> (2) << Second Profile Data >>. In “Expression M2”, the value of the target contrast signal JS is used as the value A, and the value of the unsharp signal US is used as the value B.

視覚処理装置600は、このような2次元LUTを記憶装置(図示せず)に複数備えている。ここで、記憶装置は、視覚処理装置600に内臓されていてもよいし、有線あるいは無線を介して外部に接続されていてもよい。記憶装置に記憶されるそれぞれの2次元LUTは、目標コントラストC1の値と実コントラストC2の値とに対して関連づけられている。すなわち、目標コントラストC1の値と実コントラストC2の値との組み合わせのそれぞれに対して、[第2実施形態]〈変換信号処理部602〉《変換信号処理部602の作用》で説明したのと同様の演算が行われ、2次元LUTとして記憶されている。   The visual processing device 600 includes a plurality of such two-dimensional LUTs in a storage device (not shown). Here, the storage device may be incorporated in the visual processing device 600 or may be connected to the outside via a wired or wireless connection. Each two-dimensional LUT stored in the storage device is associated with a target contrast C1 value and an actual contrast C2 value. That is, for each combination of the target contrast C1 value and the actual contrast C2 value, the same as described in [Second Embodiment] <Conversion signal processing unit 602> << Operation of the conversion signal processing unit 602 >>. Are calculated and stored as a two-dimensional LUT.

視覚処理部623は、目標コントラストC1と実コントラストC2との値を取得すると、記憶装置に記憶されている2次元LUTのうち、取得されたそれぞれの値に関連づけられた2次元LUTを読み込む。さらに、視覚処理部623は、読み込んだ2次元LUTを用いて、視覚処理を行う。具体的には、視覚処理部623は、目標コントラスト信号JSの値とアンシャープ信号USの値とを取得し、取得された値に対する視覚処理信号KSの値を2次元LUTから読み出し、視覚処理信号KSを出力する。   When the visual processing unit 623 acquires the values of the target contrast C1 and the actual contrast C2, the visual processing unit 623 reads a two-dimensional LUT associated with each acquired value among the two-dimensional LUTs stored in the storage device. Further, the visual processing unit 623 performs visual processing using the read two-dimensional LUT. Specifically, the visual processing unit 623 acquires the value of the target contrast signal JS and the value of the unsharp signal US, reads the value of the visual processing signal KS corresponding to the acquired value from the two-dimensional LUT, and displays the visual processing signal. KS is output.

[第3実施形態]
〈1〉
本発明の第3実施形態として、上記第1実施形態および第2実施形態で説明した視覚処理装置、視覚処理方法、視覚処理プログラムの応用例と、それを用いたシステムとについて説明する。
[Third Embodiment]
<1>
As the third embodiment of the present invention, application examples of the visual processing device, the visual processing method, and the visual processing program described in the first and second embodiments and a system using the visual processing apparatus will be described.

視覚処理装置は、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDA、プリンタ、スキャナなど、画像を取り扱う機器に内蔵、あるいは接続されて、画像の視
覚処理を行う装置であり、LSIなどの集積回路として実現される。
より詳しくは、上記実施形態の各機能ブロックは、個別に1チップ化されても良いし、一部又は全てを含むように1チップ化されても良い。なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
A visual processing device is a device that performs visual processing of an image by being incorporated in or connected to a device that handles images, such as a computer, a television, a digital camera, a mobile phone, a PDA, a printer, and a scanner. Realized as a circuit.
More specifically, each functional block of the above embodiment may be individually made into one chip, or may be made into one chip so as to include a part or all. Here, although LSI is used, it may be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。   Further, the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after the manufacture of the LSI or a reconfigurable processor that can reconfigure the connection and setting of the circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
上記第1実施形態および第2実施形態で説明したそれぞれの視覚処理装置の各ブロックの処理は、例えば、視覚処理装置が備える中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied.
The processing of each block of each visual processing device described in the first embodiment and the second embodiment is performed by, for example, a central processing unit (CPU) included in the visual processing device. In addition, a program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or the RAM.

また、図1の視覚処理装置1において2次元LUT4は、ハードディスク、ROMなどの記憶装置に格納されており、必要に応じて参照される。さらに、視覚処理部3は、視覚処理装置1に直接的に接続される、あるいはネットワークを介して間接的に接続されるプロファイルデータ登録装置8からプロファイルデータの提供を受け、2次元LUT4として登録する。   In the visual processing device 1 of FIG. 1, the two-dimensional LUT 4 is stored in a storage device such as a hard disk or ROM, and is referred to as necessary. Further, the visual processing unit 3 receives profile data from the profile data registration device 8 that is directly connected to the visual processing device 1 or indirectly connected via the network, and registers it as a two-dimensional LUT 4. .

また、視覚処理装置は、動画像を取り扱う機器に内蔵、あるいは接続されて、フレーム毎(フィールド毎)の画像の階調処理を行う装置であってもよい。
また、視覚処理装置1では、上記第1実施形態で説明した視覚処理方法が実行される。
視覚処理プログラムは、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDA、プリンタ、スキャナなど、画像を取り扱う機器に内蔵、あるいは接続される装置において、ハードディスク、ROMなどの記憶装置に記憶され、画像の視覚処理を実行するプログラムであり、例えば、CD−ROMなどの記録媒体を介して、あるいはネットワークを介して提供される。
In addition, the visual processing device may be a device that performs built-in or connected to a device that handles moving images and performs gradation processing of an image for each frame (for each field).
In the visual processing device 1, the visual processing method described in the first embodiment is executed.
The visual processing program is stored in a storage device such as a hard disk or ROM in a device that handles images, such as a computer, television, digital camera, mobile phone, PDA, printer, scanner, etc. A program that executes processing, and is provided via a recording medium such as a CD-ROM or via a network.

〈2〉
上記第1実施形態および第2実施形態で説明した視覚処理装置は、図40〜図41に示す構成で表すことも可能である。
(1)
《構成》
図40は、例えば、図7を用いて示した視覚処理装置525と同様の機能を果たす視覚処理装置910の構成を示すブロック図である。
<2>
The visual processing devices described in the first embodiment and the second embodiment can also be expressed by the configurations shown in FIGS.
(1)
"Constitution"
FIG. 40 is a block diagram showing a configuration of a visual processing device 910 that performs the same function as the visual processing device 525 shown in FIG. 7, for example.

視覚処理装置910において、センサ911およびユーザ入力部912は、入力装置527(図7参照)と同様の機能を有する。より具体的には、センサ911は、視覚処理装置910が設置される環境、あるいは視覚処理装置910からの出力信号OSが表示される環境における環境光を検出するセンサであり、検出した値を環境光を表すパラメータP1として出力する。また、ユーザ入力部912は、ユーザに対して、環境光の強さを、例えば、「強・中・弱」の段階的に、あるいは無段階的(連続的)に設定させる装置であり、設定された値を環境光を表すパラメータP1として出力する。   In the visual processing device 910, the sensor 911 and the user input unit 912 have the same functions as the input device 527 (see FIG. 7). More specifically, the sensor 911 is a sensor that detects ambient light in an environment where the visual processing device 910 is installed or an environment where the output signal OS from the visual processing device 910 is displayed. Output as a parameter P1 representing light. In addition, the user input unit 912 is a device that allows the user to set the intensity of the ambient light in, for example, “strong, medium, weak” stepwise or steplessly (continuously). The obtained value is output as a parameter P1 representing ambient light.

出力部914は、プロファイルデータ登録部526(図7参照)と同様の機能を有する
。より具体的には、出力部914は、環境光を表すパラメータP1の値に関連づけられた複数のプロファイルデータを備えている。ここで、プロファイルデータとは、入力信号ISと入力信号ISを空間処理した信号とに対する出力信号OSの値を与えるテーブル形式のデータである。さらに、出力部914は、取得した環境光を表すパラメータP1の値に対応するプロファイルデータを輝度調整パラメータP2として変換部915に出力する。
The output unit 914 has the same function as the profile data registration unit 526 (see FIG. 7). More specifically, the output unit 914 includes a plurality of profile data associated with the value of the parameter P1 representing ambient light. Here, the profile data is data in a table format that gives the value of the output signal OS for the input signal IS and a signal obtained by spatially processing the input signal IS. Further, the output unit 914 outputs profile data corresponding to the value of the parameter P1 representing the acquired ambient light to the conversion unit 915 as the brightness adjustment parameter P2.

変換部915は、空間処理部2および視覚処理部3(図7参照)と同様の機能を有する。変換部915は、視覚処理の対象となる対象画素(着目画素)の輝度と、対象画素の周辺に位置する周辺画素の輝度と、輝度調整パラメータP2とを入力とし、対象画素の輝度を変換し、出力信号OSを出力する。   The conversion unit 915 has the same functions as the spatial processing unit 2 and the visual processing unit 3 (see FIG. 7). The conversion unit 915 receives the luminance of the target pixel (target pixel) to be subjected to visual processing, the luminance of peripheral pixels located around the target pixel, and the luminance adjustment parameter P2, and converts the luminance of the target pixel. The output signal OS is output.

より具体的には、変換部915は、対象画素と周辺画素とを空間処理する。さらに、変換部915は、対象画素と空間処理した結果とに対応する出力信号OSの値をテーブル形式の輝度調整パラメータP2から読み出し、出力信号OSとして出力する。
《変形例》
(1)
上記構成において、輝度調整パラメータP2は、上記したプロファイルデータに限定されるものではない。例えば、輝度調整パラメータP2は、対象画素の輝度と周辺画素の輝度とから出力信号OSの値を演算する際に用いられる係数マトリクスデータであってもよい。ここで、係数マトリクスデータとは、対象画素の輝度と周辺画素の輝度とから出力信号OSの値を演算する際に用いられる関数の係数部分を格納したデータである。
More specifically, the conversion unit 915 spatially processes the target pixel and the peripheral pixels. Further, the conversion unit 915 reads the value of the output signal OS corresponding to the target pixel and the result of the spatial processing from the brightness adjustment parameter P2 in the table format, and outputs it as the output signal OS.
<Modification>
(1)
In the above configuration, the brightness adjustment parameter P2 is not limited to the profile data described above. For example, the brightness adjustment parameter P2 may be coefficient matrix data used when calculating the value of the output signal OS from the brightness of the target pixel and the brightness of surrounding pixels. Here, the coefficient matrix data is data storing a coefficient part of a function used when calculating the value of the output signal OS from the luminance of the target pixel and the luminance of the peripheral pixels.

(2)
出力部914は、環境光を表すパラメータP1の全ての値に対するプロファイルデータや係数マトリクスデータを備えている必要はない。この場合、取得された環境光を表すパラメータP1に応じて、備えられているプロファイルデータなどを適宜内分あるいは外分することにより適切なプロファイルデータなどを生成するものであってもよい。
(2)
The output unit 914 need not include profile data and coefficient matrix data for all values of the parameter P1 representing ambient light. In this case, appropriate profile data or the like may be generated by appropriately dividing or externally dividing the provided profile data or the like according to the acquired parameter P1 representing the ambient light.

(2)
《構成》
図41は、例えば、図24を用いて示した視覚処理装置600と同様の機能を果たす視覚処理装置920の構成を示すブロック図である。
(2)
"Constitution"
FIG. 41 is a block diagram showing a configuration of a visual processing device 920 that performs the same function as the visual processing device 600 shown in FIG. 24, for example.

視覚処理装置920では、出力部921が環境光を表すパラメータP1に加えて外部パラメータP3をさらに取得し、環境光を表すパラメータP1と外部パラメータP3とに基づいて輝度調整パラメータP2を出力する。
ここで、環境光を表すパラメータP1とは、上記(1)で記載したのと同様である。
In the visual processing device 920, the output unit 921 further acquires the external parameter P3 in addition to the parameter P1 representing the ambient light, and outputs the brightness adjustment parameter P2 based on the parameter P1 representing the ambient light and the external parameter P3.
Here, the parameter P1 representing the ambient light is the same as described in (1) above.

また、外部パラメータP3とは、例えば、出力信号OSを視覚するユーザが求める視覚的効果を表すパラメータである。より具体的には、画像を視覚するユーザが求めるコントラストなどの値(目標コントラスト)である。ここで、外部パラメータP3は、目標コントラスト設定部604(図24参照)により設定される。あるいは、予め出力部921に記憶されたデフォルト値を用いて設定される。   Further, the external parameter P3 is a parameter that represents a visual effect desired by a user who views the output signal OS, for example. More specifically, it is a value (target contrast) such as contrast required by the user viewing the image. Here, the external parameter P3 is set by the target contrast setting unit 604 (see FIG. 24). Alternatively, the default value stored in advance in the output unit 921 is used.

出力部921は、環境光を表すパラメータP1から、図33や図34に示した構成により実コントラストの値を算出し、輝度調整パラメータP2として出力する。また、出力部921は、外部パラメータP3(目標コントラスト)を輝度調整パラメータP2として出力する。また、出力部921は、[第2実施形態]〈変形例〉(vii)で説明した2次元LUTに格納されるプロファイルデータを複数記憶しており、外部パラメータP3と環境光を表すパラメータP1から算出された実コントラストからプロファイルデータを選択し、そのテーブル形式のデータを輝度調整パラメータP2として出力する。   The output unit 921 calculates the actual contrast value from the parameter P1 representing the ambient light with the configuration shown in FIGS. 33 and 34, and outputs it as the brightness adjustment parameter P2. The output unit 921 outputs the external parameter P3 (target contrast) as the brightness adjustment parameter P2. The output unit 921 stores a plurality of profile data stored in the two-dimensional LUT described in [Second Embodiment] <Modification> (vii). From the external parameter P3 and the parameter P1 representing ambient light. Profile data is selected from the calculated actual contrast, and the data in the table format is output as the brightness adjustment parameter P2.

変換部922は、目標コントラスト変換部601,変換信号処理部602,実コントラ
スト変換部603(以上、図24参照)と同様の機能を有する。より具体的には、変換部922には、入力信号IS(対象画素の輝度および周辺画素の輝度)と、輝度調整パラメータP2とが入力され、出力信号OSが出力される。例えば、入力信号ISは、輝度調整パラメータP2として取得される目標コントラストを用いて、目標コントラスト信号JS(図24参照)に変換される。さらに、目標コントラスト信号JSが、空間処理され、アンシャープ信号US(図24参照)が導出される。
The conversion unit 922 has the same functions as the target contrast conversion unit 601, the conversion signal processing unit 602, and the actual contrast conversion unit 603 (see FIG. 24 above). More specifically, the input signal IS (the luminance of the target pixel and the luminance of surrounding pixels) and the luminance adjustment parameter P2 are input to the conversion unit 922, and the output signal OS is output. For example, the input signal IS is converted into a target contrast signal JS (see FIG. 24) using the target contrast acquired as the brightness adjustment parameter P2. Further, the target contrast signal JS is spatially processed to derive an unsharp signal US (see FIG. 24).

変換部922は、[第2実施形態]〈変形例〉(vii)で説明した変形例としての視覚処理部623を備えており、輝度調整パラメータP2として取得されたプロファイルデータと、目標コントラスト信号JSと、アンシャープ信号USとから、視覚処理信号KS(図24参照)が出力される。さらに、視覚処理信号KSは、輝度調整パラメータP2として取得される実コントラストを用いて、出力信号OSに変換される。   The conversion unit 922 includes the visual processing unit 623 as a modification described in [Second Embodiment] <Modification> (vii), and the profile data acquired as the brightness adjustment parameter P2 and the target contrast signal JS. Then, the visual processing signal KS (see FIG. 24) is output from the unsharp signal US. Further, the visual processing signal KS is converted into the output signal OS using the actual contrast acquired as the luminance adjustment parameter P2.

この視覚処理装置920では、外部パラメータP3と環境光を表すパラメータP1とに基づいて視覚処理に用いるプロファイルデータを選択することが可能となる、とともに、環境光による影響を補正し、環境光の存在する環境でも局所的なコントラストを改善し、出力信号OSを視覚するユーザの好みのコントラストに近づけることが可能となる。   In this visual processing device 920, profile data used for visual processing can be selected based on the external parameter P3 and the parameter P1 representing ambient light, and the presence of ambient light can be corrected by correcting the influence of ambient light. Even in such an environment, it is possible to improve the local contrast and bring the output signal OS closer to the user's favorite contrast for viewing.

《変形例》
なお、本構成においても、(1)で記載したのと同様の変形を行うことが可能である。
また、(1)に記載した構成と(2)に記載した構成とは、必要に応じて切り替えて用いることも可能である。切り替えは、外部からの切り替え信号を用いて行ってもよい。また、外部パラメータP3が存在するか否かでいずれの構成を用いるかを判断してもよい。
<Modification>
In this configuration, the same modification as described in (1) can be performed.
In addition, the configuration described in (1) and the configuration described in (2) can be switched and used as necessary. The switching may be performed using an external switching signal. Further, it may be determined which configuration is used depending on whether or not the external parameter P3 exists.

また、実コントラストは、出力部921で算出されると記載したが、実コントラストの値が出力部921に直接入力されるような構成であってもよい。
(3)
図41に示す構成では、出力部921から変換部922への入力が急激に変化しないようにするための手段をさらに採用することが可能である。
In addition, although it has been described that the actual contrast is calculated by the output unit 921, a configuration in which the actual contrast value is directly input to the output unit 921 may be employed.
(3)
In the configuration shown in FIG. 41, it is possible to further employ means for preventing the input from the output unit 921 to the conversion unit 922 from changing abruptly.

図42に示す視覚処理装置920’は、図41に示す視覚処理装置920に対して、環境光を表すパラメータP1の時間変化を緩やかにさせる調整部925を備える点において相違している。調整部925は、環境光を表すパラメータP1を入力とし、調整後の出力P4を出力とする。   The visual processing device 920 ′ illustrated in FIG. 42 is different from the visual processing device 920 illustrated in FIG. 41 in that an adjustment unit 925 that moderates a time change of the parameter P <b> 1 representing ambient light is provided. The adjustment unit 925 receives the parameter P1 representing the ambient light, and outputs the adjusted output P4.

これにより、出力部921は、急激な変化を伴わない環境光を表すパラメータP1を取得することが可能となり、この結果、出力部921の出力の時間変化も緩やかになる。
調整部925は、例えば、IIRフィルタにより実現される。ここで、IIRフィルタでは、調整部925の出力P4の値[P4]は、[P4]=k1*[P4]’+k2*[P1]により演算される。なお式中、k1,k2は、それぞれ正の値をとるパラメータであり、[P1]は、環境光を表すパラメータP1の値であり、[P4]’は、調整部925の出力P4の遅延出力(例えば、前回の出力)の値である。なお、調整部925における処理は、IIRフィルタ以外の構成を用いて行われてもよい。
As a result, the output unit 921 can acquire the parameter P1 representing the ambient light without a sudden change, and as a result, the time change of the output of the output unit 921 becomes moderate.
The adjustment unit 925 is realized by an IIR filter, for example. Here, in the IIR filter, the value [P4] of the output P4 of the adjustment unit 925 is calculated by [P4] = k1 * [P4] ′ + k2 * [P1]. In the equation, k1 and k2 are parameters that take positive values, [P1] is the value of the parameter P1 representing ambient light, and [P4] ′ is the delayed output of the output P4 of the adjustment unit 925. (For example, the previous output). Note that the processing in the adjustment unit 925 may be performed using a configuration other than the IIR filter.

さらに、調整部925は、図43に示す視覚処理装置920”のように、出力部921の出力側に備えられ、輝度調整パラメータP2の時間変化を直接緩やかにする手段であってもよい。
ここで、調整部925の動作は、上記したのと同様である。具体的には、調整部925の出力P4の値[P4]は、[P4]=k3*[P4]’+k4*[P2]により演算される。なお式中、k3,k4は、それぞれ正の値をとるパラメータであり、[P2]は、輝度調整パラメータP2の値であり、[P4]’は、調整部925の出力P4の遅延出力(例えば、前回の出力)の値である。なお、調整部925における処理は、IIRフィル
タ以外の構成を用いて行われてもよい。
Furthermore, the adjustment unit 925 may be a unit that is provided on the output side of the output unit 921 as in the visual processing device 920 ″ shown in FIG.
Here, the operation of the adjustment unit 925 is the same as described above. Specifically, the value [P4] of the output P4 of the adjustment unit 925 is calculated by [P4] = k3 * [P4] ′ + k4 * [P2]. In the equation, k3 and k4 are parameters each taking a positive value, [P2] is a value of the brightness adjustment parameter P2, and [P4] ′ is a delay output (for example, the output P4 of the adjustment unit 925) , The previous output) value. Note that the processing in the adjustment unit 925 may be performed using a configuration other than the IIR filter.

図42、図43などに示した構成により、環境光を表すパラメータP1、あるいは輝度調整パラメータP2の時間変化を制御することが可能となる。このため、例えば、環境光を検出するセンサ911が、センサの前を移動する人に応答し、短時間にパラメータが大きく変化した場合でも、急激なパラメータ変動を抑えることができる。この結果、表示画面のちらつきを抑えることができる。   With the configuration shown in FIGS. 42, 43, etc., it is possible to control the time change of the parameter P1 representing the ambient light or the brightness adjustment parameter P2. For this reason, for example, even when the sensor 911 that detects ambient light responds to a person moving in front of the sensor and the parameter changes greatly in a short time, rapid parameter fluctuations can be suppressed. As a result, flickering of the display screen can be suppressed.

[第4実施形態]
第4〜第6実施形態では、図104〜図107を用いて説明した従来の階調処理に対する以下の課題を解決することが可能となる。
〈従来の階調処理の課題〉
ヒストグラム作成部302(図104参照)では、画像領域Sm内の画素の明度ヒストグラムHmから階調変換曲線Cmを作成する。画像領域Smに適用する階調変換曲線Cmをより適切に作成するには、画像の暗部(シャドー)から明部(ハイライト)までを満遍なく有していることが必要であり、より多くの画素を参照する必要がある。このため、それぞれの画像領域Smをあまり小さくすることができない、すなわち原画像の分割数nをあまり大きくすることができない。分割数nとしては、画像内容によって異なるが、経験的に、4〜16の分割数が用いられている。
[Fourth Embodiment]
In the fourth to sixth embodiments, the following problems with respect to the conventional gradation processing described with reference to FIGS. 104 to 107 can be solved.
<Problems of conventional gradation processing>
The histogram creation unit 302 (see FIG. 104) creates a gradation conversion curve Cm from the brightness histogram Hm of the pixels in the image area Sm. In order to more appropriately create the gradation conversion curve Cm to be applied to the image area Sm, it is necessary to have the entire dark portion (shadow) to bright portion (highlight) of the image, and more pixels. Need to refer to. For this reason, each image area Sm cannot be made too small, that is, the number n of divisions of the original image cannot be made too large. The division number n varies depending on the image content, but empirically, a division number of 4 to 16 is used.

このように、それぞれの画像領域Smをあまり小さくすることができないため、階調処理後の出力信号OSにおいては、次の問題が発生することがある。すなわち、それぞれの画像領域Smごとに1つの階調変換曲線Cmを用いて階調処理するため、それぞれの画像領域Smの境界のつなぎ目が不自然に目立ったり、画像領域Sm内で疑似輪郭が発生する場合がある。また、分割数がせいぜい4〜16では画像領域Smが大きいため、画像領域間で極端に異なる画像が存在する場合、画像領域間の濃淡変化が大きく、擬似輪郭の発生を防止することが難しい。例えば、図105(b)、図105(c)のように、画像(例えば、画像中の物体など)と画像領域Smとの位置関係で極端に濃淡が変化する。   As described above, since each image area Sm cannot be made very small, the following problem may occur in the output signal OS after gradation processing. That is, since gradation processing is performed using one gradation conversion curve Cm for each image region Sm, the boundary of each image region Sm is unnaturally noticeable, or a pseudo contour is generated in the image region Sm. There is a case. In addition, when the number of divisions is 4 to 16 at most, the image area Sm is large. Therefore, when there are extremely different images between the image areas, the shading change between the image areas is large, and it is difficult to prevent the occurrence of the pseudo contour. For example, as shown in FIGS. 105 (b) and 105 (c), the density changes extremely depending on the positional relationship between the image (for example, an object in the image) and the image region Sm.

以下、第4〜第6実施形態では、図44〜図64を用いて、従来の階調処理に対する上記課題を解決可能な視覚処理装置について説明する。
〈第4実施形態としての視覚処理装置101の特徴〉
本発明の第4実施形態としての視覚処理装置101について図44〜図48を用いて説明する。視覚処理装置101は、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDAなど、画像を取り扱う機器に内蔵、あるいは接続されて、画像の階調処理を行う装置である。視覚処理装置101は、従来に比して細かく分割された画像領域のそれぞれについて階調処理を行う点を特徴として有している。
Hereinafter, in the fourth to sixth embodiments, a visual processing device capable of solving the above-described problems with respect to conventional gradation processing will be described with reference to FIGS. 44 to 64.
<Features of Visual Processing Device 101 as Fourth Embodiment>
A visual processing device 101 according to a fourth embodiment of the present invention will be described with reference to FIGS. The visual processing device 101 is a device that performs gradation processing of an image by being incorporated in or connected to a device that handles images, such as a computer, a television, a digital camera, a mobile phone, and a PDA. The visual processing device 101 is characterized in that gradation processing is performed on each of the image areas finely divided as compared with the conventional art.

〈構成〉
図44に、視覚処理装置101の構造を説明するブロック図を示す。視覚処理装置101は、入力信号ISとして入力される原画像を複数の画像領域Pm(1≦m≦n:nは原画像の分割数)に分割する画像分割部102と、それぞれの画像領域Pmに対して階調変換曲線Cmを導出する階調変換曲線導出部110と、階調変換曲線Cmをロードしそれぞれの画像領域Pmに対して階調処理した出力信号OSを出力する階調処理部105とを備えている。階調変換曲線導出部110は、それぞれの画像領域Pmと画像領域Pm周辺の画像領域とから構成される広域画像領域Emの画素の明度ヒストグラムHmを作成するヒストグラム作成部103と、作成された明度ヒストグラムHmからそれぞれの画像領域Pmに対する階調変換曲線Cmを作成する階調曲線作成部104とから構成される。
<Constitution>
FIG. 44 is a block diagram illustrating the structure of the visual processing device 101. The visual processing device 101 divides an original image input as the input signal IS into a plurality of image regions Pm (1 ≦ m ≦ n: n is the number of divisions of the original image), and each image region Pm. A gradation conversion curve deriving unit 110 for deriving a gradation conversion curve Cm, and a gradation processing unit for loading the gradation conversion curve Cm and outputting an output signal OS obtained by performing gradation processing on each image region Pm. 105. The gradation conversion curve deriving unit 110 creates a brightness histogram Hm of pixels in the wide-area image region Em composed of the respective image regions Pm and image regions around the image region Pm, and the created brightness. The gradation curve creating unit 104 creates a gradation conversion curve Cm for each image region Pm from the histogram Hm.

〈作用〉
図45〜図47を用いて、各部の動作について説明を加える。画像分割部102は、入力信号ISとして入力される原画像を複数(n個)の画像領域Pmに分割する(図45参照。)。ここで、原画像の分割数は、図104に示す従来の視覚処理装置300の分割数(例えば、4〜16分割)よりも多く、例えば、横方向に80分割し縦方向に60分割する4800分割などである。
<Action>
The operation of each part will be described with reference to FIGS. The image dividing unit 102 divides the original image input as the input signal IS into a plurality (n) of image regions Pm (see FIG. 45). Here, the number of divisions of the original image is larger than the number of divisions (for example, 4 to 16 divisions) of the conventional visual processing device 300 shown in FIG. 104. For example, 4800 is divided into 80 in the horizontal direction and 60 in the vertical direction. Such as division.

ヒストグラム作成部103は、それぞれの画像領域Pmに対して広域画像領域Emの明度ヒストグラムHmを作成する。ここで、広域画像領域Emとは、それぞれの画像領域Pmを含む複数の画像領域の集合であり、例えば、画像領域Pmを中心とする縦方向5ブロック、横方向5ブロックの25個の画像領域の集合である。なお、画像領域Pmの位置によっては、画像領域Pmの周辺に縦方向5ブロック、横方向5ブロックの広域画像領域Emを取ることができない場合がある。例えば、原画像の周辺に位置する画像領域Plに対して、画像領域Plの周辺に縦方向5ブロック、横方向5ブロックの広域画像領域Elを取ることができない。この場合には、画像領域Plを中心とする縦方向5ブロック横方向5ブロックの領域と原画像とが重なる領域が広域画像領域Elとして採用される。ヒストグラム作成部103が作成する明度ヒストグラムHmは広域画像領域Em内の全画素の明度値の分布状態を示している。すなわち、図46(a)〜(c)に示す明度ヒストグラムHmにおいて、横軸は入力信号ISの明度レベルを、縦軸は画素数を示している。   The histogram creation unit 103 creates a brightness histogram Hm of the wide-area image region Em for each image region Pm. Here, the wide area image area Em is a set of a plurality of image areas including the respective image areas Pm. For example, 25 image areas of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image area Pm. Is a set of Depending on the position of the image area Pm, there may be a case where the wide area image area Em of 5 blocks in the vertical direction and 5 blocks in the horizontal direction cannot be taken around the image area Pm. For example, with respect to the image area Pl positioned around the original image, it is not possible to take a wide area image area El of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area Pl. In this case, an area where the area of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image area Pl overlaps with the original image is adopted as the wide area image area El. The brightness histogram Hm created by the histogram creation unit 103 indicates the distribution state of the brightness values of all the pixels in the wide area image area Em. That is, in the lightness histograms Hm shown in FIGS. 46A to 46C, the horizontal axis represents the lightness level of the input signal IS, and the vertical axis represents the number of pixels.

階調曲線作成部104は、広域画像領域Emの明度ヒストグラムHmの「画素数」を明度の順に累積し、この累積曲線を画像領域Pmの階調変換曲線Cmとする(図47参照。)。図47に示す階調変換曲線Cmにおいて、横軸は入力信号ISにおける画像領域Pmの画素の明度値を、縦軸は出力信号OSにおける画像領域Pmの画素の明度値を示している。階調処理部105は、階調変換曲線Cmをロードし階調変換曲線Cmに基づいて、入力信号ISにおける画像領域Pmの画素の明度値を変換する。   The gradation curve creation unit 104 accumulates the “number of pixels” of the brightness histogram Hm of the wide area image area Em in the order of brightness, and sets this accumulated curve as the gradation conversion curve Cm of the image area Pm (see FIG. 47). In the gradation conversion curve Cm shown in FIG. 47, the horizontal axis indicates the brightness value of the pixel in the image area Pm in the input signal IS, and the vertical axis indicates the brightness value of the pixel in the image area Pm in the output signal OS. The gradation processing unit 105 loads the gradation conversion curve Cm and converts the brightness value of the pixel in the image region Pm in the input signal IS based on the gradation conversion curve Cm.

〈視覚処理方法および視覚処理プログラム〉
図48に、視覚処理装置101における視覚処理方法を説明するフローチャートを示す。図48に示す視覚処理方法は、視覚処理装置101においてハードウェアにより実現され、入力信号IS(図1参照)の階調処理を行う方法である。図48に示す視覚処理方法では、入力信号ISは、画像単位で処理される(ステップS110〜S116)。入力信号ISとして入力される原画像は、複数の画像領域Pm(1≦m≦n:nは原画像の分割数)に分割され(ステップS111)、画像領域Pm毎に階調処理される(ステップS112〜S115)。
<Visual processing method and visual processing program>
FIG. 48 is a flowchart for explaining a visual processing method in the visual processing device 101. The visual processing method shown in FIG. 48 is realized by hardware in the visual processing device 101, and is a method for performing gradation processing of the input signal IS (see FIG. 1). In the visual processing method shown in FIG. 48, the input signal IS is processed in units of images (steps S110 to S116). The original image input as the input signal IS is divided into a plurality of image regions Pm (1 ≦ m ≦ n: n is the number of divisions of the original image) (step S111), and gradation processing is performed for each image region Pm (step S111). Steps S112 to S115).

それぞれの画像領域Pmと画像領域Pm周辺の画像領域とから構成される広域画像領域Emの画素の明度ヒストグラムHmが作成される(ステップS112)。さらに、明度ヒストグラムHmに基づいて、それぞれの画像領域Pmに対する階調変換曲線Cmが作成される(ステップS113)。ここで、明度ヒストグラムHmおよび階調変換曲線Cmについては、説明を省略する(上記〈作用〉の欄参照。)。作成された階調変換曲線Cmを用いて、画像領域Pmの画素について階調処理が行われる(ステップS114)。さらに、全ての画像領域Pmについての処理が終了したか否かを判定し(ステップS115)、処理が終了したと判定されるまで、ステップS112〜S115の処理を原画像の分割数回繰り返す。以上により、画像単位の処理が終了する(ステップS116)。   A brightness histogram Hm of the pixels in the wide area image area Em composed of the respective image areas Pm and the image areas around the image area Pm is created (step S112). Further, a gradation conversion curve Cm for each image region Pm is created based on the lightness histogram Hm (step S113). Here, the description of the brightness histogram Hm and the gradation conversion curve Cm will be omitted (see the section <Action> above). Using the created gradation conversion curve Cm, gradation processing is performed on the pixels in the image region Pm (step S114). Further, it is determined whether or not the processing for all the image areas Pm has been completed (step S115), and the processing of steps S112 to S115 is repeated several times until the processing is determined to be completed. Thus, the processing for each image is completed (step S116).

なお、図48に示す視覚処理方法のそれぞれのステップは、コンピュータなどにより、視覚処理プログラムとして実現されるものであっても良い。
〈効果〉
(1)
階調変換曲線Cmは、それぞれの画像領域Pmに対して作成される。このため、原画像全体に対して同一の階調変換を行う場合に比して、適切な階調処理を行うことが可能となる。
Note that each step of the visual processing method shown in FIG. 48 may be realized as a visual processing program by a computer or the like.
<effect>
(1)
The gradation conversion curve Cm is created for each image region Pm. Therefore, it is possible to perform appropriate gradation processing as compared with the case where the same gradation conversion is performed on the entire original image.

(2)
それぞれの画像領域Pmに対して作成される階調変換曲線Cmは、広域画像領域Emの明度ヒストグラムHmに基づいて作成される。このため、画像領域Pm毎の大きさは小さくとも十分な明度値のサンプリングが可能となる。またこの結果、小さな画像領域Pmに対しても、適切な階調変換曲線Cmを作成することが可能となる。
(2)
The gradation conversion curve Cm created for each image area Pm is created based on the brightness histogram Hm of the wide area image area Em. For this reason, even if the size of each image region Pm is small, sufficient brightness values can be sampled. As a result, an appropriate gradation conversion curve Cm can be created even for a small image region Pm.

(3)
隣接する画像領域に対する広域画像領域は、重なりを有している。このため、隣接する画像領域に対する階調変換曲線は、お互いに似通った傾向を示すことが多い。このため、画像領域毎の階調処理に空間処理的効果を加えることが可能となり、隣接する画像領域の境界のつなぎ目が不自然に目立つことが防止可能となる。
(3)
Wide area image areas with respect to adjacent image areas have an overlap. For this reason, the tone conversion curves for adjacent image regions often show similar tendencies. For this reason, it is possible to add a spatial processing effect to the gradation processing for each image region, and it is possible to prevent the boundary between adjacent image regions from being unnaturally conspicuous.

(4)
それぞれの画像領域Pmの大きさは、従来に比して小さい。このため、画像領域Pm内での疑似輪郭の発生を抑えることが可能となる。
〈変形例〉
本発明は上記実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の変形が可能である。
(4)
The size of each image region Pm is smaller than in the past. For this reason, it becomes possible to suppress generation | occurrence | production of the pseudo contour in the image area | region Pm.
<Modification>
The present invention is not limited to the above embodiment, and various modifications can be made without departing from the scope of the invention.

(1)
上記実施形態では、原画像の分割数の一例として、4800分割としたが、本発明の効果は、この場合に限定されるものではなく、他の分割数でも同様の効果を得ることが可能である。なお、階調処理の処理量と視覚的効果とは分割数についてトレードオフの関係にある。すなわち、分割数を増やすと階調処理の処理量は増加するがより良好な視覚的効果(例えば、疑似輪郭の抑制など)を得ることが可能となる。
(1)
In the above embodiment, the number of divisions of the original image is 4800 divisions, but the effect of the present invention is not limited to this case, and the same effect can be obtained with other division numbers. is there. Note that the amount of gradation processing and the visual effect are in a trade-off relationship with respect to the number of divisions. That is, if the number of divisions is increased, the amount of gradation processing increases, but a better visual effect (for example, suppression of pseudo contours) can be obtained.

(2)
上記実施形態では、広域画像領域を構成する画像領域の個数の一例として、25個としたが、本発明の効果は、この場合に限定されるものではなく、他の個数でも同様の効果を得ることが可能である。
(2)
In the above embodiment, the number of image areas constituting the wide area image area is 25, but the effect of the present invention is not limited to this case, and the same effect can be obtained with other numbers. It is possible.

[第5実施形態]
〈第5実施形態としての視覚処理装置111の特徴〉
本発明の第5実施形態としての視覚処理装置111について図49〜図61を用いて説明する。視覚処理装置111は、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDAなど、画像を取り扱う機器に内蔵、あるいは接続されて、画像の階調処理を行う装置である。視覚処理装置111は、あらかじめLUTとして記憶した複数の階調変換曲線を切り換えて用いる点を特徴として有している。
[Fifth Embodiment]
<Features of Visual Processing Device 111 as Fifth Embodiment>
A visual processing device 111 as a fifth embodiment of the present invention will be described with reference to FIGS. 49 to 61. The visual processing device 111 is a device that performs gradation processing of an image by being incorporated in or connected to a device that handles images, such as a computer, a television, a digital camera, a mobile phone, and a PDA. The visual processing device 111 is characterized in that a plurality of gradation conversion curves stored in advance as LUTs are switched and used.

〈構成〉
図49に、視覚処理装置111の構造を説明するブロック図を示す。視覚処理装置111は、画像分割部112と、選択信号導出部113と、階調処理部120とを備えている。画像分割部112は、入力信号ISを入力とし、入力信号ISとして入力される原画像を複数に分割した画像領域Pm(1≦m≦n:nは原画像の分割数)を出力とする。選択信号導出部113は、それぞれの画像領域Pmの階調処理に適用される階調変換曲線Cmを選択するための選択信号Smを出力する。階調処理部120は、階調処理実行部114と、階調補正部115とを備えている。階調処理実行部114は、複数の階調変換曲線候補G1〜Gp(pは候補数)を2次元LUTとして備えており、入力信号ISと選択信号Smとを入力とし、それぞれの画像領域Pm内の画素について階調処理した階調処理信号CSを出力とする。階調補正部115は、階調処理信号CSを入力とし、階調処理信号CSの階調を補正した出力信号OSを出力とする。
<Constitution>
FIG. 49 is a block diagram illustrating the structure of the visual processing device 111. The visual processing device 111 includes an image dividing unit 112, a selection signal deriving unit 113, and a gradation processing unit 120. The image dividing unit 112 receives the input signal IS and outputs an image region Pm (1 ≦ m ≦ n: n is the number of divisions of the original image) obtained by dividing the original image input as the input signal IS into a plurality of parts. The selection signal deriving unit 113 outputs a selection signal Sm for selecting a gradation conversion curve Cm applied to the gradation processing of each image region Pm. The gradation processing unit 120 includes a gradation processing execution unit 114 and a gradation correction unit 115. The gradation processing execution unit 114 includes a plurality of gradation conversion curve candidates G1 to Gp (p is the number of candidates) as a two-dimensional LUT, receives an input signal IS and a selection signal Sm, and inputs each image region Pm. A gradation processing signal CS obtained by performing gradation processing on the inner pixel is output. The gradation correction unit 115 receives the gradation processing signal CS and outputs an output signal OS obtained by correcting the gradation of the gradation processing signal CS.

(階調変換曲線候補について)
図50を用いて、階調変換曲線候補G1〜Gpについて説明する。階調変換曲線候補G1〜Gpは、入力信号ISの画素の明度値と階調処理信号CSの画素の明度値との関係を与える曲線である。図50において、横軸は入力信号ISにおける画素の明度値を、縦軸は階調処理信号CSにおける画素の明度値を示している。階調変換曲線候補G1〜Gpは、添え字について単調減少する関係にあり、全ての入力信号ISの画素の明度値に対して、G1≧G2≧・・・≧Gpの関係を満たしている。例えば、階調変換曲線候補G1〜Gpがそれぞれ入力信号ISの画素の明度値を変数とする「べき関数」であり、Gm=x^(δm)と表される場合(1≦m≦p、xは変数、δmは定数)、δ1≦δ2≦・・・≦δpの関係を満たしている。ここで、入力信号ISの明度値は、値[0.0〜1.0]の範囲であるとする。
(About gradation conversion curve candidates)
The gradation conversion curve candidates G1 to Gp will be described with reference to FIG. The tone conversion curve candidates G1 to Gp are curves that give the relationship between the brightness value of the pixel of the input signal IS and the brightness value of the pixel of the tone processing signal CS. In FIG. 50, the horizontal axis indicates the brightness value of the pixel in the input signal IS, and the vertical axis indicates the brightness value of the pixel in the gradation processing signal CS. The gradation conversion curve candidates G1 to Gp have a monotonously decreasing relationship with respect to the subscript, and satisfy the relationship of G1 ≧ G2 ≧... ≧ Gp with respect to the brightness values of the pixels of all the input signals IS. For example, the gradation conversion curve candidates G1 to Gp are “power functions” each having the brightness value of the pixel of the input signal IS as a variable, and expressed as Gm = x ^ (δm) (1 ≦ m ≦ p, x is a variable, δm is a constant), and δ1 ≦ δ2 ≦. Here, it is assumed that the lightness value of the input signal IS is in the range of value [0.0 to 1.0].

なお、以上の階調変換曲線候補G1〜Gpの関係は、添え字の大きい階調変換曲線候補について、入力信号ISが小さい場合、若しくは、添え字の小さい階調変換曲線候補について、入力信号ISが大きい場合、において、成立していなくてもよい。このような場合は、ほとんど無く、画質への影響が小さいためである。   It should be noted that the relationship between the tone conversion curve candidates G1 to Gp described above is as follows. The input signal IS is low when the input signal IS is small for the tone conversion curve candidate with a large subscript, or the tone conversion curve candidate with the small subscript. When is large, it may not be established. In such a case, there is almost no effect on the image quality.

階調処理実行部114は、階調変換曲線候補G1〜Gpを2次元LUTとして備えている。すなわち、2次元LUTは、入力信号ISの画素の明度値と階調変換曲線候補G1〜Gpを選択する選択信号Smとに対して、階調処理信号CSの画素の明度値を与えるルックアップテーブル(LUT)である。図51に、この2次元LUTの一例を示す。図51に示す2次元LUT141は、64行64列のマトリクスであり、それぞれの階調変換曲線候補G1〜G64を行方向(横方向)に並べたものとなっている。マトリクスの列方向(縦方向)には、例えば10ビットで表される入力信号ISの画素値の上位6ビットの値、すなわち64段階に分けられた入力信号ISの値に対する階調処理信号CSの画素値が並んでいる。階調処理信号CSの画素値は、階調変換曲線候補G1〜Gpが「べき関数」である場合、例えば、値[0.0〜1.0]の範囲の値を有する。   The gradation processing execution unit 114 includes gradation conversion curve candidates G1 to Gp as a two-dimensional LUT. That is, the two-dimensional LUT is a look-up table that gives the lightness value of the pixel of the gradation processing signal CS to the lightness value of the pixel of the input signal IS and the selection signal Sm for selecting the gradation conversion curve candidates G1 to Gp. (LUT). FIG. 51 shows an example of this two-dimensional LUT. A two-dimensional LUT 141 shown in FIG. 51 is a matrix of 64 rows and 64 columns, and the respective tone conversion curve candidates G1 to G64 are arranged in the row direction (horizontal direction). In the column direction (vertical direction) of the matrix, for example, the upper 6 bits of the pixel value of the input signal IS represented by 10 bits, that is, the value of the gradation processing signal CS corresponding to the value of the input signal IS divided into 64 stages. Pixel values are lined up. The pixel value of the gradation processing signal CS has a value in the range of [0.0 to 1.0], for example, when the gradation conversion curve candidates G1 to Gp are “power functions”.

〈作用〉
各部の動作について説明を加える。画像分割部112は、図44の画像分割部102とほぼ同様に動作し、入力信号ISとして入力される原画像を複数(n個)の画像領域Pmに分割する(図45参照)。ここで、原画像の分割数は、図104に示す従来の視覚処理装置300の分割数(例えば、4〜16分割)よりも多く、例えば、横方向に80分割し縦方向に60分割する4800分割などである。
<Action>
The operation of each part will be described. The image dividing unit 112 operates in substantially the same manner as the image dividing unit 102 in FIG. 44, and divides the original image input as the input signal IS into a plurality (n) of image regions Pm (see FIG. 45). Here, the number of divisions of the original image is larger than the number of divisions (for example, 4 to 16 divisions) of the conventional visual processing device 300 shown in FIG. 104. For example, 4800 is divided into 80 in the horizontal direction and 60 in the vertical direction. Such as division.

選択信号導出部113は、それぞれの画像領域Pmに対して適用される階調変換曲線Cmを階調変換曲線候補G1〜Gpの中から選択する。具体的には、選択信号導出部113は、画像領域Pmの広域画像領域Emの平均明度値を計算し、計算された平均明度値に応じて階調変換曲線候補G1〜Gpのいずれかの選択を行う。すなわち、階調変換曲線候補G1〜Gpは、広域画像領域Emの平均明度値に関連づけられており、平均明度値が大きくなるほど、添え字の大きい階調変換曲線候補G1〜Gpが選択される。   The selection signal deriving unit 113 selects a gradation conversion curve Cm to be applied to each image region Pm from the gradation conversion curve candidates G1 to Gp. Specifically, the selection signal deriving unit 113 calculates the average brightness value of the wide area image area Em of the image area Pm, and selects any one of the gradation conversion curve candidates G1 to Gp according to the calculated average brightness value. I do. That is, the tone conversion curve candidates G1 to Gp are associated with the average brightness value of the wide area image region Em, and the tone conversion curve candidates G1 to Gp with larger subscripts are selected as the average brightness value increases.

ここで、広域画像領域Emとは、[第4実施形態]において図45を用いて説明したのと同様である。すなわち、広域画像領域Emは、それぞれの画像領域Pmを含む複数の画像領域の集合であり、例えば、画像領域Pmを中心とする縦方向5ブロック、横方向5ブロックの25個の画像領域の集合である。なお、画像領域Pmの位置によっては、画像領域Pmの周辺に縦方向5ブロック、横方向5ブロックの広域画像領域Emを取ることができない場合がある。例えば、原画像の周辺に位置する画像領域Plに対して、画像領域Plの周辺に縦方向5ブロック、横方向5ブロックの広域画像領域Elを取ることができない。この場合には、画像領域Plを中心とする縦方向5ブロック横方向5ブロックの領域と原画像とが重なる領域が広域画像領域Elとして採用される。   Here, the wide area image region Em is the same as that described with reference to FIG. 45 in the [fourth embodiment]. That is, the wide area image area Em is a set of a plurality of image areas including the respective image areas Pm. For example, a set of 25 image areas of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image area Pm. It is. Depending on the position of the image area Pm, there may be a case where the wide area image area Em of 5 blocks in the vertical direction and 5 blocks in the horizontal direction cannot be taken around the image area Pm. For example, with respect to the image area Pl positioned around the original image, it is not possible to take a wide area image area El of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area Pl. In this case, an area where the area of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image area Pl overlaps with the original image is adopted as the wide area image area El.

選択信号導出部113の選択結果は、階調変換曲線候補G1〜Gpのいずれかを示す選択信号Smとして出力される。より具体的には、選択信号Smは、階調変換曲線候補G1〜Gpの添え字(1〜p)の値として出力される。
階調処理実行部114は、入力信号ISが含む画像領域Pmの画素の明度値と選択信号Smとを入力とし、例えば、図51に示す2次元LUT141を用いて、階調処理信号CSの明度値を出力する。
The selection result of the selection signal deriving unit 113 is output as a selection signal Sm indicating any one of the gradation conversion curve candidates G1 to Gp. More specifically, the selection signal Sm is output as the value of the subscripts (1 to p) of the gradation conversion curve candidates G1 to Gp.
The gradation processing execution unit 114 receives the lightness value of the pixel in the image region Pm included in the input signal IS and the selection signal Sm, and uses, for example, the lightness of the gradation processing signal CS using the two-dimensional LUT 141 shown in FIG. Output the value.

階調補正部115は、階調処理信号CSが含む画像領域Pmの画素の明度値を画素の位置と画像領域Pmおよび画像領域Pmの周辺の画像領域に対して選択された階調変換曲線とに基づいて補正する。例えば、画像領域Pmが含む画素に適用された階調変換曲線Cmと画像領域Pmの周辺の画像領域に対して選択された階調変換曲線とを画素位置の内分比で補正し、補正後の画素の明度値を求める。   The gradation correction unit 115 calculates the brightness value of the pixel in the image area Pm included in the gradation processing signal CS, the gradation conversion curve selected for the pixel position, the image area Pm, and the image area around the image area Pm. Correct based on For example, the gradation conversion curve Cm applied to the pixels included in the image region Pm and the gradation conversion curve selected for the image region around the image region Pm are corrected by the internal ratio of the pixel position, and after the correction The brightness value of the pixel is obtained.

図52を用いて、階調補正部115の動作についてさらに詳しく説明する。図52は、画像領域Po,Pp,Pq,Pr(o,p,q,rは分割数n(図45参照。)以下の正整数)の階調変換曲線Co,Cp,Cq,Crが階調変換曲線候補Gs,Gt,Gu,Gv(s,t,u,vは階調変換曲線の候補数p以下の正整数)と選択されたことを示している。   The operation of the gradation correction unit 115 will be described in more detail with reference to FIG. FIG. 52 shows gradation conversion curves Co, Cp, Cq, and Cr of image regions Po, Pp, Pq, and Pr (o, p, q, and r are positive integers equal to or less than the division number n (see FIG. 45)). It shows that the key conversion curve candidates Gs, Gt, Gu, and Gv (s, t, u, and v are positive integers equal to or less than the number p of gradation conversion curve candidates) are selected.

ここで、階調補正の対象となる画像領域Poの画素x(明度値[x]とする)の位置を、画像領域Poの中心と画像領域Ppの中心とを[i:1−i]に内分し、かつ、画像領域Poの中心と画像領域Pqの中心とを[j:1−j]に内分する位置であるとする。この場合、階調補正後の画素xの明度値[x’]は、[x’]={(1−j)・(1−i)・[Gs]+(1−j)・(i)・[Gt]+(j)・(1−i)・[Gu]+(j)・(i)・[Gv]}・{[x]/[Gs]}と求められる。なお、[Gs],[Gt],[Gu],[Gv]は、明度値[x]に対して、階調変換曲線候補Gs,Gt,Gu,Gvを適用した場合の明度値であるとする。   Here, the position of the pixel x (value value [x]) of the image area Po to be subjected to gradation correction is set to [i: 1-i] between the center of the image area Po and the center of the image area Pp. Assume that the position is a position where the center of the image area Po and the center of the image area Pq are internally divided into [j: 1-j]. In this case, the brightness value [x ′] of the pixel x after gradation correction is [x ′] = {(1−j) · (1−i) · [Gs] + (1−j) · (i). [Gt] + (j). (1-i). [Gu] + (j). (I). [Gv]}. {[X] / [Gs]}. [Gs], [Gt], [Gu], and [Gv] are the lightness values when the gradation conversion curve candidates Gs, Gt, Gu, and Gv are applied to the lightness value [x]. To do.

〈視覚処理方法および視覚処理プログラム〉
図53に、視覚処理装置111における視覚処理方法を説明するフローチャートを示す。図53に示す視覚処理方法は、視覚処理装置111においてハードウェアにより実現され、入力信号IS(図49参照)の階調処理を行う方法である。図53に示す視覚処理方法では、入力信号ISは、画像単位で処理される(ステップS120〜S126)。入力信号ISとして入力される原画像は、複数の画像領域Pm(1≦m≦n:nは原画像の分割数)に分割され(ステップS121)、画像領域Pm毎に階調処理される(ステップS122〜S124)。
<Visual processing method and visual processing program>
FIG. 53 shows a flowchart for explaining the visual processing method in the visual processing device 111. The visual processing method shown in FIG. 53 is realized by hardware in the visual processing device 111 and is a method of performing gradation processing of the input signal IS (see FIG. 49). In the visual processing method shown in FIG. 53, the input signal IS is processed in units of images (steps S120 to S126). The original image input as the input signal IS is divided into a plurality of image regions Pm (1 ≦ m ≦ n: n is the number of divisions of the original image) (step S121), and gradation processing is performed for each image region Pm (step S121). Steps S122 to S124).

画像領域Pm毎の処理では、それぞれの画像領域Pmに対して適用される階調変換曲線Cmが階調変換曲線候補G1〜Gpの中から選択される(ステップS122)。具体的には、画像領域Pmの広域画像領域Emの平均明度値を計算し、計算された平均明度値に応じて階調変換曲線候補G1〜Gpのいずれかの選択が行われる。階調変換曲線候補G1〜Gpは、広域画像領域Emの平均明度値に関連づけられており、平均明度値が大きくなるほど、添え字の大きい階調変換曲線候補G1〜Gpが選択される。ここで、広域画像領域Emについては、説明を省略する(上記〈作用〉の欄参照。)。   In the processing for each image region Pm, the gradation conversion curve Cm applied to each image region Pm is selected from the gradation conversion curve candidates G1 to Gp (step S122). Specifically, the average brightness value of the wide area image area Em of the image area Pm is calculated, and any one of the gradation conversion curve candidates G1 to Gp is selected according to the calculated average brightness value. The gradation conversion curve candidates G1 to Gp are associated with the average brightness value of the wide area image region Em, and the gradation conversion curve candidates G1 to Gp with larger subscripts are selected as the average brightness value increases. Here, the description of the wide area image region Em is omitted (see the column of <Action> above).

入力信号ISが含む画像領域Pmの画素の明度値と階調変換曲線候補G1〜GpのうちステップS122で選択された階調変換曲線候補を示す選択信号Smとに対して、例えば、図51に示す2次元LUT141を用いて、階調処理信号CSの明度値が出力される(ステップS123)。さらに、全ての画像領域Pmについての処理が終了したか否かを判定し(ステップS124)、処理が終了したと判定されるまで、ステップS122〜S124の処理を原画像の分割数回繰り返す。以上により、画像領域単位の処理が終了する。   For example, FIG. 51 shows the brightness value of the pixel in the image region Pm included in the input signal IS and the selection signal Sm indicating the gradation conversion curve candidate selected in step S122 among the gradation conversion curve candidates G1 to Gp. The brightness value of the gradation processing signal CS is output using the two-dimensional LUT 141 shown (step S123). Further, it is determined whether or not the processing for all the image regions Pm has been completed (step S124), and the processing of steps S122 to S124 is repeated several times until the processing is determined to be completed. Thus, the processing for each image area is completed.

階調処理信号CSが含む画像領域Pmの画素の明度値は、画素の位置と画像領域Pmお
よび画像領域Pmの周辺の画像領域に対して選択された階調変換曲線とに基づいて補正される(ステップS125)。例えば、画像領域Pmが含む画素に適用された階調変換曲線Cmと画像領域Pmの周辺の画像領域に対して選択された階調変換曲線とを画素位置の内分比で補正し、補正後の画素の明度値が求められる。補正の詳細な内容については、説明を省略する(上記〈作用〉の欄、図52参照。)。
The brightness value of the pixel in the image area Pm included in the gradation processing signal CS is corrected based on the position of the pixel and the gradation conversion curve selected for the image area Pm and the image area around the image area Pm. (Step S125). For example, the gradation conversion curve Cm applied to the pixels included in the image region Pm and the gradation conversion curve selected for the image region around the image region Pm are corrected by the internal ratio of the pixel position, and after the correction Are obtained. The detailed description of the correction will be omitted (see the column <Action>, FIG. 52).

以上により、画像単位の処理が終了する(ステップS126)。
なお、図53に示す視覚処理方法のそれぞれのステップは、コンピュータなどにより、視覚処理プログラムとして実現されるものであっても良い。
〈効果〉
本発明により、上記[第4実施形態]の〈効果〉とほぼ同様の効果を得ることが可能である。以下、第5実施形態特有の効果を記載する。
Thus, the processing for each image is completed (step S126).
Each step of the visual processing method shown in FIG. 53 may be realized as a visual processing program by a computer or the like.
<effect>
According to the present invention, it is possible to obtain substantially the same effect as the <effect> of the above [fourth embodiment]. Hereinafter, effects unique to the fifth embodiment will be described.

(1)
それぞれの画像領域Pmに対して選択される階調変換曲線Cmは、広域画像領域Emの平均明度値に基づいて作成される。このため、画像領域Pmの大きさは小さくとも十分な明度値のサンプリングが可能となる。また、この結果、小さな画像領域Pmに対しても、適切な階調変換曲線Cmを選択して適用することが可能となる。
(1)
The gradation conversion curve Cm selected for each image area Pm is created based on the average brightness value of the wide area image area Em. For this reason, even if the size of the image region Pm is small, it is possible to sample a sufficient brightness value. As a result, an appropriate gradation conversion curve Cm can be selected and applied to a small image region Pm.

(2)
階調処理実行部114は、あらかじめ作成された2次元LUTを有している。このため、階調処理に要する処理負荷、より具体的には、階調変換曲線Cmの作成に要する処理負荷を削減することが可能となる。この結果、画像領域Pmの階調処理に要する処理を高速化することが可能となる。
(2)
The gradation processing execution unit 114 has a two-dimensional LUT created in advance. For this reason, it is possible to reduce the processing load required for the gradation processing, more specifically, the processing load required for creating the gradation conversion curve Cm. As a result, it is possible to speed up the processing required for the gradation processing of the image area Pm.

(3)
階調処理実行部114は、2次元LUTを用いて階調処理を実行する。2次元LUTは、視覚処理装置111が備えるハードディスクあるいはROMなどの記憶装置から読み出されて階調処理に用いられる。読み出す2次元LUTの内容を変更することにより、ハードウェアの構成を変更せずに様々な階調処理を実現することが可能となる。すなわち、原画像の特性により適した階調処理を実現することが可能となる。
(3)
The gradation processing execution unit 114 executes gradation processing using a two-dimensional LUT. The two-dimensional LUT is read from a storage device such as a hard disk or a ROM provided in the visual processing device 111 and used for gradation processing. By changing the contents of the two-dimensional LUT to be read out, various gradation processes can be realized without changing the hardware configuration. That is, it is possible to realize gradation processing more suitable for the characteristics of the original image.

(4)
階調補正部115は、1つの階調変換曲線Cmを用いて階調処理された画像領域Pmの画素の階調を補正する。このため、より適切に階調処理された出力信号OSを得ることができる。例えば、疑似輪郭の発生を抑制することが可能となる。また、出力信号OSにおいては、それぞれの画像領域Pmの境界のつなぎ目が不自然に目立つことがさらに防止可能となる。
(4)
The gradation correction unit 115 corrects the gradation of the pixels in the image region Pm that has been subjected to gradation processing using one gradation conversion curve Cm. For this reason, it is possible to obtain an output signal OS subjected to more appropriate gradation processing. For example, it becomes possible to suppress the generation of pseudo contours. Further, in the output signal OS, it is possible to further prevent the joint at the boundary of each image region Pm from being unnaturally conspicuous.

〈変形例〉
本発明は上記実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の変形が可能である。
(1)
上記実施形態では、原画像の分割数の一例として、4800分割としたが、本発明の効果は、この場合に限定されるものではなく、他の分割数でも同様の効果を得ることが可能である。なお、階調処理の処理量と視覚的効果とは分割数についてトレードオフの関係にある。すなわち、分割数を増やすと階調処理の処理量は増加するがより良好な視覚的効果(例えば、疑似輪郭の抑制された画像など)を得ることが可能となる。
<Modification>
The present invention is not limited to the above embodiment, and various modifications can be made without departing from the scope of the invention.
(1)
In the above embodiment, the number of divisions of the original image is 4800 divisions, but the effect of the present invention is not limited to this case, and the same effect can be obtained with other division numbers. is there. Note that the amount of gradation processing and the visual effect are in a trade-off relationship with respect to the number of divisions. That is, when the number of divisions is increased, the processing amount of gradation processing increases, but a better visual effect (for example, an image in which pseudo contour is suppressed) can be obtained.

(2)
上記実施形態では、広域画像領域を構成する画像領域の個数の一例として、25個としたが、本発明の効果は、この場合に限定されるものではなく、他の個数でも同様の効果を得ることが可能である。
(2)
In the above embodiment, the number of image areas constituting the wide area image area is 25, but the effect of the present invention is not limited to this case, and the same effect can be obtained with other numbers. It is possible.

(3)
上記実施形態では、64行64列のマトリクスからなる2次元LUT141を2次元LUTの一例とした。ここで、本発明の効果は、このサイズの2次元LUTに限定されるものではない。例えば、さらに多くの階調変換曲線候補を行方向に並べたマトリクスであっても良い。また、入力信号ISの画素値をさらに細かいステップに区切った値に対する階調処理信号CSの画素値をマトリクスの列方向に並べたもので有っても良い。具体的には、例えば10ビットで表される入力信号ISのそれぞれの画素値に対して、階調処理信号CSの画素値を並べたもので有っても良い。
(3)
In the above embodiment, the two-dimensional LUT 141 including a 64 × 64 matrix is taken as an example of the two-dimensional LUT. Here, the effect of the present invention is not limited to the two-dimensional LUT of this size. For example, it may be a matrix in which more gradation conversion curve candidates are arranged in the row direction. Further, the pixel values of the gradation processing signal CS corresponding to the values obtained by dividing the pixel values of the input signal IS into finer steps may be arranged in the column direction of the matrix. Specifically, for example, the pixel value of the gradation processing signal CS may be arranged for each pixel value of the input signal IS represented by 10 bits.

2次元LUTのサイズが大きくなれば、より適切な階調処理を行うことが可能となり、小さくなれば、2次元LUTを記憶するメモリの削減などが可能となる。
(4)
上記実施形態では、マトリクスの列方向には、例えば10ビットで表される入力信号ISの画素値の上位6ビットの値、すなわち64段階に分けられた入力信号ISの値に対する階調処理信号CSの画素値が並んでいる、と説明した。ここで、階調処理信号CSは、階調処理実行部114により、入力信号ISの画素値の下位4ビットの値で線形補間されたマトリクスの成分として出力されるものであっても良い。すなわち、マトリクスの列方向には、例えば10ビットで表される入力信号ISの画素値の上位6ビットの値に対するマトリクスの成分が並んでおり、入力信号ISの画素値の上位6ビットの値に対するマトリクスの成分と、入力信号ISの画素値の上位6ビットの値に[1]を加えた値に対するマトリクスの成分(例えば、図51では、1行下の成分)とを入力信号ISの画素値の下位4ビットの値を用いて線形補間し、階調処理信号CSとして出力する。
If the size of the two-dimensional LUT is increased, more appropriate gradation processing can be performed, and if the size is decreased, the memory for storing the two-dimensional LUT can be reduced.
(4)
In the above embodiment, in the column direction of the matrix, for example, the gradation processing signal CS corresponding to the value of the upper 6 bits of the pixel value of the input signal IS represented by 10 bits, that is, the value of the input signal IS divided into 64 stages. It was explained that the pixel values of are arranged. Here, the gradation processing signal CS may be output by the gradation processing execution unit 114 as a matrix component that is linearly interpolated with the lower 4 bits of the pixel value of the input signal IS. That is, in the column direction of the matrix, for example, the components of the matrix corresponding to the upper 6 bits of the pixel value of the input signal IS represented by 10 bits are arranged, and the upper 6 bits of the pixel value of the input signal IS are arranged. The matrix component and the matrix component (for example, the component one row lower in FIG. 51) with respect to the value obtained by adding [1] to the upper 6 bits of the pixel value of the input signal IS are the pixel values of the input signal IS. Is linearly interpolated using the value of the lower 4 bits and output as a gradation processing signal CS.

これにより、2次元LUT141(図51参照)のサイズが小さくとも、より適切な階調処理を行うことが可能となる。
(5)
上記実施形態では、広域画像領域Emの平均明度値に基づいて、画像領域Pmに適用する階調変換曲線Cmを選択すると説明した。ここで、階調変換曲線Cmの選択方法は、この方法に限られない。例えば、広域画像領域Emの最大明度値、あるいは最小明度値に基づいて、画像領域Pmに適用する階調変換曲線Cmを選択してもよい。なお、階調変換曲線Cmの選択に際して、選択信号Smの値[Sm]は、広域画像領域Emの平均明度値、最大明度値、あるいは最小明度値そのものであってもよい。この場合、選択信号Smの取りうる値を64段階に分けたそれぞれの値に対して、階調変換曲線候補G1〜G64が関連付けられていることとなる。
As a result, even when the size of the two-dimensional LUT 141 (see FIG. 51) is small, more appropriate gradation processing can be performed.
(5)
In the above embodiment, it has been described that the gradation conversion curve Cm to be applied to the image area Pm is selected based on the average brightness value of the wide area image area Em. Here, the method of selecting the gradation conversion curve Cm is not limited to this method. For example, the gradation conversion curve Cm applied to the image area Pm may be selected based on the maximum brightness value or the minimum brightness value of the wide area image area Em. In selecting the gradation conversion curve Cm, the value [Sm] of the selection signal Sm may be the average brightness value, the maximum brightness value, or the minimum brightness value of the wide area image area Em. In this case, the gradation conversion curve candidates G1 to G64 are associated with the respective values obtained by dividing the possible values of the selection signal Sm into 64 levels.

また例えば、次のようにして画像領域Pmに適用する階調変換曲線Cmを選択してもよい。すなわち、それぞれの画像領域Pmについて平均明度値を求め、それぞれの平均明度値からそれぞれの画像領域Pmについての仮の選択信号Sm’を求める。ここで、仮の選択信号Sm’は、階調変換曲線候補G1〜Gpの添え字の番号を値としている。さらに、広域画像領域Emが含むそれぞれの画像領域について、仮の選択信号Sm’の値を平均し、画像領域Pmの選択信号Smの値[Sm]を求め、階調変換曲線候補G1〜Gpのうち値[Sm]に最も近い整数を添え字とする候補を階調変換曲線Cmとして選択する。   For example, the gradation conversion curve Cm applied to the image region Pm may be selected as follows. That is, an average brightness value is obtained for each image area Pm, and a provisional selection signal Sm ′ for each image area Pm is obtained from each average brightness value. Here, the provisional selection signal Sm ′ has values of subscript numbers of the gradation conversion curve candidates G1 to Gp. Further, for each image area included in the wide area image area Em, the value of the temporary selection signal Sm ′ is averaged to obtain the value [Sm] of the selection signal Sm of the image area Pm, and the gradation conversion curve candidates G1 to Gp are obtained. Among these, a candidate having an integer closest to the value [Sm] as a subscript is selected as the gradation conversion curve Cm.

(6)
上記実施形態では、広域画像領域Emの平均明度値に基づいて、画像領域Pmに適用する階調変換曲線Cmを選択すると説明した。ここで、広域画像領域Emの単純平均でなく、加重平均(重み付き平均)に基づいて、画像領域Pmに適用する階調変換曲線Cmを選択してもよい。例えば、図54に示すように、広域画像領域Emを構成するそれぞれの画像領域の平均明度値を求め、画像領域Pmの平均明度値と大きく異なる平均明度値を持つ
画像領域Ps1,Ps2,・・・については、重み付けを軽くして、あるいは除外して、広域画像領域Emの平均明度値を求める。
(6)
In the above embodiment, it has been described that the gradation conversion curve Cm to be applied to the image area Pm is selected based on the average brightness value of the wide area image area Em. Here, the gradation conversion curve Cm to be applied to the image region Pm may be selected based on a weighted average (weighted average) instead of a simple average of the wide area image region Em. For example, as shown in FIG. 54, an average brightness value of each image area constituting the wide area image area Em is obtained, and image areas Ps1, Ps2,... Having an average brightness value greatly different from the average brightness value of the image area Pm. For *, the average lightness value of the wide area image area Em is obtained by reducing or excluding the weighting.

これにより、広域画像領域Emが明度的に特異的な領域を含む場合(例えば、広域画像領域Emが2つの明度値の異なる物体の境界を含む場合)であっても、画像領域Pmに適用される階調変換曲線Cmの選択に対して、その特異的な領域の明度値が与える影響が少なくなり、さらに適切な階調処理が行われることとなる。   As a result, even when the wide area image region Em includes an area specific to brightness (for example, when the wide area image area Em includes a boundary between two objects having different brightness values), the image area Pm is applied. Therefore, the influence of the brightness value of the specific area on the selection of the gradation conversion curve Cm is reduced, and more appropriate gradation processing is performed.

(7)
上記実施形態において、階調補正部115の存在は任意としても良い。すなわち、階調処理信号CSを出力とした場合であっても、従来の視覚処理装置300(図104参照)に比して、[第4実施形態]の〈効果〉に記載したのと同様の効果、および[第5実施形態]の〈効果〉(1)および(2)に記載したのと同様の効果を得ることが可能である。
(7)
In the embodiment described above, the gradation correction unit 115 may be optional. That is, even when the gradation processing signal CS is output, as compared with the conventional visual processing device 300 (see FIG. 104), the same as described in <Effect> of [Fourth Embodiment] Effects and [Effects] <Effects> in [Fifth Embodiment] It is possible to obtain the same effects as described in (1) and (2).

(8)
上記実施形態では、階調変換曲線候補G1〜Gpは、添え字について単調減少する関係にあり、全ての入力信号ISの画素の明度値に対して、G1≧G2≧・・・≧Gpの関係を満たしていると説明した。ここで、2次元LUTが備える階調変換曲線候補G1〜Gpは、入力信号ISの画素の明度値の一部に対して、G1≧G2≧・・・≧Gpの関係を満たしていなくてもよい。すなわち、階調変換曲線候補G1〜Gpのいずれかが、互いに交差する関係にあってもよい。
(8)
In the above embodiment, the gradation conversion curve candidates G1 to Gp are in a monotonically decreasing relationship with respect to the subscript, and the relationship of G1 ≧ G2 ≧...> Gp with respect to the lightness values of the pixels of all the input signals IS. Explained that Here, the tone conversion curve candidates G1 to Gp included in the two-dimensional LUT may not satisfy the relationship of G1 ≧ G2 ≧... ≧ Gp with respect to a part of the brightness value of the pixel of the input signal IS. Good. That is, any one of the gradation conversion curve candidates G1 to Gp may be in a crossing relationship with each other.

例えば、暗い夜景の中にある小さい明かりの部分など(夜景の中にあるネオン部分など)、入力信号ISの値は大きいが、広域画像領域Emの平均明度値は小さい場合、階調処理された画像信号の値が画質に与える影響は小さい。このような場合には、2次元LUTが備える階調変換曲線候補G1〜Gpは、入力信号ISの画素の明度値の一部に対して、G1≧G2≧・・・≧Gpの関係を満たしていなくてもよい。すなわち、階調処理後の値が画質に与える影響が小さい部分では、2次元LUTが格納する値は、任意であってよい。   For example, a small light part in a dark night scene (neon part in a night scene, etc.), when the value of the input signal IS is large but the average brightness value of the wide area image area Em is small, gradation processing is performed. The influence of the image signal value on the image quality is small. In such a case, the gradation conversion curve candidates G1 to Gp included in the two-dimensional LUT satisfy the relationship of G1 ≧ G2 ≧... ≧ Gp with respect to part of the lightness values of the pixels of the input signal IS. It does not have to be. That is, the value stored in the two-dimensional LUT may be arbitrary in a part where the value after gradation processing has little influence on the image quality.

なお、2次元LUTが格納する値が任意である場合にも、同じ値の入力信号ISと選択信号Smとに対して格納されている値は、入力信号ISと選択信号Smとの値に対して、単調増加、あるいは単調減少する関係を維持していることが望ましい。
また、上記実施形態では、2次元LUTが備える階調変換曲線候補G1〜Gpは、「べき関数」であると説明した。ここで、階調変換曲線候補G1〜Gpは、厳密に「べき関数」として定式化されるもので無くともよい。また、S字、逆S字などといった形状を有する関数であってもよい。
Even when the values stored in the two-dimensional LUT are arbitrary, the values stored for the input signal IS and the selection signal Sm having the same value are the same as the values of the input signal IS and the selection signal Sm. It is desirable to maintain a monotonically increasing or monotonically decreasing relationship.
In the above-described embodiment, the gradation conversion curve candidates G1 to Gp included in the two-dimensional LUT are described as “power functions”. Here, the tone conversion curve candidates G1 to Gp may not be strictly formulated as “power functions”. Further, it may be a function having a shape such as an S-shape or an inverted S-shape.

(9)
視覚処理装置111では、2次元LUTが格納する値であるプロファイルデータを作成するプロファイルデータ作成部をさらに備えていても良い。具体的には、プロファイルデータ作成部は、視覚処理装置101(図44参照)における画像分割部102と階調変換曲線導出部110とから構成されており、作成された複数の階調変換曲線の集合をプロファイルデータとして2次元LUTに格納する。
(9)
The visual processing device 111 may further include a profile data creation unit that creates profile data that is a value stored in the two-dimensional LUT. Specifically, the profile data creation unit includes an image dividing unit 102 and a tone conversion curve deriving unit 110 in the visual processing device 101 (see FIG. 44). The set is stored as profile data in the two-dimensional LUT.

また、2次元LUTに格納される階調変換曲線のそれぞれは、空間処理された入力信号ISに関連づけられていてもかまわない。この場合、視覚処理装置111では、画像分割部112と選択信号導出部113とを、入力信号ISを空間処理する空間処理部に置き換えても良い。   Further, each of the gradation conversion curves stored in the two-dimensional LUT may be associated with the spatially processed input signal IS. In this case, in the visual processing device 111, the image dividing unit 112 and the selection signal deriving unit 113 may be replaced with a spatial processing unit that spatially processes the input signal IS.

(10)
上記実施形態において、入力信号ISの画素の明度値は、値[0.0〜1.0]の範囲
の値でなくてもよい。入力信号ISが他の範囲の値として入力される場合には、その範囲の値を値[0.0〜1.0]に正規化して用いてもよい。また、正規化は行わず、上記した処理において取り扱う値を適宜変更してもよい。
(10)
In the embodiment described above, the brightness value of the pixel of the input signal IS may not be a value in the range of the value [0.0 to 1.0]. When the input signal IS is input as a value in another range, the value in that range may be normalized to a value [0.0 to 1.0]. Further, normalization is not performed, and the values handled in the above-described processing may be changed as appropriate.

(11)
階調変換曲線候補G1〜Gpのそれぞれは、通常のダイナミックレンジよりも広いダイナミックレンジを有する入力信号ISを階調処理し、通常のダイナミックレンジの階調処理信号CSを出力する階調変換曲線であってもよい。
(11)
Each of the gradation conversion curve candidates G1 to Gp is a gradation conversion curve that performs gradation processing on an input signal IS having a dynamic range wider than the normal dynamic range and outputs a gradation processing signal CS having a normal dynamic range. There may be.

近年、S/Nの良いCCDを光量を絞って使用する、電子シャッタを長短2回開く、あるいは低感度・高感度の画素を持つセンサを使用する、などの方法により、通常のダイナミックレンジよりも1〜3桁広いダイナミックレンジを扱うことができる機器の開発が進んでいる。   In recent years, by using a CCD with good S / N with reduced light quantity, opening the electronic shutter twice long or short, or using a sensor with low-sensitivity / high-sensitivity pixels, etc. Development of devices that can handle a dynamic range that is one to three digits wider is advancing.

これに伴って、入力信号ISが通常のダイナミックレンジ(例えば、値[0.0〜1.0]の範囲の信号)よりも広いダイナミックレンジを有する場合にも、適切に階調処理することが求められている。
ここで、図55に示すように、値[0.0〜1.0]を超える範囲の入力信号ISに対しても、値[0.0〜1.0]の階調処理信号CSを出力するような階調変換曲線を用いる。
Accordingly, even when the input signal IS has a wider dynamic range than a normal dynamic range (for example, a signal in the range of value [0.0 to 1.0]), gradation processing can be appropriately performed. It has been demanded.
Here, as shown in FIG. 55, the gradation processing signal CS having the value [0.0 to 1.0] is output even for the input signal IS in the range exceeding the value [0.0 to 1.0]. Such a gradation conversion curve is used.

これにより、広いダイナミックレンジを有する入力信号ISに対しても、適切な階調処理を行い、通常のダイナミックレンジの階調処理信号CSを出力することが可能となる。
また、上記実施形態では、「階調処理信号CSの画素値は、階調変換曲線候補G1〜Gpが「べき関数」である場合、例えば、値[0.0〜1.0]の範囲の値を有する。」と記載した。ここで、階調処理信号CSの画素値は、この範囲に限られない。例えば、値[0.0〜1.0]の入力信号ISに対して、階調変換曲線候補G1〜Gpは、ダイナミックレンジ圧縮を行うものであってもよい。
As a result, it is possible to perform appropriate gradation processing even on an input signal IS having a wide dynamic range, and to output a gradation processing signal CS having a normal dynamic range.
In the above-described embodiment, “the pixel value of the gradation processing signal CS is, for example, in the range of values [0.0 to 1.0] when the gradation conversion curve candidates G1 to Gp are“ power functions ”. Has a value. ". Here, the pixel value of the gradation processing signal CS is not limited to this range. For example, the gradation conversion curve candidates G1 to Gp may perform dynamic range compression on the input signal IS having a value [0.0 to 1.0].

(12)
上記実施形態では、「階調処理実行部114は、階調変換曲線候補G1〜Gpを2次元LUTとして有している。」と説明した。ここで、階調処理実行部114は、階調変換曲線候補G1〜Gpを特定するための曲線パラメータと選択信号Smとの関係を格納する1次元LUTを有するものであってもよい。
(12)
In the embodiment described above, “the gradation processing execution unit 114 has the gradation conversion curve candidates G1 to Gp as a two-dimensional LUT”. Here, the gradation processing execution unit 114 may include a one-dimensional LUT that stores the relationship between the curve parameter for specifying the gradation conversion curve candidates G1 to Gp and the selection signal Sm.

《構成》
図56に、階調処理実行部114の変形例としての階調処理実行部144の構造を説明するブロック図を示す。階調処理実行部144は、入力信号ISと選択信号Smとを入力とし、階調処理された入力信号ISである階調処理信号CSを出力とする。階調処理実行部144は、曲線パラメータ出力部145と演算部148とを備えている。
"Constitution"
FIG. 56 is a block diagram for explaining the structure of a gradation processing execution unit 144 as a modification of the gradation processing execution unit 114. The gradation processing execution unit 144 receives the input signal IS and the selection signal Sm and outputs a gradation processing signal CS that is the gradation-processed input signal IS. The gradation processing execution unit 144 includes a curve parameter output unit 145 and a calculation unit 148.

曲線パラメータ出力部145は、第1LUT146と第2LUT147から構成される。第1LUT146および第2LUT147は、選択信号Smを入力とし、選択信号Smが指定する階調変換曲線候補Gmの曲線パラメータP1およびP2をそれぞれ出力する。
演算部148は、曲線パラメータP1およびP2と、入力信号ISとを入力とし、階調処理信号CSを出力とする。
The curve parameter output unit 145 includes a first LUT 146 and a second LUT 147. The first LUT 146 and the second LUT 147 receive the selection signal Sm and output the curve parameters P1 and P2 of the gradation conversion curve candidate Gm designated by the selection signal Sm, respectively.
The calculation unit 148 receives the curve parameters P1 and P2 and the input signal IS and outputs a gradation processing signal CS.

《1次元LUTについて》
第1LUT146および第2LUT147は、それぞれ選択信号Smに対する曲線パラメータP1およびP2の値を格納する1次元LUTである。第1LUT146および第2LUT147について詳しく説明する前に、曲線パラメータP1およびP2の内容について説明する。
<< About 1D LUT >>
The first LUT 146 and the second LUT 147 are one-dimensional LUTs that store the values of the curve parameters P1 and P2 for the selection signal Sm, respectively. Before describing the first LUT 146 and the second LUT 147 in detail, the contents of the curve parameters P1 and P2 will be described.

図57を用いて、曲線パラメータP1およびP2と、階調変換曲線候補G1〜Gpとの
関係について説明する。図57は、階調変換曲線候補G1〜Gpを示している。ここで、階調変換曲線候補G1〜Gpは、添え字について単調減少する関係にあり、全ての入力信号ISの画素の明度値に対して、G1≧G2≧・・・≧Gpの関係を満たしている。なお、以上の階調変換曲線候補G1〜Gpの関係は、添え字の大きい階調変換曲線候補について、入力信号ISが小さい場合、若しくは、添え字の小さい階調変換曲線候補について、入力信号ISが大きい場合、などにおいて成立していなくてもよい。
The relationship between the curve parameters P1 and P2 and the gradation conversion curve candidates G1 to Gp will be described with reference to FIG. FIG. 57 shows tone conversion curve candidates G1 to Gp. Here, the gradation conversion curve candidates G1 to Gp are in a monotonically decreasing relationship with respect to the subscript, and satisfy the relationship of G1 ≧ G2 ≧... ≧ Gp with respect to the brightness values of the pixels of all the input signals IS. ing. It should be noted that the relationship between the tone conversion curve candidates G1 to Gp described above is as follows. The input signal IS is low when the input signal IS is small for the tone conversion curve candidate with a large subscript, or the tone conversion curve candidate with the small subscript. This may not be the case when the is large.

曲線パラメータP1およびP2は、入力信号ISの所定の値に対する階調処理信号CSの値として出力される。すなわち、選択信号Smにより階調変換曲線候補Gmが指定された場合、曲線パラメータP1の値は、入力信号ISの所定の値[X1]に対する階調変換曲線候補Gmの値[R1m]として出力され、曲線パラメータP2の値は、入力信号ISの所定の値[X2]に対する階調変換曲線候補Gmの値[R2m]として出力される。ここで、値[X2]は、値[X1]よりも大きい値である。   The curve parameters P1 and P2 are output as the value of the gradation processing signal CS with respect to a predetermined value of the input signal IS. That is, when the gradation conversion curve candidate Gm is designated by the selection signal Sm, the value of the curve parameter P1 is output as the value [R1m] of the gradation conversion curve candidate Gm for the predetermined value [X1] of the input signal IS. The value of the curve parameter P2 is output as the value [R2m] of the gradation conversion curve candidate Gm for the predetermined value [X2] of the input signal IS. Here, the value [X2] is larger than the value [X1].

次に、第1LUT146および第2LUT147について説明する。
第1LUT146および第2LUT147は、それぞれ選択信号Smに対する曲線パラメータP1およびP2の値を格納している。より具体的には、例えば、6ビットの信号として与えられるそれぞれの選択信号Smに対して、曲線パラメータP1およびP2の値がそれぞれ6ビットで与えられる。ここで、選択信号Smや曲線パラメータP1およびP2にたいして確保されるビット数はこれに限られない。
Next, the first LUT 146 and the second LUT 147 will be described.
The first LUT 146 and the second LUT 147 store the values of the curve parameters P1 and P2 for the selection signal Sm, respectively. More specifically, for example, for each selection signal Sm given as a 6-bit signal, the values of the curve parameters P1 and P2 are given in 6 bits. Here, the number of bits secured for the selection signal Sm and the curve parameters P1 and P2 is not limited to this.

図58を用いて、曲線パラメータP1およびP2と、選択信号Smとの関係について説明する。図58は、選択信号Smに対する曲線パラメータP1およびP2の値の変化を示している。第1LUT146および第2LUT147には、それぞれの選択信号Smに対する曲線パラメータP1およびP2の値が格納されている。例えば、選択信号Smに対する曲線パラメータP1の値として、値[R1m]が格納されており、曲線パラメータP2の値として、値[R2m]が格納されている。   The relationship between the curve parameters P1 and P2 and the selection signal Sm will be described with reference to FIG. FIG. 58 shows changes in the values of the curve parameters P1 and P2 with respect to the selection signal Sm. The first LUT 146 and the second LUT 147 store the values of the curve parameters P1 and P2 for the respective selection signals Sm. For example, the value [R1m] is stored as the value of the curve parameter P1 for the selection signal Sm, and the value [R2m] is stored as the value of the curve parameter P2.

以上の第1LUT146および第2LUT147により、入力された選択信号Smに対して、曲線パラメータP1およびP2が出力される。
《演算部148について》
演算部148は、取得した曲線パラメータP1およびP2(値[R1m]および値[R2m])に基づいて、入力信号ISに対する階調処理信号CSを導出する。具体的な手順を以下記載する。ここで、入力信号ISの値は、値[0.0〜1.0]の範囲で与えられるものとする。また、階調変換曲線候補G1〜Gpは、値[0.0〜1.0]の範囲で与えられる入力信号ISを、値[0.0〜1.0]の範囲に階調変換するものとする。なお、本発明は、入力信号ISをこの範囲に限定しない場合にも適用可能である。
By the first LUT 146 and the second LUT 147 described above, the curve parameters P1 and P2 are output for the input selection signal Sm.
<< Calculation unit 148 >>
The calculation unit 148 derives the gradation processing signal CS for the input signal IS based on the acquired curve parameters P1 and P2 (value [R1m] and value [R2m]). The specific procedure is described below. Here, the value of the input signal IS is given in the range of values [0.0 to 1.0]. Further, the gradation conversion curve candidates G1 to Gp convert the input signal IS given in the range of the value [0.0 to 1.0] into the range of the value [0.0 to 1.0]. And The present invention can also be applied when the input signal IS is not limited to this range.

まず、演算部148は、入力信号ISの値と、所定の値[X1],[X2]との比較を行う。
入力信号ISの値(値[X]とする)が[0.0]以上[X1]未満である場合、図57における原点と座標([X1],[R1m])とを結ぶ直線上において、値[X]に対する階調処理信号CSの値(値[Y]とする)が求められる。より具体的には、値[Y]は、次式[Y]=([X]/[X1])*[R1m]、により求められる。
First, the calculation unit 148 compares the value of the input signal IS with predetermined values [X1] and [X2].
When the value of the input signal IS (value [X]) is not less than [0.0] and less than [X1], on the straight line connecting the origin and coordinates ([X1], [R1m]) in FIG. The value of the gradation processing signal CS for the value [X] (value [Y]) is obtained. More specifically, the value [Y] is obtained by the following formula [Y] = ([X] / [X1]) * [R1m].

入力信号ISの値が[X1]以上[X2]未満である場合、図57における座標([X1],[R1m])と座標([X2],[R2m])とを結ぶ直線上において、値[X]に対する値[Y]が求められる。より具体的には、値[Y]は、次式[Y]=[R1m]+{([R2m]−[R1m])/([X2]−[X1])}*([X]−[X1])、により求められる。   When the value of the input signal IS is not less than [X1] and less than [X2], the value on the straight line connecting the coordinates ([X1], [R1m]) and the coordinates ([X2], [R2m]) in FIG. A value [Y] for [X] is determined. More specifically, the value [Y] is expressed by the following formula [Y] = [R1m] + {([R2m] − [R1m]) / ([X2] − [X1])} * ([X] − [ X1]).

入力信号ISの値が[X2]以上[1.0]以下である場合、図57における座標([
X2],[R2m])と座標([1.0],[1.0])とを結ぶ直線上において、値[X]に対する値[Y]が求められる。より具体的には、値[Y]は、次式[Y]=[R2m]+{([1.0]−[R2m])/([1.0]−[X2])}*([X]−[X2])、により求められる。
When the value of the input signal IS is [X2] or more and [1.0] or less, the coordinates ([[
X2], [R2m]) and the coordinates [[1.0], [1.0]), the value [Y] for the value [X] is obtained. More specifically, the value [Y] is expressed by the following formula [Y] = [R2m] + {([1.0] − [R2m]) / ([1.0] − [X2])} * ([ X]-[X2]).

以上の演算により、演算部148は、入力信号ISに対する階調処理信号CSを導出する。
《階調処理方法・プログラム》
上述の処理は、階調処理プログラムとして、コンピュータなどにより実行されるものであってもよい。階調処理プログラムは、以下記載する階調処理方法をコンピュータに実行させるためのプログラムである。
Through the above calculation, the calculation unit 148 derives the gradation processing signal CS for the input signal IS.
<< Tone Processing Method / Program >>
The above-described processing may be executed by a computer or the like as a gradation processing program. The gradation processing program is a program for causing a computer to execute the gradation processing method described below.

階調処理方法は、入力信号ISと選択信号Smとを取得し、階調処理信号CSを出力する方法であって、入力信号ISを1次元LUTを用いて階調処理する点に特徴を有している。
まず、選択信号Smが取得されると、第1LUT146および第2LUT147から曲線パラメータP1およびP2が出力される。第1LUT146、第2LUT147、曲線パラメータP1およびP2については、詳細な説明を省略する。
The gradation processing method is a method of acquiring the input signal IS and the selection signal Sm and outputting the gradation processing signal CS, and is characterized in that the input signal IS is subjected to gradation processing using a one-dimensional LUT. is doing.
First, when the selection signal Sm is acquired, the curve parameters P1 and P2 are output from the first LUT 146 and the second LUT 147. Detailed descriptions of the first LUT 146, the second LUT 147, and the curve parameters P1 and P2 are omitted.

さらに、曲線パラメータP1およびP2に基づいて、入力信号ISの階調処理が行われる。階調処理の詳しい内容は、演算部148についての説明のなかで記載したため省略する。
以上の階調処理方法により、入力信号ISに対する階調処理信号CSが導出される。
Further, gradation processing of the input signal IS is performed based on the curve parameters P1 and P2. The detailed content of the gradation processing has been described in the description of the calculation unit 148, and therefore will be omitted.
With the above gradation processing method, the gradation processing signal CS for the input signal IS is derived.

《効果》
階調処理実行部114の変形例としての階調処理実行部144では、2次元LUTではなく、2つの1次元LUTを備えている。このため、ルックアップテーブルを記憶するための記憶容量を削減することが可能となる。
"effect"
A gradation processing execution unit 144 as a modification of the gradation processing execution unit 114 includes two one-dimensional LUTs instead of a two-dimensional LUT. For this reason, it is possible to reduce the storage capacity for storing the lookup table.

《変形例》
(1)
上記変形例では、「曲線パラメータP1およびP2の値は、入力信号ISの所定の値に対する階調変換曲線候補Gmの値である。」、と説明した。ここで、曲線パラメータP1およびP2は、階調変換曲線候補Gmの他の曲線パラメータであってもよい。以下、具体的に説明を加える。
<Modification>
(1)
In the above modification, “the values of the curve parameters P1 and P2 are the values of the gradation conversion curve candidate Gm with respect to the predetermined value of the input signal IS” has been described. Here, the curve parameters P1 and P2 may be other curve parameters of the tone conversion curve candidate Gm. Hereinafter, a specific description will be added.

(1−1)
曲線パラメータは、階調変換曲線候補Gmの傾きであってもよい。図57を用いて具体的に説明する。選択信号Smにより階調変換曲線候補Gmが指定された場合、曲線パラメータP1の値は、入力信号ISの所定の範囲[0.0〜X1]における階調変換曲線候補Gmの傾きの値[K1m]であり、曲線パラメータP2の値は、入力信号ISの所定の範囲[X1〜X2]における階調変換曲線候補Gmの傾きの値[K2m]である。
(1-1)
The curve parameter may be the slope of the gradation conversion curve candidate Gm. This will be specifically described with reference to FIG. When the gradation conversion curve candidate Gm is designated by the selection signal Sm, the value of the curve parameter P1 is the slope value [K1m] of the gradation conversion curve candidate Gm in the predetermined range [0.0 to X1] of the input signal IS. The value of the curve parameter P2 is the slope value [K2m] of the gradation conversion curve candidate Gm in the predetermined range [X1 to X2] of the input signal IS.

図59を用いて、曲線パラメータP1およびP2と、選択信号Smとの関係について説明する。図59は、選択信号Smに対する曲線パラメータP1およびP2の値の変化を示している。第1LUT146および第2LUT147には、それぞれの選択信号Smに対する曲線パラメータP1およびP2の値が格納されている。例えば、選択信号Smに対する曲線パラメータP1の値として、値[K1m]が格納されており、曲線パラメータP2の値として、値[K2m]が格納されている。   The relationship between the curve parameters P1 and P2 and the selection signal Sm will be described with reference to FIG. FIG. 59 shows changes in the values of the curve parameters P1 and P2 with respect to the selection signal Sm. The first LUT 146 and the second LUT 147 store the values of the curve parameters P1 and P2 for the respective selection signals Sm. For example, the value [K1m] is stored as the value of the curve parameter P1 for the selection signal Sm, and the value [K2m] is stored as the value of the curve parameter P2.

以上の第1LUT146および第2LUT147により、入力された選択信号Smに対して、曲線パラメータP1およびP2が出力される。
演算部148では、取得した曲線パラメータP1およびP2に基づいて、入力信号IS
に対する階調処理信号CSを導出する。具体的な手順を以下記載する。
By the first LUT 146 and the second LUT 147 described above, the curve parameters P1 and P2 are output for the input selection signal Sm.
In the calculation unit 148, based on the acquired curve parameters P1 and P2, the input signal IS
The gradation processing signal CS for is derived. The specific procedure is described below.

まず、演算部148は、入力信号ISの値と、所定の値[X1],[X2]との比較を行う。
入力信号ISの値(値[X]とする)が[0.0]以上[X1]未満である場合、図57における原点と座標([X1],[K1m]*[X1](以下、[Y1]と記載する))とを結ぶ直線上において、値[X]に対する階調処理信号CSの値(値[Y]とする)が求められる。より具体的には、値[Y]は、次式[Y]=[K1m]*[X]、により求められる。
First, the calculation unit 148 compares the value of the input signal IS with predetermined values [X1] and [X2].
When the value of the input signal IS (value [X]) is not less than [0.0] and less than [X1], the origin and coordinates ([X1], [K1m] * [X1] in FIG. Y1])))), the value of the gradation processing signal CS for the value [X] (referred to as value [Y]) is obtained. More specifically, the value [Y] is obtained by the following equation [Y] = [K1m] * [X].

入力信号ISの値が[X1]以上[X2]未満である場合、図57における座標([X1],[Y1])と座標([X2],[K1m]*[X1]+[K2m]*([X2]−[X1])(以下、[Y2]と記載する))とを結ぶ直線上において、値[X]に対する値[Y]が求められる。より具体的には、値[Y]は、次式[Y]=[Y1]+[K2m]*([X]−[X1])、により求められる。   When the value of the input signal IS is [X1] or more and less than [X2], the coordinates ([X1], [Y1]) and the coordinates ([X2], [K1m] * [X1] + [K2m] * in FIG. 57) A value [Y] with respect to the value [X] is obtained on a straight line connecting ([X2]-[X1]) (hereinafter referred to as [Y2]). More specifically, the value [Y] is obtained by the following formula [Y] = [Y1] + [K2m] * ([X] − [X1]).

入力信号ISの値が[X2]以上[1.0]以下である場合、図57における座標([X2],[Y2])と座標(1.0,1.0)とを結ぶ直線上において、値[X]に対する値[Y]が求められる。より具体的には、値[Y]は、次式[Y]=[Y2]+{([1.0]−[Y2])/([1.0]−[X2])}*([X]−[X2])、により求められる。   When the value of the input signal IS is [X2] or more and [1.0] or less, on the straight line connecting the coordinates ([X2], [Y2]) and the coordinates (1.0, 1.0) in FIG. The value [Y] for the value [X] is obtained. More specifically, the value [Y] is expressed by the following formula [Y] = [Y2] + {([1.0] − [Y2]) / ([1.0] − [X2])} * ([ X]-[X2]).

以上の演算により、演算部148は、入力信号ISに対する階調処理信号CSを導出する。
(1−2)
曲線パラメータは、階調変換曲線候補Gm上の座標であってもよい。図60を用いて具体的に説明する。選択信号Smにより階調変換曲線候補Gmが指定された場合、曲線パラメータP1の値は、階調変換曲線候補Gm上の座標の一方の成分の値[Mm]であり、曲線パラメータP2の値は、階調変換曲線候補Gm上の座標の他方の成分の値[Nm]である。さらに、階調変換曲線候補G1〜Gpは、全て座標(X1,Y1)を通過する曲線である。
Through the above calculation, the calculation unit 148 derives the gradation processing signal CS for the input signal IS.
(1-2)
The curve parameter may be a coordinate on the gradation conversion curve candidate Gm. This will be specifically described with reference to FIG. When the gradation conversion curve candidate Gm is specified by the selection signal Sm, the value of the curve parameter P1 is the value [Mm] of one component of the coordinates on the gradation conversion curve candidate Gm, and the value of the curve parameter P2 is The value [Nm] of the other component of the coordinates on the gradation conversion curve candidate Gm. Further, the tone conversion curve candidates G1 to Gp are all curves that pass through the coordinates (X1, Y1).

図61を用いて、曲線パラメータP1およびP2と、選択信号Smとの関係について説明する。図61は、選択信号Smに対する曲線パラメータP1およびP2の値の変化を示している。第1LUT146および第2LUT147には、それぞれの選択信号Smに対する曲線パラメータP1およびP2の値が格納されている。例えば、選択信号Smに対する曲線パラメータP1の値として、値[Mm]が格納されており、曲線パラメータP2の値として、値[Nm]が格納されている。   The relationship between the curve parameters P1 and P2 and the selection signal Sm will be described with reference to FIG. FIG. 61 shows changes in the values of the curve parameters P1 and P2 with respect to the selection signal Sm. The first LUT 146 and the second LUT 147 store the values of the curve parameters P1 and P2 for the respective selection signals Sm. For example, the value [Mm] is stored as the value of the curve parameter P1 for the selection signal Sm, and the value [Nm] is stored as the value of the curve parameter P2.

以上の第1LUT146および第2LUT147により、入力された選択信号Smに対して、曲線パラメータP1およびP2が出力される。
演算部148では、図57を用いて説明した変形例と同様の処理により、入力信号ISから階調処理信号CSが導出される。詳しい説明は、省略する。
By the first LUT 146 and the second LUT 147 described above, the curve parameters P1 and P2 are output for the input selection signal Sm.
The computing unit 148 derives the gradation processing signal CS from the input signal IS by the same processing as that of the modification described with reference to FIG. Detailed description is omitted.

(1−3)
以上の変形例は、一例であり、曲線パラメータP1およびP2は、階調変換曲線候補Gmのさらに他の曲線パラメータであってもよい。
また、曲線パラメータの個数も上記に限られない。さらに少なくてもよいし、さらに多くてもよい。
(1-3)
The above modification is an example, and the curve parameters P1 and P2 may be other curve parameters of the tone conversion curve candidate Gm.
Further, the number of curve parameters is not limited to the above. There may be fewer or more.

演算部148についての説明では、階調変換曲線候補G1〜Gpが直線の線分から構成される曲線である場合についての演算について記載した。ここで、階調変換曲線候補G1〜Gp上の座標が曲線パラメータとして与えられる場合には、与えられた座標を通過する
滑らかな曲線が作成され(カーブフィッティング)、作成された曲線を用いて、階調変換処理が行われるものであってもよい。
In the description of the calculation unit 148, the calculation for the case where the gradation conversion curve candidates G1 to Gp are curves composed of straight line segments has been described. Here, when the coordinates on the gradation conversion curve candidates G1 to Gp are given as curve parameters, a smooth curve passing through the given coordinates is created (curve fitting), and the created curve is used. A gradation conversion process may be performed.

(2)
上記変形例では、「曲線パラメータ出力部145は、第1LUT146と第2LUT147から構成される。」と説明した。ここで、曲線パラメータ出力部145は、選択信号Smの値に対する曲線パラメータP1およびP2の値を格納するLUTを備えないものであってもよい。
(2)
In the above modification, “the curve parameter output unit 145 includes the first LUT 146 and the second LUT 147” has been described. Here, the curve parameter output unit 145 may not include an LUT that stores the values of the curve parameters P1 and P2 with respect to the value of the selection signal Sm.

この場合、曲線パラメータ出力部145は、曲線パラメータP1およびP2の値を演算する。より具体的には、曲線パラメータ出力部145は、図58、図59、図61などに示される曲線パラメータP1およびP2のグラフを表すパラメータを記憶している。曲線パラメータ出力部145は、記憶されたパラメータから曲線パラメータP1およびP2のグラフを特定する。さらに、曲線パラメータP1およびP2のグラフを用いて、選択信号Smに対する曲線パラメータP1およびP2の値を出力する。   In this case, the curve parameter output unit 145 calculates the values of the curve parameters P1 and P2. More specifically, the curve parameter output unit 145 stores parameters representing graphs of the curve parameters P1 and P2 shown in FIG. 58, FIG. 59, FIG. The curve parameter output unit 145 identifies graphs of the curve parameters P1 and P2 from the stored parameters. Further, the values of the curve parameters P1 and P2 with respect to the selection signal Sm are output using the graphs of the curve parameters P1 and P2.

ここで、曲線パラメータP1およびP2のグラフを特定するためのパラメータとは、グラフ上の座標、グラフの傾き、曲率などである。例えば、曲線パラメータ出力部145は、図58に示す曲線パラメータP1およびP2のグラフ上のそれぞれ2点の座標を記憶しており、この2点の座標を結ぶ直線を、曲線パラメータP1およびP2のグラフとして用いる。   Here, the parameters for specifying the graphs of the curve parameters P1 and P2 are coordinates on the graph, inclination of the graph, curvature, and the like. For example, the curve parameter output unit 145 stores the coordinates of two points on the graph of the curve parameters P1 and P2 shown in FIG. 58, and the straight line connecting the coordinates of the two points is represented by the graph of the curve parameters P1 and P2. Used as

ここで、パラメータから曲線パラメータP1およびP2のグラフを特定する際には、直線近似だけでなく、折れ線近似、曲線近似などを用いてもよい。
これにより、LUTを記憶するためのメモリを用いずに曲線パラメータを出力することが可能となる。すなわち、装置が備えるメモリの容量をさらに削減することが可能となる。
Here, when specifying the graphs of the curve parameters P1 and P2 from the parameters, not only linear approximation but also broken line approximation, curve approximation, or the like may be used.
This makes it possible to output curve parameters without using a memory for storing the LUT. That is, it is possible to further reduce the capacity of the memory provided in the apparatus.

[第6実施形態]
〈第6実施形態としての視覚処理装置121の特徴〉
本発明の第6実施形態としての視覚処理装置121について図62〜図64を用いて説明する。視覚処理装置121は、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDAなど、画像を取り扱う機器に内蔵、あるいは接続されて、画像の階調処理を行う装置である。視覚処理装置121は、あらかじめLUTとして記憶した複数の階調変換曲線を階調処理の対象となる画素ごとに切り換えて用いる点を特徴として有している。
[Sixth Embodiment]
<Features of the visual processing device 121 as the sixth embodiment>
A visual processing device 121 as a sixth embodiment of the present invention will be described with reference to FIGS. 62 to 64. The visual processing device 121 is a device that performs gradation processing of an image by being incorporated in or connected to a device that handles images, such as a computer, a television, a digital camera, a mobile phone, and a PDA. The visual processing device 121 is characterized in that a plurality of gradation conversion curves stored in advance as LUTs are switched and used for each pixel to be subjected to gradation processing.

〈構成〉
図62に、視覚処理装置121の構造を説明するブロック図を示す。視覚処理装置121は、画像分割部122と、選択信号導出部123と、階調処理部130とを備えている。画像分割部122は、入力信号ISを入力とし、入力信号ISとして入力される原画像を複数に分割した画像領域Pm(1≦m≦n:nは原画像の分割数)を出力とする。選択信号導出部123は、それぞれの画像領域Pmに対して階調変換曲線Cmを選択するための選択信号Smを出力する。階調処理部130は、選択信号補正部124と、階調処理実行部125とを備えている。選択信号補正部124は、選択信号Smを入力とし、それぞれの画像領域Pm毎の選択信号Smを補正した信号である画素毎の選択信号SSを出力する。階調処理実行部125は、複数の階調変換曲線候補G1〜Gp(pは候補数)を2次元LUTとして備えており、入力信号ISと画素毎の選択信号SSとを入力とし、それぞれの画素について階調処理した出力信号OSを出力とする。
<Constitution>
FIG. 62 is a block diagram illustrating the structure of the visual processing device 121. The visual processing device 121 includes an image dividing unit 122, a selection signal deriving unit 123, and a gradation processing unit 130. The image dividing unit 122 receives the input signal IS and outputs an image area Pm (1 ≦ m ≦ n: n is the number of divisions of the original image) obtained by dividing the original image input as the input signal IS. The selection signal deriving unit 123 outputs a selection signal Sm for selecting the gradation conversion curve Cm for each image region Pm. The gradation processing unit 130 includes a selection signal correction unit 124 and a gradation processing execution unit 125. The selection signal correction unit 124 receives the selection signal Sm and outputs a selection signal SS for each pixel, which is a signal obtained by correcting the selection signal Sm for each image region Pm. The gradation processing execution unit 125 includes a plurality of gradation conversion curve candidates G1 to Gp (p is the number of candidates) as a two-dimensional LUT, and receives an input signal IS and a selection signal SS for each pixel as input. An output signal OS obtained by performing gradation processing on the pixel is used as an output.

(階調変換曲線候補について)
階調変換曲線候補G1〜Gpについては、[第5実施形態]において図50を用いて説明したのとほぼ同様であるため、ここでは説明を省略する。但し、本実施形態においては、階調変換曲線候補G1〜Gpは、入力信号ISの画素の明度値と出力信号OSの画素の
明度値との関係を与える曲線である。
(About gradation conversion curve candidates)
The gradation conversion curve candidates G1 to Gp are substantially the same as those described with reference to FIG. 50 in [Fifth Embodiment], and thus description thereof is omitted here. However, in this embodiment, the tone conversion curve candidates G1 to Gp are curves that give the relationship between the brightness value of the pixel of the input signal IS and the brightness value of the pixel of the output signal OS.

階調処理実行部125は、階調変換曲線候補G1〜Gpを2次元LUTとして備えている。すなわち、2次元LUTは、入力信号ISの画素の明度値と階調変換曲線候補G1〜Gpを選択する選択信号SSとに対して、出力信号OSの画素の明度値を与えるルックアップテーブル(LUT)である。具体例は、[第5実施形態]において図51を用いて説明したのとほぼ同様であるため、ここでは説明を省略する。但し、本実施形態においては、マトリクスの列方向には、例えば10ビットで表される入力信号ISの画素値の上位6ビットの値に対する出力信号OSの画素値が並んでいる。   The gradation processing execution unit 125 includes gradation conversion curve candidates G1 to Gp as a two-dimensional LUT. That is, the two-dimensional LUT is a look-up table (LUT) that gives the lightness value of the pixel of the output signal OS to the lightness value of the pixel of the input signal IS and the selection signal SS for selecting the gradation conversion curve candidates G1 to Gp. ). A specific example is substantially the same as that described with reference to FIG. 51 in [Fifth Embodiment], and thus the description thereof is omitted here. However, in the present embodiment, the pixel values of the output signal OS are arranged in the column direction of the matrix with respect to the upper 6 bits of the pixel value of the input signal IS represented by 10 bits, for example.

〈作用〉
各部の動作について説明を加える。画像分割部122は、図44の画像分割部102とほぼ同様に動作し、入力信号ISとして入力される原画像を複数(n個)の画像領域Pmに分割する(図45参照)。ここで、原画像の分割数は、図104に示す従来の視覚処理装置300の分割数(例えば、4〜16分割)よりも多く、例えば、横方向に80分割し縦方向に60分割する4800分割などである。
<Action>
The operation of each part will be described. The image dividing unit 122 operates in substantially the same manner as the image dividing unit 102 in FIG. 44, and divides the original image input as the input signal IS into a plurality (n) of image regions Pm (see FIG. 45). Here, the number of divisions of the original image is larger than the number of divisions (for example, 4 to 16 divisions) of the conventional visual processing device 300 shown in FIG. 104. For example, 4800 is divided into 80 in the horizontal direction and 60 in the vertical direction. Such as division.

選択信号導出部123は、それぞれの画像領域Pmに対して階調変換曲線Cmを階調変換曲線候補G1〜Gpの中から選択する。具体的には、選択信号導出部123は、画像領域Pmの広域画像領域Emの平均明度値を計算し、計算された平均明度値に応じて階調変換曲線候補G1〜Gpのいずれかの選択を行う。すなわち、階調変換曲線候補G1〜Gpは、広域画像領域Emの平均明度値に関連づけられており、平均明度値が大きくなるほど、添え字の大きい階調変換曲線候補G1〜Gpが選択される。   The selection signal deriving unit 123 selects a gradation conversion curve Cm from the gradation conversion curve candidates G1 to Gp for each image region Pm. Specifically, the selection signal deriving unit 123 calculates the average brightness value of the wide area image area Em of the image area Pm, and selects any one of the gradation conversion curve candidates G1 to Gp according to the calculated average brightness value. I do. That is, the tone conversion curve candidates G1 to Gp are associated with the average brightness value of the wide area image region Em, and the tone conversion curve candidates G1 to Gp with larger subscripts are selected as the average brightness value increases.

ここで、広域画像領域Emとは、[第4実施形態]において図45を用いて説明したのと同様である。すなわち、広域画像領域Emは、それぞれの画像領域Pmを含む複数の画像領域の集合であり、例えば、画像領域Pmを中心とする縦方向5ブロック、横方向5ブロックの25個の画像領域の集合である。なお、画像領域Pmの位置によっては、画像領域Pmの周辺に縦方向5ブロック、横方向5ブロックの広域画像領域Emを取ることができない場合がある。例えば、原画像の周辺に位置する画像領域Plに対して、画像領域Plの周辺に縦方向5ブロック、横方向5ブロックの広域画像領域Elを取ることができない。この場合には、画像領域Plを中心とする縦方向5ブロック横方向5ブロックの領域と原画像とが重なる領域が広域画像領域Elとして採用される。   Here, the wide area image region Em is the same as that described with reference to FIG. 45 in the [fourth embodiment]. That is, the wide area image area Em is a set of a plurality of image areas including the respective image areas Pm. For example, a set of 25 image areas of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image area Pm. It is. Depending on the position of the image area Pm, there may be a case where the wide area image area Em of 5 blocks in the vertical direction and 5 blocks in the horizontal direction cannot be taken around the image area Pm. For example, with respect to the image area Pl positioned around the original image, it is not possible to take a wide area image area El of 5 blocks in the vertical direction and 5 blocks in the horizontal direction around the image area Pl. In this case, an area where the area of 5 blocks in the vertical direction and 5 blocks in the horizontal direction centering on the image area Pl overlaps with the original image is adopted as the wide area image area El.

選択信号導出部123の選択結果は、階調変換曲線候補G1〜Gpのいずれかを示す選択信号Smとして出力される。より具体的には、選択信号Smは、階調変換曲線候補G1〜Gpの添え字(1〜p)の値として出力される。
選択信号補正部124は、それぞれの画像領域Pmに対して出力されたそれぞれの選択信号Smを用いた補正により、入力信号ISを構成する画素毎に階調変換曲線を選択するための画素毎の選択信号SSを出力する。例えば、画像領域Pmに含まれる画素に対する選択信号SSは、画像領域Pmおよび画像領域Pmの周辺の画像領域に対して出力された選択信号の値を画素位置の内分比で補正して求められる。
The selection result of the selection signal deriving unit 123 is output as a selection signal Sm indicating any one of the gradation conversion curve candidates G1 to Gp. More specifically, the selection signal Sm is output as the value of the subscripts (1 to p) of the gradation conversion curve candidates G1 to Gp.
The selection signal correcting unit 124 performs pixel-by-pixel selection for selecting a gradation conversion curve for each pixel constituting the input signal IS by correction using each selection signal Sm output for each image region Pm. The selection signal SS is output. For example, the selection signal SS for the pixels included in the image region Pm is obtained by correcting the value of the selection signal output for the image region Pm and the image region around the image region Pm with the internal division ratio of the pixel position. .

図63を用いて、選択信号補正部124の動作についてさらに詳しく説明する。図63は、画像領域Po,Pp,Pq,Pr(o,p,q,rは分割数n(図45参照。)以下の正整数)に対して選択信号So,Sp,Sq,Srが出力された状態を示している。
ここで、階調補正の対象となる画素xの位置を、画像領域Poの中心と画像領域Ppの中心とを[i:1−i]に内分し、かつ、画像領域Poの中心と画像領域Pqの中心とを[j:1−j]に内分する位置であるとする。この場合、画素xに対する選択信号SSの値[SS]は、[SS]={(1−j)・(1−i)・[So]+(1−j)・(i)・[Sp]+(j)・(1−i)・[Sq]+(j)・(i)・[Sr]}と求められる。なお、[So],[Sp],[Sq],[Sr]は、選択信号So,Sp,Sq,Srの
値であるとする。
The operation of the selection signal correction unit 124 will be described in more detail with reference to FIG. In FIG. 63, selection signals So, Sp, Sq, and Sr are output for image regions Po, Pp, Pq, and Pr (o, p, q, and r are positive integers equal to or less than the division number n (see FIG. 45)). It shows the state that was done.
Here, the position of the pixel x to be subjected to gradation correction is divided into [i: 1-i] between the center of the image area Po and the center of the image area Pp, and the center of the image area Po and the image. It is assumed that the position is a position that internally divides the center of the region Pq into [j: 1-j]. In this case, the value [SS] of the selection signal SS for the pixel x is [SS] = {(1-j). (1-i). [So] + (1-j). (I). [Sp] + (J). (1-i). [Sq] + (j). (I). [Sr]}. [So], [Sp], [Sq], and [Sr] are values of the selection signals So, Sp, Sq, and Sr.

階調処理実行部125は、入力信号ISが含む画素の明度値と選択信号SSとを入力とし、例えば図51に示す2次元LUT141を用いて、出力信号OSの明度値を出力する。
なお、選択信号SSの値[SS]が、2次元LUT141の備える階調変換曲線候補G1〜Gpの添え字(1〜p)と等しい値にならない場合、値[SS]に最も近い整数を添え字とする階調変換曲線候補G1〜Gpが入力信号ISの階調処理に用いられる。
The gradation processing execution unit 125 receives the lightness value of the pixel included in the input signal IS and the selection signal SS, and outputs the lightness value of the output signal OS using, for example, a two-dimensional LUT 141 shown in FIG.
When the value [SS] of the selection signal SS is not equal to the subscripts (1 to p) of the tone conversion curve candidates G1 to Gp included in the two-dimensional LUT 141, an integer closest to the value [SS] is added. The tone conversion curve candidates G1 to Gp to be used as characters are used for tone processing of the input signal IS.

〈視覚処理方法および視覚処理プログラム〉
図64に、視覚処理装置121における視覚処理方法を説明するフローチャートを示す。図64に示す視覚処理方法は、視覚処理装置121においてハードウェアにより実現され、入力信号IS(図62参照)の階調処理を行う方法である。図64に示す視覚処理方法では、入力信号ISは、画像単位で処理される(ステップS130〜S137)。入力信号ISとして入力される原画像は、複数の画像領域Pm(1≦m≦n:nは原画像の分割数)に分割され(ステップS131)、画像領域Pm毎に階調変換曲線Cmが選択され(ステップS132〜S133)、画像領域Pm毎に階調変換曲線Cmを選択するための選択信号Smに基づいて、原画像の画素毎に階調変換曲線が選択され、画素単位での階調処理が行われる(ステップS134〜S136)。
<Visual processing method and visual processing program>
FIG. 64 is a flowchart for explaining the visual processing method in the visual processing device 121. The visual processing method shown in FIG. 64 is realized by hardware in the visual processing device 121, and is a method of performing gradation processing of the input signal IS (see FIG. 62). In the visual processing method shown in FIG. 64, the input signal IS is processed in units of images (steps S130 to S137). The original image input as the input signal IS is divided into a plurality of image regions Pm (1 ≦ m ≦ n: n is the number of divisions of the original image) (step S131), and a gradation conversion curve Cm is generated for each image region Pm. Based on the selection signal Sm for selecting the gradation conversion curve Cm for each image region Pm, a gradation conversion curve is selected for each pixel of the original image, and the gradation in units of pixels is selected (steps S132 to S133). Tone processing is performed (steps S134 to S136).

それぞれのステップについて具体的に説明を加える。
それぞれの画像領域Pmに対して階調変換曲線Cmが階調変換曲線候補G1〜Gpの中から選択される(ステップS132)。具体的には、画像領域Pmの広域画像領域Emの平均明度値を計算し、計算された平均明度値に応じて階調変換曲線候補G1〜Gpのいずれかの選択が行われる。階調変換曲線候補G1〜Gpは、広域画像領域Emの平均明度値に関連づけられており、平均明度値が大きくなるほど、添え字の大きい階調変換曲線候補G1〜Gpが選択される。ここで、広域画像領域Emについては、説明を省略する(上記〈作用〉の欄参照。)。選択結果は、階調変換曲線候補G1〜Gpのいずれかを示す選択信号Smとして出力される。より具体的には、選択信号Smは、階調変換曲線候補G1〜Gpの添え字(1〜p)の値として出力される。さらに、全ての画像領域Pmについての処理が終了したか否かを判定し(ステップS133)、処理が終了したと判定されるまで、ステップS132〜S133の処理を原画像の分割数回繰り返す。以上により、画像領域単位の処理が終了する。
Specific explanation will be given for each step.
A gradation conversion curve Cm is selected from the gradation conversion curve candidates G1 to Gp for each image region Pm (step S132). Specifically, the average brightness value of the wide area image area Em of the image area Pm is calculated, and any one of the gradation conversion curve candidates G1 to Gp is selected according to the calculated average brightness value. The gradation conversion curve candidates G1 to Gp are associated with the average brightness value of the wide area image region Em, and the gradation conversion curve candidates G1 to Gp with larger subscripts are selected as the average brightness value increases. Here, the description of the wide area image region Em is omitted (see the column of <Action> above). The selection result is output as a selection signal Sm indicating any one of the gradation conversion curve candidates G1 to Gp. More specifically, the selection signal Sm is output as the value of the subscripts (1 to p) of the gradation conversion curve candidates G1 to Gp. Further, it is determined whether or not the processing for all the image areas Pm has been completed (step S133), and the processing of steps S132 to S133 is repeated several times until the processing is determined to be completed. Thus, the processing for each image area is completed.

それぞれの画像領域Pmに対して出力されたそれぞれの選択信号Smを用いた補正により、入力信号ISを構成する画素毎に階調変換曲線を選択するための画素毎の選択信号SSが出力される(ステップS134)。例えば、画像領域Pmに含まれる画素に対する選択信号SSは、画像領域Pmおよび画像領域Pmの周辺の画像領域に対して出力された選択信号の値を画素位置の内分比で補正して求められる。補正の詳細な内容については、説明を省略する(上記〈作用〉の欄、図63参照。)。   By using the selection signal Sm output for each image region Pm, a selection signal SS for each pixel for selecting a gradation conversion curve is output for each pixel constituting the input signal IS. (Step S134). For example, the selection signal SS for the pixels included in the image region Pm is obtained by correcting the value of the selection signal output for the image region Pm and the image region around the image region Pm with the internal division ratio of the pixel position. . The detailed description of the correction will be omitted (see the column <Action>, FIG. 63).

入力信号ISが含む画素の明度値と選択信号SSとを入力とし、例えば図51に示す2次元LUT141を用いて、出力信号OSの明度値が出力される(ステップS135)。さらに、全ての画素についての処理が終了したか否かを判定し(ステップS136)、処理が終了したと判定されるまで、ステップS134〜S136の処理を画素数回繰り返す。以上により、画像単位の処理が終了する。   The brightness value of the pixel included in the input signal IS and the selection signal SS are input, and the brightness value of the output signal OS is output using, for example, the two-dimensional LUT 141 shown in FIG. 51 (step S135). Further, it is determined whether or not the processing for all the pixels has been completed (step S136), and the processing of steps S134 to S136 is repeated several times until it is determined that the processing has been completed. Thus, the processing for each image is completed.

なお、図64に示す視覚処理方法のそれぞれのステップは、コンピュータなどにより、視覚処理プログラムとして実現されるものであっても良い。
〈効果〉
本発明により、上記[第4実施形態]および[第5実施形態]の〈効果〉とほぼ同様の効果を得ることが可能である。以下、第6実施形態特有の効果を記載する。
Note that each step of the visual processing method shown in FIG. 64 may be realized as a visual processing program by a computer or the like.
<effect>
According to the present invention, it is possible to obtain substantially the same effect as the <effects> of the above [fourth embodiment] and [fifth embodiment]. Hereinafter, effects unique to the sixth embodiment will be described.

(1)
それぞれの画像領域Pmに対して選択される階調変換曲線Cmは、広域画像領域Emの平均明度値に基づいて作成される。このため、画像領域Pmの大きさは小さくとも十分な明度値のサンプリングが可能となる。また、この結果、小さな画像領域Pmに対しても、適切な階調変換曲線Cmが選択される。
(1)
The gradation conversion curve Cm selected for each image area Pm is created based on the average brightness value of the wide area image area Em. For this reason, even if the size of the image region Pm is small, it is possible to sample a sufficient brightness value. As a result, an appropriate gradation conversion curve Cm is selected even for a small image region Pm.

(2)
選択信号補正部124は、画像領域単位で出力される選択信号Smに基づいた補正により、画素毎の選択信号SSを出力する。入力信号ISを構成する原画像の画素は、画素毎の選択信号SSが指定する階調変換曲線候補G1〜Gpを用いて、階調処理される。このため、より適切に階調処理された出力信号OSを得ることができる。例えば、疑似輪郭の発生を抑制することが可能となる。また、出力信号OSにおいては、それぞれの画像領域Pmの境界のつなぎ目が不自然に目立つことがさらに防止可能となる。
(2)
The selection signal correction unit 124 outputs a selection signal SS for each pixel by correction based on the selection signal Sm output in units of image regions. The pixels of the original image constituting the input signal IS are subjected to gradation processing using the gradation conversion curve candidates G1 to Gp designated by the selection signal SS for each pixel. For this reason, it is possible to obtain an output signal OS subjected to more appropriate gradation processing. For example, it becomes possible to suppress the generation of pseudo contours. Further, in the output signal OS, it is possible to further prevent the joint at the boundary of each image region Pm from being unnaturally conspicuous.

(3)
階調処理実行部125は、あらかじめ作成された2次元LUTを有している。このため、階調処理に要する処理負荷を削減すること、より具体的には、階調変換曲線Cmの作成に要する処理負荷を削減することが可能となる。この結果、階調処理を高速化することが可能となる。
(3)
The gradation processing execution unit 125 has a two-dimensional LUT created in advance. For this reason, it is possible to reduce the processing load required for the gradation processing, more specifically, it is possible to reduce the processing load required for creating the gradation conversion curve Cm. As a result, the gradation processing can be speeded up.

(4)
階調処理実行部125は、2次元LUTを用いて階調処理を実行する。ここで、2次元LUTの内容は、視覚処理装置121が備えるハードディスクあるいはROMなどの記憶装置から読み出されて階調処理に用いられる。読み出す2次元LUTの内容を変更することにより、ハードウェアの構成を変更せずに様々な階調処理を実現することが可能となる。すなわち、原画像の特性により適した階調処理を実現することが可能となる。
(4)
The gradation processing execution unit 125 executes gradation processing using a two-dimensional LUT. Here, the contents of the two-dimensional LUT are read from a storage device such as a hard disk or a ROM provided in the visual processing device 121 and used for gradation processing. By changing the contents of the two-dimensional LUT to be read out, various gradation processes can be realized without changing the hardware configuration. That is, it is possible to realize gradation processing more suitable for the characteristics of the original image.

〈変形例〉
本発明は上記実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の変形が可能である。例えば、上記[第5実施形態]〈変形例〉とほぼ同様の変形を第6実施形態に適用することが可能である。特に、[第5実施形態]〈変形例〉の(10)〜(12)では、選択信号Smを選択信号SSと、階調処理信号CSを出力信号OSと読み替えることにより、同様に適用可能である。
<Modification>
The present invention is not limited to the above embodiment, and various modifications can be made without departing from the scope of the invention. For example, substantially the same modification as the above [Fifth Embodiment] <Modification> can be applied to the sixth embodiment. In particular, in (10) to (12) of [Fifth Embodiment] <Modification>, the selection signal Sm is replaced with the selection signal SS, and the gradation processing signal CS is replaced with the output signal OS. is there.

以下、第6実施形態特有の変形例を記載する。
(1)
上記実施形態では、64行64列のマトリクスからなる2次元LUT141を2次元LUTの一例とした。ここで、本発明の効果は、このサイズの2次元LUTに限定されるものではない。例えば、さらに多くの階調変換曲線候補を行方向に並べたマトリクスであっても良い。また、入力信号ISの画素値をさらに細かいステップに区切った値に対する出力信号OSの画素値をマトリクスの列方向に並べたもので有っても良い。具体的には、例えば10ビットで表される入力信号ISのそれぞれの画素値に対して、出力信号OSの画素値を並べたもので有っても良い。
Hereinafter, modifications specific to the sixth embodiment will be described.
(1)
In the above embodiment, the two-dimensional LUT 141 including a 64 × 64 matrix is taken as an example of the two-dimensional LUT. Here, the effect of the present invention is not limited to the two-dimensional LUT of this size. For example, it may be a matrix in which more gradation conversion curve candidates are arranged in the row direction. Further, the pixel values of the output signal OS corresponding to the values obtained by dividing the pixel values of the input signal IS into smaller steps may be arranged in the column direction of the matrix. Specifically, for example, the pixel value of the output signal OS may be arranged for each pixel value of the input signal IS represented by 10 bits.

2次元LUTのサイズが大きくなれば、より適切な階調処理を行うことが可能となり、小さくなれば、2次元LUTを記憶するメモリの削減などが可能となる。
(2)
上記実施形態では、選択信号SSの値[SS]が、2次元LUT141(図51参照)の備える階調変換曲線候補G1〜Gpの添え字(1〜p)と等しい値にならない場合、値[SS]に最も近い整数を添え字とする階調変換曲線候補G1〜Gpが入力信号ISの階調処理に用いられる、と説明した。ここで、選択信号SSの値[SS]が、2次元LUT
141の備える階調変換曲線候補G1〜Gpの添え字(1〜p)と等しい値にならない場合、選択信号SSの値[SS]を超えない最大の整数(k)を添え字とする階調変換曲線候補Gk(1≦k≦p−1)と、[SS]を超える最小の整数(k+1)を添え字とする階調変換曲線候補Gk+1との双方を用いて階調処理した入力信号ISの画素値を、選択信号SSの値[SS]の小数点以下の値を用いて加重平均(内分)し、出力信号OSを出力してもよい。
If the size of the two-dimensional LUT is increased, more appropriate gradation processing can be performed, and if the size is decreased, the memory for storing the two-dimensional LUT can be reduced.
(2)
In the above embodiment, when the value [SS] of the selection signal SS is not equal to the subscripts (1 to p) of the gradation conversion curve candidates G1 to Gp included in the two-dimensional LUT 141 (see FIG. 51), the value [ It has been described that the tone conversion curve candidates G1 to Gp with the integer closest to SS] as subscripts are used for the tone processing of the input signal IS. Here, the value [SS] of the selection signal SS is a two-dimensional LUT.
141, a gradation having a maximum integer (k) that does not exceed the value [SS] of the selection signal SS when the value is not equal to the subscripts (1 to p) of the gradation conversion curve candidates G1 to Gp included in 141. An input signal IS that has been subjected to gradation processing using both the conversion curve candidate Gk (1 ≦ k ≦ p−1) and the gradation conversion curve candidate Gk + 1 with the smallest integer (k + 1) exceeding [SS] as a subscript. May be weighted average (internal division) using the value after the decimal point of the value [SS] of the selection signal SS, and the output signal OS may be output.

(3)
上記実施形態では、マトリクスの列方向には、例えば10ビットで表される入力信号ISの画素値の上位6ビットの値に対する出力信号OSの画素値が並んでいる、と説明した。ここで、出力信号OSは、階調処理実行部125により、入力信号ISの画素値の下位4ビットの値で線形補間されたマトリクスの成分として出力されるものであっても良い。すなわち、マトリクスの列方向には、例えば10ビットで表される入力信号ISの画素値の上位6ビットの値に対するマトリクスの成分が並んでおり、入力信号ISの画素値の上位6ビットの値に対するマトリクスの成分と、入力信号ISの画素値の上位6ビットの値に[1]を加えた値に対するマトリクスの成分(例えば、図51では、1行下の成分)とを入力信号ISの画素値の下位4ビットの値を用いて線形補間し、出力信号OSとして出力する。
(3)
In the above-described embodiment, it has been described that the pixel values of the output signal OS are arranged in the column direction of the matrix with respect to the upper 6 bits of the pixel value of the input signal IS represented by 10 bits, for example. Here, the output signal OS may be output as a matrix component linearly interpolated by the gradation processing execution unit 125 with the lower 4 bits of the pixel value of the input signal IS. That is, in the column direction of the matrix, for example, the components of the matrix corresponding to the upper 6 bits of the pixel value of the input signal IS represented by 10 bits are arranged, and the upper 6 bits of the pixel value of the input signal IS are arranged. The matrix component and the matrix component (for example, the component one row lower in FIG. 51) with respect to the value obtained by adding [1] to the upper 6 bits of the pixel value of the input signal IS are the pixel values of the input signal IS. Are linearly interpolated using the value of the lower 4 bits and output as the output signal OS.

これにより、2次元LUT141(図51参照)のサイズが小さくとも、より適切な階調処理を行うことが可能となる。
(4)
上記実施形態では、広域画像領域Emの平均明度値に基づいて、画像領域Pmに対する選択信号Smを出力すると説明した。ここで、選択信号Smの出力方法は、この方法に限られない。例えば、広域画像領域Emの最大明度値、あるいは最小明度値に基づいて、画像領域Pmに対する選択信号Smを出力してもよい。なお、選択信号Smの値[Sm]は、広域画像領域Emの平均明度値、最大明度値、あるいは最小明度値そのものであってもよい。
As a result, even when the size of the two-dimensional LUT 141 (see FIG. 51) is small, more appropriate gradation processing can be performed.
(4)
In the embodiment described above, the selection signal Sm for the image area Pm is output based on the average brightness value of the wide area image area Em. Here, the method of outputting the selection signal Sm is not limited to this method. For example, the selection signal Sm for the image area Pm may be output based on the maximum brightness value or the minimum brightness value of the wide area image area Em. The value [Sm] of the selection signal Sm may be the average brightness value, the maximum brightness value, or the minimum brightness value of the wide area image area Em.

また例えば、次のようにして画像領域Pmに対する選択信号Smを出力してもよい。すなわち、それぞれの画像領域Pmについて平均明度値を求め、それぞれの平均明度値からそれぞれの画像領域Pmについての仮の選択信号Sm’を求める。ここで、仮の選択信号Sm’は、階調変換曲線候補G1〜Gpの添え字の番号を値としている。さらに、広域画像領域Emが含むそれぞれの画像領域について、仮の選択信号Sm’の値を平均し、画像領域Pmの選択信号Smとする。   For example, the selection signal Sm for the image region Pm may be output as follows. That is, an average brightness value is obtained for each image area Pm, and a provisional selection signal Sm ′ for each image area Pm is obtained from each average brightness value. Here, the provisional selection signal Sm ′ has values of subscript numbers of the gradation conversion curve candidates G1 to Gp. Further, for each image area included in the wide area image area Em, the value of the temporary selection signal Sm ′ is averaged to obtain the selection signal Sm of the image area Pm.

(5)
上記実施形態では、広域画像領域Emの平均明度値に基づいて、画像領域Pmに対する選択信号Smを出力すると説明した。ここで、広域画像領域Emの単純平均でなく、加重平均(重み付き平均)に基づいて、画像領域Pmに対する選択信号Smを出力しても良い。詳細は、上記[第5実施形態]で図54を用いて説明したのと同様であり、広域画像領域Emを構成するそれぞれの画像領域の平均明度値を求め、画像領域Pmの平均明度値と大きく異なる平均明度値を持つ画像領域Ps1,Ps2,・・・については、重み付けを軽くして広域画像領域Emの平均明度値を求める。
(5)
In the embodiment described above, the selection signal Sm for the image area Pm is output based on the average brightness value of the wide area image area Em. Here, the selection signal Sm for the image area Pm may be output based on a weighted average (weighted average) instead of a simple average of the wide area image area Em. The details are the same as those described with reference to FIG. 54 in the above [Fifth Embodiment]. The average brightness value of each image area constituting the wide area image area Em is obtained, and the average brightness value of the image area Pm is calculated. For image areas Ps1, Ps2,... Having significantly different average brightness values, the weighting is reduced and the average brightness value of the wide area image area Em is obtained.

これにより、広域画像領域Emが明度的に特異的な領域を含む場合(例えば、広域画像領域Emが2つの明度値の異なる物体の境界を含む場合)であっても、選択信号Smの出力に対して、その特異的な領域の明度値が与える影響が少なくなり、さらに適切な選択信号Smの出力が行われることとなる。   As a result, even when the wide area image region Em includes an area specific to brightness (for example, when the wide area image area Em includes a boundary between two objects having different brightness values), the selection signal Sm is output. On the other hand, the influence of the brightness value of the specific area is reduced, and an appropriate selection signal Sm is output.

(6)
視覚処理装置121では、2次元LUTが格納する値であるプロファイルデータを作成
するプロファイルデータ作成部をさらに備えていても良い。具体的には、プロファイルデータ作成部は、視覚処理装置101(図44参照)における画像分割部102と階調変換曲線導出部110とから構成されており、作成された複数の階調変換曲線の集合をプロファイルデータとして2次元LUTに格納する。
(6)
The visual processing device 121 may further include a profile data creation unit that creates profile data that is a value stored in the two-dimensional LUT. Specifically, the profile data creation unit includes an image dividing unit 102 and a tone conversion curve deriving unit 110 in the visual processing device 101 (see FIG. 44). The set is stored as profile data in the two-dimensional LUT.

また、2次元LUTに格納される階調変換曲線のそれぞれは、空間処理された入力信号ISに関連づけられていてもかまわない。この場合、視覚処理装置121では、画像分割部122と選択信号導出部123と選択信号補正部124とを、入力信号ISを空間処理する空間処理部に置き換えても良い。
[第7実施形態]
図65〜図71を用いて本発明の第7実施形態としての視覚処理装置161について説明する。
Further, each of the gradation conversion curves stored in the two-dimensional LUT may be associated with the spatially processed input signal IS. In this case, in the visual processing device 121, the image dividing unit 122, the selection signal derivation unit 123, and the selection signal correction unit 124 may be replaced with a spatial processing unit that spatially processes the input signal IS.
[Seventh Embodiment]
A visual processing device 161 as a seventh embodiment of the present invention will be described with reference to FIGS.

図65に示す視覚処理装置161は、画像信号の空間処理、階調処理など視覚処理を行う装置である。視覚処理装置161は、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDA、プリンタ、スキャナなどの画像を取り扱う機器において、画像信号の色処理を行う装置とともに画像処理装置を構成する。   A visual processing device 161 shown in FIG. 65 is a device that performs visual processing such as spatial processing and gradation processing of an image signal. The visual processing device 161 constitutes an image processing device together with a device that performs color processing of an image signal in a device that handles images such as a computer, a television, a digital camera, a mobile phone, a PDA, a printer, and a scanner.

視覚処理装置161は、画像信号と、画像信号に対して空間処理(ボケフィルタ処理)を施したボケ信号とを用いた視覚処理を行う装置であり、空間処理において特徴を有している。
従来、対象画素の周辺の画素を用いてボケ信号を導出する際に、周辺の画素が対象画素と大きく濃度の異なる画素を含むと、ボケ信号は、濃度の異なる画素の影響を受ける。すなわち、画像において物体のエッジ近傍の画素を空間処理する場合、本来エッジでない画素がエッジの濃度の影響を受けることとなる。このため、この空間処理により、例えば、擬似輪郭の発生などが引き起こされることとなる。
The visual processing device 161 is a device that performs visual processing using an image signal and a blur signal obtained by performing spatial processing (blur filter processing) on the image signal, and has a feature in spatial processing.
Conventionally, when a blur signal is derived using pixels around a target pixel, if the peripheral pixel includes a pixel having a large density different from that of the target pixel, the blur signal is affected by a pixel having a different density. That is, when spatially processing pixels near the edge of an object in an image, pixels that are not originally edges are affected by the edge density. For this reason, for example, the generation of a pseudo contour is caused by this spatial processing.

そこで、空間処理を画像の内容に適応させて行うことが求められる。これに対して、例えば、特開平10−75395号公報は、ボケ度合いの異なる複数のボケ信号を作成し、それぞれのボケ信号を合成、あるいは切り替えることにより適切なボケ信号を出力する。これにより、空間処理のフィルタサイズを変更し、濃度の異なる画素の影響を抑制することを目的とする。   Therefore, it is required to perform spatial processing in accordance with the content of the image. On the other hand, for example, Japanese Patent Laid-Open No. 10-75395 generates a plurality of blur signals having different degrees of blur, and outputs appropriate blur signals by combining or switching the respective blur signals. Thus, the object is to change the filter size of the spatial processing and suppress the influence of pixels having different densities.

一方、上記公報では、複数のボケ信号を作成し、それぞれのボケ信号を合成、あるいは切り替えることとなるため、装置における回路規模、あるいは処理負荷が大きくなる。
そこで、本発明の第7実施形態としての視覚処理装置161では、適切なボケ信号を出力することを目的とし、かつ、装置における回路規模、あるいは処理負荷を削減することを目的とする。
On the other hand, in the above publication, a plurality of blur signals are created, and the respective blur signals are combined or switched, which increases the circuit scale or processing load in the apparatus.
Therefore, the visual processing device 161 according to the seventh embodiment of the present invention aims at outputting an appropriate blur signal and reducing the circuit scale or processing load in the device.

〈視覚処理装置161〉
図65に、画像信号(入力信号IS)に視覚処理を行い視覚処理画像(出力信号OS)を出力する視覚処理装置161の基本構成を示す。視覚処理装置161は、入力信号ISとして取得した原画像の画素ごとの明度値に空間処理を実行しアンシャープ信号USを出力する空間処理部162と、同じ画素についての入力信号ISとアンシャープ信号USとを用いて、原画像の視覚処理を行い、出力信号OSを出力する視覚処理部163とを備えている。
<Visual processing device 161>
FIG. 65 shows a basic configuration of a visual processing device 161 that performs visual processing on an image signal (input signal IS) and outputs a visually processed image (output signal OS). The visual processing device 161 performs spatial processing on the brightness value of each pixel of the original image acquired as the input signal IS and outputs an unsharp signal US, and the input signal IS and unsharp signal for the same pixel. A visual processing unit 163 that performs visual processing of an original image using US and outputs an output signal OS is provided.

〈空間処理部162〉
図66を用いて、空間処理部162の空間処理について説明する。空間処理部162は、空間処理の対象となる対象画素165と、対象画素165の周辺領域の画素(以下、周辺画素166という)との画素値を入力信号ISから取得する。
<Spatial processing unit 162>
The spatial processing of the spatial processing unit 162 will be described using FIG. The spatial processing unit 162 acquires pixel values of the target pixel 165 to be subjected to spatial processing and pixels in the peripheral region of the target pixel 165 (hereinafter referred to as peripheral pixel 166) from the input signal IS.

周辺画素166は、対象画素165の周辺領域に位置する画素であり、対象画素165
を中心として広がる縦9画素、横9画素の周辺領域に含まれる画素である。なお、周辺領域の大きさは、この場合に限定されず、より小さくてもよいし、より大きくてもよい。また、周辺画素166は、対象画素165からの距離に応じて近いものから第1周辺画素167、第2周辺画素168と分けられている。図66では、第1周辺画素167は、対象画素165を中心とする縦5画素、横5画素の領域に含まれる画素であるとする。さらに第2周辺画素168は、第1周辺画素167の周辺に位置する画素であるとする。
The peripheral pixel 166 is a pixel located in the peripheral region of the target pixel 165, and the target pixel 165
These pixels are included in the peripheral area of 9 pixels in the vertical direction and 9 pixels in the horizontal direction. The size of the peripheral region is not limited to this case, and may be smaller or larger. Further, the peripheral pixel 166 is divided into a first peripheral pixel 167 and a second peripheral pixel 168 that are close to each other according to the distance from the target pixel 165. In FIG. 66, the first peripheral pixel 167 is assumed to be a pixel included in a region of 5 pixels vertically and 5 pixels horizontally centering on the target pixel 165. Further, it is assumed that the second peripheral pixel 168 is a pixel located around the first peripheral pixel 167.

空間処理部162は、対象画素165に対してフィルタ演算を行う。フィルタ演算では、対象画素165と周辺画素166との画素値とが、対象画素165と周辺画素166との画素値の差および距離に基づく重みを用いて、加重平均される。加重平均は、次式F=(Σ[Wij]*[Aij])/(Σ[Wij])に基づいて計算される。ここで、[Wij]は、対象画素165および周辺画素166において、i行j列目に位置する画素の重み係数であり、[Aij]は、対象画素165および周辺画素166において、i行j列目に位置する画素の画素値である。また、「Σ」は、対象画素165および周辺画素166のそれぞれの画素についての合計の計算を行うことを意味している。   The spatial processing unit 162 performs a filter operation on the target pixel 165. In the filter calculation, the pixel values of the target pixel 165 and the surrounding pixels 166 are weighted and averaged using a weight based on the difference and distance between the pixel values of the target pixel 165 and the surrounding pixels 166. The weighted average is calculated based on the following formula F = (Σ [Wij] * [Aij]) / (Σ [Wij]). Here, [Wij] is the weighting factor of the pixel located in the i-th row and j-th column in the target pixel 165 and the peripheral pixel 166, and [Aij] is the i-th row and j-th column in the target pixel 165 and the peripheral pixel 166. This is the pixel value of the pixel located in the eye. Further, “Σ” means that a total calculation is performed for each of the target pixel 165 and the peripheral pixels 166.

図67を用いて、重み係数[Wij]について説明する。重み係数[Wij]は、対象画素165と周辺画素166との画素値の差および距離に基づいて定められる値である。より具体的には、画素値の差の絶対値が大きいほど小さい値の重み係数が与えられる。また、距離が大きいほど小さい重み係数が与えられる。   The weighting coefficient [Wij] will be described with reference to FIG. The weighting coefficient [Wij] is a value determined based on the difference in pixel value between the target pixel 165 and the surrounding pixel 166 and the distance. More specifically, a smaller weight coefficient is given as the absolute value of the pixel value difference is larger. Also, a smaller weighting factor is given as the distance increases.

例えば、対象画素165に対しては、重み係数[Wij]は、値[1]である。
第1周辺画素167のうち、対象画素165の画素値との差の絶対値が所定の閾値よりも小さい画素値を有する画素に対しては、重み係数[Wij]は、値[1]である。第1周辺画素167のうち、差の絶対値が所定の閾値よりも大きい画素値を有する画素に対しては、重み係数[Wij]は、値[1/2]である。すなわち、第1周辺画素167に含まれる画素であっても、画素値に応じて与えられる重み係数が異なっている。
For example, for the target pixel 165, the weighting factor [Wij] is the value [1].
Of the first peripheral pixels 167, for a pixel having a pixel value whose absolute value of the difference from the pixel value of the target pixel 165 is smaller than a predetermined threshold, the weighting coefficient [Wij] is a value [1]. . Of the first peripheral pixels 167, the weight coefficient [Wij] is a value [1/2] for a pixel having a pixel value whose absolute value of the difference is larger than a predetermined threshold value. That is, even the pixels included in the first peripheral pixel 167 have different weighting coefficients given according to the pixel values.

第2周辺画素168のうち、対象画素165の画素値との差の絶対値が所定の閾値よりも小さい画素値を有する画素に対しては、重み係数[Wij]は、値[1/2]である。第2周辺画素168のうち、差の絶対値が所定の閾値よりも大きい画素値を有する画素に対しては、重み係数[Wij]は、値[1/4]である。すなわち、第2周辺画素168に含まれる画素であっても、画素値に応じて与えられる重み係数が異なっている。また、対象画素165からの距離が第1周辺画素167よりも大きい第2周辺画素168では、より小さい重み係数が与えられている。   Of the second peripheral pixels 168, for a pixel having a pixel value whose absolute value of the difference from the pixel value of the target pixel 165 is smaller than a predetermined threshold value, the weighting coefficient [Wij] is a value [1/2]. It is. For the second peripheral pixel 168, the weight coefficient [Wij] is a value [1/4] for a pixel having a pixel value whose absolute value of the difference is larger than a predetermined threshold value. That is, even the pixels included in the second peripheral pixel 168 have different weighting coefficients given according to the pixel values. In addition, a smaller weight coefficient is given to the second peripheral pixel 168 whose distance from the target pixel 165 is larger than the first peripheral pixel 167.

ここで、所定の閾値とは、値[0.0〜1.0]の範囲の値をとる対象画素165の画素値に対して、値[20/256〜60/256]などといった大きさの値である。
以上により計算された加重平均が、アンシャープ信号USとして出力される。
〈視覚処理部163〉
視覚処理部163では、同一の画素についての入力信号ISとアンシャープ信号USとの値を用いて、視覚処理を行う。ここで行われる視覚処理は、入力信号ISのコントラスト強調、あるいはダイナミックレンジ圧縮などといった処理である。コントラスト強調では、入力信号ISとアンシャープ信号USとの差、あるいは比を強調する関数を用いて強調した信号を入力信号ISに加え、画像の鮮鋭化が行われる。ダイナミックレンジ圧縮では、入力信号ISからアンシャープ信号USが減算される。
Here, the predetermined threshold is a value such as a value [20/256 to 60/256] with respect to the pixel value of the target pixel 165 that takes a value in the range of [0.0 to 1.0]. Value.
The weighted average calculated as described above is output as the unsharp signal US.
<Visual processing unit 163>
The visual processing unit 163 performs visual processing using the values of the input signal IS and the unsharp signal US for the same pixel. The visual processing performed here is processing such as contrast enhancement of the input signal IS or dynamic range compression. In contrast enhancement, a signal enhanced using a function that enhances the difference or ratio between the input signal IS and the unsharp signal US is added to the input signal IS to sharpen the image. In dynamic range compression, the unsharp signal US is subtracted from the input signal IS.

視覚処理部163における処理は、入力信号ISとアンシャープ信号USとを入力として出力信号OSを出力する2次元LUTを用いて行われても良い。
〈視覚処理方法・プログラム〉
上述の処理は、視覚処理プログラムとして、コンピュータなどにより実行されるもので
あってもよい。視覚処理プログラムは、以下記載する視覚処理方法をコンピュータに実行させるためのプログラムである。
The processing in the visual processing unit 163 may be performed using a two-dimensional LUT that outputs the output signal OS with the input signal IS and the unsharp signal US as inputs.
<Visual processing method / program>
The above-described processing may be executed by a computer or the like as a visual processing program. The visual processing program is a program for causing a computer to execute the visual processing method described below.

視覚処理方法は、入力信号ISとして取得した原画像の画素ごとの明度値に空間処理を実行しアンシャープ信号USを出力する空間処理ステップと、同じ画素についての入力信号ISとアンシャープ信号USとを用いて、原画像の視覚処理を行い、出力信号OSを出力する視覚処理ステップとを備えている。   The visual processing method includes a spatial processing step of performing spatial processing on the brightness value for each pixel of the original image acquired as the input signal IS and outputting an unsharp signal US, and an input signal IS and an unsharp signal US for the same pixel. Are used to perform visual processing of the original image and output an output signal OS.

空間処理ステップでは、入力信号ISの画素毎に、空間処理部162の説明において記載した加重平均を行い、アンシャープ信号USを出力する。詳細については、上述したため省略する。
視覚処理ステップでは、同じ画素についての入力信号ISとアンシャープ信号USとを用いて、視覚処理部163の説明において記載した視覚処理を行い出力信号OSを出力する。詳細については、上述したため省略する。
In the spatial processing step, the weighted average described in the description of the spatial processing unit 162 is performed for each pixel of the input signal IS, and the unsharp signal US is output. Details are omitted because they have been described above.
In the visual processing step, the visual processing described in the description of the visual processing unit 163 is performed using the input signal IS and the unsharp signal US for the same pixel, and the output signal OS is output. Details are omitted because they have been described above.

〈効果〉
図68(a)〜(b)を用いて、視覚処理装置161による視覚処理の効果を説明する。図68(a)と図68(b)とは、従来のフィルタによる処理を示している。図68(b)は、本発明のフィルタによる処理を示している。
<effect>
The effect of visual processing by the visual processing device 161 will be described with reference to FIGS. 68 (a) and 68 (b) show processing by a conventional filter. FIG. 68B shows processing by the filter of the present invention.

図68(a)は、周辺画素166が濃度の異なる物体171を含む様子を示している。対象画素165の空間処理では、所定のフィルタ係数を持つ平滑化フィルタが用いられる。このため、本来物体171の一部でない対象画素165が物体171の濃度の影響を受けることとなる。   FIG. 68A shows a state in which the peripheral pixels 166 include objects 171 having different densities. In the spatial processing of the target pixel 165, a smoothing filter having a predetermined filter coefficient is used. For this reason, the target pixel 165 that is not originally a part of the object 171 is affected by the density of the object 171.

図68(b)は、本発明の空間処理の様子を示している。本発明の空間処理では、周辺画素166が物体171を含む部分166a、物体171を含まない第1周辺画素167、物体171を含まない第2周辺画素168、対象画素165、のそれぞれに対して、異なる重み係数を用いて空間処理が行われる。このため、空間処理された対象画素165が極端に濃度の異なる画素から受ける影響を抑えることが可能となり、より適切な空間処理が可能となる。   FIG. 68 (b) shows the state of the spatial processing of the present invention. In the spatial processing of the present invention, for each of the portion 166a in which the peripheral pixel 166 includes the object 171, the first peripheral pixel 167 that does not include the object 171, the second peripheral pixel 168 that does not include the object 171, and the target pixel 165, Spatial processing is performed using different weighting factors. For this reason, it is possible to suppress the influence of the spatially processed target pixel 165 from pixels with extremely different densities, and more appropriate spatial processing is possible.

また、視覚処理装置161では、特開平10−75395号公報のように複数のボケ信号を作成する必要が無い。このため、装置における回路規模、あるいは処理負荷を削減することが可能となる。
さらに、視覚処理装置161では、実質的に、空間フィルタのフィルタサイズ、およびフィルタが参照する画像の形状を画像内容に応じて適応的に変更することが可能である。このため、画像内容に適した空間処理を行うことが可能となる。
Further, in the visual processing device 161, it is not necessary to create a plurality of blur signals as in JP-A-10-75395. For this reason, it becomes possible to reduce the circuit scale or processing load in the apparatus.
Furthermore, the visual processing device 161 can substantially adaptively change the filter size of the spatial filter and the shape of the image referenced by the filter in accordance with the image content. For this reason, it is possible to perform spatial processing suitable for the image content.

〈変形例〉
(1)
上記した周辺画素166、第1周辺画素167、第2周辺画素168などの大きさは、一例であり、他の大きさであってもよい。
<Modification>
(1)
The sizes of the peripheral pixel 166, the first peripheral pixel 167, the second peripheral pixel 168, and the like described above are examples, and other sizes may be used.

上記した重み係数は、一例であり、他のものであっても良い。例えば、画素値の差の絶対値が所定の閾値を超える場合に、重み係数を値[0]として与えてもよい。これにより、空間処理された対象画素165が極端に濃度の異なる画素から受ける影響を無くすことが可能となる。このことは、コントラスト強調を目的とした応用では、元々ある程度コントラストの大きい部分におけるコントラストを過剰に強調しないという効果がある。   The weighting factor described above is an example and may be other. For example, the weighting factor may be given as the value [0] when the absolute value of the pixel value difference exceeds a predetermined threshold. This makes it possible to eliminate the influence of the spatially processed target pixel 165 from pixels with extremely different densities. This has the effect of not over-enhancing the contrast in a portion where the contrast is originally large to some extent in the application aiming at contrast enhancement.

また、重み係数は、次に示すような関数の値として与えられるものであってもよい。
(1−a)
画素値の差の絶対値を変数とする関数により重み係数の値を与えてもよい。関数は、例えば、画素値の差の絶対値が小さいときは重み係数が大きく(1に近く)、画素値の差の絶対値が大きいときは重み係数が小さく(0に近く)なるような、画素値の差の絶対値に
対して単調減少する関数である。
The weighting factor may be given as a function value as shown below.
(1-a)
The value of the weighting coefficient may be given by a function having the absolute value of the difference between pixel values as a variable. The function is, for example, such that the weighting factor is large (close to 1) when the absolute value of the pixel value difference is small, and the weighting factor is small (close to 0) when the absolute value of the pixel value difference is large. This is a function that monotonously decreases with respect to the absolute value of the difference between pixel values.

(1−b)
対象画素165からの距離を変数とする関数により重み係数の値をあたえてもよい。関数は、例えば、対象画素165からの距離が近いときには重み係数が大きく(1に近く)、対象画素165からの距離が遠いときには重み係数が小さく(0に近く)なるような、対象画素165からの距離に対して単調減少する関数である。
(1-b)
The value of the weight coefficient may be given by a function having the distance from the target pixel 165 as a variable. For example, the function is such that the weighting factor is large (close to 1) when the distance from the target pixel 165 is short, and the weighting factor is small (close to 0) when the distance from the target pixel 165 is long. Is a monotonically decreasing function with respect to the distance.

上記(1−a)、(1−b)では、重み係数がより連続的に与えられることとなる。このため、閾値を用いた場合に比して、より適切な重み係数を与えることが可能となり、過剰なコントラスト強調を抑制し、擬似輪郭の発生などを抑制し、より視覚的効果の高い処理を行うことが可能となる。   In the above (1-a) and (1-b), the weight coefficient is given more continuously. For this reason, it is possible to give a more appropriate weighting coefficient compared to the case of using a threshold, to suppress excessive contrast enhancement, to suppress generation of pseudo contours, and to perform processing with higher visual effect. Can be done.

(2)
上記したそれぞれの画素についての処理は、複数の画素を含むブロックを単位として行われても良い。具体的には、まず、空間処理の対象となる対象ブロックの平均画素値と、対象ブロックの周辺の周辺ブロックの平均画素値とが計算される。さらに、それぞれの平均画素値が上記と同様の重み係数を用いて加重平均される。これにより、対象ブロックの平均画素値がさらに空間処理されることとなる。
(2)
The processing for each pixel described above may be performed in units of blocks including a plurality of pixels. Specifically, first, an average pixel value of a target block to be subjected to spatial processing and an average pixel value of peripheral blocks around the target block are calculated. Further, each average pixel value is weighted and averaged using the same weighting factor as described above. As a result, the average pixel value of the target block is further spatially processed.

このような場合には、空間処理部162を選択信号導出部113(図49参照)あるいは選択信号導出部123(図62参照)として用いることも可能である。この場合、[第5実施形態]〈変形例〉(6)、あるいは[第6実施形態]〈変形例〉(5)に記載したのと同様である。   In such a case, the spatial processing unit 162 can be used as the selection signal deriving unit 113 (see FIG. 49) or the selection signal deriving unit 123 (see FIG. 62). In this case, it is the same as described in [Fifth Embodiment] <Modification> (6) or [Sixth Embodiment] <Modification> (5).

これに関し、図69〜図71を用いて説明を加える。
《構成》
図69は、図65〜図68を用いて説明した処理を複数の画素を含むブロック単位で行う視覚処理装置961の構成を示すブロック図である。
This will be described with reference to FIGS.
"Constitution"
FIG. 69 is a block diagram illustrating a configuration of a visual processing device 961 that performs the processing described with reference to FIGS. 65 to 68 in units of blocks including a plurality of pixels.

視覚処理装置961は、入力信号ISとして入力される画像を複数の画像ブロックに分割する画像分割部964と、分割された画像ブロック毎の空間処理を行う空間処理部962と、入力信号ISと空間処理部962の出力である空間処理信号US2とを用いて視覚処理を行う視覚処理部963とから構成されている。   The visual processing device 961 includes an image dividing unit 964 that divides an image input as an input signal IS into a plurality of image blocks, a spatial processing unit 962 that performs spatial processing for each divided image block, and an input signal IS and a space. The visual processing unit 963 performs visual processing using the spatial processing signal US2 that is the output of the processing unit 962.

画像分割部964は、入力信号ISとして入力される画像を複数の画像ブロックに分割する。さらに、分割された画像ブロック毎の特徴パラメータを含む処理信号US1を導出する。特徴パラメータとは、例えば、分割された画像ブロック毎の画像の特徴を表すパラメータであり、例えば、平均値(単純平均、加重平均など)や代表値(最大値、最小値、中央値など)である。   The image dividing unit 964 divides an image input as the input signal IS into a plurality of image blocks. Further, a processing signal US1 including a feature parameter for each divided image block is derived. The feature parameter is, for example, a parameter that represents the feature of an image for each divided image block, and is, for example, an average value (simple average, weighted average, etc.) or a representative value (maximum value, minimum value, median value, etc.). is there.

空間処理部962は、画像ブロック毎の特徴パラメータを含む処理信号US1を取得し、空間処理を行う。
図70を用いて、空間処理部962の空間処理について説明する。図70は、複数画素を含む画像ブロックに分割された入力信号ISを示している。ここで、それぞれの画像ブロックは、縦3画素・横3画素の9画素を含む領域に分割されている。なお、この分割方法は、一例であり、このような分割方法に限定されるわけではない。また、視覚処理効果を十分に発揮するためには、かなり広い領域を対象として空間処理信号US2を生成することが好ましい。
The spatial processing unit 962 acquires a processing signal US1 including a feature parameter for each image block and performs spatial processing.
The spatial processing of the spatial processing unit 962 will be described using FIG. FIG. 70 shows an input signal IS divided into image blocks including a plurality of pixels. Here, each image block is divided into regions including 9 pixels of 3 vertical pixels and 3 horizontal pixels. Note that this division method is an example and is not limited to such a division method. Further, in order to sufficiently exhibit the visual processing effect, it is preferable to generate the spatial processing signal US2 for a considerably wide area.

空間処理部962は、空間処理の対象となる対象画像ブロック965と、対象画像ブロック965の周辺に位置する周辺領域966に含まれるそれぞれの周辺画像ブロックとの特徴パラメータを処理信号US1から取得する。
周辺領域966は、対象画像ブロック965の周辺に位置する領域であり、対象画像ブロック965を中心として広がる縦5ブロック、横5ブロックの領域である。なお、周辺領域966の大きさは、この場合に限定されず、より小さくてもよいし、より大きくてもよい。また、周辺領域966は、対象画像ブロック965からの距離に応じて近いものから第1周辺領域967、第2周辺領域968と分けられている。
The spatial processing unit 962 acquires the characteristic parameters of the target image block 965 to be subjected to spatial processing and the respective peripheral image blocks included in the peripheral region 966 located around the target image block 965 from the processing signal US1.
The peripheral area 966 is an area located around the target image block 965, and is an area of five vertical blocks and five horizontal blocks that spread around the target image block 965. Note that the size of the peripheral region 966 is not limited to this case, and may be smaller or larger. Further, the peripheral area 966 is divided into a first peripheral area 967 and a second peripheral area 968 that are close to each other according to the distance from the target image block 965.

図70では、第1周辺領域967は、対象画像ブロック965を中心とする縦3ブロック、横3ブロックの領域であるとする。さらに第2周辺領域968は、第1周辺領域967の周辺に位置する領域であるとする。
空間処理部962は、対象画像ブロック965の特徴パラメータに対してフィルタ演算を行う。
In FIG. 70, the first peripheral area 967 is an area of three vertical blocks and three horizontal blocks centering on the target image block 965. Furthermore, the second peripheral area 968 is assumed to be an area located around the first peripheral area 967.
The spatial processing unit 962 performs a filter operation on the feature parameter of the target image block 965.

フィルタ演算では、対象画像ブロック965と周辺領域966の周辺画像ブロックとの特徴パラメータの値が加重平均される。ここで加重平均の重みは、対象画像ブロック965と周辺画像ブロックとの距離および特徴パラメータの値の差に基づいて定められている。   In the filter operation, the feature parameter values of the target image block 965 and the peripheral image blocks in the peripheral region 966 are weighted averaged. Here, the weight of the weighted average is determined based on the distance between the target image block 965 and the surrounding image block and the difference in the value of the feature parameter.

より具体的には、加重平均は、次式F=(Σ[Wij]*[Aij])/(Σ[Wij])に基づいて計算される。
ここで、[Wij]は、対象画像ブロック965および周辺領域966において、i行j列目に位置する画像ブロックに対する重み係数であり、[Aij]は、対象画像ブロック965および周辺領域966において、i行j列目に位置する画像ブロックの特徴パラメータの値である。また、「Σ」は、対象画像ブロック965および周辺領域966のそれぞれの画像ブロックについての合計の計算を行うことを意味している。
More specifically, the weighted average is calculated based on the following formula F = (Σ [Wij] * [Aij]) / (Σ [Wij]).
Here, [Wij] is a weighting factor for the image block located in the i-th row and j-th column in the target image block 965 and the peripheral region 966, and [Aij] is i in the target image block 965 and the peripheral region 966. This is the value of the feature parameter of the image block located in the row j column. Further, “Σ” means that a total calculation is performed for the image blocks of the target image block 965 and the peripheral area 966.

図71を用いて、重み係数[Wij]について説明する。
重み係数[Wij]は、対象画像ブロック965と周辺領域966の周辺画像ブロックとの距離および特徴パラメータの値の差に基づいて定められる値である。より具体的には、特徴パラメータの値の差の絶対値が大きいほど小さい値の重み係数が与えられる。また、距離が大きいほど小さい重み係数が与えられる。
The weighting coefficient [Wij] will be described with reference to FIG.
The weighting coefficient [Wij] is a value determined based on the distance between the target image block 965 and the surrounding image blocks in the surrounding area 966 and the difference between the characteristic parameter values. More specifically, a smaller weight coefficient is given as the absolute value of the difference between the characteristic parameter values is larger. Also, a smaller weighting factor is given as the distance increases.

例えば、対象画像ブロック965に対しては、重み係数[Wij]は、値[1]である。
第1周辺領域967のうち、対象画像ブロック965の特徴パラメータの値との差の絶対値が所定の閾値よりも小さい特徴パラメータの値を有する周辺画像ブロックに対しては、重み係数[Wij]は、値[1]である。第1周辺領域967のうち、差の絶対値が所定の閾値よりも大きい特徴パラメータの値を有する周辺画像ブロックに対しては、重み係数[Wij]は、値[1/2]である。すなわち、第1周辺領域967に含まれる周辺画像ブロックであっても、特徴パラメータの値に応じて与えられる重み係数が異なっている。
For example, for the target image block 965, the weighting coefficient [Wij] is the value [1].
In the first peripheral region 967, for a peripheral image block having a feature parameter value whose absolute value of a difference from the feature parameter value of the target image block 965 is smaller than a predetermined threshold, the weighting coefficient [Wij] is , Value [1]. In the first peripheral region 967, the weight coefficient [Wij] is a value [1/2] for a peripheral image block having a feature parameter value whose absolute value of the difference is larger than a predetermined threshold value. That is, even in the peripheral image block included in the first peripheral region 967, the weighting coefficient given according to the value of the characteristic parameter is different.

第2周辺領域968のうち、対象画像ブロック965の特徴パラメータの値との差の絶対値が所定の閾値よりも小さい特徴パラメータの値を有する周辺画像ブロックに対しては、重み係数[Wij]は、値[1/2]である。第2周辺領域968のうち、差の絶対値が所定の閾値よりも大きい特徴パラメータの値を有する周辺画像ブロックに対しては、重み係数[Wij]は、値[1/4]である。すなわち、第2周辺領域968に含まれる周辺画像ブロックであっても、特徴パラメータの値に応じて与えられる重み係数が異なっている。また、対象画像ブロック965からの距離が第1周辺領域967よりも大きい第2周辺領域968では、より小さい重み係数が与えられている。   In the second peripheral area 968, for a peripheral image block having a feature parameter value whose absolute value of the difference from the feature parameter value of the target image block 965 is smaller than a predetermined threshold, the weighting coefficient [Wij] is , Value [1/2]. In the second peripheral area 968, for a peripheral image block having a characteristic parameter value whose absolute value of the difference is larger than a predetermined threshold, the weighting coefficient [Wij] is a value [1/4]. That is, even in the peripheral image block included in the second peripheral area 968, the weighting coefficient given according to the value of the characteristic parameter is different. Further, a smaller weighting factor is given to the second peripheral area 968 where the distance from the target image block 965 is larger than the first peripheral area 967.

ここで、所定の閾値とは、値[0.0〜1.0]の範囲の値をとる対象画像ブロック965の特徴パラメータの値に対して、値[20/256〜60/256]などといった大
きさの値である。
以上により計算された加重平均が、空間処理信号US2として出力される。
Here, the predetermined threshold is a value [20/256 to 60/256] or the like for the feature parameter value of the target image block 965 taking a value in the range of [0.0 to 1.0]. It is a magnitude value.
The weighted average calculated as described above is output as the spatial processing signal US2.

視覚処理部963では、視覚処理部163(図65参照)と同様の視覚処理が行われる。ただし、視覚処理部163との相違点は、アンシャープ信号USの代わりに、視覚処理の対象となる対象画素を含む対象画像ブロックの空間処理信号US2が用いられる点である。   The visual processing unit 963 performs visual processing similar to that of the visual processing unit 163 (see FIG. 65). However, the difference from the visual processing unit 163 is that, instead of the unsharp signal US, the spatial processing signal US2 of the target image block including the target pixel to be subjected to visual processing is used.

また、視覚処理部963における処理は、対象画素を含む対象画像ブロック単位で一括して処理されてもよいが、入力信号ISから取得される画素の順序で空間処理信号US2を切り換えて処理されてもよい。
以上の処理が、入力信号ISに含まれる全ての画素について行われる。
The processing in the visual processing unit 963 may be processed in batches for each target image block including the target pixel, but is processed by switching the spatial processing signal US2 in the order of the pixels acquired from the input signal IS. Also good.
The above processing is performed for all the pixels included in the input signal IS.

《効果》
空間処理部962の処理では、画像ブロックを単位とした処理が行われる。このため、空間処理部962の処理量を削減でき、より高速の視覚処理が実現可能となる。また、ハードウェア規模を小さくすることが可能となる。
"effect"
In the processing of the spatial processing unit 962, processing in units of image blocks is performed. For this reason, the processing amount of the spatial processing unit 962 can be reduced, and higher-speed visual processing can be realized. In addition, the hardware scale can be reduced.

《変形例》
上記では、正方のブロック単位で処理を行うと記載した。ここで、ブロックの形状は、任意としてもよい。
また、上記した重み係数、閾値なども適宜変更可能である。
<Modification>
In the above description, the processing is performed in units of square blocks. Here, the shape of the block may be arbitrary.
Further, the above-described weighting factor, threshold value, and the like can be changed as appropriate.

ここで、重み係数の一部の値は、値[0]であってもよい。この場合には、周辺領域966の形状を任意の形状とすることと同じこととなる。
また、空間処理部962では、対象画像ブロック965と周辺領域966との特徴パラメータを用いて空間処理を行うと説明したが、空間処理は、周辺領域966のみの特徴パラメータを用いて行うものであってもよい。すなわち、空間処理の加重平均の重みにおいて、対象画像ブロック965の重みを値[0]としてもよい。
Here, some values of the weighting coefficient may be the value [0]. In this case, it is the same as making the shape of the peripheral region 966 an arbitrary shape.
Further, although it has been described that the spatial processing unit 962 performs spatial processing using the feature parameters of the target image block 965 and the peripheral region 966, the spatial processing is performed using feature parameters of only the peripheral region 966. May be. That is, the weight of the target image block 965 may be the value [0] in the weighted average weight of the spatial processing.

(3)
視覚処理部163における処理は、上記したものに限られない。例えば、視覚処理部163は、入力信号ISの値A、アンシャープ信号USの値B、ダイナミックレンジ圧縮関数F4、強調関数F5を用いて、次式C=F4(A)*F5(A/B)により演算される値Cを出力信号OSの値として出力するものであってもかまわない。ここで、ダイナミックレンジ圧縮関数F4は、上に凸のべき関数などの単調増加関数であり、例えば、F4(x)=x^γ(0<γ<1)と表される。強調関数F5は、べき関数であり、例えば、F5(x)=x^α(0<α≦1)と表される。
(3)
The processing in the visual processing unit 163 is not limited to the above. For example, the visual processing unit 163 uses the value A of the input signal IS, the value B of the unsharp signal US, the dynamic range compression function F4, and the enhancement function F5 to obtain the following expression C = F4 (A) * F5 (A / B ) May be output as the value of the output signal OS. Here, the dynamic range compression function F4 is a monotonically increasing function such as an upward convex power function, and is represented by, for example, F4 (x) = x ^ γ (0 <γ <1). The enhancement function F5 is a power function, and is expressed as, for example, F5 (x) = x ^ α (0 <α ≦ 1).

視覚処理部163においてこのような処理が行われる場合、本発明の空間処理部162により出力された適切なアンシャープ信号USが用いられれば、入力信号ISのダイナミックレンジを圧縮しつつ、局所的なコントラストを強調することが可能となる。
一方、アンシャープ信号USが適切でなく、ボケが少なすぎる場合には、エッジ強調的ではあるがコントラストの強調が適切に行えない。また、ボケが多すぎる場合には、コントラストの強調は行えるが、ダイナミックレンジの圧縮が適切に行えない。
When such processing is performed in the visual processing unit 163, if an appropriate unsharp signal US output by the spatial processing unit 162 of the present invention is used, the dynamic range of the input signal IS is compressed and the local range is reduced. The contrast can be enhanced.
On the other hand, when the unsharp signal US is not appropriate and there is too little blur, contrast enhancement cannot be performed properly although it is edge enhancement. If there is too much blur, contrast can be enhanced, but dynamic range compression cannot be performed properly.

[第8実施形態]
本発明の第8実施形態として、上記第4〜第7実施形態で説明した視覚処理装置、視覚処理方法、視覚処理プログラムの応用例と、それを用いたシステムとについて説明する。
視覚処理装置は、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDAなど、画像を取り扱う機器に内蔵、あるいは接続されて、画像の階調処理を行う装置であり、LSIなどの集積回路として実現される。
[Eighth Embodiment]
As an eighth embodiment of the present invention, application examples of the visual processing device, the visual processing method, and the visual processing program described in the fourth to seventh embodiments and a system using the same will be described.
A visual processing device is a device that performs built-in or connected image processing devices such as computers, televisions, digital cameras, mobile phones, and PDAs, and performs image gradation processing, and is realized as an integrated circuit such as an LSI. Is done.

より詳しくは、上記実施形態の各機能ブロックは、個別に1チップ化されても良いし、
一部又は全てを含むように1チップ化されても良い。なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
More specifically, each functional block of the above embodiment may be individually made into one chip,
It may be integrated into one chip so as to include a part or all of it. Here, although LSI is used, it may be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。   Further, the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after the manufacture of the LSI or a reconfigurable processor that can reconfigure the connection and setting of the circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
図44、図49、図62、図65、図69の各ブロックの処理は、例えば、視覚処理装置が備える中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。また、図49、図62の階調処理実行部114,125において参照される2次元LUTは、ハードディスク、ROMなどの記憶装置に格納されており、必要に応じて参照される。さらに、2次元LUTは、視覚処理装置に直接的に接続される、あるいはネットワークを介して間接的に接続される2次元LUTの提供装置から提供されるものであってもよい。また、図56の階調処理実行部144において参照される1次元LUTについても同様である。
Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied.
44, 49, 62, 65, and 69 are performed by, for example, a central processing unit (CPU) included in the visual processing device. In addition, a program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or the RAM. Further, the two-dimensional LUT referred to in the gradation processing execution units 114 and 125 in FIGS. 49 and 62 is stored in a storage device such as a hard disk or ROM, and is referred to as necessary. Further, the two-dimensional LUT may be provided from a two-dimensional LUT providing device that is directly connected to the visual processing device or indirectly connected via a network. The same applies to the one-dimensional LUT referred to in the gradation processing execution unit 144 in FIG.

また、視覚処理装置は、動画像を取り扱う機器に内蔵、あるいは接続されて、フレーム毎(フィールド毎)の画像の階調処理を行う装置であってもよい。
また、それぞれの視覚処理装置では、上記第4〜第7実施形態で説明した視覚処理方法が実行される。
In addition, the visual processing device may be a device that performs built-in or connected to a device that handles moving images and performs gradation processing of an image for each frame (for each field).
In each visual processing device, the visual processing method described in the fourth to seventh embodiments is executed.

視覚処理プログラムは、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDAなど、画像を取り扱う機器に内蔵、あるいは接続される装置において、ハードディスク、ROMなどの記憶装置に記憶され、画像の階調処理を実行するプログラムであり、例えば、CD−ROMなどの記録媒体を介して、あるいはネットワークを介して提供される。   The visual processing program is stored in a storage device such as a hard disk or ROM in a device that handles images, such as a computer, television, digital camera, mobile phone, PDA, etc., and executes gradation processing of the image. For example, the program is provided via a recording medium such as a CD-ROM or via a network.

上記実施形態では、それぞれの画素の明度値について処理を行うと説明した。ここで、本発明は、入力信号ISの色空間に依存するものではない。すなわち、上記実施形態における処理は、入力信号ISがYCbCr色空間、YUV色空間、Lab色空間、Luv色空間、YIQ色空間、XYZ色空間、YPbPr色空間、RGB色空間などで表されている場合に、それぞれの色空間の輝度、明度に対して、同様に適用可能である。   In the above embodiment, it has been described that the processing is performed on the brightness value of each pixel. Here, the present invention does not depend on the color space of the input signal IS. That is, in the processing in the above embodiment, the input signal IS is expressed in the YCbCr color space, YUV color space, Lab color space, Luv color space, YIQ color space, XYZ color space, YPbPr color space, RGB color space, and the like. In this case, the present invention can be similarly applied to the luminance and brightness of each color space.

また入力信号ISがRGB色空間で表されている場合に、上記実施形態における処理は、RGBそれぞれの成分に対して独立に行われるものであってもよい。
[第9実施形態]
本発明の第9実施形態として、上記で説明した視覚処理装置、視覚処理方法、視覚処理プログラムの応用例とそれを用いたシステムを図72〜図75を用いて説明する。
When the input signal IS is expressed in the RGB color space, the processing in the above embodiment may be performed independently for each component of RGB.
[Ninth Embodiment]
As a ninth embodiment of the present invention, application examples of the visual processing device, the visual processing method, and the visual processing program described above and a system using the same will be described with reference to FIGS.

図72は、コンテンツ配信サービスを実現するコンテンツ供給システムex100の全体構成を示すブロック図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ固定無線局である基地局ex107〜ex110が設置されている。
このコンテンツ供給システムex100は、例えば、インターネットex101にインターネットサービスプロバイダex102および電話網ex104、および基地局ex107〜ex110を介して、コンピュータex111、PDA(personal digital assistant)ex112、カメラex113、携帯電話ex114、カメラ付きの携帯電話ex115などの各機器が接続される。
FIG. 72 is a block diagram showing an overall configuration of a content supply system ex100 that implements a content distribution service. The communication service providing area is divided into desired sizes, and base stations ex107 to ex110, which are fixed wireless stations, are installed in each cell.
The content supply system ex100 includes, for example, a computer ex111, a PDA (personal digital assistant) ex112, a camera ex113, a mobile phone ex114, a camera via the Internet ex101, the Internet service provider ex102, the telephone network ex104, and the base stations ex107 to ex110. Each device such as the attached mobile phone ex115 is connected.

しかし、コンテンツ供給システムex100は図72のような組合せに限定されず、いずれかを組み合わせて接続するようにしてもよい。また、固定無線局である基地局ex107〜ex110を介さずに、各機器が電話網ex104に直接接続されてもよい。
カメラex113はデジタルビデオカメラ等の動画撮影が可能な機器である。また、携帯電話は、PDC(Personal Digital Communications)方式、CDMA(Code Division
Multiple Access)方式、W−CDMA(Wideband-Code Division Multiple Access)方式、若しくはGSM(Global System for Mobile Communications)方式の携帯電話機、またはPHS(Personal Handyphone System)等であり、いずれでも構わない。
However, the content supply system ex100 is not limited to the combination shown in FIG. 72, and any combination may be connected. Also, each device may be directly connected to the telephone network ex104 without going through the base stations ex107 to ex110 which are fixed wireless stations.
The camera ex113 is a device capable of shooting a moving image such as a digital video camera. In addition, the mobile phone uses a PDC (Personal Digital Communications) system, a CDMA (Code Division).
A mobile phone such as a multiple access (W-CDMA) method, a W-CDMA (Wideband-Code Division Multiple Access) method, or a GSM (Global System for Mobile Communications) method, or a PHS (Personal Handyphone System) may be used.

また、ストリーミングサーバex103は、カメラex113から基地局ex109、電話網ex104を通じて接続されており、カメラex113を用いてユーザが送信する符号化処理されたデータに基づいたライブ配信等が可能になる。撮影したデータの符号化処理はカメラex113で行っても、データの送信処理をするサーバ等で行ってもよい。また、カメラex116で撮影した動画データはコンピュータex111を介してストリーミングサーバex103に送信されてもよい。カメラex116はデジタルカメラ等の静止画、動画が撮影可能な機器である。この場合、動画データの符号化はカメラex116で行ってもコンピュータex111で行ってもどちらでもよい。また、符号化処理はコンピュータex111やカメラex116が有するLSIex117において処理することになる。なお、画像符号化・復号化用のソフトウェアをコンピュータex111等で読み取り可能な記録媒体である何らかの蓄積メディア(CD−ROM、フレキシブルディスク、ハードディスクなど)に組み込んでもよい。さらに、カメラ付きの携帯電話ex115で動画データを送信してもよい。このときの動画データは携帯電話ex115が有するLSIで符号化処理されたデータである。   In addition, the streaming server ex103 is connected from the camera ex113 through the base station ex109 and the telephone network ex104, and live distribution or the like based on the encoded data transmitted by the user using the camera ex113 becomes possible. The encoded processing of the captured data may be performed by the camera ex113, or may be performed by a server or the like that performs data transmission processing. The moving image data shot by the camera ex116 may be transmitted to the streaming server ex103 via the computer ex111. The camera ex116 is a device such as a digital camera that can shoot still images and moving images. In this case, the moving image data may be encoded by the camera ex116 or the computer ex111. The encoding process is performed in the LSI ex117 included in the computer ex111 and the camera ex116. Note that image encoding / decoding software may be incorporated into any storage medium (CD-ROM, flexible disk, hard disk, or the like) that is a recording medium readable by the computer ex111 or the like. Furthermore, you may transmit moving image data with the mobile phone ex115 with a camera. The moving image data at this time is data encoded by the LSI included in the mobile phone ex115.

このコンテンツ供給システムex100では、ユーザがカメラex113、カメラex116等で撮影しているコンテンツ(例えば、音楽ライブを撮影した映像等)を符号化処理してストリーミングサーバex103に送信する一方で、ストリーミングサーバex103は要求のあったクライアントに対して上記コンテンツデータをストリーム配信する。クライアントとしては、符号化処理されたデータを復号化することが可能な、コンピュータex111、PDAex112、カメラex113、携帯電話ex114等がある。このようにすることでコンテンツ供給システムex100は、符号化されたデータをクライアントにおいて受信して再生することができ、さらにクライアントにおいてリアルタイムで受信して復号化し、再生することにより、個人放送をも実現可能になるシステムである。   In the content supply system ex100, the content (for example, a video image of music live) captured by the user with the camera ex113, the camera ex116, and the like is encoded and transmitted to the streaming server ex103, while the streaming server ex103. Distributes the content data to the requested client. Examples of the client include a computer ex111, a PDA ex112, a camera ex113, and a mobile phone ex114 that can decode the encoded data. In this way, the content supply system ex100 can receive and play back the encoded data at the client, and can also receive a private broadcast by receiving, decoding, and playing back at the client in real time. It is a system that becomes possible.

コンテンツの表示に際して、上記実施形態で説明した視覚処理装置、視覚処理方法、視覚処理プログラムを用いても良い。例えば、コンピュータex111、PDAex112、カメラex113、携帯電話ex114等は、上記実施形態で示した視覚処理装置を備え、視覚処理方法、視覚処理プログラムを実現するものであっても良い。   When displaying content, the visual processing device, visual processing method, and visual processing program described in the above embodiment may be used. For example, the computer ex111, the PDA ex112, the camera ex113, the mobile phone ex114, and the like may be provided with the visual processing device described in the above embodiment and realize a visual processing method and a visual processing program.

また、ストリーミングサーバex103は、視覚処理装置に対して、インターネットex101を介してプロファイルデータを提供するものであっても良い。さらに、ストリーミングサーバex103は、複数台存在し、それぞれ異なるプロファイルデータを提供するものであっても良い。さらに、ストリーミングサーバex103は、プロファイルの作成を行うものであっても良い。このように、インターネットex101を介して、視覚処理装置がプロファイルデータを取得できる場合、視覚処理装置は、あらかじめ視覚処理に用いるプロファイルデータを記憶しておく必要が無く、視覚処理装置の記憶容量を削減することも可能となる。また、インターネットex101介して接続される複数のサーバからプロファイルデータを取得できるため、異なる視覚処理を実現することが可能となる。   Further, the streaming server ex103 may provide profile data to the visual processing device via the Internet ex101. Further, there may be a plurality of streaming servers ex103 that provide different profile data. Further, the streaming server ex103 may create a profile. In this way, when the visual processing device can acquire profile data via the Internet ex101, the visual processing device does not need to store profile data used for visual processing in advance, and the storage capacity of the visual processing device is reduced. It is also possible to do. Moreover, since profile data can be acquired from a plurality of servers connected via the Internet ex101, different visual processing can be realized.

一例として携帯電話について説明する。
図73は、上記実施形態の視覚処理装置を備えた携帯電話ex115を示す図である。携帯電話ex115は、基地局ex110との間で電波を送受信するためのアンテナex201、CCDカメラ等の映像、静止画を撮ることが可能なカメラ部ex203、カメラ部ex203で撮影した映像、アンテナex201で受信した映像等が復号化されたデータを表示する液晶ディスプレイ等の表示部ex202、操作キーex204群から構成される本体部、音声出力をするためのスピーカ等の音声出力部ex208、音声入力をするためのマイク等の音声入力部ex205、撮影した動画もしくは静止画のデータ、受信したメールのデータ、動画のデータもしくは静止画のデータ等、符号化されたデータまたは復号化されたデータを保存するための記録メディアex207、携帯電話ex115に記録メディアex207を装着可能とするためのスロット部ex206を有している。記録メディアex207はSDカード等のプラスチックケース内に電気的に書換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable and Programmable Read Only Memory)の一種であるフラッシュメモリ素子を格納したものである。
A mobile phone will be described as an example.
FIG. 73 is a diagram illustrating a mobile phone ex115 including the visual processing device according to the embodiment. The mobile phone ex115 includes an antenna ex201 for transmitting and receiving radio waves to and from the base station ex110, a video from a CCD camera, a camera unit ex203 capable of taking a still image, a video shot by the camera unit ex203, and an antenna ex201. A display unit ex202 such as a liquid crystal display that displays data obtained by decoding received video and the like, a main body unit composed of a group of operation keys ex204, an audio output unit ex208 such as a speaker for audio output, and audio input To store encoded data or decoded data such as a voice input unit ex205 such as a microphone, captured video or still image data, received mail data, video data or still image data, etc. Recording media ex207 and mobile phone ex115 with recording media ex207 And a slot portion ex206 to ability. The recording medium ex207 stores a flash memory element, which is a kind of EEPROM (Electrically Erasable and Programmable Read Only Memory), which is a nonvolatile memory that can be electrically rewritten and erased, in a plastic case such as an SD card.

さらに、携帯電話ex115について図74を用いて説明する。携帯電話ex115は表示部ex202および操作キーex204を備えた本体部の各部を統括的に制御するようになされた主制御部ex311に対して、電源回路部ex310、操作入力制御部ex304、画像符号化部ex312、カメラインターフェース部ex303、LCD(Liquid Crystal Display)制御部ex302、画像復号化部ex309、多重分離部ex308、記録再生部ex307、変復調回路部ex306および音声処理部ex305が同期バスex313を介して互いに接続されている。   Further, the cellular phone ex115 will be described with reference to FIG. The mobile phone ex115 controls the main control unit ex311 which controls the respective units of the main body unit including the display unit ex202 and the operation key ex204. The power supply circuit unit ex310, the operation input control unit ex304, and the image encoding Unit ex 312, camera interface unit ex 303, LCD (Liquid Crystal Display) control unit ex 302, image decoding unit ex 309, demultiplexing unit ex 308, recording / reproducing unit ex 307, modulation / demodulation circuit unit ex 306, and audio processing unit ex 305 via the synchronization bus ex 313. Are connected to each other.

電源回路部ex310は、ユーザの操作により終話および電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することによりカメラ付ディジタル携帯電話ex115を動作可能な状態に起動する。
携帯電話ex115は、CPU、ROMおよびRAM等でなる主制御部ex311の制御に基づいて、音声通話モード時に音声入力部ex205で集音した音声信号を音声処理部ex305によってディジタル音声データに変換し、これを変復調回路部ex306でスペクトラム拡散処理し、送受信回路部ex301でディジタルアナログ変換処理および周波数変換処理を施した後にアンテナex201を介して送信する。また携帯電話ex115は、音声通話モード時にアンテナex201で受信した受信信号を増幅して周波数変換処理およびアナログディジタル変換処理を施し、変復調回路部ex306でスペクトラム逆拡散処理し、音声処理部ex305によってアナログ音声信号に変換した後、これを音声出力部ex208を介して出力する。
When the end of call and the power key are turned on by a user operation, the power supply circuit ex310 starts up the camera-equipped digital mobile phone ex115 in an operable state by supplying power from the battery pack to each unit. .
The cellular phone ex115 converts the voice signal collected by the voice input unit ex205 in the voice call mode into digital voice data by the voice processing unit ex305 based on the control of the main control unit ex311 including a CPU, a ROM, a RAM, and the like. The modulation / demodulation circuit unit ex306 performs spread spectrum processing, the transmission / reception circuit unit ex301 performs digital analog conversion processing and frequency conversion processing, and then transmits the result via the antenna ex201. In addition, the cellular phone ex115 amplifies the received signal received by the antenna ex201 in the voice call mode, performs frequency conversion processing and analog-digital conversion processing, performs spectrum despreading processing by the modulation / demodulation circuit unit ex306, and analog audio by the voice processing unit ex305. After conversion into a signal, this is output via the audio output unit ex208.

さらに、データ通信モード時に電子メールを送信する場合、本体部の操作キーex204の操作によって入力された電子メールのテキストデータは操作入力制御部ex304を介して主制御部ex311に送出される。主制御部ex311は、テキストデータを変復調回路部ex306でスペクトラム拡散処理し、送受信回路部ex301でディジタルアナログ変換処理および周波数変換処理を施した後にアンテナex201を介して基地局ex110へ送信する。   Further, when an e-mail is transmitted in the data communication mode, text data of the e-mail input by operating the operation key ex204 of the main body is sent to the main control unit ex311 via the operation input control unit ex304. The main control unit ex311 performs spread spectrum processing on the text data in the modulation / demodulation circuit unit ex306, performs digital analog conversion processing and frequency conversion processing in the transmission / reception circuit unit ex301, and then transmits the text data to the base station ex110 via the antenna ex201.

データ通信モード時に画像データを送信する場合、カメラ部ex203で撮像された画像データをカメラインターフェース部ex303を介して画像符号化部ex312に供給する。また、画像データを送信しない場合には、カメラ部ex203で撮像した画像データをカメラインターフェース部ex303およびLCD制御部ex302を介して表示部ex202に直接表示することも可能である。   When transmitting image data in the data communication mode, the image data captured by the camera unit ex203 is supplied to the image encoding unit ex312 via the camera interface unit ex303. When image data is not transmitted, the image data captured by the camera unit ex203 can be directly displayed on the display unit ex202 via the camera interface unit ex303 and the LCD control unit ex302.

画像符号化部ex312は、カメラ部ex203から供給された画像データを圧縮符号化することにより符号化画像データに変換し、これを多重分離部ex308に送出する。
また、このとき同時に携帯電話ex115は、カメラ部ex203で撮像中に音声入力部ex205で集音した音声を音声処理部ex305を介してディジタルの音声データとして多重分離部ex308に送出する。
The image encoding unit ex312 converts the image data supplied from the camera unit ex203 into encoded image data by compression encoding, and sends this to the demultiplexing unit ex308.
At the same time, the cellular phone ex115 sends the sound collected by the voice input unit ex205 during imaging by the camera unit ex203 to the demultiplexing unit ex308 via the voice processing unit ex305 as digital voice data.

多重分離部ex308は、画像符号化部ex312から供給された符号化画像データと音声処理部ex305から供給された音声データとを所定の方式で多重化し、その結果得られる多重化データを変復調回路部ex306でスペクトラム拡散処理し、送受信回路部ex301でディジタルアナログ変換処理および周波数変換処理を施した後にアンテナex201を介して送信する。   The demultiplexing unit ex308 multiplexes the encoded image data supplied from the image encoding unit ex312 and the audio data supplied from the audio processing unit ex305 by a predetermined method, and the multiplexed data obtained as a result is a modulation / demodulation circuit unit Spread spectrum processing is performed in ex306, digital analog conversion processing and frequency conversion processing are performed in the transmission / reception circuit unit ex301, and then transmitted through the antenna ex201.

データ通信モード時にホームページ等にリンクされた動画像ファイルのデータを受信する場合、アンテナex201を介して基地局ex110から受信した受信信号を変復調回路部ex306でスペクトラム逆拡散処理し、その結果得られる多重化データを多重分離部ex308に送出する。   When receiving data of a moving image file linked to a homepage or the like in the data communication mode, the received signal received from the base station ex110 via the antenna ex201 is subjected to spectrum despreading processing by the modulation / demodulation circuit unit ex306, and the resulting multiplexing is obtained. Data is sent to the demultiplexing unit ex308.

また、アンテナex201を介して受信された多重化データを復号化するには、多重分離部ex308は、多重化データを分離することにより画像データの符号化ビットストリームと音声データの符号化ビットストリームとに分け、同期バスex313を介して当該符号化画像データを画像復号化部ex309に供給すると共に当該音声データを音声処理部ex305に供給する。   In addition, in order to decode the multiplexed data received via the antenna ex201, the demultiplexing unit ex308 separates the multiplexed data to generate an encoded bitstream of image data and an encoded bitstream of audio data. The encoded image data is supplied to the image decoding unit ex309 via the synchronization bus ex313, and the audio data is supplied to the audio processing unit ex305.

次に、画像復号化部ex309は、画像データの符号化ビットストリームを復号することにより再生動画像データを生成し、これをLCD制御部ex302を介して表示部ex202に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含まれる動画データが表示される。このとき同時に音声処理部ex305は、音声データをアナログ音声信号に変換した後、これを音声出力部ex208に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含まる音声データが再生される。   Next, the image decoding unit ex309 generates reproduction moving image data by decoding the encoded bit stream of the image data, and supplies this to the display unit ex202 via the LCD control unit ex302. The moving image data included in the moving image file linked to the home page is displayed. At the same time, the audio processing unit ex305 converts the audio data into an analog audio signal, and then supplies the analog audio signal to the audio output unit ex208. Thus, for example, the audio data included in the moving image file linked to the home page is reproduced. The

以上の構成において、画像復号化部ex309は、上記実施形態の視覚処理装置を備えていても良い。
なお、上記システムの例に限られず、最近は衛星、地上波によるディジタル放送が話題となっており、図75に示すようにディジタル放送用システムにも上記実施形態で説明した視覚処理装置、視覚処理方法、視覚処理プログラムを組み込むことができる。具体的には、放送局ex409では映像情報の符号化ビットストリームが電波を介して通信または放送衛星ex410に伝送される。これを受けた放送衛星ex410は、放送用の電波を発信し、この電波を衛星放送受信設備をもつ家庭のアンテナex406で受信し、テレビ(受信機)ex401またはセットトップボックス(STB)ex407などの装置により符号化ビットストリームを復号化してこれを再生する。ここで、テレビ(受信機)ex401またはセットトップボックス(STB)ex407などの装置が上記実施形態で説明した視覚処理装置を備えていてもよい。また、上記実施形態の視覚処理方法を用いるものであってもよい。さらに、視覚処理プログラムを備えていてもよい。また、記録媒体であるCDやDVD等の蓄積メディアex402に記録した符号化ビットストリームを読み取り、復号化する再生装置ex403にも上記実施形態で説明した視覚処理装置、視覚処理方法、視覚処理プログラムを実装することが可能である。この場合、再生された映像信号はモニタex404に表示される。また、ケーブルテレビ用のケーブルex405または衛星/地上波放送のアンテナex406に接続されたセットトップボックスex407内に上記実施形態で説明した視覚処理装置、視覚処理方法、視覚処理プログラムを実装し、これをテレビのモニタex408で再生する構成も考えられる。このときセットトップボックスではなく、テレビ内に上記実施形態で説明した視覚処理装置を組み込んでも良い。また、アンテナex411を有する車ex412で衛星ex410からまたは基地局ex107等から信号を受信し、車ex412が有するカーナビゲーションex413等の表示装置に動画を再生することも可能である。
In the above configuration, the image decoding unit ex309 may include the visual processing device of the above embodiment.
It should be noted that the present invention is not limited to the above-described system, and recently, digital broadcasting using satellites and terrestrial waves has become a hot topic. As shown in FIG. Methods and visual processing programs can be incorporated. Specifically, in the broadcasting station ex409, a coded bit stream of video information is transmitted to a communication or broadcasting satellite ex410 via radio waves. Receiving this, the broadcasting satellite ex410 transmits a radio wave for broadcasting, and receives the radio wave with a home antenna ex406 having a satellite broadcasting receiving facility, such as a television (receiver) ex401 or a set top box (STB) ex407. The device decodes the encoded bit stream and reproduces it. Here, a device such as the television (receiver) ex401 or the set-top box (STB) ex407 may include the visual processing device described in the above embodiment. Moreover, you may use the visual processing method of the said embodiment. Furthermore, a visual processing program may be provided. In addition, the visual processing device, the visual processing method, and the visual processing program described in the above embodiment are also applied to the playback device ex403 that reads and decodes the encoded bitstream recorded on the storage medium ex402 such as a CD or DVD as a recording medium. It is possible to implement. In this case, the reproduced video signal is displayed on the monitor ex404. In addition, the visual processing device, the visual processing method, and the visual processing program described in the above embodiment are mounted in a set-top box ex407 connected to a cable ex405 for cable television or an antenna ex406 for satellite / terrestrial broadcasting. A configuration of reproducing on a television monitor ex408 is also conceivable. At this time, the visual processing device described in the above embodiment may be incorporated in the television instead of the set top box. It is also possible to receive a signal from the satellite ex410 or the base station ex107 by the car ex412 having the antenna ex411 and reproduce the moving image on a display device such as the car navigation ex413 that the car ex412 has.

更に、画像信号を符号化し、記録媒体に記録することもできる。具体例としては、DVDディスクex421に画像信号を記録するDVDレコーダや、ハードディスクに記録するディスクレコーダなどのレコーダex420がある。更にSDカードex422に記録することもできる。レコーダex420が上記実施形態の復号化装置を備えていれば、DVDディスクex421やSDカードex422に記録した画像信号を補間して再生し、モニタex408に表示することができる。   Furthermore, an image signal can be encoded and recorded on a recording medium. Specific examples include a recorder ex420 such as a DVD recorder that records image signals on a DVD disk ex421 and a disk recorder that records images on a hard disk. Further, it can be recorded on the SD card ex422. If the recorder ex420 includes the decoding device of the above embodiment, the image signal recorded on the DVD disc ex421 or the SD card ex422 can be interpolated and reproduced and displayed on the monitor ex408.

なお、カーナビゲーションex413の構成は例えば図74に示す構成のうち、カメラ部ex203とカメラインターフェース部ex303、画像符号化部ex312を除いた構成が考えられ、同様なことがコンピュータex111やテレビ(受信機)ex401等でも考えられる。   For example, the configuration of the car navigation ex413 in FIG. 74 except for the camera unit ex203, the camera interface unit ex303, and the image encoding unit ex312 is conceivable. The same applies to the computer ex111 and the television (receiver). ) Ex401 can also be considered.

また、上記携帯電話ex114等の端末は、符号化器・復号化器を両方持つ送受信型の端末の他に、符号化器のみの送信端末、復号化器のみの受信端末の3通りの実装形式が考えられる。
このように、上記実施形態で説明した視覚処理装置、視覚処理方法、視覚処理プログラムを上述したいずれの機器・システムに用いることは可能であり、上記実施形態で説明した効果を得ることができる。
In addition to the transmission / reception type terminal having both the encoder and the decoder, the terminal such as the mobile phone ex114 has three mounting formats, that is, a transmitting terminal having only an encoder and a receiving terminal having only a decoder. Can be considered.
As described above, the visual processing device, the visual processing method, and the visual processing program described in the above embodiment can be used in any of the devices and systems described above, and the effects described in the above embodiment can be obtained.

[第10実施形態]
図76〜図94を用いて、本発明の第10実施形態としての表示装置720について説明する。
図76に示す表示装置720は、PDP、LCD、CRT、プロジェクタなど、画像を表示する表示装置である。表示装置720は、上記実施形態で説明した視覚処理装置を含む画像処理装置723を有する点、自動あるいは手動により視覚処理に用いるプロファイルデータを切り替えることできる点に特徴を有している。なお、表示装置720は、独立した装置であってもよいが、携帯電話機、PDA、PCなどの携帯情報端末に備えられている装置であってもよい。
[Tenth embodiment]
A display device 720 as a tenth embodiment of the present invention will be described with reference to FIGS. 76 to 94.
A display device 720 illustrated in FIG. 76 is a display device that displays an image, such as a PDP, an LCD, a CRT, or a projector. The display device 720 is characterized in that it has an image processing device 723 including the visual processing device described in the above embodiment, and that profile data used for visual processing can be switched automatically or manually. The display device 720 may be an independent device, but may be a device provided in a portable information terminal such as a mobile phone, a PDA, or a PC.

〈表示装置720〉
表示装置720は、表示部721、駆動制御部722、画像処理装置723、CPU724、入力部725、チューナ726、アンテナ727、コーデック728、メモリコントローラ729、メモリ730、外部インタフェース(I/F)731、外部装置740を備えている。
<Display device 720>
The display device 720 includes a display unit 721, a drive control unit 722, an image processing device 723, a CPU 724, an input unit 725, a tuner 726, an antenna 727, a codec 728, a memory controller 729, a memory 730, an external interface (I / F) 731, An external device 740 is provided.

表示部721は、駆動制御部722から読み出された画像情報d360を表示する表示デバイスである。駆動制御部722は、画像処理装置723から出力された出力画像信号d361をCPU724からの制御により表示部721に読み出すとともに、表示部721を駆動するための装置である。より具体的には、駆動制御部722は、CPU724からの制御により、出力画像信号d361の値に応じた電圧値を表示部721に与え画像を表示させる。   The display unit 721 is a display device that displays the image information d360 read from the drive control unit 722. The drive control unit 722 is a device for reading the output image signal d361 output from the image processing device 723 to the display unit 721 under the control of the CPU 724 and driving the display unit 721. More specifically, the drive control unit 722 gives a voltage value corresponding to the value of the output image signal d361 to the display unit 721 to display an image under the control of the CPU 724.

画像処理装置723は、CPU724からの制御を受け、入力画像信号d362に含まれる入力画像データd372(図77参照)の画像処理を行い、出力画像データd371(図77参照)を含む出力画像信号d361を出力する装置である。画像処理装置723は、上記実施形態で説明した視覚処理装置を含み、プロファイルデータを用いて画像処理を行う点に特徴を有している。詳細については、後述する。   Under the control of the CPU 724, the image processing device 723 performs image processing on the input image data d372 (see FIG. 77) included in the input image signal d362, and an output image signal d361 including the output image data d371 (see FIG. 77). Is a device that outputs. The image processing device 723 includes the visual processing device described in the above embodiment, and is characterized in that image processing is performed using profile data. Details will be described later.

CPU724は、表示装置720の各部のデータ処理に関する演算を行うとともに、各部の制御を行うための装置である。入力部725は、表示装置720への操作をユーザに行わせるためのユーザインタフェースであり、各部の制御をするためのキー、つまみ、リモコンなどで構成される。   The CPU 724 is a device for performing calculations related to data processing of each unit of the display device 720 and controlling each unit. The input unit 725 is a user interface for causing the user to perform an operation on the display device 720, and includes a key, a knob, a remote controller, and the like for controlling each unit.

チューナ726は、無線あるいは有線を介して受信した信号を復調し、デジタルデータとして出力する。詳しくは、チューナ726は、アンテナ727あるいはケーブル(図示せず)を介して、地上波(デジタル/アナログ)放送、BS(デジタル/アナログ)・CS放送などを受信する。コーデック728は、チューナ726により復調されたデジタルデータの復号化を行い、画像処理装置723に入力される入力画像信号d362を出力する。   The tuner 726 demodulates a signal received via wireless or wired and outputs it as digital data. Specifically, the tuner 726 receives terrestrial (digital / analog) broadcast, BS (digital / analog) / CS broadcast, and the like via an antenna 727 or a cable (not shown). The codec 728 decodes the digital data demodulated by the tuner 726 and outputs an input image signal d362 input to the image processing device 723.

メモリコントローラ729は、DRAMなどで構成されるCPUの作業用メモリ730のアドレスやアクセスタイミングなどの制御を行う。
外部I/F731は、メモリカード733、PC735などの外部装置740から画像データや、プロファイル情報などを取得し、入力画像信号d362として出力するためのインタフェースである。プロファイル情報とは、画像処理を行うためのプロファイルデータに関する情報である。詳しくは、後述する。外部I/F731は、例えば、メモリカードI/F732、PCI/F734、ネットワークI/F736、無線I/F737などにより構成される。なお、外部I/F731は、ここに例示したものの全てを備えている必要は無い。
The memory controller 729 controls the address and access timing of the work memory 730 of the CPU constituted by a DRAM or the like.
The external I / F 731 is an interface for acquiring image data, profile information, and the like from an external device 740 such as a memory card 733 and a PC 735 and outputting it as an input image signal d362. Profile information is information relating to profile data for performing image processing. Details will be described later. The external I / F 731 includes, for example, a memory card I / F 732, a PCI / F 734, a network I / F 736, a wireless I / F 737, and the like. Note that the external I / F 731 does not have to include all of those exemplified here.

メモリカードI/F732は、画像データやプロファイル情報などを記録したメモリカード733と表示装置720とを接続するためのインタフェースである。PCI/F734は、画像データやプロファイル情報などを記録したパーソナルコンピュータなどの外部機器であるPC735と表示装置720とを接続するためのインタフェースである。ネットワークI/F736は、表示装置720をネットワークに接続し、画像データやプロファイル情報などを取得するためのインタフェースである。無線I/F737は、表示装置720を無線LANなどを介して外部機器と接続し、画像データやプロファイル情報などを取得するためのインタフェースである。なお、外部I/F731は、図示したものに限られず、例えば、USB、光ファイバーなどと表示装置720とを接続するためのインタフェースであってもよい。   The memory card I / F 732 is an interface for connecting a memory card 733 that records image data, profile information, and the like to the display device 720. The PCI / F 734 is an interface for connecting a display device 720 to a PC 735 that is an external device such as a personal computer that records image data, profile information, and the like. A network I / F 736 is an interface for connecting the display device 720 to a network and acquiring image data, profile information, and the like. The wireless I / F 737 is an interface for connecting the display device 720 to an external device via a wireless LAN or the like and acquiring image data, profile information, and the like. The external I / F 731 is not limited to the illustrated one, and may be an interface for connecting the display device 720 to a USB, an optical fiber, or the like.

外部I/F731を介して取得された画像データやプロファイル情報は、必要によりコーデック728により復号化された後、入力画像信号d362として画像処理装置723に入力される。
〈画像処理装置723〉
(1)画像処理装置723の構成
図77を用いて、画像処理装置723の構成について説明する。画像処理装置723は、入力画像信号d362に含まれる入力画像データd372に対して視覚処理および色処理を行い、出力画像データd371を含む出力画像信号d361を出力する装置である。ここで、入力画像データd372および出力画像データd371は、RGB成分を有する画像データであり、入力画像データd372は、(IR,IG,IB)をRGB色空間の成分とし、出力画像データd371は、(OtR,OtG,OtB)をRGB色空間の成分とする。
Image data and profile information acquired via the external I / F 731 are decoded by the codec 728 if necessary, and then input to the image processing device 723 as an input image signal d362.
<Image processing device 723>
(1) Configuration of Image Processing Device 723 The configuration of the image processing device 723 will be described with reference to FIG. The image processing device 723 is a device that performs visual processing and color processing on the input image data d372 included in the input image signal d362, and outputs an output image signal d361 including the output image data d371. Here, the input image data d372 and the output image data d371 are image data having RGB components. The input image data d372 has (IR, IG, IB) as components in the RGB color space, and the output image data d371 Let (OtR, OtG, OtB) be a component of the RGB color space.

画像処理装置723は、入力画像データd372に対してカラー視覚処理を行うカラー視覚処理装置745と、カラー視覚処理装置745の出力であるカラー視覚処理信号d373に対して色処理を行う色処理装置746と、カラー視覚処理および色処理に用いられるプロファイルデータを特定するためのプロファイル情報SSI,SCIを出力するプロファイル情報出力部747とを備えている。ここで、カラー視覚処理信号d373は、RGB成分を有する画像データであり、(OR,OG,OB)をRGB色空間の成分とする。   The image processing device 723 performs a color visual processing device 745 that performs color visual processing on the input image data d372, and a color processing device 746 that performs color processing on a color visual processing signal d373 that is an output of the color visual processing device 745. And a profile information output unit 747 for outputting profile information SSI and SCI for specifying profile data used for color visual processing and color processing. Here, the color visual processing signal d373 is image data having RGB components, and (OR, OG, OB) is a component of the RGB color space.

以下、プロファイル情報出力部747、カラー視覚処理装置745、色処理装置746
の順に詳しい構成を説明する。
(2)プロファイル情報出力部747とプロファイル情報SSI,SCI
《2−1》プロファイル情報出力部747の概要
図78を用いて、プロファイル情報SSI,SCIを出力するプロファイル情報出力部747について説明する。
Hereinafter, the profile information output unit 747, the color visual processing device 745, and the color processing device 746 are displayed.
Detailed configuration will be described in the order of.
(2) Profile information output unit 747 and profile information SSI, SCI
<< 2-1 >> Outline of Profile Information Output Unit 747 The profile information output unit 747 that outputs profile information SSI and SCI will be described with reference to FIG.

プロファイル情報出力部747は、カラー視覚処理装置745と色処理装置746とにプロファイル情報SSI,SCIをそれぞれ出力する装置であり(図77参照)、環境検出部749と、情報入力部748と、出力制御部750とから構成される。環境検出部749は、後述する環境情報の少なくとも一部を自動的に検出し、検出情報Sd1として出力する。情報入力部748は、検出情報Sd1を取得し、検出情報Sd1が含む環境情報以外の環境情報をユーザに入力させ、入力情報Sd2として出力する。出力制御部750は、検出情報Sd1と入力情報Sd2とを取得し、カラー視覚処理装置745と色処理装置746とにプロファイル情報SSI,SCIを出力する。   The profile information output unit 747 is a device that outputs profile information SSI and SCI to the color visual processing device 745 and the color processing device 746, respectively (see FIG. 77). The environment detection unit 749, the information input unit 748, and the output And a control unit 750. The environment detection unit 749 automatically detects at least a part of environment information to be described later and outputs it as detection information Sd1. The information input unit 748 acquires the detection information Sd1, causes the user to input environmental information other than the environmental information included in the detection information Sd1, and outputs it as input information Sd2. The output control unit 750 acquires the detection information Sd1 and the input information Sd2, and outputs profile information SSI and SCI to the color visual processing device 745 and the color processing device 746.

各部の詳細な説明を行う前に、まずプロファイル情報SSI,SCIについて説明する。
《2−1》プロファイル情報SSI,SCI
プロファイル情報SSI,SCIとは、カラー視覚処理装置745と色処理装置746とにおいて用いられるプロファイルデータを特定するための情報である。具体的には、プロファイル情報SSI,SCIは、プロファイルデータ、プロファイルデータを特定する番号などのタグ情報、プロファイルデータの処理の特徴を示すパラメータ情報、表示部721(図76参照)の表示環境あるいは表示部721に表示される画像が視覚される視環境に関する環境情報のうちの少なくとも一つを含んでいる。
Before describing each part in detail, the profile information SSI and SCI will be described first.
<< 2-1 >> Profile information SSI, SCI
The profile information SSI, SCI is information for specifying profile data used in the color visual processing device 745 and the color processing device 746. Specifically, the profile information SSI, SCI includes profile data, tag information such as a number specifying the profile data, parameter information indicating characteristics of processing of the profile data, and display environment or display of the display unit 721 (see FIG. 76). It includes at least one of environmental information related to the visual environment in which the image displayed on the unit 721 is viewed.

プロファイルデータとは、カラー視覚処理装置745または色処理装置746における画像処理に用いられるデータであり、処理される画像データに対する変換係数を格納する係数マトリクスデータや処理される画像データに対する処理後の画像データを与えるテーブルデータ(例えば、2次元LUTなど)などである。   The profile data is data used for image processing in the color visual processing device 745 or the color processing device 746, and is a coefficient matrix data for storing conversion coefficients for the processed image data or a processed image for the processed image data. Table data (for example, a two-dimensional LUT) that provides data.

タグ情報とは、プロファイルデータを他のプロファイルデータと識別するための識別情報であり、例えば、カラー視覚処理装置745と色処理装置746とに登録された複数のプロファイルデータのそれぞれに割り振られた番号などである。
パラメータ情報とは、プロファイルデータの処理の特徴を示す情報であり、例えば、プロファイルデータが実現するコントラスト強調処理、ダイナミックレンジ圧縮処理、色変変換処理などの処理度合いを数値化した情報である。
The tag information is identification information for identifying profile data from other profile data. For example, the tag information is a number assigned to each of a plurality of profile data registered in the color visual processing device 745 and the color processing device 746. Etc.
The parameter information is information indicating the characteristics of profile data processing. For example, the parameter information is information obtained by quantifying the degree of processing such as contrast enhancement processing, dynamic range compression processing, and color change conversion processing realized by the profile data.

環境情報とは、画像処理された画像データが表示され、視覚される環境に関する情報であり、例えば、表示装置720の設置場所における環境光の明るさや色温度といった環境光情報、表示部721の製品情報(例えば、製品番号など)、表示部721が表示する画像サイズ情報、表示される画像と画像を視覚するユーザとの距離に関する位置情報、ユーザの年齢・性別などユーザに関するユーザ情報などの情報である。   The environmental information is information regarding an environment in which image-processed image data is displayed and is visually recognized. For example, environmental light information such as ambient light brightness and color temperature at a place where the display device 720 is installed, and a product of the display unit 721. Information (eg, product number), image size information displayed on the display unit 721, position information regarding the distance between the displayed image and the user viewing the image, and user information regarding the user such as the user's age and sex is there.

なお、以下では、プロファイル情報SSI,SCIがタグ情報を含む場合について説明する。
《2−2》環境検出部749
環境検出部749は、センサなどを用いて環境情報の検出を行う装置である。環境検出部749は、例えば、環境光の明るさや色温度の検出を行う光センサや、表示部721に取り付けられた製品情報を無線あるいは有線を介して読み取る装置(例えば、無線タグの読み取り装置、バーコードの読み取り装置、表示装置720が備える各部の情報を管理するデータベースから情報を読み取る装置など)や、ユーザとの距離を測定する無線あるいは赤外線などのセンサや、ユーザに関する情報を取得するカメラなど、といった装置であ
る。
Hereinafter, a case where the profile information SSI, SCI includes tag information will be described.
<< 2-2 >> Environment Detection Unit 749
The environment detection unit 749 is a device that detects environmental information using a sensor or the like. The environment detection unit 749 includes, for example, an optical sensor that detects the brightness and color temperature of ambient light, and a device that reads product information attached to the display unit 721 via wireless or wired (for example, a wireless tag reader, A barcode reading device, a device that reads information from a database that manages information of each unit included in the display device 720), a wireless or infrared sensor that measures the distance to the user, a camera that acquires information about the user, and the like , And so on.

環境検出部749は、検出した情報を検出情報Sd1として、情報入力部748と出力制御部750に出力する。
《2−3》情報入力部748
情報入力部748は、ユーザが環境情報を入力するための入力装置であり、入力された環境情報を入力情報Sd2として出力する。情報入力部748は、例えば、スイッチおよびスイッチからの入力を感知する回路などで構成されていてもよいし、表示部721あるいは情報入力部748自体に表示された入力用のユーザインタフェースを操作するソフトで構成されてもよい。また、情報入力部748は、表示装置720に内蔵されているものであってもよいし、ネットワークなどを介して情報を入力する装置であってもよい。
The environment detection unit 749 outputs the detected information as detection information Sd1 to the information input unit 748 and the output control unit 750.
<< 2-3 >> Information Input Unit 748
The information input unit 748 is an input device for a user to input environment information, and outputs the input environment information as input information Sd2. The information input unit 748 may be composed of, for example, a switch and a circuit that senses an input from the switch, or software that operates an input user interface displayed on the display unit 721 or the information input unit 748 itself. It may be constituted by. The information input unit 748 may be built in the display device 720, or may be a device that inputs information via a network or the like.

情報入力部748では、検出情報Sd1に含まれる環境情報以外の環境情報が入力される。例えば、情報入力部748では、検出情報Sd1に含まれる環境情報に応じて、ユーザが入力可能な環境情報が制御される。
なお、情報入力部748は、検出情報Sd1に関わらず全ての環境情報を入力させるものであってもよい。この場合には、情報入力部748は、検出情報Sd1を取得しないものであってもよいし、検出情報Sd1を取得しつつユーザがさらに詳細な情報を入力することができるものであってもよい。
In the information input unit 748, environment information other than the environment information included in the detection information Sd1 is input. For example, the information input unit 748 controls environment information that can be input by the user in accordance with the environment information included in the detection information Sd1.
Note that the information input unit 748 may input all environment information regardless of the detection information Sd1. In this case, the information input unit 748 may not acquire the detection information Sd1, or may allow the user to input more detailed information while acquiring the detection information Sd1. .

《2−4》出力制御部750
出力制御部750は、検出情報Sd1と入力情報Sd2とを取得し、プロファイル情報SSI,SCIを出力する。具体的には、出力制御部750は、検出情報Sd1と入力情報Sd2とから取得される環境情報に応じて好適なプロファイルデータを選択し、そのタグ情報を出力する。より具体的には、出力制御部750は、選択されるプロファイルデータの候補と環境情報のそれぞれの値とを関連づけるデータベースを参照することにより、取得された環境情報に対して好適なプロファイルデータを選択する。
<< 2-4 >> Output Control Unit 750
The output control unit 750 acquires the detection information Sd1 and the input information Sd2, and outputs profile information SSI and SCI. Specifically, the output control unit 750 selects suitable profile data according to the environmental information acquired from the detection information Sd1 and the input information Sd2, and outputs the tag information. More specifically, the output control unit 750 selects profile data suitable for the acquired environment information by referring to a database that associates the selected candidate profile data with each value of the environment information. To do.

環境情報とプロファイルデータとの関連づけについてさらに説明する。
例えば、表示装置720の環境光の明度が高い場合、局所的なコントラストを強調する視覚処理を行うことが望ましい。このため、出力制御部750では、より局所的なコントラストを強調するプロファイルデータのタグ情報を出力する。
The association between environmental information and profile data will be further described.
For example, when the brightness of the ambient light of the display device 720 is high, it is desirable to perform visual processing that enhances local contrast. For this reason, the output control unit 750 outputs tag information of profile data that emphasizes more local contrast.

また、例えば、ユーザと表示装置720との距離が遠い場合、表示部721に表示される画像の視角が小さくなり、画像が小さく見えることとなる。視角の大きさが異なると、画像の明るさが異なって感じられる。このため、出力制御部750では、視角の大きさに基づいて、階調、コントラストを変化させるようなプロファイルデータのタグ情報を出力する。なお、表示装置720の表示部721の大きさの違いもこの視角の大きさに影響を与える要因となる。   For example, when the distance between the user and the display device 720 is long, the viewing angle of the image displayed on the display unit 721 becomes small, and the image looks small. When the size of the viewing angle is different, the brightness of the image is felt differently. For this reason, the output control unit 750 outputs tag information of profile data that changes the gradation and contrast based on the size of the viewing angle. Note that the difference in the size of the display unit 721 of the display device 720 is also a factor that affects the size of the viewing angle.

さらに、出力制御部750の動作の一例を記載する。
人間の視覚では、表示される画像サイズが大きくなるとより明るく感じる傾向があり、暗部領域改善を抑えた方が好ましく感じることがある。この点を考慮して、例えば、取得される環境情報により表示部721が表示する画像サイズが大きいと判断された場合には、カラー視覚処理装置745に対しては、画像全域での暗部領域改善を抑え、かつ、局所的なコントラスト改善を強める、ような処理を行うプロファイルデータのタグ情報がプロファイル情報SSIとして出力される。さらに、色処理装置746に対しては、プロファイル情報SSIと他の環境情報とに応じた色処理を行うプロファイルデータのタグ情報がプロファイル情報SCIとして出力される。ここで、「プロファイル情報SSIと他の環境情報とに応じた色処理」とは、例えば、プロファイル情報SSIにより指定されたプロファイルデータで視覚処理された画像が、環境光の影響下で適切に色再現されるような色
処理などである。
Furthermore, an example of the operation of the output control unit 750 will be described.
In human vision, there is a tendency to feel brighter as the displayed image size increases, and it may be preferable to suppress improvement in the dark area. Considering this point, for example, when it is determined that the image size displayed by the display unit 721 is large according to the acquired environment information, the dark visual region improvement in the entire image is performed for the color visual processing device 745. The tag information of the profile data for performing processing that suppresses the image and enhances the local contrast improvement is output as the profile information SSI. Further, tag information of profile data for performing color processing according to the profile information SSI and other environment information is output to the color processing device 746 as profile information SCI. Here, “color processing according to profile information SSI and other environment information” means, for example, that an image visually processed with profile data specified by profile information SSI is appropriately colored under the influence of ambient light. Color processing that can be reproduced.

なお、出力制御部750では、検出情報Sd1と入力情報Sd2とにより重複して環境情報が取得された場合に、検出情報Sd1と入力情報Sd2とのいずれかを優先して用いることとしてもよい。
(3)カラー視覚処理装置745
《3−1》カラー視覚処理装置745の構成
図79を用いて、カラー視覚処理装置745の構成について説明する。カラー視覚処理装置745は、上記実施形態で説明した視覚処理を実行可能な視覚処理装置753を備え、入力画像データd372の輝度成分に対して視覚処理を行う点、色制御部752を備え、輝度成分に対して行われた視覚処理を色成分にまで拡張する点、において特徴を有している。
Note that the output control unit 750 may preferentially use either the detection information Sd1 or the input information Sd2 when the environment information is acquired by the detection information Sd1 and the input information Sd2.
(3) Color visual processing device 745
<3-1> Configuration of Color Visual Processing Device 745 The configuration of the color visual processing device 745 will be described with reference to FIG. The color visual processing device 745 includes a visual processing device 753 capable of executing the visual processing described in the above embodiment, includes a color control unit 752 that performs visual processing on the luminance component of the input image data d372, and has a luminance. It is characterized in that the visual processing performed on the component is extended to the color component.

カラー視覚処理装置745は、第1色空間変換部751と、視覚処理装置753と、色制御部752と、第2色空間変換部754とを備えている。
第1色空間変換部751は、RGB色空間の入力画像データd372を、輝度成分と色成分に変換する。例えば、第1色空間変換部751は、RGB色空間の入力画像データd372を、YCbCr色空間の信号に変換する。変換後の輝度成分の信号を入力信号IS、色成分の信号を色信号ICb、ICrとする。
The color visual processing device 745 includes a first color space conversion unit 751, a visual processing device 753, a color control unit 752, and a second color space conversion unit 754.
The first color space conversion unit 751 converts the input image data d372 in the RGB color space into a luminance component and a color component. For example, the first color space conversion unit 751 converts input image data d372 in the RGB color space into a signal in the YCbCr color space. The converted luminance component signal is set as the input signal IS, and the color component signals are set as the color signals ICb and ICr.

視覚処理装置753は、入力画像データd372の輝度成分である入力信号ISの視覚処理を行い、出力信号OSを出力する装置である。また、視覚処理装置753には、プロファイル情報出力部747(図77参照)からプロファイル情報SSIが入力され、入力されたプロファイル情報SSIにより特定されるプロファイルデータを用いた視覚処理が行われる。視覚処理装置753の詳細については、後述する。   The visual processing device 753 is a device that performs visual processing of the input signal IS that is a luminance component of the input image data d372 and outputs an output signal OS. The visual processing device 753 receives profile information SSI from the profile information output unit 747 (see FIG. 77), and performs visual processing using profile data specified by the input profile information SSI. Details of the visual processing device 753 will be described later.

色制御部752には、色信号ICb、ICrと、入力信号ISと、出力信号OSとが入力され、補正された色信号である補正色信号OCb、OCrが出力される。例えば、色制御部752では、入力信号ISと出力信号OSとの比を用いた補正が行われる。より具体的には、入力信号ISの信号値に対する出力信号OSの信号値の割合を色信号ICb、ICrの信号値に乗算した値を、それぞれ補正色信号OCb、OCrの値とする。   The color control unit 752 receives the color signals ICb and ICr, the input signal IS, and the output signal OS, and outputs corrected color signals OCb and OCr that are corrected color signals. For example, the color control unit 752 performs correction using the ratio between the input signal IS and the output signal OS. More specifically, values obtained by multiplying the signal values of the color signals ICb and ICr by the ratio of the signal value of the output signal OS to the signal value of the input signal IS are the values of the correction color signals OCb and OCr, respectively.

第2色空間変換部754は、YCbCr色空間の信号である出力信号OS、補正色信号OCb、OCrをRGB色空間のカラー視覚処理信号d373に変換する。
《3−2》視覚処理装置753の構成
視覚処理装置753としては、上記実施形態で説明した視覚処理装置1(図1参照)と同様の視覚処理装置が用いられる。
The second color space conversion unit 754 converts the output signal OS and the correction color signals OCb and OCr, which are signals in the YCbCr color space, into a color visual processing signal d373 in the RGB color space.
<< 3-2 >> Configuration of Visual Processing Device 753 As the visual processing device 753, a visual processing device similar to the visual processing device 1 (see FIG. 1) described in the above embodiment is used.

図80を用いて、視覚処理装置753の構成について説明する。
図80に示す視覚処理装置753は、図1に示す視覚処理装置1と同様の構成を有する視覚処理装置である。視覚処理装置1とほぼ同様の機能を果たす部分には、同じ符号を付している。図80に示す視覚処理装置753と、図1に示す視覚処理装置1との相違点は、プロファイルデータ登録装置8が、取得されたプロファイル情報SSIにより特定されるプロファイルデータを2次元LUT4に登録する点である。その他の各部の説明は、上記実施形態と同様であるため省略する。
The configuration of the visual processing device 753 will be described with reference to FIG.
A visual processing device 753 shown in FIG. 80 is a visual processing device having the same configuration as the visual processing device 1 shown in FIG. Portions that perform substantially the same functions as the visual processing device 1 are denoted by the same reference numerals. The difference between the visual processing device 753 shown in FIG. 80 and the visual processing device 1 shown in FIG. 1 is that the profile data registration device 8 registers the profile data specified by the acquired profile information SSI in the two-dimensional LUT 4. Is a point. The description of the other parts is the same as in the above embodiment, and will be omitted.

図80に示す視覚処理装置753は、2次元LUT4に登録されたプロファイルデータを用いて入力信号ISの視覚処理を行い、出力信号OSを出力する。
(4)色処理装置746
色処理装置746は、取得されたプロファイル情報SCIにより特定されるプロファイルデータを用いて、カラー視覚処理装置745の出力であるカラー視覚処理信号d373の色処理を行う。色処理装置746で用いられるプロファイルデータは、例えば、カラー
視覚処理信号d373の成分(OR,OG,OB)に対して、出力画像データd371の成分(OtR,OtG,OtB)を与える3つの3次元ルックアップテーブルや3行3列の変換係数マトリクスデータである。
The visual processing device 753 shown in FIG. 80 performs visual processing of the input signal IS using profile data registered in the two-dimensional LUT 4 and outputs an output signal OS.
(4) Color processing device 746
The color processing device 746 performs color processing of the color visual processing signal d373 that is the output of the color visual processing device 745 using the profile data specified by the acquired profile information SCI. The profile data used in the color processing device 746 is, for example, three three-dimensional values that give the components (OtR, OtG, OtB) of the output image data d371 to the components (OR, OG, OB) of the color visual processing signal d373. Look-up table and 3 × 3 conversion coefficient matrix data.

〈表示装置720の効果〉
(1)
表示装置720では、取得された環境情報に好適なプロファイルデータを用いた画像処理を行うことが可能となる。特に、自動的に検出された環境情報のみならず、ユーザが入力した環境情報にも基づいてプロファイルデータの選択が行われるため、ユーザにとってより視覚的効果の高い画像処理を行うことが可能となる。
<Effect of display device 720>
(1)
The display device 720 can perform image processing using profile data suitable for the acquired environment information. In particular, since profile data is selected not only based on automatically detected environment information but also based on environment information input by the user, it is possible to perform image processing with a higher visual effect for the user. .

プロファイルデータとしてルックアップテーブルを用いた場合には、テーブルの参照により画像処理が行われるため高速な画像処理が実現可能となる。
表示装置720では、プロファイルデータを変更することにより異なる画像処理が実現される。すなわち、ハードウェア構成を変更することなく異なる画像処理が実現される。
When a lookup table is used as profile data, image processing is performed by referring to the table, so that high-speed image processing can be realized.
In the display device 720, different image processing is realized by changing the profile data. That is, different image processing is realized without changing the hardware configuration.

プロファイルデータを用いた画像処理では、予めプロファイルデータを生成しておくことができるため、複雑な画像処理を容易に実現することが可能となる。
(2)
プロファイル情報出力部747では、カラー視覚処理装置745と色処理装置746とのそれぞれに対して、異なるプロファイル情報を出力することが可能となる。このため、カラー視覚処理装置745と色処理装置746とにおけるそれぞれの画像処理が重複した処理、あるいは効果が相殺される処理となることが防止可能となる。すなわち、画像処理装置723による画像処理を適切に行うことが可能となる。
In image processing using profile data, since profile data can be generated in advance, complicated image processing can be easily realized.
(2)
The profile information output unit 747 can output different profile information for each of the color visual processing device 745 and the color processing device 746. For this reason, it is possible to prevent the image processing in the color visual processing device 745 and the color processing device 746 from overlapping each other or processing that cancels the effect. That is, the image processing by the image processing device 723 can be appropriately performed.

〈変形例〉
(1)
上記実施形態において、入力画像データd372、出力画像データd371、カラー視覚処理信号d373は、RGB色空間の信号であると記載したが、他の色空間の信号であっても良い。例えば、それぞれの信号は、YCbCr色空間、YUV色空間、Lab色空間、Luv色空間、YIQ色空間、XYZ色空間、YPbPr色空間などで表される信号であってもよい。
<Modification>
(1)
In the embodiment described above, the input image data d372, the output image data d371, and the color visual processing signal d373 are described as signals in the RGB color space, but may be signals in other color spaces. For example, each signal may be a signal expressed in a YCbCr color space, YUV color space, Lab color space, Luv color space, YIQ color space, XYZ color space, YPbPr color space, or the like.

また、第1色空間変換部751、第2色空間変換部754において取り扱われる信号についても同様であり、実施形態に記載したものに限らない。
(2)
上記実施形態では、プロファイル情報SSI,SCIがタグ情報を含む場合について説明した。ここで、プロファイル情報SSI,SCIがその他の情報(プロファイルデータ、パラメータ情報、環境情報など)を含む場合の画像処理装置723の各部の動作について説明する。
The same applies to signals handled in the first color space conversion unit 751 and the second color space conversion unit 754, and is not limited to those described in the embodiment.
(2)
In the above embodiment, the case where the profile information SSI, SCI includes tag information has been described. Here, the operation of each unit of the image processing apparatus 723 when the profile information SSI, SCI includes other information (profile data, parameter information, environment information, etc.) will be described.

《2−1》
プロファイル情報SSI,SCIがプロファイルデータを含む場合、出力制御部750は、プロファイルデータを登録して記憶している、あるいはプロファイデータを生成可能な装置であり、取得した検出情報Sd1と入力情報Sd2とからカラー視覚処理装置745と色処理装置746とにおいて用いられるプロファイルデータを判断し、それぞれの出力する。
<< 2-1 >>
When the profile information SSI, SCI includes profile data, the output control unit 750 is a device that registers and stores profile data or can generate profile data. The acquired detection information Sd1 and input information Sd2 To determine the profile data used in the color visual processing device 745 and the color processing device 746 and output them.

カラー視覚処理装置745と色処理装置746とでは、取得したプロファイルデータを用いて画像処理を行う。例えば、視覚処理装置753(図80参照)のプロファイルデータ登録装置8は、プロファイル情報SSIに含まれるプロファイルデータを2次元LUT4に登録して視覚処理を行う。なおこの場合、視覚処理装置753は、プロファイルデー
タ登録装置8を備えていなくてもよい。
The color visual processing device 745 and the color processing device 746 perform image processing using the acquired profile data. For example, the profile data registration device 8 of the visual processing device 753 (see FIG. 80) registers the profile data included in the profile information SSI in the two-dimensional LUT 4 and performs visual processing. In this case, the visual processing device 753 may not include the profile data registration device 8.

この画像処理装置723では、プロファイルデータそのものをプロファイル情報出力部747からカラー視覚処理装置745と色処理装置746とに出力するため、用いられるプロファイルデータをより確実に特定することが可能となる。さらに、カラー視覚処理装置745と色処理装置746とにおけるプロファイルデータのための記憶容量を削減することが可能となる。   In the image processing device 723, the profile data itself is output from the profile information output unit 747 to the color visual processing device 745 and the color processing device 746, so that the profile data to be used can be specified more reliably. Furthermore, the storage capacity for profile data in the color visual processing device 745 and the color processing device 746 can be reduced.

《2−2》
プロファイル情報SSI,SCIがパラメータ情報を含む場合、出力制御部750は、検出情報Sd1と入力情報Sd2とからパラメータ情報を出力するためのデータベースなどを有している装置である。このデータベースは、環境情報の値と、その値を示す環境において好適な画像処理との関係を記憶している。
<< 2-2 >>
When the profile information SSI, SCI includes parameter information, the output control unit 750 is a device having a database for outputting parameter information from the detection information Sd1 and the input information Sd2. This database stores the relationship between the value of the environment information and image processing suitable for the environment indicating the value.

カラー視覚処理装置745と色処理装置746とでは、取得したパラメータ情報の値に近い画像処理を実現するプロファイルデータを選択し、画像処理を行う。例えば、視覚処理装置753(図80参照)のプロファイルデータ登録装置8は、プロファイル情報SSIに含まれるパラメータ情報を用いてプロファイルデータを選択し、選択したプロファイルデータを2次元LUT4に登録して視覚処理を行う。   The color visual processing device 745 and the color processing device 746 select profile data that realizes image processing close to the value of the acquired parameter information, and perform image processing. For example, the profile data registration device 8 of the visual processing device 753 (see FIG. 80) selects profile data using parameter information included in the profile information SSI, and registers the selected profile data in the two-dimensional LUT 4 for visual processing. I do.

この画像処理装置723では、プロファイル情報SSI,SCIのデータ量を削減することが可能となる。
《2−3》
プロファイル情報SSI,SCIが環境情報を含む場合、出力制御部750は、検出情報Sd1と入力情報Sd2とをプロファイル情報として出力する装置である。ここで、出力制御部750は、検出情報Sd1と入力情報Sd2とから取得した環境情報の全てをプロファイル情報SSI,SCIとして出力してもよいし、選択的にプロファイルファイル情報SSIとプロファイル情報SCIとに振り分けて出力してもよい。
In this image processing device 723, it is possible to reduce the data amount of profile information SSI and SCI.
<< 2-3 >>
When the profile information SSI, SCI includes environment information, the output control unit 750 is a device that outputs the detection information Sd1 and the input information Sd2 as profile information. Here, the output control unit 750 may output all of the environment information acquired from the detection information Sd1 and the input information Sd2 as profile information SSI and SCI, or selectively output profile file information SSI and profile information SCI. It may be sorted and output.

カラー視覚処理装置745と色処理装置746とでは、環境情報に応じて好適なプロファイルデータを選択し、画像処理を行う。例えば、視覚処理装置753(図80参照)のプロファイルデータ登録装置8は、プロファイル情報SSIに含まれる環境情報のそれぞれの値と選択されるプロファイルデータの候補とを関連づけるデータベースなどを参照することにより、取得された環境情報に対して好適なプロファイルデータを選択し、選択したプロファイルデータを2次元LUT4に登録して視覚処理を行う。   The color visual processing device 745 and the color processing device 746 select suitable profile data according to the environment information and perform image processing. For example, the profile data registration device 8 of the visual processing device 753 (see FIG. 80) refers to a database that associates each value of the environment information included in the profile information SSI with the profile data candidate to be selected. A suitable profile data is selected for the acquired environment information, and the selected profile data is registered in the two-dimensional LUT 4 for visual processing.

環境情報の全てをプロファイル情報SSI,SCIとして出力する場合には、出力制御部750における処理を削減することが可能となる。環境情報を選択的にプロファイル情報SSI,SCIとして出力する場合には、カラー視覚処理装置745と色処理装置746とにおけるそれぞれの処理を考慮することができるため、重複した効果を奏する画像処理や、相殺される効果を奏する画像処理を防止することが可能となる。さらに、カラー視覚処理装置745と色処理装置746とでは、適切に選択された環境情報のみを取得するため、より適切かつ簡易にプロファイルデータの選択を行うことが可能となる。   When all the environment information is output as profile information SSI and SCI, the processing in the output control unit 750 can be reduced. When environmental information is selectively output as profile information SSI, SCI, since each process in the color visual processing device 745 and the color processing device 746 can be taken into consideration, image processing that produces overlapping effects, It is possible to prevent image processing that has the effect of canceling out. Furthermore, since the color visual processing device 745 and the color processing device 746 acquire only appropriately selected environment information, profile data can be selected more appropriately and easily.

《2−4》
プロファイル情報SSI,SCIは、プロファイルデータ、タグ情報、パラメータ情報、環境情報の少なくとも一つを含んでいればよく、それぞれが同時に含まれていてもよい。
<< 2-4 >>
The profile information SSI, SCI only needs to include at least one of profile data, tag information, parameter information, and environment information, and may be included at the same time.

また、プロファイル情報SSIとプロファイル情報SCIとは、必ずしも異なる情報である必要は無く、同じ情報であってもよい。
(3)
視覚処理装置753は、[第1実施形態]〈変形例〉(7)で述べたプロファイルデー
タ登録装置701(図9参照)を含む装置であり、プロファイル情報SSIを用いて選択されたプロファイルデータと、プロファイル情報SSIから取得される合成度とから新たなプロファイルデータを生成することができる装置であっても良い。
Further, the profile information SSI and the profile information SCI are not necessarily different information, and may be the same information.
(3)
The visual processing device 753 is a device including the profile data registration device 701 (see FIG. 9) described in [First Embodiment] <Modification> (7), and the profile data selected using the profile information SSI The apparatus may be capable of generating new profile data from the degree of synthesis acquired from the profile information SSI.

図81を用いて、変形例としての視覚処理装置753の動作について説明を加える。
変形例としての視覚処理装置753では、プロファイルデータ登録部702に登録されたプロファイルデータのうち、プロファイル情報SSIに基づいて選択されたプロファイルデータを用いて新たなプロファイルデータが生成される。
The operation of the visual processing device 753 as a modification will be described with reference to FIG.
In the visual processing device 753 as a modified example, new profile data is generated using profile data selected based on the profile information SSI among the profile data registered in the profile data registration unit 702.

プロファイルデータ登録部702は、プロファイル情報SSIが含むタグ情報などに基づいて、プロファイルデータ761とプロファイルデータ762を選択したとする。ここで、プロファイルデータ761は、暗部改善処理を行うためのプロファイルデータであり、環境光が弱い場合などに選択されるプロファイルデータであり、プロファイルデータ762は、局所的コントラスト改善処理を行うためのプロファイルデータであり、環境光が強い場合などに選択されるプロファイルデータであるとする。   Assume that the profile data registration unit 702 selects the profile data 761 and the profile data 762 based on tag information included in the profile information SSI. Here, the profile data 761 is profile data for performing dark part improvement processing, and is profile data selected when the ambient light is weak. The profile data 762 is a profile for performing local contrast improvement processing. It is assumed that the data is profile data selected when the ambient light is strong.

プロファイル生成部704は、プロファイル情報SSIが含む環境情報のうち環境光の強さを取得し、その環境光の強さにおいて適切な画像処理を行うためのプロファイルデータをプロファイルデータ761とプロファイルデータ762とから生成する。より具体的には、環境情報が含む環境光の強さの値を用いてプロファイルデータ761とプロファイルデータ762との値を内分する。   The profile generation unit 704 acquires the intensity of ambient light from the environment information included in the profile information SSI, and sets profile data 761 and profile data 762 as profile data for performing appropriate image processing with the intensity of the ambient light. Generate from. More specifically, the values of the profile data 761 and the profile data 762 are internally divided using the value of the intensity of ambient light included in the environment information.

以上のようにして、変形例としての視覚処理装置753は、新しいプロファイルデータを生成し、視覚処理を行うことが可能となる。変形例としての視覚処理装置753では、予め多くのプロファイルデータを登録しておかなくとも、プロファイルデータを生成して多くの異なる視覚処理を実現することが可能となる。   As described above, the visual processing device 753 as a modified example can generate new profile data and perform visual processing. The visual processing device 753 as a modified example can generate profile data and realize many different visual processes without registering a lot of profile data in advance.

(4)
視覚処理装置753は、図80に示したものに限定されない。例えば、上記実施形態で説明した視覚処理装置520(図6参照)、視覚処理装置525(図7参照)、視覚処理装置530(図8参照)のいずれかであってもよい。
(4)
The visual processing device 753 is not limited to that shown in FIG. For example, the visual processing device 520 (see FIG. 6), the visual processing device 525 (see FIG. 7), or the visual processing device 530 (see FIG. 8) described in the above embodiment may be used.

図82〜図84を用いてそれぞれの構成について説明する。
《4−1》
図82を用いて、視覚処理装置753aの構成について説明する。
図82に示す視覚処理装置753aは、図6に示す視覚処理装置520と同様の構成を有する視覚処理装置である。視覚処理装置520とほぼ同様の機能を果たす部分には、同じ符号を付している。図82に示す視覚処理装置753aと、図6に示す視覚処理装置520との相違点は、プロファイルデータ登録部521が、取得されたプロファイル情報SSIと画像判定部522からの判定結果SAとに基づいて特定されるプロファイルデータを2次元LUT4に登録する点である。その他の各部の説明は、上記実施形態と同様であるため省略する。
Each configuration will be described with reference to FIGS. 82 to 84.
<< 4-1 >>
The configuration of the visual processing device 753a will be described with reference to FIG.
A visual processing device 753a shown in FIG. 82 is a visual processing device having the same configuration as the visual processing device 520 shown in FIG. Portions that perform substantially the same function as the visual processing device 520 are denoted by the same reference numerals. The visual processing device 753a shown in FIG. 82 differs from the visual processing device 520 shown in FIG. 6 in that the profile data registration unit 521 is based on the acquired profile information SSI and the determination result SA from the image determination unit 522. The profile data specified in this way is registered in the two-dimensional LUT 4. The description of the other parts is the same as in the above embodiment, and will be omitted.

この視覚処理装置753aでは、プロファイル情報SSIだけでなく、判定結果SAにも基づいてプロファイルデータの選択が行われるため、より適切な視覚処理を行うことが可能となる。
《4−2》
図83を用いて、視覚処理装置753bの構成について説明する。
In this visual processing device 753a, profile data is selected based not only on the profile information SSI but also on the determination result SA, so that more appropriate visual processing can be performed.
<< 4-2 >>
The configuration of the visual processing device 753b will be described with reference to FIG.

図83に示す視覚処理装置753bは、図7に示す視覚処理装置525と同様の構成を有する視覚処理装置である。視覚処理装置525とほぼ同様の機能を果たす部分には、同じ符号を付している。図83に示す視覚処理装置753bと、図7に示す視覚処理装置525との相違点は、プロファイルデータ登録部526が、取得されたプロファイル情報S
SIと入力装置527からの入力結果SBとに基づいて特定されるプロファイルデータを2次元LUT4に登録する点である。その他の各部の説明は、上記実施形態と同様であるため省略する。
A visual processing device 753b shown in FIG. 83 is a visual processing device having the same configuration as the visual processing device 525 shown in FIG. Parts having substantially the same functions as those of the visual processing device 525 are denoted by the same reference numerals. The difference between the visual processing device 753b shown in FIG. 83 and the visual processing device 525 shown in FIG. 7 is that the profile data registration unit 526 acquires the profile information S
The profile data specified based on the SI and the input result SB from the input device 527 is registered in the two-dimensional LUT 4. The description of the other parts is the same as in the above embodiment, and will be omitted.

この視覚処理装置753bでは、プロファイル情報SSIだけでなく、入力結果SBにも基づいてプロファイルデータの選択が行われるため、より適切な視覚処理を行うことが可能となる。
《4−3》
図84を用いて、視覚処理装置753cの構成について説明する。
In this visual processing device 753b, the profile data is selected based not only on the profile information SSI but also on the input result SB, so that more appropriate visual processing can be performed.
<< 4-3 >>
The configuration of the visual processing device 753c will be described with reference to FIG.

図84に示す視覚処理装置753cは、図8に示す視覚処理装置530と同様の構成を有する視覚処理装置である。視覚処理装置530とほぼ同様の機能を果たす部分には、同じ符号を付している。図84に示す視覚処理装置753cと、図8に示す視覚処理装置530との相違点は、プロファイルデータ登録部531が、取得されたプロファイル情報SSIと、画像判定部522からの判定結果SAと、入力装置527からの入力結果SBとに基づいて特定されるプロファイルデータを2次元LUT4に登録する点である。その他の各部の説明は、上記実施形態と同様であるため省略する。   A visual processing device 753c shown in FIG. 84 is a visual processing device having the same configuration as the visual processing device 530 shown in FIG. Portions that perform substantially the same functions as the visual processing device 530 are denoted by the same reference numerals. The visual processing device 753c shown in FIG. 84 differs from the visual processing device 530 shown in FIG. 8 in that the profile data registration unit 531 has the acquired profile information SSI, the determination result SA from the image determination unit 522, and The profile data specified based on the input result SB from the input device 527 is registered in the two-dimensional LUT 4. The description of the other parts is the same as in the above embodiment, and will be omitted.

この視覚処理装置753bでは、プロファイル情報SSIだけでなく、判定結果SAと入力結果SBとにも基づいてプロファイルデータの選択が行われるため、より適切な視覚処理を行うことが可能となる。
(5)
上記実施形態で説明した表示装置720の各部において、同様の機能を実現する部分は、共通のハードウェアで実現されていても良い。
In the visual processing device 753b, profile data is selected based on not only the profile information SSI but also the determination result SA and the input result SB, so that more appropriate visual processing can be performed.
(5)
In each part of the display device 720 described in the above embodiment, a part that realizes the same function may be realized by common hardware.

例えば、表示装置720の入力部725(図76参照)は、プロファイル情報出力部747の情報入力部748、視覚処理装置753b(図83参照)の入力装置527、視覚処理装置753c(図84参照)の入力装置527などと兼用される装置であってもよい。   For example, the input unit 725 (see FIG. 76) of the display device 720 includes the information input unit 748 of the profile information output unit 747, the input device 527 of the visual processing device 753b (see FIG. 83), and the visual processing device 753c (see FIG. 84). The input device 527 or the like may also be used.

また、視覚処理装置753(図80参照)のプロファイルデータ登録装置8、視覚処理装置753a(図82参照)のプロファイルデータ登録部521、視覚処理装置753b(図83参照)のプロファイルデータ登録部526、視覚処理装置753c(図84参照)のプロファイルデータ登録部531などは、画像処理装置723(図76参照)の外部に備えられる物であっても良く、例えば、メモリ730や外部装置740により実現されていても良い。   Further, the profile data registration device 8 of the visual processing device 753 (see FIG. 80), the profile data registration unit 521 of the visual processing device 753a (see FIG. 82), the profile data registration unit 526 of the visual processing device 753b (see FIG. 83), The profile data registration unit 531 and the like of the visual processing device 753c (see FIG. 84) may be provided outside the image processing device 723 (see FIG. 76), and are realized by, for example, the memory 730 or the external device 740. May be.

また、それぞれのプロファイルデータ登録部やプロファイルデータ登録装置に登録されるプロファイルデータは、予め各部に登録されているものであってもよいし、外部装置740、あるいはチューナ726から取得されるものであってもよい。
また、それぞれのプロファイルデータ登録部やプロファイルデータ登録装置は、色処理装置746においてプロファイルデータが記憶される記憶装置と兼用されていても良い。
Further, the profile data registered in each profile data registration unit or profile data registration device may be registered in advance in each unit or acquired from the external device 740 or the tuner 726. May be.
Each profile data registration unit and profile data registration device may also be used as a storage device that stores profile data in the color processing device 746.

また、プロファイル情報出力部747は、画像処理装置723の外部や表示装置720の外部に有線または無線で接続される装置であっても良い。
(6)
視覚処理装置753(図80参照)のプロファイルデータ登録装置8、視覚処理装置753a(図82参照)のプロファイルデータ登録部521、視覚処理装置753b(図83参照)のプロファイルデータ登録部526、視覚処理装置753c(図84参照)のプロファイルデータ登録部531などは、視覚処理に用いられるプロファイルデータのプロファイル情報を出力できる装置であってもよい。
The profile information output unit 747 may be a device connected to the outside of the image processing device 723 or the display device 720 by wire or wirelessly.
(6)
Profile data registration device 8 of visual processing device 753 (see FIG. 80), profile data registration unit 521 of visual processing device 753a (see FIG. 82), profile data registration unit 526 of visual processing device 753b (see FIG. 83), visual processing The profile data registration unit 531 of the device 753c (see FIG. 84) may be a device that can output profile information of profile data used for visual processing.

例えば、視覚処理装置753(図80参照)のプロファイルデータ登録装置8は、2次
元LUT4に登録したプロファイルデータのプロファイル情報を出力する。出力されたプロファイル情報は、例えば、色処理装置746に入力され、色処理装置746においてプロファイルデータを選択するために用いられる。
For example, the profile data registration device 8 of the visual processing device 753 (see FIG. 80) outputs the profile information of the profile data registered in the two-dimensional LUT 4. The output profile information is input to, for example, the color processing device 746 and used to select profile data in the color processing device 746.

これにより、プロファイル情報SSIにより指定されたプロファイルデータ以外のプロファイルデータが視覚処理装置753で用いられた場合でも、色処理装置746は、視覚処理装置753で用いられたプロファイルデータを判断することが可能となる。このため、カラー視覚処理装置745と色処理装置746とにおける画像処理がそれぞれ重複する処理となることや相殺する処理となることがさらに防止可能となる。   Thereby, even when profile data other than the profile data specified by the profile information SSI is used in the visual processing device 753, the color processing device 746 can determine the profile data used in the visual processing device 753. It becomes. For this reason, it is possible to further prevent the image processing in the color visual processing device 745 and the color processing device 746 from being overlapped or offset.

(7)
画像処理装置723では、プロファイル情報出力部747に変えて、ユーザに入力を行わせるユーザ入力部を備えていてもよい。
図85に画像処理装置723(図77参照)の変形例としての画像処理装置770を示す。画像処理装置770は、ユーザに入力を行わせるユーザ入力部772を備えている点に特徴を有している。画像処理装置770において、画像処理装置723とほぼ同様の機能を果たす部分には同じ符号を付して説明を省略する。
(7)
The image processing apparatus 723 may include a user input unit that allows the user to input instead of the profile information output unit 747.
FIG. 85 shows an image processing device 770 as a modification of the image processing device 723 (see FIG. 77). The image processing device 770 is characterized in that it includes a user input unit 772 that allows the user to input. In the image processing device 770, the same reference numerals are given to portions that perform substantially the same functions as the image processing device 723, and description thereof is omitted.

ユーザ入力部772は、カラー視覚処理装置745と色処理装置746とにそれぞれプロファイル情報SSI,SCIを出力する。
図86を用いて、ユーザ入力部772について説明を加える。
ユーザ入力部772は、ユーザに入力を行わせる部分と、入力された情報に基づいてプロファイル情報SSI,SCIを出力する部分とから構成されている。
The user input unit 772 outputs profile information SSI and SCI to the color visual processing device 745 and the color processing device 746, respectively.
The user input unit 772 will be described with reference to FIG.
The user input unit 772 includes a part for allowing the user to input and a part for outputting the profile information SSI and SCI based on the input information.

ユーザに入力を行わせる部分は、例えば、ユーザの嗜好する明るさを入力させる明るさ入力部775と、ユーザの嗜好する画質を入力させる画質入力部776とから構成されている。
明るさ入力部775は、例えば、表示される画像中の光の状態を入力するスイッチ、画像が表示される環境の光の状態を入力するスイッチなどから構成されており、入力結果を第1入力結果Sd14として出力する。表示される画像中の光の状態を入力するスイッチは、例えば、画像中の逆光・順光や、撮影時のストロボの有無や、撮影時に用いられたマクロプログラムの状態などを入力するためのスイッチである。ここで、マクロプログラムとは、撮影装置を被写体の状態に応じて制御するためのプログラムである。画像が表示される環境の光の状態を入力するスイッチは、例えば、環境光の明るさ、色温度などを入力するためのスイッチである。
The part that allows the user to input includes, for example, a brightness input unit 775 that inputs the brightness that the user likes, and an image quality input unit 776 that inputs the image quality that the user likes.
The brightness input unit 775 includes, for example, a switch that inputs a light state in an image to be displayed, a switch that inputs a light state of an environment in which the image is displayed, and the like. The result is output as Sd14. The switches that input the light status in the displayed image are, for example, switches for inputting the backlight and direct light in the image, the presence or absence of a strobe during shooting, the status of the macro program used during shooting, etc. It is. Here, the macro program is a program for controlling the photographing apparatus according to the state of the subject. The switch for inputting the light state of the environment where the image is displayed is a switch for inputting, for example, the brightness of the ambient light, the color temperature, and the like.

画質入力部776は、ユーザの画質の好みを入力するためのスイッチであり、例えば、デフォルト・ダイナミック・クラシックなどといった異なる視覚効果を入力するスイッチである。画質入力部776は、入力結果を第2入力結果Sd13として出力する。
入力された情報に基づいてプロファイル情報SSI,SCIを出力する部分は、出力制御部777から構成されている。出力制御部777は、第1入力結果Sd14と第2入力結果Sd13を取得し、プロファイル情報SSI,SCIを出力する。より具体的には、第1入力結果Sd14や第2入力結果Sd13の値に関連づけられたプロファイルデータのプロファイル情報SSI,SCIを出力する。
The image quality input unit 776 is a switch for inputting user's preference for image quality, for example, a switch for inputting different visual effects such as default, dynamic, and classic. The image quality input unit 776 outputs the input result as the second input result Sd13.
The part that outputs the profile information SSI and SCI based on the input information is constituted by an output control unit 777. The output control unit 777 acquires the first input result Sd14 and the second input result Sd13, and outputs profile information SSI and SCI. More specifically, the profile data profile information SSI and SCI associated with the values of the first input result Sd14 and the second input result Sd13 are output.

さらに、出力制御部777の動作について具体的に説明する。例えば、明るさ入力部775と画質入力部776とで「ダイナミック」な「逆光モード」と入力された場合、プロファイル情報SSIでは、逆光による暗部改善を実現するプロファイルデータのプロファイル情報が出力される。一方、プロファイル情報SCIでは、逆光部分での色処理を行わないプロファイルデータのプロファイル情報が出力され、画像処理装置770全体としての画像処理が適正化される。   Further, the operation of the output control unit 777 will be specifically described. For example, when “dynamic” “backlight mode” is input by the brightness input unit 775 and the image quality input unit 776, the profile information SSI outputs profile information of profile data that realizes dark area improvement by backlight. On the other hand, in the profile information SCI, profile information of profile data that is not subjected to color processing in the backlight portion is output, and image processing as the entire image processing apparatus 770 is optimized.

画像処理装置770による効果を記載する。
画像処理装置770では、ユーザの好みに応じた適切なプロファイルデータによる画像処理が実現可能となる。さらに、カラー視覚処理装置745と色処理装置746とに異なるプロファイル情報SSI,SCIを出力することができるため、それぞれの画像処理が重複した処理あるいは相殺した処理となることが防止可能となる。またさらに、カラー視覚処理装置745と色処理装置746とのそれぞれに対して異なるプロファイル情報SSI,SCIを出力するため、それぞれの装置で考慮すべきプロファイル情報SSI,SCIの情報量を削減でき、より簡易にプロファイルデータの選択を行うことが可能となる。
The effects of the image processing device 770 will be described.
In the image processing device 770, it is possible to realize image processing using profile data appropriate for the user's preference. Furthermore, since different profile information SSI and SCI can be output to the color visual processing device 745 and the color processing device 746, it is possible to prevent the respective image processing from being duplicated or offset. Furthermore, since different profile information SSI and SCI are output to each of the color visual processing device 745 and the color processing device 746, the amount of profile information SSI and SCI that should be considered in each device can be reduced, and more Profile data can be easily selected.

(8)
画像処理装置723は、入力画像信号d362に含まれる属性情報を分離し、分離した属性情報に基づいてプロファイルデータを選択し、画像処理を行う装置であってもよい。
《8−1》画像処理装置800の構成
図87に、画像処理装置723の変形例としての画像処理装置800を示す。画像処理装置800は、入力画像信号d362から属性情報d380を分離する分離部801を備える点、分離された属性情報d380に基づいてプロファイル情報SSI,SCIを出力する点において特徴を有している。
(8)
The image processing device 723 may be a device that separates attribute information included in the input image signal d362, selects profile data based on the separated attribute information, and performs image processing.
<8-1> Configuration of Image Processing Device 800 FIG. 87 shows an image processing device 800 as a modification of the image processing device 723. The image processing apparatus 800 is characterized in that it includes a separation unit 801 that separates the attribute information d380 from the input image signal d362, and outputs profile information SSI and SCI based on the separated attribute information d380.

図87に示す画像処理装置800は、入力画像信号d362から入力画像データd372と属性情報d380とを分離する分離部801と、属性情報d380に基づいてプロファイル情報SSI,SCIを出力する属性判定部802と、入力画像データd372とプロファイル情報SSIとに基づいて視覚処理を行うカラー視覚処理装置745と、カラー視覚処理信号d373とプロファイル情報SCIとに基づいて色処理を行う色処理装置746とを備えている。なお、上記実施形態とほぼ同じ機能を有する部分については、同じ符号を付し説明を省略する。   An image processing apparatus 800 illustrated in FIG. 87 includes a separation unit 801 that separates input image data d372 and attribute information d380 from an input image signal d362, and an attribute determination unit 802 that outputs profile information SSI and SCI based on the attribute information d380. A color visual processing device 745 that performs visual processing based on the input image data d372 and the profile information SSI, and a color processing device 746 that performs color processing based on the color visual processing signal d373 and the profile information SCI. Yes. In addition, about the part which has the substantially same function as the said embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

分離部801は、入力画像信号d362から入力画像データd372と属性情報d380とを分離する。属性情報d380は、入力画像信号d362のヘッダ部分などに配置される情報であり、入力画像信号d362の属性に関する情報である。分離部801は、入力画像信号d362を先頭から所定のビット数だけ読みとることにより、属性情報d380を分離する。なお、属性情報d380は、入力画像信号d362の後尾に配置されるものであってもよい。あるいは、入力画像信号d362中にフラグ情報を伴って分離可能な状態で配置されていてもよい。   The separation unit 801 separates the input image data d372 and the attribute information d380 from the input image signal d362. The attribute information d380 is information arranged in the header portion of the input image signal d362 and the like, and is information related to the attribute of the input image signal d362. The separation unit 801 separates the attribute information d380 by reading the input image signal d362 by a predetermined number of bits from the top. The attribute information d380 may be arranged at the tail of the input image signal d362. Alternatively, the input image signal d362 may be arranged in a separable state with flag information.

図88に、属性情報d380が含まれる入力画像信号d362のフォーマットの一例を示す。図88に示す入力画像信号d362では、データの先頭部分に属性情報d380としてのコンテンツ情報が配置されているとともに、それに続いて入力画像データd372が配置されている。   FIG. 88 shows an example of the format of the input image signal d362 including the attribute information d380. In the input image signal d362 shown in FIG. 88, content information as attribute information d380 is arranged at the head of the data, and subsequently input image data d372 is arranged.

コンテンツ情報は、入力画像データd372の全体の内容に関する属性であり、入力画像データd372のタイトル、制作会社、監督、制作年、種類、制作側指定属性などを含んでいる。ここで、種類とは、コンテンツの種類に関する情報であり、例えば、SF、アクション、ドラマ、ホラー、などといった情報が含まれる。制作側指定属性とは、コンテンツ制作側が指定する表示特性に関する情報であり、例えば、ダイナミック、恐怖感、などといった情報が含まれる。   The content information is an attribute relating to the entire contents of the input image data d372, and includes the title, production company, director, production year, type, production side designation attribute, etc. of the input image data d372. Here, the type is information regarding the type of content, and includes information such as SF, action, drama, horror, and the like. The production side designation attribute is information on display characteristics designated by the content production side, and includes information such as dynamic and fear.

属性判定部802は、分離された属性情報d380に基づいてプロファイル情報SSI,SCIを出力する。
図89を用いて、属性判定部802の構成について説明する。属性判定部802は、属性検出部806と属性入力部805と出力制御部807とを備えている。
The attribute determination unit 802 outputs profile information SSI and SCI based on the separated attribute information d380.
The configuration of the attribute determination unit 802 will be described with reference to FIG. The attribute determination unit 802 includes an attribute detection unit 806, an attribute input unit 805, and an output control unit 807.

属性検出部806は、属性情報d380に含まれるコンテンツ情報を検出し、検出情報Sd3として出力する。
属性入力部805は、ユーザにコンテンツ情報の入力を行わせるための装置である。属性入力部805は、検出情報Sd3を取得し、検出情報Sd3が含む情報を更新する、あるいは検出情報Sd3が含まない情報を追加し、入力情報Sd4として出力する。
The attribute detection unit 806 detects content information included in the attribute information d380 and outputs it as detection information Sd3.
The attribute input unit 805 is a device for allowing the user to input content information. The attribute input unit 805 acquires the detection information Sd3, updates the information included in the detection information Sd3, or adds information that does not include the detection information Sd3, and outputs the information as input information Sd4.

ここで、属性入力部805は、ユーザがコンテンツ情報を入力するための入力装置であり、入力されたコンテンツ情報を入力情報Sd4として出力する。属性入力部805は、例えば、スイッチおよびスイッチからの入力を感知する回路などで構成されていてもよいし、表示部721あるいは属性入力部805自体に表示された入力用のユーザインタフェースを操作するソフトで構成されてもよい。また、表示装置720に内蔵されているものであってもよいし、ネットワークなどを介して情報を入力する装置であってもよい。   Here, the attribute input unit 805 is an input device for a user to input content information, and outputs the input content information as input information Sd4. The attribute input unit 805 may be composed of, for example, a switch and a circuit that senses input from the switch, or software that operates a user interface for input displayed on the display unit 721 or the attribute input unit 805 itself. It may be constituted by. Further, the display device 720 may be a built-in device or a device that inputs information via a network or the like.

なお、属性入力部805では、検出情報Sd3に含まれるコンテンツ情報に応じて、ユーザが入力可能なコンテンツ情報が制御されるものであってもよい。例えば、属性検出部806が入力画像データd372の種類は「アニメ」であると検出した場合、属性入力部805では、アニメに関する項目(例えば、アニメ監督、アニメタイトルなど)のみを入力させるとしてもよい。   The attribute input unit 805 may control content information that can be input by the user in accordance with the content information included in the detection information Sd3. For example, when the attribute detection unit 806 detects that the type of the input image data d372 is “animation”, the attribute input unit 805 may input only items related to animation (for example, animation director, animation title, etc.). .

出力制御部807は、検出情報Sd3と入力情報Sd4とを取得し、プロファイル情報SSI,SCIを出力する。
出力制御部807の詳しい動作について説明を加える。出力制御部807は、検出情報Sd3と入力情報Sd4とから属性情報d380の内容を取得する。さらに、その属性情報d380を有する画像に対して好適な画像処理を行うプロファイルデータを決定する。例えば、出力制御部807は、属性情報d380の各項目とプロファイルデータとの関連付けを記憶するデータベースを参照し、プロファイルデータを決定する。ここで、出力制御部807は、検出情報Sd3と入力情報Sd4とにより同じ項目のコンテンツ情報について異なる値が取得された場合、いずれかの情報を優先させることとしてもよい。例えば、常に入力情報Sd4を優先的に利用するなどしてもよい。
The output control unit 807 acquires the detection information Sd3 and the input information Sd4, and outputs profile information SSI and SCI.
A detailed operation of the output control unit 807 will be described. The output control unit 807 acquires the content of the attribute information d380 from the detection information Sd3 and the input information Sd4. Further, profile data for performing suitable image processing on the image having the attribute information d380 is determined. For example, the output control unit 807 refers to a database that stores associations between the items of the attribute information d380 and profile data, and determines profile data. Here, when different values are acquired for the content information of the same item by the detection information Sd3 and the input information Sd4, the output control unit 807 may prioritize any information. For example, the input information Sd4 may always be used with priority.

さらに、出力制御部807は、決定したプロファイルデータ、決定したプロファイルデータを特定する番号などのタグ情報、決定したプロファイルデータの処理の特徴を示すパラメータ情報のうち少なくとも一つを含むプロファイル情報SSI,SCIを出力する。
プロファイル情報SSI,SCIに関する詳しい説明は上記実施形態と同様であるため省略する。
Further, the output control unit 807 includes profile information SSI, SCI including at least one of the determined profile data, tag information such as a number for identifying the determined profile data, and parameter information indicating the characteristics of the processing of the determined profile data. Is output.
A detailed description of the profile information SSI and SCI is omitted because it is the same as in the above embodiment.

カラー視覚処理装置745や色処理装置746では、プロファイル情報SSI,SCIから画像処理に用いるプロファイルデータを判断し、画像処理を行う。例えば、プロファイル情報SSI,SCIがプロファイルデータを含む場合、そのプロファイルデータを用いて画像処理を行う。プロファイル情報SSI,SCIがタグ情報、パラメータ情報を含む場合、それぞれの情報により特定されるプロファイルデータを用いて画像処理を行う。   The color visual processing device 745 and the color processing device 746 determine profile data used for image processing from the profile information SSI and SCI, and perform image processing. For example, when the profile information SSI, SCI includes profile data, image processing is performed using the profile data. When the profile information SSI, SCI includes tag information and parameter information, image processing is performed using profile data specified by each information.

なお、出力制御部807は、検出情報Sd3と入力情報Sd4とから取得されるコンテンツ情報の各項目をプロファイル情報SSI,SCIとして出力してもよい。この場合、カラー視覚処理装置745や色処理装置746では、プロファイル情報SSI,SCIから画像処理に用いるプロファイルデータを特定し、画像処理を行う。   Note that the output control unit 807 may output each item of content information acquired from the detection information Sd3 and the input information Sd4 as profile information SSI and SCI. In this case, the color visual processing device 745 and the color processing device 746 specify profile data used for image processing from the profile information SSI and SCI, and perform image processing.

《8−2》効果
(1)
コンテンツ制作時のコンテンツ情報に応じて適切なプロファイルデータを用いた画像処理を行うことが可能となる。このため、コンテンツ制作側の意図を考慮して画像処理を行うことが可能となる。
<< 8-2 >> Effect (1)
It is possible to perform image processing using appropriate profile data according to the content information at the time of content creation. For this reason, it is possible to perform image processing in consideration of the intention of the content production side.

より具体的には、タイトル、制作会社などにより、画像全体の明るさ、色温度などの傾向を判断し、画像全体の明るさ、色温度などを変換する画像処理を行うことなどが可能となる。また、制作側指定属性などにより、制作側の意図する画像表示を行わせることが可能となる。   More specifically, the title, production company, etc. can determine trends in the brightness and color temperature of the entire image, and perform image processing that converts the brightness and color temperature of the entire image. . In addition, it is possible to display an image intended by the production side by a production side designation attribute or the like.

(2)
属性判定部802は、自動的にコンテンツ情報を検出する属性検出部806だけでなく、手動によりコンテンツ情報を入力させる属性入力部805も備える。このため、コンテンツ情報の検出に不具合がある場合でも、属性入力部805によりコンテンツ情報を適切に入力することが可能となり、適切な画像処理を行うことが可能となる。さらに、属性入力部805により、ユーザ側の好みを画像処理に反映させることも可能となる。例えば、アニメはメリハリを強くした画像に、映画は鮮やかな画像に、というようにユーザ側の好みを反映させることが可能となる。さらに、デジタルリマスター版のように修正された画像のコンテンツ情報を修正することが可能となる。
(2)
The attribute determination unit 802 includes not only an attribute detection unit 806 that automatically detects content information but also an attribute input unit 805 that manually inputs content information. For this reason, even when there is a defect in the detection of content information, the content information can be appropriately input by the attribute input unit 805, and appropriate image processing can be performed. Further, the attribute input unit 805 can reflect the user's preference in the image processing. For example, it is possible to reflect the user's preferences, such as a sharpened image for an animation and a vivid image for a movie. Furthermore, it is possible to correct the content information of the corrected image as in the digital remaster version.

(3)
カラー視覚処理装置745と色処理装置746とにそれぞれプロファイル情報SSI,SCIを指示することが可能となる。このため、コンテンツ情報の種類として「アクションおよびホラー」などと複数の値が指定されている場合にでも、アクションのように動きが多い部分に対しては、カラー視覚処理装置745で適切に視覚処理を行わせ、ホラーのように色が心理的影響を与える部分に対しては、色処理装置746で適切に色処理を行わせることが可能となる。
(3)
Profile information SSI and SCI can be instructed to the color visual processing device 745 and the color processing device 746, respectively. For this reason, even when a plurality of values such as “action and horror” are specified as the type of content information, the color visual processing device 745 appropriately performs visual processing for a portion with a lot of movement such as an action. The color processing device 746 can appropriately perform color processing on a portion where the color has a psychological influence such as horror.

また、カラー視覚処理装置745と色処理装置746とのそれぞれに対して異なるプロファイル情報SSI,SCIを出力するため、それぞれの装置で考慮すべきプロファイル情報SSI,SCIの情報量を削減でき、より簡易にプロファイルデータの選択を行うことが可能となる。   Further, since different profile information SSI and SCI are output to the color visual processing device 745 and the color processing device 746, the amount of profile information SSI and SCI that should be taken into consideration by each device can be reduced, and it is simpler. It is possible to select profile data.

《8−3》変形例
(1)
一旦取得されたコンテンツ情報は、繰り返し用いてもよい。この場合、再度すべての情報を取得しなくても記憶されたコンテンツ情報を用いて画像処理を行うプロファイルデータを特定できるものであってもよい。
<< 8-3 >> Modification (1)
The content information once acquired may be used repeatedly. In this case, it may be possible to specify profile data to be subjected to image processing using the stored content information without acquiring all the information again.

(2)
画像処理装置800は、属性入力部805または属性検出部806のいずれか一方を備えない装置であってもよい。また、分離部801は、必ずしも画像処理装置800の内部に備えられていなくともよい。
(2)
The image processing apparatus 800 may be an apparatus that does not include either the attribute input unit 805 or the attribute detection unit 806. Further, the separation unit 801 is not necessarily provided inside the image processing apparatus 800.

(3)
プロファイル情報SSIとプロファイル情報SCIとは、必ずしも異なる情報である必要は無く、同じ情報であってもよい。
(4)
属性情報d380は、コンテンツ情報以外の情報を含むものであってもよい。具体的には、入力画像データの一部に関わる属性であるシーン属性情報、入力画像信号d362が生成された環境に関わる撮影属性情報、入力画像信号d362が表示装置720に取得されるまでの媒体に関わる放送属性情報、入力画像信号d362が記録される媒体・機器に関わる記録属性情報、画像処理に用いられるプロファイルデータに関わるプロファイル属性情報などを含んでもかまわない。以下、それぞれについて具体的に説明を加える。
(3)
The profile information SSI and the profile information SCI are not necessarily different information, and may be the same information.
(4)
The attribute information d380 may include information other than the content information. Specifically, scene attribute information that is an attribute related to a part of the input image data, shooting attribute information related to the environment in which the input image signal d362 is generated, and a medium until the input image signal d362 is acquired by the display device 720. Broadcast attribute information relating to the recording medium, recording attribute information relating to the medium / device on which the input image signal d362 is recorded, profile attribute information relating to profile data used for image processing, and the like. Each of these will be specifically described below.

なお、以下の説明では、属性情報d380がシーン属性情報、撮影属性情報、放送属性情報、記録属性情報、プロファイル属性情報のそれぞれを含む場合について別々に説明す
るが、コンテンツ情報を含めたこれらの情報は、属性情報d380において全て同時に、あるいは、いくつかを組み合わせて、含まれるものであってもよい。この場合には、それぞれの情報による効果をさらに向上させることが可能となる。
In the following description, the case where the attribute information d380 includes scene attribute information, shooting attribute information, broadcast attribute information, recording attribute information, and profile attribute information will be described separately. However, these pieces of information including content information are described. May be included in the attribute information d380 all at the same time or in combination. In this case, it is possible to further improve the effect of each information.

(4−1)シーン属性情報
(4−1−1)
図90に、属性情報d380としてシーン属性情報が含まれる入力画像信号d362のフォーマットを示す。図90に示す入力画像信号d362では、入力画像データd372のシーンを単位としてシーン属性情報が配置されている。シーン属性情報は、例えば、フラグ情報を伴うなどして入力画像データd372と分離可能な状態で配置されている。
(4-1) Scene attribute information (4-1-1)
FIG. 90 shows a format of an input image signal d362 including scene attribute information as attribute information d380. In the input image signal d362 shown in FIG. 90, scene attribute information is arranged in units of scenes of the input image data d372. The scene attribute information is arranged in a state where it can be separated from the input image data d372 with flag information, for example.

シーン属性情報は、それに続く入力画像データd372のシーン内容を記述する情報である。例えば、シーン属性情報は、「明るさ」、「対象」、「動作」、「シーン概要」などといった項目の組み合わせにより記述されており、「暗い・森・風景」、「明るい・人物・アップ」、「暗い・人物・風景」などといった内容が記述されている。なお、これらはシーン属性情報一例であり、これに限定される訳ではない。たとえば、「シーン概要」として、ニュース、スポーツ、ホームドラマ、アクションなどといった内容が指定がされていてもよい。   The scene attribute information is information that describes the scene contents of the subsequent input image data d372. For example, the scene attribute information is described by a combination of items such as “brightness”, “target”, “motion”, “scene overview”, “dark / forest / landscape”, “bright / person / up”. , “Dark / Person / Scenery” is described. Note that these are examples of scene attribute information, and the present invention is not limited to this. For example, contents such as news, sports, home dramas, actions, etc. may be specified as “scene overview”.

シーン属性情報を含む入力画像信号d362に対して画像処理を行う画像処理装置は、画像処理装置800をシーン属性情報に対応させたものと同様である。
分離部801(図87参照)は、図90に示したフォーマットに基づいて属性情報d380を分離する。
An image processing apparatus that performs image processing on an input image signal d362 including scene attribute information is the same as that in which the image processing apparatus 800 is associated with scene attribute information.
The separation unit 801 (see FIG. 87) separates the attribute information d380 based on the format shown in FIG.

属性検出部806(図89参照)は、属性情報d380に含まれるシーン属性情報を検出し、検出情報Sd3を出力する。属性入力部805は、ユーザにシーン属性情報の入力を行わせる。
出力制御部807(図89参照)は、検出情報Sd3と入力情報Sd4とを取得し、プロファイル情報SSI,SCIを出力する。例えば、出力制御部807は、検出情報Sd3と入力情報Sd4とから取得されるシーン属性情報の各項目とプロファイルデータとの関連付けを記憶するデータベースを参照するなどして、カラー視覚処理装置745と色処理装置746とで用いられるプロファイルデータを決定する。
The attribute detection unit 806 (see FIG. 89) detects scene attribute information included in the attribute information d380 and outputs detection information Sd3. An attribute input unit 805 allows the user to input scene attribute information.
The output control unit 807 (see FIG. 89) acquires the detection information Sd3 and the input information Sd4, and outputs profile information SSI and SCI. For example, the output control unit 807 refers to the database that stores the association between each item of the scene attribute information acquired from the detection information Sd3 and the input information Sd4 and the profile data. Profile data used by the processing device 746 is determined.

プロファイル情報SSI,SCIに関する詳しい説明は上記実施形態と同様であるため省略する。なお、プロファイル情報SSI,SCIは、シーン属性情報を含んでいてもよい。この場合、カラー視覚処理装置745と色処理装置746とは、取得したシーン属性情報から画像処理に用いるプロファイルデータを選択し、画像処理を行う。   A detailed description of the profile information SSI and SCI is omitted because it is the same as in the above embodiment. Note that the profile information SSI and SCI may include scene attribute information. In this case, the color visual processing device 745 and the color processing device 746 select profile data used for image processing from the acquired scene attribute information and perform image processing.

その他、画像処理装置800の各部の動作は、属性情報d380がコンテンツ情報を含む場合と同様であるため説明を省略する。
(4−1−2)
本発明により、上記実施形態で記載した効果と同様の効果が得られる。以下、本変形例に特徴的な効果を記載する。
In addition, since the operation of each unit of the image processing apparatus 800 is the same as that in the case where the attribute information d380 includes content information, description thereof is omitted.
(4-1-2)
According to the present invention, the same effects as those described in the above embodiment can be obtained. Hereinafter, effects characteristic of this modification will be described.

シーン属性情報に応じて適切なプロファイルデータを用いた画像処理を行うことが可能となる。このため、コンテンツ制作側の意図を考慮して画像処理を行うことが可能となる。
シーン属性情報は、入力画像データd372のシーン毎に必要に応じて配置されている。このため、より詳細に画像処理を切り替えることが可能となり、より適切に画像処理を行うことが可能となる。
It is possible to perform image processing using appropriate profile data according to the scene attribute information. For this reason, it is possible to perform image processing in consideration of the intention of the content production side.
The scene attribute information is arranged as necessary for each scene of the input image data d372. For this reason, it becomes possible to switch image processing in more detail, and it becomes possible to perform image processing more appropriately.

例えば、検出情報Sd3と入力情報Sd4とにより、シーン属性情報が「暗い・森・風景」と取得された場合、出力制御部807は、「影の暗部を改善するプロファイルデータ
」を指定するプロファイル情報SSIを出力するとともに、「緑色の記憶色補正を行い、肌色の記憶色補正を行わないプロファイルデータ」を指定するプロファイル情報SCIを出力する。
For example, when the scene attribute information is acquired as “dark / forest / landscape” based on the detection information Sd3 and the input information Sd4, the output control unit 807 specifies profile information that specifies “profile data for improving shadow shadows”. In addition to outputting SSI, profile information SCI designating "profile data that performs green memory color correction but does not perform skin color memory color correction" is output.

また例えば、検出情報Sd3と入力情報Sd4とにより、シーン属性情報が「明るい・人物・アップ」と取得された場合、出力制御部807は、「コントラスト強調を抑制したプロファイルデータ」を指定するプロファイル情報SSIを出力するとともに、「肌色の記憶色補正を行うプロファイルデータ」を指定するプロファイル情報SCIを出力する。   Further, for example, when the scene attribute information is acquired as “bright / person / up” by the detection information Sd3 and the input information Sd4, the output control unit 807 specifies profile information that specifies “profile data with suppressed contrast enhancement” In addition to outputting SSI, profile information SCI designating "profile data for correcting the skin color memory color" is output.

また例えば、検出情報Sd3と入力情報Sd4とにより、シーン属性情報が「暗い・人物・風景」と取得された場合、出力制御部807は、「人物の暗部を強調し、背景の暗部改善を抑制したプロファイルデータ」を指定するプロファイル情報SSIを出力するとともに、「ホワイトバランスの調整と肌色の記憶色補正とを行わないプロファイルデータ」を指定するプロファイル情報SCIを出力する。   Further, for example, when the scene attribute information is acquired as “dark / person / scenery” by the detection information Sd3 and the input information Sd4, the output control unit 807 emphasizes the dark portion of the person and suppresses the dark portion improvement of the background. Profile information SSI designating “profile data” and profile information SCI designating “profile data without white balance adjustment and skin color memory color correction” are output.

また例えば、検出情報Sd3と入力情報Sd4とにより、シーン属性情報が「人物・ドラマ」と取得された場合、画像内で主たる処理対象は人物となる。よって、出力制御部807は、カラー視覚処理装置745に対して、肌色でかつ輝度の低い領域のコントラスト改善を行い、かつ、それ以外の輝度の低い領域のコントラスト改善をしない、ようなプロファイルデータを指定するプロファイル情報SSIを出力する。それに対して、色処理装置746に対して、肌色の記憶補正を行い、かつ、それ以外の緑等の記憶色に対する補正を弱める、ようなプロファイルデータを指定するプロファイル情報SCIを出力する。   For example, when the scene attribute information is acquired as “person / drama” by the detection information Sd3 and the input information Sd4, the main processing target in the image is a person. Therefore, the output control unit 807 performs profile data for the color visual processing device 745 so as to improve the contrast of the skin-colored and low-brightness region and not improve the contrast of the other low-brightness regions. The designated profile information SSI is output. On the other hand, profile information SCI is output to the color processing device 746 to specify profile data that performs skin color memory correction and weakens correction for other memory colors such as green.

属性検出部806により自動的に検出されたシーン属性情報のみならず、ユーザが入力したシーン属性情報にも基づいてプロファイルデータの選択が行われる。このため、ユーザにとっての主観的な画質をより向上させることが可能となる。
また、人物の移動シーンにおいて背景が太陽光の向きやが徐々に変動するような一連のシーンの場合、各シーンごとにシーン属性情報を付加することも可能であるが、その先頭シーンのみにシーン属性情報を付加することも可能である。また、先頭シーンにまずシーン属性情報を付加して、続く連続シーンには先頭シーンからの明るさの変動情報や対象の変動情報のみをシーン属性情報として付加することも可能である。こうすることで、動画像の画像処理におけるちらつきや画質の急激な変化を抑えることができる。
Profile data is selected not only based on scene attribute information automatically detected by the attribute detection unit 806 but also based on scene attribute information input by the user. For this reason, it is possible to further improve the subjective image quality for the user.
In addition, in the case of a series of scenes where the background is gradually changing in the direction of sunlight in a moving scene of a person, it is possible to add scene attribute information for each scene, but only in the first scene It is also possible to add attribute information. It is also possible to add scene attribute information to the first scene first, and to add only brightness fluctuation information from the first scene or target fluctuation information as scene attribute information to the subsequent continuous scenes. By doing so, it is possible to suppress flickering in image processing of moving images and sudden changes in image quality.

(4−2)撮影属性情報
(4−2−1)
図91に、属性情報d380として撮影属性情報が含まれる入力画像信号d362のフォーマットを示す。図91に示す入力画像信号d362では、入力画像信号d362のヘッダ部分に撮影属性情報が配置されている。なお、撮影属性情報は、これに限らず、例えば、フラグ情報を伴うなどして入力画像データd372と分離可能な状態で配置されていてもよい。
(4-2) Shooting attribute information (4-2-1)
FIG. 91 shows a format of an input image signal d362 that includes shooting attribute information as attribute information d380. In the input image signal d362 shown in FIG. 91, shooting attribute information is arranged in the header portion of the input image signal d362. The shooting attribute information is not limited to this, and may be arranged in a state where it can be separated from the input image data d372, for example, with flag information.

撮影属性情報は、それに続く入力画像データd372の撮影状況を記述する情報である。例えば、撮影属性情報は、「位置・方角」、「日付」、「時刻」、「撮影機器情報」などといった項目の組み合わせにより記述されている。「位置・方角」は、撮影時にGPSなどから取得される情報である。「撮影機器情報」は、撮影時の機器の情報であり、ストロボ有無、絞り、シャッタースピード、マクロ撮影(接写撮影)有無などの情報が格納されている。なお、これらは撮影属性情報の一例であり、これに限定される訳ではない。例えば、撮影時に用いたマクロプログラム(ストロボ有無、絞り、シャッタースピードなどの制御を組み合わせて実行するためのプログラム)を特定するための情報であってもよい。   The shooting attribute information is information describing the shooting status of the subsequent input image data d372. For example, the shooting attribute information is described by a combination of items such as “position / direction”, “date”, “time”, “shooting device information”, and the like. “Position / direction” is information acquired from GPS or the like at the time of shooting. The “photographing device information” is device information at the time of photographing, and stores information such as the presence / absence of a strobe, aperture, shutter speed, and macro photography (close-up photography). Note that these are examples of shooting attribute information, and are not limited thereto. For example, it may be information for specifying a macro program (a program for executing a combination of controls such as the presence / absence of a strobe, aperture, and shutter speed) used at the time of shooting.

撮影属性情報を含む入力画像信号d362に対して画像処理を行う画像処理装置は、画像処理装置800を撮影属性情報に対応させたものと同様である。
分離部801(図87参照)は、図91に示したフォーマットに基づいて属性情報d380を分離する。
An image processing apparatus that performs image processing on an input image signal d362 including shooting attribute information is the same as that in which the image processing apparatus 800 is associated with shooting attribute information.
The separation unit 801 (see FIG. 87) separates the attribute information d380 based on the format shown in FIG.

属性検出部806(図89参照)は、属性情報d380に含まれる撮影属性情報を検出し、検出情報Sd3を出力する。属性入力部805は、ユーザに撮影属性情報の入力を行わせる。
出力制御部807(図89参照)は、検出情報Sd3と入力情報Sd4とを取得し、プロファイル情報SSI,SCIを出力する。例えば、出力制御部807は、検出情報Sd3と入力情報Sd4とから取得される撮影属性情報の各項目とプロファイルデータとの関連付けを記憶するデータベースを参照するなどして、カラー視覚処理装置745と色処理装置746とで用いられるプロファイルデータを決定する。プロファイル情報SSI,SCIに関する詳しい説明は上記実施形態と同様であるため省略する。
The attribute detection unit 806 (see FIG. 89) detects shooting attribute information included in the attribute information d380, and outputs detection information Sd3. An attribute input unit 805 allows the user to input shooting attribute information.
The output control unit 807 (see FIG. 89) acquires the detection information Sd3 and the input information Sd4, and outputs profile information SSI and SCI. For example, the output control unit 807 refers to the database that stores the association between each item of the shooting attribute information acquired from the detection information Sd3 and the input information Sd4 and the profile data. Profile data used by the processing device 746 is determined. A detailed description of the profile information SSI and SCI is omitted because it is the same as in the above embodiment.

なお、プロファイル情報SSI,SCIは、撮影属性情報を含んでいてもよい。この場合、カラー視覚処理装置745と色処理装置746とは、取得した撮影属性情報から画像処理に用いるプロファイルデータを選択し、画像処理を行う。
その他、画像処理装置800の各部の動作は、属性情報d380がコンテンツ情報を含む場合と同様であるため説明を省略する。
Note that the profile information SSI and SCI may include shooting attribute information. In this case, the color visual processing device 745 and the color processing device 746 select profile data used for image processing from the acquired shooting attribute information and perform image processing.
In addition, since the operation of each unit of the image processing apparatus 800 is the same as that in the case where the attribute information d380 includes content information, description thereof is omitted.

(4−2−2)
本発明により、上記実施形態で記載した効果と同様の効果が得られる。以下、本変形例に特徴的な効果を記載する。
撮影属性情報に応じて適切なプロファイルデータを用いた画像処理を行うことが可能となる。このため、コンテンツ制作側の意図を考慮して画像処理を行うことが可能となる。
(4-2-2)
According to the present invention, the same effects as those described in the above embodiment can be obtained. Hereinafter, effects characteristic of this modification will be described.
It is possible to perform image processing using appropriate profile data according to the shooting attribute information. For this reason, it is possible to perform image processing in consideration of the intention of the content production side.

例えば、「位置・方角」、「日付」、「時刻」、「撮影機器情報」などといった項目から、入力画像データd372が生成された環境における「太陽の方向」、「季節」、「天気」、「太陽光の色」、「ストロボ有無」などの情報を取得し、被写体の撮影状況(例えば、順光か逆光かなど)を解析することが可能となる。さらに、解析された撮影状況に対して適切なプロファイルデータを用いて画像処理を行うことが可能となる。   For example, from the items such as “position / direction”, “date”, “time”, “photographing device information”, “sun direction”, “season”, “weather”, etc. in the environment where the input image data d372 is generated. Information such as “sunlight color” and “strobe presence / absence” can be acquired, and the shooting state of the subject (for example, whether the light is direct light or backlight) can be analyzed. Furthermore, it is possible to perform image processing using profile data appropriate for the analyzed shooting situation.

属性検出部806により自動的に検出された撮影属性情報のみならず、ユーザが入力した撮影属性情報にも基づいてプロファイルデータの選択が行われる。このため、ユーザにとっての主観的な画質をより向上させることが可能となる。
(4−3)放送属性情報
(4−3−1)
図92に、属性情報d380として放送属性情報が含まれる入力画像信号d362のフォーマットを示す。図92に示す入力画像信号d362では、入力画像信号d362のヘッダ部分に放送属性情報が配置されている。なお、放送属性情報は、これに限らず、例えば、フラグ情報を伴うなどして入力画像データd372と分離可能な状態で配置されていてもよい。
Profile data is selected based not only on the shooting attribute information automatically detected by the attribute detection unit 806 but also on the shooting attribute information input by the user. For this reason, it is possible to further improve the subjective image quality for the user.
(4-3) Broadcast attribute information (4-3-1)
FIG. 92 shows the format of an input image signal d362 that includes broadcast attribute information as attribute information d380. In the input image signal d362 shown in FIG. 92, broadcast attribute information is arranged in the header portion of the input image signal d362. The broadcast attribute information is not limited to this, and may be arranged in a state where it can be separated from the input image data d372 with flag information, for example.

放送属性情報は、入力画像信号d362が表示装置720に取得されるまでの媒体に関わる情報であって、特に、どのような放送形態により入力画像信号d362が取得されたかに関わる情報である。例えば、放送属性情報には、「地上波デジタル放送」「地上波アナログ放送」「衛星デジタル放送」「衛星アナログ放送」「インターネット放送」のいずれかを示す値が格納されている。   The broadcast attribute information is information relating to a medium until the input image signal d362 is acquired by the display device 720, and particularly, information relating to what type of broadcast the input image signal d362 is acquired. For example, the broadcast attribute information stores a value indicating any one of “terrestrial digital broadcast”, “terrestrial analog broadcast”, “satellite digital broadcast”, “satellite analog broadcast”, and “Internet broadcast”.

放送属性情報を含む入力画像信号d362に対して画像処理を行う画像処理装置は、画像処理装置800を放送属性情報に対応させたものと同様である。
分離部801(図87参照)は、図92に示したフォーマットに基づいて属性情報d380を分離する。
An image processing apparatus that performs image processing on an input image signal d362 including broadcast attribute information is the same as that in which the image processing apparatus 800 is associated with broadcast attribute information.
The separation unit 801 (see FIG. 87) separates the attribute information d380 based on the format shown in FIG.

属性検出部806(図89参照)は、属性情報d380に含まれる放送属性情報を検出し、検出情報Sd3を出力する。属性入力部805は、ユーザに放送属性情報の入力を行わせる。
出力制御部807(図89参照)は、検出情報Sd3と入力情報Sd4とを取得し、プロファイル情報SSI,SCIを出力する。例えば、出力制御部807は、検出情報Sd3と入力情報Sd4とから取得される放送属性情報とプロファイルデータとの関連付けを記憶するデータベースを参照するなどして、カラー視覚処理装置745と色処理装置746とで用いられるプロファイルデータを決定する。プロファイル情報SSI,SCIに関する詳しい説明は上記実施形態と同様であるため省略する。
The attribute detection unit 806 (see FIG. 89) detects broadcast attribute information included in the attribute information d380 and outputs detection information Sd3. The attribute input unit 805 allows the user to input broadcast attribute information.
The output control unit 807 (see FIG. 89) acquires the detection information Sd3 and the input information Sd4, and outputs profile information SSI and SCI. For example, the output control unit 807 refers to a database that stores associations between broadcast attribute information acquired from the detection information Sd3 and the input information Sd4 and profile data, and the color visual processing device 745 and the color processing device 746. The profile data used in and are determined. A detailed description of the profile information SSI and SCI is omitted because it is the same as in the above embodiment.

なお、プロファイル情報SSI,SCIは、放送属性情報を含んでいてもよい。この場合、カラー視覚処理装置745と色処理装置746とは、取得した放送属性情報から画像処理に用いるプロファイルデータを選択し、画像処理を行う。
その他、画像処理装置800の各部の動作は、属性情報d380がコンテンツ情報を含む場合と同様であるため説明を省略する。
Note that the profile information SSI and SCI may include broadcast attribute information. In this case, the color visual processing device 745 and the color processing device 746 select profile data used for image processing from the acquired broadcast attribute information and perform image processing.
In addition, since the operation of each unit of the image processing apparatus 800 is the same as that in the case where the attribute information d380 includes content information, description thereof is omitted.

(4−3−2)
本発明により、上記実施形態で記載した効果と同様の効果が得られる。以下、本変形例に特徴的な効果を記載する。
放送属性情報に応じて適切なプロファイルデータを用いた画像処理を行うことが可能となる。例えば、放送経路が画像に与える影響を補正し、放送局側の意図を考慮して画像処理を行うことが可能となる。
(4-3-2)
According to the present invention, the same effects as those described in the above embodiment can be obtained. Hereinafter, effects characteristic of this modification will be described.
Image processing using appropriate profile data according to broadcast attribute information can be performed. For example, it is possible to correct the influence of the broadcast path on the image and perform image processing in consideration of the intention of the broadcast station.

より具体的には、例えば、地上波アナログ放送、衛星アナログ放送などにより取得された画像に対しては、伝送時のノイズを過剰に強調しないプロファイルデータの選択が行われる。これにより、夜景中に被写体が存在する画像に対して、夜景領域は輝度を保持しつつ被写体の明瞭化を行うプロファイルデータを用いて画像処理を行うことなどが可能となる。   More specifically, for example, profile data that does not excessively emphasize noise during transmission is selected for an image acquired by terrestrial analog broadcasting, satellite analog broadcasting, or the like. As a result, for an image in which a subject is present in the night view, image processing can be performed using profile data for clarifying the subject while maintaining the brightness of the night view region.

属性検出部806により自動的に検出された放送属性情報のみならず、ユーザが入力した放送属性情報にも基づいてプロファイルデータの選択が行われる。このため、ユーザにとっての主観的な画質をより向上させることが可能となる。
(4−4)記録属性情報
(4−4−1)
図93に、属性情報d380として記録属性情報が含まれる入力画像信号d362のフォーマットを示す。図93に示す入力画像信号d362では、入力画像信号d362のヘッダ部分に記録属性情報が配置されている。なお、記録属性情報は、これに限らず、例えば、フラグ情報を伴うなどして入力画像データd372と分離可能な状態で配置されていてもよい。
Profile data is selected based on not only broadcast attribute information automatically detected by the attribute detection unit 806 but also broadcast attribute information input by the user. For this reason, it is possible to further improve the subjective image quality for the user.
(4-4) Recording attribute information (4-4-1)
FIG. 93 shows a format of an input image signal d362 including recording attribute information as attribute information d380. In the input image signal d362 shown in FIG. 93, recording attribute information is arranged in the header portion of the input image signal d362. The recording attribute information is not limited to this, and may be arranged in a state where it can be separated from the input image data d372 with flag information, for example.

記録属性情報は、入力画像信号d362が記録された媒体・装置に関わる情報である。例えば、記録属性情報は、入力画像信号d362が記録された「年代」、記録媒体・装置の「提供メーカ」、記録媒体・装置を特定するための「製品情報」などを含んでいる。
記録属性情報を含む入力画像信号d362に対して画像処理を行う画像処理装置は、画像処理装置800を記録属性情報に対応させたものと同様である。
The recording attribute information is information related to the medium / device on which the input image signal d362 is recorded. For example, the recording attribute information includes “age” when the input image signal d362 is recorded, “provider manufacturer” of the recording medium / device, “product information” for specifying the recording medium / device, and the like.
The image processing apparatus that performs image processing on the input image signal d362 including the recording attribute information is the same as that in which the image processing apparatus 800 is associated with the recording attribute information.

分離部801(図87参照)は、図93に示したフォーマットに基づいて属性情報d380を分離する。
属性検出部806(図89参照)は、属性情報d380に含まれる記録属性情報を検出し、検出情報Sd3を出力する。属性入力部805は、ユーザに記録属性情報の入力を行わせる。
The separation unit 801 (see FIG. 87) separates the attribute information d380 based on the format shown in FIG.
The attribute detection unit 806 (see FIG. 89) detects recording attribute information included in the attribute information d380, and outputs detection information Sd3. An attribute input unit 805 allows the user to input recording attribute information.

出力制御部807(図89参照)は、検出情報Sd3と入力情報Sd4とを取得し、プロファイル情報SSI,SCIを出力する。例えば、出力制御部807は、検出情報Sd3と入力情報Sd4とから取得される記録属性情報とプロファイルデータとの関連付けを記憶するデータベースを参照するなどして、カラー視覚処理装置745と色処理装置746とで用いられるプロファイルデータを決定する。プロファイル情報SSI,SCIに関する詳しい説明は上記実施形態と同様であるため省略する。   The output control unit 807 (see FIG. 89) acquires the detection information Sd3 and the input information Sd4, and outputs profile information SSI and SCI. For example, the output control unit 807 refers to a database that stores the association between the record attribute information acquired from the detection information Sd3 and the input information Sd4 and the profile data, and the color visual processing device 745 and the color processing device 746. The profile data used in and are determined. A detailed description of the profile information SSI and SCI is omitted because it is the same as in the above embodiment.

なお、プロファイル情報SSI,SCIは、記録属性情報を含んでいてもよい。この場合、カラー視覚処理装置745と色処理装置746とは、取得した記録属性情報から画像処理に用いるプロファイルデータを選択し、画像処理を行う。
その他、画像処理装置800の各部の動作は、属性情報d380がコンテンツ情報を含む場合と同様であるため説明を省略する。
Note that the profile information SSI, SCI may include recording attribute information. In this case, the color visual processing device 745 and the color processing device 746 select profile data used for image processing from the acquired recording attribute information and perform image processing.
In addition, since the operation of each unit of the image processing apparatus 800 is the same as that in the case where the attribute information d380 includes content information, description thereof is omitted.

(4−4−2)
本発明により、上記実施形態で記載した効果と同様の効果が得られる。以下、本変形例に特徴的な効果を記載する。
記録属性情報に応じて適切なプロファイルデータを用いた画像処理を行うことが可能となる。例えば、「提供メーカ」が色処理を専門的に扱うカメラメーカなどである場合、色処理装置746が色処理をあまり行わないようにプロファイル情報SCIが出力される。また例えばフィルムなどで記録された入力画像データd372に対しては、フィルムの色表現領域の特性を考慮して色処理を行うようにプロファイル情報SCIが出力される。このように、記録媒体・記録装置が画像に与える影響を補正し、制作側の意図を考慮して画像処理を行うことが可能となる。
(4-4-2)
According to the present invention, the same effects as those described in the above embodiment can be obtained. Hereinafter, effects characteristic of this modification will be described.
It is possible to perform image processing using appropriate profile data according to the recording attribute information. For example, when the “providing manufacturer” is a camera manufacturer that specializes in color processing, the profile information SCI is output so that the color processing device 746 does not perform color processing so much. For example, profile information SCI is output for input image data d372 recorded on a film or the like so as to perform color processing in consideration of the characteristics of the color expression area of the film. In this way, it is possible to correct the influence of the recording medium / recording apparatus on the image and perform image processing in consideration of the intention on the production side.

属性検出部806により自動的に検出された記録属性情報のみならず、ユーザが入力した記録属性情報にも基づいてプロファイルデータの選択が行われる。このため、ユーザにとっての主観的な画質をより向上させることが可能となる。
(4−5)プロファイル属性情報
(4−5−1)
図94に、属性情報d380としてプロファイル属性情報が含まれる入力画像信号d362のフォーマットを示す。図94に示す入力画像信号d362では、入力画像信号d362のヘッダ部分にプロファイル属性情報が配置されている。なお、プロファイル属性情報は、これに限らず、例えば、フラグ情報を伴うなどして入力画像データd372と分離可能な状態で配置されていてもよい。
Profile data is selected based on not only the recording attribute information automatically detected by the attribute detection unit 806 but also the recording attribute information input by the user. For this reason, it is possible to further improve the subjective image quality for the user.
(4-5) Profile attribute information (4-5-1)
FIG. 94 shows a format of an input image signal d362 including profile attribute information as attribute information d380. In the input image signal d362 shown in FIG. 94, profile attribute information is arranged in the header portion of the input image signal d362. The profile attribute information is not limited to this, and may be arranged in a state where it can be separated from the input image data d372 with flag information, for example.

プロファイル属性情報は、プロファイルデータを特定するための情報であり、例えば、入力画像データd372を生成する撮影装置などが推奨するプロファイルデータを特定するための情報である。プロファイル属性情報は、プロファイルデータ、プロファイルデータを特定する番号などのタグ情報、プロファイルデータの処理の特徴を示すパラメータ情報のうちの少なくとも一つを含んでいる。プロファイルデータ、タグ情報、パラメータ情報は、上記実施形態においてプロファイル情報SSI,SCIの説明の際に記載したのと同様である。   The profile attribute information is information for specifying profile data. For example, the profile attribute information is information for specifying profile data recommended by a photographing apparatus that generates the input image data d372. The profile attribute information includes at least one of profile data, tag information such as a number specifying the profile data, and parameter information indicating characteristics of processing of the profile data. Profile data, tag information, and parameter information are the same as those described in the description of the profile information SSI and SCI in the above embodiment.

プロファイル属性情報が特定するプロファイルデータは、次の画像処理〔a〕〜画像処理〔c〕のいずれかの画像処理を行うためのプロファイルデータである。画像処理〔a〕は、入力画像データd372を生成する撮影装置などにおいて、入力画像データd372に対して好適であると判断された画像処理である。画像処理〔b〕は、画像処理〔a〕に
加えて、撮影装置の表示部と標準モデルの表示装置との特性の差異を補正するための画像処理を行うための画像処理である。画像処理〔c〕は、画像処理〔a〕に加えて、撮影装置の表示部と表示装置720(図76参照)との特性の差異を補正するための画像処理を行うための画像処理である。
The profile data specified by the profile attribute information is profile data for performing any one of the following image processing [a] to image processing [c]. The image processing [a] is image processing determined to be suitable for the input image data d372 in a photographing apparatus that generates the input image data d372. The image processing [b] is image processing for performing image processing for correcting a difference in characteristics between the display unit of the photographing apparatus and the standard model display device in addition to the image processing [a]. The image processing [c] is image processing for performing image processing for correcting a difference in characteristics between the display unit of the photographing apparatus and the display device 720 (see FIG. 76) in addition to the image processing [a]. .

さらに、プロファイル属性情報は、入力画像信号d362に含まれる入力画像データd372が既に撮影装置などにおいて画像処理されたデータであるか否かに関する処理フラグ情報を含んでいる。
プロファイル属性情報を含む入力画像信号d362に対して画像処理を行う画像処理装置は、画像処理装置800をプロファイル属性情報に対応させたものと同様である。
Further, the profile attribute information includes processing flag information related to whether or not the input image data d372 included in the input image signal d362 is data that has already undergone image processing in a photographing apparatus or the like.
An image processing apparatus that performs image processing on an input image signal d362 including profile attribute information is the same as that in which the image processing apparatus 800 is associated with profile attribute information.

分離部801(図87参照)は、図94に示したフォーマットに基づいて属性情報d380を分離する。
属性検出部806(図89参照)は、属性情報d380に含まれるプロファイル属性情報を検出し、検出情報Sd3を出力する。属性入力部805は、ユーザにプロファイル属性情報の入力を行わせる。
The separation unit 801 (see FIG. 87) separates the attribute information d380 based on the format shown in FIG.
The attribute detection unit 806 (see FIG. 89) detects profile attribute information included in the attribute information d380 and outputs detection information Sd3. An attribute input unit 805 allows the user to input profile attribute information.

出力制御部807(図89参照)は、検出情報Sd3と入力情報Sd4とを取得し、プロファイル情報SSI,SCIを出力する。プロファイル情報SSI,SCIは、プロファイル属性情報の形式(プロファイルデータ、タグ情報、パラメータ情報のいずれか)に関わらず、プロファイルデータ、タグ情報、パラメータ情報のいずれの形式で出力されてもよい。   The output control unit 807 (see FIG. 89) acquires the detection information Sd3 and the input information Sd4, and outputs profile information SSI and SCI. The profile information SSI and SCI may be output in any format of profile data, tag information, and parameter information regardless of the format of profile attribute information (any of profile data, tag information, and parameter information).

以下、出力制御部807の動作について詳細に説明を加える。
出力制御部807は、検出情報Sd3または入力情報Sd4から取得されるプロファイル属性情報のうち、プロファイルデータを特定する情報をそのままプロファイル情報SSI,SCIとして出力するか否かを判断する。
Hereinafter, the operation of the output control unit 807 will be described in detail.
The output control unit 807 determines whether or not the information specifying the profile data out of the profile attribute information acquired from the detection information Sd3 or the input information Sd4 is output as it is as the profile information SSI and SCI.

例えば、入力情報Sd4によりプロファイルデータが指定されている場合、プロファイル属性情報にかかわらず「出力する」と判断する。
例えば、プロファイル属性情報が画像処理〔a〕または画像処理〔c〕を行うプロファイルデータを特定する情報を含んでおり、処理フラグ情報が「処理無し」を示している場合、「出力する」と判断する。
For example, when the profile data is specified by the input information Sd4, it is determined to “output” regardless of the profile attribute information.
For example, if the profile attribute information includes information specifying profile data for performing image processing [a] or image processing [c], and the processing flag information indicates “no processing”, it is determined to be “output” To do.

それ以外の場合、「出力しない」と判断する。
例えば、プロファイル属性情報が画像処理〔a〕を行うプロファイルデータを特定する情報を含んでおり、処理フラグ情報が「処理有り」を示している場合、出力制御部807は、カラー視覚処理装置745と色処理装置746とに画像処理を行わせないプロファイルデータを特定する情報をプロファイル情報SSI,SCIとして出力する。
Otherwise, it is determined that “no output”.
For example, when the profile attribute information includes information specifying profile data for performing image processing [a], and the processing flag information indicates “processing present”, the output control unit 807 includes the color visual processing device 745 and Information specifying profile data for which image processing is not performed by the color processing device 746 is output as profile information SSI and SCI.

例えば、プロファイル属性情報が画像処理〔b〕を行うプロファイルデータを特定する情報を含んでおり、処理フラグ情報が「処理無し」を示している場合、画像処理〔a〕に加えて、標準モデルの表示装置と表示装置720との特性の差異を補正するための画像処理を行うプロファイルデータを特定するための情報をプロファイル情報SSI,SCIとして出力する。   For example, when the profile attribute information includes information for specifying profile data for performing image processing [b] and the processing flag information indicates “no processing”, in addition to the image processing [a], the standard model Information for specifying profile data for performing image processing for correcting a difference in characteristics between the display device and the display device 720 is output as profile information SSI and SCI.

例えば、プロファイル属性情報が画像処理〔b〕を行うプロファイルデータを特定する情報を含んでおり、処理フラグ情報が「処理有り」を示している場合、標準モデルの表示装置と表示装置720との特性の差異を補正するための画像処理を行うプロファイルデータを特定するための情報をプロファイル情報SSI,SCIとして出力する。   For example, when the profile attribute information includes information specifying profile data for performing image processing [b], and the processing flag information indicates “processing present”, the characteristics of the standard model display device and the display device 720 are displayed. Information for specifying profile data for performing image processing for correcting the difference is output as profile information SSI and SCI.

例えば、プロファイル属性情報が画像処理〔c〕を行うプロファイルデータを特定する情報を含んでおり、処理フラグ情報が「処理有り」を示している場合、出力制御部807は、カラー視覚処理装置745と色処理装置746に対して、撮影装置の表示部と表示装
置720とのデバイス特性の差異を補正するための画像処理を行うプロファイルデータを特定するための情報をプロファイル情報をSSI,SCIとして出力する。
For example, if the profile attribute information includes information specifying profile data for performing image processing [c], and the processing flag information indicates “processing present”, the output control unit 807 includes the color visual processing device 745 and Information for specifying profile data for performing image processing for correcting a difference in device characteristics between the display unit of the photographing device and the display device 720 is output to the color processing device 746 as profile information SSI and SCI. .

なお、これらの処理は、一例であり、これに限定される訳ではない。
その他、画像処理装置800の各部の動作は、属性情報d380がコンテンツ情報を含む場合と同様であるため説明を省略する。
(4−5−2)
本発明により、上記実施形態で記載した効果と同様の効果が得られる。以下、本変形例に特徴的な効果を記載する。
Note that these processes are merely examples, and the present invention is not limited thereto.
In addition, since the operation of each unit of the image processing apparatus 800 is the same as that in the case where the attribute information d380 includes content information, description thereof is omitted.
(4-5-2)
According to the present invention, the same effects as those described in the above embodiment can be obtained. Hereinafter, effects characteristic of this modification will be described.

プロファイル属性情報に応じて適切なプロファイルデータを用いた画像処理を行うことが可能となる。例えば、撮影側で推奨されるプロファイルデータを用いた画像処理を行うことが可能となる。さらに、撮影側の表示部で確認された画像に近い表示を行うことが可能となる。このため、制作側の意図を考慮して画像処理を行うことが可能となる。   It is possible to perform image processing using appropriate profile data in accordance with the profile attribute information. For example, it is possible to perform image processing using profile data recommended on the photographing side. Furthermore, it is possible to perform display close to an image confirmed on the display unit on the photographing side. For this reason, it is possible to perform image processing in consideration of the intention of the production side.

属性検出部806により自動的に検出されたプロファイル属性情報のみならず、ユーザが入力したプロファイル属性情報にも基づいてプロファイルデータの選択が行われる。このため、ユーザにとっての主観的な画質をより向上させることが可能となる。
[第11実施形態]
図95〜図103を用いて、本発明の第11実施形態としての撮影装置820について説明する。
Profile data is selected not only based on profile attribute information automatically detected by the attribute detection unit 806 but also based on profile attribute information input by the user. For this reason, it is possible to further improve the subjective image quality for the user.
[Eleventh embodiment]
A photographing apparatus 820 as an eleventh embodiment of the present invention will be described with reference to FIGS. 95 to 103.

図95に示す撮影装置820は、画像の撮影を行うスチールカメラ、ビデオカメラなど、画像を撮影する撮影装置である。撮影装置820は、上記実施形態で説明した視覚処理装置を含む画像処理装置832を有する点、自動あるいは手動により視覚処理に用いるプロファイルデータを切り替えることができる点に特徴を有している。なお、撮影装置820は、独立した装置であってもよいが、携帯電話機、PDA、PCなどの携帯情報端末に備えられている装置であってもよい。   An imaging apparatus 820 illustrated in FIG. 95 is an imaging apparatus that captures an image, such as a still camera or a video camera that captures an image. The imaging device 820 is characterized in that it has an image processing device 832 including the visual processing device described in the above embodiment, and that profile data used for visual processing can be switched automatically or manually. Note that the photographing device 820 may be an independent device, but may be a device provided in a portable information terminal such as a mobile phone, a PDA, or a PC.

〈撮影装置820〉
撮影装置820は、撮影部821、画像処理装置832、表示部834、CPU846、照明部848、入力部850、セキュリティ判定部852、コーデック840、メモリコントローラ842、メモリ844、外部インタフェース(I/F)854、外部装置856を備えている。
<Photographing device 820>
The imaging device 820 includes an imaging unit 821, an image processing device 832, a display unit 834, a CPU 846, an illumination unit 848, an input unit 850, a security determination unit 852, a codec 840, a memory controller 842, a memory 844, and an external interface (I / F). 854 and an external device 856 are provided.

撮影部821は、画像の撮影を行い、入力画像信号d362を出力する部分であり、レンズ822、絞り・シャッター部824、CCD826、アンプ828、A/D変換部830、CCD制御部836、情報検出部838から構成されている。
レンズ822は、CCD826上に被写体の画像を結像するためのレンズである。絞り・シャッター部824は、レンズ822を通過した光束の通過範囲や通過時間を変えて露出を制御するための機構である。CCD826は、被写体の画像を光電変換して画像信号として出力するためのイメージセンサである。アンプ828は、CCD826から出力された画像信号を増幅するための装置である。A/D変換部830は、アンプ828により増幅されたアナログ画像信号をデジタル画像信号に変換する装置である。CCD制御部836は、CCD826を駆動するタイミングを制御する装置である。情報検出部838は、デジタル画像信号からオートフォーカス、絞り、露出などの情報を検出し、CPU846に出力する装置である。
The imaging unit 821 is a part that captures an image and outputs an input image signal d362, and includes a lens 822, an aperture / shutter unit 824, a CCD 826, an amplifier 828, an A / D conversion unit 830, a CCD control unit 836, and information detection. Part 838.
The lens 822 is a lens for forming an image of a subject on the CCD 826. The aperture / shutter unit 824 is a mechanism for controlling the exposure by changing the passage range and passage time of the light beam that has passed through the lens 822. The CCD 826 is an image sensor for photoelectrically converting a subject image and outputting it as an image signal. The amplifier 828 is a device for amplifying the image signal output from the CCD 826. The A / D converter 830 is a device that converts the analog image signal amplified by the amplifier 828 into a digital image signal. The CCD control unit 836 is a device that controls the timing for driving the CCD 826. The information detection unit 838 is a device that detects information such as autofocus, aperture, and exposure from the digital image signal and outputs the information to the CPU 846.

画像処理装置832は、[第10実施形態]で図77を用いて説明した画像処理装置723のと同様の画像処理装置である。画像処理装置832は、CPU846からの制御を受け、入力画像信号d362に含まれる入力画像データd372(図96参照)の画像処理を行い、出力画像データd371(図96参照)を含む出力画像信号d361を出力す
る装置である。画像処理装置832は、上記実施形態で説明した視覚処理装置を含み、プロファイルデータを用いて画像処理を行う点に特徴を有している。詳細な構成は、後ほど図96を用いて説明する。
The image processing apparatus 832 is the same image processing apparatus as the image processing apparatus 723 described with reference to FIG. 77 in [Tenth Embodiment]. Under the control of the CPU 846, the image processing device 832 performs image processing on the input image data d372 (see FIG. 96) included in the input image signal d362, and an output image signal d361 including the output image data d371 (see FIG. 96). Is a device that outputs. The image processing device 832 includes the visual processing device described in the above embodiment, and is characterized in that image processing is performed using profile data. The detailed configuration will be described later with reference to FIG.

表示部834は、画像処理装置832により出力された出力画像信号d361を、例えばサムネイル表示する装置である。表示部834は、LCDで構成されることが多いが、PDP、CRT、プロジェクタなど、画像を表示する装置であれば特に限定しない。なお、表示部834は、撮影装置820に内蔵されているものだけでなく、有線あるいは無線のネットワークなどを介して接続されていてもよい。また、表示部834は、画像処理装置832とCPU846を介して接続されていてもよい。   The display unit 834 is a device that displays, for example, thumbnails of the output image signal d361 output by the image processing device 832. The display unit 834 is often composed of an LCD, but is not particularly limited as long as it is a device that displays an image, such as a PDP, a CRT, or a projector. Note that the display unit 834 may be connected not only to a built-in image capturing device 820 but also via a wired or wireless network. The display unit 834 may be connected to the image processing device 832 via the CPU 846.

CPU846は、画像処理装置832、コーデック840、メモリコントローラ842、外部I/F854、とバスラインを介して接続されており、情報検出部838の検出結果、入力部850による入力結果、照明部848による発光情報、セキュリティ判定部852による判定結果などを受け取るとともに、レンズ822、絞り・シャッター部824、CCD制御部836、画像処理装置832、照明部848、入力部850、セキュリティ判定部852やバスラインに接続された各部などの制御を実行する装置である。   The CPU 846 is connected to the image processing apparatus 832, the codec 840, the memory controller 842, and the external I / F 854 via a bus line, and the detection result of the information detection unit 838, the input result of the input unit 850, and the illumination unit 848 In addition to receiving the light emission information, the determination result by the security determination unit 852, the lens 822, the aperture / shutter unit 824, the CCD control unit 836, the image processing device 832, the illumination unit 848, the input unit 850, the security determination unit 852, and the bus line. It is a device that executes control of each connected unit.

照明部848は、被写体に照射する照明光を発光するストロボなどである。
入力部850は、撮影装置820への操作をユーザに行わせるためのユーザインタフェースであり、各部の制御をするためのキー、つまみ、リモコンなどである。
セキュリティ判定部852は、外部から取得されるセキュリティ情報を判定して、CPUを介して画像処理装置832の制御を行う部分である。
The illumination unit 848 is a strobe that emits illumination light to irradiate the subject.
The input unit 850 is a user interface for allowing the user to perform an operation on the photographing apparatus 820, and includes a key, a knob, a remote controller, and the like for controlling each unit.
The security determination unit 852 is a part that determines security information acquired from the outside and controls the image processing apparatus 832 via the CPU.

コーデック840は、画像処理装置832からの出力画像信号d361をJPEGあるいはMPEGなどにより圧縮処理する圧縮回路である。
メモリコントローラ842は、DRAMなどで構成されるCPUのメモリ844のアドレスやアクセスタイミングなどの制御を行う。
The codec 840 is a compression circuit that compresses the output image signal d361 from the image processing device 832 by JPEG or MPEG.
The memory controller 842 controls the address and access timing of the memory 844 of the CPU constituted by a DRAM or the like.

メモリ844は、DRAMなどで構成され、画像処理などの際に作業用メモリとして用いられる。
外部I/F854は、メモリカード859、PC861などの外部装置856に出力画像信号d361、あるいはコーデック840で圧縮処理された出力画像信号d361を出力するとともに、画像処理を行うためのプロファイルデータに関する情報であるプロファイル情報などを取得し、入力画像信号d362として画像処理装置832に出力するためのインタフェースである。プロファイル情報は、[第10実施形態]で説明したのと同様である。外部I/F854は、例えば、メモリカードI/F858、PCI/F860、ネットワークI/F862、無線I/F864などにより構成される。なお、外部I/F854は、ここに例示したものの全てを備えている必要は無い。
The memory 844 is composed of a DRAM or the like, and is used as a working memory during image processing.
The external I / F 854 is information related to profile data for performing image processing while outputting the output image signal d361 or the output image signal d361 compressed by the codec 840 to an external device 856 such as a memory card 859 or a PC861. This is an interface for acquiring certain profile information and outputting it to the image processing apparatus 832 as an input image signal d362. The profile information is the same as that described in [Tenth Embodiment]. The external I / F 854 includes, for example, a memory card I / F 858, a PCI / F 860, a network I / F 862, a wireless I / F 864, and the like. Note that the external I / F 854 does not have to include all of those exemplified here.

メモリカードI/F858は、画像データやプロファイル情報などを記録するメモリカード859と撮影装置820とを接続するためのインタフェースである。PCI/F860は、画像データやプロファイル情報などを記録するパーソナルコンピュータなどの外部機器であるPC861と撮影装置820とを接続するためのインタフェースである。ネットワークI/F862は、撮影装置820をネットワークに接続し、画像データやプロファイル情報などを送受信するためのインタフェースである。無線I/F864は、撮影装置820を無線LANなどを介して外部機器と接続し、画像データやプロファイル情報などを送受信するためのインタフェースである。なお、外部I/F854は、図示したものに限られず、例えば、USB、光ファイバーなどと撮影装置820とを接続するためのインタフェースであってもよい。   The memory card I / F 858 is an interface for connecting a memory card 859 that records image data, profile information, and the like to the photographing device 820. The PCI / F 860 is an interface for connecting the PC 861 that is an external device such as a personal computer that records image data, profile information, and the like to the photographing apparatus 820. A network I / F 862 is an interface for connecting the imaging device 820 to a network and transmitting / receiving image data, profile information, and the like. The wireless I / F 864 is an interface for connecting the photographing apparatus 820 to an external device via a wireless LAN or the like, and transmitting / receiving image data, profile information, and the like. Note that the external I / F 854 is not limited to the illustrated one, and may be an interface for connecting a USB, an optical fiber, and the like to the photographing apparatus 820, for example.

〈画像処理装置832〉
図96に、画像処理装置832の構成を示す。画像処理装置832は、画像処理装置723と同様の構成を有している。図96では、画像処理装置723と同じ機能を有する部分に同じ符号を付している。
<Image processing apparatus 832>
FIG. 96 shows the configuration of the image processing apparatus 832. The image processing device 832 has the same configuration as the image processing device 723. In FIG. 96, parts having the same functions as those of the image processing device 723 are denoted by the same reference numerals.

画像処理装置832は、入力画像データd372に対してカラー視覚処理を行うカラー視覚処理装置745と、カラー視覚処理装置745の出力であるカラー視覚処理信号d373に対して色処理を行う色処理装置746と、カラー視覚処理および色処理に用いられるプロファイルデータを特定するためのプロファイル情報SSI,SCIを出力するプロファイル情報出力部747とを備えている。   The image processing device 832 is a color visual processing device 745 that performs color visual processing on the input image data d372, and a color processing device 746 that performs color processing on the color visual processing signal d373 that is the output of the color visual processing device 745. And a profile information output unit 747 for outputting profile information SSI and SCI for specifying profile data used for color visual processing and color processing.

各部の動作は、[第10実施形態]で説明したため、詳しい説明を省略する。
なお、[第10実施形態]では、プロファイル情報SSI,SCIが含む環境情報は、「画像処理された画像データが表示され、視覚される環境に関する情報である」、と記載したが、これは、撮影が行われる環境に関する情報であってもよい。
Since the operation of each part has been described in [Tenth Embodiment], detailed description thereof will be omitted.
In the [Tenth Embodiment], the environment information included in the profile information SSI and SCI is described as “information regarding an environment in which image data subjected to image processing is displayed and visualized”. It may be information about an environment where shooting is performed.

〈撮影装置820の効果〉
撮影装置820は、[第10実施形態]で説明した画像処理装置723と同様の画像処理装置832を備えている。このため、画像処理装置723を備える表示装置720(図76参照)と同様の効果を奏することが可能である。
<Effect of the photographing device 820>
The imaging device 820 includes an image processing device 832 similar to the image processing device 723 described in [Tenth Embodiment]. Therefore, it is possible to achieve the same effect as that of the display device 720 (see FIG. 76) including the image processing device 723.

(1)
撮影装置820では、プロファイル情報出力部747(図78参照)を備え、取得された環境情報に好適なプロファイルデータを用いた画像処理を行うことが可能となる。特に、自動的に検出された環境情報のみならず、ユーザが入力した環境情報にも基づいてプロファイルデータの選択が行われるため、ユーザにとってより視覚的効果の高い画像処理を行うことが可能となる。
(1)
The imaging device 820 includes a profile information output unit 747 (see FIG. 78), and can perform image processing using profile data suitable for the acquired environment information. In particular, since profile data is selected not only based on automatically detected environment information but also based on environment information input by the user, it is possible to perform image processing with a higher visual effect for the user. .

プロファイルデータとしてルックアップテーブルを用いた場合には、テーブルの参照により画像処理が行われるため高速な画像処理が実現可能となる。
撮影装置820では、プロファイルデータを変更することにより異なる画像処理が実現される。すなわち、ハードウェア構成を変更することなく異なる画像処理が実現される。
When a lookup table is used as profile data, image processing is performed by referring to the table, so that high-speed image processing can be realized.
In the imaging device 820, different image processing is realized by changing the profile data. That is, different image processing is realized without changing the hardware configuration.

プロファイルデータを用いた画像処理では、予めプロファイルデータを生成しておくことができるため、複雑な画像処理を容易に実現することが可能となる。
(2)
画像処理装置832のプロファイル情報出力部747では、カラー視覚処理装置745と色処理装置746とのそれぞれに対して、異なるプロファイル情報を出力することが可能となる。このため、カラー視覚処理装置745と色処理装置746とにおけるそれぞれの画像処理が重複した処理、あるいは効果が相殺される処理となることが防止可能となる。すなわち、画像処理装置832による画像処理を適切に行うことが可能となる。
In image processing using profile data, since profile data can be generated in advance, complex image processing can be easily realized.
(2)
The profile information output unit 747 of the image processing device 832 can output different profile information to each of the color visual processing device 745 and the color processing device 746. For this reason, it is possible to prevent the image processing in the color visual processing device 745 and the color processing device 746 from overlapping each other or processing that cancels the effect. That is, the image processing by the image processing device 832 can be appropriately performed.

(3)
撮影装置820は、表示部834を備え、画像処理された画像を確認しつつ撮影を行うことが可能である。このため、撮影時の画像の印象と、撮影された画像を表示した時の印象とを近づけることが可能となる。
(3)
The imaging device 820 includes a display unit 834 and can perform imaging while confirming an image that has been subjected to image processing. For this reason, it becomes possible to make the impression of the image at the time of photographing close to the impression at the time of displaying the photographed image.

〈変形例〉
撮影装置820では、上記実施形態において画像処理装置723や視覚処理装置753(図79参照)に関して記載したのと同様の変形が可能である。以下、撮影装置820に特徴的な変形例を記載する。
<Modification>
The imaging device 820 can be modified in the same manner as described for the image processing device 723 and the visual processing device 753 (see FIG. 79) in the above embodiment. Hereinafter, modifications characteristic to the imaging device 820 will be described.

(1)
[第10実施形態]の説明において、プロファイル情報出力部747の情報入力部748(図78参照)は、ユーザが環境情報を入力するための入力装置であると説明した。
撮影装置820では、情報入力部748は、環境情報に加えて、あるいは変えて、他の情報を入力することができる装置であってもよい。例えば、情報入力部748は、ユーザの嗜好する明るさや画質といったユーザ入力情報を入力することができる装置であってもよい。
(1)
In the description of [Tenth Embodiment], the information input unit 748 (see FIG. 78) of the profile information output unit 747 has been described as an input device for the user to input environment information.
In the imaging device 820, the information input unit 748 may be a device that can input other information in addition to or in place of the environment information. For example, the information input unit 748 may be a device that can input user input information such as brightness and image quality that the user likes.

本変形例としてのプロファイル情報出力部747では、情報入力部748に加えて、あるいは変えて、[第10実施形態]〈変形例〉(7)に記載したユーザ入力部772(図86参照)を備えているものでもよい。ユーザ入力部772の詳しい説明は、上記実施形態で行ったため省略する。   In addition to or instead of the information input unit 748, the profile information output unit 747 as the present modification includes a user input unit 772 (see FIG. 86) described in [Tenth Embodiment] <Modification> (7). It may be provided. The detailed description of the user input unit 772 has been made in the above embodiment, and will be omitted.

本変形例としてのプロファイル情報出力部747の出力制御部750(図78参照)は、ユーザ入力部772から入力されたユーザ入力情報と、環境検出部749が検出した環境情報とに基づいて、プロファイル情報SSI,SCIを出力する。より具体的には、本変形例としての出力制御部750は、ユーザ入力情報の値と環境情報の値とに関連づけられたプロファイルデータのデータベースを参照するなどしてプロファイル情報SSI,SCIを出力する。   The output control unit 750 (see FIG. 78) of the profile information output unit 747 as the present modification is based on the user input information input from the user input unit 772 and the environment information detected by the environment detection unit 749. Information SSI and SCI are output. More specifically, the output control unit 750 as the present modification outputs profile information SSI and SCI by referring to a database of profile data associated with the value of user input information and the value of environment information. .

これにより、撮影装置820では、ユーザの好みに応じた適切なプロファイルデータによる画像処理が実現可能となる。
(2)
上記実施形態で説明した撮影装置820の各部において、同様の機能を実現する部分は、共通のハードウェアで実現されていても良い。
As a result, the image capturing apparatus 820 can realize image processing using appropriate profile data according to the user's preference.
(2)
In each part of the imaging device 820 described in the above embodiment, a part that realizes the same function may be realized by common hardware.

例えば、撮影装置820の入力部850(図95参照)は、プロファイル情報出力部747の情報入力部748、変形例としてのプロファイル情報出力部747のユーザ入力部772、視覚処理装置753b(図83参照)の入力装置527、視覚処理装置753c(図84参照)の入力装置527などと兼用される装置であってもよい。   For example, the input unit 850 (see FIG. 95) of the imaging device 820 includes an information input unit 748 of the profile information output unit 747, a user input unit 772 of the profile information output unit 747 as a modification, and a visual processing device 753b (see FIG. 83). ) Input device 527, visual processing device 753c (see FIG. 84) input device 527, and the like.

また、視覚処理装置753(図80参照)のプロファイルデータ登録装置8、視覚処理装置753a(図82参照)のプロファイルデータ登録部521、視覚処理装置753b(図83参照)のプロファイルデータ登録部526、視覚処理装置753c(図84参照)のプロファイルデータ登録部531などは、画像処理装置832の外部に備えられる物であっても良く、例えば、メモリ844や外部装置856により実現されていても良い。   Further, the profile data registration device 8 of the visual processing device 753 (see FIG. 80), the profile data registration unit 521 of the visual processing device 753a (see FIG. 82), the profile data registration unit 526 of the visual processing device 753b (see FIG. 83), The profile data registration unit 531 and the like of the visual processing device 753c (see FIG. 84) may be provided outside the image processing device 832 and may be realized by the memory 844 or the external device 856, for example.

また、それぞれのプロファイルデータ登録部やプロファイルデータ登録装置に登録されるプロファイルデータは、予め各部に登録されているものであってもよいし、外部装置856から取得されるものであってもよい。
また、それぞれのプロファイルデータ登録部やプロファイルデータ登録装置は、色処理装置746においてプロファイルデータが記憶される記憶装置と兼用されていても良い。
The profile data registered in each profile data registration unit or profile data registration device may be registered in each unit in advance or may be acquired from the external device 856.
Each profile data registration unit and profile data registration device may also be used as a storage device that stores profile data in the color processing device 746.

また、プロファイル情報出力部747は、画像処理装置832の外部や撮影装置820の外部に有線または無線で接続される装置であっても良い。
(3)
撮影装置820の画像処理装置832は、画像処理に用いるプロファイルデータを特定するためのプロファイル情報を、入力画像データd372または画像処理された入力画像データd372とともに出力画像信号d361として出力する装置であってもよい。
Further, the profile information output unit 747 may be a device that is connected to the outside of the image processing device 832 or the outside of the imaging device 820 by wire or wirelessly.
(3)
The image processing device 832 of the imaging device 820 is a device that outputs profile information for specifying profile data used for image processing as the output image signal d361 together with the input image data d372 or the input image data d372 subjected to the image processing. Also good.

これについて、図97〜図101を用いて説明する。
《3−1》画像処理装置886の構成
図97を用いて、変形例としての画像処理装置886の構成を説明する。画像処理装置886は、入力画像データd372の画像処理を行い、処理結果を表示部834に表示させるとともに、画像処理に好適なプロファイルデータのプロファイル情報d401を入力画像データd372に付加して出力する装置である。
This will be described with reference to FIGS.
<3-1> Configuration of Image Processing Device 886 The configuration of an image processing device 886 as a modification will be described with reference to FIG. The image processing device 886 performs image processing on the input image data d372, displays the processing result on the display unit 834, and adds profile information d401 of profile data suitable for image processing to the input image data d372 and outputs the same. It is.

画像処理装置886は、カラー視覚処理装置888と、色処理装置889と、推奨プロファイル情報抽出部890と、プロファイル情報付加部892とを備えている。
カラー視覚処理装置888は、[第10実施形態]で説明したカラー視覚処理装置745とほぼ同様の構成を有しており、カラー視覚処理装置745と同様に、入力画像データd372の視覚処理を行い、カラー視覚処理信号d373を出力する。
The image processing device 886 includes a color visual processing device 888, a color processing device 889, a recommended profile information extraction unit 890, and a profile information addition unit 892.
The color visual processing device 888 has substantially the same configuration as the color visual processing device 745 described in [Tenth Embodiment], and performs visual processing of the input image data d372 in the same manner as the color visual processing device 745. The color visual processing signal d373 is output.

カラー視覚処理装置888とカラー視覚処理装置745との相違点は、カラー視覚処理装置888が有する視覚処理装置が、視覚処理装置1(図1参照)、視覚処理装置520(図6参照)、視覚処理装置525(図7参照)、視覚処理装置530(図8参照)のいずれかとほぼ同様の視覚処理装置であり、かつ、視覚処理装置が推奨プロファイル情報SSOを出力する点である。推奨プロファイル情報SSOの詳細については、後述する。   The difference between the color visual processing device 888 and the color visual processing device 745 is that the visual processing device included in the color visual processing device 888 is the visual processing device 1 (see FIG. 1), the visual processing device 520 (see FIG. 6), The visual processing device is substantially the same as either the processing device 525 (see FIG. 7) or the visual processing device 530 (see FIG. 8), and the visual processing device outputs recommended profile information SSO. Details of the recommended profile information SSO will be described later.

色処理装置889は、[第10実施形態]で説明した色処理装置746とほぼ同様の構成を有しており、色処理装置746と同様に、カラー視覚処理信号d373の色処理を行い、出力画像データd371を出力する。
色処理装置889と色処理装置746との相違点は、色処理装置889が色処理に用いたプロファイルデータのプロファイル情報を推奨プロファイル情報SCOとして出力する点である。推奨プロファイル情報SCOの詳細については、後述する。
The color processing device 889 has substantially the same configuration as the color processing device 746 described in [Tenth Embodiment], and performs color processing of the color visual processing signal d373 and outputs the same as the color processing device 746. Image data d371 is output.
The difference between the color processing device 889 and the color processing device 746 is that the profile information of the profile data used by the color processing device 889 for color processing is output as recommended profile information SCO. Details of the recommended profile information SCO will be described later.

推奨プロファイル情報抽出部890は、推奨プロファイル情報SSO,SCOを抽出し、それらの情報をプロファイル情報d401として出力する。
プロファイル情報付加部892は、入力画像データd372に対してプロファイル情報d401を付加し、出力画像信号d361として出力する。
The recommended profile information extraction unit 890 extracts the recommended profile information SSO and SCO, and outputs these information as profile information d401.
The profile information adding unit 892 adds profile information d401 to the input image data d372 and outputs it as an output image signal d361.

図98に、プロファイル情報付加部892がプロファイル情報d401を付加した出力画像信号d361のフォーマット例を示す。
図98(a)では、出力画像信号d361の先頭部にプロファイル情報d401が配置されており、それに続いて入力画像データd372が配置されている。このようなフォーマットでは、先頭部のプロファイル情報d401を用いて、全ての入力画像データd372の画像処理が行われる。このため、プロファイル情報d401は、出力画像信号d361中において一箇所だけ配置されていればよく、出力画像信号d361に占めるプロファイル情報d401の割合を削減することが可能となる。
FIG. 98 shows a format example of the output image signal d361 to which the profile information adding unit 892 has added the profile information d401.
In FIG. 98A, the profile information d401 is arranged at the head of the output image signal d361, and the input image data d372 is arranged subsequently. In such a format, image processing of all input image data d372 is performed using the profile information d401 at the head. For this reason, the profile information d401 only needs to be arranged in one place in the output image signal d361, and the ratio of the profile information d401 in the output image signal d361 can be reduced.

図98(b)では、複数に分割された入力画像データd372のそれぞれに対して、プロファイル情報d401が配置されている。このようなフォーマットでは、分割された入力画像データd372のそれぞれの画像処理において、異なるプロファイルデータが用いられる。このため、例えば、入力画像データd372のシーン毎に異なるプロファイルデータを用いた画像処理を行うことが可能となり、より画像処理を適切に行うことが可能となる。   In FIG. 98 (b), profile information d401 is arranged for each of the divided input image data d372. In such a format, different profile data is used in each image processing of the divided input image data d372. For this reason, for example, it is possible to perform image processing using different profile data for each scene of the input image data d372, and it is possible to perform image processing more appropriately.

また、連続的に変化するような一連のシーンの場合、まず先頭シーンにシーン属性情報を付加して、続く複数のシーンには先頭シーンからの明るさの変動情報や対象の変動情報のみをシーン属性情報として付加することで、動画像に対して画像処理する場合に発生することがあるちらつきや画質の急激な変化を抑えることができる。   In the case of a series of scenes that change continuously, scene attribute information is first added to the first scene, and only the brightness fluctuation information and target fluctuation information from the first scene are added to the subsequent scenes. By adding it as attribute information, it is possible to suppress flickering and sudden changes in image quality that may occur when image processing is performed on a moving image.

《3−2》推奨プロファイル情報SSO,SCO
推奨プロファイル情報SSO,SCOは、それぞれプロファイルデータを特定するための情報であり、プロファイルデータ、プロファイルデータを特定する番号などのタグ情報、プロファイルデータの処理の特徴を示すパラメータ情報のうちの少なくとも一つを含んでいる。プロファイルデータ、タグ情報、パラメータ情報は、プロファイル情報SSI,SCIの説明で記載したのと同様である。
<< 3-2 >> Recommended profile information SSO, SCO
The recommended profile information SSO and SCO are information for specifying profile data, respectively, and are at least one of profile data, tag information such as numbers for specifying profile data, and parameter information indicating characteristics of processing of profile data. Is included. Profile data, tag information, and parameter information are the same as those described in the description of the profile information SSI and SCI.

また、推奨プロファイル情報SSO,SCOが特定するプロファイルデータは、次の画
像処理〔a〕〜画像処理〔c〕のいずれかの画像処理を行うためのプロファイルデータである。画像処理〔a〕は、カラー視覚処理装置888が入力画像データd372に対して好適であると判断する視覚処理、あるいは、色処理装置889がカラー視覚処理信号d373に対して好適であると判断する色処理である。ここで、画像処理〔a〕において、「好適であると判断される」画像処理とは、例えば、カラー視覚処理装置888と色処理装置889とでそれぞれ用いられた画像処理である。画像処理〔b〕は、画像処理〔a〕に加えて、撮影装置820の表示部834と標準モデルの表示装置との特性の差異を補正するための画像処理を行うための画像処理である。画像処理〔c〕は、画像処理〔a〕に加えて、撮影装置820の表示部834と撮影装置820が撮影した画像を表示する表示装置との特性の差異を補正するための画像処理を行うための画像処理である。
The profile data specified by the recommended profile information SSO, SCO is profile data for performing any one of the following image processing [a] to image processing [c]. In the image processing [a], the color visual processing device 888 determines that the input image data d372 is preferable, or the color processing device 889 determines that the color visual processing signal d373 is preferable. Color processing. Here, in the image processing [a], “determined to be suitable” image processing is, for example, image processing respectively used by the color visual processing device 888 and the color processing device 889. The image processing [b] is image processing for performing image processing for correcting a difference in characteristics between the display unit 834 of the photographing device 820 and the standard model display device in addition to the image processing [a]. In addition to the image processing [a], the image processing [c] performs image processing for correcting a difference in characteristics between the display unit 834 of the imaging device 820 and the display device that displays the image captured by the imaging device 820. Image processing.

カラー視覚処理装置888と色処理装置889とは、撮影時の画像を確認するための表示部834の表示特性が分からない場合、画像処理〔a〕を行うプロファイルデータのプロファイル情報を推奨プロファイル情報SSO,SCOとして出力する。
カラー視覚処理装置888と色処理装置889とは、撮影装置820で撮影した画像を表示する表示部834の表示特性は分かるが、撮影装置820が撮影した画像を表示する表示装置(例えば、撮影・記録された画像を表示するための表示装置720など)の表示特性が分からない場合、画像処理〔b〕を行うプロファイルデータのプロファイル情報を推奨プロファイル情報SSO,SCOとして出力する。
When the display characteristics of the display unit 834 for confirming the image at the time of photographing are not known, the color visual processing device 888 and the color processing device 889 use the profile information of the profile data for performing image processing [a] as the recommended profile information SSO. , SCO.
The color visual processing device 888 and the color processing device 889 know the display characteristics of the display unit 834 that displays an image captured by the image capturing device 820, but display devices that display the image captured by the image capturing device 820 (for example, image capturing When the display characteristics of the display device 720 for displaying the recorded image are not known, the profile information of the profile data for performing the image processing [b] is output as the recommended profile information SSO, SCO.

カラー視覚処理装置888と色処理装置889とは、撮影装置820で撮影した画像を表示する表示部834の表示特性と、撮影装置820が撮影した画像を表示する表示装置(例えば、撮影・記録された画像を表示するための表示装置720など)の表示特性とが分かる場合、画像処理〔c〕を行うプロファイルデータのプロファイル情報を推奨プロファイル情報SSO,SCOとして出力する。   The color visual processing device 888 and the color processing device 889 include a display characteristic of the display unit 834 that displays an image captured by the image capturing device 820 and a display device that displays an image captured by the image capturing device 820 (for example, an image that is captured and recorded). If the display characteristics of the display device 720 for displaying the displayed image are known, the profile information of the profile data for performing the image processing [c] is output as the recommended profile information SSO, SCO.

なお、以上の処理は、一例であり、それぞれの場合に選択される画像処理はこれに限らない。
《3−3》画像処理装置886の効果
画像処理装置886では、プロファイル情報d401を含む出力画像信号d361を出力する。このため、出力画像信号d361を取得した装置では、出力画像信号d361が含む入力画像データd372の画像処理を行う際に、好適なプロファイルデータを用いた画像処理を行うことが可能となる。
Note that the above processing is an example, and the image processing selected in each case is not limited to this.
<< 3-3 >> Effects of Image Processing Device 886 The image processing device 886 outputs an output image signal d361 including profile information d401. For this reason, the apparatus that has acquired the output image signal d361 can perform image processing using suitable profile data when performing image processing of the input image data d372 included in the output image signal d361.

また、プロファイル情報d401は、画像処理〔a〕〜画像処理〔c〕のいずれかを行うプロファイルデータのプロファイル情報を含んでいる。このため、例えば、撮影装置820の表示部834において確認した画像と、出力画像信号d361を取得する表示装置が表示する画像とを近づけることが可能となる。すなわち、画像処理〔b〕を行うプロファイルデータのプロファイル情報を取得した表示装置では、出力画像信号d361に対して画像処理〔b〕を行うとともに、標準モデルの表示装置との差異を補正する画像処理を行うことにより、表示画像を表示部834で確認した画像に近づけることが可能となる。また、画像処理〔c〕を行うプロファイルデータのプロファイル情報を取得した表示装置では、出力画像信号d361に対して画像処理〔c〕を行うことにより、表示画像を表示部834で確認した画像に近づけることが可能となる。   The profile information d401 includes profile information of profile data for performing any one of image processing [a] to image processing [c]. For this reason, for example, the image confirmed on the display unit 834 of the imaging device 820 can be brought close to the image displayed by the display device that acquires the output image signal d361. That is, in the display device that has acquired the profile information of the profile data for performing the image processing [b], the image processing [b] is performed on the output image signal d361, and the image processing for correcting the difference from the standard model display device. By performing the above, it is possible to bring the display image closer to the image confirmed by the display unit 834. Further, in the display device that has acquired the profile information of the profile data for performing the image processing [c], the display image is brought close to the image confirmed by the display unit 834 by performing the image processing [c] on the output image signal d361. It becomes possible.

《3−4》変形例
(1)処理フラグ情報
出力画像信号d361は、出力画像信号d361が含む入力画像データd372が画像処理装置886において画像処理されたデータであるか否かについての処理フラグ情報をさらに含んでいてもよい。これにより、出力画像信号d361を取得する表示装置は、出力画像信号d361が含む入力画像データd372が画像処理されたデータであるか否か
について判断することが可能となる。このため、表示装置において過剰な画像処理や、効果を相殺させるような画像処理を行うことが防止できる。
<< 3-4 >> Modifications (1) Processing Flag Information The output image signal d361 is processing flag information about whether or not the input image data d372 included in the output image signal d361 is image processed by the image processing device 886. May further be included. Accordingly, the display device that acquires the output image signal d361 can determine whether or not the input image data d372 included in the output image signal d361 is image-processed data. For this reason, it is possible to prevent the display device from performing excessive image processing or image processing that cancels the effect.

(2)画像処理装置
上記した画像処理装置886の説明において、「プロファイル情報付加部892は、入力画像データd372にプロファイル情報d401を付加して出力する」、と説明した。
ここで、プロファイル情報付加部892は、入力画像データd372を画像処理した結果である出力画像データd371にプロファイル情報d401を付加して出力する、ものであってもよい。
(2) Image Processing Device In the above description of the image processing device 886, “the profile information adding unit 892 adds the profile information d401 to the input image data d372 and outputs it” is described.
Here, the profile information adding unit 892 may add the profile information d401 to the output image data d371, which is the result of image processing of the input image data d372, and output it.

図99に画像処理装置886の変形例としての画像処理装置894を示す。画像処理装置886の各部と同じ機能を果たす部分については同じ符号を付して示す。図99に示す画像処理装置894は、プロファイル情報付加部892が、出力画像データd371に対して、プロファイル情報d401を付加している点に特徴を有している。   FIG. 99 shows an image processing device 894 as a modification of the image processing device 886. Portions that perform the same functions as those of the image processing device 886 are denoted by the same reference numerals. The image processing apparatus 894 shown in FIG. 99 is characterized in that the profile information adding unit 892 adds profile information d401 to the output image data d371.

また、図99の画像処理装置894では、推奨プロファイル情報SSO,SCOが特定するプロファイルデータは、次の画像処理〔a’〕〜画像処理〔c’〕のいずれかの画像処理を行うためのプロファイルデータである。画像処理〔a’〕は、カラー視覚処理装置888が入力画像データd372に対して好適であると判断する視覚処理、あるいは、色処理装置889がカラー視覚処理信号d373に対して好適であると判断する色処理である。ここで、画像処理〔a’〕において、「好適であると判断される」画像処理とは、例えば、カラー視覚処理装置888と色処理装置889とのそれぞれにおいて用いられた画像処理である。画像処理〔b’〕は、撮影装置820の表示部834と標準モデルの表示装置との特性の差異を補正するための画像処理である。画像処理〔c’〕は、撮影装置820の表示部834と撮影装置820が撮影した画像を表示する表示装置との特性の差異を補正するための画像処理である。   In the image processing apparatus 894 in FIG. 99, the profile data specified by the recommended profile information SSO, SCO is a profile for performing any one of the following image processing [a ′] to image processing [c ′]. It is data. In the image processing [a ′], the color visual processing device 888 determines that the input image data d372 is preferable, or the color processing device 889 determines that the color visual processing signal d373 is preferable. Color processing. Here, in the image processing [a ′], “determined to be suitable” image processing is, for example, image processing used in each of the color visual processing device 888 and the color processing device 889. The image processing [b ′] is image processing for correcting a difference in characteristics between the display unit 834 of the photographing apparatus 820 and the standard model display apparatus. The image processing [c ′] is image processing for correcting a difference in characteristics between the display unit 834 of the image capturing device 820 and the display device that displays an image captured by the image capturing device 820.

その他各部の動作については、説明を省略する。
画像処理装置894では、例えば、上述の画像処理〔a’〕を行うプロファイルデータのプロファイル情報を取得した表示装置は、画像処理〔a’〕の逆変換を行うことにより入力画像データd372を再生することが可能となる。また、画像処理〔a’〕を行うプロファイルデータのプロファイル情報を取得した表示装置では、カラー視覚処理や色処理をこれ以上実行しないような指示をすることも可能である。また、上述の画像処理〔b’〕を行うプロファイルデータのプロファイル情報を取得した表示装置は、標準モデルの表示装置との差異を補正する画像処理を行うことで、表示画像を表示部834で確認した画像に近づけることが可能となる。また、上述の画像処理〔c’〕を行うプロファイルデータのプロファイル情報を取得した表示装置は、画像処理〔c’〕を行うことで、表示画像を表示部834で確認した画像に近づけることが可能となる。
Description of the operation of other parts is omitted.
In the image processing device 894, for example, the display device that has acquired the profile information of the profile data for performing the above-described image processing [a ′] reproduces the input image data d372 by performing inverse transformation of the image processing [a ′]. It becomes possible. In addition, in the display device that has acquired the profile information of the profile data for performing image processing [a ′], it is possible to give an instruction not to execute color visual processing or color processing any more. In addition, the display device that has acquired the profile information of the profile data for performing the above-described image processing [b ′] performs the image processing for correcting the difference from the standard model display device, thereby confirming the display image on the display unit 834. It is possible to approximate the image. Further, the display device that has acquired the profile information of the profile data for performing the above-described image processing [c ′] can bring the display image closer to the image confirmed by the display unit 834 by performing the image processing [c ′]. It becomes.

また、画像処理装置894では、上記(4−1)に記載の処理フラグ情報を含む出力画像信号d361を出力してもよい。これにより、出力画像信号d361を取得する表示装置は、出力画像信号d361が含む出力画像データd371は、画像処理されたデータであると判断することが可能となり、表示装置において過剰な画像処理や、効果を相殺させるような画像処理を行うことが防止できる。   Further, the image processing apparatus 894 may output an output image signal d361 including the processing flag information described in (4-1) above. Accordingly, the display device that acquires the output image signal d361 can determine that the output image data d371 included in the output image signal d361 is image-processed data, and the display device can perform excessive image processing, It is possible to prevent image processing that cancels the effect.

(3)画像処理装置
上記した画像処理装置886および画像処理装置894は、[第10実施形態]〈変形例〉(7)に記載したユーザ入力部772(図86参照)と同様のユーザ入力部897を備え、ユーザの入力をプロファイルデータの選択に反映させる装置であってもよい。
(3) Image Processing Device The image processing device 886 and the image processing device 894 described above are similar to the user input unit 772 (see FIG. 86) described in [Tenth Embodiment] <Modification> (7). 897, and a device that reflects user input in the selection of profile data.

図100〜図101に、ユーザ入力部897を備える画像処理装置896および画像処理装置898を示す。ユーザ入力部897の動作は、[第10実施形態]〈変形例〉(7
)に記載したユーザ入力部772の動作と同様であるため、詳しい説明を省略する。
画像処理装置896および画像処理装置898では、カラー視覚処理装置888は、視覚処理装置753(図80参照)、視覚処理装置753a(図82参照)、視覚処理装置753b(図83参照)、視覚処理装置753c(図84参照)のいずれかとほぼ同様の視覚処理装置であり、かつ、推奨プロファイル情報SSOを出力することのできる視覚処理装置を備えている。すなわち、ユーザ入力部897からプロファイル情報SSIを取得するとともに、推奨プロファイル情報SSOを出力することができる。
100 to 101 show an image processing device 896 and an image processing device 898 that include a user input unit 897. The operation of the user input unit 897 is as follows. [Tenth Embodiment] <Modification> (7
Since the operation is the same as that of the user input unit 772 described in FIG.
In the image processing device 896 and the image processing device 898, the color visual processing device 888 includes a visual processing device 753 (see FIG. 80), a visual processing device 753a (see FIG. 82), a visual processing device 753b (see FIG. 83), and visual processing. The visual processing device is substantially the same as any of the devices 753c (see FIG. 84), and includes a visual processing device that can output the recommended profile information SSO. That is, the profile information SSI can be acquired from the user input unit 897 and the recommended profile information SSO can be output.

また、画像処理装置896および画像処理装置898では、色処理装置889は、ユーザ入力部897からプロファイル情報SCIを取得するとともに、推奨プロファイル情報SCOを出力することができる。
これにより、画像処理装置896、画像処理装置898では、表示部834に表示される画像を見ながら撮影時の画像処理に用いるプロファイルデータを適正化することが可能となる。この際、プロファイル情報SSI,SCIとをカラー視覚処理装置888と色処理装置889とに与えることができるため、各装置における処理の効果が過剰となること、あるいは効果が相殺されることを防止できる。また、ユーザ入力部897により、より微妙な画像処理の調整を行うことが可能となる。さらに、カラー視覚処理装置888と色処理装置889とが必要とするプロファイル情報SSI,SCIのみを与えることで、各装置における処理情報を削減でき、より簡易に処理を行うことが可能となる。
In the image processing device 896 and the image processing device 898, the color processing device 889 can obtain the profile information SCI from the user input unit 897 and output the recommended profile information SCO.
As a result, the image processing device 896 and the image processing device 898 can optimize the profile data used for image processing at the time of shooting while viewing the image displayed on the display unit 834. At this time, since the profile information SSI and SCI can be given to the color visual processing device 888 and the color processing device 889, it is possible to prevent the processing effect in each device from becoming excessive or canceling out the effect. . Further, the user input unit 897 can perform finer adjustment of image processing. Furthermore, by providing only the profile information SSI and SCI required by the color visual processing device 888 and the color processing device 889, processing information in each device can be reduced, and processing can be performed more easily.

(4)
《4−1》
撮影装置820において、画像処理装置832(図96参照)は、セキュリティ情報を取得し、セキュリティ情報に応じて画像処理に用いるプロファイルデータを切り替える装置であってもよい。ここで、セキュリティ情報とは、撮影装置820の撮影環境において撮影が許可されているか否か、あるいはその許可の程度を表す情報である。
(4)
<< 4-1 >>
In the imaging device 820, the image processing device 832 (see FIG. 96) may be a device that acquires security information and switches profile data used for image processing according to the security information. Here, the security information is information indicating whether or not photographing is permitted in the photographing environment of the photographing device 820 or the degree of permission.

図102に、画像処理装置832の変形例としての画像処理装置870を示す。画像処理装置870は、入力画像データd372の画像処理を行い、出力画像データd371を出力する点において、画像処理装置832と同様である。画像処理装置870と画像処理装置832との相違点は、画像処理装置870が撮影環境におけるセキュリティ情報を取得するセキュリティ情報入力部872を備える点である。その他、画像処理装置832と共通する部分については、同じ符号を付し、説明を省略する。   FIG. 102 shows an image processing device 870 as a modification of the image processing device 832. The image processing device 870 is similar to the image processing device 832 in that it performs image processing on the input image data d372 and outputs output image data d371. The difference between the image processing device 870 and the image processing device 832 is that the image processing device 870 includes a security information input unit 872 that acquires security information in the shooting environment. In addition, portions common to the image processing apparatus 832 are denoted by the same reference numerals and description thereof is omitted.

セキュリティ情報入力部872は、例えば、ユーザに直接セキュリティ情報を入力させる入力装置、無線、赤外線あるいは有線によりセキュリティ情報を取得する受信装置などにより主に構成されている。さらに、セキュリティ情報入力部872は、取得したセキュリティ情報に基づいて、プロファイル情報SSI,SCIを出力する。   The security information input unit 872 is mainly configured by, for example, an input device that allows a user to directly input security information, a receiving device that acquires security information by wireless, infrared, or wired. Further, the security information input unit 872 outputs profile information SSI and SCI based on the acquired security information.

ここで、プロファイル情報SSI,SCIは、それぞれプロファイルデータを特定するための情報であり、プロファイルデータ、プロファイルデータを特定する番号などのタグ情報、プロファイルデータの処理の特徴を示すパラメータ情報のうちの少なくとも一つを含んでいる。プロファイルデータ、タグ情報、パラメータ情報は、上記実施形態で記載したのと同様である。   Here, the profile information SSI and SCI are information for specifying profile data, respectively, and at least of profile data, tag information such as a number for specifying profile data, and parameter information indicating characteristics of processing of profile data. Contains one. Profile data, tag information, and parameter information are the same as described in the above embodiment.

出力されるプロファイル情報SSI,SCIは、セキュリティ情報が示す撮影許可の程度が高いほど、より高画質な撮影が行えるようなプロファイルデータを特定し、撮影許可の程度が低いほど、より低画質な撮影しか行えないようなプロファイルデータを特定する。   The output profile information SSI, SCI specifies profile data that allows higher-quality shooting as the degree of photographing permission indicated by the security information is higher. As the degree of photographing permission is lower, lower-quality photographing is performed. Identify profile data that can only be done.

図103を用いて画像処理装置870の動作についてさらに詳しく説明する。
図103は、撮影が制御される撮影制御領域880における、画像処理装置870を備える撮影装置820の動作について説明するための説明図である。
撮影制御領域880には、撮影が禁止される撮影禁止物883が配置されている。撮影禁止物883とは、例えば、人物、書物など、肖像権や著作権などの対象となるものなどである。撮影制御領域880には、セキュリティ情報発信装置881が設置されている。セキュリティ情報発信装置881は、無線、赤外線などによりセキュリティ情報を発信する。
The operation of the image processing apparatus 870 will be described in more detail with reference to FIG.
FIG. 103 is an explanatory diagram for explaining the operation of the imaging device 820 including the image processing device 870 in the imaging control area 880 in which imaging is controlled.
In the shooting control area 880, a shooting prohibited object 883 for which shooting is prohibited is arranged. The photographing prohibited object 883 is, for example, a person, a book, or the like that is subject to portrait rights or copyrights. In the imaging control area 880, a security information transmitting device 881 is installed. The security information transmission device 881 transmits security information by radio, infrared, or the like.

撮影制御領域880内の撮影装置820は、セキュリティ情報入力部872によりセキュリティ情報を受信する。セキュリティ情報入力部872は、セキュリティ情報が示す撮影許可の程度を判断する。さらに、セキュリティ情報入力部872は、撮影許可の程度の値とプロファイルデータとの関連づけを記憶するデータベースなどを参照し、撮影許可の程度の値に応じたプロファイルデータを特定するためのプロファイル情報SSI,SCIを出力する。例えば、データベースでは、より高い撮影許可の程度の値に対して、より高画質な撮影が行えるプロファイルデータが関連づけられている。   The imaging device 820 in the imaging control area 880 receives security information from the security information input unit 872. The security information input unit 872 determines the degree of photographing permission indicated by the security information. Further, the security information input unit 872 refers to a database or the like that stores the association between the value of the degree of photographing permission and the profile data, and profile information SSI, for specifying the profile data corresponding to the value of the degree of photographing permission. Output SCI. For example, in the database, profile data capable of shooting with higher image quality is associated with a higher value of permission for shooting.

より詳しくは、例えば、撮影装置820がセキュリティ情報発信装置881から撮影許可の程度が低いセキュリティ情報を受信した場合、セキュリティ情報入力部872は、画像中心付近や画像の主要な領域を平滑化する(あるいは階調を落とす)ようなプロファイルデータを特定するためのプロファイル情報SSIをカラー視覚処理装置745に出力する。さらに、セキュリティ情報入力部872は、画像を無彩色化するようなプロファイルデータを特定するためのプロファイル情報SCIを色処理装置746に出力する。これにより、適切な画質で撮影を行うことができなくなり、肖像権や著作権などの権利を保護することが可能となる。   More specifically, for example, when the photographing device 820 receives security information with a low degree of photographing permission from the security information transmitting device 881, the security information input unit 872 smoothes the vicinity of the center of the image and the main region of the image ( The profile information SSI for specifying the profile data such that the gradation is lowered is output to the color visual processing device 745. Further, the security information input unit 872 outputs profile information SCI for specifying profile data that achromatically renders the image to the color processing device 746. As a result, it becomes impossible to shoot with an appropriate image quality, and rights such as portrait rights and copyrights can be protected.

《4−2》その他
(1)
セキュリティ情報を受信したセキュリティ情報入力部872は、セキュリティ情報に応じてプロファイルデータを切り替えるだけでなく、画像処理装置870あるいは撮影装置820の一部の機能を停止させてもよい。
<< 4-2 >> Others (1)
The security information input unit 872 that has received the security information may not only switch the profile data according to the security information, but may also stop some functions of the image processing device 870 or the imaging device 820.

(2)
セキュリティ情報を受信したセキュリティ情報入力部872は、さらに、撮影装置820の入力部850などからユーザの認証情報を取得し、撮影許可されたユーザであれば、撮影許可の程度を緩和するようなプロファイルデータを特定するプロファイル情報SSI,SCIを出力するものであってもよい。
(2)
The security information input unit 872 that has received the security information further acquires user authentication information from the input unit 850 of the imaging device 820, and a profile that relaxes the degree of imaging permission if the user is permitted to shoot. It may output profile information SSI and SCI for specifying data.

ユーザの認証情報は、例えば、ユーザの指紋・眼紋などによる認証情報である。この認証情報を取得したセキュリティ情報入力部872は、撮影許可されたユーザのデータベースを参照し、認証されたユーザが撮影許可されたユーザであるか否かを判断する。また、この際、ユーザの課金情報などにより撮影許可の程度も判断し、その程度が高いほど、より高画質な撮影を行えるようにしてもよい。   The user authentication information is, for example, authentication information based on the user's fingerprint / eyeprint. The security information input unit 872 that has acquired the authentication information refers to the database of users permitted to shoot, and determines whether or not the authenticated user is a user permitted to shoot. At this time, the degree of photographing permission may be determined based on the user's billing information, and the higher the degree, the higher the quality of the photographing may be.

なお、セキュリティ情報は、撮影許可された撮影装置820を特定するための情報を通知するものであってもよい。
(3)
プロファイル情報SSI,SCIは、セキュリティ情報を含んでいてもよい。この場合、プロファイル情報SSI,SCIを取得したカラー視覚処理装置745と色処理装置746とは、セキュリティ情報に基づいて、プロファイルデータを選択する。
Note that the security information may notify information for specifying the photographing device 820 that is permitted to photograph.
(3)
The profile information SSI and SCI may include security information. In this case, the color visual processing device 745 and the color processing device 746 that have acquired the profile information SSI and SCI select profile data based on the security information.

(4)
セキュリティ情報入力部872は、セキュリティ判定部852と兼用されていてもよい。
[第1付記]
本発明(特に、第4〜7実施形態に記載の発明)は、次のように表現することも可能である。なお、本欄([第1付記])に記載する従属形式の付記では、第1付記に記載の付記に従属するものとする。
(4)
The security information input unit 872 may also be used as the security determination unit 852.
[First note]
The present invention (particularly the inventions described in the fourth to seventh embodiments) can also be expressed as follows. In addition, in the subordinate form of the supplementary note described in this column ([first supplementary note]), it is subordinate to the supplementary note described in the first supplementary note.

〈第1付記の内容〉
(付記1)
入力された画像信号を複数の画像領域に分割する画像領域分割手段と、
前記画像領域毎に階調変換特性を導出する手段であって、前記階調変換特性の導出対象となる対象画像領域と前記対象画像領域の周辺画像領域との階調特性を用いて、前記対象画像領域の前記階調変換特性を導出する階調変換特性導出手段と、
導出された前記階調変換特性に基づいて、前記画像信号の階調処理を行う階調処理手段と、
を備える視覚処理装置。
<Contents of the first appendix>
(Appendix 1)
Image region dividing means for dividing the input image signal into a plurality of image regions;
Means for deriving gradation conversion characteristics for each image area, wherein the target is obtained by using gradation characteristics of a target image area from which the gradation conversion characteristics are derived and a peripheral image area of the target image area; Gradation conversion characteristic deriving means for deriving the gradation conversion characteristic of the image area;
Gradation processing means for performing gradation processing of the image signal based on the derived gradation conversion characteristics;
A visual processing device comprising:

(付記2)
前記階調変換特性は、階調変換曲線であり、
前記階調変換特性導出手段は、前記階調特性を用いてヒストグラムを作成するヒストグラム作成手段と、作成された前記ヒストグラムに基づいて前記階調変換曲線を作成する階調曲線作成手段とを有している、
付記1に記載の視覚処理装置。
(Appendix 2)
The gradation conversion characteristic is a gradation conversion curve,
The gradation conversion characteristic deriving unit includes a histogram generation unit that generates a histogram using the gradation characteristic, and a gradation curve generation unit that generates the gradation conversion curve based on the generated histogram. ing,
The visual processing device according to attachment 1.

(付記3)
前記階調変換特性は、前記画像信号を階調処理する複数の階調変換テーブルの中から1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理手段は、前記複数の階調変換テーブルを2次元LUTとして有している、付記1に記載の視覚処理装置。
(Appendix 3)
The gradation conversion characteristic is a selection signal for selecting one gradation conversion table from among a plurality of gradation conversion tables for gradation-processing the image signal,
The visual processing device according to attachment 1, wherein the gradation processing means includes the plurality of gradation conversion tables as a two-dimensional LUT.

(付記4)
前記2次元LUTは、前記画像信号の全ての値において、前記選択信号の値に対する階調処理された前記画像信号の値が単調増加あるいは単調減少する順序で前記複数の階調変換テーブルを格納している、
付記3に記載の視覚処理装置。
(Appendix 4)
The two-dimensional LUT stores the plurality of gradation conversion tables in the order in which the value of the image signal subjected to gradation processing with respect to the value of the selection signal monotonously increases or decreases monotonously for all values of the image signal. ing,
The visual processing device according to attachment 3.

(付記5)
前記2次元LUTは、プロファイルデータの登録により変更可能である、
付記3又は4に記載の視覚処理装置。
(付記6)
前記選択信号の値は、前記対象画像領域と前記周辺画像領域とのそれぞれの画像領域について導出された選択信号である個別選択信号の特徴量として導出される、
付記3〜5のいずれかに記載の視覚処理装置。
(Appendix 5)
The two-dimensional LUT can be changed by registering profile data.
The visual processing device according to attachment 3 or 4.
(Appendix 6)
The value of the selection signal is derived as a feature amount of an individual selection signal that is a selection signal derived for each of the target image region and the peripheral image region.
The visual processing device according to any one of appendices 3 to 5.

(付記7)
前記選択信号は、前記対象画像領域と前記周辺画像領域との階調特性を用いて導出される特徴量である階調特性特徴量に基づいて導出される、
付記3〜5のいずれかに記載の視覚処理装置。
(Appendix 7)
The selection signal is derived based on a gradation characteristic feature amount that is a feature amount derived using the gradation characteristics of the target image region and the peripheral image region.
The visual processing device according to any one of appendices 3 to 5.

(付記8)
前記階調処理手段は、前記選択信号が選択する前記階調変換テーブルを用いて前記対象画像領域の階調処理を実行する階調処理実行手段と、前記階調処理された前記画像信号の階調を補正する手段であって、補正の対象となる対象画素を含む画像領域と前記対象画素を含む前記画像領域の隣接画像領域とについて選択された前記階調処理テーブルに基づいて、前記対象画素の階調を補正する補正手段とを有している、
付記3〜7のいずれかに記載の視覚処理装置。
(Appendix 8)
The gradation processing means includes gradation processing execution means for executing gradation processing of the target image region using the gradation conversion table selected by the selection signal, and gradation of the image signal subjected to the gradation processing. Means for correcting a tone, the target pixel based on the gradation processing table selected for an image area including the target pixel to be corrected and an image area adjacent to the image area including the target pixel Correction means for correcting the gradation of
The visual processing device according to any one of appendices 3 to 7.

(付記9)
前記階調処理手段は、前記選択信号を補正し、前記画像信号の画素毎に階調処理テーブルを選択するための補正選択信号を導出する補正手段と、前記補正選択信号が選択する前記階調変換テーブルを用いて前記画像信号の階調処理を実行する階調処理実行手段とを有している、
付記3〜7のいずれかに記載の視覚処理装置。
(Appendix 9)
The gradation processing means corrects the selection signal and derives a correction selection signal for selecting a gradation processing table for each pixel of the image signal; and the gradation selected by the correction selection signal Gradation processing execution means for executing gradation processing of the image signal using a conversion table;
The visual processing device according to any one of appendices 3 to 7.

(付記10)
入力された画像信号を複数の画像領域に分割する画像領域分割ステップと、
前記画像領域毎に階調変換特性を導出するステップであって、前記階調変換特性の導出対象となる対象画像領域と前記対象画像領域の周辺画像領域との階調特性を用いて、前記対象画像領域の前記階調変換特性を導出する階調変換特性導出ステップと、
導出された前記階調変換特性に基づいて、前記画像信号の階調処理を行う階調処理ステップと、
を備える視覚処理方法。
(Appendix 10)
An image region dividing step for dividing the input image signal into a plurality of image regions;
A step of deriving gradation conversion characteristics for each of the image areas, wherein the target is obtained using gradation characteristics of a target image area from which the gradation conversion characteristics are derived and a peripheral image area of the target image area; A gradation conversion characteristic deriving step for deriving the gradation conversion characteristic of the image region;
A gradation processing step for performing gradation processing of the image signal based on the derived gradation conversion characteristics;
A visual processing method comprising:

(付記11)
前記階調変換特性は、階調変換曲線であり、
前記階調変換特性導出ステップは、前記階調特性を用いてヒストグラムを作成するヒストグラム作成ステップと、作成された前記ヒストグラムに基づいて前記階調変換曲線を作成する階調曲線作成ステップとを有している、
付記10に記載の視覚処理方法。
(Appendix 11)
The gradation conversion characteristic is a gradation conversion curve,
The gradation conversion characteristic derivation step includes a histogram creation step of creating a histogram using the gradation characteristic, and a gradation curve creation step of creating the gradation conversion curve based on the created histogram. ing,
The visual processing method according to attachment 10.

(付記12)
前記階調変換特性は、前記画像信号を階調処理する複数の階調変換テーブルの中から1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理ステップは、前記選択信号が選択する前記階調変換テーブルを用いて前記対象画像領域の階調処理を実行する階調処理実行ステップと、前記階調処理された前記画像信号の階調を補正するステップであって、補正の対象となる対象画素を含む画像領域と前記対象画素を含む前記画像領域の隣接画像領域とについて選択された前記階調処理テーブルに基づいて、前記対象画素の階調を補正する補正ステップとを有している、
付記10に記載の視覚処理方法。
(Appendix 12)
The gradation conversion characteristic is a selection signal for selecting one gradation conversion table from among a plurality of gradation conversion tables for gradation-processing the image signal,
The gradation processing step includes a gradation processing execution step of performing gradation processing of the target image region using the gradation conversion table selected by the selection signal, and a gradation of the image signal subjected to the gradation processing. Correcting the tone, the target pixel based on the gradation processing table selected for the image region including the target pixel to be corrected and the image region adjacent to the image region including the target pixel A correction step for correcting the gradation of
The visual processing method according to attachment 10.

(付記13)
前記階調変換特性は、前記画像信号を階調処理する複数の階調変換テーブルの中から1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理ステップは、前記選択信号を補正し、前記画像信号の画素毎に階調処理テーブルを選択するための補正選択信号を導出する補正ステップと、前記補正選択信号が選択する前記階調変換テーブルを用いて前記画像信号の階調処理を実行する階調処理実行ステップとを有している、
付記10に記載の視覚処理方法。
(Appendix 13)
The gradation conversion characteristic is a selection signal for selecting one gradation conversion table from among a plurality of gradation conversion tables for gradation-processing the image signal,
The gradation processing step corrects the selection signal and derives a correction selection signal for selecting a gradation processing table for each pixel of the image signal, and the gradation selected by the correction selection signal A gradation processing execution step for performing gradation processing of the image signal using a conversion table;
The visual processing method according to attachment 10.

(付記14)
コンピュータにより視覚処理方法を行うための視覚処理プログラムであって、
前記視覚処理プログラムは、コンピュータに、
入力された画像信号を複数の画像領域に分割する画像領域分割ステップと、
前記画像領域毎に階調変換特性を導出するステップであって、前記階調変換特性の導出対象となる対象画像領域と前記対象画像領域の周辺画像領域との階調特性を用いて、前記対象画像領域の前記階調変換特性を導出する階調変換特性導出ステップと、
導出された前記階調変換特性に基づいて、前記画像信号の階調処理を行う階調処理ステ
ップと、
を備える視覚処理方法を行わせるものである、
視覚処理プログラム。
(Appendix 14)
A visual processing program for performing a visual processing method by a computer,
The visual processing program is stored in a computer.
An image region dividing step for dividing the input image signal into a plurality of image regions;
A step of deriving gradation conversion characteristics for each of the image areas, wherein the target is obtained using gradation characteristics of a target image area from which the gradation conversion characteristics are derived and a peripheral image area of the target image area; A gradation conversion characteristic deriving step for deriving the gradation conversion characteristic of the image region;
A gradation processing step for performing gradation processing of the image signal based on the derived gradation conversion characteristics;
A visual processing method comprising:
Visual processing program.

(付記15)
前記階調変換特性は、階調変換曲線であり、
前記階調変換特性導出ステップは、前記階調特性を用いてヒストグラムを作成するヒストグラム作成ステップと、作成された前記ヒストグラムに基づいて前記階調変換曲線を作成する階調曲線作成ステップとを有している、
付記14に記載の視覚処理プログラム。
(Appendix 15)
The gradation conversion characteristic is a gradation conversion curve,
The gradation conversion characteristic derivation step includes a histogram creation step of creating a histogram using the gradation characteristic, and a gradation curve creation step of creating the gradation conversion curve based on the created histogram. ing,
The visual processing program according to attachment 14.

(付記16)
前記階調変換特性は、前記画像信号を階調処理する複数の階調変換テーブルの中から1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理ステップは、前記選択信号が選択する前記階調変換テーブルを用いて前記対象画像領域の階調処理を実行する階調処理実行ステップと、前記階調処理された前記画像信号の階調を補正するステップであって、補正の対象となる対象画素を含む画像領域と前記対象画素を含む前記画像領域の隣接画像領域とについて選択された前記階調処理テーブルに基づいて、前記対象画素の階調を補正する補正ステップとを有している、
付記14に記載の視覚処理プログラム。
(Appendix 16)
The gradation conversion characteristic is a selection signal for selecting one gradation conversion table from among a plurality of gradation conversion tables for gradation-processing the image signal,
The gradation processing step includes a gradation processing execution step of performing gradation processing of the target image region using the gradation conversion table selected by the selection signal, and a gradation of the image signal subjected to the gradation processing. Correcting the tone, the target pixel based on the gradation processing table selected for the image region including the target pixel to be corrected and the image region adjacent to the image region including the target pixel A correction step for correcting the gradation of
The visual processing program according to attachment 14.

(付記17)
前記階調変換特性は、前記画像信号を階調処理する複数の階調変換テーブルの中から1つの階調変換テーブルを選択するための選択信号であり、
前記階調処理ステップは、前記選択信号を補正し、前記画像信号の画素毎に階調処理テーブルを選択するための補正選択信号を導出する補正ステップと、前記補正選択信号が選択する前記階調変換テーブルを用いて前記画像信号の階調処理を実行する階調処理実行ステップとを有している、
付記14に記載の視覚処理プログラム。
(Appendix 17)
The gradation conversion characteristic is a selection signal for selecting one gradation conversion table from among a plurality of gradation conversion tables for gradation-processing the image signal,
The gradation processing step corrects the selection signal and derives a correction selection signal for selecting a gradation processing table for each pixel of the image signal, and the gradation selected by the correction selection signal A gradation processing execution step for performing gradation processing of the image signal using a conversion table;
The visual processing program according to attachment 14.

(付記18)
前記階調処理手段は、前記画像信号を階調処理するための階調変換曲線の曲線パラメータを、前記階調変換特性に基づいて出力するパラメータ出力手段を有しており、前記階調変換特定と前記曲線パラメータとに基づいて特定される前記階調変換曲線を用いて、前記画像信号を階調処理する、
付記1に記載の視覚処理装置。
(Appendix 18)
The gradation processing means includes parameter output means for outputting a curve parameter of a gradation conversion curve for gradation processing of the image signal based on the gradation conversion characteristics, and the gradation conversion specification And gradation processing the image signal using the gradation conversion curve specified based on the curve parameter and
The visual processing device according to attachment 1.

(付記19)
前記パラメータ出力手段は、前記階調変換特性と前記曲線パラメータとの関係を格納するルックアップテーブルである、
付記18に記載の視覚処理装置。
(Appendix 19)
The parameter output means is a lookup table that stores a relationship between the gradation conversion characteristics and the curve parameters.
The visual processing device according to appendix 18.

(付記20)
前記曲線パラメータは、前記画像信号の所定の値に対する前記階調処理された画像信号の値を含む、
付記18または19に記載の視覚処理装置。
(Appendix 20)
The curve parameter includes a value of the gradation-processed image signal with respect to a predetermined value of the image signal.
The visual processing device according to appendix 18 or 19.

(付記21)
前記曲線パラメータは、前記画像信号の所定の区間における前記階調変換曲線の傾きを含む、
付記18〜20のいずれかに記載の視覚処理装置。
(Appendix 21)
The curve parameter includes an inclination of the gradation conversion curve in a predetermined section of the image signal.
The visual processing device according to any one of appendices 18 to 20.

(付記22)
前記曲線パラメータは、前記階調変換曲線が通る少なくとも1点の座標を含む、
付記18〜21のいずれかに記載の視覚処理装置。
(付記23)
入力された画像信号における複数の画像領域毎の空間処理を行い空間処理信号を導出する手段であって、前記空間処理では、前記空間処理の対象となる対象画像領域と前記対象画像領域の周辺画像領域との階調特性の差に基づいた重み付けを用いて、前記対象画像領域と前記周辺画像領域との階調特性の加重平均を行う、空間処理手段と、
前記対象画像領域の階調特性と前記空間処理信号とに基づいて、前記対象画像領域の視覚処理を行う視覚処理手段と、
を備える視覚処理装置。
(Appendix 22)
The curve parameter includes coordinates of at least one point through which the gradation conversion curve passes,
The visual processing device according to any one of appendices 18 to 21.
(Appendix 23)
A means for deriving a spatial processing signal by performing spatial processing for each of a plurality of image regions in an input image signal, wherein the spatial processing includes a target image region to be subjected to the spatial processing and a peripheral image of the target image region Spatial processing means for performing weighted averaging of gradation characteristics of the target image area and the peripheral image area using weighting based on a difference in gradation characteristics with the area;
Visual processing means for performing visual processing of the target image region based on the gradation characteristics of the target image region and the spatial processing signal;
A visual processing device comprising:

(付記24)
前記重み付けは、前記階調特性の差の絶対値が大きいほど小さくなる、
付記23に記載の視覚処理装置。
(付記25)
前記重み付けは、前記対象画像領域と前記周辺画像領域との距離が大きいほど小さくなる、
付記23または24に記載の視覚処理装置。
(Appendix 24)
The weighting decreases as the absolute value of the difference in gradation characteristics increases.
The visual processing device according to attachment 23.
(Appendix 25)
The weighting decreases as the distance between the target image area and the peripheral image area increases.
The visual processing device according to attachment 23 or 24.

(付記26)
前記画像領域は、複数の画素から構成されており、
前記対象画像領域と前記周辺画像領域との階調特性は、それぞれの画像領域を構成する画素値の特徴量として定められている、
付記23〜25のいずれかに記載の視覚処理装置。
(Appendix 26)
The image area is composed of a plurality of pixels,
The gradation characteristics of the target image area and the peripheral image area are determined as feature values of pixel values constituting each image area.
The visual processing device according to any one of appendices 23 to 25.

〈第1付記の説明〉
付記1に記載の視覚処理装置は、画像領域分割手段と、階調変換特性導出手段と、階調処理手段とを備えている。画像領域分割手段は、入力された画像信号を複数の画像領域に分割する。階調変換特性導出手段は、画像領域毎に階調変換特性を導出する手段であって、階調変換特性の導出対象となる対象画像領域と対象画像領域の周辺画像領域との階調特性を用いて、対象画像領域の階調変換特性を導出する。階調処理手段は、導出された階調変換特性に基づいて、画像信号の階調処理を行う。
<Explanation of the first supplementary note>
The visual processing device according to attachment 1 includes image region dividing means, gradation conversion characteristic deriving means, and gradation processing means. The image area dividing means divides the input image signal into a plurality of image areas. The gradation conversion characteristic deriving means is a means for deriving the gradation conversion characteristic for each image area, and calculates the gradation characteristics between the target image area from which the gradation conversion characteristic is derived and the peripheral image area of the target image area. To derive the gradation conversion characteristics of the target image area. The gradation processing means performs gradation processing of the image signal based on the derived gradation conversion characteristics.

ここで、階調変換特性とは、画像領域毎の階調処理の特性である。階調特性とは、例えば、画素毎の輝度、明度などといった画素値である。
本発明の視覚処理装置では、画像領域毎の階調変換特性を判断する際に、画像領域毎の階調特性だけでなく、周辺の画像領域を含めた広域の画像領域の階調特性を用いて判断を行う。このため、画像領域毎の階調処理に空間処理的効果を加えることが可能となり、さらに視覚的効果を向上させる階調処理を実現することが可能となる。
Here, the gradation conversion characteristic is a characteristic of gradation processing for each image region. The gradation characteristics are pixel values such as brightness and brightness for each pixel, for example.
In the visual processing device of the present invention, when determining the gradation conversion characteristics for each image area, not only the gradation characteristics for each image area but also the gradation characteristics of a wide image area including the peripheral image areas are used. Make a decision. For this reason, it is possible to add a spatial processing effect to the gradation processing for each image region, and it is possible to realize gradation processing that further improves the visual effect.

付記2に記載の視覚処理装置は、付記1に記載の視覚処理装置であって、階調変換特性は、階調変換曲線である。階調変換特性導出手段は、階調特性を用いてヒストグラムを作成するヒストグラム作成手段と、作成されたヒストグラムに基づいて階調変換曲線を作成する階調曲線作成手段とを有している。   The visual processing device according to attachment 2 is the visual processing device according to attachment 1, in which the gradation conversion characteristic is a gradation conversion curve. The gradation conversion characteristic deriving unit includes a histogram generation unit that generates a histogram using the gradation characteristic, and a gradation curve generation unit that generates a gradation conversion curve based on the generated histogram.

ここで、ヒストグラムとは、例えば、対象画像領域および周辺画像領域が含む画素の階調特性に対する分布である。階調曲線作成手段は、例えば、ヒストグラムの値を累積した累積曲線を階調変換曲線とする。
本発明の視覚処理装置では、ヒストグラムを作成する際に、画像領域毎の階調特性だけでなく、周辺の画像領域を含めた広域の階調特性を用いてヒストグラムの作成を行う。このため、画像信号の分割数を増やし画像領域の大きさを小さくすることが可能となり、階調処理による疑似輪郭の発生を抑制することが可能となる。また、画像領域の境界が不自
然に目立つことが防止可能となる。
Here, the histogram is, for example, a distribution with respect to the gradation characteristics of pixels included in the target image region and the peripheral image region. For example, the gradation curve creating means sets a cumulative curve obtained by accumulating histogram values as a gradation conversion curve.
In the visual processing device of the present invention, when creating a histogram, a histogram is created using not only the gradation characteristics for each image area but also a wide range of gradation characteristics including peripheral image areas. For this reason, it is possible to increase the number of divisions of the image signal and to reduce the size of the image area, and it is possible to suppress the generation of the pseudo contour due to the gradation processing. Further, it is possible to prevent the boundary of the image area from being unnaturally conspicuous.

付記3に記載の視覚処理装置は、付記1に記載の視覚処理装置であって、階調変換特性は、画像信号を階調処理する複数の階調変換テーブルの中から1つの階調変換テーブルを選択するための選択信号である。階調処理手段は、複数の階調変換テーブルを2次元LUTとして有している。   The visual processing device according to attachment 3 is the visual processing device according to attachment 1, wherein the gradation conversion characteristic is one gradation conversion table among a plurality of gradation conversion tables for gradation processing of an image signal. Is a selection signal for selecting. The gradation processing means has a plurality of gradation conversion tables as a two-dimensional LUT.

ここで、階調変換テーブルとは、例えば、画像信号の画素値に対して階調処理された画像信号の画素値を記憶するルックアップテーブル(LUT)などである。
選択信号は、例えば、複数の階調変換テーブルのそれぞれに割り付けられた値の中から選択される1つの階調変換テーブルに割り付けられた値を有している。階調処理手段は、選択信号の値と画像信号の画素値とから2次元LUTを参照して階調処理された画像信号の画素値を出力する。
Here, the gradation conversion table is, for example, a look-up table (LUT) that stores pixel values of an image signal subjected to gradation processing on pixel values of the image signal.
The selection signal has, for example, a value assigned to one gradation conversion table selected from values assigned to each of the plurality of gradation conversion tables. The gradation processing means outputs the pixel value of the image signal subjected to gradation processing with reference to the two-dimensional LUT from the value of the selection signal and the pixel value of the image signal.

本発明の視覚処理装置では、階調処理を2次元LUTを参照して行う。このため、階調処理を高速化することが可能となる。また、複数の階調変換テーブルから1つの階調変換テーブルを選択して階調処理を行うため、適切な階調処理を行うことが可能となる。
付記4に記載の視覚処理装置は、付記3に記載の視覚処理装置であって、2次元LUTは、画像信号の全ての値において、選択信号の値に対する階調処理された画像信号の値が単調増加あるいは単調減少する順序で複数の階調変換テーブルを格納している。
In the visual processing device of the present invention, gradation processing is performed with reference to a two-dimensional LUT. For this reason, it is possible to speed up the gradation processing. Further, since gradation processing is performed by selecting one gradation conversion table from a plurality of gradation conversion tables, appropriate gradation processing can be performed.
The visual processing device according to appendix 4 is the visual processing device according to appendix 3, wherein the two-dimensional LUT has a value of the image signal subjected to gradation processing with respect to the value of the selection signal in all values of the image signal. A plurality of gradation conversion tables are stored in the order of monotone increase or monotone decrease.

本発明の視覚処理装置では、例えば、選択信号の値が階調変換の度合いを示すこととなる。
付記5に記載の視覚処理装置は、付記3又は4に記載の視覚処理装置であって、2次元LUTは、プロファイルデータの登録により変更可能である。
In the visual processing device of the present invention, for example, the value of the selection signal indicates the degree of gradation conversion.
The visual processing device according to attachment 5 is the visual processing device according to attachment 3 or 4, and the two-dimensional LUT can be changed by registering profile data.

ここで、プロファイルデータとは、2次元LUTに格納されるデータであり、例えば、階調処理された画像信号の画素値を要素としている。
本発明の視覚処理装置では、2次元LUTを変更することにより、ハードウェアの構成を変更せずに階調処理の特性を様々に変更することが可能となる。
Here, the profile data is data stored in the two-dimensional LUT and includes, for example, pixel values of the image signal subjected to gradation processing as elements.
In the visual processing device of the present invention, by changing the two-dimensional LUT, it is possible to variously change the characteristics of gradation processing without changing the hardware configuration.

付記6に記載の視覚処理装置は、付記3〜5のいずれかに記載の視覚処理装置であって、選択信号の値は、対象画像領域と周辺画像領域とのそれぞれの画像領域について導出された選択信号である個別選択信号の特徴量として導出される。
ここで、個別選択信号の特徴量とは、例えば、それぞれの画像領域について導出された選択信号の平均値(単純平均または加重平均)、最大値、あるいは最小値などである。
The visual processing device according to attachment 6 is the visual processing device according to any one of attachments 3 to 5, wherein the value of the selection signal is derived for each of the target image region and the peripheral image region. It is derived as a feature amount of the individual selection signal that is the selection signal.
Here, the feature amount of the individual selection signal is, for example, an average value (simple average or weighted average), maximum value, or minimum value of the selection signals derived for each image region.

本発明の視覚処理装置では、対象画像領域に対する選択信号を周辺画像領域を含む広域の画像領域に対する選択信号の特徴量として導出する。このため、選択信号について空間処理的効果を加えることが可能となり、画像領域の境界が不自然に目立つことが防止可能となる。   In the visual processing device of the present invention, the selection signal for the target image region is derived as the feature amount of the selection signal for a wide image region including the peripheral image region. For this reason, it is possible to add a spatial processing effect to the selection signal, and it is possible to prevent the boundary of the image area from being noticeable unnaturally.

付記7に記載の視覚処理装置は、付記3〜5のいずれかに記載の視覚処理装置であって、選択信号は、対象画像領域と周辺画像領域との階調特性を用いて導出される特徴量である階調特性特徴量に基づいて導出される。
ここで、階調特性特徴量とは、例えば、対象画像領域と周辺画像領域との広域の階調特性の平均値(単純平均または加重平均)、最大値、あるいは最小値などである。
The visual processing device according to attachment 7 is the visual processing device according to any one of attachments 3 to 5, wherein the selection signal is derived using the gradation characteristics of the target image region and the peripheral image region. It is derived based on the gradation characteristic feature quantity which is a quantity.
Here, the gradation characteristic feature amount is, for example, an average value (simple average or weighted average), maximum value, minimum value, or the like of a wide range of gradation characteristics of the target image region and the peripheral image region.

本発明の視覚処理装置では、対象画像領域に対する選択信号を周辺画像領域を含む広域の画像領域に対する階調特性特徴量に基づいて導出する。このため、選択信号について空間処理的効果を加えることが可能となり、画像領域の境界が不自然に目立つことが防止可能となる。   In the visual processing device of the present invention, the selection signal for the target image region is derived based on the gradation characteristic feature amount for a wide image region including the peripheral image region. For this reason, it is possible to add a spatial processing effect to the selection signal, and it is possible to prevent the boundary of the image area from being noticeable unnaturally.

付記8に記載の視覚処理装置は、付記3〜7のいずれかに記載の視覚処理装置であって、階調処理手段は、階調処理実行手段と、補正手段とを有している。階調処理実行手段は
、選択信号が選択する階調変換テーブルを用いて対象画像領域の階調処理を実行する。補正手段は、階調処理された画像信号の階調を補正する手段であって、補正の対象となる対象画素を含む画像領域と対象画素を含む画像領域の隣接画像領域とについて選択された階調処理テーブルに基づいて、対象画素の階調を補正する。
The visual processing device according to attachment 8 is the visual processing device according to any one of attachments 3 to 7, in which the gradation processing means includes gradation processing execution means and correction means. The gradation processing execution means executes gradation processing of the target image area using the gradation conversion table selected by the selection signal. The correction unit is a unit that corrects the gradation of the gradation-processed image signal, and is selected for the image area including the target pixel to be corrected and an image area adjacent to the image area including the target pixel. Based on the tone processing table, the gradation of the target pixel is corrected.

ここで、隣接画像領域とは、階調変換特性を導出する際の周辺画像領域と同じ画像領域であってもよいし、異なる画像領域であってもよい。例えば、隣接画像領域は、対象画素を含む画像領域に隣接する画像領域のうち、対象画素からの距離が短い3つの画像領域として選択される。   Here, the adjacent image region may be the same image region as the peripheral image region when the gradation conversion characteristic is derived, or may be a different image region. For example, the adjacent image regions are selected as three image regions having a short distance from the target pixel among the image regions adjacent to the image region including the target pixel.

補正手段は、例えば、対象画像領域毎に同一の階調変換テーブルを用いて階調処理された画像信号の階調を補正する。対象画素の補正は、例えば、対象画素の位置に応じて、隣接画像領域について選択されたそれぞれの階調変換テーブルの影響が現れるように行われる。   For example, the correction unit corrects the gradation of the image signal subjected to the gradation processing using the same gradation conversion table for each target image area. The correction of the target pixel is performed so that, for example, the influence of each gradation conversion table selected for the adjacent image region appears according to the position of the target pixel.

本発明の視覚処理装置では、画像信号の階調を画素毎に補正することが可能となる。このため、画像領域の境界が不自然に目立つことがさらに防止され、視覚的効果を向上させることが可能となる。
付記9に記載の視覚処理装置は、付記3〜7のいずれかに記載の視覚処理装置であって、階調処理手段は、補正手段と、階調処理実行手段とを有している。補正手段は、選択信号を補正し、画像信号の画素毎に階調処理テーブルを選択するための補正選択信号を導出する。階調処理実行手段は、補正選択信号が選択する階調変換テーブルを用いて画像信号の階調処理を実行する。
In the visual processing device of the present invention, the gradation of the image signal can be corrected for each pixel. For this reason, it is further prevented that the boundary of the image area stands out unnaturally, and the visual effect can be improved.
The visual processing device according to attachment 9 is the visual processing device according to any one of attachments 3 to 7, wherein the gradation processing means includes a correction means and a gradation processing execution means. The correction means corrects the selection signal and derives a correction selection signal for selecting a gradation processing table for each pixel of the image signal. The gradation processing execution means executes gradation processing of the image signal using a gradation conversion table selected by the correction selection signal.

補正手段は、例えば、対象画像領域毎に導出された選択信号を画素位置および対象画像領域に隣接する画像領域について導出された選択信号に基づいて補正し、画素毎の選択信号を導出する。
本発明の視覚処理装置では、画素毎に選択信号を導出することが可能となる。このため、画像領域の境界が不自然に目立つことがさらに防止され、視覚的効果を向上させることが可能となる。
For example, the correcting unit corrects the selection signal derived for each target image region based on the selection signal derived for the pixel position and the image region adjacent to the target image region, and derives a selection signal for each pixel.
In the visual processing device of the present invention, it is possible to derive a selection signal for each pixel. For this reason, it is further prevented that the boundary of the image area stands out unnaturally, and the visual effect can be improved.

付記10に記載の視覚処理方法は、画像領域分割ステップと、階調変換特性導出ステップと、階調処理ステップとを備えている。画像領域分割ステップは、入力された画像信号を複数の画像領域に分割する。階調変換特性導出ステップは、画像領域毎に階調変換特性を導出するステップであって、階調変換特性の導出対象となる対象画像領域と対象画像領域の周辺画像領域との階調特性を用いて、対象画像領域の階調変換特性を導出する。階調処理ステップは、導出された階調変換特性に基づいて、画像信号の階調処理を行う。   The visual processing method according to attachment 10 includes an image region dividing step, a gradation conversion characteristic deriving step, and a gradation processing step. The image region dividing step divides the input image signal into a plurality of image regions. The gradation conversion characteristic deriving step is a step of deriving the gradation conversion characteristic for each image area, and the gradation characteristic between the target image area from which the gradation conversion characteristic is derived and the peripheral image area of the target image area To derive the gradation conversion characteristics of the target image area. In the gradation processing step, gradation processing of the image signal is performed based on the derived gradation conversion characteristics.

ここで、階調変換特性とは、画像領域毎の階調処理の特性である。階調特性とは、例えば、画素毎の輝度、明度などといった画素値である。
本発明の視覚処理方法では、画像領域毎の階調変換特性を判断する際に、画像領域毎の階調特性だけでなく、周辺の画像領域を含めた広域の画像領域の階調特性を用いて判断を行う。このため、画像領域毎の階調処理に空間処理的効果を加えることが可能となり、さらに視覚的効果の高い階調処理を実現することが可能となる。
Here, the gradation conversion characteristic is a characteristic of gradation processing for each image region. The gradation characteristics are pixel values such as brightness and brightness for each pixel, for example.
In the visual processing method of the present invention, when determining the gradation conversion characteristics for each image area, not only the gradation characteristics for each image area but also the gradation characteristics of a wide image area including the peripheral image areas are used. Make a decision. For this reason, it is possible to add a spatial processing effect to the gradation processing for each image area, and it is possible to realize gradation processing with a higher visual effect.

付記11に記載の視覚処理方法は、付記10に記載の視覚処理方法であって、階調変換特性は、階調変換曲線である。階調変換特性導出ステップは、階調特性を用いてヒストグラムを作成するヒストグラム作成ステップと、作成されたヒストグラムに基づいて階調変換曲線を作成する階調曲線作成ステップとを有している。   The visual processing method according to attachment 11 is the visual processing method according to attachment 10, in which the gradation conversion characteristic is a gradation conversion curve. The gradation conversion characteristic deriving step includes a histogram creation step for creating a histogram using the gradation characteristics, and a gradation curve creation step for creating a gradation conversion curve based on the created histogram.

ここで、ヒストグラムとは、例えば、対象画像領域および周辺画像領域が含む画素の階調特性に対する分布である。階調曲線作成ステップは、例えば、ヒストグラムの値を累積した累積曲線を階調変換曲線とする。
本発明の視覚処理方法では、ヒストグラムを作成する際に、画像領域毎の階調特性だけでなく、周辺の画像領域を含めた広域の階調特性を用いてヒストグラムの作成を行う。このため、画像信号の分割数を増やし画像領域の大きさを小さくすることが可能となり、階調処理による疑似輪郭の発生を抑制することが可能となる。また、画像領域の境界が不自然に目立つことが防止可能となる。
Here, the histogram is, for example, a distribution with respect to the gradation characteristics of pixels included in the target image region and the peripheral image region. In the gradation curve creating step, for example, a cumulative curve obtained by accumulating histogram values is used as a gradation conversion curve.
In the visual processing method of the present invention, when creating a histogram, the histogram is created using not only the gradation characteristics for each image area but also the wide-range gradation characteristics including the peripheral image areas. For this reason, it is possible to increase the number of divisions of the image signal and to reduce the size of the image area, and it is possible to suppress the generation of the pseudo contour due to the gradation processing. Further, it is possible to prevent the boundary of the image area from being unnaturally conspicuous.

付記12に記載の視覚処理方法は、付記10に記載の視覚処理方法であって、階調変換特性は、画像信号を階調処理する複数の階調変換テーブルの中から1つの階調変換テーブルを選択するための選択信号である。また、階調処理ステップは、階調処理実行ステップと、補正ステップとを有している。階調処理実行ステップは、選択信号が選択する階調変換テーブルを用いて対象画像領域の階調処理を実行する。補正ステップは、階調処理された画像信号の階調を補正するステップであって、補正の対象となる対象画素を含む画像領域と対象画素を含む画像領域の隣接画像領域とについて選択された階調処理テーブルに基づいて、対象画素の階調を補正する。   The visual processing method according to attachment 12 is the visual processing method according to attachment 10, wherein the gradation conversion characteristic is one gradation conversion table among a plurality of gradation conversion tables for gradation processing of an image signal. Is a selection signal for selecting. The gradation processing step has a gradation processing execution step and a correction step. In the gradation processing execution step, gradation processing of the target image area is executed using a gradation conversion table selected by the selection signal. The correction step is a step of correcting the gradation of the image signal that has been subjected to the gradation processing, and is performed for the image area including the target pixel to be corrected and an image area adjacent to the image area including the target pixel. Based on the tone processing table, the gradation of the target pixel is corrected.

ここで、階調変換テーブルとは、例えば、画像信号の画素値に対して階調処理された画像信号の画素値を記憶するルックアップテーブル(LUT)などである。隣接画像領域とは、階調変換特性を導出する際の周辺画像領域と同じ画像領域であってもよいし、異なる画像領域であってもよい。例えば、隣接画像領域は、対象画素を含む画像領域に隣接する画像領域のうち、対象画素からの距離が短い3つの画像領域として選択される。   Here, the gradation conversion table is, for example, a look-up table (LUT) that stores pixel values of an image signal subjected to gradation processing on pixel values of the image signal. The adjacent image area may be the same image area as the peripheral image area when the gradation conversion characteristic is derived, or may be a different image area. For example, the adjacent image regions are selected as three image regions having a short distance from the target pixel among the image regions adjacent to the image region including the target pixel.

選択信号は、例えば、複数の階調変換テーブルのそれぞれに割り付けられた値の中から選択される1つの階調変換テーブルに割り付けられた値を有している。階調処理ステップは、選択信号の値と画像信号の画素値とからLUTを参照して階調処理された画像信号の画素値を出力する。補正ステップは、例えば、対象画像領域毎に同一の階調変換テーブルを用いて階調処理された画像信号の階調を補正する。対象画素の補正は、例えば、対象画素の位置に応じて、隣接画像領域について選択されたそれぞれの階調変換テーブルの影響が現れるように行われる。   The selection signal has, for example, a value assigned to one gradation conversion table selected from values assigned to each of the plurality of gradation conversion tables. In the gradation processing step, the pixel value of the image signal subjected to the gradation processing with reference to the LUT from the value of the selection signal and the pixel value of the image signal is output. In the correction step, for example, the gradation of the image signal subjected to gradation processing is corrected using the same gradation conversion table for each target image area. The correction of the target pixel is performed so that, for example, the influence of each gradation conversion table selected for the adjacent image region appears according to the position of the target pixel.

本発明の視覚処理方法では、階調処理をLUTを参照して行う。このため、階調処理を高速化することが可能となる。また、複数の階調変換テーブルから1つの階調変換テーブルを選択して階調処理を行うため、適切な階調処理を行うことが可能となる。さらに、画像信号の階調を画素毎に補正することが可能となる。このため、画像領域の境界が不自然に目立つことがさらに防止され、視覚的効果を向上させることが可能となる。   In the visual processing method of the present invention, gradation processing is performed with reference to the LUT. For this reason, it is possible to speed up the gradation processing. Further, since gradation processing is performed by selecting one gradation conversion table from a plurality of gradation conversion tables, appropriate gradation processing can be performed. Furthermore, the gradation of the image signal can be corrected for each pixel. For this reason, it is further prevented that the boundary of the image area stands out unnaturally, and the visual effect can be improved.

付記13に記載の視覚処理方法は、付記10に記載の視覚処理方法であって、階調変換特性は、画像信号を階調処理する複数の階調変換テーブルの中から1つの階調変換テーブルを選択するための選択信号である。また、階調処理ステップは、補正ステップと、階調処理実行ステップとを有している。補正ステップは、選択信号を補正し、画像信号の画素毎に階調処理テーブルを選択するための補正選択信号を導出する。階調処理実行ステップは、補正選択信号が選択する階調変換テーブルを用いて画像信号の階調処理を実行する。   The visual processing method according to attachment 13 is the visual processing method according to attachment 10, wherein the gradation conversion characteristic is one gradation conversion table among a plurality of gradation conversion tables for gradation processing of an image signal. Is a selection signal for selecting. Further, the gradation processing step has a correction step and a gradation processing execution step. The correction step corrects the selection signal and derives a correction selection signal for selecting a gradation processing table for each pixel of the image signal. In the gradation processing execution step, gradation processing of the image signal is performed using a gradation conversion table selected by the correction selection signal.

ここで、階調変換テーブルとは、例えば、画像信号の画素値に対して階調処理された画像信号の画素値を記憶するルックアップテーブル(LUT)などである。
選択信号は、例えば、複数の階調変換テーブルのそれぞれに割り付けられた値の中から選択される1つの階調変換テーブルに割り付けられた値を有している。階調処理ステップは、選択信号の値と画像信号の画素値とから2次元LUTを参照して階調処理された画像信号の画素値を出力する。補正ステップは、例えば、対象画像領域毎に導出された選択信号を画素位置および対象画像領域に隣接する画像領域について導出された選択信号に基づいて補正し、画素毎の選択信号を導出する。
Here, the gradation conversion table is, for example, a look-up table (LUT) that stores pixel values of an image signal subjected to gradation processing on pixel values of the image signal.
The selection signal has, for example, a value assigned to one gradation conversion table selected from values assigned to each of the plurality of gradation conversion tables. In the gradation processing step, the pixel value of the image signal subjected to gradation processing is output with reference to the two-dimensional LUT from the value of the selection signal and the pixel value of the image signal. In the correction step, for example, the selection signal derived for each target image region is corrected based on the pixel position and the selection signal derived for the image region adjacent to the target image region, and a selection signal for each pixel is derived.

本発明の視覚処理方法では、階調処理をLUTを参照して行う。このため、階調処理を
高速化することが可能となる。また、複数の階調変換テーブルから1つの階調変換テーブルを選択して階調処理を行うため、適切な階調処理を行うことが可能となる。さらに、画素毎に選択信号を導出することが可能となる。このため、画像領域の境界が不自然に目立つことがさらに防止され、視覚的効果を向上させることが可能となる。
In the visual processing method of the present invention, gradation processing is performed with reference to the LUT. For this reason, it is possible to speed up the gradation processing. Further, since gradation processing is performed by selecting one gradation conversion table from a plurality of gradation conversion tables, appropriate gradation processing can be performed. Furthermore, a selection signal can be derived for each pixel. For this reason, it is further prevented that the boundary of the image area stands out unnaturally, and the visual effect can be improved.

付記14に記載の視覚処理プログラムは、コンピュータにより、画像領域分割ステップと、階調変換特性導出ステップと、階調処理ステップとを備える視覚処理方法を行わせる視覚処理プログラムである。画像領域分割ステップは、入力された画像信号を複数の画像領域に分割する。階調変換特性導出ステップは、画像領域毎に階調変換特性を導出するステップであって、階調変換特性の導出対象となる対象画像領域と対象画像領域の周辺画像領域との階調特性を用いて、対象画像領域の階調変換特性を導出する。階調処理ステップは、導出された階調変換特性に基づいて、画像信号の階調処理を行う。   The visual processing program according to attachment 14 is a visual processing program that causes a computer to perform a visual processing method including an image region dividing step, a gradation conversion characteristic deriving step, and a gradation processing step. The image region dividing step divides the input image signal into a plurality of image regions. The gradation conversion characteristic deriving step is a step of deriving the gradation conversion characteristic for each image area, and the gradation characteristic between the target image area from which the gradation conversion characteristic is derived and the peripheral image area of the target image area To derive the gradation conversion characteristics of the target image area. In the gradation processing step, gradation processing of the image signal is performed based on the derived gradation conversion characteristics.

ここで、階調変換特性とは、画像領域毎の階調処理の特性である。階調特性とは、例えば、画素毎の輝度、明度などといった画素値である。
本発明の視覚処理プログラムでは、画像領域毎の階調変換特性を判断する際に、画像領域毎の階調特性だけでなく、周辺の画像領域を含めた広域の画像領域の階調特性を用いて判断を行う。このため、画像領域毎の階調処理に空間処理的効果を加えることが可能となり、さらに視覚的効果の高い階調処理を実現することが可能となる。
Here, the gradation conversion characteristic is a characteristic of gradation processing for each image region. The gradation characteristics are pixel values such as brightness and brightness for each pixel, for example.
In the visual processing program of the present invention, when determining the gradation conversion characteristics for each image area, not only the gradation characteristics for each image area but also the gradation characteristics of a wide image area including the peripheral image areas are used. Make a decision. For this reason, it is possible to add a spatial processing effect to the gradation processing for each image area, and it is possible to realize gradation processing with a higher visual effect.

付記15に記載の視覚処理プログラムは、付記14に記載の視覚処理プログラムであって、階調変換特性は、階調変換曲線である。階調変換特性導出ステップは、階調特性を用いてヒストグラムを作成するヒストグラム作成ステップと、作成されたヒストグラムに基づいて階調変換曲線を作成する階調曲線作成ステップとを有している。   The visual processing program according to attachment 15 is the visual processing program according to attachment 14 in which the gradation conversion characteristic is a gradation conversion curve. The gradation conversion characteristic deriving step includes a histogram creation step for creating a histogram using the gradation characteristics, and a gradation curve creation step for creating a gradation conversion curve based on the created histogram.

ここで、ヒストグラムとは、例えば、対象画像領域および周辺画像領域が含む画素の階調特性に対する分布である。階調曲線作成ステップは、例えば、ヒストグラムの値を累積した累積曲線を階調変換曲線とする。
本発明の視覚処理プログラムでは、ヒストグラムを作成する際に、画像領域毎の階調特性だけでなく、周辺の画像領域を含めた広域の階調特性を用いてヒストグラムの作成を行う。このため、画像信号の分割数を増やし画像領域の大きさを小さくすることが可能となり、階調処理による疑似輪郭の発生を抑制することが可能となる。また、画像領域の境界が不自然に目立つことが防止可能となる。
Here, the histogram is, for example, a distribution with respect to the gradation characteristics of pixels included in the target image region and the peripheral image region. In the gradation curve creating step, for example, a cumulative curve obtained by accumulating histogram values is used as a gradation conversion curve.
In the visual processing program of the present invention, when creating a histogram, the histogram is created using not only the gradation characteristics for each image area but also the wide-range gradation characteristics including the peripheral image areas. For this reason, it is possible to increase the number of divisions of the image signal and to reduce the size of the image area, and it is possible to suppress the generation of the pseudo contour due to the gradation processing. Further, it is possible to prevent the boundary of the image area from being unnaturally conspicuous.

付記16に記載の視覚処理プログラムは、付記14に記載の視覚処理プログラムであって、階調変換特性は、画像信号を階調処理する複数の階調変換テーブルの中から1つの階調変換テーブルを選択するための選択信号である。また、階調処理ステップは、階調処理実行ステップと、補正ステップとを有している。階調処理実行ステップは、選択信号が選択する階調変換テーブルを用いて対象画像領域の階調処理を実行する。補正ステップは、階調処理された画像信号の階調を補正するステップであって、補正の対象となる対象画素を含む画像領域と対象画素を含む画像領域の隣接画像領域とについて選択された階調処理テーブルに基づいて、対象画素の階調を補正する。   The visual processing program according to attachment 16 is the visual processing program according to attachment 14, wherein the gradation conversion characteristic is one gradation conversion table among a plurality of gradation conversion tables for gradation processing of an image signal. Is a selection signal for selecting. The gradation processing step has a gradation processing execution step and a correction step. In the gradation processing execution step, gradation processing of the target image area is executed using a gradation conversion table selected by the selection signal. The correction step is a step of correcting the gradation of the image signal that has been subjected to the gradation processing, and is performed for the image area including the target pixel to be corrected and an image area adjacent to the image area including the target pixel. Based on the tone processing table, the gradation of the target pixel is corrected.

ここで、階調変換テーブルとは、例えば、画像信号の画素値に対して階調処理された画像信号の画素値を記憶するルックアップテーブル(LUT)などである。隣接画像領域とは、階調変換特性を導出する際の周辺画像領域と同じ画像領域であってもよいし、異なる画像領域であってもよい。例えば、隣接画像領域は、対象画素を含む画像領域に隣接する画像領域のうち、対象画素からの距離が短い3つの画像領域として選択される。   Here, the gradation conversion table is, for example, a look-up table (LUT) that stores pixel values of an image signal subjected to gradation processing on pixel values of the image signal. The adjacent image area may be the same image area as the peripheral image area when the gradation conversion characteristic is derived, or may be a different image area. For example, the adjacent image regions are selected as three image regions having a short distance from the target pixel among the image regions adjacent to the image region including the target pixel.

選択信号は、例えば、複数の階調変換テーブルのそれぞれに割り付けられた値の中から選択される1つの階調変換テーブルに割り付けられた値を有している。階調処理ステップは、選択信号の値と画像信号の画素値とからLUTを参照して階調処理された画像信号の画素値を出力する。補正ステップは、例えば、対象画像領域毎に同一の階調変換テーブル
を用いて階調処理された画像信号の階調を補正する。対象画素の補正は、例えば、対象画素の位置に応じて、隣接画像領域について選択されたそれぞれの階調変換テーブルの影響が現れるように行われる。
The selection signal has, for example, a value assigned to one gradation conversion table selected from values assigned to each of the plurality of gradation conversion tables. In the gradation processing step, the pixel value of the image signal subjected to the gradation processing with reference to the LUT from the value of the selection signal and the pixel value of the image signal is output. In the correction step, for example, the gradation of the image signal subjected to gradation processing is corrected using the same gradation conversion table for each target image area. The correction of the target pixel is performed so that, for example, the influence of each gradation conversion table selected for the adjacent image region appears according to the position of the target pixel.

本発明の視覚処理プログラムでは、階調処理をLUTを参照して行う。このため、階調処理を高速化することが可能となる。また、複数の階調変換テーブルから1つの階調変換テーブルを選択して階調処理を行うため、適切な階調処理を行うことが可能となる。さらに、画像信号の階調を画素毎に補正することが可能となる。このため、画像領域の境界が不自然に目立つことがさらに防止され、視覚的効果を向上させることが可能となる。   In the visual processing program of the present invention, gradation processing is performed with reference to the LUT. For this reason, it is possible to speed up the gradation processing. Further, since gradation processing is performed by selecting one gradation conversion table from a plurality of gradation conversion tables, appropriate gradation processing can be performed. Furthermore, the gradation of the image signal can be corrected for each pixel. For this reason, it is further prevented that the boundary of the image area stands out unnaturally, and the visual effect can be improved.

付記17に記載の視覚処理プログラムは、付記14に記載の視覚処理プログラムであって、階調変換特性は、画像信号を階調処理する複数の階調変換テーブルの中から1つの階調変換テーブルを選択するための選択信号である。また、階調処理ステップは、補正ステップと、階調処理実行ステップとを有している。補正ステップは、選択信号を補正し、画像信号の画素毎に階調処理テーブルを選択するための補正選択信号を導出する。階調処理実行ステップは、補正選択信号が選択する階調変換テーブルを用いて画像信号の階調処理を実行する。   The visual processing program according to attachment 17 is the visual processing program according to attachment 14, wherein the gradation conversion characteristic is one gradation conversion table among a plurality of gradation conversion tables for gradation processing of an image signal. Is a selection signal for selecting. Further, the gradation processing step has a correction step and a gradation processing execution step. The correction step corrects the selection signal and derives a correction selection signal for selecting a gradation processing table for each pixel of the image signal. In the gradation processing execution step, gradation processing of the image signal is performed using a gradation conversion table selected by the correction selection signal.

ここで、階調変換テーブルとは、例えば、画像信号の画素値に対して階調処理された画像信号の画素値を記憶するルックアップテーブル(LUT)などである。
選択信号は、例えば、複数の階調変換テーブルのそれぞれに割り付けられた値の中から選択される1つの階調変換テーブルに割り付けられた値を有している。階調処理ステップは、選択信号の値と画像信号の画素値とから2次元LUTを参照して階調処理された画像信号の画素値を出力する。補正ステップは、例えば、対象画像領域毎に導出された選択信号を画素位置および対象画像領域に隣接する画像領域について導出された選択信号に基づいて補正し、画素毎の選択信号を導出する。
Here, the gradation conversion table is, for example, a look-up table (LUT) that stores pixel values of an image signal subjected to gradation processing on pixel values of the image signal.
The selection signal has, for example, a value assigned to one gradation conversion table selected from values assigned to each of the plurality of gradation conversion tables. In the gradation processing step, the pixel value of the image signal subjected to gradation processing is output with reference to the two-dimensional LUT from the value of the selection signal and the pixel value of the image signal. In the correction step, for example, the selection signal derived for each target image region is corrected based on the pixel position and the selection signal derived for the image region adjacent to the target image region, and a selection signal for each pixel is derived.

本発明の視覚処理プログラムでは、階調処理をLUTを参照して行う。このため、階調処理を高速化することが可能となる。また、複数の階調変換テーブルから1つの階調変換テーブルを選択して階調処理を行うため、適切な階調処理を行うことが可能となる。さらに、画素毎に選択信号を導出することが可能となる。このため、画像領域の境界が不自然に目立つことがさらに防止され、視覚的効果を向上させることが可能となる。   In the visual processing program of the present invention, gradation processing is performed with reference to the LUT. For this reason, it is possible to speed up the gradation processing. Further, since gradation processing is performed by selecting one gradation conversion table from a plurality of gradation conversion tables, appropriate gradation processing can be performed. Furthermore, a selection signal can be derived for each pixel. For this reason, it is further prevented that the boundary of the image area stands out unnaturally, and the visual effect can be improved.

付記18に記載の視覚処理装置は、付記1に記載の視覚処理装置であって、階調処理手段は、画像信号を階調処理するための階調変換曲線の曲線パラメータを、階調変換特性に基づいて出力するパラメータ出力手段を有している。階調処理手段は、階調変換特定と曲線パラメータとに基づいて特定される階調変換曲線を用いて、画像信号を階調処理する。   The visual processing device according to attachment 18 is the visual processing device according to attachment 1, in which the gradation processing means uses the gradation conversion characteristics of the gradation conversion curve for gradation processing of the image signal as gradation conversion characteristics. Parameter output means for outputting based on the above. The gradation processing means performs gradation processing on the image signal using a gradation conversion curve specified based on the gradation conversion specification and the curve parameter.

ここで、階調変換曲線とは、少なくとも一部が直線であるようなものも含んでいる。曲線パラメータとは、階調変換曲線を他の階調変換曲線と区別するためのパラメータであり、例えば、階調変換曲線上の座標、階調変換曲線の傾き、曲率などである。パラメータ出力手段は、例えば、階調変換特性に対する曲線パラメータを格納するルックアップテーブルや、所定の階調変換特性に対する曲線パラメータを用いた曲線近似などの演算により曲線パラメータを求める演算手段などである。   Here, the gradation conversion curve includes at least a part that is a straight line. The curve parameter is a parameter for distinguishing the gradation conversion curve from other gradation conversion curves, such as the coordinates on the gradation conversion curve, the gradient of the gradation conversion curve, and the curvature. The parameter output means is, for example, a lookup table that stores curve parameters for gradation conversion characteristics, or an operation means for obtaining curve parameters by calculation such as curve approximation using curve parameters for predetermined gradation conversion characteristics.

本発明の視覚処理装置では、階調変換特性に応じて画像信号を階調処理する。このため、より適切に階調処理を行うことが可能となる。また、階調処理に用いられる全ての階調変換曲線の値をあらかじめ記憶しておく必要がなく、出力された曲線パラメータから階調変換曲線を特定して階調処理を行う。このため、階調変換曲線を記憶するための記憶容量を削減することが可能となる。   In the visual processing device of the present invention, gradation processing is performed on an image signal according to gradation conversion characteristics. For this reason, it is possible to perform gradation processing more appropriately. Further, it is not necessary to store in advance the values of all the gradation conversion curves used for gradation processing, and gradation processing is performed by specifying the gradation conversion curve from the output curve parameters. For this reason, it is possible to reduce the storage capacity for storing the gradation conversion curve.

付記19に記載の視覚処理装置は、付記18に記載の視覚処理装置であって、パラメータ出力手段は、階調変換特性と曲線パラメータとの関係を格納するルックアップテーブル
である。
ルックアップテーブルは、階調変換特性と曲線パラメータとの関係を格納している。階調処理手段は、特定された階調変換曲線を用いて、画像信号を階調処理する。
The visual processing device according to attachment 19 is the visual processing device according to attachment 18 in which the parameter output means is a look-up table that stores the relationship between the gradation conversion characteristics and the curve parameters.
The look-up table stores the relationship between gradation conversion characteristics and curve parameters. The gradation processing means performs gradation processing on the image signal using the specified gradation conversion curve.

本発明の視覚処理装置では、階調変換特性に応じて画像信号を階調処理する。このため、より適切に階調処理を行うことが可能となる。さらに、用いられる全ての階調変換曲線の値をあらかじめ記憶しておく必要がなく、曲線パラメータを記憶するのみである。このため、階調変換曲線を記憶するための記憶容量を削減することが可能となる。   In the visual processing device of the present invention, gradation processing is performed on an image signal according to gradation conversion characteristics. For this reason, it is possible to perform gradation processing more appropriately. Further, it is not necessary to store in advance the values of all the gradation conversion curves used, and only the curve parameters are stored. For this reason, it is possible to reduce the storage capacity for storing the gradation conversion curve.

付記20に記載の視覚処理装置は、付記18または19に記載の視覚処理装置であって、曲線パラメータは、画像信号の所定の値に対する階調処理された画像信号の値を含む。
階調処理手段では、画像信号の所定の値と視覚処理の対象となる画像信号の値との関係を用いて、曲線パラメータが含む階調処理された画像信号の値を非線形あるいは線形に内分し、階調処理された画像信号の値を導出する。
The visual processing device according to attachment 20 is the visual processing device according to attachment 18 or 19, wherein the curve parameter includes a value of the image signal subjected to gradation processing with respect to a predetermined value of the image signal.
The tone processing means uses the relationship between the predetermined value of the image signal and the value of the image signal to be visually processed to nonlinearly or linearly divide the value of the tone processed image signal included in the curve parameter. Then, the value of the gradation-processed image signal is derived.

本発明の視覚処理装置では、画像信号の所定の値に対する階調処理された画像信号の値から階調変換曲線を特定し、階調処理を行うことが可能となる。
付記21に記載の視覚処理装置は、付記18〜20のいずれかに記載の視覚処理装置であって、曲線パラメータは、画像信号の所定の区間における階調変換曲線の傾きを含む。
In the visual processing device of the present invention, it is possible to perform gradation processing by specifying a gradation conversion curve from the value of a gradation-processed image signal for a predetermined value of the image signal.
The visual processing device according to attachment 21 is the visual processing device according to any one of attachments 18 to 20, wherein the curve parameter includes the slope of the gradation conversion curve in a predetermined section of the image signal.

階調処理手段では、画像信号の所定の区間における階調変換曲線の傾きにより、階調変換曲線が特定される。さらに、特定された階調変換曲線を用いて、画像信号の値に対する階調処理された画像信号の値が導出される。
本発明の視覚処理装置では、画像信号の所定の区間における階調変換曲線の傾きにより、階調変換曲線を特定し、階調処理を行うことが可能となる。
In the gradation processing means, the gradation conversion curve is specified by the slope of the gradation conversion curve in a predetermined section of the image signal. Furthermore, the value of the image signal subjected to the gradation process with respect to the value of the image signal is derived using the specified gradation conversion curve.
In the visual processing device of the present invention, it is possible to specify a gradation conversion curve based on the gradient of the gradation conversion curve in a predetermined section of the image signal and perform gradation processing.

付記22に記載の視覚処理装置は、付記18〜21のいずれかに記載の視覚処理装置であって、曲線パラメータは、階調変換曲線が通る少なくとも1点の座標を含む。
曲線パラメータでは、階調変換曲線が通る少なくとも1点の座標が特定されている。すなわち画像信号の値に対する階調処理後の画像信号の値が少なくとも1点特定されている。階調処理手段では、特定された画像信号の値と、視覚処理の対象となる画像信号の値との関係を用いて、特定された階調処理後の画像信号の値を非線形あるいは線形に内分することにより階調処理された画像信号の値を導出する。
The visual processing device according to attachment 22 is the visual processing device according to any one of attachments 18 to 21, wherein the curve parameter includes coordinates of at least one point through which the gradation conversion curve passes.
In the curve parameter, the coordinates of at least one point through which the gradation conversion curve passes are specified. That is, at least one point of the value of the image signal after gradation processing with respect to the value of the image signal is specified. The gradation processing means uses the relationship between the value of the specified image signal and the value of the image signal to be visually processed, so that the value of the specified image signal after gradation processing is nonlinearly or linearly included. By dividing, the value of the image signal subjected to gradation processing is derived.

本発明の視覚処理装置では、階調変換曲線が通る少なくとも1点の座標により、階調変換曲線を特定し、階調処理を行うことが可能となる。
付記23に記載の視覚処理装置は、空間処理手段と、視覚処理手段とを備えている。空間処理手段は、入力された画像信号における複数の画像領域毎の空間処理を行い空間処理信号を導出する手段である。空間処理では、空間処理の対象となる対象画像領域と対象画像領域の周辺画像領域との階調特性の差に基づいた重み付けを用いて、対象画像領域と周辺画像領域との階調特性の加重平均を行う。視覚処理手段は、対象画像領域の階調特性と空間処理信号とに基づいて、対象画像領域の視覚処理を行う。
In the visual processing device of the present invention, the gradation conversion curve can be identified and the gradation processing can be performed by the coordinates of at least one point through which the gradation conversion curve passes.
The visual processing device according to attachment 23 includes spatial processing means and visual processing means. The spatial processing means is means for performing spatial processing for each of a plurality of image regions in the input image signal to derive a spatial processing signal. In spatial processing, weighting of gradation characteristics between the target image area and the surrounding image area is performed using weighting based on a difference in gradation characteristics between the target image area to be subjected to spatial processing and the surrounding image area of the target image area. Do the average. The visual processing means performs visual processing of the target image area based on the gradation characteristics of the target image area and the spatial processing signal.

ここで、画像領域とは、画像において、複数の画素を含む領域、あるいは画素そのものを意味している。階調特性とは、画素毎の輝度、明度などといった画素値に基づく値である。例えば、画像領域の階調特性とは、画像領域が含む画素の画素値の平均値(単純平均または加重平均)、最大値、あるいは最小値などである。   Here, the image area means an area including a plurality of pixels in the image, or a pixel itself. The gradation characteristics are values based on pixel values such as brightness and brightness for each pixel. For example, the gradation characteristics of the image area include an average value (simple average or weighted average) of pixel values included in the image area, a maximum value, or a minimum value.

空間処理手段は、周辺画像領域の階調特性を用いて、対象画像領域の空間処理を行う。空間処理では、対象画像領域と周辺画像領域との階調特性が加重平均される。加重平均における重みは、対象画像領域と周辺画像領域との階調特性の差に基づいて設定される。
本発明の視覚処理装置では、空間処理信号において、階調特性が大きく異なる画像領域
から受ける影響を抑制することなどが可能となる。例えば、周辺画像領域が物体の境界などを含む画像であり、対象画像領域とは階調特性が大きく異なる場合にも、適切な空間処理信号を導出することが可能となる。この結果、空間処理信号を用いた視覚処理においても、特に擬似輪郭などの発生を抑制することなどが可能となる。このため、視覚的効果を向上させる視覚処理を実現することが可能となる。
The spatial processing means performs spatial processing of the target image region using the gradation characteristics of the peripheral image region. In the spatial processing, the gradation characteristics of the target image area and the peripheral image area are weighted averaged. The weight in the weighted average is set based on a difference in gradation characteristics between the target image area and the peripheral image area.
In the visual processing device of the present invention, it is possible to suppress the influence of the spatially processed signal from image areas having greatly different gradation characteristics. For example, it is possible to derive an appropriate spatial processing signal even when the peripheral image region is an image including the boundary of an object and the gradation characteristics are significantly different from the target image region. As a result, even in visual processing using a spatial processing signal, it is possible to suppress the occurrence of pseudo contours. For this reason, it is possible to realize visual processing that improves the visual effect.

付記24に記載の視覚処理装置は、付記23に記載の視覚処理装置であって、重み付けは、階調特性の差の絶対値が大きいほど小さくなる。
ここで、重みは、階調特性の差に応じて単調減少する値として与えられるものであってもよいし、所定の閾値と階調特性の差との比較により、所定の値に設定されるものであってもよい。
The visual processing device according to attachment 24 is the visual processing device according to attachment 23, in which the weighting decreases as the absolute value of the difference in gradation characteristics increases.
Here, the weight may be given as a value that monotonously decreases in accordance with a difference in gradation characteristics, or is set to a predetermined value by comparing a predetermined threshold value with a difference in gradation characteristics. It may be a thing.

本発明の視覚処理装置では、空間処理信号において、階調特性が大きく異なる画像領域から受ける影響を抑制することなどが可能となる。例えば、周辺画像領域が物体の境界などを含む画像であり、対象画像領域とは階調特性が大きく異なる場合にも、適切な空間処理信号を導出することが可能となる。この結果、空間処理信号を用いた視覚処理においても、特に擬似輪郭などの発生を抑制することなどが可能となる。このため、視覚的効果を向上させる視覚処理を実現することが可能となる。   In the visual processing device of the present invention, it is possible to suppress the influence of the spatially processed signal from image areas having greatly different gradation characteristics. For example, it is possible to derive an appropriate spatial processing signal even when the peripheral image region is an image including the boundary of an object and the gradation characteristics are significantly different from the target image region. As a result, even in visual processing using a spatial processing signal, it is possible to suppress the occurrence of pseudo contours. For this reason, it is possible to realize visual processing that improves the visual effect.

付記25に記載の視覚処理装置は、付記23または24に記載の視覚処理装置であって、重み付けは、対象画像領域と周辺画像領域との距離が大きいほど小さくなる。
ここで、重みは、対象画像領域と周辺画像領域との距離の大きさに応じて単調減少する値として与えられるものであってもよいし、所定の閾値と距離の大きさとの比較により、所定の値に設定されるものであってもよい。
The visual processing device according to attachment 25 is the visual processing device according to attachment 23 or 24, in which the weighting decreases as the distance between the target image region and the peripheral image region increases.
Here, the weight may be given as a value that monotonously decreases in accordance with the distance between the target image area and the surrounding image area, or may be determined by comparing the predetermined threshold with the distance. It may be set to the value of.

本発明の視覚処理装置では、空間処理信号において、対象画像領域と離れた周辺画像領域から受ける影響を抑制することなどが可能となる。このため、周辺画像領域が物体の境界などを含む画像であり、対象画像領域とは階調特性が大きく異なる場合にも、周辺画像領域と対象画像領域とが離れている場合には、周辺画像領域から受ける影響を抑制し、より適切な空間処理信号を導出することが可能となる。   In the visual processing device according to the present invention, it is possible to suppress the influence of the spatial processing signal from the peripheral image region that is separated from the target image region. Therefore, if the peripheral image area is an image including the boundary of the object and the gradation characteristics are significantly different from the target image area, the peripheral image area is separated from the target image area. It is possible to suppress the influence from the region and derive a more appropriate spatial processing signal.

付記26に記載の視覚処理装置は、付記23〜25のいずれかに記載の視覚処理装置であって、画像領域は、複数の画素から構成されている。対象画像領域と周辺画像領域との階調特性は、それぞれの画像領域を構成する画素値の特徴量として定められている。
本発明の視覚処理装置では、画像領域毎の空間処理を行う際に、画像領域毎に含まれる画素だけでなく、周辺の画像領域を含めた広域の画像領域に含まれる画素の階調特性を用いて処理を行う。このため、より適切な空間処理を行うことが可能となる。この結果、空間処理信号を用いた視覚処理においても、特に擬似輪郭などの発生を抑制することなどが可能となる。このため、視覚的効果を向上させる視覚処理を実現することが可能となる。
The visual processing device according to attachment 26 is the visual processing device according to any one of attachments 23 to 25, in which the image area is composed of a plurality of pixels. The gradation characteristics of the target image area and the peripheral image area are determined as feature values of pixel values constituting each image area.
In the visual processing device of the present invention, when performing spatial processing for each image region, not only the pixels included in each image region, but also the gradation characteristics of pixels included in a wide image region including peripheral image regions. To process. For this reason, it is possible to perform more appropriate spatial processing. As a result, even in visual processing using a spatial processing signal, it is possible to suppress the occurrence of pseudo contours. For this reason, it is possible to realize visual processing that improves the visual effect.

[第2付記]
本発明は、次のように表現することも可能である。なお、本欄([第2付記])に記載する従属形式の付記では、第2付記に記載の付記に従属するものとする。
〈第2付記の内容〉
(付記1)
入力された画像信号に対して一定の処理を行い、処理信号を出力する入力信号処理手段と、
入力された前記画像信号および前記処理信号と視覚処理された前記画像信号である出力信号との関係を与える2次元LUTに基づいて、前記出力信号を出力する視覚処理手段と、
を備えた視覚処理装置。
[Second note]
The present invention can also be expressed as follows. In addition, in the subordinate form of the supplementary note described in this column ([second supplementary note]), it is subordinate to the supplementary note described in the second supplementary note.
<Content of second supplementary note>
(Appendix 1)
Input signal processing means for performing certain processing on the input image signal and outputting the processed signal;
Visual processing means for outputting the output signal based on a two-dimensional LUT that gives a relationship between the input image signal and the processed signal and an output signal that is the visually processed image signal;
A visual processing device comprising:

(付記2)
前記2次元LUTでは、前記画像信号と、前記出力信号とが非線形の関係にある、
付記1に記載の視覚処理装置。
(付記3)
前記2次元LUTでは、前記画像信号および前記処理信号の両方と、前記出力信号とが非線形の関係にある、
付記2に記載の視覚処理装置。
(Appendix 2)
In the two-dimensional LUT, the image signal and the output signal are in a non-linear relationship.
The visual processing device according to attachment 1.
(Appendix 3)
In the two-dimensional LUT, both the image signal and the processing signal and the output signal are in a non-linear relationship.
The visual processing device according to attachment 2.

(付記4)
前記2次元LUTの各要素の値は、前記画像信号と前記処理信号とから算出された値を強調する演算を含む数式に基づいて定められている、
付記1〜3のいずれかに記載の視覚処理装置。
(Appendix 4)
The value of each element of the two-dimensional LUT is determined based on a mathematical formula including an operation for enhancing a value calculated from the image signal and the processed signal.
The visual processing device according to any one of appendices 1 to 3.

(付記5)
前記処理信号は、着目画素と着目画素の周囲画素との画像信号に対して前記一定の処理を行った信号である、
付記4に記載の視覚処理装置。
(Appendix 5)
The processing signal is a signal obtained by performing the certain processing on the image signal of the target pixel and the surrounding pixels of the target pixel.
The visual processing device according to attachment 4.

(付記6)
前記強調する演算は、非線形の関数である、
付記4または5に記載の視覚処理装置。
(付記7)
前記強調する演算は、前記画像信号と前記処理信号とに対して所定の変換を行ったそれぞれの変換値の差を強調する強調関数である、
付記4〜6のいずれかに記載の視覚処理装置。
(Appendix 6)
The operation to be emphasized is a non-linear function.
The visual processing device according to appendix 4 or 5.
(Appendix 7)
The enhancement operation is an enhancement function that emphasizes a difference between respective conversion values obtained by performing predetermined conversion on the image signal and the processing signal.
The visual processing device according to any one of appendices 4 to 6.

(付記8)
前記2次元LUTの各要素の値Cは、前記画像信号の値A、前記処理信号の値B、変換関数F1、前記変換関数F1の逆変換関数F2、前記強調関数F3に対して、数式F2(F1(A)+F3(F1(A)−F1(B)))に基づいて定められる、
付記7に記載の視覚処理装置。
(Appendix 8)
The value C of each element of the two-dimensional LUT is expressed by the equation F2 for the value A of the image signal, the value B of the processed signal, the conversion function F1, the inverse conversion function F2 of the conversion function F1, and the enhancement function F3. Determined based on (F1 (A) + F3 (F1 (A) −F1 (B))),
The visual processing device according to appendix 7.

(付記9)
前記変換関数F1は、対数関数である、
付記8に記載の視覚処理装置。
(付記10)
前記逆変換関数F2は、ガンマ補正関数である、
付記8に記載の視覚処理装置。
(Appendix 9)
The conversion function F1 is a logarithmic function.
The visual processing device according to attachment 8.
(Appendix 10)
The inverse transformation function F2 is a gamma correction function.
The visual processing device according to attachment 8.

(付記11)
前記強調する演算は、前記画像信号と前記処理信号との比を強調する強調関数である、付記4〜6のいずれかに記載の視覚処理装置。
(付記12)
前記2次元LUTの各要素の値Cは、前記画像信号の値A、前記処理信号の値B、ダイナミックレンジ圧縮関数F4、前記強調関数F5に対して、数式F4(A)*F5(A/B)に基づいて定められる、
付記11に記載の視覚処理装置。
(Appendix 11)
The visual processing device according to any one of appendices 4 to 6, wherein the enhancement operation is an enhancement function that enhances a ratio between the image signal and the processing signal.
(Appendix 12)
The value C of each element of the two-dimensional LUT is expressed by the equation F4 (A) * F5 (A /) with respect to the value A of the image signal, the value B of the processed signal, the dynamic range compression function F4, and the enhancement function F5. B)
The visual processing device according to attachment 11.

(付記13)
前記ダイナミックレンジ圧縮関数F4は、単調増加関数である、
付記12に記載の視覚処理装置。
(付記14)
前記ダイナミックレンジ圧縮関数F4は、上に凸の関数である、
付記13に記載の視覚処理装置。
(Appendix 13)
The dynamic range compression function F4 is a monotonically increasing function.
The visual processing device according to attachment 12.
(Appendix 14)
The dynamic range compression function F4 is an upward convex function.
The visual processing device according to attachment 13.

(付記15)
前記ダイナミックレンジ圧縮関数F4は、べき関数である、
付記12に記載の視覚処理装置。
(付記16)
前記ダイナミックレンジ圧縮関数F4は、比例係数1の正比例関数である、
付記12に記載の視覚処理装置。
(Appendix 15)
The dynamic range compression function F4 is a power function.
The visual processing device according to attachment 12.
(Appendix 16)
The dynamic range compression function F4 is a direct proportional function with a proportional coefficient of 1.
The visual processing device according to attachment 12.

(付記17)
前記強調関数F5は、べき関数である、
付記12〜16のいずれかに記載の視覚処理装置。
(付記18)
前記数式は、前記強調関数により強調された前記画像信号と前記処理信号との比に対してダイナミックレンジ圧縮を行う演算をさらに含む、
付記11に記載の視覚処理装置。
(Appendix 17)
The enhancement function F5 is a power function.
The visual processing device according to any one of appendices 12 to 16.
(Appendix 18)
The mathematical expression further includes an operation for performing dynamic range compression on a ratio between the image signal enhanced by the enhancement function and the processed signal.
The visual processing device according to attachment 11.

(付記19)
前記強調する演算は、前記画像信号と前記処理信号との差を、前記画像信号の値に応じて強調する関数を含む、
付記4〜6のいずれかに記載の視覚処理装置。
(Appendix 19)
The enhancement operation includes a function for enhancing a difference between the image signal and the processing signal according to a value of the image signal.
The visual processing device according to any one of appendices 4 to 6.

(付記20)
前記2次元LUTの各要素の値Cは、前記画像信号の値A、前記処理信号の値B、強調量調整関数F6、強調関数F7、ダイナミックレンジ圧縮関数F8に対して、数式F8(A)+F6(A)*F7(A−B)に基づいて定められる、
付記19に記載の視覚処理装置。
(Appendix 20)
The value C of each element of the two-dimensional LUT is expressed by Formula F8 (A) with respect to the value A of the image signal, the value B of the processing signal, the enhancement amount adjustment function F6, the enhancement function F7, and the dynamic range compression function F8. Determined based on + F6 (A) * F7 (AB),
The visual processing device according to appendix 19.

(付記21)
前記ダイナミックレンジ圧縮関数F8は、単調増加関数である、
付記20に記載の視覚処理装置。
(付記22)
前記ダイナミックレンジ圧縮関数F8は、上に凸の関数である、
付記21に記載の視覚処理装置。
(Appendix 21)
The dynamic range compression function F8 is a monotonically increasing function.
The visual processing device according to appendix 20.
(Appendix 22)
The dynamic range compression function F8 is an upward convex function.
The visual processing device according to attachment 21.

(付記23)
前記ダイナミックレンジ圧縮関数F8は、べき関数である、
付記20に記載の視覚処理装置。
(付記24)
前記ダイナミックレンジ圧縮関数F8は、比例係数1の正比例関数である、
付記20に記載の視覚処理装置。
(Appendix 23)
The dynamic range compression function F8 is a power function.
The visual processing device according to appendix 20.
(Appendix 24)
The dynamic range compression function F8 is a direct proportional function with a proportional coefficient of 1.
The visual processing device according to appendix 20.

(付記25)
前記数式は、前記強調する演算により強調された値に対して、前記画像信号をダイナミックレンジ圧縮した値を加える演算をさらに含む、
付記19に記載の視覚処理装置。
(Appendix 25)
The mathematical expression further includes an operation of adding a value obtained by dynamic range compression of the image signal to a value enhanced by the enhancement operation.
The visual processing device according to appendix 19.

(付記26)
前記強調する演算は、前記画像信号と前記処理信号との差を強調する強調関数であり、
前記数式は、前記強調関数により強調された値に対して、前記画像信号の値を加えた値を階調補正する演算をさらに含む、
付記4〜6のいずれかに記載の視覚処理装置。
(Appendix 26)
The calculation for enhancing is an enhancement function for enhancing the difference between the image signal and the processed signal,
The mathematical expression further includes a calculation for correcting a gradation of a value obtained by adding the value of the image signal to the value emphasized by the enhancement function.
The visual processing device according to any one of appendices 4 to 6.

(付記27)
前記2次元LUTの各要素の値Cは、前記画像信号の値A、前記処理信号の値B、前記強調関数F9、階調補正関数F10に対して、数式F10(A+F9(A−B))に基づいて定められる、
付記26に記載の視覚処理装置。
(Appendix 27)
The value C of each element of the two-dimensional LUT is expressed by Formula F10 (A + F9 (A−B)) with respect to the value A of the image signal, the value B of the processing signal, the enhancement function F9, and the gradation correction function F10. Determined based on
The visual processing device according to attachment 26.

(付記28)
前記強調する演算は、前記画像信号と前記処理信号との差を強調する強調関数であり、
前記数式は、前記強調関数により強調された値に対して、前記画像信号を階調補正した値を加える演算をさらに含む、
付記4〜6のいずれかに記載の視覚処理装置。
(Appendix 28)
The calculation for enhancing is an enhancement function for enhancing the difference between the image signal and the processed signal,
The mathematical expression further includes an operation of adding a gradation corrected value of the image signal to a value enhanced by the enhancement function.
The visual processing device according to any one of appendices 4 to 6.

(付記29)
前記2次元LUTの各要素の値Cは、前記画像信号の値A、前記処理信号の値B、前記強調関数F11、階調補正関数F12に対して、数式F12(A)+F11(A−B)に基づいて定められる、
付記28に記載の視覚処理装置。
(Appendix 29)
The value C of each element of the two-dimensional LUT is expressed by the formula F12 (A) + F11 (A−B) with respect to the value A of the image signal, the value B of the processing signal, the enhancement function F11, and the gradation correction function F12. )
The visual processing device according to attachment 28.

(付記30)
前記2次元LUTでは、同じ値の前記画像信号と前記処理信号とに対して格納されている値は、前記画像信号および前記処理信号の値に対して、単調増加、あるいは単調減少する関係にある、
付記1〜29のいずれかに記載の視覚処理装置。
(Appendix 30)
In the two-dimensional LUT, values stored for the image signal and the processed signal having the same value are in a monotonically increasing or monotonically decreasing relationship with respect to the image signal and the processed signal value. ,
The visual processing device according to any one of appendices 1 to 29.

(付記31)
前記2次元LUTは、前記画像信号と前記出力信号との関係を複数の階調変換曲線からなる階調変換曲線群として格納する、
付記1〜3のいずれかに記載の視覚処理装置。
(Appendix 31)
The two-dimensional LUT stores a relationship between the image signal and the output signal as a gradation conversion curve group including a plurality of gradation conversion curves.
The visual processing device according to any one of appendices 1 to 3.

(付記32)
前記階調変換曲線群のそれぞれは、前記画像信号の値に対して、単調増加する、
付記31に記載の視覚処理装置。
(付記33)
前記処理信号は、前記複数の階調変換曲線群から対応する階調変換曲線を選択するための信号である、
付記31または32に記載の視覚処理装置。
(Appendix 32)
Each of the gradation conversion curve groups increases monotonously with respect to the value of the image signal.
The visual processing device according to attachment 31.
(Appendix 33)
The processing signal is a signal for selecting a corresponding gradation conversion curve from the plurality of gradation conversion curve groups.
The visual processing device according to attachment 31 or 32.

(付記34)
前記処理信号の値は、前記複数の階調変換曲線群が含む少なくとも1つの階調変換曲線と関連づけられている、
付記33に記載の視覚処理装置。
(Appendix 34)
The value of the processing signal is associated with at least one gradation conversion curve included in the plurality of gradation conversion curve groups.
The visual processing device according to attachment 33.

(付記35)
前記2次元LUTには、所定の演算によってあらかじめ作成されるプロファイルデータが登録されている、
付記1〜34のいずれかに記載の視覚処理装置。
(Appendix 35)
In the two-dimensional LUT, profile data created in advance by a predetermined calculation is registered.
The visual processing device according to any one of appendices 1 to 34.

(付記36)
前記2次元LUTは、プロファイルデータの登録により変更可能である、
付記35に記載の視覚処理装置。
(付記37)
前記プロファイルデータを前記視覚処理手段に登録させるためのプロファイルデータ登録手段をさらに備えている、
付記35または36に記載の視覚処理装置。
(Appendix 36)
The two-dimensional LUT can be changed by registering profile data.
The visual processing device according to attachment 35.
(Appendix 37)
Profile data registration means for causing the visual processing means to register the profile data;
The visual processing device according to attachment 35 or 36.

(付記38)
前記視覚処理手段は、外部の装置により作成された前記プロファイルデータを取得する、
付記35に記載の視覚処理装置。
(Appendix 38)
The visual processing means obtains the profile data created by an external device;
The visual processing device according to attachment 35.

(付記39)
取得された前記プロファイルデータにより、前記2次元LUTは変更可能である、
付記38に記載の視覚処理装置。
(付記40)
前記視覚処理手段は、通信網を介して前記プロファイルデータを取得する、
付記38または39に記載の視覚処理装置。
(Appendix 39)
The two-dimensional LUT can be changed by the acquired profile data.
The visual processing device according to attachment 38.
(Appendix 40)
The visual processing means obtains the profile data via a communication network;
40. The visual processing device according to appendix 38 or 39.

(付記41)
前記プロファイルデータを作成するプロファイルデータ作成手段をさらに備えている、付記35に記載の視覚処理装置。
(付記42)
前記プロファイルデータ作成手段は、前記画像信号の階調特性のヒストグラムに基づいて、前記プロファイルデータを作成する、
付記41に記載の視覚処理装置。
(Appendix 41)
The visual processing device according to attachment 35, further comprising profile data creation means for creating the profile data.
(Appendix 42)
The profile data creating means creates the profile data based on a histogram of gradation characteristics of the image signal.
The visual processing device according to attachment 41.

(付記43)
前記2次元LUTに登録される前記プロファイルデータは、所定の条件に応じて切り替えられる、
付記35に記載の視覚処理装置。
(Appendix 43)
The profile data registered in the two-dimensional LUT is switched according to a predetermined condition.
The visual processing device according to attachment 35.

(付記44)
前記所定の条件とは、明るさに関する条件である、
付記43に記載の視覚処理装置。
(付記45)
前記明るさは、前記画像信号の明るさである、
付記44に記載の視覚処理装置。
(Appendix 44)
The predetermined condition is a condition relating to brightness.
The visual processing device according to attachment 43.
(Appendix 45)
The brightness is the brightness of the image signal.
The visual processing device according to appendix 44.

(付記46)
前記画像信号の明るさを判定する明度判定手段をさらに備え、
前記2次元LUTに登録されるプロファイルデータは、前記明度判定手段の判定結果に応じて切り替えられる、
付記45に記載の視覚処理装置。
(Appendix 46)
A lightness determination means for determining the brightness of the image signal;
The profile data registered in the two-dimensional LUT is switched according to the determination result of the lightness determination means.
The visual processing device according to attachment 45.

(付記47)
前記明るさに関する条件を入力させる明度入力手段をさらに備え、
前記2次元LUTに登録されるプロファイルデータは、前記明度入力手段の入力結果に応じて切り替えられる、
付記44に記載の視覚処理装置。
(Appendix 47)
Further comprising a brightness input means for inputting conditions relating to the brightness;
The profile data registered in the two-dimensional LUT is switched according to the input result of the brightness input means.
The visual processing device according to appendix 44.

(付記48)
前記明度入力手段は、前記出力信号の出力環境の明るさ、あるいは前記入力信号の入力環境の明るさを入力させる、
付記47に記載の視覚処理装置。
(Appendix 48)
The brightness input means inputs the brightness of the output environment of the output signal, or the brightness of the input environment of the input signal.
The visual processing device according to appendix 47.

(付記49)
前記明るさを少なくとも2種類検出する明度検出手段をさらに備え、
前記2次元LUTに登録されるプロファイルデータは、前記明度検出手段の検出結果に応じて切り替えられる、
付記44に記載の視覚処理装置。
(Appendix 49)
A brightness detecting means for detecting at least two types of brightness;
The profile data registered in the two-dimensional LUT is switched according to the detection result of the brightness detection means.
The visual processing device according to appendix 44.

(付記50)
前記明度検出手段が検出する前記明るさは、前記画像信号の明るさと、前記出力信号の出力環境の明るさ、あるいは前記入力信号の入力環境の明るさとを含む、
付記49に記載の視覚処理装置。
(Appendix 50)
The brightness detected by the brightness detection means includes the brightness of the image signal and the brightness of the output environment of the output signal or the brightness of the input environment of the input signal.
The visual processing device according to appendix 49.

(付記51)
前記2次元LUTに登録される前記プロファイルデータの選択を行わせるプロファイルデータ選択手段をさらに備え、
前記2次元LUTに登録されるプロファイルデータは、前記プロファイルデータ選択手段の選択結果に応じて切り替えられる、
付記43に記載の視覚処理装置。
(Appendix 51)
Profile data selection means for selecting the profile data registered in the two-dimensional LUT,
The profile data registered in the two-dimensional LUT is switched according to the selection result of the profile data selection means.
The visual processing device according to attachment 43.

(付記52)
前記プロファイルデータ選択手段は、プロファイルの選択を行うための入力装置である、
付記51に記載の視覚処理装置。
(Appendix 52)
The profile data selection means is an input device for selecting a profile.
The visual processing device according to attachment 51.

(付記53)
前記画像信号の画像特性を判断する画像特性判断手段をさらに備え、
前記2次元LUTに登録されるプロファイルデータは、前記画像特性判断手段の判断結果に応じて切り替えられる、
付記43に記載の視覚処理装置。
(Appendix 53)
An image characteristic determining means for determining an image characteristic of the image signal;
The profile data registered in the two-dimensional LUT is switched according to the determination result of the image characteristic determination unit.
The visual processing device according to attachment 43.

(付記54)
ユーザを識別するユーザ識別手段をさらに備え、
前記2次元LUTに登録されるプロファイルデータは、ユーザ識別手段の識別結果に応じて切り替えられる、
付記43に記載の視覚処理装置。
(Appendix 54)
A user identification means for identifying the user;
The profile data registered in the two-dimensional LUT is switched according to the identification result of the user identification means.
The visual processing device according to attachment 43.

(付記55)
前記視覚処理手段は、前記2次元LUTの格納する値を補間演算して前記出力信号を出力する、
付記1〜54のいずれかに記載の視覚処理装置。
(Appendix 55)
The visual processing means interpolates a value stored in the two-dimensional LUT and outputs the output signal;
The visual processing device according to any one of appendices 1 to 54.

(付記56)
前記補間演算は、2進数で表された前記画像信号あるいは前記処理信号の少なくとも一方の下位ビットの値に基づいた線形補間である、
付記55に記載の視覚処理装置。
(Appendix 56)
The interpolation calculation is linear interpolation based on the value of at least one lower bit of the image signal or the processing signal expressed in binary number.
The visual processing device according to attachment 55.

(付記57)
前記入力信号処理手段は、前記画像信号に対して空間処理を行う、
付記1〜56のいずれかに記載の視覚処理装置。
(付記58)
前記入力信号処理手段は、前記画像信号からアンシャープ信号を生成する、
付記57に記載の視覚処理装置。
(Appendix 57)
The input signal processing means performs spatial processing on the image signal.
The visual processing device according to any one of appendices 1 to 56.
(Appendix 58)
The input signal processing means generates an unsharp signal from the image signal;
The visual processing device according to appendix 57.

(付記59)
前記空間処理では、画像信号の平均値、最大値あるいは最小値が導出される、
付記57または58に記載の視覚処理装置。
(付記60)
前記視覚処理手段は、入力された前記画像信号及び前記処理信号を用いて、空間処理及び階調処理を行う、
付記1〜59のいずれかに記載の視覚処理装置。
(Appendix 59)
In the spatial processing, an average value, a maximum value, or a minimum value of the image signal is derived.
The visual processing device according to appendix 57 or 58.
(Appendix 60)
The visual processing means performs spatial processing and gradation processing using the input image signal and processing signal.
The visual processing device according to any one of appendices 1 to 59.

(付記61)
入力された画像信号に対して一定の処理を行い、処理信号を出力する入力信号処理ステップと、
入力された前記画像信号および前記処理信号と視覚処理された前記画像信号である出力信号との関係を与える2次元LUTに基づいて、前記出力信号を出力する視覚処理ステップと、
を備えた視覚処理方法。
(Appendix 61)
An input signal processing step for performing a certain process on the input image signal and outputting a processed signal;
A visual processing step of outputting the output signal based on a two-dimensional LUT that provides a relationship between the input image signal and the processed signal and an output signal that is the visually processed image signal;
Visual processing method with

(付記62)
コンピュータにより視覚処理方法を行うための視覚処理プログラムであって、
前記視覚処理プログラムは、
入力された画像信号に対して一定の処理を行い、処理信号を出力する入力信号処理ステップと、
入力された前記画像信号および前記処理信号と視覚処理された前記画像信号である出力信号との関係を与える2次元LUTに基づいて、前記出力信号を出力する視覚処理ステップと、
を備えた視覚処理方法をコンピュータに行わせるものである、
視覚処理プログラム。
(Appendix 62)
A visual processing program for performing a visual processing method by a computer,
The visual processing program is:
An input signal processing step for performing a certain process on the input image signal and outputting a processed signal;
A visual processing step of outputting the output signal based on a two-dimensional LUT that provides a relationship between the input image signal and the processed signal and an output signal that is the visually processed image signal;
A computer for performing a visual processing method comprising:
Visual processing program.

(付記63)
付記1〜60のいずれかに記載の視覚処理装置を含む集積回路。
(付記64)
付記1〜60のいずれかに記載の視覚処理装置と、
前記視覚処理装置から出力される前記出力信号の表示を行う表示手段と、
を備える表示装置。
(Appendix 63)
An integrated circuit including the visual processing device according to any one of appendices 1 to 60.
(Appendix 64)
The visual processing device according to any one of appendices 1 to 60;
Display means for displaying the output signal output from the visual processing device;
A display device comprising:

(付記65)
画像の撮影を行う撮影手段と、
前記撮影手段により撮影された画像を前記画像信号として視覚処理を行う付記1〜60のいずれかに記載の視覚処理装置と、
を備える撮影装置。
(Appendix 65)
Photographing means for photographing images;
The visual processing device according to any one of supplementary notes 1 to 60, wherein visual processing is performed using the image captured by the imaging unit as the image signal;
An imaging device comprising:

(付記66)
通信あるいは放送された画像データを受信するデータ受信手段と、
受信された前記画像データを前記画像信号として視覚処理を行う付記1〜60のいずれかに記載の視覚処理装置と、
前記視覚処理装置により視覚処理された前記画像信号の表示を行う表示手段と、
を備える携帯情報端末。
(Appendix 66)
Data receiving means for receiving communication or broadcast image data;
The visual processing device according to any one of supplementary notes 1 to 60, wherein visual processing is performed using the received image data as the image signal;
Display means for displaying the image signal visually processed by the visual processing device;
A portable information terminal comprising:

(付記67)
画像の撮影を行う撮影手段と、
前記撮影手段により撮影された画像を前記画像信号として視覚処理を行う付記1〜60のいずれかに記載の視覚処理装置と、
前記視覚処理された前記画像信号を送信するデータ送信手段と、
を備える携帯情報端末。
(Appendix 67)
Photographing means for photographing images;
The visual processing device according to any one of supplementary notes 1 to 60, wherein visual processing is performed using the image captured by the imaging unit as the image signal;
Data transmission means for transmitting the visually processed image signal;
A portable information terminal comprising:

(付記68)
入力された入力画像信号の画像処理を行う画像処理装置であって、
異なる画像処理を行うための複数のプロファイルデータに基づいて、画像処理に用いら
れるプロファイルデータを作成するプロファイルデータ作成手段と、
前記プロファイルデータ作成手段により作成された前記プロファイルデータを用いて、前記画像処理を行う画像処理実行手段と、
を備える画像処理装置。
(Appendix 68)
An image processing apparatus that performs image processing of an input image signal that has been input,
Profile data creating means for creating profile data used for image processing based on a plurality of profile data for performing different image processing;
Image processing execution means for performing the image processing using the profile data created by the profile data creation means;
An image processing apparatus comprising:

(付記69)
入力された入力画像信号の画像処理を行う画像処理装置であって、
前記画像処理に用いられるプロファイルデータを特定するためのプロファイル情報を出力するプロファイル情報出力手段と、
前記プロファイル情報出力手段から出力された情報に基づいて特定されるプロファイルデータを用いて前記画像処理を行う画像処理実行手段と、
を備える画像処理装置。
(Appendix 69)
An image processing apparatus that performs image processing of an input image signal that has been input,
Profile information output means for outputting profile information for specifying profile data used in the image processing;
Image processing execution means for performing the image processing using profile data specified based on information output from the profile information output means;
An image processing apparatus comprising:

(付記70)
前記プロファイル情報出力手段は、前記画像処理された入力画像信号を表示する表示環境に応じて、前記プロファイル情報を出力する、
付記69に記載の画像処理装置。
(Appendix 70)
The profile information output means outputs the profile information according to a display environment for displaying the input image signal subjected to the image processing.
70. The image processing apparatus according to appendix 69.

(付記71)
前記プロファイル情報出力手段は、前記入力画像信号に含まれる情報のうちプロファイルデータに関わる情報に応じて、前記プロファイル情報を出力する、
付記69に記載の画像処理装置。
(Appendix 71)
The profile information output means outputs the profile information according to information related to profile data among information included in the input image signal.
70. The image processing apparatus according to appendix 69.

(付記72)
前記プロファイル情報出力手段は、取得された前記画像処理の特徴に関わる情報に応じて、前記プロファイル情報を出力する、
付記69に記載の画像処理装置。
(Appendix 72)
The profile information output means outputs the profile information according to the information related to the acquired characteristics of the image processing.
70. The image processing apparatus according to appendix 69.

(付記73)
前記プロファイル情報出力手段は、前記入力画像信号が生成された環境に関わる情報に応じて、前記プロファイル情報を出力する、
付記69に記載の画像処理装置。
(Appendix 73)
The profile information output means outputs the profile information according to information related to the environment in which the input image signal is generated.
70. The image processing apparatus according to appendix 69.

(付記74)
前記入力画像信号は、画像データと、前記入力画像信号の属性情報とを含んでおり、
前記プロファイル情報出力手段は、前記属性情報に応じて、前記プロファイル情報を出力する、
付記69に記載の画像処理装置。
(Appendix 74)
The input image signal includes image data and attribute information of the input image signal,
The profile information output means outputs the profile information according to the attribute information.
70. The image processing apparatus according to appendix 69.

(付記75)
前記属性情報とは、前記画像データの全体に関わる全体属性情報を含んでいる、
付記74に記載の画像処理装置。
(付記76)
前記属性情報とは、前記画像データの一部に関わる部分属性情報を含んでいる、
付記74または75に記載の画像処理装置。
(Appendix 75)
The attribute information includes overall attribute information related to the entire image data.
75. The image processing apparatus according to appendix 74.
(Appendix 76)
The attribute information includes partial attribute information related to a part of the image data.
76. The image processing apparatus according to appendix 74 or 75.

(付記77)
前記属性情報とは、前記入力画像信号が生成された環境に関わる生成環境属性情報を含んでいる、
付記74に記載の画像処理装置。
(Appendix 77)
The attribute information includes generation environment attribute information related to an environment in which the input image signal is generated.
75. The image processing apparatus according to appendix 74.

(付記78)
前記属性情報とは、前記入力画像信号が取得された媒体に関わる媒体属性情報を含んで
いる、
付記74に記載の画像処理装置。
(Appendix 78)
The attribute information includes medium attribute information related to the medium from which the input image signal is acquired.
75. The image processing apparatus according to appendix 74.

(付記79)
付記68〜78のいずれかに記載の画像処理装置において、
前記プロファイルデータは、2次元LUTであって、
前記画像処理実行手段は、付記1〜60のいずれかに記載の視覚処理装置を含む、
ことを特徴とする画像処理装置。
(Appendix 79)
In the image processing device according to any one of appendices 68 to 78,
The profile data is a two-dimensional LUT,
The image processing execution means includes the visual processing device according to any one of appendices 1 to 60,
An image processing apparatus.

(付記80)
入力された入力画像信号に画像処理を行う画像処理実行手段と、
入力された入力画像信号に好適な画像処理を行うプロファイルデータを特定するためのプロファイル情報を出力するプロファイル情報出力手段と、
前記入力画像信号あるいは前記画像処理実行手段により画像処理された前記入力画像信号に対して、前記プロファイル情報を付加して出力するプロファイル情報付加手段と、
を備える画像処理装置。
(Appendix 80)
Image processing execution means for performing image processing on the input image signal input;
Profile information output means for outputting profile information for specifying profile data for performing image processing suitable for the input image signal input;
Profile information addition means for adding the profile information to the input image signal or the input image signal image-processed by the image processing execution means;
An image processing apparatus comprising:

(付記81)
付記68〜80のいずれかに記載の画像処理装置を含む集積回路。
(付記82)
付記68〜80のいずれかに記載の画像処理装置と、
前記画像処理装置により画像処理された前記入力画像信号の表示を行う表示手段と、
を備える表示装置。
(Appendix 81)
An integrated circuit including the image processing device according to any one of appendices 68 to 80.
(Appendix 82)
The image processing apparatus according to any one of appendices 68 to 80;
Display means for displaying the input image signal image-processed by the image processing device;
A display device comprising:

(付記83)
画像の撮影を行う撮影手段と、
前記撮影手段により撮影された画像を前記入力画像信号として画像処理を行う付記68〜80のいずれかに記載の画像処理装置と、
を備える撮影装置。
(Appendix 83)
Photographing means for photographing images;
The image processing apparatus according to any one of appendices 68 to 80, which performs image processing using the image captured by the imaging unit as the input image signal;
An imaging device comprising:

(付記84)
通信あるいは放送された画像データを受信するデータ受信手段と、
受信された前記画像データを前記入力画像信号として画像処理を行う付記68〜80のいずれかに記載の画像処理装置と、
前記画像処理装置により画像処理された前記入力画像信号の表示を行う表示手段と、
を備える携帯情報端末。
(Appendix 84)
Data receiving means for receiving communication or broadcast image data;
The image processing apparatus according to any one of appendices 68 to 80, which performs image processing using the received image data as the input image signal;
Display means for displaying the input image signal image-processed by the image processing device;
A portable information terminal comprising:

(付記85)
画像の撮影を行う撮影手段と、
前記撮影手段により撮影された画像を前記入力画像信号として画像処理を行う付記68〜80のいずれかに記載の画像処理装置と、
前記画像処理された前記入力画像信号を送信するデータ送信手段と、
を備える携帯情報端末。
(Appendix 85)
Photographing means for photographing images;
The image processing apparatus according to any one of appendices 68 to 80, which performs image processing using the image captured by the imaging unit as the input image signal;
Data transmitting means for transmitting the input image signal subjected to the image processing;
A portable information terminal comprising:

〈第2付記の説明〉
付記1に記載の視覚処理装置は、入力信号処理手段と、視覚処理手段とを備えている。入力信号処理手段は、入力された画像信号に対して一定の処理を行い、処理信号を出力する。視覚処理手段は、入力された画像信号および処理信号と視覚処理された画像信号である出力信号との関係を与える2次元LUTに基づいて、出力信号を出力する。
<Explanation of second supplementary note>
The visual processing device according to attachment 1 includes input signal processing means and visual processing means. The input signal processing means performs a certain process on the input image signal and outputs a processed signal. The visual processing means outputs an output signal based on the input image signal and the two-dimensional LUT that gives the relationship between the processed signal and the output signal that is the visually processed image signal.

ここで、一定の処理とは、例えば、画像信号に対する直接的あるいは間接的な処理であって、空間処理や階調処理などの画像信号の画素値に変換を加える処理を含んでいる。
本発明の視覚処理装置では、画像信号および処理信号と視覚処理された出力信号との関
係を記載した2次元LUTを用いて視覚処理を行う。このため、2次元LUTの機能に依存しないハード構成を実現することが可能となる。すなわち、装置全体として実現される視覚処理に依存しないハードウェア構成を実現することが可能となる。
Here, the fixed processing is, for example, direct or indirect processing for the image signal, and includes processing for converting the pixel value of the image signal such as spatial processing or gradation processing.
In the visual processing device of the present invention, visual processing is performed using a two-dimensional LUT that describes the relationship between the image signal and the processed signal and the visually processed output signal. Therefore, it is possible to realize a hardware configuration that does not depend on the function of the two-dimensional LUT. That is, it is possible to realize a hardware configuration that does not depend on visual processing realized as the entire apparatus.

付記2に記載の視覚処理装置は、付記1に記載の視覚処理装置であって、2次元LUTでは、画像信号と、出力信号とが非線形の関係にある。
ここで、画像信号と出力信号とが非線形の関係にあるとは、例えば、2次元LUTの各要素の値が画像信号に対して非線形の関数で表される、あるいは関数により定式化することが難しいことなどを意味している。
The visual processing device according to attachment 2 is the visual processing device according to attachment 1, and in the two-dimensional LUT, the image signal and the output signal are in a non-linear relationship.
Here, that the image signal and the output signal are in a non-linear relationship means that, for example, the value of each element of the two-dimensional LUT is expressed by a non-linear function with respect to the image signal or formulated by a function. It means difficult things.

本発明の視覚処理装置では、例えば、画像信号の視覚特性にあった視覚処理あるいは出力信号を出力する機器の非線形特性にあった視覚処理を実現することなどが可能となる。
付記3に記載の視覚処理装置は、付記2に記載の視覚処理装置であって、2次元LUTでは、画像信号および処理信号の両方と、出力信号とが非線形の関係にある。
With the visual processing device of the present invention, for example, it is possible to realize visual processing that matches the visual characteristics of the image signal or visual processing that matches the nonlinear characteristics of the device that outputs the output signal.
The visual processing device according to attachment 3 is the visual processing device according to attachment 2, and in the two-dimensional LUT, both the image signal and the processing signal and the output signal are in a non-linear relationship.

ここで、画像信号および処理信号の両方と、出力信号とが非線形の関係にあるとは、例えば、2次元LUTの各要素の値が画像信号と処理信号とに対する2変数の非線形の関数で表される、あるいは関数により定式化することが難しいことなどを意味している。
本発明の視覚処理装置では、例えば、画像信号の値が同じであっても、処理信号の値が異なる場合には、処理信号の値に応じて異なる視覚処理を実現することが可能となる。
Here, both the image signal and the processed signal and the output signal are in a non-linear relationship. For example, the value of each element of the two-dimensional LUT is expressed by a non-linear function of two variables with respect to the image signal and the processed signal. It means that it is difficult to formulate by function or function.
In the visual processing device of the present invention, for example, even if the value of the image signal is the same, if the value of the processed signal is different, different visual processing can be realized depending on the value of the processed signal.

付記4に記載の視覚処理装置は、付記1〜3のいずれかに記載の視覚処理装置であって、2次元LUTの各要素の値は、画像信号と処理信号とから算出された値を強調する演算を含む数式に基づいて定められている。
ここで、画像信号と処理信号とから算出された値とは、例えば、画像信号と処理信号との四則演算で得られる値、あるいは、画像信号や処理信号をある関数で変換した値を演算することにより得られる値などである。強調する演算とは、例えば、ゲインを調整する演算、過度のコントラストを抑制する演算、小振幅のノイズ成分を抑制する演算などである。
The visual processing device according to attachment 4 is the visual processing device according to any one of attachments 1 to 3, wherein the value of each element of the two-dimensional LUT emphasizes the value calculated from the image signal and the processing signal It is determined based on a mathematical formula including an operation to be performed.
Here, the value calculated from the image signal and the processed signal is, for example, a value obtained by four arithmetic operations of the image signal and the processed signal, or a value obtained by converting the image signal or the processed signal with a certain function. It is a value obtained by this. The calculation for emphasizing is, for example, a calculation for adjusting a gain, a calculation for suppressing excessive contrast, a calculation for suppressing a noise component having a small amplitude, or the like.

本発明の視覚処理装置では、画像信号と処理信号とから算出された値を強調することが可能となる。
付記5に記載の視覚処理装置は、付記4に記載の視覚処理装置であって、処理信号は、着目画素と着目画素の周囲画素との画像信号に対して一定の処理を行った信号である。
In the visual processing device of the present invention, it is possible to emphasize the value calculated from the image signal and the processed signal.
The visual processing device according to attachment 5 is the visual processing device according to attachment 4, wherein the processing signal is a signal obtained by performing a certain process on the image signal of the pixel of interest and the surrounding pixels of the pixel of interest. .

ここで、一定の処理とは、例えば、着目画素に対して周囲画素を用いた空間処理などであり、着目画素と周囲画素との平均値、最大値あるいは最小値などを導出する処理である。
本発明の視覚処理装置では、例えば、同じ値の着目画素に対する視覚処理であっても、周囲画素の影響により、異なる視覚処理を実現することが可能となる。
Here, the fixed processing is, for example, spatial processing using surrounding pixels with respect to the target pixel, and is processing for deriving an average value, maximum value, minimum value, or the like between the target pixel and the surrounding pixels.
In the visual processing device of the present invention, for example, even when visual processing is performed on a pixel of interest having the same value, different visual processing can be realized due to the influence of surrounding pixels.

付記6に記載の視覚処理装置は、付記4または5に記載の視覚処理装置であって、強調する演算は、非線形の関数である。
本発明の視覚処理装置では、例えば、画像信号の視覚特性にあった強調、あるいは出力信号を出力する機器の非線形特性にあった強調を実現することなどが可能となる。
The visual processing device according to attachment 6 is the visual processing device according to attachment 4 or 5, wherein the calculation to be emphasized is a non-linear function.
In the visual processing device of the present invention, for example, it is possible to realize enhancement suited to the visual characteristics of an image signal or enhancement suitable to the nonlinear characteristics of a device that outputs an output signal.

付記7に記載の視覚処理装置は、付記4〜6のいずれかに記載の視覚処理装置であって、強調する演算は、画像信号と処理信号とに対して所定の変換を行ったそれぞれの変換値の差を強調する強調関数である。
ここで、強調関数とは、例えば、ゲインを調整する関数、過度のコントラストを抑制する関数、小振幅のノイズ成分を抑制する関数などである。
The visual processing device according to attachment 7 is the visual processing device according to any one of attachments 4 to 6, in which the calculation to be emphasized is performed by performing a predetermined conversion on the image signal and the processing signal. It is an enhancement function that emphasizes the difference between values.
Here, the enhancement function is, for example, a function for adjusting a gain, a function for suppressing excessive contrast, a function for suppressing a noise component having a small amplitude, or the like.

本発明の視覚処理装置では、画像信号と処理信号とを別空間に変換した上でそれぞれの差を強調することが可能となる。これにより、例えば、視覚特性にあった強調などを実現
することが可能となる。
付記8に記載の視覚処理装置は、付記7に記載の視覚処理装置であって、2次元LUTの各要素の値Cは、画像信号の値A、処理信号の値B、変換関数F1、変換関数F1の逆変換関数F2、強調関数F3に対して、数式F2(F1(A)+F3(F1(A)−F1(B)))に基づいて定められる。
In the visual processing device of the present invention, it is possible to emphasize the difference between the image signal and the processing signal after converting them into different spaces. Thereby, for example, it is possible to realize enhancement suitable for visual characteristics.
The visual processing device according to attachment 8 is the visual processing device according to attachment 7, in which the value C of each element of the two-dimensional LUT is the value A of the image signal, the value B of the processing signal, the conversion function F1, the conversion The inverse transformation function F2 and the enhancement function F3 of the function F1 are determined based on the formula F2 (F1 (A) + F3 (F1 (A) −F1 (B))).

ここで、2次元LUTは、画像信号の値Aと処理信号の値Bとの2つの入力に対する各要素の値Cを与えるLUTである(以下、この欄において同じ)。また、各信号の値とは、各信号の値そのものであっても良いし、値の近似値であってもよい(以下、この欄において同じ)。強調関数F3とは、例えば、ゲインを調整する関数、過度のコントラストを抑制する関数、小振幅のノイズ成分を抑制する関数などである。   Here, the two-dimensional LUT is an LUT that gives a value C of each element with respect to two inputs of an image signal value A and a processing signal value B (hereinafter the same in this column). Further, the value of each signal may be the value of each signal itself or an approximate value of the values (hereinafter the same in this column). The enhancement function F3 is, for example, a function for adjusting a gain, a function for suppressing excessive contrast, a function for suppressing a noise component with a small amplitude, or the like.

ここで各要素の値Cは、次のことを示している。すなわち、画像信号の値Aと処理信号の値Bとは、変換関数F1により別空間上の値に変換されている。変換後の画像信号の値と処理信号の値との差分は、例えば、別空間上でのシャープ信号などを表している。強調関数F3により強調された変換後の画像信号と処理信号との差分は、変換後の画像信号に加算されている。これにより、各要素の値Cは、別空間上におけるシャープ信号成分が強調された値を示している。   Here, the value C of each element indicates the following. That is, the value A of the image signal and the value B of the processing signal are converted into values on different spaces by the conversion function F1. The difference between the value of the image signal after conversion and the value of the processing signal represents, for example, a sharp signal in another space. The difference between the converted image signal enhanced by the enhancement function F3 and the processed signal is added to the converted image signal. Accordingly, the value C of each element indicates a value in which the sharp signal component in another space is emphasized.

本発明の視覚処理装置では、例えば、別空間に変換された画像信号の値Aおよび処理信号の値Bを用いて、別空間上でのエッジ強調、コントラスト強調などの処理が可能となる。
付記9に記載の視覚処理装置は、付記8に記載の視覚処理装置であって、変換関数F1は、対数関数である。
In the visual processing device of the present invention, for example, processing such as edge enhancement and contrast enhancement in another space can be performed using the value A of the image signal and the value B of the processing signal converted into another space.
The visual processing device according to attachment 9 is the visual processing device according to attachment 8 in which the conversion function F1 is a logarithmic function.

ここで、人間の視覚特性は、一般に対数的である。このため対数空間に変換して画像信号および処理信号の処理を行うと、視覚特性に適した処理を行うことが可能となる。
本発明の視覚処理装置では、視覚的効果の高いコントラスト強調、あるいは局所コントラストを維持するダイナミックレンジ圧縮が可能となる。
Here, human visual characteristics are generally logarithmic. For this reason, when the image signal and the processed signal are processed after being converted into the logarithmic space, it is possible to perform a process suitable for the visual characteristic.
In the visual processing device of the present invention, it is possible to perform contrast enhancement with high visual effect or dynamic range compression that maintains local contrast.

付記10に記載の視覚処理装置は、付記8に記載の視覚処理装置であって、逆変換関数F2は、ガンマ補正関数である。
ここで、画像信号には、一般的に画像信号を入出力する機器のガンマ特性に応じて、ガンマ補正関数によるガンマ補正が施されている。
The visual processing device according to attachment 10 is the visual processing device according to attachment 8, wherein the inverse transformation function F2 is a gamma correction function.
Here, the image signal is generally subjected to gamma correction by a gamma correction function in accordance with the gamma characteristic of a device that inputs and outputs the image signal.

本発明の視覚処理装置では、変換関数F1により、画像信号のガンマ補正を外し、線形特性のもとで処理を行うことが可能となる。これにより、光学的なボケの補正を行うことが可能となる。
付記11に記載の視覚処理装置は、付記4〜6のいずれかに記載の視覚処理装置であって、強調する演算は、画像信号と処理信号との比を強調する強調関数である。
In the visual processing device of the present invention, it is possible to remove the gamma correction of the image signal by the conversion function F1 and perform processing based on linear characteristics. As a result, optical blur correction can be performed.
The visual processing device according to attachment 11 is the visual processing device according to any one of attachments 4 to 6, in which the calculation to enhance is an enhancement function that enhances the ratio between the image signal and the processing signal.

本発明の視覚処理装置では、例えば、画像信号と処理信号との比は、画像信号のシャープ成分を表している。このため、例えば、シャープ成分を強調する視覚処理を行うことが可能となる。
付記12に記載の視覚処理装置は、付記11に記載の視覚処理装置であって、2次元LUTの各要素の値Cは、画像信号の値A、処理信号の値B、ダイナミックレンジ圧縮関数F4、強調関数F5に対して、数式F4(A)*F5(A/B)に基づいて定められる。
In the visual processing device of the present invention, for example, the ratio between the image signal and the processed signal represents the sharp component of the image signal. Therefore, for example, it is possible to perform visual processing that emphasizes the sharp component.
The visual processing device according to attachment 12 is the visual processing device according to attachment 11, in which the value C of each element of the two-dimensional LUT includes the value A of the image signal, the value B of the processing signal, and the dynamic range compression function F4. The enhancement function F5 is determined based on the formula F4 (A) * F5 (A / B).

ここで各要素の値Cは、次のことを示している。すなわち、画像信号の値Aと処理信号の値Bとの除算量(A/B)は、例えばシャープ信号を表している。また、F5(A/B)は、例えば、シャープ信号の強調量を表している。これらは、画像信号の値Aと処理信号の値Bとを対数空間に変換し、それぞれの差分を強調処理するのと等価な処理を示しており、視覚特性に適した強調処理が行われている。   Here, the value C of each element indicates the following. That is, the amount of division (A / B) between the value A of the image signal and the value B of the processing signal represents, for example, a sharp signal. F5 (A / B) represents, for example, the enhancement amount of the sharp signal. These show processing equivalent to converting the value A of the image signal and the value B of the processing signal into a logarithmic space and emphasizing each difference, and emphasis processing suitable for visual characteristics is performed. Yes.

本発明の視覚処理装置では、必要に応じてダイナミックレンジの圧縮を行いつつ、局所的なコントラストを強調することが可能となる。
付記13に記載の視覚処理装置は、付記12に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F4は、単調増加関数である。
With the visual processing device of this invention, it is possible to enhance local contrast while compressing the dynamic range as necessary.
The visual processing device according to attachment 13 is the visual processing device according to attachment 12, wherein the dynamic range compression function F4 is a monotonically increasing function.

本発明の視覚処理装置では、単調増加関数であるダイナミックレンジ圧縮関数F4を用いてダイナミックレンジ圧縮を行いつつ、局所的なコントラストを強調することが可能となる。
付記14に記載の視覚処理装置は、付記13に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F4は、上に凸の関数である。
In the visual processing device of the present invention, it is possible to enhance local contrast while performing dynamic range compression using the dynamic range compression function F4 that is a monotonically increasing function.
The visual processing device according to attachment 14 is the visual processing device according to attachment 13 in which the dynamic range compression function F4 is a convex function.

本発明の視覚処理装置では、上に凸の関数であるダイナミックレンジ圧縮関数F4を用いてダイナミックレンジ圧縮を行いつつ、局所的なコントラストを強調することが可能となる。
付記15に記載の視覚処理装置は、付記12に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F4は、べき関数である。
In the visual processing device of the present invention, it is possible to enhance local contrast while performing dynamic range compression using the dynamic range compression function F4 that is a convex function.
The visual processing device according to attachment 15 is the visual processing device according to attachment 12, in which the dynamic range compression function F4 is a power function.

本発明の視覚処理装置では、べき関数であるダイナミックレンジ圧縮関数F4を用いてダイナミックレンジの変換を行いつつ、局所的なコントラストを強調することが可能となる。
付記16に記載の視覚処理装置は、付記12に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F4は、比例係数1の正比例関数である。
In the visual processing device of the present invention, it is possible to enhance local contrast while performing dynamic range conversion using the dynamic range compression function F4, which is a power function.
The visual processing device according to attachment 16 is the visual processing device according to attachment 12 in which the dynamic range compression function F4 is a direct proportional function with a proportionality factor of 1.

本発明の視覚処理装置では、画像信号の暗部から明部まで均一に、コントラストを強調することが可能となる。このコントラスト強調は、視覚特性に適した強調処理となっている。
付記17に記載の視覚処理装置は、付記12〜16のいずれかに記載の視覚処理装置であって、強調関数F5は、べき関数である。
In the visual processing device of the present invention, it is possible to enhance the contrast uniformly from the dark part to the bright part of the image signal. This contrast enhancement is an enhancement process suitable for visual characteristics.
The visual processing device according to attachment 17 is the visual processing device according to any one of attachments 12 to 16, in which the enhancement function F5 is a power function.

本発明の視覚処理装置では、べき関数である強調関数F5を用いてダイナミックレンジの変換を行いつつ、局所的なコントラストを強調することが可能となる。
付記18に記載の視覚処理装置は、付記11に記載の視覚処理装置であって、数式は、強調関数により強調された画像信号と処理信号との比に対してダイナミックレンジ圧縮を行う演算をさらに含む。
In the visual processing device of the present invention, it is possible to enhance local contrast while performing dynamic range conversion using the enhancement function F5 that is a power function.
The visual processing device according to attachment 18 is the visual processing device according to attachment 11, wherein the mathematical expression further performs an operation for performing dynamic range compression on a ratio of the image signal emphasized by the enhancement function and the processing signal. Including.

本発明の視覚処理装置では、例えば、画像信号と処理信号との比が表す画像信号のシャープ成分を強調しつつ、ダイナミックレンジの圧縮を行うことが可能となる。
付記19に記載の視覚処理装置は、付記4〜6のいずれかに記載の視覚処理装置であって、強調する演算は、画像信号と処理信号との差を、画像信号の値に応じて強調する関数を含む。
In the visual processing device of the present invention, for example, the dynamic range can be compressed while enhancing the sharp component of the image signal represented by the ratio between the image signal and the processed signal.
The visual processing device according to attachment 19 is the visual processing device according to any one of attachments 4 to 6, in which the calculation to enhance emphasizes the difference between the image signal and the processing signal in accordance with the value of the image signal. Function to be included.

本発明の視覚処理装置では、例えば、画像信号と処理信号との差である画像信号のシャープ成分などを画像信号の値に応じて強調することが可能となる。このため、画像信号の暗部から明部まで適切な強調を行うことが可能となる。
付記20に記載の視覚処理装置は、付記19に記載の視覚処理装置であって、2次元LUTの各要素の値Cは、画像信号の値A、処理信号の値B、強調量調整関数F6、強調関数F7、ダイナミックレンジ圧縮関数F8に対して、数式F8(A)+F6(A)*F7(A−B)に基づいて定められる。
In the visual processing device of the present invention, for example, a sharp component of an image signal that is a difference between the image signal and the processed signal can be enhanced according to the value of the image signal. For this reason, it is possible to perform appropriate enhancement from the dark part to the bright part of the image signal.
The visual processing device according to attachment 20 is the visual processing device according to attachment 19 in which the value C of each element of the two-dimensional LUT includes the value A of the image signal, the value B of the processing signal, and the enhancement amount adjustment function F6. The enhancement function F7 and the dynamic range compression function F8 are determined based on the formula F8 (A) + F6 (A) * F7 (AB).

ここで各要素の値Cは、次のことを示している。すなわち、画像信号の値Aと処理信号の値Bとの差分(A−B)は、例えばシャープ信号を表している。また、F7(A−B)は、例えば、シャープ信号の強調量を表している。さらに、強調量は、強調量調整関数F
6により、画像信号の値Aに応じて調整され、必要に応じてダイナミックレンジ圧縮を行った画像信号の値に対して加算されている。
Here, the value C of each element indicates the following. That is, the difference (A−B) between the value A of the image signal and the value B of the processing signal represents, for example, a sharp signal. F7 (AB) represents, for example, the enhancement amount of the sharp signal. Further, the enhancement amount is an enhancement amount adjustment function F.
6 is adjusted according to the value A of the image signal and added to the value of the image signal subjected to dynamic range compression as necessary.

本発明の視覚処理装置では、例えば、画像信号の値Aが大きいところでは、強調量を減らすなど暗部から明部までのコントラストを維持することが可能となる。また、ダイナミックレンジ圧縮を行った場合でも、暗部から明部までの局所コントラストを維持することが可能となる。   In the visual processing device of the present invention, for example, where the value A of the image signal is large, it is possible to maintain the contrast from the dark part to the bright part, for example, by reducing the enhancement amount. Further, even when dynamic range compression is performed, it is possible to maintain local contrast from the dark part to the bright part.

付記21に記載の視覚処理装置は、付記20に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F8は、単調増加関数である。
本発明の視覚処理装置では、単調増加関数であるダイナミックレンジ圧縮関数F8を用いてダイナミックレンジ圧縮を行いつつ、局所的なコントラストを維持することが可能となる。
The visual processing device according to attachment 21 is the visual processing device according to attachment 20, in which the dynamic range compression function F8 is a monotonically increasing function.
In the visual processing device of the present invention, it is possible to maintain local contrast while performing dynamic range compression using the dynamic range compression function F8, which is a monotonically increasing function.

付記22に記載の視覚処理装置は、付記21に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F8は、上に凸の関数である。
本発明の視覚処理装置では、上に凸の関数であるダイナミックレンジ圧縮関数F8を用いてダイナミックレンジ圧縮を行いつつ、局所的なコントラストを維持することが可能となる。
The visual processing device according to attachment 22 is the visual processing device according to attachment 21 in which the dynamic range compression function F8 is a convex function.
In the visual processing device of the present invention, it is possible to maintain local contrast while performing dynamic range compression using the dynamic range compression function F8 that is a convex function.

付記23に記載の視覚処理装置は、付記20に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F8は、べき関数である。
本発明の視覚処理装置では、べき関数であるダイナミックレンジ圧縮関数F8を用いてダイナミックレンジの変換を行いつつ、局所的なコントラストを維持することが可能となる。
The visual processing device according to attachment 23 is the visual processing device according to attachment 20, in which the dynamic range compression function F8 is a power function.
In the visual processing device of the present invention, it is possible to maintain local contrast while performing dynamic range conversion using the dynamic range compression function F8, which is a power function.

付記24に記載の視覚処理装置は、付記20に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F8は、比例係数1の正比例関数である。
本発明の視覚処理装置では、画像信号の暗部から明部まで均一に、コントラストを強調することが可能となる。
The visual processing device according to attachment 24 is the visual processing device according to attachment 20 in which the dynamic range compression function F8 is a direct proportional function with a proportionality factor of 1.
In the visual processing device of the present invention, it is possible to enhance the contrast uniformly from the dark part to the bright part of the image signal.

付記25に記載の視覚処理装置は、付記19に記載の視覚処理装置であって、数式は、強調する演算により強調された値に対して、画像信号をダイナミックレンジ圧縮した値を加える演算をさらに含む。
本発明の視覚処理装置では、例えば、画像信号のシャープ成分などを画像信号の値に応じて強調しつつ、ダイナミックレンジの圧縮を行うことが可能となる。
The visual processing device according to attachment 25 is the visual processing device according to attachment 19 in which the mathematical expression further performs an operation of adding a value obtained by compressing the dynamic range of the image signal to the value emphasized by the operation of enhancement. Including.
In the visual processing device of the present invention, for example, it is possible to compress the dynamic range while enhancing the sharp component of the image signal according to the value of the image signal.

付記26に記載の視覚処理装置は、付記4〜6のいずれかに記載の視覚処理装置であって、強調する演算は、画像信号と処理信号との差を強調する強調関数である。数式は、強調関数により強調された値に対して、画像信号の値を加えた値を階調補正する演算をさらに含む。   The visual processing device according to attachment 26 is the visual processing device according to any one of attachments 4 to 6, in which the enhancement operation is an enhancement function that enhances the difference between the image signal and the processing signal. The mathematical expression further includes a calculation for correcting the gradation of a value obtained by adding the value of the image signal to the value emphasized by the enhancement function.

本発明の視覚処理装置では、例えば、画像信号と処理信号との差は、画像信号のシャープ成分を表している。このため、シャープ成分が強調された画像信号に対して、階調補正を行う視覚処理を実現することが可能となる。
付記27に記載の視覚処理装置は、付記26に記載の視覚処理装置であって、2次元LUTの各要素の値Cは、画像信号の値A、処理信号の値B、強調関数F9、階調補正関数F10に対して、数式F10(A+F9(A−B))に基づいて定められる。
In the visual processing device of the present invention, for example, the difference between the image signal and the processed signal represents the sharp component of the image signal. Therefore, it is possible to realize visual processing that performs gradation correction on an image signal in which the sharp component is enhanced.
The visual processing device according to attachment 27 is the visual processing device according to attachment 26, in which the value C of each element of the two-dimensional LUT is the value A of the image signal, the value B of the processing signal, the enhancement function F9, the floor The tone correction function F10 is determined based on the formula F10 (A + F9 (A−B)).

ここで各要素の値Cは、次のことを示している。すなわち、画像信号の値Aと処理信号の値Bとの差分(A−B)は、例えばシャープ信号を表している。また、F9(A−B)は、例えば、シャープ信号の強調処理を表している。さらに、画像信号の値Aと強調処理されたシャープ信号との和が階調補正されていることを表している。   Here, the value C of each element indicates the following. That is, the difference (A−B) between the value A of the image signal and the value B of the processing signal represents, for example, a sharp signal. F9 (AB) represents, for example, sharp signal enhancement processing. Furthermore, the sum of the value A of the image signal and the sharpened signal that has been enhanced is represented as gradation correction.

本発明の視覚処理装置では、コントラスト強調と階調補正を組み合わせた効果を得ることが可能となる。
付記28に記載の視覚処理装置は、付記4〜6のいずれかに記載の視覚処理装置であって、強調する演算は、画像信号と処理信号との差を強調する強調関数である。数式は、強調関数により強調された値に対して、画像信号を階調補正した値を加える演算をさらに含む。
In the visual processing device of the present invention, it is possible to obtain an effect that combines contrast enhancement and gradation correction.
The visual processing device according to attachment 28 is the visual processing device according to any one of attachments 4 to 6, in which the enhancement operation is an enhancement function that enhances the difference between the image signal and the processing signal. The mathematical expression further includes an operation of adding a value obtained by correcting the gradation of the image signal to the value emphasized by the enhancement function.

本発明の視覚処理装置では、例えば、画像信号と処理信号との差は、画像信号のシャープ成分を表している。また、シャープ成分の強調と画像信号の階調補正とは独立して行われる。このため、画像信号の階調補正量にかかわらず、一定のシャープ成分の強調を行うことが可能となる。   In the visual processing device of the present invention, for example, the difference between the image signal and the processed signal represents the sharp component of the image signal. The sharp component enhancement and the tone correction of the image signal are performed independently. For this reason, it is possible to enhance a certain sharp component regardless of the gradation correction amount of the image signal.

付記29に記載の視覚処理装置は、付記28に記載の視覚処理装置であって、2次元LUTの各要素の値Cは、画像信号の値A、処理信号の値B、強調関数F11、階調補正関数F12に対して、数式F12(A)+F11(A−B)に基づいて定められる。
ここで各要素の値Cは、次のことを示している。すなわち、画像信号の値Aと処理信号の値Bとの差分(A−B)は、例えばシャープ信号を表している。また、F11(A−B)は、例えば、シャープ信号の強調処理を表している。さらに、階調補正された画像信号の値と強調処理されたシャープ信号とが加算されていることを表している。
The visual processing device according to attachment 29 is the visual processing device according to attachment 28, in which the value C of each element of the two-dimensional LUT is the value A of the image signal, the value B of the processing signal, the enhancement function F11, the floor The tone correction function F12 is determined based on the formula F12 (A) + F11 (AB).
Here, the value C of each element indicates the following. That is, the difference (A−B) between the value A of the image signal and the value B of the processing signal represents, for example, a sharp signal. F11 (AB) represents, for example, sharp signal enhancement processing. Furthermore, it represents that the value of the image signal subjected to gradation correction and the sharpened signal subjected to enhancement processing are added.

本発明の視覚処理装置では、階調補正にかかわらず、一定のコントラスト強調を行うことが可能となる。
付記30に記載の視覚処理装置は、付記1〜29のいずれかに記載の視覚処理装置であって、2次元LUTでは、同じ値の画像信号と処理信号とに対して格納されている値は、画像信号および処理信号の値に対して、単調増加、あるいは単調減少する関係にある。
In the visual processing device of the present invention, it is possible to perform constant contrast enhancement regardless of gradation correction.
The visual processing device according to attachment 30 is the visual processing device according to any one of attachments 1 to 29, and in the two-dimensional LUT, values stored for the image signal and the processing signal having the same value are The image signal and the processing signal have a monotonically increasing or monotonically decreasing relationship.

ここで、同じ値の画像信号と処理信号とに対する2次元LUTが格納する値は、2次元LUTの特性の概要を示している。
本発明の視覚処理装置では、2次元LUTは、画像信号と処理信号とに対して単調増加あるいは単調減少する値を、同じ値の画像信号と処理信号とに対する値として格納している。
Here, the values stored in the two-dimensional LUT for the image signal and the processed signal having the same value indicate an outline of the characteristics of the two-dimensional LUT.
In the visual processing device of the present invention, the two-dimensional LUT stores a monotonically increasing or monotonically decreasing value for the image signal and the processing signal as a value for the image signal and the processing signal having the same value.

付記31に記載の視覚処理装置は、付記1〜3のいずれかに記載の視覚処理装置であって、2次元LUTは、画像信号と出力信号との関係を複数の階調変換曲線からなる階調変換曲線群として格納する。
ここで、階調変換曲線群とは、画像信号の輝度、明度といった画素値に階調処理を施す階調変換曲線の集合である。
The visual processing device according to attachment 31 is the visual processing device according to any one of attachments 1 to 3, in which the two-dimensional LUT expresses the relationship between the image signal and the output signal by a plurality of gradation conversion curves. Store as key conversion curve group.
Here, the gradation conversion curve group is a set of gradation conversion curves for applying gradation processing to pixel values such as luminance and brightness of an image signal.

本発明の視覚処理装置では、複数の階調変換曲線から選択された階調変換曲線を用いて、画像信号の階調処理を行うことが可能となる。このため、より適切な階調処理を行うことが可能となる。
付記32に記載の視覚処理装置は、付記31に記載の視覚処理装置であって、階調変換曲線群のそれぞれは、画像信号の値に対して、単調増加する。
In the visual processing device of the present invention, it is possible to perform gradation processing of an image signal using a gradation conversion curve selected from a plurality of gradation conversion curves. For this reason, it is possible to perform more appropriate gradation processing.
The visual processing device according to attachment 32 is the visual processing device according to attachment 31 in which each of the gradation conversion curve groups monotonously increases with respect to the value of the image signal.

本発明の視覚処理装置では、画像信号の値に対して単調増加する階調変換曲線群を用いて階調処理を行うことが可能となる。
付記33に記載の視覚処理装置は、付記31または32に記載の視覚処理装置であって、処理信号は、複数の階調変換曲線群から対応する階調変換曲線を選択するための信号である。
In the visual processing device of the present invention, gradation processing can be performed using a gradation conversion curve group that monotonously increases with respect to the value of the image signal.
The visual processing device according to attachment 33 is the visual processing device according to attachment 31 or 32, in which the processing signal is a signal for selecting a corresponding gradation conversion curve from a plurality of gradation conversion curve groups. .

ここで、処理信号は、階調変換曲線を選択するための信号であり、例えば、空間処理された画像信号などである。
本発明の視覚処理装置では、処理信号により選択された階調変換曲線を用いて、画像信
号の階調処理を行うことが可能となる。
Here, the processing signal is a signal for selecting a gradation conversion curve, and is, for example, a spatially processed image signal.
In the visual processing device of the present invention, it is possible to perform gradation processing of an image signal using the gradation conversion curve selected by the processing signal.

付記34に記載の視覚処理装置は、付記33に記載の視覚処理装置であって、処理信号の値は、複数の階調変換曲線群が含む少なくとも1つの階調変換曲線と関連づけられている。
ここで、処理信号の値により、階調処理に用いられる階調変換曲線が少なくとも1つ選択される。
The visual processing device according to attachment 34 is the visual processing device according to attachment 33, in which the value of the processing signal is associated with at least one gradation conversion curve included in the plurality of gradation conversion curve groups.
Here, at least one gradation conversion curve used for gradation processing is selected according to the value of the processing signal.

本発明の視覚処理装置では、処理信号の値により、階調変換曲線が少なくとも1つ選択される。さらに、選択された階調変換曲線を用いて、画像信号の階調処理が行われる。
付記35に記載の視覚処理装置は、付記1〜34のいずれかに記載の視覚処理装置であって、2次元LUTには、所定の演算によってあらかじめ作成されるプロファイルデータが登録されている。
In the visual processing device of the present invention, at least one gradation conversion curve is selected according to the value of the processing signal. Further, gradation processing of the image signal is performed using the selected gradation conversion curve.
The visual processing device according to attachment 35 is the visual processing device according to any one of attachments 1 to 34, and profile data created in advance by a predetermined calculation is registered in the two-dimensional LUT.

本発明の視覚処理装置では、あらかじめ作成されたプロファイルデータが登録された2次元LUTを用いて、視覚処理が行われる。視覚処理に際して、プロファイルデータを作成するなどの処理は必要なく、視覚処理の実行速度の高速化が可能となる。
付記36に記載の視覚処理装置は、付記35に記載の視覚処理装置であって、2次元LUTは、プロファイルデータの登録により変更可能である。
In the visual processing device of the present invention, visual processing is performed using a two-dimensional LUT in which profile data created in advance is registered. In visual processing, processing such as creating profile data is not necessary, and the execution speed of visual processing can be increased.
The visual processing device according to attachment 36 is the visual processing device according to attachment 35, and the two-dimensional LUT can be changed by registering profile data.

ここで、プロファイルデータとは、異なる視覚処理を実現する2次元LUTのデータである。
本発明の視覚処理装置では、プロファイルデータの登録により、実現される視覚処理を様々に変更することが可能となる。すなわち、視覚処理装置のハードウェア構成を変更することなく、様々な視覚処理を実現することが可能となる。
Here, the profile data is data of a two-dimensional LUT that realizes different visual processing.
In the visual processing device of the present invention, the visual processing to be realized can be variously changed by registering profile data. That is, various visual processing can be realized without changing the hardware configuration of the visual processing device.

付記37に記載の視覚処理装置は、付記35または36に記載の視覚処理装置であって、プロファイルデータを視覚処理手段に登録させるためのプロファイルデータ登録手段をさらに備えている。
ここで、プロファイルデータ登録手段は、あらかじめ算出されたプロファイルデータを視覚処理に応じて視覚処理手段に登録する。
The visual processing device according to attachment 37 is the visual processing device according to attachment 35 or 36, further comprising profile data registration means for causing the visual processing means to register profile data.
Here, the profile data registration means registers the profile data calculated in advance in the visual processing means according to the visual processing.

本発明の視覚処理装置では、プロファイルデータの登録により、実現される視覚処理を様々に変更することが可能となる。すなわち、視覚処理装置のハードウェア構成を変更することなく、様々な視覚処理を実現することが可能となる。
付記38に記載の視覚処理装置は、付記35に記載の視覚処理装置であって、視覚処理手段は、外部の装置により作成されたプロファイルデータを取得する。
In the visual processing device of the present invention, the visual processing to be realized can be variously changed by registering profile data. That is, various visual processing can be realized without changing the hardware configuration of the visual processing device.
The visual processing device according to attachment 38 is the visual processing device according to attachment 35, in which the visual processing means acquires profile data created by an external device.

プロファイルデータは、外部の装置によりあらかじめ作成されている。外部の装置とは、例えば、プロファイルデータの作成が可能なプログラムとCPUを有する計算機などである。視覚処理手段は、プロファイルデータを取得する。取得は、例えば、ネットワークを介して、あるいは記録媒体を介して、行われる。視覚処理手段は、取得したプロファイルデータを用いて、視覚処理を実行する。   The profile data is created in advance by an external device. The external device is, for example, a computer having a program capable of creating profile data and a CPU. The visual processing means acquires profile data. Acquisition is performed via a network or a recording medium, for example. The visual processing means executes visual processing using the acquired profile data.

本発明の視覚処理装置では、外部の装置により作成されたプロファイルデータを用いて、視覚処理を実行することが可能となる。
付記39に記載の視覚処理装置は、付記38に記載の視覚処理装置であって、取得されたプロファイルデータにより、2次元LUTは変更可能である。
In the visual processing device of the present invention, visual processing can be executed using profile data created by an external device.
The visual processing device according to attachment 39 is the visual processing device according to attachment 38, and the two-dimensional LUT can be changed by the acquired profile data.

本発明の視覚処理装置では、取得されたプロファイルデータは、2次元LUTとして新たに登録される。これにより、2次元LUTを変更し、異なる視覚処理を実現することが可能となる。
付記40に記載の視覚処理装置は、付記38または39に記載の視覚処理装置であって
、視覚処理手段は、通信網を介してプロファイルデータを取得する。
In the visual processing device of the present invention, the acquired profile data is newly registered as a two-dimensional LUT. This makes it possible to change the two-dimensional LUT and realize different visual processing.
The visual processing device according to attachment 40 is the visual processing device according to attachment 38 or 39, in which the visual processing means obtains profile data via a communication network.

ここで、通信網とは、例えば、専用回線、公衆回線、インターネット、LANなどの通信が可能な接続手段であり、有線であっても無線であってもよい。
本発明の視覚処理装置では、通信網を介して取得されたプロファイルデータを用いて、視覚処理を実現することが可能となる。
Here, the communication network is a connection means capable of communication such as a dedicated line, a public line, the Internet, and a LAN, and may be wired or wireless.
In the visual processing device of the present invention, visual processing can be realized using profile data acquired via a communication network.

付記41に記載の視覚処理装置は、付記35に記載の視覚処理装置であって、プロファイルデータを作成するプロファイルデータ作成手段をさらに備えている。
プロファイルデータ作成手段は、例えば、画像信号や処理信号などの特性を用いて、プロファイルデータの作成を行う。
The visual processing device according to attachment 41 is the visual processing device according to attachment 35, further comprising profile data creation means for creating profile data.
The profile data creation means creates profile data using characteristics such as an image signal and a processing signal, for example.

本発明の視覚処理装置では、プロファイルデータ作成手段により作成されたプロファイルデータを用いて、視覚処理を実現することが可能となる。
付記42に記載の視覚処理装置は、付記41に記載の視覚処理装置であって、プロファイルデータ作成手段は、画像信号の階調特性のヒストグラムに基づいて、プロファイルデータを作成する。
In the visual processing device of the present invention, visual processing can be realized using profile data created by the profile data creating means.
The visual processing device according to attachment 42 is the visual processing device according to attachment 41, in which the profile data creation means creates profile data based on a histogram of gradation characteristics of the image signal.

本発明の視覚処理装置では、画像信号の階調特性のヒストグラムに基づいて作成されたプロファイルデータを用いて、視覚処理が実現される。このため、画像信号の特性に応じて、適切な視覚処理を実現することが可能となる。
付記43に記載の視覚処理装置は、付記35に記載の視覚処理装置であって、2次元LUTに登録されるプロファイルデータは、所定の条件に応じて切り替えられる。
In the visual processing device of the present invention, visual processing is realized using profile data created based on a histogram of gradation characteristics of an image signal. Therefore, appropriate visual processing can be realized according to the characteristics of the image signal.
The visual processing device according to attachment 43 is the visual processing device according to attachment 35, and the profile data registered in the two-dimensional LUT is switched according to a predetermined condition.

本発明の視覚処理装置では、所定の条件に応じて切り替えられたプロファイルデータを用いて、視覚処理が実現される。このため、より適切な視覚処理を実現することが可能となる。
付記44に記載の視覚処理装置は、付記43に記載の視覚処理装置であって、所定の条件とは、明るさに関する条件である。
In the visual processing device of the present invention, visual processing is realized using profile data switched according to a predetermined condition. For this reason, it is possible to realize more appropriate visual processing.
The visual processing device according to attachment 44 is the visual processing device according to attachment 43, in which the predetermined condition is a condition relating to brightness.

本発明の視覚処理装置では、明るさに関する条件のもとで、より適切な視覚処理を実現することが可能となる。
付記45に記載の視覚処理装置は、付記44に記載の視覚処理装置であって、明るさは、画像信号の明るさである。
In the visual processing device of the present invention, more appropriate visual processing can be realized under the conditions related to brightness.
The visual processing device according to attachment 45 is the visual processing device according to attachment 44, in which the brightness is the brightness of the image signal.

本発明の視覚処理装置では、画像信号の明るさに関する条件のもとで、より適切な視覚処理を実現することが可能となる。
付記46に記載の視覚処理装置は、付記45に記載の視覚処理装置であって、画像信号の明るさを判定する明度判定手段をさらに備えている。2次元LUTに登録されるプロファイルデータは、明度判定手段の判定結果に応じて切り替えられる。
In the visual processing device of the present invention, it is possible to realize more appropriate visual processing under conditions relating to the brightness of the image signal.
The visual processing device according to attachment 46 is the visual processing device according to attachment 45, further comprising lightness determination means for determining the brightness of the image signal. The profile data registered in the two-dimensional LUT is switched according to the determination result of the lightness determination means.

ここで、明度判定手段は、例えば、画像信号の輝度、明度などの画素値に基づいて、画像信号の明るさを判定する。さらに、判定結果に応じて、プロファイルデータが切り替ええられる。
本発明の視覚処理装置では、画像信号の明るさに応じて、より適切な視覚処理を実現することが可能となる。
Here, the brightness determination means determines the brightness of the image signal based on, for example, pixel values such as the luminance and brightness of the image signal. Further, the profile data can be switched according to the determination result.
In the visual processing device of the present invention, more appropriate visual processing can be realized according to the brightness of the image signal.

付記47に記載の視覚処理装置は、付記44に記載の視覚処理装置であって、明るさに関する条件を入力させる明度入力手段をさらに備えている。2次元LUTに登録されるプロファイルデータは、明度入力手段の入力結果に応じて切り替えられる。
ここで、明度入力手段は、例えば、明るさに関する条件をユーザに入力させる有線あるいは無線で接続されるスイッチなどである。
The visual processing device according to attachment 47 is the visual processing device according to attachment 44, further comprising lightness input means for inputting conditions relating to brightness. The profile data registered in the two-dimensional LUT is switched according to the input result of the brightness input means.
Here, the lightness input means is, for example, a wired or wireless switch that allows the user to input conditions relating to brightness.

本発明の視覚処理装置では、ユーザが明るさに関する条件を判断して、明度入力手段を
介して、プロファイルデータの切り替えを行うことが可能となる。このため、よりユーザにとって適切な視覚処理を実現することが可能となる。
付記48に記載の視覚処理装置は、付記47に記載の視覚処理装置であって、明度入力手段は、出力信号の出力環境の明るさ、あるいは入力信号の入力環境の明るさを入力させる。
In the visual processing device of the present invention, it is possible for the user to determine the conditions regarding brightness and to switch profile data via the brightness input means. For this reason, it is possible to realize visual processing more appropriate for the user.
The visual processing device according to attachment 48 is the visual processing device according to attachment 47, in which the brightness input means inputs the brightness of the output environment of the output signal or the brightness of the input environment of the input signal.

ここで、出力環境の明るさとは、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDAなど出力信号を出力する媒体周辺の環境光の明るさや、プリンタ用紙など出力信号を出力する媒体自体の明るさなどである。入力環境の明るさとは、例えば、スキャナ用紙など入力信号を入力する媒体自体の明るさなどである。   Here, the brightness of the output environment is, for example, the brightness of ambient light around a medium that outputs an output signal such as a computer, a television, a digital camera, a mobile phone, or a PDA, or the brightness of the medium itself that outputs an output signal such as printer paper. And so on. The brightness of the input environment is, for example, the brightness of a medium itself that inputs an input signal such as scanner paper.

本発明の視覚処理装置では、例えば、ユーザが部屋の明るさなどに関する条件を判断して、明度入力手段を介して、プロファイルデータの切り替えを行うことが可能となる。このため、よりユーザにとって適切な視覚処理を実現することが可能となる。
付記49に記載の視覚処理装置は、付記44に記載の視覚処理装置であって、明るさを少なくとも2種類検出する明度検出手段をさらに備えている。2次元LUTに登録されるプロファイルデータは、明度検出手段の検出結果に応じて切り替えられる。
In the visual processing device of the present invention, for example, the user can determine the conditions relating to the brightness of the room and the like, and can switch the profile data via the brightness input means. For this reason, it is possible to realize visual processing more appropriate for the user.
The visual processing device according to attachment 49 is the visual processing device according to attachment 44, further comprising lightness detection means for detecting at least two types of brightness. The profile data registered in the two-dimensional LUT is switched according to the detection result of the brightness detection means.

ここで、明度検出手段とは、例えば、画像信号の輝度、明度などの画素値に基づいて、画像信号の明るさを検出する手段や、フォトセンサなど出力環境あるいは入力環境の明るさを検出する手段や、ユーザにより入力された明るさに関する条件を検出する手段などである。なお、出力環境の明るさとは、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDAなど出力信号を出力する媒体周辺の環境光の明るさや、プリンタ用紙など出力信号を出力する媒体自体の明るさなどである。入力環境の明るさとは、例えば、スキャナ用紙など入力信号を入力する媒体自体の明るさなどである。   Here, the lightness detection means, for example, means for detecting the brightness of the image signal based on pixel values such as the brightness and brightness of the image signal, and detects the brightness of the output environment or input environment such as a photosensor. And means for detecting a condition relating to brightness input by the user. Note that the brightness of the output environment is, for example, the brightness of ambient light around a medium that outputs an output signal such as a computer, television, digital camera, mobile phone, or PDA, or the brightness of the medium that outputs the output signal such as printer paper. Etc. The brightness of the input environment is, for example, the brightness of a medium itself that inputs an input signal such as scanner paper.

本発明の視覚処理装置では、明るさを少なくとも2種類検出し、それらに応じてプロファイルデータの切り替えが行われる。このため、より適切な視覚処理を実現することが可能となる。
付記50に記載の視覚処理装置は、付記49に記載の視覚処理装置であって、明度検出手段が検出する明るさは、画像信号の明るさと、出力信号の出力環境の明るさ、あるいは入力信号の入力環境の明るさとを含む。
In the visual processing device of the present invention, at least two types of brightness are detected, and profile data is switched according to them. For this reason, it is possible to realize more appropriate visual processing.
The visual processing device according to attachment 50 is the visual processing device according to attachment 49, wherein the brightness detected by the brightness detection means is the brightness of the image signal and the brightness of the output environment of the output signal or the input signal. Including the brightness of the input environment.

本発明の視覚処理装置では、画像信号の明るさと、出力信号の出力環境の明るさ、あるいは入力信号の入力環境の明るさとに応じて、より適切な視覚処理を実現することが可能となる。
付記51に記載の視覚処理装置は、付記43に記載の視覚処理装置であって、2次元LUTに登録されるプロファイルデータの選択を行わせるプロファイルデータ選択手段をさらに備えている。2次元LUTに登録されるプロファイルデータは、プロファイルデータ選択手段の選択結果に応じて切り替えられる。
In the visual processing device of the present invention, more appropriate visual processing can be realized according to the brightness of the image signal and the brightness of the output environment of the output signal or the brightness of the input environment of the input signal.
The visual processing device according to attachment 51 is the visual processing device according to attachment 43, further comprising profile data selection means for selecting profile data registered in the two-dimensional LUT. The profile data registered in the two-dimensional LUT is switched according to the selection result of the profile data selection means.

プロファイルデータ選択手段は、ユーザにプロファイルデータの選択を行わせる。さらに、視覚処理装置では、選択されたプロファイルデータを用いて、視覚処理が実現される。
本発明の視覚処理装置では、ユーザが好みに応じたプロファイルを選択して視覚処理を実現することが可能となる。
The profile data selection means allows the user to select profile data. Further, in the visual processing device, visual processing is realized using the selected profile data.
In the visual processing device of the present invention, the user can select a profile according to his / her preference to realize visual processing.

付記52に記載の視覚処理装置は、付記51に記載の視覚処理装置であって、プロファイルデータ選択手段は、プロファイルの選択を行うための入力装置である。
ここで、入力装置は、例えば、視覚処理装置に内蔵、あるいは有線または無線などで接続されたスイッチなどである。
The visual processing device according to attachment 52 is the visual processing device according to attachment 51, in which the profile data selection means is an input device for selecting a profile.
Here, the input device is, for example, a switch built in the visual processing device or connected by wire or wireless.

本発明の視覚処理装置では、ユーザは、入力装置を用いて、好みのプロファイルを選択
することが可能となる。
付記53に記載の視覚処理装置は、付記43に記載の視覚処理装置であって、画像信号の画像特性を判断する画像特性判断手段をさらに備えている。2次元LUTに登録されるプロファイルデータは、画像特性判断手段の判断結果に応じて切り替えられる。
In the visual processing device of the present invention, the user can select a favorite profile using the input device.
The visual processing device according to attachment 53 is the visual processing device according to attachment 43, further comprising image characteristic determination means for determining the image characteristic of the image signal. The profile data registered in the two-dimensional LUT is switched according to the determination result of the image characteristic determination means.

画像特性判断手段は、画像信号の輝度、明度、あるいは空間周波数などの画像特性を判断する。視覚処理装置は、画像特性判断手段の判断結果に応じて切り替えられたプロファイルデータを用いて、視覚処理を実現する。
本発明の視覚処理装置では、画像特性判断手段が画像特性に応じたプロファイルデータを自動的に選択する。このため、画像信号に対してより適切なプロファイルデータを用いて視覚処理を実現することが可能となる。
The image characteristic determining means determines image characteristics such as brightness, brightness, or spatial frequency of the image signal. The visual processing device realizes visual processing using the profile data switched according to the determination result of the image characteristic determination means.
In the visual processing device of the present invention, the image characteristic judging means automatically selects profile data corresponding to the image characteristic. For this reason, visual processing can be realized using more appropriate profile data for the image signal.

付記54に記載の視覚処理装置は、付記43に記載の視覚処理装置であって、ユーザを識別するユーザ識別手段をさらに備えている。2次元LUTに登録されるプロファイルデータは、ユーザ識別手段の識別結果に応じて切り替えられる。
ユーザ識別手段は、例えば、ユーザを識別するための入力装置、あるいはカメラなどである。
The visual processing device according to attachment 54 is the visual processing device according to attachment 43, further comprising user identification means for identifying the user. The profile data registered in the two-dimensional LUT is switched according to the identification result of the user identification means.
The user identification means is, for example, an input device for identifying a user, a camera, or the like.

本発明の視覚処理装置では、ユーザ識別手段が識別したユーザに適した視覚処理を実現することが可能となる。
付記55に記載の視覚処理装置は、付記1〜54のいずれかに記載の視覚処理装置であって、視覚処理手段は、2次元LUTの格納する値を補間演算して出力信号を出力する。
In the visual processing device of the present invention, visual processing suitable for the user identified by the user identifying means can be realized.
The visual processing device according to attachment 55 is the visual processing device according to any one of attachments 1 to 54, wherein the visual processing means performs an interpolation operation on a value stored in the two-dimensional LUT and outputs an output signal.

2次元LUTは、所定の間隔の画像信号の値あるいは処理信号の値に対して、値を格納している。入力された画像信号の値あるいは処理信号の値を含む区間に対応する2次元LUTの値を補間演算することにより、入力された画像信号の値あるいは処理信号の値に対する出力信号の値が出力される。   The two-dimensional LUT stores values for image signal values or processing signal values at predetermined intervals. By interpolating the two-dimensional LUT value corresponding to the interval including the input image signal value or the processed signal value, the output signal value for the input image signal value or the processed signal value is output. The

本発明の視覚処理装置では、画像信号あるいは処理信号が取りうる全ての値に対して2次元LUTが値を格納している必要がなく、2次元LUTのための記憶容量を削減することが可能となる。
付記56に記載の視覚処理装置は、付記55に記載の視覚処理装置であって、補間演算は、2進数で表された画像信号あるいは処理信号の少なくとも一方の下位ビットの値に基づいた線形補間である。
In the visual processing device of the present invention, it is not necessary for the two-dimensional LUT to store values for all values that can be taken by the image signal or the processed signal, and the storage capacity for the two-dimensional LUT can be reduced. It becomes.
The visual processing device according to attachment 56 is the visual processing device according to attachment 55, in which the interpolation operation is linear interpolation based on the value of at least one lower bit of the image signal or processing signal expressed in binary numbers It is.

2次元LUTは、画像信号あるいは処理信号の上位ビットの値に対応する値を格納している。視覚処理手段は、入力された画像信号あるいは処理信号の値を含む区間に対応する2次元LUTの値を、画像信号あるいは処理信号の下位ビットの値で線形補間することにより、出力信号を出力する。   The two-dimensional LUT stores a value corresponding to the value of the upper bit of the image signal or processing signal. The visual processing means outputs an output signal by linearly interpolating the value of the two-dimensional LUT corresponding to the section including the input image signal or the value of the processed signal with the value of the lower bit of the image signal or the processed signal. .

本発明の視覚処理装置では、より少ない記憶容量で2次元LUTを記憶しつつ、より正確な視覚処理を実現することが可能となる。
付記57に記載の視覚処理装置は、付記1〜56のいずれかに記載の視覚処理装置であって、入力信号処理手段は、画像信号に対して空間処理を行う。
In the visual processing device of the present invention, it is possible to realize more accurate visual processing while storing a two-dimensional LUT with a smaller storage capacity.
The visual processing device according to attachment 57 is the visual processing device according to any one of attachments 1 to 56, in which the input signal processing means performs spatial processing on the image signal.

本発明の視覚処理装置では、画像信号と空間処理された画像信号とを用いて、2次元LUTにより視覚処理を実現することが可能となる。
付記58に記載の視覚処理装置は、付記57に記載の視覚処理装置であって、入力信号処理手段は、画像信号からアンシャープ信号を生成する。
In the visual processing device of the present invention, it is possible to realize visual processing by a two-dimensional LUT using an image signal and a spatially processed image signal.
The visual processing device according to attachment 58 is the visual processing device according to attachment 57, in which the input signal processing means generates an unsharp signal from the image signal.

ここで、アンシャープ信号とは、画像信号に対して直接的あるいは間接的に空間処理を施した信号を意味している。
本発明の視覚処理装置では、画像信号とアンシャープ信号とを用いて、2次元LUTに
より視覚処理を実現することが可能となる。
Here, the unsharp signal means a signal obtained by performing spatial processing directly or indirectly on the image signal.
In the visual processing device of the present invention, visual processing can be realized by a two-dimensional LUT using an image signal and an unsharp signal.

付記59に記載の視覚処理装置は、付記57または58に記載の視覚処理装置であって、空間処理では、画像信号の平均値、最大値あるいは最小値が導出される。
ここで、平均値とは、例えば、画像信号の単純平均でもよいし、加重平均でもよい。
本発明の視覚処理装置では、画像信号と、画像信号の平均値、最大値あるいは最小値とを用いて、2次元LUTにより視覚処理を実現することが可能となる。
The visual processing device according to attachment 59 is the visual processing device according to attachment 57 or 58, and in the spatial processing, an average value, a maximum value, or a minimum value of the image signal is derived.
Here, the average value may be, for example, a simple average of image signals or a weighted average.
In the visual processing device of the present invention, it is possible to realize visual processing by a two-dimensional LUT using an image signal and an average value, maximum value, or minimum value of the image signal.

付記60に記載の視覚処理装置は、付記1〜59のいずれかに記載の視覚処理装置であって、視覚処理手段は、入力された画像信号及び処理信号を用いて、空間処理及び階調処理を行う。
本発明の視覚処理装置では、2次元LUTを用いて、空間処理および階調処理を同時に実現することが可能となる。
The visual processing device according to attachment 60 is the visual processing device according to any one of attachments 1 to 59, wherein the visual processing means uses the input image signal and processing signal to perform spatial processing and gradation processing. I do.
In the visual processing device of the present invention, spatial processing and gradation processing can be realized simultaneously using a two-dimensional LUT.

付記61に記載の視覚処理方法は、入力信号処理ステップと、視覚処理ステップとを備えている。入力信号処理ステップは、入力された画像信号に対して一定の処理を行い、処理信号を出力する。視覚処理ステップは、入力された画像信号および処理信号と視覚処理された画像信号である出力信号との関係を与える2次元LUTに基づいて、出力信号を出力する。   The visual processing method according to attachment 61 includes an input signal processing step and a visual processing step. The input signal processing step performs certain processing on the input image signal and outputs a processed signal. The visual processing step outputs an output signal based on the input image signal and the two-dimensional LUT that gives the relationship between the processed signal and the output signal that is the visually processed image signal.

ここで、一定の処理とは、例えば、画像信号に対する直接的あるいは間接的な処理であって、空間処理や階調処理などの画像信号の画素値に変換を加える処理を含んでいる。
本発明の視覚処理方法では、画像信号および処理信号と視覚処理された出力信号との関係を記載した2次元LUTを用いて視覚処理を行う。このため、視覚処理の高速化が可能となる。
Here, the fixed processing is, for example, direct or indirect processing for the image signal, and includes processing for converting the pixel value of the image signal such as spatial processing or gradation processing.
In the visual processing method of the present invention, visual processing is performed using a two-dimensional LUT describing the relationship between the image signal and the processed signal and the visually processed output signal. For this reason, it is possible to speed up visual processing.

付記62に記載の視覚処理プログラムは、コンピュータにより視覚処理方法を行うための視覚処理プログラムであって、入力信号処理ステップと、視覚処理ステップとを備える視覚処理方法をコンピュータに行わせるものである。入力信号処理ステップは、入力された画像信号に対して一定の処理を行い、処理信号を出力する。視覚処理ステップは、入力された画像信号および処理信号と視覚処理された画像信号である出力信号との関係を与える2次元LUTに基づいて、出力信号を出力する。   The visual processing program according to attachment 62 is a visual processing program for performing a visual processing method by a computer, and causes a computer to perform a visual processing method including an input signal processing step and a visual processing step. The input signal processing step performs certain processing on the input image signal and outputs a processed signal. The visual processing step outputs an output signal based on the input image signal and the two-dimensional LUT that gives the relationship between the processed signal and the output signal that is the visually processed image signal.

ここで、一定の処理とは、例えば、画像信号に対する直接的あるいは間接的な処理であって、空間処理や階調処理などの画像信号の画素値に変換を加える処理を含んでいる。
本発明の視覚処理プログラムでは、画像信号および処理信号と視覚処理された出力信号との関係を記載した2次元LUTを用いて視覚処理を行う。このため、視覚処理の高速化が可能となる。
Here, the fixed processing is, for example, direct or indirect processing for the image signal, and includes processing for converting the pixel value of the image signal such as spatial processing or gradation processing.
In the visual processing program of the present invention, visual processing is performed using a two-dimensional LUT that describes the relationship between the image signal and the processed signal and the visually processed output signal. For this reason, it is possible to speed up visual processing.

付記63に記載の集積回路は、付記1〜60のいずれかに記載の視覚処理装置を含む。
本発明の集積回路では、付記1〜60のいずれかに記載の視覚処理装置と同様の効果を得ることが可能となる。
付記64に記載の表示装置は、付記1〜60のいずれかに記載の視覚処理装置と、視覚処理装置から出力される出力信号の表示を行う表示手段とを備えている。
The integrated circuit according to attachment 63 includes the visual processing device according to any one of attachments 1 to 60.
In the integrated circuit of the present invention, it is possible to obtain the same effect as the visual processing device according to any one of appendices 1 to 60.
The display device according to attachment 64 includes the visual processing device according to any one of attachments 1 to 60, and display means for displaying an output signal output from the visual processing device.

本発明の表示装置では、付記1〜60のいずれかに記載の視覚処理装置と同様の効果を得ることが可能となる。
付記65に記載の撮影装置は、画像の撮影を行う撮影手段と、撮影手段により撮影された画像を画像信号として視覚処理を行う付記1〜60のいずれかに記載の視覚処理装置とを備えている。
In the display device of the present invention, it is possible to obtain the same effect as the visual processing device according to any one of appendices 1 to 60.
The imaging device according to attachment 65 includes an imaging unit that captures an image, and the visual processing device according to any one of appendices 1 to 60 that performs visual processing using the image captured by the imaging unit as an image signal. Yes.

本発明の撮影装置では、付記1〜60のいずれかに記載の視覚処理装置と同様の効果を得ることが可能となる。
付記66に記載の携帯情報端末は、通信あるいは放送された画像データを受信するデータ受信手段と、受信された画像データを画像信号として視覚処理を行う付記1〜60のいずれかに記載の視覚処理装置と、視覚処理装置により視覚処理された画像信号の表示を行う表示手段とを備えている。
In the imaging device of the present invention, it is possible to obtain the same effect as the visual processing device according to any one of appendices 1 to 60.
The mobile information terminal according to appendix 66 is a data receiving means for receiving image data transmitted or broadcasted, and visual processing according to any one of appendix 1 to 60, wherein visual processing is performed using the received image data as an image signal. And a display means for displaying an image signal visually processed by the visual processing device.

本発明の携帯情報端末では、付記1〜60のいずれかに記載の視覚処理装置と同様の効果を得ることが可能となる。
付記67に記載の携帯情報端末は、画像の撮影を行う撮影手段と、撮影手段により撮影された画像を画像信号として視覚処理を行う付記1〜60のいずれかに記載の視覚処理装置と、視覚処理された画像信号を送信するデータ送信手段とを備えている。
In the portable information terminal of the present invention, it is possible to obtain the same effect as the visual processing device according to any one of Supplementary notes 1 to 60.
The portable information terminal according to attachment 67 includes an imaging unit that captures an image, a visual processing device according to any one of appendix 1 to 60 that performs visual processing using an image captured by the imaging unit as an image signal, Data transmission means for transmitting the processed image signal.

本発明の携帯情報端末では、付記1〜60のいずれかに記載の視覚処理装置と同様の効果を得ることが可能となる。
付記68に記載の画像処理装置は、入力された入力画像信号の画像処理を行う画像処理装置であって、プロファイルデータ作成手段と、画像処理実行手段とを備えている。プロファイルデータ作成手段は、異なる画像処理を行うための複数のプロファイルデータに基づいて、画像処理に用いられるプロファイルデータを作成する。画像処理実行手段は、プロファイルデータ作成手段により作成されたプロファイルデータを用いて、画像処理を行う。
In the portable information terminal of the present invention, it is possible to obtain the same effect as the visual processing device according to any one of Supplementary notes 1 to 60.
The image processing apparatus according to attachment 68 is an image processing apparatus that performs image processing on an input image signal that is input, and includes profile data creation means and image processing execution means. The profile data creation means creates profile data used for image processing based on a plurality of profile data for performing different image processing. The image processing execution means performs image processing using the profile data created by the profile data creation means.

ここで、画像処理とは、例えば、空間処理や階調処理などの視覚処理や、色変換などの色処理などである(以下、この欄において同じ)。
また、プロファイルデータとは、例えば、入力画像信号に対する演算を行うための係数マトリクスデータや、入力画像信号の値に対する画像処理された入力画像信号の値を格納するテーブルデータなどである(以下、この欄において同じ)。
Here, the image processing includes, for example, visual processing such as spatial processing and gradation processing, color processing such as color conversion, and the like (hereinafter the same in this column).
The profile data is, for example, coefficient matrix data for performing an operation on the input image signal, table data for storing the value of the input image signal subjected to image processing with respect to the value of the input image signal (hereinafter referred to as this data). The same in the column).

本発明の画像処理装置は、複数のプロファイルデータに基づいて新たなプロファイルデータを作成する。このため、予め用意されるプロファイルデータが少数であっても、多くの異なる画像処理を行うことが可能となる。すなわち、プロファイルデータを記憶するための記憶容量を削減することが可能となる。   The image processing apparatus of the present invention creates new profile data based on a plurality of profile data. For this reason, even if the number of profile data prepared in advance is small, many different image processes can be performed. That is, it is possible to reduce the storage capacity for storing profile data.

付記69に記載の画像処理装置は、入力された入力画像信号の画像処理を行う画像処理装置であって、プロファイル情報出力手段と、画像処理実行手段とを備えている。プロファイル情報出力手段は、画像処理に用いられるプロファイルデータを特定するためのプロファイル情報を出力する。画像処理実行手段は、プロファイル情報出力手段から出力された情報に基づいて特定されるプロファイルデータを用いて画像処理を行う。   The image processing apparatus according to attachment 69 is an image processing apparatus that performs image processing on an input image signal that has been input, and includes profile information output means and image processing execution means. The profile information output means outputs profile information for specifying profile data used for image processing. The image processing execution means performs image processing using profile data specified based on the information output from the profile information output means.

ここで、プロファイル情報とは、例えば、プロファイルデータ、プロファイルデータを特定する番号などのタグ情報、プロファイルデータの処理の特徴を示すパラメータ情報、その他プロファイルデータを特定するための情報などである。
本発明の画像処理装置では、プロファイル情報に基づいて、プロファイルデータを制御し、画像処理を行うことが可能となる。
Here, the profile information is, for example, profile data, tag information such as a number for specifying the profile data, parameter information indicating characteristics of processing of the profile data, and other information for specifying the profile data.
In the image processing apparatus of the present invention, profile data can be controlled based on profile information to perform image processing.

付記70に記載の画像処理装置は、付記69に記載の画像処理装置であって、プロファイル情報出力手段は、画像処理された入力画像信号を表示する表示環境に応じて、プロファイル情報を出力する。
ここで、表示環境とは、例えば、環境光の明るさや色温度、表示を行う装置、表示される画像のサイズ、表示される画像と表示される画像を視覚するユーザとの位置関係、ユーザに関する情報などである。
The image processing device according to attachment 70 is the image processing device according to attachment 69, and the profile information output means outputs profile information according to a display environment in which the input image signal subjected to image processing is displayed.
Here, the display environment refers to, for example, the brightness and color temperature of the ambient light, the display device, the size of the displayed image, the positional relationship between the displayed image and the user viewing the displayed image, and the user Information.

本発明の画像処理装置では、表示環境に応じた画像処理を行うことが可能となる。
付記71に記載の画像処理装置は、付記69に記載の画像処理装置であって、プロファイル情報出力手段は、入力画像信号に含まれる情報のうちプロファイルデータに関わる情
報に応じて、プロファイル情報を出力する。
The image processing apparatus of the present invention can perform image processing according to the display environment.
The image processing device according to attachment 71 is the image processing device according to attachment 69, in which the profile information output means outputs profile information according to information related to profile data among information included in the input image signal. To do.

プロファイルデータに関わる情報とは、例えば、プロファイルデータ、プロファイルデータを特定する番号などのタグ情報、プロファイルデータの処理の特徴を示すパラメータ情報、その他プロファイルデータを特定するための情報などである。
本発明の画像処理装置では、プロファイルデータに関わる情報を入力画像信号から取得し、画像処理を行うことが可能となる。
The information related to the profile data includes, for example, profile data, tag information such as a number for specifying the profile data, parameter information indicating characteristics of processing of the profile data, and other information for specifying the profile data.
In the image processing apparatus of the present invention, it is possible to acquire information related to profile data from an input image signal and perform image processing.

付記72に記載の画像処理装置は、付記69に記載の画像処理装置であって、プロファイル情報出力手段は、取得された画像処理の特徴に関わる情報に応じて、プロファイル情報を出力する。
画像処理の特徴に関わる情報とは、画像処理のパラメータの特徴についての情報であり、例えば、明るさ、画質、色などの調整におけるパラメータの値などである。
The image processing device according to attachment 72 is the image processing device according to attachment 69, and the profile information output means outputs profile information in accordance with the information related to the acquired image processing characteristics.
The information related to the characteristics of the image processing is information about the characteristics of the parameters of the image processing, such as parameter values for adjustment of brightness, image quality, color, and the like.

本発明の画像処理装置では、例えば、画像処理の特徴に関わる情報をユーザの好みで入力することにより画像処理を行うことが可能となる。
付記73に記載の画像処理装置は、付記69に記載の画像処理装置であって、プロファイル情報出力手段は、入力画像信号が生成された環境に関わる情報に応じて、プロファイル情報を出力する。
In the image processing apparatus according to the present invention, for example, image processing can be performed by inputting information related to the characteristics of the image processing according to the user's preference.
The image processing device according to attachment 73 is the image processing device according to attachment 69, and the profile information output means outputs profile information according to information related to the environment in which the input image signal is generated.

入力画像信号が生成された環境に関わる情報とは、例えば、入力画像信号が撮影により記録された場合の撮影環境に関わる情報や、撮影環境における撮影許可情報などを含んでいる。
本発明の画像処理装置では、入力画像信号が生成された環境に関わる情報に応じて画像処理を行うことが可能となる。
The information related to the environment in which the input image signal is generated includes, for example, information related to the shooting environment when the input image signal is recorded by shooting, shooting permission information in the shooting environment, and the like.
In the image processing apparatus of the present invention, it is possible to perform image processing according to information relating to the environment in which the input image signal is generated.

付記74に記載の画像処理装置は、付記69に記載の画像処理装置であって、入力画像信号は、画像データと、入力画像信号の属性情報とを含んでいる。プロファイル情報出力手段は、属性情報に応じて、プロファイル情報を出力する。
本発明の画像処理装置では、入力画像信号の属性情報に応じて画像処理を行うことが可能となる。このため、入力画像信号に適した画像処理を行うことが可能となる。
The image processing device according to attachment 74 is the image processing device according to attachment 69, and the input image signal includes image data and attribute information of the input image signal. The profile information output means outputs profile information according to the attribute information.
With the image processing apparatus of the present invention, it is possible to perform image processing according to the attribute information of the input image signal. For this reason, it is possible to perform image processing suitable for the input image signal.

付記75に記載の画像処理装置は、付記74に記載の画像処理装置であって、属性情報とは、画像データの全体に関わる全体属性情報を含んでいる。
全体属性情報とは、例えば、画像データ全体の制作に関する情報や、画像データ全体の内容に関する情報などを含んでいる。
The image processing apparatus described in appendix 75 is the image processing apparatus described in appendix 74, and the attribute information includes overall attribute information related to the entire image data.
The overall attribute information includes, for example, information relating to the production of the entire image data, information relating to the content of the entire image data, and the like.

本発明の画像処理装置では、全体属性情報に応じて画像処理を行うことが可能となる。このため、画像データに適した画像処理を行うことが可能となる。
付記76に記載の画像処理装置は、付記74または75に記載の画像処理装置であって、属性情報とは、画像データの一部に関わる部分属性情報を含んでいる。
With the image processing apparatus of the present invention, it is possible to perform image processing according to the entire attribute information. For this reason, it is possible to perform image processing suitable for the image data.
The image processing apparatus described in appendix 76 is the image processing apparatus described in appendix 74 or 75, and the attribute information includes partial attribute information related to a part of the image data.

部分属性情報とは、例えば、画像データの一部のシーン内容に関する情報などを含んでいる。
本発明の画像処理装置では、部分属性情報に応じて画像処理を行うことが可能となる。このため、画像データに適した画像処理を行うことが可能となる。
The partial attribute information includes, for example, information on a part of scene contents of image data.
The image processing apparatus of the present invention can perform image processing according to the partial attribute information. For this reason, it is possible to perform image processing suitable for the image data.

付記77に記載の画像処理装置は、付記74に記載の画像処理装置であって、属性情報とは、入力画像信号が生成された環境に関わる生成環境属性情報を含んでいる。
生成環境属性情報とは、入力画像信号が撮影、記録、作成された環境に関する情報であり、例えば、入力画像信号が生成された際の環境に関する情報や、生成に用いられた機器の動作情報などを含んでいる。
The image processing device according to attachment 77 is the image processing device according to attachment 74, and the attribute information includes generation environment attribute information related to the environment in which the input image signal is generated.
The generation environment attribute information is information related to the environment in which the input image signal is captured, recorded, and created. For example, information related to the environment when the input image signal is generated, operation information of the device used for generation, and the like Is included.

本発明の画像処理装置では、生成環境属性情報に応じて画像処理を行うことが可能とな
る。このため、入力画像信号に適した画像処理を行うことが可能となる。
付記78に記載の画像処理装置は、付記74に記載の画像処理装置であって、属性情報とは、入力画像信号が取得された媒体に関わる媒体属性情報を含んでいる。
The image processing apparatus of the present invention can perform image processing according to the generation environment attribute information. For this reason, it is possible to perform image processing suitable for the input image signal.
The image processing device according to attachment 78 is the image processing device according to attachment 74, and the attribute information includes medium attribute information related to the medium from which the input image signal is acquired.

媒体属性情報とは、放送媒体、通信媒体、記録媒体など、入力画像信号が取得された媒体に関わる情報である。
本発明の画像処理装置では、媒体属性情報に応じて画像処理を行うことが可能となる。このため、媒体の属性に適した画像処理を行うことが可能となる。
The medium attribute information is information related to a medium from which an input image signal is acquired, such as a broadcast medium, a communication medium, and a recording medium.
The image processing apparatus of the present invention can perform image processing according to the medium attribute information. For this reason, it is possible to perform image processing suitable for the attributes of the medium.

付記79に記載の画像処理装置は、付記68〜78のいずれかに記載の画像処理装置において、プロファイルデータは、2次元LUTである。画像処理実行手段は、付記1〜60のいずれかに記載の視覚処理装置を含む。
本発明の画像処理装置では、付記68〜78のいずれかに記載の画像処理装置と同様の効果が得られる。さらに、付記1〜60のいずれかに記載の視覚処理装置と同様の効果がえられる。
The image processing device according to attachment 79 is the image processing device according to any one of attachments 68 to 78, wherein the profile data is a two-dimensional LUT. The image processing execution means includes the visual processing device according to any one of appendices 1 to 60.
In the image processing apparatus of the present invention, the same effects as those of the image processing apparatus described in any one of Appendices 68 to 78 can be obtained. Furthermore, the same effect as the visual processing device according to any one of Supplementary notes 1 to 60 can be obtained.

付記80に記載の画像処理装置は、画像処理実行手段と、プロファイル情報出力手段と、プロファイル情報出力手段とを備えている。画像処理実行手段は、入力された入力画像信号に画像処理を行う。プロファイル情報出力手段は、入力された入力画像信号に好適な画像処理を行うプロファイルデータを特定するためのプロファイル情報を出力する。プロファイル情報付加手段は、入力画像信号あるいは画像処理実行手段により画像処理された入力画像信号に対して、プロファイル情報を付加して出力する。   The image processing apparatus according to attachment 80 includes image processing execution means, profile information output means, and profile information output means. The image processing execution means performs image processing on the input image signal that has been input. The profile information output means outputs profile information for specifying profile data for performing image processing suitable for the inputted input image signal. The profile information adding means adds profile information to the input image signal or the input image signal image-processed by the image processing execution means and outputs the added image information.

本発明の画像処理装置により、入力画像信号あるいは画像処理実行手段により画像処理された入力画像信号と、プロファイル情報とを関連づけて処理することが可能となる。このため、プロファイル情報が付加された信号を取得した装置は、その信号に対して、好適な画像処理を容易に行うことが可能となる。   According to the image processing apparatus of the present invention, it is possible to process the input image signal or the input image signal image-processed by the image processing execution unit in association with the profile information. For this reason, the apparatus which acquired the signal to which profile information was added can easily perform suitable image processing on the signal.

付記81に記載の集積回路は、付記68〜80のいずれかに記載の画像処理装置を含む。
本発明の集積回路では、付記68〜80のいずれかに記載の画像処理装置と同様の効果を得ることが可能となる。
The integrated circuit according to attachment 81 includes the image processing device according to any one of attachments 68 to 80.
In the integrated circuit of the present invention, it is possible to obtain the same effect as that of the image processing device according to any one of appendices 68 to 80.

付記82に記載の表示装置は、付記68〜80のいずれかに記載の画像処理装置と、画像処理装置により画像処理された入力画像信号の表示を行う表示手段とを備えている。
本発明の表示装置では、付記68〜80のいずれかに記載の画像処理装置と同様の効果を得ることが可能となる。
The display device according to attachment 82 includes the image processing device according to any one of attachments 68 to 80, and display means for displaying an input image signal image-processed by the image processing device.
In the display device of the present invention, it is possible to obtain the same effect as that of the image processing device described in any one of Supplementary Notes 68 to 80.

付記83に記載の撮影装置は、画像の撮影を行う撮影手段と、撮影手段により撮影された画像を入力画像信号として画像処理を行う付記68〜80のいずれかに記載の画像処理装置とを備えている。
本発明の撮影装置では、付記68〜80のいずれかに記載の画像処理装置と同様の効果を得ることが可能となる。
The imaging device according to attachment 83 includes an imaging unit that captures an image, and the image processing device according to any one of appendix 68 to 80 that performs image processing using an image captured by the imaging unit as an input image signal. ing.
In the photographing apparatus of the present invention, it is possible to obtain the same effect as that of the image processing apparatus described in any one of Supplementary Notes 68 to 80.

付記84に記載の携帯情報端末は、通信あるいは放送された画像データを受信するデータ受信手段と、受信された画像データを入力画像信号として画像処理を行う付記68〜80のいずれかに記載の画像処理装置と、画像処理装置により画像処理された入力画像信号の表示を行う表示手段とを備えている。   The portable information terminal according to attachment 84 includes a data receiving means for receiving image data transmitted or broadcasted, and an image according to any one of attachments 68 to 80 that performs image processing using the received image data as an input image signal. A processing device and display means for displaying an input image signal image-processed by the image processing device are provided.

本発明の携帯情報端末では、付記68〜80のいずれかに記載の画像処理装置と同様の効果を得ることが可能となる。
付記85に記載の携帯情報端末は、画像の撮影を行う撮影手段と、撮影手段により撮影された画像を入力画像信号として画像処理を行う付記68〜80のいずれかに記載の画像処理装置と、画像処理された入力画像信号を送信するデータ送信手段とを備えている。
In the portable information terminal of the present invention, it is possible to obtain the same effect as that of the image processing device described in any one of Supplementary Notes 68 to 80.
The portable information terminal according to attachment 85 includes an imaging unit that captures an image, an image processing apparatus according to any one of appendix 68 to 80 that performs image processing using an image captured by the imaging unit as an input image signal, Data transmission means for transmitting an input image signal subjected to image processing.

本発明の携帯情報端末では、付記68〜80のいずれかに記載の画像処理装置と同様の効果を得ることが可能となる。
[第3付記]
本発明(特に、第1〜第3実施形態に記載の発明)は、次のように表現することも可能である。なお、本欄([第3付記])に記載する従属形式の付記では、第3付記に記載の付記に従属するものとする。
In the portable information terminal of the present invention, it is possible to obtain the same effect as that of the image processing device described in any one of Supplementary Notes 68 to 80.
[Third supplementary note]
The present invention (particularly the invention described in the first to third embodiments) can also be expressed as follows. In addition, in the subordinate form of the supplementary form described in this column ([third supplementary note]), it is subordinate to the supplementary note described in the third supplementary note.

〈第3付記の内容〉
(付記1)
入力された画像信号に対して空間処理を行い、処理信号を出力する入力信号処理手段と、
前記画像信号と前記処理信号とを所定の変換により変換したそれぞれの値の差を強調する演算に基づいて出力信号を出力する信号演算手段と、
を備える視覚処理装置。
<Content of third supplementary note>
(Appendix 1)
Input signal processing means for performing spatial processing on the input image signal and outputting the processed signal;
Signal calculation means for outputting an output signal based on a calculation for emphasizing a difference between respective values obtained by converting the image signal and the processing signal by a predetermined conversion;
A visual processing device comprising:

(付記2)
前記信号演算手段は、前記画像信号の値A、前記処理信号の値B、変換関数F1、前記変換関数F1の逆変換関数F2、強調関数F3に対して、数式F2(F1(A)+F3(F1(A)−F1(B)))に基づいて出力信号の値Cを演算する、
付記1に記載の視覚処理装置。
(Appendix 2)
The signal calculation means calculates the expression F2 (F1 (A) + F3 () for the value A of the image signal, the value B of the processing signal, the conversion function F1, the inverse conversion function F2 of the conversion function F1, and the enhancement function F3. F1 (A) -F1 (B))) is calculated based on the output signal value C.
The visual processing device according to attachment 1.

(付記3)
前記変換関数F1は、対数関数である、
付記2に記載の視覚処理装置。
(付記4)
前記逆変換関数F2は、ガンマ補正関数である、
付記2に記載の視覚処理装置。
(Appendix 3)
The conversion function F1 is a logarithmic function.
The visual processing device according to attachment 2.
(Appendix 4)
The inverse transformation function F2 is a gamma correction function.
The visual processing device according to attachment 2.

(付記5)
前記信号演算手段は、前記画像信号および前記処理信号の信号空間の変換を行う信号空間変換手段と、変換後の前記画像信号と変換後の前記処理信号との差分信号に対して強調処理を行う強調処理手段と、変換後の前記画像信号と前記強調処理後の前記差分信号との加算信号に対して信号空間の逆変換を行い、前記出力信号を出力する逆変換手段とを有する、
付記2〜4のいずれかに記載の視覚処理装置。
(Appendix 5)
The signal calculation unit performs enhancement processing on a signal space conversion unit that converts a signal space between the image signal and the processing signal, and a difference signal between the converted image signal and the converted processing signal Enhancement processing means, and inverse transformation means for performing an inverse transformation of a signal space on an addition signal of the image signal after the transformation and the difference signal after the enhancement processing, and outputting the output signal.
The visual processing device according to any one of appendices 2 to 4.

(付記6)
入力された画像信号に対して空間処理を行い、処理信号を出力する入力信号処理手段と、
前記画像信号と前記処理信号との比を強調する演算に基づいて出力信号を出力する信号演算手段と、
を備える視覚処理装置。
(Appendix 6)
Input signal processing means for performing spatial processing on the input image signal and outputting the processed signal;
A signal calculation means for outputting an output signal based on a calculation that emphasizes a ratio between the image signal and the processing signal;
A visual processing device comprising:

(付記7)
前記信号演算手段は、前記画像信号のダイナミックレンジ圧縮をさらに行う前記演算に基づいて前記出力信号を出力する、
付記6に記載の視覚処理装置。
(Appendix 7)
The signal calculation means outputs the output signal based on the calculation for further performing dynamic range compression of the image signal.
The visual processing device according to attachment 6.

(付記8)
前記信号演算手段は、前記画像信号の値A、前記処理信号の値B、ダイナミックレンジ圧縮関数F4、強調関数F5に対して、数式F4(A)*F5(A/B)に基づいて出力信号の値Cを演算する、
付記6または7に記載の視覚処理装置。
(Appendix 8)
The signal calculation means outputs an output signal based on the formula F4 (A) * F5 (A / B) for the value A of the image signal, the value B of the processed signal, the dynamic range compression function F4, and the enhancement function F5. The value C of
The visual processing device according to appendix 6 or 7.

(付記9)
前記ダイナミックレンジ圧縮関数F4は、比例係数1の正比例関数である、
付記8に記載の視覚処理装置。
(付記10)
前記ダイナミックレンジ圧縮関数F4は、単調増加関数である、
付記8に記載の視覚処理装置。
(Appendix 9)
The dynamic range compression function F4 is a direct proportional function with a proportional coefficient of 1.
The visual processing device according to attachment 8.
(Appendix 10)
The dynamic range compression function F4 is a monotonically increasing function.
The visual processing device according to attachment 8.

(付記11)
前記ダイナミックレンジ圧縮関数F4は、上に凸の関数である、
付記10に記載の視覚処理装置。
(付記12)
前記ダイナミックレンジ圧縮関数F4は、べき関数である、
付記8に記載の視覚処理装置。
(Appendix 11)
The dynamic range compression function F4 is an upward convex function.
The visual processing device according to attachment 10.
(Appendix 12)
The dynamic range compression function F4 is a power function.
The visual processing device according to attachment 8.

(付記13)
前記ダイナミックレンジ圧縮関数F4におけるべき関数の指数は、画像表示を行う際のコントラストの目標値である目標コントラスト値と、画像表示を行う際の表示環境におけるコントラスト値である実コントラスト値とに基づいて定められる、
付記12に記載の視覚処理装置。
(Appendix 13)
The exponent of the power function in the dynamic range compression function F4 is based on a target contrast value that is a target value of contrast when performing image display and an actual contrast value that is a contrast value in a display environment when performing image display. Determined,
The visual processing device according to attachment 12.

(付記14)
前記強調関数F5は、べき関数である、
付記8〜13のいずれかに記載の視覚処理装置。
(付記15)
前記強調関数F5におけるべき関数の指数は、画像表示を行う際のコントラストの目標値である目標コントラスト値と、画像表示を行う際の表示環境におけるコントラスト値である実コントラスト値とに基づいて定められる、
付記14に記載の視覚処理装置。
(Appendix 14)
The enhancement function F5 is a power function.
The visual processing device according to any one of appendices 8 to 13.
(Appendix 15)
The exponent of the power function in the enhancement function F5 is determined based on a target contrast value that is a target value of contrast when performing image display and an actual contrast value that is a contrast value in the display environment when performing image display. ,
The visual processing device according to attachment 14.

(付記16)
前記強調関数F5におけるべき関数の指数は、前記画像信号の値Aが前記処理信号の値Bよりも大きい場合に、前記画像信号の値Aに対して単調減少する値である、
付記14または15に記載の視覚処理装置。
(Appendix 16)
The exponent of the power function in the enhancement function F5 is a value that monotonously decreases with respect to the value A of the image signal when the value A of the image signal is larger than the value B of the processed signal.
The visual processing device according to appendix 14 or 15.

(付記17)
前記強調関数F5におけるべき関数の指数は、前記画像信号の値Aが前記処理信号の値Bよりも小さい場合に、前記画像信号の値Aに対して単調増加する値である、
付記14または15に記載の視覚処理装置。
(Appendix 17)
The exponent of the power function in the enhancement function F5 is a value that monotonously increases with respect to the value A of the image signal when the value A of the image signal is smaller than the value B of the processed signal.
The visual processing device according to appendix 14 or 15.

(付記18)
前記強調関数F5におけるべき関数の指数は、前記画像信号の値Aが前記処理信号の値Bよりも大きい場合に、前記画像信号の値Aに対して単調増加する値である、
付記14または15に記載の視覚処理装置。
(Appendix 18)
The exponent of the power function in the enhancement function F5 is a value that monotonously increases with respect to the value A of the image signal when the value A of the image signal is larger than the value B of the processed signal.
The visual processing device according to appendix 14 or 15.

(付記19)
前記強調関数F5におけるべき関数の指数は、前記画像信号の値Aと前記処理信号の値Bとの差の絶対値に対して単調増加する値である、
付記14または15に記載の視覚処理装置。
(Appendix 19)
The exponent of the power function in the enhancement function F5 is a value that monotonously increases with respect to the absolute value of the difference between the value A of the image signal and the value B of the processed signal.
The visual processing device according to appendix 14 or 15.

(付記20)
前記強調関数F5の最大値あるいは最小値の少なくとも一方は、所定の範囲内に制限されている、
付記14〜19のいずれかに記載の視覚処理装置。
(Appendix 20)
At least one of the maximum value and the minimum value of the enhancement function F5 is limited within a predetermined range;
The visual processing device according to any one of appendices 14 to 19.

(付記21)
前記信号演算手段は、前記画像信号を前記処理信号で除算した除算処理信号に対して強調処理を行う強調処理手段と、前記画像信号と前記強調処理された前記除算処理信号とに基づいて前記出力信号を出力する出力処理手段とを有する、
付記8に記載の視覚処理装置。
(Appendix 21)
The signal calculation means is an enhancement processing means for performing enhancement processing on a division processing signal obtained by dividing the image signal by the processing signal, and the output based on the image signal and the division processing signal subjected to the enhancement processing. Output processing means for outputting a signal,
The visual processing device according to attachment 8.

(付記22)
前記出力処理手段は、前記画像信号と前記強調処理された前記除算処理信号との乗算処理を行う、
付記21に記載の視覚処理装置。
(Appendix 22)
The output processing means performs a multiplication process of the image signal and the enhanced division signal.
The visual processing device according to attachment 21.

(付記23)
前記出力処理手段は、前記画像信号に対してダイナミックレンジ(DR)圧縮を行うDR圧縮手段を含んでおり、前記DR圧縮された前記画像信号と前記強調処理された前記除算処理信号との乗算処理を行う、
付記21に記載の視覚処理装置。
(Appendix 23)
The output processing means includes DR compression means for performing dynamic range (DR) compression on the image signal, and a multiplication process of the DR compressed image signal and the enhanced division signal. I do,
The visual processing device according to attachment 21.

(付記24)
第1の所定の範囲の入力画像データを第2の所定の範囲に変換し、前記画像信号とする第1変換手段と、
第3の所定の範囲の前記出力信号を第4の所定の範囲に変換し、出力画像データとする第2変換手段と、
をさらに備え、
前記第2の所定の範囲は、画像表示を行う際のコントラストの目標値である目標コントラスト値に基づいて定められており、
前記第3の所定の範囲は、画像表示を行う際の表示環境におけるコントラスト値である実コントラスト値に基づいて定められている、
付記8〜23のいずれかに記載の視覚処理装置。
(Appendix 24)
First conversion means for converting input image data in a first predetermined range into a second predetermined range to be the image signal;
A second conversion means for converting the output signal in a third predetermined range into a fourth predetermined range to obtain output image data;
Further comprising
The second predetermined range is determined based on a target contrast value, which is a target value of contrast when performing image display,
The third predetermined range is determined based on an actual contrast value that is a contrast value in a display environment when performing image display.
The visual processing device according to any one of appendices 8 to 23.

(付記25)
前記ダイナミックレンジ圧縮関数F4は、前記第2の所定の範囲の前記画像信号を前記第3の所定の範囲の前記出力信号に変換する関数である、
付記24に記載の視覚処理装置。
(Appendix 25)
The dynamic range compression function F4 is a function for converting the image signal in the second predetermined range to the output signal in the third predetermined range.
The visual processing device according to attachment 24.

(付記26)
前記第1変換手段は、前記第1の所定の範囲の最小値と最大値とのそれぞれを前記第2の所定の範囲の最小値と最大値とのそれぞれに変換し、
前記第2変換手段は、前記第3の所定の範囲の最小値と最大値とのそれぞれを前記第4の所定の範囲の最小値と最大値とのそれぞれに変換する、
付記24または25に記載の視覚処理装置。
(Appendix 26)
The first conversion means converts each of a minimum value and a maximum value of the first predetermined range into a minimum value and a maximum value of the second predetermined range,
The second conversion means converts each of a minimum value and a maximum value of the third predetermined range into a minimum value and a maximum value of the fourth predetermined range;
The visual processing device according to attachment 24 or 25.

(付記27)
前記第1変換手段および前記第2変換手段における変換は、それぞれ線形の変換である、
付記26に記載の視覚処理装置。
(Appendix 27)
The conversions in the first conversion unit and the second conversion unit are linear conversions, respectively.
The visual processing device according to attachment 26.

(付記28)
前記第3の所定の範囲を設定する設定手段をさらに備える、
付記24〜27のいずれかに記載の視覚処理装置。
(付記29)
前記設定手段は、画像表示を行う表示装置のダイナミックレンジを記憶する記憶手段と
、画像表示を行う際の表示環境における環境光の輝度を測定する測定手段とを含む、
付記28に記載の視覚処理装置。
(Appendix 28)
A setting means for setting the third predetermined range;
The visual processing device according to any one of appendices 24-27.
(Appendix 29)
The setting unit includes a storage unit that stores a dynamic range of a display device that performs image display, and a measurement unit that measures the luminance of ambient light in a display environment when performing image display.
The visual processing device according to attachment 28.

(付記30)
前記設定手段は、画像表示を行う表示装置の表示環境における黒レベル表示時と白レベル表示時との輝度を測定する測定手段を含む、
付記28に記載の視覚処理装置。
(Appendix 30)
The setting means includes a measuring means for measuring luminance at the time of black level display and at the time of white level display in a display environment of a display device that performs image display.
The visual processing device according to attachment 28.

(付記31)
入力された画像信号に対して空間処理を行い、処理信号を出力する入力信号処理手段と、
前記画像信号と前記処理信号との差を、前記画像信号の値に応じて強調する演算に基づいて出力信号を出力する信号演算手段と、
を備える視覚処理装置。
(Appendix 31)
Input signal processing means for performing spatial processing on the input image signal and outputting the processed signal;
Signal calculation means for outputting an output signal based on a calculation for enhancing a difference between the image signal and the processing signal according to a value of the image signal;
A visual processing device comprising:

(付記32)
前記信号演算手段は、前記強調する演算により強調された値に対して、前記画像信号をダイナミックレンジ圧縮した値を加える演算に基づいて前記出力信号を出力する、
付記31に記載の視覚処理装置。
(Appendix 32)
The signal calculation means outputs the output signal based on a calculation of adding a value obtained by dynamic range compression of the image signal to a value emphasized by the calculation to be emphasized.
The visual processing device according to attachment 31.

(付記33)
前記信号演算手段は、前記画像信号の値A、前記処理信号の値B、強調量調整関数F6、強調関数F7、ダイナミックレンジ圧縮関数F8に対して、数式F8(A)+F6(A)*F7(A−B)に基づいて出力信号の値Cを演算する、
付記31または32に記載の視覚処理装置。
(Appendix 33)
The signal calculation means calculates Formula F8 (A) + F6 (A) * F7 for the value A of the image signal, the value B of the processed signal, the enhancement amount adjustment function F6, the enhancement function F7, and the dynamic range compression function F8. A value C of the output signal is calculated based on (A-B);
The visual processing device according to attachment 31 or 32.

(付記34)
前記ダイナミックレンジ圧縮関数F8は、比例係数1の正比例関数である、
付記33に記載の視覚処理装置。
(付記35)
前記ダイナミックレンジ圧縮関数F8は、単調増加関数である、
付記33に記載の視覚処理装置。
(Appendix 34)
The dynamic range compression function F8 is a direct proportional function with a proportional coefficient of 1.
The visual processing device according to attachment 33.
(Appendix 35)
The dynamic range compression function F8 is a monotonically increasing function.
The visual processing device according to attachment 33.

(付記36)
前記ダイナミックレンジ圧縮関数F8は、上に凸の関数である、
付記35に記載の視覚処理装置。
(付記37)
前記ダイナミックレンジ圧縮関数F8は、べき関数である、
付記33に記載の視覚処理装置。
(Appendix 36)
The dynamic range compression function F8 is an upward convex function.
The visual processing device according to attachment 35.
(Appendix 37)
The dynamic range compression function F8 is a power function.
The visual processing device according to attachment 33.

(付記38)
前記信号演算手段は、前記画像信号と前記処理信号との差分信号に対して前記画像信号の画素値に応じた強調処理を行う強調処理手段と、前記画像信号と前記強調処理された差分信号とに基づいて前記出力信号を出力する出力処理手段とを有する、
付記33に記載の視覚処理装置。
(Appendix 38)
The signal calculation means includes enhancement processing means for performing enhancement processing according to a pixel value of the image signal with respect to a difference signal between the image signal and the processing signal, and the image signal and the enhanced difference signal. Output processing means for outputting the output signal based on
The visual processing device according to attachment 33.

(付記39)
前記出力処理手段は、前記画像信号と前記強調処理された前記差分信号との加算処理を行う、
付記38に記載の視覚処理装置。
(Appendix 39)
The output processing means performs an addition process of the image signal and the enhanced difference signal.
The visual processing device according to attachment 38.

(付記40)
前記出力処理手段は、前記画像信号に対してダイナミックレンジ(DR)圧縮を行うDR圧縮手段を含んでおり、前記DR圧縮された前記画像信号と前記強調処理された前記差
分信号との加算処理を行う、
付記38に記載の視覚処理装置。
(Appendix 40)
The output processing means includes DR compression means for performing dynamic range (DR) compression on the image signal, and performs addition processing of the DR compressed image signal and the enhanced difference signal. Do,
The visual processing device according to attachment 38.

(付記41)
入力された画像信号に対して空間処理を行い、処理信号を出力する入力信号処理手段と、
前記画像信号と前記処理信号との差を強調した値に対して、前記画像信号を階調補正した値を加える演算に基づいて出力信号を出力する信号演算手段と、
を備える視覚処理装置。
(Appendix 41)
Input signal processing means for performing spatial processing on the input image signal and outputting the processed signal;
Signal calculation means for outputting an output signal based on a calculation of adding a value obtained by correcting the gradation of the image signal to a value in which a difference between the image signal and the processing signal is emphasized;
A visual processing device comprising:

(付記42)
前記信号演算手段は、前記画像信号の値A、前記処理信号の値B、強調関数F11、階調補正関数F12に対して、数式F12(A)+F11(A−B)に基づいて出力信号の値Cを演算する、
付記41に記載の視覚処理装置。
(Appendix 42)
The signal calculation means outputs the output signal based on the formula F12 (A) + F11 (AB) with respect to the value A of the image signal, the value B of the processing signal, the enhancement function F11, and the gradation correction function F12. Compute the value C,
The visual processing device according to attachment 41.

(付記43)
前記信号演算手段は、前記画像信号と前記処理信号との差分信号に対して強調処理を行う強調処理手段と、階調補正された前記画像信号と前記強調処理された差分信号とを加算処理し出力信号として出力する加算処理手段とを有する、
付記42に記載の視覚処理装置。
(Appendix 43)
The signal calculation means performs an enhancement process for performing an enhancement process on the difference signal between the image signal and the processed signal, and adds the gradation corrected image signal and the enhanced difference signal. Addition processing means for outputting as an output signal,
The visual processing device according to attachment 42.

(付記44)
第1の所定の範囲の入力画像データを第2の所定の範囲に変換し、画像信号とする第1変換ステップと、
前記画像信号のダイナミックレンジ圧縮を行う演算、あるいは前記画像信号と前記画像信号を空間処理した処理信号との比を強調する演算の少なくとも一方を含む演算に基づいて、第3の所定の範囲の出力信号を出力する信号演算ステップと、
前記第3の所定の範囲の前記出力信号を第4の所定の範囲に変換し、出力画像データとする第2変換ステップと、
を備え、
前記第2の所定の範囲は、画像表示を行う際のコントラストの目標値である目標コントラスト値に基づいて定められており、
前記第3の所定の範囲は、画像表示を行う際の表示環境におけるコントラスト値である実コントラスト値に基づいて定められている、
視覚処理方法。
(Appendix 44)
A first conversion step of converting input image data in a first predetermined range into a second predetermined range to be an image signal;
Based on an operation including at least one of an operation for performing dynamic range compression of the image signal or an operation for enhancing a ratio between the image signal and a processed signal obtained by spatially processing the image signal, an output in a third predetermined range A signal calculation step for outputting a signal;
A second conversion step of converting the output signal of the third predetermined range into a fourth predetermined range to be output image data;
With
The second predetermined range is determined based on a target contrast value, which is a target value of contrast when performing image display,
The third predetermined range is determined based on an actual contrast value that is a contrast value in a display environment when performing image display.
Visual processing method.

(付記45)
第1の所定の範囲の入力画像データを第2の所定の範囲に変換し、画像信号とする第1変換手段と、
前記画像信号のダイナミックレンジ圧縮を行う演算、あるいは前記画像信号と前記画像信号を空間処理した処理信号との比を強調する演算の少なくとも一方を含む演算に基づいて、第3の所定の範囲の出力信号を出力する信号演算手段と、
前記第3の所定の範囲の前記出力信号を第4の所定の範囲に変換し、出力画像データとする第2変換手段と、
を備え、
前記第2の所定の範囲は、画像表示を行う際のコントラストの目標値である目標コントラスト値に基づいて定められており、
前記第3の所定の範囲は、画像表示を行う際の表示環境におけるコントラスト値である実コントラスト値に基づいて定められている、
視覚処理装置。
(Appendix 45)
First conversion means for converting input image data in a first predetermined range into a second predetermined range to be an image signal;
Based on an operation including at least one of an operation for performing dynamic range compression of the image signal or an operation for enhancing a ratio between the image signal and a processed signal obtained by spatially processing the image signal, an output in a third predetermined range Signal computing means for outputting a signal;
A second conversion means for converting the output signal in the third predetermined range into a fourth predetermined range to be output image data;
With
The second predetermined range is determined based on a target contrast value, which is a target value of contrast when performing image display,
The third predetermined range is determined based on an actual contrast value that is a contrast value in a display environment when performing image display.
Visual processing device.

(付記46)
コンピュータに視覚処理を行わせるための視覚処理プログラムであって、
第1の所定の範囲の入力画像データを第2の所定の範囲に変換し、画像信号とする第1変換ステップと、
前記画像信号のダイナミックレンジ圧縮を行う演算、あるいは前記画像信号と前記画像信号を空間処理した処理信号との比を強調する演算の少なくとも一方を含む演算に基づいて、第3の所定の範囲の出力信号を出力する信号演算ステップと、
前記第3の所定の範囲の前記出力信号を第4の所定の範囲に変換し、出力画像データとする第2変換ステップと、
を備え、
前記第2の所定の範囲は、画像表示を行う際のコントラストの目標値である目標コントラスト値に基づいて定められており、
前記第3の所定の範囲は、画像表示を行う際の表示環境におけるコントラスト値である実コントラスト値に基づいて定められている、
視覚処理方法をコンピュータに対して行わせるものである、
視覚処理プログラム。
(Appendix 46)
A visual processing program for causing a computer to perform visual processing,
A first conversion step of converting input image data in a first predetermined range into a second predetermined range to be an image signal;
Based on an operation including at least one of an operation for performing dynamic range compression of the image signal or an operation for enhancing a ratio between the image signal and a processed signal obtained by spatially processing the image signal, an output in a third predetermined range A signal calculation step for outputting a signal;
A second conversion step of converting the output signal of the third predetermined range into a fourth predetermined range to be output image data;
With
The second predetermined range is determined based on a target contrast value, which is a target value of contrast when performing image display,
The third predetermined range is determined based on an actual contrast value that is a contrast value in a display environment when performing image display.
A visual processing method for a computer,
Visual processing program.

〈第3付記の説明〉
付記1に記載の視覚処理装置は、入力信号処理手段と、信号演算手段とを備えている。入力信号処理手段は、入力された画像信号に対して空間処理を行い、処理信号を出力する。信号演算手段は、画像信号と処理信号とを所定の変換により変換したそれぞれの値の差を強調する演算に基づいて出力信号を出力する。
<Explanation of the third supplementary note>
The visual processing device according to attachment 1 includes an input signal processing means and a signal calculation means. The input signal processing means performs spatial processing on the input image signal and outputs a processed signal. The signal calculation means outputs an output signal based on a calculation that emphasizes the difference between the values obtained by converting the image signal and the processing signal by a predetermined conversion.

ここで、空間処理とは、入力された画像信号に対して低域空間フィルタを適用する処理、あるいは、入力された画像信号の着目画素と周囲画素との平均値、最大値あるいは最小値などを導出する処理などである(以下、この欄において同じ)。また、強調する演算とは、例えば、ゲインを調整する演算、過度のコントラストを抑制する演算、小振幅のノイズ成分を抑制する演算などである(以下、この欄において同じ)。   Here, spatial processing refers to processing that applies a low-pass spatial filter to an input image signal, or an average value, maximum value, or minimum value of a target pixel and surrounding pixels of the input image signal. Derived processing, etc. (hereinafter the same in this column). Further, the emphasis calculation includes, for example, an operation for adjusting a gain, an operation for suppressing excessive contrast, and an operation for suppressing a noise component having a small amplitude (hereinafter, the same applies to this column).

本発明の視覚処理装置では、画像信号と処理信号とを別空間に変換した上でそれぞれの差を強調することが可能となる。これにより、例えば、視覚特性にあった強調などを実現することが可能となる。
付記2に記載の視覚処理装置は、付記1に記載の視覚処理装置であって、信号演算手段は、画像信号の値A、処理信号の値B、変換関数F1、変換関数F1の逆変換関数F2、強調関数F3に対して、数式F2(F1(A)+F3(F1(A)−F1(B)))に基づいて出力信号の値Cを演算する。
In the visual processing device of the present invention, it is possible to emphasize the difference between the image signal and the processing signal after converting them into different spaces. Thereby, for example, it is possible to realize enhancement suitable for visual characteristics.
The visual processing device according to attachment 2 is the visual processing device according to attachment 1, wherein the signal calculation means includes an image signal value A, a processing signal value B, a conversion function F1, and an inverse conversion function of the conversion function F1. For F2 and the enhancement function F3, the value C of the output signal is calculated based on the formula F2 (F1 (A) + F3 (F1 (A) −F1 (B))).

強調関数F3とは、例えば、ゲインを調整する関数、過度のコントラストを抑制する関数、小振幅のノイズ成分を抑制する関数などである。
出力信号の値Cは、次のことを示している。すなわち、画像信号の値Aと処理信号の値Bとは、変換関数F1により別空間上の値に変換されている。変換後の画像信号の値と処理信号の値との差分は、例えば、別空間上でのシャープ信号などを表している。強調関数F3により強調された変換後の画像信号と処理信号との差分は、変換後の画像信号に加算されている。これにより、出力信号の値Cは、別空間上におけるシャープ信号成分が強調された値を示している。
The enhancement function F3 is, for example, a function for adjusting a gain, a function for suppressing excessive contrast, a function for suppressing a noise component with a small amplitude, or the like.
The value C of the output signal indicates the following. That is, the value A of the image signal and the value B of the processing signal are converted into values on different spaces by the conversion function F1. The difference between the value of the image signal after conversion and the value of the processing signal represents, for example, a sharp signal in another space. The difference between the converted image signal enhanced by the enhancement function F3 and the processed signal is added to the converted image signal. Accordingly, the value C of the output signal indicates a value in which the sharp signal component in another space is emphasized.

本発明の視覚処理装置では、例えば、別空間に変換された画像信号の値Aおよび処理信号の値Bを用いて、別空間上でのエッジ強調、コントラスト強調などの処理が可能となる。
付記3に記載の視覚処理装置は、付記2に記載の視覚処理装置であって、変換関数F1は、対数関数である。
In the visual processing device of the present invention, for example, processing such as edge enhancement and contrast enhancement in another space can be performed using the value A of the image signal and the value B of the processing signal converted into another space.
The visual processing device according to attachment 3 is the visual processing device according to attachment 2, wherein the conversion function F1 is a logarithmic function.

ここで、人間の視覚特性は、一般に対数的である。このため対数空間に変換して画像信号および処理信号の処理を行うと、視覚特性に適した処理を行うことが可能となる。
本発明の視覚処理装置では、視覚的効果の高いコントラスト強調、あるいは局所コントラストを維持するダイナミックレンジ圧縮が可能となる。
Here, human visual characteristics are generally logarithmic. For this reason, when the image signal and the processed signal are processed after being converted into the logarithmic space, it is possible to perform a process suitable for the visual characteristic.
In the visual processing device of the present invention, it is possible to perform contrast enhancement with high visual effect or dynamic range compression that maintains local contrast.

付記4に記載の視覚処理装置は、付記2に記載の視覚処理装置であって、逆変換関数F2は、ガンマ補正関数である。
一般的に画像信号には、画像信号を入出力する機器のガンマ特性に応じて、ガンマ補正関数によるガンマ補正が施されている。
The visual processing device according to attachment 4 is the visual processing device according to attachment 2, in which the inverse transformation function F2 is a gamma correction function.
In general, an image signal is subjected to gamma correction by a gamma correction function in accordance with the gamma characteristic of a device that inputs and outputs the image signal.

本発明の視覚処理装置では、変換関数F1により、画像信号のガンマ補正を外し、線形特性のもとで処理を行うことが可能となる。これにより、光学的なボケの補正を行うことが可能となる。
付記5に記載の視覚処理装置は、付記2〜4のいずれかに記載の視覚処理装置であって、信号演算手段は、信号空間変換手段と、強調処理手段と、逆変換手段とを有している。信号空間変換手段は、画像信号および処理信号の信号空間の変換を行う。強調処理手段は、変換後の画像信号と変換後の処理信号との差分信号に対して強調処理を行う。逆変換手段は、変換後の画像信号と強調処理後の差分信号との加算信号に対して信号空間の逆変換を行い、出力信号を出力する。
In the visual processing device of the present invention, it is possible to remove the gamma correction of the image signal by the conversion function F1 and perform processing based on linear characteristics. As a result, optical blur correction can be performed.
The visual processing device according to attachment 5 is the visual processing device according to any one of attachments 2 to 4, in which the signal calculation means includes signal space conversion means, enhancement processing means, and inverse conversion means. ing. The signal space conversion unit converts the signal space of the image signal and the processing signal. The enhancement processing means performs enhancement processing on a difference signal between the converted image signal and the converted processing signal. The inverse conversion means performs inverse conversion of the signal space on the sum signal of the converted image signal and the difference signal after enhancement processing, and outputs an output signal.

本発明の視覚処理装置では、信号空間変換手段は、変換関数F1を用いて、画像信号と処理信号との信号空間の変換を行う。強調処理手段は、強調関数F3を用いて、変換後の画像信号と変換後の処理信号との差分信号に対して強調処理を行う。逆変換手段は、逆変換関数F2を用いて、変換後の画像信号と強調処理後の差分信号との加算信号に対して信号空間の逆変換を行う。   In the visual processing device of the present invention, the signal space conversion means converts the signal space between the image signal and the processing signal using the conversion function F1. The enhancement processing means performs enhancement processing on the difference signal between the converted image signal and the converted processing signal using the enhancement function F3. The inverse transform means performs inverse transform of the signal space on the sum signal of the image signal after the conversion and the difference signal after the enhancement process using the inverse conversion function F2.

付記6に記載の視覚処理装置は、入力信号処理手段と、信号演算手段とを備えている。入力信号処理手段は、入力された画像信号に対して空間処理を行い、処理信号を出力する。信号演算手段は、画像信号と処理信号との比を強調する演算に基づいて出力信号を出力する。   The visual processing device according to attachment 6 includes input signal processing means and signal calculation means. The input signal processing means performs spatial processing on the input image signal and outputs a processed signal. The signal calculation means outputs an output signal based on a calculation that emphasizes the ratio between the image signal and the processing signal.

本発明の視覚処理装置では、例えば、画像信号と処理信号との比は、画像信号のシャープ成分を表している。このため、例えば、シャープ成分を強調する視覚処理を行うことが可能となる。
付記7に記載の視覚処理装置は、付記6に記載の視覚処理装置であって、信号演算手段は、画像信号のダイナミックレンジ圧縮をさらに行う演算に基づいて出力信号を出力する。
In the visual processing device of the present invention, for example, the ratio between the image signal and the processed signal represents the sharp component of the image signal. Therefore, for example, it is possible to perform visual processing that emphasizes the sharp component.
The visual processing device according to attachment 7 is the visual processing device according to attachment 6 in which the signal calculation means outputs an output signal based on a calculation that further compresses the dynamic range of the image signal.

本発明の視覚処理装置では、例えば、画像信号と処理信号との比が表す画像信号のシャープ成分を強調しつつ、ダイナミックレンジの圧縮を行うことが可能となる。
付記8に記載の視覚処理装置は、付記6または7に記載の視覚処理装置であって、信号演算手段は、画像信号の値A、処理信号の値B、ダイナミックレンジ圧縮関数F4、強調関数F5に対して、数式F4(A)*F5(A/B)に基づいて出力信号の値Cを演算する。
In the visual processing device of the present invention, for example, the dynamic range can be compressed while enhancing the sharp component of the image signal represented by the ratio between the image signal and the processed signal.
The visual processing device according to attachment 8 is the visual processing device according to attachment 6 or 7, wherein the signal calculation means includes the value A of the image signal, the value B of the processing signal, the dynamic range compression function F4, and the enhancement function F5. On the other hand, the value C of the output signal is calculated based on the formula F4 (A) * F5 (A / B).

ここで出力信号の値Cは、次のことを示している。すなわち、画像信号の値Aと処理信号の値Bとの除算量(A/B)は、例えばシャープ信号を表している。また、F5(A/B)は、例えば、シャープ信号の強調量を表している。これらは、画像信号の値Aと処理信号の値Bとを対数空間に変換し、それぞれの差分を強調処理するのと等価な処理を示しており、視覚特性に適した強調処理が行われている。   Here, the value C of the output signal indicates the following. That is, the amount of division (A / B) between the value A of the image signal and the value B of the processing signal represents, for example, a sharp signal. F5 (A / B) represents, for example, the enhancement amount of the sharp signal. These show processing equivalent to converting the value A of the image signal and the value B of the processing signal into a logarithmic space and emphasizing each difference, and emphasis processing suitable for visual characteristics is performed. Yes.

本発明の視覚処理装置では、必要に応じてダイナミックレンジの圧縮を行いつつ、局所的なコントラストを強調することが可能となる。
付記9に記載の視覚処理装置は、付記8に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F4は、比例係数1の正比例関数である。
With the visual processing device of this invention, it is possible to enhance local contrast while compressing the dynamic range as necessary.
The visual processing device according to attachment 9 is the visual processing device according to attachment 8 in which the dynamic range compression function F4 is a direct proportional function with a proportionality factor of 1.

本発明の視覚処理装置では、画像信号の暗部から明部まで均一に、コントラストを強調することが可能となる。このコントラスト強調は、視覚特性に適した強調処理となっている。
付記10に記載の視覚処理装置は、付記8に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F4は、単調増加関数である。
In the visual processing device of the present invention, it is possible to enhance the contrast uniformly from the dark part to the bright part of the image signal. This contrast enhancement is an enhancement process suitable for visual characteristics.
The visual processing device according to attachment 10 is the visual processing device according to attachment 8, wherein the dynamic range compression function F4 is a monotonically increasing function.

本発明の視覚処理装置では、単調増加関数であるダイナミックレンジ圧縮関数F4を用いてダイナミックレンジ圧縮を行いつつ、局所的なコントラストを強調することが可能となる。
付記11に記載の視覚処理装置は、付記10に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F4は、上に凸の関数である。
In the visual processing device of the present invention, it is possible to enhance local contrast while performing dynamic range compression using the dynamic range compression function F4 that is a monotonically increasing function.
The visual processing device according to attachment 11 is the visual processing device according to attachment 10, wherein the dynamic range compression function F4 is an upward convex function.

本発明の視覚処理装置では、上に凸の関数であるダイナミックレンジ圧縮関数F4を用いてダイナミックレンジ圧縮を行いつつ、局所的なコントラストを強調することが可能となる。
付記12に記載の視覚処理装置は、付記8に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F4は、べき関数である。
In the visual processing device of the present invention, it is possible to enhance local contrast while performing dynamic range compression using the dynamic range compression function F4 that is a convex function.
The visual processing device according to attachment 12 is the visual processing device according to attachment 8 in which the dynamic range compression function F4 is a power function.

本発明の視覚処理装置では、べき関数であるダイナミックレンジ圧縮関数F4を用いてダイナミックレンジの変換を行いつつ、局所的なコントラストを強調することが可能となる。
付記13に記載の視覚処理装置は、付記12に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F4におけるべき関数の指数は、画像表示を行う際のコントラストの目標値である目標コントラスト値と、画像表示を行う際の表示環境におけるコントラスト値である実コントラスト値とに基づいて定められる。
In the visual processing device of the present invention, it is possible to enhance local contrast while performing dynamic range conversion using the dynamic range compression function F4, which is a power function.
The visual processing device according to attachment 13 is the visual processing device according to attachment 12, wherein the exponent of the power function in the dynamic range compression function F4 is a target contrast value that is a target value of contrast when performing image display. And the actual contrast value, which is the contrast value in the display environment when performing image display.

ここで、目標コントラスト値とは、画像表示を行う際のコントラストの目標値であり、例えば、画像表示を行う表示装置のダイナミックレンジにより決定される値などである。実コントラスト値とは、画像表示を行う際の表示環境におけるコントラスト値であり、例えば、環境光が存在する場合において表示装置が表示する画像のコントラストにより決定される値などである。   Here, the target contrast value is a target value of contrast when performing image display, and is, for example, a value determined by a dynamic range of a display device that performs image display. The actual contrast value is a contrast value in the display environment when performing image display, and is, for example, a value determined by the contrast of an image displayed by the display device when ambient light is present.

本発明の視覚処理装置では、ダイナミックレンジ圧縮関数F4により目標コントラスト値と等しいダイナミックレンジを有する画像信号を実コントラスト値と等しいダイナミックレンジにダイナミックレンジ圧縮することが可能となる。
付記14に記載の視覚処理装置は、付記8〜13のいずれかに記載の視覚処理装置であって、強調関数F5は、べき関数である。
In the visual processing device of the present invention, the dynamic range compression function F4 enables dynamic range compression of an image signal having a dynamic range equal to the target contrast value to a dynamic range equal to the actual contrast value.
The visual processing device according to attachment 14 is the visual processing device according to any one of attachments 8 to 13, in which the enhancement function F5 is a power function.

本発明の視覚処理装置では、べき関数である強調関数F5を用いて局所的なコントラストを強調することが可能となり、視覚的にダイナミックレンジの変換を行うことが可能となる。
付記15に記載の視覚処理装置は、付記14に記載の視覚処理装置であって、強調関数F5におけるべき関数の指数は、画像表示を行う際のコントラストの目標値である目標コントラスト値と、画像表示を行う際の表示環境におけるコントラスト値である実コントラスト値とに基づいて定められる。
In the visual processing device of the present invention, it is possible to enhance local contrast using the enhancement function F5, which is a power function, and visually convert the dynamic range.
The visual processing device according to attachment 15 is the visual processing device according to attachment 14, wherein the exponent of the power function in the enhancement function F5 is a target contrast value that is a target value of contrast when performing image display, and an image It is determined based on the actual contrast value, which is the contrast value in the display environment when displaying.

本発明の視覚処理装置では、べき関数である強調関数F5を用いて局所的なコントラストを強調することが可能となり、視覚的にダイナミックレンジの変換を行うことが可能となる。
付記16に記載の視覚処理装置は、付記14または15に記載の視覚処理装置であって、強調関数F5におけるべき関数の指数は、画像信号の値Aが処理信号の値Bよりも大きい場合に、画像信号の値Aに対して単調減少する値である。
In the visual processing device of the present invention, it is possible to enhance local contrast using the enhancement function F5, which is a power function, and visually convert the dynamic range.
The visual processing device according to attachment 16 is the visual processing device according to attachment 14 or 15, wherein the exponent of the power function in the enhancement function F5 is when the value A of the image signal is larger than the value B of the processing signal. The value monotonously decreases with respect to the value A of the image signal.

本発明の視覚処理装置では、画像信号において周囲画素よりも輝度の高い着目画素のうち、高輝度の部分における局所的なコントラストの強調を弱めることが可能となる。このため、視覚処理された画像において、いわゆる白飛びが抑制される。
付記17に記載の視覚処理装置は、付記14または15に記載の視覚処理装置であって、強調関数F5におけるべき関数の指数は、画像信号の値Aが処理信号の値Bよりも小さい場合に、画像信号の値Aに対して単調増加する値である。
In the visual processing device of the present invention, it is possible to weaken local contrast enhancement in a high-luminance portion of a pixel of interest having higher luminance than surrounding pixels in an image signal. For this reason, so-called whiteout is suppressed in the visually processed image.
The visual processing device according to attachment 17 is the visual processing device according to attachment 14 or 15, wherein the exponent of the power function in the enhancement function F5 is when the value A of the image signal is smaller than the value B of the processing signal. The value monotonically increases with respect to the value A of the image signal.

本発明の視覚処理装置では、画像信号において周囲画素よりも輝度の低い着目画素のうち、低輝度の部分における局所的なコントラストの強調を弱めることが可能となる。このため、視覚処理された画像において、いわゆる黒潰れが抑制される。
付記18に記載の視覚処理装置は、付記14または15に記載の視覚処理装置であって、強調関数F5におけるべき関数の指数は、画像信号の値Aが処理信号の値Bよりも大きい場合に、画像信号の値Aに対して単調増加する値である。
In the visual processing device of the present invention, it is possible to weaken local contrast enhancement in a low-luminance portion of a target pixel having a lower luminance than surrounding pixels in an image signal. For this reason, so-called black crushing is suppressed in the visually processed image.
The visual processing device according to attachment 18 is the visual processing device according to attachment 14 or 15, wherein the exponent of the power function in the enhancement function F5 is when the value A of the image signal is larger than the value B of the processing signal. The value monotonically increases with respect to the value A of the image signal.

本発明の視覚処理装置では、画像信号において周囲画素よりも輝度の高い着目画素のうち、低輝度の部分における局所的なコントラストの強調を弱めることが可能となる。このため、視覚処理された画像において、SN比の劣化が抑制される。
付記19に記載の視覚処理装置は、付記14または15に記載の視覚処理装置であって、強調関数F5におけるべき関数の指数は、画像信号の値Aと処理信号の値Bとの差の絶対値に対して単調増加する値である。
In the visual processing device of the present invention, it is possible to weaken local contrast enhancement in a low-luminance portion of a pixel of interest having higher luminance than surrounding pixels in an image signal. For this reason, the degradation of the SN ratio is suppressed in the visually processed image.
The visual processing device according to attachment 19 is the visual processing device according to attachment 14 or 15, wherein the exponent of the power function in the enhancement function F5 is the absolute difference between the value A of the image signal and the value B of the processing signal It is a value that increases monotonously with respect to the value.

ここで、画像信号の値Aと処理信号の値Bとの差の絶対値に対して単調増加する値とは、画像信号の値Aと処理信号の値Bとの比が1に近いほど増加すると定義することもできる。
本発明の視覚処理装置では、画像信号において周囲画素との明暗差が小さい着目画素における局所的なコントラストを特に強調し、画像信号において周囲画素との明暗差が大きい着目画素における局所的なコントラストを強調しすぎないということが可能となる。
Here, the value that monotonously increases with respect to the absolute value of the difference between the value A of the image signal and the value B of the processed signal increases as the ratio between the value A of the image signal and the value B of the processed signal is closer to 1. Then you can define it.
In the visual processing device of the present invention, the local contrast in the pixel of interest having a small contrast with the surrounding pixels in the image signal is particularly emphasized, and the local contrast in the pixel of interest having a large contrast in the image signal with the surrounding pixels is enhanced. It becomes possible not to emphasize too much.

付記20に記載の視覚処理装置は、付記14〜19のいずれかに記載の視覚処理装置であって、強調関数F5の最大値あるいは最小値の少なくとも一方は、所定の範囲内に制限されている。
本発明の視覚処理装置では、局所的なコントラストの強調量を適切な範囲に制限することが可能となる。
The visual processing device according to attachment 20 is the visual processing device according to any one of attachments 14 to 19, in which at least one of the maximum value and the minimum value of the enhancement function F5 is limited within a predetermined range. .
With the visual processing device of this invention, it is possible to limit the amount of local contrast enhancement to an appropriate range.

付記21に記載の視覚処理装置は、付記8に記載の視覚処理装置であって、信号演算手段は、強調処理手段と、出力処理手段とを有している。強調処理手段は、画像信号を処理信号で除算した除算処理信号に対して強調処理を行う。出力処理手段は、画像信号と強調処理された除算処理信号とに基づいて出力信号を出力する。   The visual processing device according to attachment 21 is the visual processing device according to attachment 8 in which the signal calculation means includes enhancement processing means and output processing means. The enhancement processing means performs enhancement processing on the division processing signal obtained by dividing the image signal by the processing signal. The output processing means outputs an output signal based on the image signal and the enhanced division processing signal.

本発明の視覚処理装置では、強調処理手段は、画像信号を処理信号で除算した除算処理信号に対して、強調関数F5を用いて強調処理を行う。出力処理手段は、画像信号と除算処理信号に基づいて出力信号を出力する。
付記22に記載の視覚処理装置は、付記21に記載の視覚処理装置であって、出力処理手段は、画像信号と強調処理された除算処理信号との乗算処理を行う。
In the visual processing device of the present invention, the enhancement processing means performs enhancement processing on the division processing signal obtained by dividing the image signal by the processing signal, using the enhancement function F5. The output processing means outputs an output signal based on the image signal and the division processing signal.
The visual processing device according to attachment 22 is the visual processing device according to attachment 21 in which the output processing means performs a multiplication process of the image signal and the emphasized division processing signal.

本発明の視覚処理装置では、ダイナミックレンジ圧縮関数F4は、例えば、比例係数1の正比例関数である。
付記23に記載の視覚処理装置は、付記21に記載の視覚処理装置であって、出力処理手段は、画像信号に対してダイナミックレンジ(DR)圧縮を行うDR圧縮手段を含んで
おり、DR圧縮された画像信号と強調処理された除算処理信号との乗算処理を行う。
In the visual processing device of this invention, the dynamic range compression function F4 is, for example, a direct proportional function with a proportional coefficient of 1.
The visual processing device according to attachment 23 is the visual processing device according to attachment 21, wherein the output processing means includes DR compression means for performing dynamic range (DR) compression on the image signal, and DR compression The multiplication processing of the image signal thus processed and the division processing signal subjected to the enhancement processing is performed.

本発明の視覚処理装置では、DR圧縮手段は、ダイナミックレンジ圧縮関数F4を用いて画像信号のダイナミックレンジ圧縮を行う。
付記24に記載の視覚処理装置は、付記8〜23のいずれかに記載の視覚処理装置であって、第1変換手段と第2変換手段とをさらに備えている。第1変換手段は、第1の所定の範囲の入力画像データを第2の所定の範囲に変換し、画像信号とする。第2変換手段は、第3の所定の範囲の出力信号を第4の所定の範囲に変換し、出力画像データとする。第2の所定の範囲は、画像表示を行う際のコントラストの目標値である目標コントラスト値に基づいて定められている。第3の所定の範囲は、画像表示を行う際の表示環境におけるコントラスト値である実コントラスト値に基づいて定められている。
In the visual processing device of the present invention, the DR compression means performs dynamic range compression of the image signal using the dynamic range compression function F4.
The visual processing device according to attachment 24 is the visual processing device according to any one of attachments 8 to 23, and further includes first conversion means and second conversion means. The first conversion means converts the input image data in the first predetermined range into the second predetermined range to obtain an image signal. The second conversion means converts the output signal in the third predetermined range into the fourth predetermined range and sets it as output image data. The second predetermined range is determined based on a target contrast value that is a target value of contrast when performing image display. The third predetermined range is determined based on an actual contrast value that is a contrast value in the display environment when performing image display.

本発明の視覚処理装置では、環境光の存在によって低下した実コントラスト値まで画像全体のダイナミックレンジを圧縮しつつ、局所的には目標コントラスト値を維持することなどが可能となる。このため、視覚処理された画像の視覚的効果が向上する。
付記25に記載の視覚処理装置は、付記24に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F4は、第2の所定の範囲の画像信号を第3の所定の範囲の出力信号に変換する関数である。
With the visual processing device of the present invention, it is possible to locally maintain the target contrast value while compressing the dynamic range of the entire image to the actual contrast value that has been reduced by the presence of ambient light. For this reason, the visual effect of the visually processed image is improved.
The visual processing device according to attachment 25 is the visual processing device according to attachment 24, wherein the dynamic range compression function F4 converts an image signal in the second predetermined range into an output signal in the third predetermined range. Function.

本発明の視覚処理装置では、ダイナミックレンジ圧縮関数F4により、画像全体のダイナミックレンジが第3の所定の範囲まで圧縮されている。
付記26に記載の視覚処理装置は、付記24または25に記載の視覚処理装置であって、第1変換手段は、第1の所定の範囲の最小値と最大値とのそれぞれを第2の所定の範囲の最小値と最大値とのそれぞれに変換する。第2変換手段は、第3の所定の範囲の最小値と最大値とのそれぞれを第4の所定の範囲の最小値と最大値とのそれぞれに変換する。
In the visual processing device of the present invention, the dynamic range of the entire image is compressed to the third predetermined range by the dynamic range compression function F4.
The visual processing device according to attachment 26 is the visual processing device according to attachment 24 or 25, in which the first conversion means converts each of the minimum value and the maximum value of the first predetermined range into a second predetermined value. To the minimum and maximum values in the range. The second conversion means converts each of the minimum value and the maximum value of the third predetermined range into the minimum value and the maximum value of the fourth predetermined range.

付記27に記載の視覚処理装置は、付記26に記載の視覚処理装置であって、第1変換手段および第2変換手段における変換は、それぞれ線形の変換である。
付記28に記載の視覚処理装置は、付記24〜27のいずれかに記載の視覚処理装置であって、第3の所定の範囲を設定する設定手段をさらに備える。
The visual processing device according to attachment 27 is the visual processing device according to attachment 26, in which the conversion in the first conversion means and the second conversion means is linear conversion.
The visual processing device according to attachment 28 is the visual processing device according to any one of attachments 24 to 27, and further includes setting means for setting a third predetermined range.

本発明の視覚処理装置では、画像表示を行う表示装置の表示環境に応じて第3の所定の範囲を設定可能となる。このため、より適切に環境光の補正を行うことが可能となる。
付記29に記載の視覚処理装置は、付記28に記載の視覚処理装置であって、設定手段は、画像表示を行う表示装置のダイナミックレンジを記憶する記憶手段と、画像表示を行う際の表示環境における環境光の輝度を測定する測定手段とを含む。
In the visual processing device of the present invention, the third predetermined range can be set according to the display environment of the display device that performs image display. For this reason, it becomes possible to correct | amend environmental light more appropriately.
The visual processing device according to attachment 29 is the visual processing device according to attachment 28, in which the setting means includes a storage means for storing the dynamic range of the display device that performs image display, and a display environment for performing image display. And measuring means for measuring the brightness of the ambient light.

本発明の視覚処理装置では、環境光の輝度を測定し、測定された輝度と表示装置のダイナミックレンジとから実コントラスト値を決定することが可能となる。
付記30に記載の視覚処理装置は、付記28に記載の視覚処理装置であって、設定手段は、画像表示を行う表示装置の表示環境における黒レベル表示時と白レベル表示時との輝度を測定する測定手段を含む。
In the visual processing device of the present invention, it is possible to measure the luminance of the ambient light and determine the actual contrast value from the measured luminance and the dynamic range of the display device.
The visual processing device according to attachment 30 is the visual processing device according to attachment 28, in which the setting means measures the luminance at the time of black level display and at the time of white level display in the display environment of the display device that performs image display. Measuring means.

本発明の視覚処理装置では、表示環境における黒レベル表示時と白レベル表示時との輝度を測定し実コントラスト値を決定することが可能となる。
付記31に記載の視覚処理装置は、入力信号処理手段と、信号演算手段とを備えている。入力信号処理手段は、入力された画像信号に対して空間処理を行い、処理信号を出力する。信号演算手段は、画像信号と処理信号との差を、画像信号の値に応じて強調する演算に基づいて出力信号を出力する。
In the visual processing device of the present invention, it is possible to determine the actual contrast value by measuring the luminance at the time of black level display and white level display in the display environment.
The visual processing device according to attachment 31 includes input signal processing means and signal calculation means. The input signal processing means performs spatial processing on the input image signal and outputs a processed signal. The signal calculation means outputs an output signal based on a calculation that emphasizes the difference between the image signal and the processed signal according to the value of the image signal.

本発明の視覚処理装置では、例えば、画像信号と処理信号との差である画像信号のシャープ成分を画像信号の値に応じて強調することが可能となる。このため、画像信号の暗部
から明部まで適切な強調を行うことが可能となる。
付記32に記載の視覚処理装置は、付記31に記載の視覚処理装置であって、信号演算手段は、強調する演算により強調された値に対して、画像信号をダイナミックレンジ圧縮した値を加える演算に基づいて出力信号を出力する。
In the visual processing device of the present invention, for example, it is possible to enhance the sharp component of the image signal, which is the difference between the image signal and the processed signal, according to the value of the image signal. For this reason, it is possible to perform appropriate enhancement from the dark part to the bright part of the image signal.
The visual processing device according to attachment 32 is the visual processing device according to attachment 31 in which the signal calculation means adds the value obtained by compressing the dynamic range of the image signal to the value emphasized by the enhancement operation. An output signal is output based on

本発明の視覚処理装置では、例えば、画像信号のシャープ成分などを画像信号の値に応じて強調しつつ、ダイナミックレンジの圧縮を行うことが可能となる。
付記33に記載の視覚処理装置は、付記31または32に記載の視覚処理装置であって、信号演算手段は、画像信号の値A、処理信号の値B、強調量調整関数F6、強調関数F7、ダイナミックレンジ圧縮関数F8に対して、数式F8(A)+F6(A)*F7(A−B)に基づいて出力信号の値Cを演算する。
In the visual processing device of the present invention, for example, it is possible to compress the dynamic range while enhancing the sharp component of the image signal according to the value of the image signal.
The visual processing device according to attachment 33 is the visual processing device according to attachment 31 or 32, in which the signal calculation means includes the value A of the image signal, the value B of the processing signal, the enhancement amount adjustment function F6, and the enhancement function F7. For the dynamic range compression function F8, the value C of the output signal is calculated based on the formula F8 (A) + F6 (A) * F7 (AB).

ここで出力信号の値Cは、次のことを示している。すなわち、画像信号の値Aと処理信号の値Bとの差分(A−B)は、例えばシャープ信号を表している。また、F7(A−B)は、例えば、シャープ信号の強調量を表している。さらに、強調量は、強調量調整関数F6により、画像信号の値Aに応じて調整され、必要に応じてダイナミックレンジ圧縮を行った画像信号に対して加算されている。   Here, the value C of the output signal indicates the following. That is, the difference (A−B) between the value A of the image signal and the value B of the processing signal represents, for example, a sharp signal. F7 (AB) represents, for example, the enhancement amount of the sharp signal. Further, the enhancement amount is adjusted according to the value A of the image signal by the enhancement amount adjustment function F6, and is added to the image signal subjected to dynamic range compression as necessary.

本発明の視覚処理装置では、例えば、画像信号Aの値が大きいところでは、強調量を減らすなど暗部から明部までのコントラストを維持することが可能となる。また、ダイナミックレンジ圧縮を行った場合でも、暗部から明部までの局所コントラストを維持することが可能となる。   In the visual processing device of the present invention, for example, where the value of the image signal A is large, it is possible to maintain the contrast from the dark part to the bright part by reducing the enhancement amount. Further, even when dynamic range compression is performed, it is possible to maintain local contrast from the dark part to the bright part.

付記34に記載の視覚処理装置は、付記33に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F8は、比例係数1の正比例関数である。
本発明の視覚処理装置では、画像信号の暗部から明部まで均一に、コントラストを強調することが可能となる。
The visual processing device according to attachment 34 is the visual processing device according to attachment 33, in which the dynamic range compression function F8 is a direct proportional function with a proportionality factor of 1.
In the visual processing device of the present invention, it is possible to enhance the contrast uniformly from the dark part to the bright part of the image signal.

付記35に記載の視覚処理装置は、付記33に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F8は、単調増加関数である。
本発明の視覚処理装置では、単調増加関数であるダイナミックレンジ圧縮関数F8を用いてダイナミックレンジ圧縮を行いつつ、局所的なコントラストを維持することが可能となる。
The visual processing device according to attachment 35 is the visual processing device according to attachment 33, in which the dynamic range compression function F8 is a monotonically increasing function.
In the visual processing device of the present invention, it is possible to maintain local contrast while performing dynamic range compression using the dynamic range compression function F8, which is a monotonically increasing function.

付記36に記載の視覚処理装置は、付記35に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F8は、上に凸の関数である。
本発明の視覚処理装置では、上に凸の関数であるダイナミックレンジ圧縮関数F8を用いてダイナミックレンジ圧縮を行いつつ、局所的なコントラストを維持することが可能となる。
The visual processing device according to attachment 36 is the visual processing device according to attachment 35, in which the dynamic range compression function F8 is an upward convex function.
In the visual processing device of the present invention, it is possible to maintain local contrast while performing dynamic range compression using the dynamic range compression function F8 that is a convex function.

付記37に記載の視覚処理装置は、付記33に記載の視覚処理装置であって、ダイナミックレンジ圧縮関数F8は、べき関数である。
本発明の視覚処理装置では、べき関数であるダイナミックレンジ圧縮関数F8を用いてダイナミックレンジの変換を行いつつ、局所的なコントラストを維持することが可能となる。
The visual processing device according to attachment 37 is the visual processing device according to attachment 33, in which the dynamic range compression function F8 is a power function.
In the visual processing device of the present invention, it is possible to maintain local contrast while performing dynamic range conversion using the dynamic range compression function F8, which is a power function.

付記38に記載の視覚処理装置は、付記33に記載の視覚処理装置であって、信号演算手段は、強調処理手段と、出力処理手段とを有している。強調処理手段は、画像信号と処理信号との差分信号に対して画像信号の画素値に応じた強調処理を行う。出力処理手段は、画像信号と強調処理された差分信号とに基づいて出力信号を出力する。   The visual processing device according to attachment 38 is the visual processing device according to attachment 33, in which the signal calculation means includes enhancement processing means and output processing means. The enhancement processing means performs enhancement processing according to the pixel value of the image signal on the difference signal between the image signal and the processing signal. The output processing means outputs an output signal based on the image signal and the enhanced difference signal.

本発明の視覚処理装置では、強調処理手段は、強調量調整関数F6により強調量を調整された強調関数F7を用いて強調処理を行う。出力処理手段は、画像信号と差分信号とに基づいて出力信号を出力する。
付記39に記載の視覚処理装置は、付記38に記載の視覚処理装置であって、出力処理手段は、画像信号と強調処理された差分信号との加算処理を行う。
In the visual processing device of the present invention, the enhancement processing means performs enhancement processing using the enhancement function F7 whose enhancement amount is adjusted by the enhancement amount adjustment function F6. The output processing means outputs an output signal based on the image signal and the difference signal.
The visual processing device according to attachment 39 is the visual processing device according to attachment 38, in which the output processing means performs an addition process of the image signal and the enhanced difference signal.

本発明の視覚処理装置では、ダイナミックレンジ圧縮関数F8は、例えば、比例係数1の正比例関数である。
付記40に記載の視覚処理装置は、付記38に記載の視覚処理装置であって、出力処理手段は、画像信号に対してダイナミックレンジ(DR)圧縮を行うDR圧縮手段を含んでおり、DR圧縮された画像信号と強調処理された差分信号との加算処理を行う。
In the visual processing device of the present invention, the dynamic range compression function F8 is, for example, a direct proportional function with a proportional coefficient of 1.
The visual processing device according to attachment 40 is the visual processing device according to attachment 38, in which the output processing means includes DR compression means for performing dynamic range (DR) compression on the image signal, and DR compression The added image signal and the enhanced difference signal are added.

本発明の視覚処理装置では、DR圧縮手段は、ダイナミックレンジ圧縮関数F8を用いて画像信号のダイナミックレンジ圧縮を行う。
付記41に記載の視覚処理装置は、入力信号処理手段と、信号演算手段とを備えている。入力信号処理手段は、入力された画像信号に対して空間処理を行い、処理信号を出力する。信号演算手段は、画像信号と処理信号との差を強調した値に対して、画像信号を階調補正した値を加える演算に基づいて出力信号を出力する。
In the visual processing device of this invention, the DR compression means performs dynamic range compression of the image signal using the dynamic range compression function F8.
The visual processing device according to attachment 41 includes input signal processing means and signal calculation means. The input signal processing means performs spatial processing on the input image signal and outputs a processed signal. The signal calculation means outputs an output signal based on a calculation that adds a value obtained by correcting the gradation of the image signal to a value that emphasizes the difference between the image signal and the processed signal.

本発明の視覚処理装置では、例えば、画像信号と処理信号との差は、画像信号のシャープ成分を表している。また、シャープ成分の強調と画像信号の階調補正とは独立して行われる。このため、画像信号の階調補正量にかかわらず、一定のシャープ成分の強調を行うことが可能となる。   In the visual processing device of the present invention, for example, the difference between the image signal and the processed signal represents the sharp component of the image signal. The sharp component enhancement and the tone correction of the image signal are performed independently. For this reason, it is possible to enhance a certain sharp component regardless of the gradation correction amount of the image signal.

付記42に記載の視覚処理装置は、付記41に記載の視覚処理装置であって、信号演算手段は、画像信号の値A、処理信号の値B、強調関数F11、階調補正関数F12に対して、数式F12(A)+F11(A−B)に基づいて出力信号の値Cを演算する。
ここで出力信号の値Cは、次のことを示している。すなわち、画像信号の値Aと処理信号の値Bとの差分(A−B)は、例えば、シャープ信号を表している。また、F11(A−B)は、例えば、シャープ信号の強調処理を表している。さらに、階調補正された画像信号と強調処理されたシャープ信号とが加算されていることを表している。
The visual processing device according to attachment 42 is the visual processing device according to attachment 41, in which the signal calculation means applies to the value A of the image signal, the value B of the processing signal, the enhancement function F11, and the gradation correction function F12. Then, the value C of the output signal is calculated based on the formula F12 (A) + F11 (AB).
Here, the value C of the output signal indicates the following. That is, the difference (A−B) between the value A of the image signal and the value B of the processing signal represents, for example, a sharp signal. F11 (AB) represents, for example, sharp signal enhancement processing. Furthermore, it is shown that the tone-corrected image signal and the enhanced sharpening signal are added.

本発明の視覚処理装置では、階調補正にかかわらず、一定のコントラスト強調を行うことが可能となる。
付記43に記載の視覚処理装置は、付記42に記載の視覚処理装置であって、信号演算手段は、強調処理手段と、加算処理手段とを有している。強調処理手段は、画像信号と処理信号との差分信号に対して強調処理を行う。加算処理手段は、階調補正された画像信号と強調処理された差分信号とを加算処理し出力信号として出力する。
In the visual processing device of the present invention, it is possible to perform constant contrast enhancement regardless of gradation correction.
The visual processing device according to attachment 43 is the visual processing device according to attachment 42, in which the signal calculation means includes enhancement processing means and addition processing means. The enhancement processing means performs enhancement processing on the difference signal between the image signal and the processing signal. The addition processing means performs addition processing on the tone-corrected image signal and the enhanced difference signal, and outputs the result as an output signal.

本発明の視覚処理装置では、強調処理手段は、差分信号に対して、強調関数F11を用いて強調処理を行う。加算処理手段は、階調補正関数F12を用いて階調補正処理した画像信号と、強調処理された差分信号とを加算処理する。
付記44に記載の視覚処理方法は、第1変換ステップと、信号演算ステップと、第2変換ステップとを備えている。第1変換ステップは、第1の所定の範囲の入力画像データを第2の所定の範囲に変換し、画像信号とする。信号演算ステップは、画像信号のダイナミックレンジ圧縮を行う演算、あるいは画像信号と画像信号を空間処理した処理信号との比を強調する演算の少なくとも一方を含む演算に基づいて、第3の所定の範囲の出力信号を出力する。第2変換ステップは、第3の所定の範囲の出力信号を第4の所定の範囲に変換し、出力画像データとする。第2の所定の範囲は、画像表示を行う際のコントラストの目標値である目標コントラスト値に基づいて定められている。第3の所定の範囲は、画像表示を行う際の表示環境におけるコントラスト値である実コントラスト値に基づいて定められている。
In the visual processing device of this invention, the enhancement processing means performs enhancement processing on the difference signal using the enhancement function F11. The addition processing means adds the image signal that has been subjected to the gradation correction processing using the gradation correction function F12 and the enhanced difference signal.
The visual processing method according to attachment 44 includes a first conversion step, a signal calculation step, and a second conversion step. In the first conversion step, the input image data in the first predetermined range is converted into the second predetermined range to obtain an image signal. The signal calculation step includes a third predetermined range based on an operation including at least one of an operation for performing dynamic range compression of the image signal or an operation for enhancing a ratio between the image signal and the processed signal obtained by spatially processing the image signal. The output signal is output. In the second conversion step, the output signal in the third predetermined range is converted into the fourth predetermined range to obtain output image data. The second predetermined range is determined based on a target contrast value that is a target value of contrast when performing image display. The third predetermined range is determined based on an actual contrast value that is a contrast value in the display environment when performing image display.

本発明の視覚処理方法では、例えば、環境光の存在によって低下した実コントラスト値
まで画像全体のダイナミックレンジを圧縮しつつ、局所的には目標コントラスト値を維持することなどが可能となる。このため、視覚処理された画像の視覚的効果が向上する。
付記45に記載の視覚処理装置は、第1変換手段と、信号演算手段と、第2変換手段とを備えている。第1変換手段は、第1の所定の範囲の入力画像データを第2の所定の範囲に変換し、画像信号とする。信号演算手段は、画像信号のダイナミックレンジ圧縮を行う演算、あるいは画像信号と画像信号を空間処理した処理信号との比を強調する演算の少なくとも一方を含む演算に基づいて、第3の所定の範囲の出力信号を出力する。第2変換手段は、第3の所定の範囲の出力信号を第4の所定の範囲に変換し、出力画像データとする。第2の所定の範囲は、画像表示を行う際のコントラストの目標値である目標コントラスト値に基づいて定められている。第3の所定の範囲は、画像表示を行う際の表示環境におけるコントラスト値である実コントラスト値に基づいて定められている。
In the visual processing method of the present invention, for example, it is possible to locally maintain the target contrast value while compressing the dynamic range of the entire image to the actual contrast value that is lowered due to the presence of ambient light. For this reason, the visual effect of the visually processed image is improved.
The visual processing device according to attachment 45 includes first conversion means, signal calculation means, and second conversion means. The first conversion means converts the input image data in the first predetermined range into the second predetermined range to obtain an image signal. The signal calculation means is based on a calculation that includes at least one of a calculation that performs dynamic range compression of the image signal or a calculation that emphasizes a ratio between the image signal and the processed signal obtained by spatially processing the image signal. The output signal is output. The second conversion means converts the output signal in the third predetermined range into the fourth predetermined range and sets it as output image data. The second predetermined range is determined based on a target contrast value that is a target value of contrast when performing image display. The third predetermined range is determined based on an actual contrast value that is a contrast value in the display environment when performing image display.

本発明の視覚処理装置では、例えば、環境光の存在によって低下した実コントラスト値まで画像全体のダイナミックレンジを圧縮しつつ、局所的には目標コントラスト値を維持することなどが可能となる。このため、視覚処理された画像の視覚的効果が向上する。
付記46に記載の視覚処理プログラムは、コンピュータに視覚処理を行わせるための視覚処理プログラムであって、第1変換ステップと、信号演算ステップと、第2変換ステップとをそなえる視覚処理方法をコンピュータに対して行わせるものである。
第1変換ステップは、第1の所定の範囲の入力画像データを第2の所定の範囲に変換し、画像信号とする。信号演算ステップは、画像信号のダイナミックレンジ圧縮を行う演算、あるいは画像信号と画像信号を空間処理した処理信号との比を強調する演算の少なくとも一方を含む演算に基づいて、第3の所定の範囲の出力信号を出力する。第2変換ステップは、第3の所定の範囲の出力信号を第4の所定の範囲に変換し、出力画像データとする。第2の所定の範囲は、画像表示を行う際のコントラストの目標値である目標コントラスト値に基づいて定められている。第3の所定の範囲は、画像表示を行う際の表示環境におけるコントラスト値である実コントラスト値に基づいて定められている。
In the visual processing device of the present invention, for example, it is possible to locally maintain the target contrast value while compressing the dynamic range of the entire image to the actual contrast value that has been lowered due to the presence of ambient light. For this reason, the visual effect of the visually processed image is improved.
The visual processing program according to attachment 46 is a visual processing program for causing a computer to perform visual processing, and provides a computer with a visual processing method including a first conversion step, a signal calculation step, and a second conversion step. This is what we do.
In the first conversion step, the input image data in the first predetermined range is converted into the second predetermined range to obtain an image signal. The signal calculation step includes a third predetermined range based on an operation including at least one of an operation for performing dynamic range compression of the image signal or an operation for enhancing a ratio between the image signal and the processed signal obtained by spatially processing the image signal. The output signal is output. In the second conversion step, the output signal in the third predetermined range is converted into the fourth predetermined range to obtain output image data. The second predetermined range is determined based on a target contrast value that is a target value of contrast when performing image display. The third predetermined range is determined based on an actual contrast value that is a contrast value in the display environment when performing image display.

本発明の視覚処理プログラムでは、例えば、環境光の存在によって低下した実コントラスト値まで画像全体のダイナミックレンジを圧縮しつつ、局所的には目標コントラスト値を維持することなどが可能となる。このため、視覚処理された画像の視覚的効果が向上する。   In the visual processing program of the present invention, for example, it is possible to locally maintain the target contrast value while compressing the dynamic range of the entire image to the actual contrast value that has been lowered due to the presence of ambient light. For this reason, the visual effect of the visually processed image is improved.

本発明の視覚処理装置により、実現される視覚処理に依存しないハード構成を有する装置を提供することが可能となり、視覚処理装置、特に、画像信号の空間処理または階調処理などの視覚処理を行う視覚処理装置として有用である。   The visual processing device of the present invention makes it possible to provide a device having a hardware configuration that does not depend on the visual processing to be realized, and performs visual processing such as spatial processing or gradation processing of an image signal. It is useful as a visual processing device.

視覚処理装置1の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 1 (first embodiment) プロファイルデータの一例(第1実施形態)Example of profile data (first embodiment) 視覚処理方法を説明するフローチャート(第1実施形態)Flow chart for explaining visual processing method (first embodiment) 視覚処理部500の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing unit 500 (first embodiment) プロファイルデータの一例(第1実施形態)Example of profile data (first embodiment) 視覚処理装置520の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 520 (first embodiment) 視覚処理装置525の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 525 (first embodiment) 視覚処理装置530の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 530 (first embodiment) プロファイルデータ登録装置701の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the profile data registration device 701 (first embodiment) 視覚処理プロファイル作成方法について説明するフローチャート(第1実施形態)Flowchart for explaining a visual processing profile creation method (first embodiment) 視覚処理装置901の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 901 (first embodiment) 変更度関数fk(z)を変化させた場合の入力信号IS’と出力信号OS’との関係を示すグラフ(第1実施形態)Graph showing the relationship between the input signal IS 'and the output signal OS' when the change degree function fk (z) is changed (first embodiment) 変更度関数f1(z)およびf2(z)を示すグラフ(第1実施形態)A graph showing the degree-of-change functions f1 (z) and f2 (z) (first embodiment) 視覚処理装置905の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 905 (first embodiment) 視覚処理装置11の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 11 (first embodiment) 視覚処理装置21の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 21 (first embodiment) ダイナミックレンジ圧縮関数F4について説明する説明図(第1実施形態)Explanatory drawing explaining the dynamic range compression function F4 (1st Embodiment). 強調関数F5について説明する説明図(第1実施形態)Explanatory drawing explaining enhancement function F5 (first embodiment) 視覚処理装置31の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 31 (first embodiment) 視覚処理装置41の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 41 (first embodiment) 視覚処理装置51の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 51 (first embodiment) 視覚処理装置61の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 61 (first embodiment) 視覚処理装置71の構造を説明するブロック図(第1実施形態)Block diagram for explaining the structure of the visual processing device 71 (first embodiment) 視覚処理装置600の構造を説明するブロック図(第2実施形態)Block diagram for explaining the structure of the visual processing device 600 (second embodiment) 式M20による変換を説明するグラフ(第2実施形態)A graph for explaining the conversion by the equation M20 (second embodiment) 式M2による変換を説明するグラフ(第2実施形態)A graph for explaining conversion by the equation M2 (second embodiment) 式M21による変換を説明するグラフ(第2実施形態)A graph for explaining the conversion by the equation M21 (second embodiment) 視覚処理方法について説明するフローチャート(第2実施形態)Flowchart explaining visual processing method (second embodiment) 関数α1(A)の傾向を示すグラフ(第2実施形態)Graph showing the tendency of the function α1 (A) (second embodiment) 関数α2(A)の傾向を示すグラフ(第2実施形態)Graph showing the tendency of the function α2 (A) (second embodiment) 関数α3(A)の傾向を示すグラフ(第2実施形態)Graph showing the tendency of the function α3 (A) (second embodiment) 関数α4(A,B)の傾向を示すグラフ(第2実施形態)Graph showing the tendency of the function α4 (A, B) (second embodiment) 変形例としての実コントラスト設定部605の構造を説明するブロック図(第2実施形態)A block diagram for explaining a structure of an actual contrast setting unit 605 as a modified example (second embodiment) 変形例としての実コントラスト設定部605の構造を説明するブロック図(第2実施形態)A block diagram for explaining a structure of an actual contrast setting unit 605 as a modified example (second embodiment) 制御部605eの動作を説明するフローチャート(第2実施形態)A flowchart for explaining the operation of the control unit 605e (second embodiment). 色差補正処理部608を備える視覚処理装置600の構造を説明するブロック図(第2実施形態)FIG. 2 is a block diagram for explaining the structure of a visual processing device 600 including a color difference correction processing unit 608 (second embodiment). 色差補正処理の概要を説明する説明図(第2実施形態)Explanatory drawing explaining the outline | summary of a color difference correction process (2nd Embodiment). 色差補正処理部608における推定演算について説明するフローチャート(第2実施形態)A flowchart for explaining an estimation calculation in the color difference correction processing unit 608 (second embodiment). 変形例としての視覚処理装置600の構造を説明するブロック図(第2実施形態)Block diagram for explaining the structure of a visual processing device 600 as a modification (second embodiment) 視覚処理装置910の構造を説明するブロック図(第3実施形態)Block diagram for explaining the structure of the visual processing device 910 (third embodiment) 視覚処理装置920の構造を説明するブロック図(第3実施形態)Block diagram for explaining the structure of the visual processing device 920 (third embodiment) 視覚処理装置920’の構造を説明するブロック図(第3実施形態)Block diagram for explaining the structure of the visual processing device 920 '(third embodiment) 視覚処理装置920”の構造を説明するブロック図(第3実施形態)Block diagram for explaining the structure of the visual processing device 920 ″ (third embodiment) 視覚処理装置101の構造を説明するブロック図(第4実施形態)Block diagram for explaining the structure of the visual processing device 101 (fourth embodiment) 画像領域Pmについて説明する説明図(第4実施形態)Explanatory drawing explaining image area Pm (4th Embodiment). 明度ヒストグラムHmについて説明する説明図(第4実施形態)Explanatory drawing explaining brightness histogram Hm (4th Embodiment) 階調変換曲線Cmについて説明する説明図(第4実施形態)Explanatory drawing explaining the gradation conversion curve Cm (4th Embodiment) 視覚処理方法について説明するフローチャート(第4実施形態)Flowchart for explaining visual processing method (fourth embodiment) 視覚処理装置111の構造を説明するブロック図(第5実施形態)Block diagram for explaining the structure of the visual processing device 111 (fifth embodiment) 階調変換曲線候補G1〜Gpについて説明する説明図(第5実施形態)Explanatory drawing explaining gradation conversion curve candidate G1-Gp (5th Embodiment). 2次元LUT141について説明する説明図(第5実施形態)Explanatory drawing explaining 2D LUT141 (5th Embodiment). 階調補正部115の動作について説明する説明図(第5実施形態)Explanatory drawing explaining operation | movement of the gradation correction | amendment part 115 (5th Embodiment). 視覚処理方法について説明するフローチャート(第5実施形態)Flowchart explaining visual processing method (fifth embodiment) 階調変換曲線Cmの選択の変形例について説明する説明図(第5実施形態)Explanatory drawing explaining the modification of selection of the gradation conversion curve Cm (5th Embodiment). 変形例としての階調処理について説明する説明図(第5実施形態)Explanatory drawing explaining gradation processing as a modification (fifth embodiment) 階調処理実行部144の構造を説明するブロック図(第5実施形態)Block diagram for explaining the structure of the gradation processing execution unit 144 (fifth embodiment) 曲線パラメータP1およびP2と、階調変換曲線候補G1〜Gpとの関係について説明する説明図(第5実施形態)Explanatory drawing explaining the relationship between curve parameter P1 and P2 and gradation conversion curve candidate G1-Gp (5th Embodiment). 曲線パラメータP1およびP2と、選択信号Smとの関係について説明する説明図(第5実施形態)Explanatory drawing explaining the relationship between the curve parameters P1 and P2 and the selection signal Sm (5th Embodiment). 曲線パラメータP1およびP2と、選択信号Smとの関係について説明する説明図(第5実施形態)Explanatory drawing explaining the relationship between the curve parameters P1 and P2 and the selection signal Sm (5th Embodiment). 曲線パラメータP1およびP2と、階調変換曲線候補G1〜Gpとの関係について説明する説明図(第5実施形態)Explanatory drawing explaining the relationship between curve parameter P1 and P2 and gradation conversion curve candidate G1-Gp (5th Embodiment). 曲線パラメータP1およびP2と、選択信号Smとの関係について説明する説明図(第5実施形態)Explanatory drawing explaining the relationship between the curve parameters P1 and P2 and the selection signal Sm (5th Embodiment). 視覚処理装置121の構造を説明するブロック図(第6実施形態)Block diagram for explaining the structure of the visual processing device 121 (sixth embodiment) 選択信号補正部124の動作について説明する説明図(第6実施形態)Explanatory drawing explaining operation | movement of the selection signal correction | amendment part 124 (6th Embodiment). 視覚処理方法について説明するフローチャート(第6実施形態)Flowchart explaining visual processing method (sixth embodiment) 視覚処理装置161の構造を説明するブロック図(第7実施形態)Block diagram for explaining the structure of the visual processing device 161 (seventh embodiment) 空間処理部162の空間処理について説明する説明図(第7実施形態)Explanatory drawing explaining the spatial processing of the spatial processing part 162 (7th Embodiment). 重み係数[Wij]について説明する表(第7実施形態)Table for explaining weighting factor [Wij] (seventh embodiment) 視覚処理装置161による視覚処理の効果を説明する説明図(第7実施形態)Explanatory drawing explaining the effect of the visual processing by the visual processing device 161 (7th Embodiment) 視覚処理装置961の構造を説明するブロック図(第7実施形態)Block diagram for explaining the structure of the visual processing device 961 (seventh embodiment) 空間処理部962の空間処理について説明する説明図(第7実施形態)Explanatory drawing explaining the spatial processing of the spatial processing part 962 (7th Embodiment). 重み係数[Wij]について説明する表(第7実施形態)Table for explaining weighting factor [Wij] (seventh embodiment) コンテンツ供給システムの全体構成について説明するブロック図(第9実施形態)Block diagram for explaining the overall configuration of the content supply system (9th embodiment) 本発明の視覚処理装置を搭載する携帯電話の例(第9実施形態)Example of a mobile phone equipped with the visual processing device of the present invention (9th embodiment) 携帯電話の構成について説明するブロック図(第9実施形態)Block diagram for explaining the configuration of a mobile phone (9th embodiment) ディジタル放送用システムの例(第9実施形態)Example of digital broadcasting system (9th embodiment) 表示装置720の構造を説明するブロック図(第10実施形態)FIG. 10 is a block diagram for explaining the structure of a display device 720 (a tenth embodiment). 画像処理装置723の構造を説明するブロック図(第10実施形態)FIG. 10 is a block diagram for explaining the structure of an image processing device 723 (a tenth embodiment). プロファイル情報出力部747の構造を説明するブロック図(第10実施形態)Block diagram for explaining the structure of the profile information output unit 747 (10th embodiment) カラー視覚処理装置745の構造を説明するブロック図(第10実施形態)Block diagram for explaining the structure of the color visual processing device 745 (10th embodiment) 視覚処理装置753の構造を説明するブロック図(第10実施形態)Block diagram for explaining the structure of the visual processing device 753 (10th embodiment) 変形例としての視覚処理装置753の動作について説明する説明図(第10実施形態)Explanatory drawing explaining operation | movement of the visual processing apparatus 753 as a modification (10th Embodiment). 視覚処理装置753aの構造を説明するブロック図(第10実施形態)Block diagram for explaining the structure of the visual processing device 753a (10th embodiment) 視覚処理装置753bの構造を説明するブロック図(第10実施形態)Block diagram for explaining the structure of the visual processing device 753b (10th embodiment) 視覚処理装置753cの構造を説明するブロック図(第10実施形態)Block diagram for explaining the structure of the visual processing device 753c (tenth embodiment) 画像処理装置770の構造を説明するブロック図(第10実施形態)FIG. 10 is a block diagram for explaining the structure of an image processing device 770 (tenth embodiment). ユーザ入力部772の構造を説明するブロック図(第10実施形態)Block diagram for explaining the structure of the user input unit 772 (tenth embodiment) 画像処理装置800の構造を説明するブロック図(第10実施形態)FIG. 10 is a block diagram for explaining the structure of an image processing apparatus 800 (a tenth embodiment). 入力画像信号d362のフォーマットの一例(第10実施形態)Example of format of input image signal d362 (tenth embodiment) 属性判定部802の構造を説明するブロック図(第10実施形態)FIG. 10 is a block diagram for explaining the structure of the attribute determination unit 802 (a tenth embodiment). 入力画像信号d362のフォーマットの一例(第10実施形態)Example of format of input image signal d362 (tenth embodiment) 入力画像信号d362のフォーマットの一例(第10実施形態)Example of format of input image signal d362 (tenth embodiment) 入力画像信号d362のフォーマットの一例(第10実施形態)Example of format of input image signal d362 (tenth embodiment) 入力画像信号d362のフォーマットの一例(第10実施形態)Example of format of input image signal d362 (tenth embodiment) 入力画像信号d362のフォーマットの一例(第10実施形態)Example of format of input image signal d362 (tenth embodiment) 撮影装置820の構造を説明するブロック図(第11実施形態)FIG. 11 is a block diagram for explaining the structure of a photographing apparatus 820 (an eleventh embodiment). 画像処理装置832の構造を説明するブロック図(第11実施形態)FIG. 11 is a block diagram for explaining the structure of an image processing apparatus 832 (an eleventh embodiment). 画像処理装置886の構造を説明するブロック図(第11実施形態)Block diagram for explaining the structure of the image processing device 886 (11th embodiment) 出力画像信号d361のフォーマットの一例(第11実施形態)Example of format of output image signal d361 (11th embodiment) 画像処理装置894の構造を説明するブロック図(第11実施形態)Block diagram for explaining the structure of an image processing device 894 (11th embodiment) 画像処理装置896の構造を説明するブロック図(第11実施形態)Block diagram for explaining the structure of an image processing device 896 (11th embodiment) 画像処理装置898の構造を説明するブロック図(第11実施形態)FIG. 11 is a block diagram for explaining the structure of an image processing apparatus 898 (an eleventh embodiment). 画像処理装置870の構造を説明するブロック図(第11実施形態)FIG. 11 is a block diagram for explaining the structure of an image processing apparatus 870 (an eleventh embodiment). 画像処理装置870の動作について説明する説明図(第11実施形態)Explanatory drawing explaining operation | movement of the image processing apparatus 870 (11th Embodiment). 視覚処理装置300の構造を説明するブロック図(背景技術)Block diagram for explaining the structure of the visual processing device 300 (background art) 画像領域Smについて説明する説明図(背景技術)Explanatory drawing explaining image area Sm (background art) 明度ヒストグラムHmについて説明する説明図(背景技術)Explanatory drawing explaining brightness histogram Hm (background art) 階調変換曲線Cmについて説明する説明図(背景技術)Explanatory drawing explaining the gradation conversion curve Cm (background art) アンシャープマスキングを利用した視覚処理装置400の構造を説明するブロック図(背景技術)Block diagram for explaining the structure of a visual processing device 400 using unsharp masking (background art) 強調関数R1〜R3について説明する説明図(背景技術)Explanatory drawing explaining the enhancement functions R1 to R3 (background art) 局所コントラストの改善を行う視覚処理装置406の構造を説明するブロック図(背景技術)Block diagram for explaining the structure of a visual processing device 406 for improving local contrast (background art) ダイナミックレンジの圧縮を行う視覚処理装置416の構造を説明するブロック図(背景技術)Block diagram for explaining the structure of a visual processing device 416 that performs dynamic range compression (background art)

符号の説明Explanation of symbols

1 視覚処理装置
2 空間処理部
3 視覚処理部
4 2次元LUT
IS 入力信号
US アンシャープ信号
OS 出力信号
TIS 変換入力信号
TUS 変換アンシャープ信号
DS 差分信号
TS 強調処理信号
PS 加算信号
RS 除算信号
DRS DR圧縮信号
MS 乗算信号
IC 強調量調整信号
GC 階調補正信号
DESCRIPTION OF SYMBOLS 1 Visual processing apparatus 2 Spatial processing part 3 Visual processing part 4 Two-dimensional LUT
IS input signal US unsharp signal OS output signal TIS conversion input signal TUS conversion unsharp signal DS differential signal TS enhancement processing signal PS addition signal RS division signal DRS DR compression signal MS multiplication signal IC enhancement amount adjustment signal GC gradation correction signal

Claims (49)

入力された画像信号に対して所定の処理を行い、処理信号を出力する入力信号処理手段と、
入力された前記画像信号および前記処理信号と、視覚処理された前記画像信号である出力信号との変換関係を与える変換手段に基づいて、入力された前記画像信号を変換し、前記出力信号を出力する視覚処理手段と、
を備えた視覚処理装置。
Input signal processing means for performing predetermined processing on the input image signal and outputting the processed signal;
The input image signal is converted and the output signal is output based on conversion means for providing a conversion relationship between the input image signal and the processed signal and the output signal that is the visually processed image signal. Visual processing means to
A visual processing device comprising:
前記処理信号は、前記画像信号が含む着目画素および前記着目画素の周囲画素に対して前記所定の処理を行った信号である、
請求項1に記載の視覚処理装置。
The processing signal is a signal obtained by performing the predetermined processing on the target pixel included in the image signal and the surrounding pixels of the target pixel.
The visual processing device according to claim 1.
前記変換手段が与える前記変換関係は、前記画像信号の少なくとも一部または前記処理信号の少なくとも一部と、前記出力信号の少なくとも一部とが非線形となる関係である、請求項1に記載の視覚処理装置。   The visual perception according to claim 1, wherein the conversion relationship provided by the conversion means is a relationship in which at least a part of the image signal or at least a part of the processing signal and at least a part of the output signal are nonlinear. Processing equipment. 前記変換手段が与える前記変換関係は、前記画像信号および前記処理信号の両方と、前記出力信号とが非線形となる関係である、
請求項3に記載の視覚処理装置。
The conversion relationship given by the conversion means is a relationship in which both the image signal and the processed signal and the output signal are nonlinear.
The visual processing device according to claim 3.
前記変換手段が与える前記変換関係は、前記画像信号と前記処理信号とから算出された値を強調する演算に基づいて定められている、
請求項1〜4のいずれかに記載の視覚処理装置。
The conversion relationship given by the conversion means is determined based on an operation that emphasizes a value calculated from the image signal and the processed signal.
The visual processing device according to claim 1.
前記強調する演算は、非線形の関数である、
請求項5に記載の視覚処理装置。
The operation to be emphasized is a non-linear function.
The visual processing device according to claim 5.
前記強調する演算は、前記画像信号または前記処理信号を変換した値を用いる変換である、
請求項5または6に記載の視覚処理装置。
The calculation for enhancing is conversion using a value obtained by converting the image signal or the processing signal.
The visual processing device according to claim 5 or 6.
前記強調する演算は、前記画像信号と前記処理信号とを変換したそれぞれの変換値の差を強調する強調関数である、
請求項5〜7のいずれかに記載の視覚処理装置。
The enhancement operation is an enhancement function that enhances a difference between respective converted values obtained by converting the image signal and the processing signal.
The visual processing device according to claim 5.
前記強調する演算は、前記画像信号と前記処理信号との比を強調する強調関数である、請求項5〜8のいずれかに記載の視覚処理装置。   The visual processing device according to claim 5, wherein the enhancement operation is an enhancement function that enhances a ratio between the image signal and the processing signal. 前記変換手段が与える前記変換関係は、明るさを変える変換に基づいて定められている、
請求項1または2に記載の視覚処理装置。
The conversion relationship given by the conversion means is determined based on conversion that changes brightness.
The visual processing device according to claim 1.
前記明るさを変える変換は、前記画像信号のレベルまたはゲインを変化させる変換である、
請求項10に記載の視覚処理装置。
The conversion that changes the brightness is a conversion that changes the level or gain of the image signal.
The visual processing device according to claim 10.
前記明るさを変える変換は、前記処理信号に基づいて定められる変換である、
請求項10に記載の視覚処理装置。
The conversion for changing the brightness is a conversion determined based on the processing signal.
The visual processing device according to claim 10.
前記明るさを変える変換は、前記処理信号に対して単調減少する前記出力信号を出力する変換である、
請求項10に記載の視覚処理装置。
The conversion that changes the brightness is a conversion that outputs the output signal that monotonously decreases with respect to the processing signal.
The visual processing device according to claim 10.
前記変換手段は、前記画像信号と前記出力信号との関係を、複数の階調変換曲線からなる階調変換曲線群として格納する、
請求項1〜13のいずれかに記載の視覚処理装置。
The conversion means stores the relationship between the image signal and the output signal as a gradation conversion curve group composed of a plurality of gradation conversion curves.
The visual processing device according to claim 1.
前記処理信号は、前記複数の階調変換曲線群から対応する階調変換曲線を選択するための信号である、
請求項14に記載の視覚処理装置。
The processing signal is a signal for selecting a corresponding gradation conversion curve from the plurality of gradation conversion curve groups.
The visual processing device according to claim 14.
前記処理信号の値は、前記複数の階調変換曲線群が含む少なくとも1つの階調変換曲線と関連づけられている、
請求項15に記載の視覚処理装置。
The value of the processing signal is associated with at least one gradation conversion curve included in the plurality of gradation conversion curve groups.
The visual processing device according to claim 15.
前記変換手段は、ルックアップテーブル(以下、LUTという)で構成され、前記LUTには、所定の演算によってあらかじめ作成されるプロファイルデータが登録されている、
請求項1〜16のいずれかに記載の視覚処理装置。
The conversion means is configured by a look-up table (hereinafter referred to as LUT), and profile data created in advance by a predetermined calculation is registered in the LUT.
The visual processing device according to claim 1.
前記LUTは、プロファイルデータの登録により変更可能である、
請求項17に記載の視覚処理装置。
The LUT can be changed by registering profile data.
The visual processing device according to claim 17.
前記プロファイルデータを前記視覚処理手段に登録させるためのプロファイルデータ登録手段、
をさらに備えた請求項17または18に記載の視覚処理装置。
Profile data registration means for causing the visual processing means to register the profile data;
The visual processing device according to claim 17 or 18, further comprising:
前記視覚処理手段は、外部の装置により作成された前記プロファイルデータを取得する、
請求項19に記載の視覚処理装置。
The visual processing means obtains the profile data created by an external device;
The visual processing device according to claim 19.
取得された前記プロファイルデータにより、前記LUTは変更可能である、
請求項20に記載の視覚処理装置。
The LUT can be changed by the acquired profile data.
The visual processing device according to claim 20.
前記視覚処理手段は、通信網を介して前記プロファイルデータを取得する、
請求項20または21に記載の視覚処理装置。
The visual processing means obtains the profile data via a communication network;
The visual processing device according to claim 20 or 21.
前記プロファイルデータを作成するプロファイルデータ作成手段、
をさらに備えた請求項17に記載の視覚処理装置。
Profile data creating means for creating the profile data;
The visual processing device according to claim 17, further comprising:
前記プロファイルデータ作成手段は、前記画像信号の階調特性のヒストグラムに基づいて、前記プロファイルデータを作成する、
請求項23に記載の視覚処理装置。
The profile data creating means creates the profile data based on a histogram of gradation characteristics of the image signal.
The visual processing device according to claim 23.
前記LUTに登録される前記プロファイルデータは、所定の条件に応じて切り替えられる、
請求項17に記載の視覚処理装置。
The profile data registered in the LUT is switched according to a predetermined condition.
The visual processing device according to claim 17.
前記所定の条件とは、明るさに関する条件である、
請求項25に記載の視覚処理装置。
The predetermined condition is a condition relating to brightness.
The visual processing device according to claim 25.
前記明るさは、前記画像信号の明るさである、
請求項26に記載の視覚処理装置。
The brightness is the brightness of the image signal.
The visual processing device according to claim 26.
前記画像信号の明るさを判定する明度判定手段をさらに備え、
前記LUTに登録されるプロファイルデータは、前記明度判定手段の判定結果に応じて切り替えられる、
請求項27に記載の視覚処理装置。
A lightness determination means for determining the brightness of the image signal;
The profile data registered in the LUT is switched according to the determination result of the lightness determination means.
The visual processing device according to claim 27.
前記明るさに関する条件を入力させる明度入力手段をさらに備え、
前記LUTに登録されるプロファイルデータは、前記明度入力手段の入力結果に応じて切り替えられる、
請求項26に記載の視覚処理装置。
Further comprising a brightness input means for inputting conditions relating to the brightness;
The profile data registered in the LUT is switched according to the input result of the brightness input means.
The visual processing device according to claim 26.
前記明度入力手段は、前記出力信号の出力環境の明るさ、あるいは前記入力信号の入力環境の明るさを入力させる、
請求項29に記載の視覚処理装置。
The brightness input means inputs the brightness of the output environment of the output signal, or the brightness of the input environment of the input signal.
30. The visual processing device according to claim 29.
前記明るさを少なくとも2種類検出する明度検出手段をさらに備え、
前記LUTに登録されるプロファイルデータは、前記明度検出手段の検出結果に応じて切り替えられる、
請求項26に記載の視覚処理装置。
A brightness detecting means for detecting at least two types of brightness;
The profile data registered in the LUT is switched according to the detection result of the brightness detection means.
The visual processing device according to claim 26.
前記明度検出手段が検出する前記明るさは、前記画像信号の明るさと、前記出力信号の出力環境の明るさ、あるいは前記入力信号の入力環境の明るさとを含む、
請求項31に記載の視覚処理装置。
The brightness detected by the brightness detection means includes the brightness of the image signal and the brightness of the output environment of the output signal or the brightness of the input environment of the input signal.
The visual processing device according to claim 31.
前記LUTに登録される前記プロファイルデータの選択を行わせるプロファイルデータ選択手段をさらに備え、
前記LUTに登録されるプロファイルデータは、前記プロファイルデータ選択手段の選択結果に応じて切り替えられる、
請求項25に記載の視覚処理装置。
Profile data selection means for selecting the profile data registered in the LUT;
The profile data registered in the LUT is switched according to the selection result of the profile data selection means.
The visual processing device according to claim 25.
前記プロファイルデータ選択手段は、プロファイルの選択を行うための入力装置である、
請求項33に記載の視覚処理装置。
The profile data selection means is an input device for selecting a profile.
The visual processing device according to claim 33.
前記画像信号の画像特性を判断する画像特性判断手段をさらに備え、
前記LUTに登録されるプロファイルデータは、前記画像特性判断手段の判断結果に応じて切り替えられる、
請求項25に記載の視覚処理装置。
An image characteristic determining means for determining an image characteristic of the image signal;
The profile data registered in the LUT is switched according to the determination result of the image characteristic determination means.
The visual processing device according to claim 25.
ユーザを識別するユーザ識別手段をさらに備え、
前記LUTに登録されるプロファイルデータは、ユーザ識別手段の識別結果に応じて切り替えられる、
請求項25に記載の視覚処理装置。
A user identification means for identifying the user;
The profile data registered in the LUT is switched according to the identification result of the user identification means.
The visual processing device according to claim 25.
前記視覚処理手段は、前記LUTの格納する値を補間演算して前記出力信号を出力する、請求項17に記載の視覚処理装置。   The visual processing device according to claim 17, wherein the visual processing means performs an interpolation operation on a value stored in the LUT and outputs the output signal. 前記補間演算は、2進数で表された前記画像信号あるいは前記処理信号の少なくとも一方の下位ビットの値に基づいた線形補間である、
請求項37に記載の視覚処理装置。
The interpolation calculation is linear interpolation based on the value of at least one lower bit of the image signal or the processing signal expressed in binary number.
The visual processing device according to claim 37.
前記入力信号処理手段は、前記画像信号に対して空間処理を行う、
請求項1〜38のいずれかに記載の視覚処理装置。
The input signal processing means performs spatial processing on the image signal.
The visual processing device according to claim 1.
前記入力信号処理手段は、前記画像信号からアンシャープ信号を生成する、
請求項39に記載の視覚処理装置。
The input signal processing means generates an unsharp signal from the image signal;
40. A visual processing device according to claim 39.
前記空間処理では、画像信号の平均値、最大値あるいは最小値が導出される、
請求項39または40に記載の視覚処理装置。
In the spatial processing, an average value, a maximum value, or a minimum value of the image signal is derived.
The visual processing device according to claim 39 or 40.
前記視覚処理手段は、入力された前記画像信号及び前記処理信号を用いて、空間処理及び階調処理を行う、
請求項1〜41のいずれかに記載の視覚処理装置。
The visual processing means performs spatial processing and gradation processing using the input image signal and processing signal.
The visual processing device according to claim 1.
入力された画像信号に対して所定の処理を行い、処理信号を出力する入力信号処理ステップと、
入力された前記画像信号および前記処理信号と、視覚処理された前記画像信号である出力信号との変換関係を与える変換手段に基づいて、入力された前記画像信号を変換し、前記出力信号を出力する視覚処理ステップと、
を備えた視覚処理方法。
An input signal processing step for performing predetermined processing on the input image signal and outputting the processed signal;
The input image signal is converted and the output signal is output based on conversion means for providing a conversion relationship between the input image signal and the processed signal and the output signal that is the visually processed image signal. Visual processing steps to
Visual processing method with
コンピュータにより視覚処理方法を行うための視覚処理プログラムであって、
前記視覚処理プログラムは、
入力された画像信号に対して所定の処理を行い、処理信号を出力する入力信号処理ステップと、
入力された前記画像信号および前記処理信号と、視覚処理された前記画像信号である出力信号との変換関係を与える変換手段に基づいて、入力された前記画像信号を変換し、前記出力信号を出力する視覚処理ステップと、
を備えた視覚処理方法をコンピュータに行わせるものである、
視覚処理プログラム。
A visual processing program for performing a visual processing method by a computer,
The visual processing program is:
An input signal processing step for performing predetermined processing on the input image signal and outputting the processed signal;
The input image signal is converted and the output signal is output based on conversion means for providing a conversion relationship between the input image signal and the processed signal and the output signal that is the visually processed image signal. Visual processing steps to
A computer for performing a visual processing method comprising:
Visual processing program.
請求項1〜42のいずれかに記載の視覚処理装置を含む、
集積回路。
Including the visual processing device according to claim 1,
Integrated circuit.
請求項1〜42のいずれかに記載の視覚処理装置と、
前記視覚処理装置から出力される前記出力信号の表示を行う表示手段と、
を備える表示装置。
A visual processing device according to any one of claims 1 to 42;
Display means for displaying the output signal output from the visual processing device;
A display device comprising:
画像の撮影を行う撮影手段と、
前記撮影手段により撮影された画像を前記画像信号として視覚処理を行う請求項1〜42のいずれかに記載の視覚処理装置と、
を備える撮影装置。
Photographing means for photographing images;
The visual processing device according to any one of claims 1 to 42, wherein visual processing is performed using the image captured by the imaging unit as the image signal.
An imaging device comprising:
通信あるいは放送された画像データを受信するデータ受信手段と、
受信された前記画像データを前記画像信号として視覚処理を行う請求項1〜42のいずれかに記載の視覚処理装置と、
前記視覚処理装置により視覚処理された前記画像信号の表示を行う表示手段と、
を備える携帯情報端末。
Data receiving means for receiving communication or broadcast image data;
The visual processing device according to any one of claims 1 to 42, wherein visual processing is performed using the received image data as the image signal.
Display means for displaying the image signal visually processed by the visual processing device;
A portable information terminal comprising:
画像の撮影を行う撮影手段と、
前記撮影手段により撮影された画像を前記画像信号として視覚処理を行う請求項1〜42のいずれかに記載の視覚処理装置と、
前記視覚処理された前記画像信号を送信するデータ送信手段と、
を備える携帯情報端末。
Photographing means for photographing images;
The visual processing device according to any one of claims 1 to 42, wherein visual processing is performed using the image captured by the imaging unit as the image signal.
Data transmission means for transmitting the visually processed image signal;
A portable information terminal comprising:
JP2004264003A 2003-09-11 2004-09-10 Visual processing device, visual processing method, visual processing program, integrated circuit, display device, photographing device, and portable information terminal Expired - Lifetime JP4126297B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004264003A JP4126297B2 (en) 2003-09-11 2004-09-10 Visual processing device, visual processing method, visual processing program, integrated circuit, display device, photographing device, and portable information terminal

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003320061 2003-09-11
JP2003433324 2003-12-26
JP2004169693 2004-06-08
JP2004264003A JP4126297B2 (en) 2003-09-11 2004-09-10 Visual processing device, visual processing method, visual processing program, integrated circuit, display device, photographing device, and portable information terminal

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008012160A Division JP4481333B2 (en) 2003-09-11 2008-01-23 Visual processing device, visual processing method, image display device, television, portable information terminal, camera, and processor

Publications (3)

Publication Number Publication Date
JP2006024176A true JP2006024176A (en) 2006-01-26
JP2006024176A5 JP2006024176A5 (en) 2007-12-06
JP4126297B2 JP4126297B2 (en) 2008-07-30

Family

ID=35797378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004264003A Expired - Lifetime JP4126297B2 (en) 2003-09-11 2004-09-10 Visual processing device, visual processing method, visual processing program, integrated circuit, display device, photographing device, and portable information terminal

Country Status (1)

Country Link
JP (1) JP4126297B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007122966A1 (en) * 2006-04-19 2007-11-01 Panasonic Corporation Visual processing device, visual processing method, program, display device, and integrated circuit
JP2009265114A (en) * 2008-04-21 2009-11-12 Sharp Corp Liquid crystal display device
US7692644B2 (en) 2006-10-13 2010-04-06 Hitachi Displays, Ltd. Display apparatus
US7881549B2 (en) 2005-10-12 2011-02-01 Panasonic Corporaiton Visual processing device, display device, visual processing method, program, and integrated circuit
US7881550B2 (en) 2006-04-28 2011-02-01 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display device, and integrated circuit
US7920183B2 (en) 2007-09-13 2011-04-05 Panasonic Corporation Image processing device and digital camera
US8106954B2 (en) 2007-07-31 2012-01-31 Panasonic Corporation Imaging apparatus and method that reduces illumination variations by converting a luminance value of a target pixel depending on an average luminance value of pixels in the vicinity of the target pixel
US8169500B2 (en) 2008-05-30 2012-05-01 Panasonic Corporation Dynamic range compression apparatus, dynamic range compression method, computer-readable recording medium, integrated circuit, and imaging apparatus
JP5202749B1 (en) * 2012-09-03 2013-06-05 正浩 小林 Image processing method
JP2016136445A (en) * 2011-05-11 2016-07-28 アイキューブド研究所株式会社 Image processing apparatus, image processing method, and program
EP4277259A1 (en) * 2022-05-13 2023-11-15 Sick Ag Image capture and brightness adjustment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101030864B1 (en) * 2003-09-11 2011-04-22 파나소닉 주식회사 Visual processing device, visual processing method, visual processing program, integrated circuit, display device, imaging device, and mobile information terminal

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311357B2 (en) 2005-10-12 2012-11-13 Panasonic Corporation Visual processing device, display device, visual processing method, program, and integrated circuit
US7881549B2 (en) 2005-10-12 2011-02-01 Panasonic Corporaiton Visual processing device, display device, visual processing method, program, and integrated circuit
US7894684B2 (en) 2006-04-19 2011-02-22 Panasonic Corporation Visual processing device, visual processing method, program, display device, and integrated circuit
US8406547B2 (en) 2006-04-19 2013-03-26 Panasonic Corporation Visual processing device, visual processing method, program, display device, and integrated circuit
WO2007122966A1 (en) * 2006-04-19 2007-11-01 Panasonic Corporation Visual processing device, visual processing method, program, display device, and integrated circuit
US7881550B2 (en) 2006-04-28 2011-02-01 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display device, and integrated circuit
US7903898B2 (en) 2006-04-28 2011-03-08 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display device, and integrated circuit
US8401324B2 (en) 2006-04-28 2013-03-19 Panasonic Corporation Visual processing apparatus, visual processing method, program, recording medium, display device, and integrated circuit
US7692644B2 (en) 2006-10-13 2010-04-06 Hitachi Displays, Ltd. Display apparatus
US8106954B2 (en) 2007-07-31 2012-01-31 Panasonic Corporation Imaging apparatus and method that reduces illumination variations by converting a luminance value of a target pixel depending on an average luminance value of pixels in the vicinity of the target pixel
US7920183B2 (en) 2007-09-13 2011-04-05 Panasonic Corporation Image processing device and digital camera
JP2009265114A (en) * 2008-04-21 2009-11-12 Sharp Corp Liquid crystal display device
US8169500B2 (en) 2008-05-30 2012-05-01 Panasonic Corporation Dynamic range compression apparatus, dynamic range compression method, computer-readable recording medium, integrated circuit, and imaging apparatus
JP2016136445A (en) * 2011-05-11 2016-07-28 アイキューブド研究所株式会社 Image processing apparatus, image processing method, and program
JP5202749B1 (en) * 2012-09-03 2013-06-05 正浩 小林 Image processing method
EP4277259A1 (en) * 2022-05-13 2023-11-15 Sick Ag Image capture and brightness adjustment

Also Published As

Publication number Publication date
JP4126297B2 (en) 2008-07-30

Similar Documents

Publication Publication Date Title
JP4481333B2 (en) Visual processing device, visual processing method, image display device, television, portable information terminal, camera, and processor
JP2008159069A5 (en)
JP4688945B2 (en) Visual processing device, visual processing method, television, portable information terminal, camera and processor
JP4857360B2 (en) Visual processing device, visual processing method, television, portable information terminal, camera and processor
JP4157592B2 (en) Visual processing device, display device, visual processing method, program, and integrated circuit
JP4437150B2 (en) Visual processing device, display device, visual processing method, program, and integrated circuit
JP2009211708A (en) Gray-scale conversion processor, television, information portable terminal, camera, gray-scale conversion processing method, and processor
WO2005027040A1 (en) Image processing apparatus, image processing method, and image processing program
JP2007312349A (en) Visual processing device, display device, and integrated circuit
JP4126297B2 (en) Visual processing device, visual processing method, visual processing program, integrated circuit, display device, photographing device, and portable information terminal
JP2006024176A5 (en)
JP4414307B2 (en) Visual processing device, visual processing method, visual processing program, and semiconductor device
JP2006042294A (en) Image processing device, image processing method, and image processing program
JP4414464B2 (en) Visual processing device, visual processing method, visual processing program, and semiconductor device
JP4126298B2 (en) Visual processing device, visual processing method, visual processing program, and semiconductor device
JP2005322205A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071023

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20071030

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20071106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071128

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080415

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080512

R150 Certificate of patent or registration of utility model

Ref document number: 4126297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250