[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2001008224A - Image storage device, image reproducing device, image storage method, image reproducing method and recording medium - Google Patents

Image storage device, image reproducing device, image storage method, image reproducing method and recording medium

Info

Publication number
JP2001008224A
JP2001008224A JP11176543A JP17654399A JP2001008224A JP 2001008224 A JP2001008224 A JP 2001008224A JP 11176543 A JP11176543 A JP 11176543A JP 17654399 A JP17654399 A JP 17654399A JP 2001008224 A JP2001008224 A JP 2001008224A
Authority
JP
Japan
Prior art keywords
image
data
component data
influence
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11176543A
Other languages
Japanese (ja)
Inventor
Fumiko Uchino
文子 内野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP11176543A priority Critical patent/JP2001008224A/en
Publication of JP2001008224A publication Critical patent/JP2001008224A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Image Communication Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image, resulting from revising a lighting environment, on a photographing object. SOLUTION: Image data are acquired (step ST11), and a spectrum distribution of a lighting light at photographing is acquired from a multi-band sensor as lighting component data (step ST12). Then object color component data equivalent to spectral reflectance of the photographing object are obtained by using the image data and the lighting component data (step ST13). Then the obtained lighting component data and the obtained object color component data are stored in such a way that they are extracted respectively independently (step ST14). Thus, data denoting the effect of a lighting environment on an image and data denoting a component of eliminating the effect of the lighting environment from the image are individually stored. As a result, arbitrary lighting component data can be combined with the object color component data at reproduction, so as to obtain an image with the lighting environment onto the photographing object revised.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、デジタルカメラ
やスキャナ等により取得される画像を、照明環境を変更
した画像へと変換する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for converting an image obtained by a digital camera, a scanner, or the like into an image having a changed lighting environment.

【0002】[0002]

【従来の技術】従来より、デジタルカメラやスキャナ等
の画像入力装置によりデジタルデータとして取得される
画像に対し、画像の色合いや雰囲気を修正する画像処理
が行われている。このような処理の代表的なものとし
て、ホワイトバランスに基づく色の修正がある。ホワイ
トバランスに基づく修正では、画像の全体的な色のバラ
ンスに基づいて白い物体が白く見えるように画像を修正
し、これにより、撮像対象への照明光の色の影響が画像
からある程度取り除かれ、人間の視覚に合った画像へと
修正される。
2. Description of the Related Art Conventionally, image processing for correcting the color tone and atmosphere of an image obtained as digital data by an image input device such as a digital camera or a scanner has been performed. A representative example of such processing is color correction based on white balance. The white balance based correction corrects the image so that white objects appear white based on the overall color balance of the image, thereby removing some of the color effects of the illumination light on the imaged object from the image, The image is corrected to fit the human vision.

【0003】[0003]

【発明が解決しようとする課題】従来よりなされてきた
画像の色合いの修正は、人間の視覚に合わせた修正や色
合いの微妙な修正を目的としている。したがって、元の
画像のデータと色合いの修正に関するデータとが分離し
て取り扱われることはない。例えば、修正された画像は
RGBの輝度情報として一体的に保存される。
The correction of the color of an image, which has been conventionally performed, is aimed at correcting the color to match human vision and fine correction of the color. Therefore, the data of the original image and the data relating to the color correction are not handled separately. For example, the corrected image is integrally stored as RGB luminance information.

【0004】その一方で、ある画像が観察者に与える感
覚を他の画像に含めるために画像の色合いを修正するこ
とが望まれる場合がある。すなわち、ある画像が撮影さ
れた際の照明環境により演出される雰囲気を他の照明環
境にて撮影された画像に取り込みたい場合がある。な
お、照明環境とは、光源の特性みならず撮影対象の周囲
の条件を考慮した照明に係る環境をいうものとする。
[0004] On the other hand, it may be desirable to modify the hue of an image in order to include the sensation that one image gives an observer to another image. That is, there is a case where it is desired to capture the atmosphere produced by the lighting environment when a certain image is shot into an image shot in another lighting environment. Note that the illumination environment refers to an environment relating to illumination in consideration of not only the characteristics of the light source but also the surrounding conditions of the imaging target.

【0005】ところが、従来より画像のデータは一体的
なデータとして扱われることから、ある画像において照
明環境が演出する雰囲気を他の画像に取り込むことは不
可能であった。また、画像の色合いの修正により特定の
照明環境が演出する雰囲気を導き出そうとしても、画像
全体に対して一律に色合いを変更するのみでは不自然な
画像となってしまう。
However, conventionally, since image data is handled as integrated data, it has been impossible to capture the atmosphere produced by the lighting environment in one image into another image. Further, even if an attempt is made to derive an atmosphere produced by a specific lighting environment by correcting the color of the image, simply changing the color of the entire image will result in an unnatural image.

【0006】そこで、この発明は上記課題に鑑みなされ
たものであり、撮影対象への照明環境を変更した画像を
適切に得ることを目的としている。
Accordingly, the present invention has been made in view of the above-described problems, and has as its object to appropriately obtain an image in which the illumination environment for a photographing object is changed.

【0007】[0007]

【課題を解決するための手段】請求項1の発明は、照明
環境が画像に与える影響を示す第1データを取得する手
段と、前記画像において前記照明環境の影響を取り除い
た成分を第2データとして取得する手段と、前記第2デ
ータを独立して取り出し可能な状態で保存する手段とを
備える。
According to the first aspect of the present invention, there is provided means for acquiring first data indicating an influence of a lighting environment on an image, and a second data for removing a component of the image from which the influence of the lighting environment has been removed. And a means for storing the second data in an independently retrievable state.

【0008】請求項2の発明は、請求項1に記載の画像
保存装置であって、前記第2データが、複数の基底関数
および対応する複数の加重係数を含むデータである。
According to a second aspect of the present invention, in the image storage device according to the first aspect, the second data is data including a plurality of basis functions and a plurality of corresponding weighting coefficients.

【0009】請求項3の発明は、請求項1または2に記
載の画像保存装置であって、前記第1データを保存する
手段をさらに備える。
A third aspect of the present invention is the image storage device according to the first or second aspect, further comprising means for storing the first data.

【0010】請求項4の発明は、請求項1ないし3のい
ずれかに記載の画像保存装置であって、前記第1データ
を取得する手段が、前記画像を撮影する際に、撮影対象
から入射する光の複数の波長帯の強度を取得する手段を
有する。
According to a fourth aspect of the present invention, there is provided the image storage device according to any one of the first to third aspects, wherein the means for acquiring the first data receives the first data from the object when the image is taken. Means for acquiring the intensities of a plurality of wavelength bands of the light to be emitted.

【0011】請求項5の発明は、請求項1ないし3のい
ずれかに記載の画像保存装置であって、前記第1データ
を取得する手段が、複数の波長帯に対応した複数のフィ
ルタのそれぞれを介して撮影を行うことにより前記画像
として複数の予備画像を取得する手段と、前記複数の予
備画像から前記第1データを求める手段とを有する。
According to a fifth aspect of the present invention, in the image storage device according to any one of the first to third aspects, the means for acquiring the first data includes a plurality of filters corresponding to a plurality of wavelength bands. Means for acquiring a plurality of preliminary images as the image by performing photographing via the CPU, and means for obtaining the first data from the plurality of preliminary images.

【0012】請求項6の発明は、所定の照明環境が画像
に与える影響を示す第1データ、および、請求項1ない
し5のいずれかに記載の画像保存装置により保存された
前記第2データを用いて画像を再生する。
[0012] According to a sixth aspect of the present invention, the first data indicating the influence of a predetermined lighting environment on an image and the second data stored by the image storage device according to any one of the first to fifth aspects are provided. To play the image.

【0013】請求項7の発明は、請求項6に記載の画像
再生装置であって、互いに異なる照明環境が画像に与え
る影響を示す複数の候補データのそれぞれに、照明環境
の影響により画像が観察者に与える感覚を示す感性情報
が予め付与されおり、前記複数の候補データに付与され
ている感性情報の一覧を表示する手段と、前記一覧から
感性情報の選択を受け付け、選択された感性情報に対応
する候補データを前記第1データとして決定する手段と
を備える。
According to a seventh aspect of the present invention, there is provided the image reproducing apparatus according to the sixth aspect, wherein each of a plurality of candidate data indicating an influence of a different illumination environment on the image is observed by the influence of the illumination environment. Means for displaying a list of sensibility information given to the plurality of candidate data, accepting selection of sensibility information from the list, and Means for determining corresponding candidate data as the first data.

【0014】請求項8の発明は、照明環境が画像に与え
る影響を示す第1データを取得する工程と、前記画像に
おいて前記照明環境の影響を取り除いた成分を第2デー
タとして取得する工程と、前記第2データを独立して取
り出し可能な状態で保存する工程とを有する。
[0014] The invention according to claim 8 is a step of obtaining first data indicating an influence of a lighting environment on an image, and a step of obtaining a component of the image from which the influence of the lighting environment has been removed as second data. Storing the second data in an independently retrievable state.

【0015】請求項9の発明は、請求項8に記載の画像
保存方法であって、前記第2データが、複数の基底関数
および対応する複数の加重係数を含むデータである。
According to a ninth aspect of the present invention, in the image storing method according to the eighth aspect, the second data is data including a plurality of basis functions and a plurality of corresponding weighting coefficients.

【0016】請求項10の発明は、請求項8または9に
記載の画像保存方法であって、前記第1データを保存す
る工程をさらに有する。
According to a tenth aspect of the present invention, there is provided the image storing method according to the eighth or ninth aspect, further comprising the step of storing the first data.

【0017】請求項11の発明は、請求項8ないし10
のいずれかに記載の画像保存方法であって、前記第1デ
ータを取得する工程が、前記画像を撮影する際に、撮影
対象から入射する光の複数の波長帯の強度を取得する工
程を有する。
The invention according to claim 11 is the invention according to claims 8 to 10
Wherein the step of acquiring the first data includes the step of acquiring intensities of a plurality of wavelength bands of light incident from an imaging target when the image is captured. .

【0018】請求項12の発明は、請求項8ないし10
のいずれかに記載の画像保存方法であって、前記第1デ
ータを取得する工程が、複数の波長帯に対応した複数の
フィルタのそれぞれを介して撮影を行うことにより前記
画像として複数の予備画像を取得する工程と、前記複数
の予備画像から前記第1データを求める工程とを有す
る。
The invention of claim 12 is the invention of claims 8 to 10
The image storing method according to any one of the preceding claims, wherein the step of acquiring the first data includes performing a plurality of preliminary images as the image by photographing through each of a plurality of filters corresponding to a plurality of wavelength bands. And a step of obtaining the first data from the plurality of preliminary images.

【0019】請求項13の発明は、所定の照明環境が画
像に与える影響を示す第1データを準備する工程と、請
求項8ないし12のいずれかに記載の画像保存方法によ
り保存された前記第2データを準備する工程と、前記第
1データおよび前記第2データを用いて画像を再生する
工程とを有する。
According to a thirteenth aspect of the present invention, there is provided a step of preparing first data indicating an influence of a predetermined illumination environment on an image, and the first data stored by the image storing method according to any one of the eighth to twelfth aspects. And a step of preparing an image using the first data and the second data.

【0020】請求項14の発明は、請求項13に記載の
画像再生方法であって、互いに異なる照明環境が画像に
与える影響を示す複数の候補データのそれぞれに、照明
環境の影響により画像が観察者に与える感覚を示す感性
情報が予め付与されおり、前記第1データを準備する工
程が、前記複数の候補データに付与されている感性情報
の一覧を表示する工程と、前記一覧から感性情報の選択
を受け付け、選択された感性情報に対応する候補データ
を前記第1データとして決定する工程とを有する。
According to a fourteenth aspect of the present invention, there is provided the image reproducing method according to the thirteenth aspect, wherein each of a plurality of candidate data indicating an influence of a different lighting environment on the image is observed by the influence of the lighting environment. Sentiment information indicating a feeling given to the user is provided in advance, and the step of preparing the first data includes the step of displaying a list of sentiment information added to the plurality of candidate data; Accepting the selection and determining candidate data corresponding to the selected sensibility information as the first data.

【0021】請求項15の発明は、画像を処理するプロ
グラムを記録したコンピュータ読み取り可能な記録媒体
であって、前記プログラムは、所定の照明環境が画像に
与える影響を示す第1データ、および、請求項1ないし
5のいずれかに記載の画像保存装置により保存された前
記第2データを用いて画像を再生する処理をコンピュー
タに実行させる。
According to a fifteenth aspect of the present invention, there is provided a computer-readable recording medium having recorded thereon a program for processing an image, wherein the program comprises: first data indicating an influence of a predetermined lighting environment on an image; Item 6. The computer causes the computer to execute a process of reproducing an image using the second data stored by the image storage device according to any one of Items 1 to 5.

【0022】[0022]

【発明の実施の形態】<1. 第1の実施の形態>図1
はこの発明の第1の実施の形態に係るデジタルカメラ1
の全体を示す斜視図である。デジタルカメラ1は、撮影
を行うレンズユニット11、および、レンズユニット1
1にてデジタルデータとして取得された画像を処理する
本体部12とを有する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS <1. First Embodiment> FIG.
Is a digital camera 1 according to the first embodiment of the present invention.
It is a perspective view which shows the whole of FIG. The digital camera 1 includes a lens unit 11 for photographing, and a lens unit 1
And a main unit 12 that processes the image acquired as digital data in 1.

【0023】レンズユニット11は、複数のレンズを有
するレンズ系111、および、レンズ系111を介して
撮像対象の像を取得するCCD112を有する。そし
て、CCD112から出力される画像信号は本体部12
へと送られる。また、レンズユニット11には、操作者
が被写体を捉えるためのファインダ113、および、後
述する画像処理に利用されるマルチバンドセンサ114
が設けられる。
The lens unit 11 has a lens system 111 having a plurality of lenses, and a CCD 112 for acquiring an image of an object to be imaged through the lens system 111. The image signal output from the CCD 112 is transmitted to the main unit 12.
Sent to. The lens unit 11 includes a finder 113 for the operator to capture the subject, and a multi-band sensor 114 used for image processing described later.
Is provided.

【0024】なお、マルチバンドセンサ114が設けら
れる窓内には測距センサ等の他のセンサも配置される。
Note that other sensors such as a distance measuring sensor are also arranged in the window where the multiband sensor 114 is provided.

【0025】本体部12には、フラッシュ121および
シャッタボタン122が設けられ、操作者がファインダ
113を介して被写体を捉え、シャッタボタン122を
操作することにより、CCD112にて電気的に画像が
取得される。このとき、必要に応じてフラッシュ121
が発光する。
The main body 12 is provided with a flash 121 and a shutter button 122. An operator captures an object through the finder 113 and operates the shutter button 122, so that an image is electrically acquired by the CCD 112. You. At this time, if necessary, the flash 121
Emits light.

【0026】CCD112からの画像信号は本体部12
内部にて後述する処理が行われ、必要に応じて本体部1
2に装着されている外部メモリ123(いわゆる、メモ
リカード)に記憶される。外部メモリ123は本体部1
2下面の蓋を開けて取出ボタン124を操作することに
より本体部12から取り出される。記録媒体である外部
メモリ123に記憶されたデータは別途設けられたコン
ピュータ等を用いて他の装置に渡すことができる。逆
に、他の装置にて外部メモリ123に記憶されたデータ
をデジタルカメラ1が読み出すことも可能である。
The image signal from the CCD 112 is transmitted to the main unit 12.
The processing described below is performed internally, and the main unit 1
2 is stored in an external memory 123 (a so-called memory card) mounted on the memory card 2. The external memory 123 is the main unit 1
2 When the cover on the lower surface is opened and the take-out button 124 is operated, it is taken out from the main body 12. The data stored in the external memory 123 as a recording medium can be transferred to another device using a separately provided computer or the like. Conversely, the digital camera 1 can read data stored in the external memory 123 by another device.

【0027】また、本体部12の背面には液晶のディス
プレイ、操作ボタン等が設けられ、操作者が画面を見な
がらボタンを操作することにより所望の入力操作が行わ
れる。
A liquid crystal display, operation buttons, and the like are provided on the back of the main body 12, and a desired input operation is performed by an operator operating the buttons while looking at the screen.

【0028】図2は、デジタルカメラ1の構成のうち、
主としてこの発明に係る処理を実行するための構成を模
式的に示すブロック図である。
FIG. 2 shows the configuration of the digital camera 1.
FIG. 2 is a block diagram schematically showing a configuration mainly for executing processing according to the present invention.

【0029】図2に示す構成のうち、レンズ系111、
CCD112、A/D変換部115、シャッタボタン1
22、CPU21、ROM22およびRAM23は画像
を取得する機能を実現する。すなわち、レンズ系111
により被写体の像がCCD112上に結像され、シャッ
タボタン122が押されると、CCD112からの画像
信号がA/D変換部115によりデジタル変換される。
A/D変換部115にて変換されたデジタル画像信号は
本体部12のRAM23に画像データ231として記憶
される。なお、これらの処理の制御はCPU21がRO
M22内に記憶されているプログラム221に従って動
作することにより行われる。
In the configuration shown in FIG.
CCD 112, A / D converter 115, shutter button 1
The CPU 22, the ROM 22, and the RAM 23 realize a function of acquiring an image. That is, the lens system 111
When the shutter button 122 is pressed, the image signal from the CCD 112 is digitally converted by the A / D converter 115.
The digital image signal converted by the A / D converter 115 is stored as image data 231 in the RAM 23 of the main unit 12. The CPU 21 controls these processes by the RO.
This is performed by operating according to the program 221 stored in the M22.

【0030】また、本体部12に設けられるCPU2
1、ROM22およびRAM23が画像を処理する機能
を実現する。具体的には、ROM22に記憶されている
プログラム221に従って、RAM23を作業領域とし
て利用しながらCPU21が取得された画像に画像処理
を施す。このとき、マルチバンドセンサ114からの情
報が利用される。
The CPU 2 provided in the main body 12
1. ROM 22 and RAM 23 implement the function of processing images. Specifically, according to the program 221 stored in the ROM 22, the CPU 21 performs image processing on the acquired image while using the RAM 23 as a work area. At this time, information from the multi-band sensor 114 is used.

【0031】RAM23に記憶(すなわち、保存)され
る照明成分データ232および物体色成分データ233
は、マルチバンドセンサ114の出力や画像データ23
1から生成されるものであり、詳細については後述す
る。これらのデータは適宜外部メモリ123に保存され
る。
The illumination component data 232 and the object color component data 233 stored (ie, stored) in the RAM 23
Is the output of the multi-band sensor 114 and the image data 23
1, which will be described later in detail. These data are appropriately stored in the external memory 123.

【0032】また、ディスプレイ24は、画像の表示や
操作者への情報の表示を行う手段であり、操作ボタン2
5は、操作者からの入力操作を受け付ける手段となって
いる。
The display 24 is a means for displaying images and displaying information to the operator.
5 is a means for receiving an input operation from the operator.

【0033】図3は、主としてCPU21、ROM22
およびRAM23により実現される機能の構成を他の構
成とともに示すブロック図であり、図4は画像処理の流
れを示す流れ図である。図3に示す構成のうち、照明成
分データ生成部201、物体色成分データ生成部202
および画像再生部203が、CPU21、ROM22、
RAM23等により実現される機能である。以下、これ
らの図を参照しながらデジタルカメラ1の動作について
説明する。
FIG. 3 mainly shows a CPU 21 and a ROM 22.
FIG. 4 is a block diagram showing a configuration of functions realized by the RAM 23 and other configurations, and FIG. 4 is a flowchart showing a flow of image processing. In the configuration shown in FIG. 3, the illumination component data generator 201 and the object color component data generator 202
And the image reproducing unit 203 includes the CPU 21, the ROM 22,
This is a function realized by the RAM 23 and the like. Hereinafter, the operation of the digital camera 1 will be described with reference to these drawings.

【0034】まず、既述の撮影動作によりCCD112
にて取得された画像(正確には、画像信号)がA/D変
換部115からRAM23へと送られ、画像データ23
1として記憶される(ステップST11)。
First, the CCD 112 is operated by the photographing operation described above.
Is transmitted from the A / D converter 115 to the RAM 23, and the image data 23
It is stored as 1 (step ST11).

【0035】次に、マルチバンドセンサ114からの出
力に基づいて、照明成分データ生成部201にて照明成
分データ232が生成され、RAM23に記憶される
(ステップST12)。照明成分データ232とは、得
られた画像において撮影対象への照明環境が与えている
影響を示すデータである。
Next, the illumination component data generation unit 201 generates illumination component data 232 based on the output from the multi-band sensor 114, and stores it in the RAM 23 (step ST12). The illumination component data 232 is data indicating the effect of the illumination environment on the imaging target in the obtained image.

【0036】マルチバンドセンサ114は、入射する光
について複数の波長帯における強度を取得するセンサと
なっている。マルチバンドセンサ114により得られた
複数の波長帯の強度は照明成分データ生成部201によ
り合成されて分光分布を示すデータとされ、照明成分デ
ータ232としてRAM23に記憶される。
The multi-band sensor 114 is a sensor that obtains the intensity of incident light in a plurality of wavelength bands. The intensities of a plurality of wavelength bands obtained by the multi-band sensor 114 are combined by the illumination component data generation unit 201 into data indicating a spectral distribution, and are stored in the RAM 23 as illumination component data 232.

【0037】すなわち、このデジタルカメラ1では、お
よそ撮影対象からデジタルカメラ1へと入射する光の分
光分布を、取得された画像において照明環境が与えてい
る影響を示すデータとして扱うようになっている。一般
に、白色光にて照明された撮影対象の画像では色の平均
がグレーになることから、マルチバンドセンサ114に
より得られる分光分布を照明環境による影響を示すデー
タとして利用することができる。
That is, in the digital camera 1, the spectral distribution of light incident on the digital camera 1 from an object to be photographed is treated as data indicating the influence of the illumination environment on the acquired image. . Generally, in an image of a shooting target illuminated with white light, the average of colors becomes gray. Therefore, the spectral distribution obtained by the multiband sensor 114 can be used as data indicating the effect of the illumination environment.

【0038】マルチバンドセンサ114としては、複数
の光強度検出器のそれぞれに各波長帯の光のみを透過す
るフィルタを設けたものを利用することができる。例え
ば、可視領域の波長帯を複数の波長帯に分け、それぞれ
の波長帯の光のみを透過するフィルタが各光強度検出器
に設けられる。複数の波長帯としては4以上が好ましい
が、3つ(例えば、RGBの3色のフィルタ)であって
もデジタルカメラ1に入射する光のおおよその分光分布
を推定することは可能である。なお、この場合には、C
CD112がマルチバンドセンサ114の役割を兼ねる
ことができる。
As the multi-band sensor 114, a sensor having a plurality of light intensity detectors each provided with a filter that transmits only light in each wavelength band can be used. For example, a wavelength band in the visible region is divided into a plurality of wavelength bands, and a filter that transmits only light in each wavelength band is provided in each light intensity detector. The plurality of wavelength bands is preferably four or more, but it is possible to estimate the approximate spectral distribution of light incident on the digital camera 1 even with three (for example, three color filters of RGB). In this case, C
The CD 112 can also serve as the multiband sensor 114.

【0039】また、小型で高分解能のマルチバンドセン
サ114としては、川越宣和、他2名による「分光測色
計CM−100」、Minolta Techno Report No.5 1988
(97〜105頁)に記載されているように、CCD上
に階段状に厚みが異なる金属膜干渉フィルタを設けたも
のも知られている。このマルチバンドセンサでは、CC
Dのエリアごとに金属膜干渉フィルタの厚みが変えられ
ており、CCDのエリアごとに所定の波長帯の光の強度
を得ることが実現されている。
As the small and high-resolution multi-band sensor 114, “Spectral Colorimeter CM-100” by Nobukazu Kawagoe and two others, Minolta Techno Report No.5 1988
(Pages 97 to 105), there is also known a CCD in which metal film interference filters having different thicknesses are provided on a CCD stepwise. In this multi-band sensor, CC
The thickness of the metal film interference filter is changed for each area D, and it is realized that the intensity of light in a predetermined wavelength band is obtained for each area of the CCD.

【0040】照明成分データ生成部201により照明成
分データ232が生成および保存されると、次に、物体
色成分データ生成部202により、画像データ231お
よび照明成分データ232を用いて画像データ231か
ら照明環境の影響を取り除いた成分として物体色成分デ
ータ233が求められる(ステップST13)。物体色
成分データ233は、撮影対象の分光反射率に実質的に
相当するデータである。以下、物体色成分データ233
に相当する撮影対象の分光反射率を求める原理について
説明する。
After the illumination component data generation unit 201 generates and stores the illumination component data 232, the object color component data generation unit 202 illuminates the image data 231 using the image data 231 and the illumination component data 232. Object color component data 233 is obtained as a component from which the influence of the environment has been removed (step ST13). The object color component data 233 is data substantially corresponding to the spectral reflectance of the imaging target. Hereinafter, the object color component data 233
The principle of obtaining the spectral reflectance of the object to be photographed corresponding to the above will be described.

【0041】CCD112の入力波長帯数(入力バンド
数)が3(RGBの3バンド)であるものとした場合、
CCD112の出力値である各画素のRGBの画素値ρ
r,ρg,ρbは、可視領域の波長をλ、CCD112の
各色の分光感度をRr(λ),Rg(λ),Rb(λ)、対象と
なる画素に対応する撮影対象上の位置の分光反射率(以
下、「対象分光反射率」という。)をS(λ)、照明光
(間接的な照明光を含む。)の分光分布(すなわち、照
明成分データ232)をE(λ)とすると、
Assuming that the number of input wavelength bands (number of input bands) of the CCD 112 is 3 (3 bands of RGB),
RGB pixel value ρ of each pixel which is the output value of CCD 112
r, ρg, ρb are λ for the wavelength in the visible region, Rr (λ), Rg (λ), Rb (λ) for the spectral sensitivity of each color of the CCD 112, When the reflectance (hereinafter, referred to as “target spectral reflectance”) is S (λ), and the spectral distribution of illumination light (including indirect illumination light) (that is, illumination component data 232) is E (λ). ,

【0042】[0042]

【数1】 (Equation 1)

【0043】が満たされる。Is satisfied.

【0044】ここで、CCD112の各色の分光感度R
r(λ),Rg(λ),Rb(λ)はCCD112から測定する
ことが可能な特性であり、照明光の分光分布E(λ)はマ
ルチバンドセンサ114の出力から求められる値であ
る。もちろん、CCD112の出力値である画素値ρ
r,ρg,ρbも既知である。
Here, the spectral sensitivity R of each color of the CCD 112 is
r (λ), Rg (λ), and Rb (λ) are characteristics that can be measured from the CCD 112, and the spectral distribution E (λ) of the illumination light is a value obtained from the output of the multiband sensor 114. Of course, the pixel value ρ which is the output value of the CCD 112
r, ρg, ρb are also known.

【0045】そこで、対象分光反射率S(λ)を3つの基
底関数S1(λ),S2(λ),S3(λ)の加重和として、
Therefore, the target spectral reflectance S (λ) is defined as a weighted sum of three basis functions S 1 (λ), S 2 (λ), and S 3 (λ).

【0046】[0046]

【数2】 (Equation 2)

【0047】と表現する。加重係数b1,b2,b3は対
象分光反射率S(λ)の特性係数である。これにより、画
素値ρr,ρg,ρbは、
Are expressed as follows. The weighting coefficients b 1 , b 2 and b 3 are characteristic coefficients of the target spectral reflectance S (λ). Thus, the pixel values ρr, ρg, ρb are

【0048】[0048]

【数3】 (Equation 3)

【0049】と変形される。すなわち、画素値ρr,ρ
g,ρbは、
Is transformed. That is, the pixel values ρr, ρ
g and ρb are

【0050】[0050]

【数4】 (Equation 4)

【0051】として表現される。Is represented as

【0052】以上のことから、数4を加重係数b1
2,b3について解くことにより、対象分光反射率S
(λ)を求めることができる。
From the above, Equation 4 is obtained by adding weighting coefficients b 1 ,
By solving for b 2 and b 3 , the target spectral reflectance S
(λ) can be obtained.

【0053】物体色成分データ生成部202は、上記手
法にて各画素についての加重係数b1,b2,b3を求め
る。もちろん、実際の演算では波長λは離散的な変数と
して扱われる。そして、3つの基底関数S1(λ),S
2(λ),S3(λ)および各画素の3つの加重係数b1
2,b3が物体色成分データ233としてRAM23に
記憶される。これにより、撮影対象の分光反射率に相当
するデータが物体色成分データ233として保存され
る。なお、基底関数は画素値に応じて適宜設定されるも
のであってもよく、画素に依存しない関数であってもよ
い。基底関数が全画素について共通して用いられる場合
には、各画素に関して保存すべきデータは加重係数のみ
となる。
The object color component data generation unit 202 obtains weighting coefficients b 1 , b 2 , and b 3 for each pixel by the above method. Of course, in the actual calculation, the wavelength λ is treated as a discrete variable. Then, three basis functions S 1 (λ), S
2 (λ), S 3 (λ) and three weighting coefficients b 1 ,
b 2 and b 3 are stored in the RAM 23 as object color component data 233. As a result, data corresponding to the spectral reflectance of the imaging target is stored as the object color component data 233. Note that the basis function may be appropriately set according to the pixel value, or may be a function that does not depend on the pixel. When the basis function is used in common for all pixels, the only data to be stored for each pixel is a weighting coefficient.

【0054】照明成分データ232および物体色成分デ
ータ233が求められると、操作者の指示に従ってこれ
らのデータが必要に応じてデジタルカメラ1に着脱自在
な外部メモリ123に転送され保存される(ステップS
T14)。すなわち、外部メモリ123には照明成分デ
ータ232と物体色成分データ233のいずれか一方の
みが保存されてもよいし双方が保存されてもよく、互い
に独立して取り出し可能な状態で外部メモリ123に保
存される。
When the illumination component data 232 and the object color component data 233 are obtained, these data are transferred and stored in the external memory 123 which is detachable from the digital camera 1 as needed according to the instruction of the operator (step S).
T14). That is, only one of the illumination component data 232 and the object color component data 233 may be stored in the external memory 123, or both may be stored in the external memory 123. Will be saved.

【0055】次に、RAM23または外部メモリ123
に保存された照明成分データ232および物体色成分デ
ータ233の利用態様について説明する。
Next, the RAM 23 or the external memory 123
The usage of the illumination component data 232 and the object color component data 233 stored in the.

【0056】図5は、デジタルカメラ1において照明成
分データ232および物体色成分データ233を用いて
画像を再生する動作の流れを示す流れ図である。なお、
外部メモリ123には、複数の物体色成分データ233
および複数の照明成分データ232が予め記憶されてい
るものとする。
FIG. 5 is a flowchart showing a flow of an operation of reproducing an image in the digital camera 1 using the illumination component data 232 and the object color component data 233. In addition,
The external memory 123 stores a plurality of object color component data 233
And a plurality of illumination component data 232 are stored in advance.

【0057】まず、操作者がディスプレイ24の表示を
見ながら操作ボタン25を介して指示を行うことによ
り、所望の物体色成分データ233がRAM23に読み
込まれる(ステップST21)。これにより、再生する
画像の対象(すなわち、撮影時の撮影対象)が決定され
る。
First, when the operator gives an instruction through the operation buttons 25 while watching the display on the display 24, the desired object color component data 233 is read into the RAM 23 (step ST21). Thereby, the target of the image to be reproduced (that is, the shooting target at the time of shooting) is determined.

【0058】次に、操作者の指示に従って、所望の照明
成分データ232がRAM23に読み込まれる(ステッ
プST22)。すなわち、既に読み込まれている物体色
成分データ233の基礎となった画像を再生したい場合
には、物体色成分データ233が求められた時に求めら
れた照明成分データ232がRAM23に読み込まれ、
他の画像が撮影された際の照明環境下での画像として再
生したい場合には、他の画像が撮影された際に得られた
照明成分データ232がRAM23に読み込まれる。
Next, desired illumination component data 232 is read into the RAM 23 in accordance with an instruction from the operator (step ST22). That is, when it is desired to reproduce an image that is the basis of the already read object color component data 233, the illumination component data 232 obtained when the object color component data 233 is obtained is read into the RAM 23,
When it is desired to reproduce the image under the lighting environment when the other image is captured, the illumination component data 232 obtained when the other image is captured is read into the RAM 23.

【0059】その後、照明成分データ232および物体
色成分データ233が図3に示した画像再生部203に
より合成されて、目的とする画像データが生成される
(ステップST23)。再生の際には、物体色成分デー
タ233から数2に示した演算により、各画素の対象分
光反射率S(λ)が求められ、数1を用いて各画素のRG
Bの画素値ρr,ρg,ρbが求められる。
Thereafter, the illumination component data 232 and the object color component data 233 are combined by the image reproducing unit 203 shown in FIG. 3 to generate target image data (step ST23). At the time of reproduction, the target spectral reflectance S (λ) of each pixel is obtained from the object color component data 233 by the calculation shown in Expression 2, and the RG of each pixel is calculated using Expression 1.
The pixel values ρr, ρg, ρb of B are obtained.

【0060】そして、求められた画像データがデジタル
カメラ1の背面に設けられたディスプレイ24に表示さ
れる(ステップS24)。
Then, the obtained image data is displayed on the display 24 provided on the back of the digital camera 1 (step S24).

【0061】以上のように、デジタルカメラ1では、マ
ルチバンドセンサ114を用いて撮影時の照明環境が画
像に与えている影響を示すデータとして照明成分データ
232を取得し、照明成分データ232を用いて画像か
ら照明環境の影響を取り除いた成分を示すデータとして
物体色成分データ233を求める。また、これらのデー
タは別個独立して取り出し可能な状態で保存される。
As described above, in the digital camera 1, the illumination component data 232 is acquired as data indicating the effect of the illumination environment at the time of photographing on the image using the multiband sensor 114, and the illumination component data 232 is used. Then, object color component data 233 is obtained as data indicating a component obtained by removing the influence of the lighting environment from the image. Further, these data are stored in a state where they can be separately and independently taken out.

【0062】したがって、デジタルカメラ1では、物体
色成分データ233に照明成分データ232を適宜合成
することにより、所望の照明環境下の所望の撮影対象の
画像を再生することができる。すなわち、撮影時の雰囲
気にて画像を再生したい場合には、互いに対となって生
成された照明成分データ232および物体色成分データ
233を合成すればよく、他の画像の照明環境の影響を
取り込んで再生したい場合には、物体色成分データ23
3に他の照明環境で得られる照明成分データ232を合
成することで照明環境を変更した画像が再生される。
Therefore, in the digital camera 1, by appropriately combining the illumination component data 232 with the object color component data 233, it is possible to reproduce an image of a desired photographing object under a desired illumination environment. That is, when an image is to be reproduced in the atmosphere at the time of shooting, the illumination component data 232 and the object color component data 233 generated in pairs with each other may be combined, and the influence of the illumination environment of other images is taken in. To reproduce the object color component data 23
3 is combined with the illumination component data 232 obtained in another illumination environment to reproduce an image in which the illumination environment has been changed.

【0063】また、デジタルカメラ1では、照明成分デ
ータ232をマルチバンドセンサ114を用いて簡易に
取得するようになっている。
In the digital camera 1, the illumination component data 232 is easily obtained using the multi-band sensor 114.

【0064】なお、上記説明では、デジタルカメラ1の
入力バンド数が3であるものとして説明したが、デジタ
ルカメラ1の入力バンド数が4以上であってもよい。す
なわち、CCD112が各画素の画素値として4つ以上
の波長帯に対応する出力を行うようになっていてもよ
い。この場合、数1に示す式の数が入力バンド数に合わ
せて4以上となることから、数2に示す基底関数を入力
バンド数と同数まで増すことができる。その結果、対象
分光反射率S(λ)がより正確に求められ、再生される画
像の質が向上する。
In the above description, the number of input bands of the digital camera 1 is three, but the number of input bands of the digital camera 1 may be four or more. That is, the CCD 112 may output the pixel value of each pixel corresponding to four or more wavelength bands. In this case, since the number of equations shown in Equation 1 is 4 or more in accordance with the number of input bands, the basis functions shown in Equation 2 can be increased to the same number as the number of input bands. As a result, the target spectral reflectance S (λ) is more accurately obtained, and the quality of the reproduced image is improved.

【0065】<2. 第2の実施の形態>図6はこの発
明の第2の実施の形態に係るデジタル撮像システム3の
構成を示す図である。デジタル撮像システム3は、撮影
対象の画像を取得するモノクロデジタルカメラ31、複
数のフィルタを有する回転式フィルタ32、および、デ
ジタルカメラ31にて得られた画像を処理するコンピュ
ータ33を有する。回転式フィルタ32は、所定の波長
帯の光のみを透過するフィルタを複数有し、デジタルカ
メラ31に入射する光を特定の波長帯に制限する。
<2. Second Embodiment> FIG. 6 is a diagram showing a configuration of a digital imaging system 3 according to a second embodiment of the present invention. The digital imaging system 3 includes a monochrome digital camera 31 for acquiring an image to be captured, a rotary filter 32 having a plurality of filters, and a computer 33 for processing an image obtained by the digital camera 31. The rotary filter 32 has a plurality of filters that transmit only light in a predetermined wavelength band, and limits light incident on the digital camera 31 to a specific wavelength band.

【0066】図7は、デジタル撮像システム3の主な構
成を示すブロック図である。第1の実施の形態に係るデ
ジタルカメラ1では、図2に示したように、マルチバン
ドセンサ114を用いて照明成分データ232を求め、
デジタルカメラ1内部にて画像の処理が行われるように
なっているが、第2の実施の形態に係るデジタル撮像シ
ステム3では、照明成分データ232がデジタルカメラ
31にて撮像された複数の画像から求められ、また、画
像の処理をコンピュータ33において行うという点で第
1の実施の形態と異なっている。
FIG. 7 is a block diagram showing a main configuration of the digital imaging system 3. As shown in FIG. In the digital camera 1 according to the first embodiment, as shown in FIG. 2, the illumination component data 232 is obtained using the multiband sensor 114,
Although image processing is performed inside the digital camera 1, in the digital imaging system 3 according to the second embodiment, the illumination component data 232 is obtained from a plurality of images captured by the digital camera 31. The first embodiment differs from the first embodiment in that the image processing is performed by the computer 33.

【0067】図7に示すように、デジタルカメラ31は
レンズ系311、CCD312およびA/D変換部31
3を有し、撮影対象の画像をデジタルデータとして取得
する機能を有する。
As shown in FIG. 7, the digital camera 31 includes a lens system 311, a CCD 312, and an A / D converter 31.
3 and a function of acquiring an image to be captured as digital data.

【0068】コンピュータ33は、デジタルカメラ31
にて取得された画像を処理する機能を有し、CPU4
1、HDD(固定ディスク)42、RAM43およびデ
ィスクドライブ44を有する。HDD42には、画像を
処理するためのプログラム421が記憶されており、R
AM43は、予備画像データ431、照明成分データ4
32および物体色成分データ433が記憶されたり、画
像処理の作業が行われる領域となっている。
The computer 33 is a digital camera 31
CPU 4 has a function of processing an image acquired by
1, an HDD (fixed disk) 42, a RAM 43, and a disk drive 44. The HDD 42 stores a program 421 for processing an image.
AM 43 includes preliminary image data 431 and illumination component data 4
32 and an object color component data 433 are stored in the area and an image processing operation is performed in the area.

【0069】RAM43は、固定ディスク、携帯可能な
磁気ディスク、光磁気ディスク等の記録媒体とデータの
受け渡しが可能とされており、第1の実施の形態と同様
に、照明成分データ432や物体色成分データ433が
必要に応じて記録媒体との間で受け渡しされる。なお、
図6および図7では、記録媒体としてディスクドライブ
44を介してRAM43等とデータの転送が行われる記
録媒体9を例示している。
The RAM 43 is capable of transferring data to and from a recording medium such as a fixed disk, a portable magnetic disk, or a magneto-optical disk. As in the first embodiment, the illumination component data 432 and the object color The component data 433 is exchanged with the recording medium as needed. In addition,
FIGS. 6 and 7 illustrate the recording medium 9 in which data is transferred to the RAM 43 and the like via the disk drive 44 as the recording medium.

【0070】また、記録媒体9に画像処理のプログラム
を記憶させ、このプログラムをRAM43に読み込ま
せ、RAM43内のプログラムにより、あるいは、HD
D42内のプログラムとRAM43内のプログラムとに
よりコンピュータ33が画像処理装置として機能するよ
うになっていてもよい。
Further, a program for image processing is stored in the recording medium 9, and the program is read into the RAM 43.
The computer 33 may function as an image processing device by the program in the D 42 and the program in the RAM 43.

【0071】コンピュータ33には、さらに、画像を表
示したり操作者への情報の表示を行うディスプレイ4
5、および、操作者からの入力を受け付けるキーボー
ド、マウス等の入力部46が設けられている。
The computer 33 further has a display 4 for displaying images and displaying information to the operator.
And an input unit 46 such as a keyboard and a mouse for receiving an input from the operator.

【0072】デジタルカメラ31およびコンピュータ3
3による構成は、以上のように第1の実施の形態に係る
デジタルカメラ1の構成と類似しているが、このデジタ
ル撮像システム3では、回転式フィルタ32を用いて照
明成分データ432や物体色成分データ433を求める
ようになっている点で第1の実施の形態と相違してい
る。
Digital camera 31 and computer 3
3 is similar to the configuration of the digital camera 1 according to the first embodiment as described above, but in this digital imaging system 3, the illumination component data 432 and the object color This embodiment differs from the first embodiment in that component data 433 is obtained.

【0073】回転式フィルタ32は、円盤状の回転体に
特定の波長帯の光のみを透過するフィルタを複数設けた
構成となっており、回転体が回転することによりデジタ
ルカメラ31には異なる波長帯の光のみが切り替えられ
ながら入射する。各フィルタは可視光の波長帯を複数に
分割した各波長帯に対応している。
The rotary filter 32 has a configuration in which a disk-shaped rotating body is provided with a plurality of filters that transmit only light in a specific wavelength band, and the digital camera 31 has different wavelengths by rotating the rotating body. Only the light in the band enters while being switched. Each filter corresponds to each wavelength band obtained by dividing the wavelength band of visible light into a plurality.

【0074】デジタルカメラ31のレンズ系311の前
に、いずれの種類のフィルタが位置するかは回転式フィ
ルタ32に設けられたエンコーダからの信号により、コ
ンピュータ33が認識できるようにされている。
The computer 33 can recognize which type of filter is located in front of the lens system 311 of the digital camera 31 based on a signal from an encoder provided in the rotary filter 32.

【0075】図8は、CPU41、HDD42、RAM
43等により実現される機能構成およびその他の構成を
示すブロック図であり、成分データ生成部401および
画像再生部403は、図7中に示すCPU41、HDD
42およびRAM43の作業領域により実現される機能
に相当する。
FIG. 8 shows the CPU 41, HDD 42, RAM
FIG. 8 is a block diagram illustrating a functional configuration and other configurations realized by the component data generation unit 43 and the like; a component data generation unit 401 and an image reproduction unit 403 include a CPU 41 illustrated in FIG.
42 and a work area of the RAM 43.

【0076】図9はデジタル撮像システム3の動作の流
れを示す流れ図である。以下、図8および図9を参照し
ながら、デジタル撮像システム3の動作について説明す
る。
FIG. 9 is a flowchart showing the flow of the operation of the digital imaging system 3. Hereinafter, the operation of the digital imaging system 3 will be described with reference to FIGS.

【0077】まず、所定のフィルタがデジタルカメラ3
1のレンズ系311の前方に配置され(ステップST3
1)、コンピュータ33の制御により撮影を行う(ステ
ップST32)。これにより、フィルタが透過する波長
帯の光のみがデジタルカメラ31に入射し、デジタルカ
メラ31のA/D変換部313から1つの予備画像に相
当する予備画像データ431がコンピュータ33に転送
されてRAM43に記憶される。
First, a predetermined filter is used for the digital camera 3.
1 lens system 311 (step ST3).
1) Photographing is performed under the control of the computer 33 (step ST32). As a result, only light in the wavelength band transmitted by the filter is incident on the digital camera 31, and preliminary image data 431 corresponding to one preliminary image is transferred from the A / D converter 313 of the digital camera 31 to the computer 33 and is transmitted to the RAM 43. Is stored.

【0078】次に、回転式フィルタ32を回転させ、別
の波長帯の光のみを透過するフィルタがレンズ系311
の前方に配置され、撮影を行う(ステップST31,S
T32)。これにより、もう1つの予備画像に相当する
予備画像データ431がRAM43に記憶される。
Next, the filter for rotating the rotary filter 32 and transmitting only light of another wavelength band is formed by the lens system 311.
Is located in front of the camera and performs photographing (steps ST31 and S31).
T32). Thereby, the preliminary image data 431 corresponding to another preliminary image is stored in the RAM 43.

【0079】その後、フィルタの変更および撮影を繰り
返すことにより(ステップST33)、各フィルタに対
応する予備画像データ431がRAM43に記憶され
る。なお、予備画像データ431には回転式フィルタ3
2からのフィルタに関する情報が付与される。なお、複
数の予備画像を撮影することは撮影対象のカラー画像を
撮影することに相当する。
Thereafter, by changing the filters and photographing repeatedly (step ST33), the preliminary image data 431 corresponding to each filter is stored in the RAM 43. The preliminary image data 431 includes the rotary filter 3
Information about the filter from No. 2 is given. Note that capturing a plurality of preliminary images is equivalent to capturing a color image to be captured.

【0080】複数の予備画像に相当する予備画像データ
431がRAM43に記憶されると、次に、成分データ
生成部401により予備画像データ431から照明成分
データ432および物体色成分データ433が生成され
る(ステップST34)。すなわち、CPU41がHD
D42内のプログラム421に従って以下に説明する演
算処理を行う。
When the preliminary image data 431 corresponding to a plurality of preliminary images is stored in the RAM 43, the component data generating section 401 generates illumination component data 432 and object color component data 433 from the preliminary image data 431. (Step ST34). That is, if the CPU 41
The arithmetic processing described below is performed according to the program 421 in D42.

【0081】複数の予備画像から照明成分データ432
および物体色成分データ433を求める手法としては適
切なデータが生成されるのであればどのような手法が用
いられてもよい。例えば、富永昌治、「色恒常性を実現
するカメラ系とアルゴリズム」、信学技報 PRU95-11(19
95-05)(77〜84頁)に記載された手法が採用されて
もよい。この手法では照明光の分光分布および撮影対象
の分光反射率を次のようにして求めている。
Illumination component data 432 from a plurality of preliminary images
As a method for obtaining the object color component data 433, any method may be used as long as appropriate data is generated. For example, Shoji Tominaga, "Camera system and algorithm for achieving color constancy", IEICE Technical Report PRU95-11 (19
95-05) (pages 77 to 84) may be employed. In this method, the spectral distribution of the illumination light and the spectral reflectance of the imaging target are obtained as follows.

【0082】まず、撮影対象上の位置(以下、「対象位
置」という。)から入射する光の分光分布C(λ)は、波
長をλ、対象位置における分光反射率をS(λ)、照明光
の分光分布をE(λ)として、
First, the spectral distribution C (λ) of light incident from a position on a photographing target (hereinafter referred to as “target position”) has a wavelength λ, a spectral reflectance at the target position S (λ), and illumination. Assuming that the spectral distribution of light is E (λ),

【0083】[0083]

【数5】 (Equation 5)

【0084】として表される。ここで、α,βはスケー
ルファクタであり、αS(λ)E(λ)は拡散反射成分、β
E(λ)は正反射成分に相当する。
Are represented as Here, α and β are scale factors, αS (λ) E (λ) is a diffuse reflection component, and β
E (λ) corresponds to a specular reflection component.

【0085】また、k番目のフィルタにより撮影された
画像中の対象位置に対応する画素の画素値(すなわち、
CCD312の出力値)ρkは、フィルタの波長帯域に
対応するCCD312の分光感度をRk(λ)として、
The pixel value of the pixel corresponding to the target position in the image captured by the k-th filter (ie,
The output value of the CCD 312) ρk is defined as Rk (λ), where Sk is the spectral sensitivity of the CCD 312 corresponding to the wavelength band of the filter.

【0086】[0086]

【数6】 (Equation 6)

【0087】として表される。## EQU10 ##

【0088】ここで、照明光の分光分布E(λ)と対象位
置の分光反射率S(λ)について複数の基底関数の加重和
として表現する有次元線形モデルを用いることにより、
最終的に、
Here, by using a dimensional linear model that expresses the spectral distribution E (λ) of the illumination light and the spectral reflectance S (λ) at the target position as a weighted sum of a plurality of basis functions,
Finally,

【0089】[0089]

【数7】 (Equation 7)

【0090】と変形される。ここで、ρは画素値ρkを
要素とするベクトル、Λは対象位置の分光反射率S(λ)
の有次元線形モデルの基底関数に対するセンサの応答を
表す行列、σは分光反射率S(λ)の有次元線形モデルの
加重係数のベクトル、Hは照明光の分光分布E(λ)の有
次元線形モデルの基底関数に対するセンサの応答を表す
行列、εは分光分布E(λ)の有次元線形モデルの加重係
数のベクトルである。
This is transformed. Here, ρ is a vector having a pixel value ρk as an element, and Λ is the spectral reflectance S (λ) at the target position.
Is a matrix representing the response of the sensor to the basis function of the dimensional linear model, σ is the vector of the weighting coefficients of the dimensional linear model of the spectral reflectance S (λ), and H is the dimensional of the spectral distribution E (λ) of the illumination light. A matrix representing the response of the sensor to the basis function of the linear model, and ε is a vector of weighting coefficients of the dimensional linear model of the spectral distribution E (λ).

【0091】そして、同一照明下では複数の対象位置に
ついてベクトルHεの方向が一定であるという法則を利
用しつつ、適宜簡略化した演算手法を採用することによ
り上記式からσとεとが求められる。これにより、2つ
の有次元線形モデルの係数が求められ、照明光の分光分
布E(λ)および対象位置の分光反射率S(λ)が求められ
る。
Then, under the same illumination, σ and ε can be obtained from the above equations by using an appropriately simplified calculation method while utilizing the rule that the direction of the vector Hε is constant for a plurality of target positions. . Thus, the coefficients of the two dimensional linear models are obtained, and the spectral distribution E (λ) of the illumination light and the spectral reflectance S (λ) at the target position are obtained.

【0092】以上に例示した手法を用いて、成分データ
生成部401は照明光の分光分布E(λ)および対象位置
の分光反射率S(λ)を求める。なお、照明成分データ4
32としては照明光の分光分布E(λ)の有次元線形モデ
ルの基底関数および加重係数ベクトルが保存され、物体
色成分データ433としては分光反射率S(λ)の有次元
線形モデルの基底関数および各画素についての加重係数
ベクトルが保存される。
Using the method exemplified above, the component data generation unit 401 obtains the spectral distribution E (λ) of the illumination light and the spectral reflectance S (λ) at the target position. Note that the illumination component data 4
32, the basis function and the weighting coefficient vector of the dimensional linear model of the spectral distribution E (λ) of the illumination light are stored. As the object color component data 433, the basis function of the dimensional linear model of the spectral reflectance S (λ). And a weighting coefficient vector for each pixel is stored.

【0093】以上の説明では、スケールファクタα,β
が予め適宜設定されているものとして説明しているが、
この場合には、スケールファクタα,βが物体色成分デ
ータ433の一部として保存されてもよい。また、処理
を簡潔に行うためにスケールファクタβを0として演算
を行ってもよい。
In the above description, the scale factors α, β
Has been described as being appropriately set in advance,
In this case, the scale factors α and β may be stored as part of the object color component data 433. Further, in order to simplify the processing, the calculation may be performed with the scale factor β set to 0.

【0094】成分データ生成部401により照明成分デ
ータ432および物体色成分データ433が求められ、
RAM43に保存されると、これらの一方または双方が
操作者の指示に従って適宜記録媒体9に保存される(ス
テップST36)。これにより、照明成分データ432
および物体色成分データ433は独立して取り出し可能
な状態で保存される。
The illumination component data 432 and the object color component data 433 are obtained by the component data generator 401.
When stored in the RAM 43, one or both of them are appropriately stored in the recording medium 9 according to the instruction of the operator (step ST36). Thus, the illumination component data 432
The object color component data 433 is stored in a state where it can be taken out independently.

【0095】このとき、照明成分データ432が保存さ
れる前に、入力部46を介する操作者の入力に基づいて
照明成分データ432には感覚を示す情報(以下、「感
性情報」という。)が付与される(ステップST3
5)。すなわち、図10に示すように感性情報432a
が照明成分データ432に付加され、あるいは、図11
に示すように関連づけられる。既述のように照明成分デ
ータ432は画像中の照明環境が与えている影響を示す
データであり、この照明成分データ432を用いて再生
される画像は観察者にある種の刺激を与える。そこで、
デジタル撮像システム3では、観察者が受ける感覚(感
性)を示す情報を用いて照明成分データ432を識別可
能な状態で保存するようになっている。
At this time, before the illumination component data 432 is stored, information indicating a feeling (hereinafter referred to as “kansei information”) is included in the illumination component data 432 based on the input of the operator through the input unit 46. (Step ST3)
5). That is, as shown in FIG.
Is added to the illumination component data 432, or FIG.
Are associated as shown in FIG. As described above, the illumination component data 432 is data indicating the effect of the illumination environment in the image, and an image reproduced using the illumination component data 432 gives the observer a certain kind of stimulus. Therefore,
In the digital imaging system 3, the illumination component data 432 is stored in an identifiable state using information indicating the sensation (sensitivity) received by the observer.

【0096】具体的には、「春らしい」「真夏の」等の
季節感を示す言葉、「夕焼けの」「早朝の」「昼下がり
の」等の時刻から受ける感覚を示す言葉、「寒々とし
た」「カーっと暑い」等の温度感覚を示す言葉、「霞が
かかった」「曇りの」等の天候から受ける感覚を示す言
葉等の情報が照明成分データ432に付与されて保存が
行われる。
More specifically, words indicating a sense of season such as "spring-like" or "midsummer", words indicating a feeling received from a time such as "sunset", "early morning", "afternoon", and "cold" Information such as words indicating a temperature sensation such as "" is hot and hot "and words indicating a sensation received from the weather such as" misty "or" cloudy "are added to the illumination component data 432 and saved. .

【0097】図12ないし図14は、照明成分データ4
32により表現される照明光の分光分布の例を示す図で
ある。感性情報としては、例えば、図12に「夕焼け
の」、図13に「寒々とした」、図14に「昼下がり
の」といった語句が与えられる。もちろん、全ての照明
成分データ432に感覚を示す情報を付与する必要はな
く、「蛍光灯」等の語句が付与されてもよい。
FIGS. 12 to 14 show illumination component data 4.
FIG. 3 is a diagram illustrating an example of a spectral distribution of illumination light represented by 32. As the sensibility information, for example, words such as "sunset" in FIG. 12, "cold" in FIG. 13, and "afternoon" in FIG. 14 are given. Of course, it is not necessary to add information indicating a feeling to all the illumination component data 432, and a phrase such as "fluorescent light" may be added.

【0098】なお、感性情報としては、言葉に限定され
るものではなく、色、音等であってもよい。
Note that the sensibility information is not limited to words, but may be color, sound, or the like.

【0099】次に、以上のようにして記録媒体9に保存
された照明成分データ432および物体色成分データ4
33を用いて画像が再生される際のデジタル撮像システ
ム3の動作について図15を参照しながら説明する。
Next, the illumination component data 432 and the object color component data 4 stored in the recording medium 9 as described above.
The operation of the digital imaging system 3 when an image is reproduced by using 33 will be described with reference to FIG.

【0100】画像が再生される際には、第1の実施の形
態と同様に、まず、操作者の指示に従って所望の物体色
成分データ433が記録媒体9からRAM43に読み込
まれる(ステップST41)。これにより、表示される
画像の撮影対象が決定される。
When an image is reproduced, as in the first embodiment, first, desired object color component data 433 is read from the recording medium 9 into the RAM 43 in accordance with an instruction from the operator (step ST41). Thereby, the shooting target of the displayed image is determined.

【0101】次に、画像再生部403により、記録媒体
9に保存されている各照明成分データ432に付与され
た感性情報432aが読み出され、これらの一覧がディ
スプレイ45に表示される(ステップST42)。これ
により、記録媒体9中の選択候補となる照明成分データ
432が感性情報432aに基づいて選択可能な状態と
なる。図16および図17はそれぞれ光源を示す場合と
光源を示さない場合のディスプレイ45の表示画面の例
を示す図である。
Next, the image reproducing section 403 reads out the sentiment information 432a given to each illumination component data 432 stored in the recording medium 9, and displays a list of these on the display 45 (step ST42). ). As a result, the illumination component data 432, which is a selection candidate in the recording medium 9, can be selected based on the sensitivity information 432a. 16 and 17 are diagrams showing examples of the display screen of the display 45 when the light source is shown and when the light source is not shown.

【0102】操作者は感性情報432aの一覧を見なが
ら、いずれかを入力部46を介して指定する。コンピュ
ータ33は操作者からの指定を受け付けると、指定され
た感性情報432aが付与されている照明成分データ4
32を再生に利用すべき照明成分データ232として決
定し(ステップST43)、この照明成分データ432
を記録媒体9からRAM43へと読み出す(ステップS
T44)。
The operator designates one of them through the input section 46 while viewing the list of the kansei information 432a. When receiving the designation from the operator, the computer 33 receives the illumination component data 4 to which the designated sensitivity information 432a is added.
32 is determined as the illumination component data 232 to be used for reproduction (step ST43).
Is read from the recording medium 9 to the RAM 43 (step S
T44).

【0103】その後、第1の実施の形態と同様に画像再
生部403がRAM43に記憶されている照明成分デー
タ432および物体色成分データ433を数5に示した
演算を行って合成し、画像データを生成する(ステップ
ST45)。生成された画像データはディスプレイ45
に再生される(ステップST46)。
Thereafter, as in the first embodiment, the image reproducing unit 403 combines the illumination component data 432 and the object color component data 433 stored in the RAM 43 by performing the operation shown in Expression 5, and synthesizes the image data. Is generated (step ST45). The generated image data is displayed on the display 45.
(Step ST46).

【0104】以上のように、デジタル撮像システム3で
は複数のフィルタを用いて複数の予備画像を取得し、こ
れらの予備画像に基づいて照明成分データ432および
物体色成分データ433を生成する。そして、これらの
データは独立して取り出し可能な状態で保存されるた
め、第1の実施の形態と同様に所望の照明環境下の撮影
対象から得られるであろう画像を適切に再生することが
できる。
As described above, the digital imaging system 3 acquires a plurality of preliminary images using a plurality of filters, and generates the illumination component data 432 and the object color component data 433 based on these preliminary images. Since these data are stored in such a manner that they can be independently taken out, it is possible to appropriately reproduce an image that would be obtained from a photographing target under a desired lighting environment as in the first embodiment. it can.

【0105】また、照明成分データ432として図16
に例示するように標準光(D65等)を設けておくこと
で、任意の照明環境にて得られた画像から撮影対象の正
確な色再現も可能であり、印刷用の画像やインターネッ
トショッピング等に用いられる画像として適切な画像を
生成することができる。
The illumination component data 432 shown in FIG.
By providing a standard light (such as D65) as shown in the example, accurate color reproduction of the photographing target can be performed from an image obtained in an arbitrary lighting environment. An image suitable as an image to be used can be generated.

【0106】さらに、このデジタル撮像システム3で
は、照明成分データ432に感性情報432aを付与
し、照明成分データ432を選択する際に操作者が感性
情報432aに基づいて選択を行うことができるように
されており、感性に基づいた画像再生を楽しむことがで
きる。
Further, in the digital imaging system 3, the illumination component data 432 is given sensitivity information 432a so that the operator can select the illumination component data 432 based on the sensitivity information 432a. Thus, it is possible to enjoy image reproduction based on sensitivity.

【0107】<3. 変形例>以上、この発明に係る実
施の形態について説明してきたが、この発明は上記実施
の形態に限定されるものではなく様々な変形が可能であ
る。
<3. Modifications> While the preferred embodiments of the present invention have been described above, the present invention is not limited to the above-discussed preferred embodiments, but allows various modifications.

【0108】例えば、上記実施の形態における照明成分
データは照明環境が画像に与えている影響を示すデータ
であればどのようなものであってもよく、照明環境の影
響をある程度示すのであるならば厳密に求められる必要
はない。また、物体色成分データも画像から照明環境の
影響を取り除いた成分を示すデータであればどのような
ものであってもよく、照明環境が与える影響を厳密に取
り除いた成分を示すデータである必要はない。
For example, the illumination component data in the above embodiment may be any data as long as the data indicates the effect of the illumination environment on the image. It does not need to be strictly required. Also, the object color component data may be any data as long as the data shows the component from which the influence of the lighting environment has been removed from the image. There is no.

【0109】また、上記実施の形態では、照明成分デー
タが複数の基底関数と複数の加重係数として保存される
と説明したが、照明成分データの保存形式は他の形式で
あってもよい。例えば、照明成分データが分光分布の特
性曲線として保存されてもよい。
In the above embodiment, the illumination component data is stored as a plurality of basis functions and a plurality of weighting coefficients. However, the storage format of the illumination component data may be another format. For example, the illumination component data may be stored as a characteristic curve of the spectral distribution.

【0110】また、照明成分データは、デジタルカメラ
1やデジタル撮像システム3を用いて必ずしも求められ
る必要はなく、例えば、仮想的な照明を意図した照明成
分データが別途生成されてもよい。さらに、画像が再生
される際に利用される照明成分データは、外部メモリ1
23や記録媒体9に保存されている複数の照明成分デー
タを合成することにより生成されてもよい。
The illumination component data need not always be obtained using the digital camera 1 or the digital imaging system 3. For example, illumination component data intended for virtual illumination may be separately generated. Further, the illumination component data used when the image is reproduced is stored in the external memory 1.
23 or a plurality of illumination component data stored in the recording medium 9.

【0111】また、照明成分データと物体色成分データ
とがRAM、外部メモリ123、記録媒体9等に別個独
立して(例えば、ファイル名が同一で拡張子が異なる別
ファイルで)保存されると説明したが、照明成分データ
および物体色成分データが独立に取り出すことができる
状態であるならばどのような形態で保存されてもよい。
例えば、1つのファイルの前半部分に物体色成分データ
が格納され、後半部分に照明成分データが格納されても
よく、1つのファイルに画素ごとの物体色成分データお
よび照明成分データが順に並ぶように配置されてもよ
い。
When the illumination component data and the object color component data are stored separately and independently (for example, as different files having the same file name but different extensions) in the RAM, the external memory 123, the recording medium 9, and the like. Although described, the illumination component data and the object color component data may be stored in any form as long as the data can be extracted independently.
For example, object color component data may be stored in the first half of one file, and illumination component data may be stored in the second half, and the object color component data and the illumination component data for each pixel are sequentially arranged in one file. It may be arranged.

【0112】また、上記第2の実施の形態では、デジタ
ルカメラ31の前方に回転式フィルタ32を配置するよ
うにしているが、複数のフィルタを切り替える機構をデ
ジタルカメラ31内部に設けてもよい。また、フィルタ
の切り替え機構を設けずにデジタルカメラ31として複
数(好ましくは4以上)の入力バンドを有するものを用
い、これにより複数の波長帯のそれぞれについて画像を
取得するようになっていてもよい。さらに、デジタルカ
メラ31や回転式フィルタ32とコンピュータ33とは
伝送線で接続されている必要はなく、記録媒体を介して
予備画像データ431等がコンピュータ33に取り込ま
れるようになっていてもよい。
In the second embodiment, the rotary filter 32 is arranged in front of the digital camera 31. However, a mechanism for switching a plurality of filters may be provided inside the digital camera 31. Further, a digital camera 31 having a plurality of (preferably four or more) input bands may be used without providing a filter switching mechanism, so that an image may be obtained for each of a plurality of wavelength bands. . Further, the digital camera 31 and the rotary filter 32 do not need to be connected to the computer 33 by a transmission line, and the preliminary image data 431 and the like may be taken into the computer 33 via a recording medium.

【0113】また、上記第2の実施の形態では、成分デ
ータ生成部401により照明成分データ432および物
体色成分データ433を生成するようにしているが、ス
ケールファクタβを0として照明成分データ432を求
め、次に、数4に示した演算により第1の実施の形態と
同様の手法で物体色成分データ433を求めてもよい。
これにより演算の簡素化が図られる。このように、照明
成分データおよび物体色成分データを求める演算手法と
して様々な方法が採用可能である。
Further, in the second embodiment, the illumination component data 432 and the object color component data 433 are generated by the component data generation unit 401. However, the illumination component data 432 is Then, the object color component data 433 may be obtained by the calculation shown in Expression 4 in the same manner as in the first embodiment.
This simplifies the operation. As described above, various methods can be adopted as a calculation method for obtaining the illumination component data and the object color component data.

【0114】さらに、この発明はデジタルカメラを用い
て画像を得る場合に限定されるものではなく、スキャナ
等の他の画像入力装置にて得られる画像についても利用
することができる。
Further, the present invention is not limited to the case where an image is obtained using a digital camera, but can be used for an image obtained with another image input device such as a scanner.

【0115】[0115]

【発明の効果】請求項1ないし5、並びに、請求項8な
いし12に記載の発明では、画像から照明環境の影響を
取り除いた成分を示す第2データを独立して取り出し可
能な状態で保存するので、画像を再生する際に、互いに
独立して生成された第1データと第2データとを利用す
ることができる。これにより、照明環境を変更した画像
を再生することができる。
According to the first to fifth and eighth to twelfth aspects of the present invention, the second data indicating the component from which the influence of the illumination environment has been removed from the image is stored in such a manner that it can be independently extracted. Therefore, when reproducing an image, the first data and the second data generated independently of each other can be used. This makes it possible to reproduce an image in which the lighting environment has been changed.

【0116】また、請求項4および11に記載の発明で
は、第1データを簡易に取得することができる。
According to the fourth and eleventh aspects of the present invention, the first data can be easily obtained.

【0117】請求項6および7、並びに、請求項13な
いし15に記載の発明では、撮影対象への照明環境を変
更した画像を再生することができる。
According to the sixth and seventh aspects and the thirteenth to fifteenth aspects of the present invention, it is possible to reproduce an image in which the illumination environment for the photographing target is changed.

【0118】また、請求項7および14に記載の発明で
は、再生される画像における照明環境の影響を感性に基
づいて選択することができる。
Further, according to the inventions set forth in claims 7 and 14, the influence of the lighting environment on the reproduced image can be selected based on sensitivity.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明に係るデジタルカメラの全体を示す斜
視図である。
FIG. 1 is a perspective view showing an entire digital camera according to the present invention.

【図2】図1に示すデジタルカメラにおいてこの発明に
係る処理を実行するための構成を示すブロック図であ
る。
FIG. 2 is a block diagram showing a configuration for executing processing according to the present invention in the digital camera shown in FIG. 1;

【図3】図2に示す構成を機能に分けて示すブロック図
である。
FIG. 3 is a block diagram showing the configuration shown in FIG. 2 divided into functions.

【図4】図1に示すデジタルカメラにおける画像を保存
する際の動作の流れを示す流れ図である。
FIG. 4 is a flowchart showing an operation flow when saving an image in the digital camera shown in FIG. 1;

【図5】図1に示すデジタルカメラにおける画像を再生
する際の動作の流れを示す流れ図である。
5 is a flowchart showing a flow of an operation when reproducing an image in the digital camera shown in FIG. 1.

【図6】この発明に係るデジタル撮像システムの構成を
示す図である。
FIG. 6 is a diagram showing a configuration of a digital imaging system according to the present invention.

【図7】図6に示すデジタル撮像システムにおいてこの
発明に係る処理を実行するための構成を示すブロック図
である。
FIG. 7 is a block diagram showing a configuration for executing processing according to the present invention in the digital imaging system shown in FIG. 6;

【図8】図7に示す構成を機能に分けて示すブロック図
である。
8 is a block diagram showing the configuration shown in FIG. 7 divided into functions.

【図9】図6に示すデジタル撮像システムにおける画像
を保存する際の動作の流れを示す流れ図である。
FIG. 9 is a flowchart showing a flow of operation when saving an image in the digital imaging system shown in FIG. 6;

【図10】照明成分データと感性情報との関係を示す模
式図である。
FIG. 10 is a schematic diagram showing a relationship between illumination component data and sensibility information.

【図11】照明成分データと感性情報との関係を示す模
式図である。
FIG. 11 is a schematic diagram illustrating a relationship between illumination component data and sensibility information.

【図12】照明成分データにより表現される照明光の分
光分布の例を示す図である。
FIG. 12 is a diagram illustrating an example of a spectral distribution of illumination light represented by illumination component data.

【図13】照明成分データにより表現される照明光の分
光分布の例を示す図である。
FIG. 13 is a diagram illustrating an example of a spectral distribution of illumination light represented by illumination component data.

【図14】照明成分データにより表現される照明光の分
光分布の例を示す図である。
FIG. 14 is a diagram illustrating an example of a spectral distribution of illumination light represented by illumination component data.

【図15】図6に示すデジタル撮像システムにおける画
像を再生する際の動作の流れを示す流れ図である。
FIG. 15 is a flowchart showing a flow of an operation when reproducing an image in the digital imaging system shown in FIG. 6;

【図16】感性情報の一覧が表示された画面の例を示す
図である。
FIG. 16 is a diagram showing an example of a screen on which a list of sensibility information is displayed.

【図17】感性情報の一覧が表示された画面の例を示す
図である。
FIG. 17 is a diagram illustrating an example of a screen on which a list of sensitivity information is displayed.

【符号の説明】[Explanation of symbols]

1 デジタルカメラ 3 デジタル撮像システム 9 記録媒体 21,41 CPU 22 ROM 23,43 RAM 31 デジタルカメラ 32 回転式フィルタ 33 コンピュータ 42 HDD 44 ディスクドライブ 45 ディスプレイ 46 入力部 114 マルチバンドセンサ 201 照明成分データ生成部 202 物体色成分データ生成部 203,403 画像再生部 231 画像データ 232,432 照明成分データ 233,433 物体色成分データ 401 成分データ生成部 421 プログラム 431 予備画像データ 432a 感性情報 ST12〜ST14,ST21〜ST24,ST31〜
ST34,ST36,ST41〜ST46 ステップ
Reference Signs List 1 digital camera 3 digital imaging system 9 recording medium 21, 41 CPU 22 ROM 23, 43 RAM 31 digital camera 32 rotary filter 33 computer 42 HDD 44 disk drive 45 display 46 input unit 114 multi-band sensor 201 illumination component data generation unit 202 Object color component data generation units 203, 403 Image reproduction unit 231 Image data 232, 432 Illumination component data 233, 433 Object color component data 401 Component data generation unit 421 Program 431 Preliminary image data 432a Sensitivity information ST12 to ST14, ST21 to ST24, ST31-
ST34, ST36, ST41 to ST46 Step

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 H04N 9/04 Z 5C065 5/235 G06F 15/66 310 5C066 5/91 H04N 1/40 D 5C077 9/04 1/46 A 5C079 5/91 J 9/79 9/79 G Fターム(参考) 2H002 CC00 DB17 HA04 JA07 5B057 AA11 AA20 BA02 CA01 CA08 CA12 CB01 CB08 CB12 CC01 CE17 CH11 DB02 DB06 DB09 DC25 5C022 AA13 AB13 AB15 AC03 AC42 AC54 AC55 5C053 FA08 FA27 HA33 HA40 JA26 KA01 KA24 KA25 LA02 5C055 AA03 AA06 BA03 DA00 EA05 HA37 5C065 AA03 BB02 BB41 CC01 CC09 DD02 EE15 GG18 GG26 GG32 GG44 5C066 AA01 CA05 CA17 EA14 EB01 FA02 GA01 GB01 HA01 KA13 KE01 KE11 KM02 KM13 LA02 5C077 LL01 LL19 MM03 MM20 MP08 PP31 PP32 PP37 PP43 PP71 PQ18 PQ22 SS03 TT09 5C079 JA16 JA25 LA01 LA02 LB01 MA01 MA11 MA17 NA21 PA00──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat 参考 (Reference) H04N 5/225 H04N 9/04 Z 5C065 5/235 G06F 15/66 310 5C066 5/91 H04N 1/40 D 5C077 9/04 1/46 A 5C079 5/91 J 9/79 9/79 GF term (reference) 2H002 CC00 DB17 HA04 JA07 5B057 AA11 AA20 BA02 CA01 CA08 CA12 CB01 CB08 CB12 CC01 CE17 CH11 DB02 DB06 DB09 DC25 5C022 AA13 AB AB15 AC03 AC42 AC54 AC55 5C053 FA08 FA27 HA33 HA40 JA26 KA01 KA24 KA25 LA02 5C055 AA03 AA06 BA03 DA00 EA05 HA37 5C065 AA03 BB02 BB41 CC01 CC09 DD02 EE15 GG18 GG26 GG32 GG44 5C066 KA01 KA01 KA01 KA01 GM01 5C077 LL01 LL19 MM03 MM20 MP08 PP31 PP32 PP37 PP43 PP71 PQ18 PQ22 SS03 TT09 5C079 JA16 JA25 LA01 LA02 LB01 MA01 MA11 MA17 NA21 PA00

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 照明環境が画像に与える影響を示す第1
データを取得する手段と、 前記画像において前記照明環境の影響を取り除いた成分
を第2データとして取得する手段と、 前記第2データを独立して取り出し可能な状態で保存す
る手段と、を備えることを特徴とする画像保存装置。
1. A first image showing an influence of an illumination environment on an image.
Means for acquiring data, means for acquiring a component of the image from which the influence of the lighting environment has been removed as second data, and means for storing the second data in a state that can be independently retrieved. An image storage device characterized by the above-mentioned.
【請求項2】 請求項1に記載の画像保存装置であっ
て、 前記第2データが、複数の基底関数および対応する複数
の加重係数を含むデータであることを特徴とする画像保
存装置。
2. The image storage device according to claim 1, wherein the second data is data including a plurality of basis functions and a corresponding plurality of weight coefficients.
【請求項3】 請求項1または2に記載の画像保存装置
であって、 前記第1データを保存する手段、をさらに備えることを
特徴とする画像保存装置。
3. The image storage device according to claim 1, further comprising: a unit configured to store the first data.
【請求項4】 請求項1ないし3のいずれかに記載の画
像保存装置であって、 前記第1データを取得する手段が、 前記画像を撮影する際に、撮影対象から入射する光の複
数の波長帯の強度を取得する手段、を有することを特徴
とする画像保存装置。
4. The image storage device according to claim 1, wherein the means for acquiring the first data includes a plurality of light beams incident from a photographing target when the image is photographed. An image storage device, comprising: means for acquiring intensity in a wavelength band.
【請求項5】 請求項1ないし3のいずれかに記載の画
像保存装置であって、 前記第1データを取得する手段が、 複数の波長帯に対応した複数のフィルタのそれぞれを介
して撮影を行うことにより前記画像として複数の予備画
像を取得する手段と、 前記複数の予備画像から前記第1データを求める手段
と、を有することを特徴とする画像保存装置。
5. The image storage device according to claim 1, wherein the means for acquiring the first data captures an image via each of a plurality of filters corresponding to a plurality of wavelength bands. An image storage device comprising: means for acquiring a plurality of preliminary images as the image by performing the operation; and means for obtaining the first data from the plurality of preliminary images.
【請求項6】 所定の照明環境が画像に与える影響を示
す第1データ、および、請求項1ないし5のいずれかに
記載の画像保存装置により保存された前記第2データを
用いて画像を再生することを特徴とする画像再生装置。
6. An image is reproduced using first data indicating an influence of a predetermined lighting environment on an image, and the second data stored by the image storage device according to claim 1. An image reproducing apparatus, comprising:
【請求項7】 請求項6に記載の画像再生装置であっ
て、互いに異なる照明環境が画像に与える影響を示す複
数の候補データのそれぞれに、照明環境の影響により画
像が観察者に与える感覚を示す感性情報が予め付与され
おり、 前記複数の候補データに付与されている感性情報の一覧
を表示する手段と、 前記一覧から感性情報の選択を受け付け、選択された感
性情報に対応する候補データを前記第1データとして決
定する手段と、を備えることを特徴とする画像再生装
置。
7. The image reproducing apparatus according to claim 6, wherein each of the plurality of candidate data indicating an influence of a different lighting environment on the image gives a sense of an image to an observer due to the influence of the lighting environment. A means for displaying a list of sentiment information assigned to the plurality of candidate data, accepting selection of sentiment information from the list, and selecting candidate data corresponding to the selected sentiment information. Means for determining the first data.
【請求項8】 照明環境が画像に与える影響を示す第1
データを取得する工程と、 前記画像において前記照明環境の影響を取り除いた成分
を第2データとして取得する工程と、 前記第2データを独立して取り出し可能な状態で保存す
る工程と、を有することを特徴とする画像保存方法。
8. A first image showing an influence of an illumination environment on an image.
A step of acquiring data; a step of acquiring, as second data, a component of the image from which the influence of the illumination environment has been removed; and a step of storing the second data in a state that can be independently retrieved. An image storage method characterized by the following.
【請求項9】 請求項8に記載の画像保存方法であっ
て、 前記第2データが、複数の基底関数および対応する複数
の加重係数を含むデータであることを特徴とする画像保
存方法。
9. The image storage method according to claim 8, wherein the second data is data including a plurality of basis functions and a corresponding plurality of weighting coefficients.
【請求項10】 請求項8または9に記載の画像保存方
法であって、 前記第1データを保存する工程、をさらに有することを
特徴とする画像保存方法。
10. The image storage method according to claim 8, further comprising the step of storing the first data.
【請求項11】 請求項8ないし10のいずれかに記載
の画像保存方法であって、 前記第1データを取得する工程が、 前記画像を撮影する際に、撮影対象から入射する光の複
数の波長帯の強度を取得する工程、を有することを特徴
とする画像保存方法。
11. The image storage method according to claim 8, wherein the step of obtaining the first data includes: a step of obtaining a plurality of light beams incident from a shooting target when the image is shot. Acquiring an intensity in a wavelength band.
【請求項12】 請求項8ないし10のいずれかに記載
の画像保存方法であって、 前記第1データを取得する工程が、 複数の波長帯に対応した複数のフィルタのそれぞれを介
して撮影を行うことにより前記画像として複数の予備画
像を取得する工程と、 前記複数の予備画像から前記第1データを求める工程
と、を有することを特徴とする画像保存方法。
12. The image storage method according to claim 8, wherein the step of acquiring the first data includes capturing an image via each of a plurality of filters corresponding to a plurality of wavelength bands. An image storing method, comprising: acquiring a plurality of preliminary images as the images by performing the image processing; and obtaining the first data from the plurality of preliminary images.
【請求項13】 所定の照明環境が画像に与える影響を
示す第1データを準備する工程と、 請求項8ないし12のいずれかに記載の画像保存方法に
より保存された前記第2データを準備する工程と、 前記第1データおよび前記第2データを用いて画像を再
生する工程と、を有することを特徴とする画像再生方
法。
13. A step of preparing first data indicating an influence of a predetermined lighting environment on an image, and preparing the second data stored by the image storing method according to claim 8. And a step of reproducing an image using the first data and the second data.
【請求項14】 請求項13に記載の画像再生方法であ
って、互いに異なる照明環境が画像に与える影響を示す
複数の候補データのそれぞれに、照明環境の影響により
画像が観察者に与える感覚を示す感性情報が予め付与さ
れおり、 前記第1データを準備する工程が、 前記複数の候補データに付与されている感性情報の一覧
を表示する工程と、 前記一覧から感性情報の選択を受け付け、選択された感
性情報に対応する候補データを前記第1データとして決
定する工程と、を有することを特徴とする画像再生方
法。
14. The image reproducing method according to claim 13, wherein each of a plurality of candidate data indicating an influence of a different lighting environment on an image gives a sense of an image to an observer due to the influence of the lighting environment. The sentiment information to be given is given in advance, and the step of preparing the first data includes the step of displaying a list of sentiment information given to the plurality of candidate data; Deciding candidate data corresponding to the sentiment information as the first data.
【請求項15】 画像を処理するプログラムを記録した
コンピュータ読み取り可能な記録媒体であって、 前記プログラムは、所定の照明環境が画像に与える影響
を示す第1データ、および、請求項1ないし5のいずれ
かに記載の画像保存装置により保存された前記第2デー
タを用いて画像を再生する処理をコンピュータに実行さ
せることを特徴とする記録媒体。
15. A computer-readable recording medium having recorded thereon a program for processing an image, wherein the program comprises: first data indicating an influence of a predetermined lighting environment on an image; A recording medium characterized by causing a computer to execute a process of reproducing an image using the second data stored by the image storage device according to any one of the above.
JP11176543A 1999-06-23 1999-06-23 Image storage device, image reproducing device, image storage method, image reproducing method and recording medium Pending JP2001008224A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11176543A JP2001008224A (en) 1999-06-23 1999-06-23 Image storage device, image reproducing device, image storage method, image reproducing method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11176543A JP2001008224A (en) 1999-06-23 1999-06-23 Image storage device, image reproducing device, image storage method, image reproducing method and recording medium

Publications (1)

Publication Number Publication Date
JP2001008224A true JP2001008224A (en) 2001-01-12

Family

ID=16015435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11176543A Pending JP2001008224A (en) 1999-06-23 1999-06-23 Image storage device, image reproducing device, image storage method, image reproducing method and recording medium

Country Status (1)

Country Link
JP (1) JP2001008224A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015030003A1 (en) * 2013-08-27 2015-03-05 富士フイルム株式会社 Video production system and video production method
JP2015171038A (en) * 2014-03-07 2015-09-28 キヤノン株式会社 Image processing system and method of the same
US10027938B2 (en) 2014-07-08 2018-07-17 Fujifilm Corporation Image processing device, imaging device, image processing method, and image processing program
WO2022215163A1 (en) * 2021-04-06 2022-10-13 日本電信電話株式会社 Information processing device, information processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015030003A1 (en) * 2013-08-27 2015-03-05 富士フイルム株式会社 Video production system and video production method
JP2015046692A (en) * 2013-08-27 2015-03-12 富士フイルム株式会社 Image creation system and image creation method
JP2015171038A (en) * 2014-03-07 2015-09-28 キヤノン株式会社 Image processing system and method of the same
US9894283B2 (en) 2014-03-07 2018-02-13 Canon Kabushiki Kaisha Image processing apparatus and method therefor
US10027938B2 (en) 2014-07-08 2018-07-17 Fujifilm Corporation Image processing device, imaging device, image processing method, and image processing program
WO2022215163A1 (en) * 2021-04-06 2022-10-13 日本電信電話株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP3551854B2 (en) Digital photographing apparatus, image data processing apparatus, digital photographing method, and recording medium
JP4231661B2 (en) Color reproduction device
JP4076248B2 (en) Color reproduction device
JP2002150315A (en) Image processing device and recording medium
US20060269270A1 (en) Photography apparatus, photography method and photography program
US20170318178A1 (en) Multispectral lighting reproduction
JP2001060082A (en) Color reproducing terminal device and network color reproducing system
JP5407600B2 (en) Image processing apparatus, image processing method, and electronic camera
JP2003348501A (en) Image display device
JP5279636B2 (en) Imaging device
JP4427891B2 (en) Image management device, digital imaging device, and image generation device
JP2005311581A (en) Image input system, transformation matrix calculating method, and program
JP2005181038A (en) Reflective characteristic measuring apparatus, high color reproduction design system using it, and reflective characteristic measuring method
JP3925681B2 (en) Multiband image output method and apparatus
JP5127638B2 (en) Image processing apparatus and method
JP2001008224A (en) Image storage device, image reproducing device, image storage method, image reproducing method and recording medium
JP5598045B2 (en) Image processing apparatus, image processing program, imaging apparatus, and image display apparatus
JP2000341499A (en) Color reproducing apparatus
JP2004267448A (en) Image processor, image processing method and program
JP2001016607A (en) Digital photographing device and digital photographing method
JP2002232907A (en) Digital image pickup device, program and recording medium
JP2012195760A (en) Shooting setting adjustment system, information processing unit, and control method and control program therefor
JP5181687B2 (en) Electronic camera
JP2006081654A (en) Image forming method, and device therefor
JP2003046795A (en) Program, recording medium, image processing apparatus and color correction method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20041116

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20041130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080930

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090210