[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005192158A - Image processing method, image processing apparatus, and image recording apparatus - Google Patents

Image processing method, image processing apparatus, and image recording apparatus Download PDF

Info

Publication number
JP2005192158A
JP2005192158A JP2003434636A JP2003434636A JP2005192158A JP 2005192158 A JP2005192158 A JP 2005192158A JP 2003434636 A JP2003434636 A JP 2003434636A JP 2003434636 A JP2003434636 A JP 2003434636A JP 2005192158 A JP2005192158 A JP 2005192158A
Authority
JP
Japan
Prior art keywords
hue
image data
captured image
balance adjustment
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003434636A
Other languages
Japanese (ja)
Inventor
Hiroaki Takano
博明 高野
Jo Nakajima
丈 中嶋
Daisuke Sato
大輔 佐藤
Tsukasa Ito
司 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2003434636A priority Critical patent/JP2005192158A/en
Publication of JP2005192158A publication Critical patent/JP2005192158A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method for applying gray balance adjustment under a more optimized condition by each photographing scene, and to provide an image processing apparatus and an image recording apparatus employing the method. <P>SOLUTION: The image recording apparatus 1 disclosed herein acquires the hue value and the saturation value of input image data, generates a two-dimensional histogram denoting the accumulated frequency distribution of pixels within a coordinate plane wherein an X-axis is the hue value (H) and a Y-axis is the saturation value (S), divides the two-dimensional histogram into prescribed hue regions, calculates a share (occupancy rate) of pixels of each region in the entire input image data by each divided hue region, calculates a low saturation threshold value by each hue region on the basis of the calculated occupancy rate, and extracts low saturation pixels used for calculating the gray balance adjustment condition on the basis of the low saturation threshold value. Then the image recording apparatus 1 calculates the gray balance adjustment condition by using the extracted low saturation threshold value and applies gray balance adjustment to the input image data under the calculated condition. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、撮像画像データに画像処理を施して、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法、画像処理装置及び画像記録装置に関する。   The present invention relates to an image processing method, an image processing apparatus, and an image recording apparatus that perform image processing on captured image data and output image data optimized for viewing on an output medium.

今日、カラー写真フィルムのスキャニング画像や、撮像装置で撮影されたデジタル画像データは、CD-R、フロッピー(登録商標)ディスク、メモリーカードなどの記憶デバイスやインターネット経由で配信され、CRT(Cathode Ray Tube)、液晶、プラズマ等のディスプレイモニタや携帯電話の小型液晶モニタの表示デバイスに表示されたり、デジタルプリンタ、インクジェットプリンタ、サーマルプリンタ等の出力デバイスを用いてハードコピー画像としてプリントされるなど、その表示・プリント方法は多種多様化している。   Today, scanning images of color photographic film and digital image data taken with an imaging device are distributed via storage devices such as CD-Rs, floppy disks, and memory cards, and the Internet, and CRT (Cathode Ray Tube ), Displayed on a display device such as a liquid crystal display or plasma display or a small liquid crystal display monitor of a mobile phone, or printed as a hard copy image using an output device such as a digital printer, an ink jet printer, or a thermal printer.・ Printing methods are diversified.

こうした多様な表示・プリント方法に対応して、デジタル画像データの汎用性を高める努力がなされてきた。その一環として、デジタルRGB信号が表現する色空間を撮像装置特性に依存しない色空間に標準化する試みがあり、現在では多くのデジタル画像データが標準化された色空間として「sRGB」を採用している(「Multimedia Systems and Equipment-Colour Measurment and Management-Part2-1:Colour Management-Default RGB Colour Space-sRGB」IEC"61966-2-1を参照)。このsRGBの色空間は標準的なCRTディスプレイモニタの色再現領域に対応して設定されている。 In response to these various display / printing methods, efforts have been made to increase the versatility of digital image data. As part of this effort, there is an attempt to standardize the color space represented by the digital RGB signal into a color space that does not depend on the characteristics of the imaging device. Currently, "sRGB" is adopted as the standardized color space for many digital image data. (See "Multimedia Systems and Equipment-Colour Measurment and Management-Part2-1: Color Management-Default RGB Color Space-sRGB" IEC "61966-2-1.) The sRGB color space is that of a standard CRT display monitor. It is set corresponding to the color reproduction area.

一般的に、スキャナやデジタルカメラは、CCD(電荷結合素子(charge coupled device))と電荷転送機構と、市松模様のカラーフィルタとを組み合わせ感色性を付与した、光電変換機能を有する撮像素子(CCD型撮像素子、以下単に「CCD」とも称す)を備えている。スキャナやデジタルカメラにより出力されるデジタル画像データは、CCDを介して変換された電気的な元信号に、撮像素子の光電変換機能の補正(例えば、階調補正、分光感度のクロストーク補正、暗電流ノイズ抑制、鮮鋭化、ホワイトバランス調整、彩度調整等の画像処理)が施され、画像編集ソフトでの読み取り・表示が可能なように規格化された所定形式のデータフォーマットへのファイル変換・圧縮処理等を経たものである。   In general, a scanner or a digital camera uses an image sensor (photoelectric conversion function) that combines a CCD (charge coupled device), a charge transfer mechanism, and a checkered color filter to provide color sensitivity. CCD type image sensor, hereinafter simply referred to as “CCD”). Digital image data output by a scanner or digital camera is converted into an electrical original signal converted via a CCD by correcting the photoelectric conversion function of the image sensor (for example, tone correction, spectral sensitivity crosstalk correction, darkness correction). File conversion to a specified data format that has been standardized so that it can be read and displayed by image editing software with current noise suppression, sharpening, white balance adjustment, saturation adjustment, etc. It has undergone compression processing and the like.

このようなデータフォーマットとしては、例えばExif(Exchangeable Image File Format)ファイルの非圧縮ファイルとして採用されている「Baseline Tiff Rev.6.0RGB Full Color Image」、及びJPEGフォーマットに準拠した圧縮データファイル形式が知られている。Exifファイルは、前記sRGBに準拠したものであり、撮像素子の光電変換機能の補正は、sRGBに準拠するディスプレイモニタ上で最も好適な画質となるよう設定されている。   As such a data format, for example, “Baseline Tiff Rev.6.0RGB Full Color Image” adopted as an uncompressed file of an Exif (Exchangeable Image File Format) file and a compressed data file format compliant with the JPEG format are known. It has been. The Exif file conforms to the sRGB, and correction of the photoelectric conversion function of the image sensor is set so as to obtain the most suitable image quality on a display monitor conforming to sRGB.

例えば、どのようなデジタルカメラであっても、sRGB信号に準拠したディスプレイモニタの標準色空間(以下、「モニタプロファイル」とも称す)で表示する事を示すタグ情報、や画素数、画素配列、及び1画素当たりのビット数などの機種依存情報を示す付加情報をデジタル画像データのファイルヘッダにメタデータとして書き込む機能、及びそのようなデータフォーマット形式を採用してさえいれば、デジタル画像データをディスプレイモニタに表示する画像編集ソフト(例えば、Adobe社製Photoshop)はタグ情報を解析し、モニタプロファイルのsRGBへの変更を促したり、自動的に変更処置を施すことが出来る。そのため、異なるディスプレイ間の差異を低減したり、デジタルカメラで撮影されたデジタル画像データをディスプレイ上で好適な状態で鑑賞することが可能になっている。   For example, in any digital camera, tag information indicating that display is performed in a standard color space of a display monitor compliant with the sRGB signal (hereinafter also referred to as “monitor profile”), the number of pixels, the pixel arrangement, and The digital image data can be displayed on a display monitor as long as it adopts a function for writing additional information indicating model-dependent information such as the number of bits per pixel as metadata in the file header of the digital image data and such a data format. The image editing software (for example, Adobe Photoshop) that displays the tag information can analyze the tag information, prompt the monitor profile to be changed to sRGB, or perform the change process automatically. Therefore, it is possible to reduce the difference between different displays and to view digital image data captured by a digital camera in a suitable state on the display.

また、デジタル画像データのファイルヘッダに書き込まれる付加情報としては、上述した機種依存情報以外にも、例えば、カメラ名称やコード番号など、カメラ種別(機種)に直接関係する情報、或いは露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーンタイプ、ストロボ光源の反射光の量、撮影彩度などの撮影条件設定や、被写体の種類に関する情報などを示すタグ(コード)が用いられており、画像編集ソフトや出力デバイスは、これらの付加情報を読み取り、ハードコピー画像の画質をより好適なものとする機能を備えている。   Further, as additional information written in the file header of digital image data, in addition to the above-mentioned model-dependent information, for example, information directly related to the camera type (model) such as camera name and code number, exposure time, shutter Speed, aperture value (F number), ISO sensitivity, brightness value, subject distance range, light source, presence or absence of strobe light, subject area, white balance, zoom magnification, subject composition, shooting scene type, amount of reflected light from strobe light source, Tags (codes) indicating shooting condition settings such as shooting saturation and information on the type of subject are used, and image editing software and output devices read these additional information to improve the quality of hard copy images. A function to be suitable is provided.

カラー写真フィルムにおいても、上述したような付加情報を付与すべく磁気記録層を付与した製品(APSフィルム)が開発されている。しかしながら当業者の思惑に反し市場での普及は遅く、依然として従来製品が大半を占めているのが現状である。従って、スキャナ読み取り画像に対し付加情報を用いた画像処理は、当面期待することは出来ない。また、カラー写真フィルムは品種毎に特性が異なるため、初期のデジタルミニラボでは、予め夫々の特性に最適な条件を用意していたが、近年では効率化のため殆どの機種で廃止されている。よって品種毎の差異を補正し、さらに付加情報を用いた処理に匹敵する画質改善を、フィルムの濃度情報だけで自動的に行うという、非常に高度な画像処理技術への要望が高まっている。   Also for color photographic films, products (APS films) provided with a magnetic recording layer have been developed to provide additional information as described above. However, contrary to the expectation of those skilled in the art, the spread in the market is slow, and the conventional products still occupy the majority. Therefore, image processing using additional information for the scanner read image cannot be expected for the time being. In addition, since the characteristics of color photographic films differ depending on the type, the initial digital minilabs prepared the optimum conditions for the respective characteristics in advance, but in recent years they have been abolished in most models for efficiency. Therefore, there is an increasing demand for a very advanced image processing technique that corrects the difference for each product type and automatically performs image quality improvement comparable to processing using additional information using only film density information.

中でも、撮影光源の色温度変化を補正するグレー(ホワイト)バランス調整などは、撮影時に補正されるか、或いは補正するための情報が得られることが望ましい項目の1つである。デジタルカメラでは、撮影時にこれらの補正を行うことが可能であるが、カラー写真フィルムでは原理的に不可能であり、また前述の如く付加情報が期待出来ないことから、所望の画質を得る上で非常に大きな障害であり、未だに数多くの経験則に基づくアルゴリズムを強いられている。以下、グレーバランス調整の処理内容と問題点を述べる。   In particular, gray (white) balance adjustment for correcting a change in color temperature of the photographing light source is one of the items that are desirably corrected at the time of photographing or information for correction is obtained. In digital cameras, these corrections can be made at the time of shooting, but in principle it is impossible with color photographic film, and additional information cannot be expected as described above. It's a huge obstacle, and you're still forced to use a number of heuristic algorithms. Hereinafter, processing contents and problems of gray balance adjustment will be described.

例えば、特許文献1には、低彩度画素を抽出し、BGR濃度座標上で等価中性濃度に一次線形近似する方法が記載されている。また、カラーフェリアと呼ばれる色濃度偏倚を抑制するために、BG相関にはRC色相分布を、RG相関にはBY色相分布画素を、上述の低彩度画素として抽出する方法が記載されている。さらにハイライト点とシャドー点を算出し、両者を結んだ直線から一定の彩度以下の点を低彩度画素として抽出している。この場合、ハイライト点やシャドー点が低彩度であるという経験則が前提となるが、芝生や空の占める面積の大きな撮影シーンや、ストロボ近接撮影シーンでの肌の高明度化、暗闇に浮かぶテールライト、水族館の水槽など、経験則に符合しない例が数多く存在する。結果として、これらの撮影シーンでは、カラーフェリアと呼ばれる色濃度偏倚が生じる。対策として、1駒毎にグレーバランス調整条件を算出するのではなく、複数の撮影駒が持つ情報を用いる方法が提案されている。例えば、特許文献2には、全撮影駒から低彩度画素を抽出し、各駒の低彩度画素の抽出数が少ないときは、全撮影駒からのグレーバランス調整条件と1駒からの条件とを重み付ける方法が提案されている。この他、特許文献3では、正常シーンと異常シーンの判別処理を行う方法なども提案されているが、何れも情報量の追加や選別による対処が主となっている。
特開平9−191474号公報 特開平11−317880号公報 特開2001−257896号公報
For example, Patent Document 1 describes a method of extracting low-saturation pixels and linearly approximating the equivalent neutral density on the BGR density coordinates. In order to suppress color density deviation called color feria, a method is described in which an RC hue distribution is extracted for the BG correlation and a BY hue distribution pixel is extracted for the RG correlation as the low-saturation pixels. Further, the highlight point and the shadow point are calculated, and points below a certain saturation are extracted as low saturation pixels from the straight line connecting the two. In this case, the rule of thumb is that the highlight and shadow points are low in saturation, but the scenes with large areas occupied by the lawn and the sky, and the high brightness of the skin in the flash close-up scene, the darkness There are many examples that do not fit the rule of thumb, such as floating taillights and aquarium tanks. As a result, in these shooting scenes, a color density deviation called color feria occurs. As a countermeasure, there has been proposed a method of using information held by a plurality of photographing frames instead of calculating gray balance adjustment conditions for each frame. For example, in Patent Document 2, when low saturation pixels are extracted from all shooting frames, and the number of low saturation pixels extracted from each frame is small, gray balance adjustment conditions from all shooting frames and conditions from one frame are A method of weighting is proposed. In addition, Patent Document 3 proposes a method for performing a discrimination process between a normal scene and an abnormal scene. However, any of these methods mainly deals with addition or selection of information amount.
JP-A-9-191474 Japanese Patent Laid-Open No. 11-317880 JP 2001-257896 A

上記の如く、グレーバランス調整方法における課題は、1駒から抽出される低彩度画素が極端に少ない、或いはハイライト側やシャドー側が低彩度でないなどの、特殊な配色傾向をもった撮影シーンへの対処方法の提案であるといえる。よって、撮影シーンの配色傾向を判別し、判別結果に基づき、撮影シーン毎に最適なグレーバランス調整条件を算出するようにすれば、更なる精度向上の余地は充分に残されていると思われる。デジタルカメラにより撮影された画像データに対するホワイトバランス調整方法に関しても、数多くの提案がなされているが、何れも低彩度画素を抽出する闘値設定、或いはグレーバランス調整自体の適用率と、撮影シーンの配色傾向との関係については明記されていない。また前記撮影シーンの配色傾向を、2次元以上のヒストグラムを用いて解析する方法についても知られていない。   As described above, the problem with the gray balance adjustment method is that the shooting scene has a special color arrangement tendency, such as extremely few low-saturation pixels extracted from one frame, or the highlight side or shadow side is not low-saturation. It can be said that this is a proposal for a coping method. Therefore, if the coloration tendency of the shooting scene is discriminated and the optimum gray balance adjustment condition is calculated for each shooting scene based on the discrimination result, there seems to be enough room for further accuracy improvement. . Many proposals have also been made regarding white balance adjustment methods for image data taken by a digital camera. However, all of them have proposed a threshold setting for extracting low-saturation pixels, or the application rate of gray balance adjustment itself, and the shooting scene. The relationship with the coloration tendency is not specified. Also, there is no known method for analyzing the coloration tendency of the photographic scene using a two-dimensional or higher histogram.

本発明の課題は、上記事象に鑑み、撮影シーン毎により最適化された条件でのグレーバランス調整を施すことのできる新規な画像処理方法、並びにこれを用いた画像処理装置、画像記録装置を提供することである。   An object of the present invention is to provide a novel image processing method capable of performing gray balance adjustment under conditions optimized for each shooting scene, and an image processing apparatus and an image recording apparatus using the same, in view of the above-described phenomenon. It is to be.

上記課題を解決するため、請求項1に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法において、
前記撮像画像データの画素毎の色相値及び彩度値を得る工程と、
前記撮像画像データを少なくとも2つの色相領域に分割する工程と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する工程と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する工程と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出する工程と、
前記算出されたグレーバランス調整条件に基づいて、前記撮像画像データにグレーバランス調整を施す工程と、
を含むことを特徴としている。
In order to solve the above-mentioned problem, the invention described in claim 1
In an image processing method for inputting captured image data and outputting image data optimized for viewing on an output medium,
Obtaining a hue value and a saturation value for each pixel of the captured image data;
Dividing the captured image data into at least two hue regions;
Calculating an occupancy ratio indicating a ratio of pixels for each of the divided hue regions to the entire screen of the captured image data;
Calculating a low saturation threshold value for each hue area according to the calculated occupancy ratio for each hue area;
Extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
Calculating a gray balance adjustment condition using the extracted low saturation pixel;
Applying gray balance adjustment to the captured image data based on the calculated gray balance adjustment condition;
It is characterized by including.

請求項2に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法において、
前記撮像画像データの画素毎の色相値及び彩度値を得る工程と、
前記撮像画像データを少なくとも2つの色相領域に分割する工程と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する工程と、
前記算出された適用率に基づいて、グレーバランス調整を施す工程と、
を含むことを特徴としている。
The invention described in claim 2
In an image processing method for inputting captured image data and outputting image data optimized for viewing on an output medium,
Obtaining a hue value and a saturation value for each pixel of the captured image data;
Dividing the captured image data into at least two hue regions;
Calculating an occupancy ratio indicating a ratio of pixels for each of the divided hue regions to the entire screen of the captured image data;
Calculating a gray balance adjustment application rate according to the calculated occupancy for each hue region;
Applying gray balance adjustment based on the calculated application rate;
It is characterized by including.

請求項3に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法において、
前記撮像画像データの画素毎の色相値及び彩度値を得る工程と、
前記撮像画像データを少なくとも2つの色相領域に分割する工程と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する工程と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する工程と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出する工程と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する工程と、
前記算出されたグレーバランス調整条件及び適用率に基づいて、前記撮像画像データにグレーバランス調整を施す工程と、
を含むことを特徴としている。
The invention according to claim 3
In an image processing method for inputting captured image data and outputting image data optimized for viewing on an output medium,
Obtaining a hue value and a saturation value for each pixel of the captured image data;
Dividing the captured image data into at least two hue regions;
Calculating an occupancy ratio indicating a ratio of pixels for each of the divided hue regions to the entire screen of the captured image data;
Calculating a low saturation threshold value for each hue area according to the calculated occupancy ratio for each hue area;
Extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
Calculating a gray balance adjustment condition using the extracted low saturation pixel;
Calculating a gray balance adjustment application rate according to the calculated occupancy for each hue region;
Applying gray balance adjustment to the captured image data based on the calculated gray balance adjustment condition and application rate;
It is characterized by including.

請求項4に記載の発明は、請求項1〜3の何れか一項に記載の発明において、
前記取得された色相値及び彩度値の2次元ヒストグラムを作成する工程を含み、
前記撮像画像データを少なくとも2つの色相領域に分割する工程は、前記作成された2次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの色相領域に分割することを特徴としている。
The invention according to claim 4 is the invention according to any one of claims 1 to 3,
Creating a two-dimensional histogram of the acquired hue and saturation values;
The step of dividing the captured image data into at least two hue regions is characterized in that the captured image data is divided into at least two hue regions based on the created two-dimensional histogram.

請求項5に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得る工程と、
前記撮像画像データを少なくとも2つの色相領域に分割する工程と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する工程と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する工程と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出する工程と、
前記撮像画像データを少なくとも2つの明度領域に分割する工程と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する工程と、
前記算出されたグレーバランス調整条件及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施す工程と、
を含むことを特徴としている。
The invention described in claim 5
In an image processing method for inputting captured image data and outputting image data optimized for viewing on an output medium,
Obtaining a hue value, a saturation value, and a brightness value for each pixel of the captured image data;
Dividing the captured image data into at least two hue regions;
Calculating an occupancy ratio indicating a ratio of pixels for each of the divided hue regions to the entire screen of the captured image data;
Calculating a low saturation threshold value for each hue area according to the calculated occupancy ratio for each hue area;
Extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
Calculating a gray balance adjustment condition using the extracted low saturation pixel;
Dividing the captured image data into at least two brightness regions;
Calculating an occupancy ratio indicating a ratio of pixels of the divided brightness areas to the entire screen of the captured image data;
Estimating a captured scene of the captured image data according to the calculated occupancy for each brightness region;
Applying gray balance adjustment to the captured image data based on the calculated gray balance adjustment condition and the estimation result of the shooting scene;
It is characterized by including.

請求項6に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得る工程と、
前記撮像画像データを少なくとも2つの色相領域に分割する工程と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する工程と、
前記撮像画像データを少なくとも2つの明度領域に分割する工程と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する工程と、
前記算出された適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施す工程と、
を含むことを特徴としている。
The invention described in claim 6
In an image processing method for inputting captured image data and outputting image data optimized for viewing on an output medium,
Obtaining a hue value, a saturation value, and a brightness value for each pixel of the captured image data;
Dividing the captured image data into at least two hue regions;
Calculating an occupancy ratio indicating a ratio of pixels for each of the divided hue regions to the entire screen of the captured image data;
Calculating a gray balance adjustment application rate according to the calculated occupancy for each hue region;
Dividing the captured image data into at least two brightness regions;
Calculating an occupancy ratio indicating a ratio of pixels of the divided brightness areas to the entire screen of the captured image data;
Estimating a captured scene of the captured image data according to the calculated occupancy for each brightness region;
Applying gray balance adjustment to the captured image data based on the calculated application rate and the estimation result of the shooting scene;
It is characterized by including.

請求項7に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得る工程と、
前記撮像画像データを少なくとも2つの色相領域に分割する工程と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する工程と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する工程と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出する工程と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する工程と、
前記撮像画像データを少なくとも2つの明度領域に分割する工程と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する工程と、
前記算出された適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施す工程と、
前記算出されたグレーバランス調整条件、適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施す工程と、
を含むことを特徴としている。
The invention described in claim 7
In an image processing method for inputting captured image data and outputting image data optimized for viewing on an output medium,
Obtaining a hue value, a saturation value, and a brightness value for each pixel of the captured image data;
Dividing the captured image data into at least two hue regions;
Calculating an occupancy ratio indicating a ratio of pixels for each of the divided hue regions to the entire screen of the captured image data;
Calculating a low saturation threshold value for each hue area according to the calculated occupancy ratio for each hue area;
Extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
Calculating a gray balance adjustment condition using the extracted low saturation pixel;
Calculating a gray balance adjustment application rate according to the calculated occupancy for each hue region;
Dividing the captured image data into at least two brightness regions;
Calculating an occupancy ratio indicating a ratio of pixels of the divided brightness areas to the entire screen of the captured image data;
Estimating a captured scene of the captured image data according to the calculated occupancy for each brightness region;
Applying gray balance adjustment to the captured image data based on the calculated application rate and the estimation result of the shooting scene;
Applying gray balance adjustment to the captured image data based on the calculated gray balance adjustment condition, application rate, and estimation result of the shooting scene;
It is characterized by including.

請求項8に記載の発明は、請求項5〜7の何れか一項に記載の発明において、
前記取得された色相値、彩度値及び明度値の3次元ヒストグラムを作成する工程を含み、
前記撮像画像データを少なくとも2つの色相領域に分割する工程は、前記作成された3次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの色相領域に分割し、
前記撮像画像データを少なくとも2つの明度領域に分割する工程は、前記作成された3次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの明度領域に分割することを特徴としている。
The invention according to claim 8 is the invention according to any one of claims 5 to 7,
Creating a three-dimensional histogram of the acquired hue value, saturation value and brightness value;
The step of dividing the captured image data into at least two hue regions divides the captured image data into at least two hue regions based on the created three-dimensional histogram,
The step of dividing the captured image data into at least two brightness regions is characterized in that the captured image data is divided into at least two brightness regions based on the created three-dimensional histogram.

請求項9に記載の発明は、請求項5〜8の何れか一項に記載の発明において、
前記分割された少なくとも2つの色相領域の夫々を、少なくとも2つの明度領域に分割する工程と、
前記分割された領域のうち所定の色相及び明度の領域の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された明度領域毎の占有率及び前記所定の色相及び明度の領域の占有率に応じて、前記撮像画像データの撮影シーンを推定する工程と、
を含むことを特徴としている。
The invention according to claim 9 is the invention according to any one of claims 5 to 8,
Dividing each of the divided at least two hue regions into at least two brightness regions;
Calculating an occupancy ratio indicating a ratio of pixels of a predetermined hue and brightness area in the divided area to the entire screen of the captured image data;
Estimating a shooting scene of the captured image data according to the calculated occupancy for each brightness area and the occupancy of the predetermined hue and brightness area;
It is characterized by including.

請求項10に記載の発明は、請求項1〜9の何れか一項に記載の発明において、
前記撮像画像データを少なくとも2つの色相領域に分割する工程において、前記撮像画像データを、HSV表色系の色相値で70、185、225を境界として分割し、肌色相領域、緑色相領域、空色相領域、赤色相領域の4つの色相領域に分割することを特徴としている。
The invention according to claim 10 is the invention according to any one of claims 1 to 9,
In the step of dividing the picked-up image data into at least two hue regions, the picked-up image data is divided with the hue values of the HSV color system 70, 185, 225 as boundaries, and the skin hue region, the green hue region, the sky region It is characterized by being divided into four hue areas, a hue area and a red hue area.

請求項11に記載の発明は、請求項5〜10の何れか一項に記載の発明において、
前記撮像画像データを少なくとも2つの明度領域に分割する工程において、前記撮像画像データを、HSV表色系の明度値で85、170を境界として分割し、シャドー領域、中間領域、ハイライト領域の3つの明度領域に分割することを特徴としている。
The invention according to claim 11 is the invention according to any one of claims 5 to 10,
In the step of dividing the picked-up image data into at least two lightness areas, the picked-up image data is divided with HSV color system lightness values of 85 and 170 as boundaries, and a shadow area, an intermediate area, and a highlight area. It is characterized by being divided into two brightness areas.

請求項12に記載の発明は、請求項5〜11に記載の発明において、
前記分割された色相領域のうち肌色相領域の明度偏倚量を算出し、前記撮影シーンの推定に用いることを特徴としている。
The invention described in claim 12 is the invention described in claims 5-11,
A lightness deviation amount of a skin hue area among the divided hue areas is calculated and used for estimation of the shooting scene.

請求項13に記載の発明は、請求項1、3、4、5、7の何れか一項に記載の発明において、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度画素の抽出率を算出する工程と、
前記算出された低彩度画素の抽出率に基づいて、グレーバランス調整に用いる低彩度画素を抽出する工程と、
を含むことを特徴としている。
The invention according to claim 13 is the invention according to any one of claims 1, 3, 4, 5, and 7,
Calculating a low saturation pixel extraction rate for each hue region according to the calculated occupancy rate for each hue region;
Extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation pixel extraction rate; and
It is characterized by including.

請求項14に記載の発明は、請求項2、3、6、7の何れか一項に記載の発明において、
前記算出された色相領域毎の占有率に応じてグレーバランス調整の適用率を算出する工程は、前記色相領域毎に異なる適用率算出式を用いて前記各占有率から色相領域毎の適用率を算出し、前記色相領域毎に算出された適用率の最大値を前記グレーバランス調整の適用率とすることを特徴としている。
The invention according to claim 14 is the invention according to any one of claims 2, 3, 6, and 7,
The step of calculating the application rate of gray balance adjustment according to the calculated occupancy rate for each hue region is obtained by calculating the application rate for each hue region from each occupancy rate using a different application rate calculation formula for each hue region. The maximum value of the application rate calculated for each hue region is used as the application rate of the gray balance adjustment.

請求項15に記載の発明は、請求項14に記載の発明において、
前記適用率算出式は、前記撮像画像データが肌色相領域、空色相領域、緑色相領域、赤色相領域に分割された場合に、同一の占有率に対する前記肌色相領域及び空色相領域の適用率が他の色相領域の適用率に比べて小さくなるように設定されていることを特徴としている。
The invention according to claim 15 is the invention according to claim 14,
When the captured image data is divided into a skin hue area, a sky hue area, a green hue area, and a red hue area, the application ratio calculation formula is an application ratio of the skin hue area and the sky hue area with respect to the same occupation ratio. Is set to be smaller than the application rate of other hue regions.

請求項16に記載の発明は、請求項1〜15の何れか一項に記載の発明において、
前記撮像画像データは、シーン参照画像データであることを特徴としている。
The invention according to claim 16 is the invention according to any one of claims 1 to 15,
The captured image data is scene reference image data.

請求項17に記載の発明は、請求項1〜16の何れか一項に記載の発明において、
前記出力媒体上での鑑賞に最適化された画像データは、鑑賞画像参照データであることを特徴としている。
The invention according to claim 17 is the invention according to any one of claims 1 to 16,
The image data optimized for viewing on the output medium is viewing image reference data.

請求項18に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理装置において、
前記撮像画像データの画素毎の色相値及び彩度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記算出されたグレーバランス調整条件に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴としている。
The invention described in claim 18
In an image processing apparatus for inputting captured image data and outputting image data optimized for viewing on an output medium,
Data acquisition means for obtaining a hue value and a saturation value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
Based on the calculated gray balance adjustment conditions, gray balance adjustment means for performing gray balance adjustment on the captured image data;
It is characterized by having.

請求項19に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理装置において、
前記撮像画像データの画素毎の色相値及び彩度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記算出された適用率に基づいて、グレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴としている。
The invention according to claim 19 is
In an image processing apparatus for inputting captured image data and outputting image data optimized for viewing on an output medium,
Data acquisition means for obtaining a hue value and a saturation value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Gray balance adjustment means for performing gray balance adjustment based on the calculated application rate;
It is characterized by having.

請求項20に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理装置において、
前記撮像画像データの画素毎の色相値及び彩度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記算出されたグレーバランス調整条件及び適用率に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴としている。
The invention according to claim 20 provides
In an image processing apparatus for inputting captured image data and outputting image data optimized for viewing on an output medium,
Data acquisition means for obtaining a hue value and a saturation value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated gray balance adjustment condition and application rate;
It is characterized by having.

請求項21に記載の発明は、請求項18〜20の何れか一項に記載の発明において、
前記取得された色相値及び彩度値の2次元ヒストグラムを作成する2次元ヒストグラム作成手段を備え、
前記色相領域分割手段は、前記作成された2次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの色相領域に分割することを特徴としている。
The invention according to claim 21 is the invention according to any one of claims 18 to 20,
Two-dimensional histogram creation means for creating a two-dimensional histogram of the acquired hue value and saturation value;
The hue area dividing unit divides the captured image data into at least two hue areas based on the created two-dimensional histogram.

請求項22に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理装置において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記撮像画像データを少なくとも2つの明度領域に分割する明度領域分割手段と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する明度領域占有率算出手段と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する撮影シーン推定手段と、
前記算出されたグレーバランス調整条件及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴としている。
The invention described in claim 22
In an image processing apparatus for inputting captured image data and outputting image data optimized for viewing on an output medium,
Data acquisition means for obtaining a hue value, a saturation value and a brightness value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
Brightness area dividing means for dividing the captured image data into at least two brightness areas;
A brightness area occupancy ratio calculating means for calculating an occupancy ratio indicating a ratio of pixels of the divided brightness area to the entire screen of the captured image data;
In accordance with the calculated occupancy for each brightness area, shooting scene estimation means for estimating a shooting scene of the captured image data;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated gray balance adjustment condition and the estimation result of the shooting scene;
It is characterized by having.

請求項23に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理装置において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記撮像画像データを少なくとも2つの明度領域に分割する明度領域分割手段と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する明度領域占有率算出手段と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する撮影シーン推定手段と、
前記算出された適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴としている。
The invention according to claim 23 provides
In an image processing apparatus for inputting captured image data and outputting image data optimized for viewing on an output medium,
Data acquisition means for obtaining a hue value, a saturation value and a brightness value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Brightness area dividing means for dividing the captured image data into at least two brightness areas;
A brightness area occupancy ratio calculating means for calculating an occupancy ratio indicating a ratio of pixels of the divided brightness area to the entire screen of the captured image data;
In accordance with the calculated occupancy for each brightness area, shooting scene estimation means for estimating a shooting scene of the captured image data;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated application rate and the estimation result of the shooting scene;
It is characterized by having.

請求項24に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理装置において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記撮像画像データを少なくとも2つの明度領域に分割する明度領域分割手段と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する明度領域占有率算出手段と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する撮影シーン推定手段と、
前記算出されたグレーバランス調整条件、適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を含むことを特徴としている。
The invention according to claim 24 provides
In an image processing apparatus for inputting captured image data and outputting image data optimized for viewing on an output medium,
Data acquisition means for obtaining a hue value, a saturation value and a brightness value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Brightness area dividing means for dividing the captured image data into at least two brightness areas;
A brightness area occupancy ratio calculating means for calculating an occupancy ratio indicating a ratio of pixels of the divided brightness area to the entire screen of the captured image data;
In accordance with the calculated occupancy for each brightness area, shooting scene estimation means for estimating a shooting scene of the captured image data;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated gray balance adjustment condition, application rate, and estimation result of the shooting scene;
It is characterized by including.

請求項25に記載の発明は、請求項22〜24の何れか一項に記載の発明において、
前記取得された色相値、彩度値及び明度値の3次元ヒストグラムを作成する3次元ヒストグラム作成手段を備え、
前記色相領域分割手段は、前記作成された3次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの色相領域に分割し、
前記明度領域分割手段は、前記作成された3次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの明度領域に分割することを特徴としている。
The invention according to claim 25 is the invention according to any one of claims 22 to 24,
A three-dimensional histogram creating means for creating a three-dimensional histogram of the acquired hue value, saturation value and lightness value;
The hue area dividing unit divides the captured image data into at least two hue areas based on the created three-dimensional histogram,
The brightness area dividing means divides the captured image data into at least two brightness areas based on the created three-dimensional histogram.

請求項26に記載の発明は、請求項22〜25の何れか一項に記載の発明において、
前記分割された少なくとも2つの色相領域の夫々を、少なくとも2つの明度領域に分割する色相明度領域分割手段と、
前記分割された領域のうち所定の色相及び明度の領域の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相明度領域占有率算出手段と、を備え、
前記撮影シーン推定手段は、前記算出された明度領域毎の占有率及び前記所定の色相及び明度の領域の占有率に応じて、前記撮像画像データの撮影シーンを推定することを特徴としている。
The invention according to claim 26 is the invention according to any one of claims 22 to 25,
Hue lightness area dividing means for dividing each of the divided at least two hue areas into at least two lightness areas;
Hue lightness area occupancy calculating means for calculating an occupancy ratio indicating a ratio of pixels of a predetermined hue and lightness area among the divided areas to the entire screen of the captured image data,
The shooting scene estimation means estimates a shooting scene of the captured image data according to the calculated occupancy for each brightness area and the occupancy of the predetermined hue and brightness area.

請求項27に記載の発明は、請求項18〜26の何れか一項に記載の発明において、
前記色相領域分割手段は、前記撮像画像データを、HSV表色系の色相値で70、185、225の値を境界として分割し、肌色相領域、緑色相領域、空色相領域、赤色相領域の4つの色相領域に分割することを特徴としている。
The invention according to claim 27 is the invention according to any one of claims 18 to 26,
The hue area dividing means divides the captured image data with HSV color system hue values of 70, 185, and 225 as boundaries, and includes a skin hue area, a green hue area, a sky hue area, and a red hue area. It is characterized by being divided into four hue regions.

請求項28に記載の発明は、請求項22〜27の何れか一項に記載の発明において、
前記明度領域分割手段は、前記撮像画像データを、HSV表色系の明度値で85、170の値を境界として分割し、シャドー領域、中間領域、ハイライト領域の3つの明度領域に分割することを特徴としている。
The invention according to claim 28 is the invention according to any one of claims 22 to 27,
The brightness area dividing unit divides the captured image data into three brightness areas, a shadow area, an intermediate area, and a highlight area, by dividing the HSV color system brightness values with values of 85 and 170 as boundaries. It is characterized by.

請求項29に記載の発明は、請求項22〜28の何れか一項に記載の発明において、
前記撮影シーン推定手段は、前記分割された色相領域のうち肌色相領域の明度偏倚量を算出し、この明度偏倚量を前記撮影シーンの推定に用いることを特徴としている。
The invention according to claim 29 is the invention according to any one of claims 22 to 28,
The photographing scene estimation means calculates a lightness deviation amount of a skin hue area among the divided hue areas, and uses the lightness deviation amount for estimation of the photographing scene.

請求項30に記載の発明は、請求項18、20、21、22、24の何れか一項に記載の発明において、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度画素の抽出率を算出する低彩度画素抽出率算出手段を備え、
前記低彩度画素抽出手段は、前記算出された低彩度閾値若しくは前記算出された低彩度画素の抽出率に基づいて、グレーバランス調整に用いる低彩度画素を抽出することを特徴としている。
The invention according to claim 30 is the invention according to any one of claims 18, 20, 21, 22, 24,
Low saturation pixel extraction rate calculating means for calculating an extraction rate of low saturation pixels for each hue region according to the calculated occupancy rate for each hue region;
The low saturation pixel extraction unit extracts low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold or the calculated extraction ratio of the low saturation pixels. .

請求項31に記載の発明は、請求項19、20、23、24の何れか一項に記載の発明において、
前記適用率算出手段は、前記色相領域毎に異なる算出式を用いて前記各占有率から各色相領域毎の適用率を算出し、前記色相領域毎に算出された適用率の最大値を前記グレーバランス調整の適用率とすることを特徴としている。
The invention described in claim 31 is the invention described in any one of claims 19, 20, 23, 24.
The application rate calculating means calculates an application rate for each hue region from each occupancy rate using a different calculation formula for each hue region, and calculates a maximum value of the application rate calculated for each hue region. It is characterized by the application rate of balance adjustment.

請求項32に記載の発明は、請求項31に記載の発明において、
前記適用率算出式は、前記撮像画像データが肌色相領域、空色相領域、緑色相領域、赤色相領域に分割された場合に、同一の占有率に対する前記肌色相領域及び空色相領域の適用率が他の色相領域の適用率に比べて小さくなるように設定されていることを特徴としている。
The invention according to claim 32 is the invention according to claim 31,
When the captured image data is divided into a skin hue area, a sky hue area, a green hue area, and a red hue area, the application ratio calculation formula is an application ratio of the skin hue area and the sky hue area with respect to the same occupation ratio. Is set to be smaller than the application rate of other hue regions.

請求項33に記載の発明は、請求項18〜32の何れか一項に記載の発明において、
前記撮像画像データは、シーン参照画像データであることを特徴としている。
The invention according to claim 33 is the invention according to any one of claims 18 to 32,
The captured image data is scene reference image data.

請求項34に記載の発明は、請求項18〜33の何れか一項に記載の発明において、
前記出力媒体上での鑑賞に最適化された画像データは、鑑賞画像参照データであることを特徴としている。
The invention according to claim 34 is the invention according to any one of claims 18 to 33,
The image data optimized for viewing on the output medium is viewing image reference data.

請求項35に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを生成し、生成された画像データを出力媒体上に形成する画像記録装置において、
前記撮像画像データの画素毎の色相値及び彩度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記算出されたグレーバランス調整条件に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴としている。
The invention according to claim 35 provides
In an image recording apparatus that inputs captured image data, generates image data optimized for viewing on an output medium, and forms the generated image data on the output medium.
Data acquisition means for obtaining a hue value and a saturation value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
Based on the calculated gray balance adjustment conditions, gray balance adjustment means for performing gray balance adjustment on the captured image data;
It is characterized by having.

請求項36に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを生成し、生成された画像データを出力媒体上に形成する画像記録装置において、
前記撮像画像データの画素毎の色相値及び彩度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記算出された適用率に基づいて、グレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴としている。
The invention according to claim 36 provides
In an image recording apparatus that inputs captured image data, generates image data optimized for viewing on an output medium, and forms the generated image data on the output medium.
Data acquisition means for obtaining a hue value and a saturation value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Gray balance adjustment means for performing gray balance adjustment based on the calculated application rate;
It is characterized by having.

請求項37に記載の発明は、

撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを生成し、生成された画像データを出力媒体上に形成する画像記録装置において、
前記撮像画像データの画素毎の色相値及び彩度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記算出されたグレーバランス調整条件及び適用率に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴としている。
The invention according to claim 37 provides:

In an image recording apparatus that inputs captured image data, generates image data optimized for viewing on an output medium, and forms the generated image data on the output medium.
Data acquisition means for obtaining a hue value and a saturation value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated gray balance adjustment condition and application rate;
It is characterized by having.

請求項38に記載の発明は、請求項35〜37の何れか一項に記載の発明において、
前記取得された色相値及び彩度値の2次元ヒストグラムを作成する2次元ヒストグラム作成手段を備え、
前記色相領域分割手段は、前記作成された2次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの色相領域に分割することを特徴としている。
The invention according to claim 38 is the invention according to any one of claims 35 to 37,
Two-dimensional histogram creation means for creating a two-dimensional histogram of the acquired hue value and saturation value;
The hue area dividing unit divides the captured image data into at least two hue areas based on the created two-dimensional histogram.

請求項39に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを生成し、生成された画像データを出力媒体上に形成する画像記録装置において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記撮像画像データを少なくとも2つの明度領域に分割する明度領域分割手段と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する明度領域占有率算出手段と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する撮影シーン推定手段と、
前記算出されたグレーバランス調整条件及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴としている。
The invention according to claim 39 provides
In an image recording apparatus that inputs captured image data, generates image data optimized for viewing on an output medium, and forms the generated image data on the output medium.
Data acquisition means for obtaining a hue value, a saturation value and a brightness value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
Brightness area dividing means for dividing the captured image data into at least two brightness areas;
A brightness area occupancy ratio calculating means for calculating an occupancy ratio indicating a ratio of pixels of the divided brightness area to the entire screen of the captured image data;
In accordance with the calculated occupancy for each brightness area, shooting scene estimation means for estimating a shooting scene of the captured image data;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated gray balance adjustment condition and the estimation result of the shooting scene;
It is characterized by having.

請求項40に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを生成し、生成された画像データを出力媒体上に形成する画像記録装置において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記撮像画像データを少なくとも2つの明度領域に分割する明度領域分割手段と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する明度領域占有率算出手段と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する撮影シーン推定手段と、
前記算出された適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴としている。
The invention according to claim 40 provides
In an image recording apparatus that inputs captured image data, generates image data optimized for viewing on an output medium, and forms the generated image data on the output medium.
Data acquisition means for obtaining a hue value, a saturation value and a brightness value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Brightness area dividing means for dividing the captured image data into at least two brightness areas;
A brightness area occupancy ratio calculating means for calculating an occupancy ratio indicating a ratio of pixels of the divided brightness area to the entire screen of the captured image data;
In accordance with the calculated occupancy for each brightness area, shooting scene estimation means for estimating a shooting scene of the captured image data;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated application rate and the estimation result of the shooting scene;
It is characterized by having.

請求項41に記載の発明は、
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを生成し、生成された画像データを出力媒体上に形成する画像記録装置において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記撮像画像データを少なくとも2つの明度領域に分割する明度領域分割手段と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する明度領域占有率算出手段と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する撮影シーン推定手段と、
前記算出されたグレーバランス調整条件、適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を含むことを特徴としている。
The invention of claim 41 provides
In an image recording apparatus that inputs captured image data, generates image data optimized for viewing on an output medium, and forms the generated image data on the output medium.
Data acquisition means for obtaining a hue value, a saturation value and a brightness value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Brightness area dividing means for dividing the captured image data into at least two brightness areas;
A brightness area occupancy ratio calculating means for calculating an occupancy ratio indicating a ratio of pixels of the divided brightness area to the entire screen of the captured image data;
In accordance with the calculated occupancy for each brightness area, shooting scene estimation means for estimating a shooting scene of the captured image data;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated gray balance adjustment condition, application rate, and estimation result of the shooting scene;
It is characterized by including.

請求項42に記載の発明は、請求項39〜41の何れか一項に記載の発明において、
前記取得された色相値、彩度値及び明度値の3次元ヒストグラムを作成する3次元ヒストグラム作成手段を備え、
前記色相領域分割手段は、前記作成された3次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの色相領域に分割し、
前記明度領域分割手段は、前記作成された3次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの明度領域に分割することを特徴としている。
The invention according to claim 42 is the invention according to any one of claims 39 to 41,
A three-dimensional histogram creating means for creating a three-dimensional histogram of the acquired hue value, saturation value and lightness value;
The hue area dividing unit divides the captured image data into at least two hue areas based on the created three-dimensional histogram,
The brightness area dividing means divides the captured image data into at least two brightness areas based on the created three-dimensional histogram.

請求項43に記載の発明は、請求項39〜42の何れか一項に記載の発明において、
前記分割された少なくとも2つの色相領域の夫々を、少なくとも2つの明度領域に分割する色相明度領域分割手段と、
前記分割された領域のうち所定の色相及び明度の領域の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相明度領域占有率算出手段と、を備え、
前記撮影シーン推定手段は、前記算出された明度領域毎の占有率及び前記所定の色相及び明度の領域の占有率に応じて、前記撮像画像データの撮影シーンを推定することを特徴としている。
The invention according to claim 43 is the invention according to any one of claims 39 to 42,
Hue lightness area dividing means for dividing each of the divided at least two hue areas into at least two lightness areas;
Hue lightness area occupancy calculating means for calculating an occupancy ratio indicating a ratio of pixels of a predetermined hue and lightness area among the divided areas to the entire screen of the captured image data,
The shooting scene estimation means estimates a shooting scene of the captured image data according to the calculated occupancy for each brightness area and the occupancy of the predetermined hue and brightness area.

請求項44に記載の発明は、請求項35〜43の何れか一項に記載の発明において、
前記色相領域分割手段は、前記撮像画像データを、HSV表色系の色相値で70、185、225の値を境界として分割し、肌色相領域、緑色相領域、空色相領域、赤色相領域の4つの色相領域に分割することを特徴としている。
The invention according to claim 44 is the invention according to any one of claims 35 to 43,
The hue area dividing means divides the captured image data with HSV color system hue values of 70, 185, and 225 as boundaries, and includes a skin hue area, a green hue area, a sky hue area, and a red hue area. It is characterized by being divided into four hue regions.

請求項45に記載の発明は、請求項39〜44の何れか一項に記載の発明において、
前記明度領域分割手段は、前記撮像画像データを、HSV表色系の明度値で85、170の値を境界として分割し、シャドー領域、中間領域、ハイライト領域の3つの明度領域に分割することを特徴としている。
The invention according to claim 45 is the invention according to any one of claims 39 to 44,
The brightness area dividing unit divides the captured image data into three brightness areas, a shadow area, an intermediate area, and a highlight area, by dividing the HSV color system brightness values with values of 85 and 170 as boundaries. It is characterized by.

請求項46に記載の発明は、請求項39〜45の何れか一項に記載の発明において、
前記撮影シーン推定手段は、前記分割された色相領域のうち肌色相領域の明度偏倚量を算出し、この明度偏倚量を前記撮影シーンの推定に用いることを特徴としている。
The invention according to claim 46 is the invention according to any one of claims 39 to 45,
The photographing scene estimation means calculates a lightness deviation amount of a skin hue area among the divided hue areas, and uses the lightness deviation amount for estimation of the photographing scene.

請求項47に記載の発明は、請求項35、37、38、39、41の何れか一項に記載の発明において、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度画素の抽出率を算出する低彩度画素抽出率算出手段を備え、
前記低彩度画素抽出手段は、前記算出された低彩度閾値若しくは前記算出された低彩度画素の抽出率に基づいて、グレーバランス調整に用いる低彩度画素を抽出することを特徴としている。
The invention according to claim 47 is the invention according to any one of claims 35, 37, 38, 39, 41,
Low saturation pixel extraction rate calculating means for calculating an extraction rate of low saturation pixels for each hue region according to the calculated occupancy rate for each hue region;
The low saturation pixel extraction unit extracts low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold or the calculated extraction ratio of the low saturation pixels. .

請求項48に記載の発明は、請求項36、37、40、41の何れか一項に記載の発明において、
前記適用率算出手段は、前記色相領域毎に異なる算出式を用いて前記各占有率から各色相領域毎の適用率を算出し、前記色相領域毎に算出された適用率の最大値を前記グレーバランス調整の適用率とすることを特徴としている。
The invention according to claim 48 is the invention according to any one of claims 36, 37, 40, 41,
The application rate calculating means calculates an application rate for each hue region from each occupancy rate using a different calculation formula for each hue region, and calculates a maximum value of the application rate calculated for each hue region. It is characterized by the application rate of balance adjustment.

請求項49に記載の発明は、請求項48に記載の発明において、
前記適用率算出式は、前記撮像画像データが肌色相領域、空色相領域、緑色相領域、赤色相領域に分割された場合に、同一の占有率に対する前記肌色相領域及び空色相領域の適用率が他の色相領域の適用率に比べて小さくなるように設定されていることを特徴としている。
The invention according to claim 49 is the invention according to claim 48,
When the captured image data is divided into a skin hue area, a sky hue area, a green hue area, and a red hue area, the application ratio calculation formula is an application ratio of the skin hue area and the sky hue area with respect to the same occupation ratio. Is set to be smaller than the application rate of other hue regions.

請求項50に記載の発明は、請求項35〜49の何れか一項に記載の発明において、
前記撮像画像データは、シーン参照画像データであることを特徴としている。
The invention according to claim 50 is the invention according to any one of claims 35 to 49,
The captured image data is scene reference image data.

請求項51に記載の発明は、請求項35〜50の何れか一項に記載の発明において、
前記出力媒体上での鑑賞に最適化された画像データは、鑑賞画像参照データであることを特徴としている。
The invention according to claim 51 is the invention according to any one of claims 35 to 50,
The image data optimized for viewing on the output medium is viewing image reference data.

ここで、本明細書に記載の「撮像画像データ」とは、被写体情報を電気的な信号値として保持したデジタル画像データである。カラー写真フィルムに色素画像情報として記録され、スキャナ読み取りで生成されたデジタル画像データや、デジタルカメラで撮影し生成されたデジタル画像データなど、デジタル画像データを得るまでのプロセスは如何なるものであっても良い。   Here, “captured image data” described in this specification is digital image data in which subject information is held as an electrical signal value. Whatever process is used to obtain digital image data, such as digital image data recorded as color image information on a color photographic film and generated by scanning a scanner or digital image data generated by photographing with a digital camera good.

ただし、カラーネガフィルムから、スキャナ読み取りでデジタル画像データを生成する際は、カラーネガフィルムの未露光部(最低濃度部)がデジタル画像データのRGB値が全て0となるよう最大透過光量の較正と反転処理を施し、透過光量に正比例したスケールから対数(濃度)スケールへの変換処理と、カラーネガフィルムのガンマ補正処理を施すことにより、被写体の輝度変化に対しほぼ比例した状態を再現しておくことが望ましい。また、デジタルカメラで撮影したデジタル画像データにおいても同様に、被写体の輝度変化に対しほぼ比例した状態となっていることが望ましい。さらに、デジタル画像データは、「シーン参照画像データ」であることが望ましい。   However, when digital image data is generated from a color negative film by reading a scanner, the unexposed area (minimum density area) of the color negative film is calibrated and inverted so that the RGB values of the digital image data are all zero. It is desirable to reproduce a state almost proportional to the luminance change of the subject by performing conversion processing from a scale directly proportional to the amount of transmitted light to a logarithmic (density) scale and gamma correction processing of a color negative film. . Similarly, it is desirable that the digital image data captured by the digital camera is in a state that is substantially proportional to the luminance change of the subject. Further, the digital image data is preferably “scene reference image data”.

「シーン参照画像データ」とは、少なくとも撮像素子自体の分光感度に基づく各色チャンネルの信号強度をRIMM RGB」(Reference Input Medium Metric RGB)やERIMM RGB」(Extended Reference Input Medium Metric RGB)などの標準色空間にマッピング済みであり、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上する為にデータ内容を改変する画像処理が省略された状態の画像データを意味する。またシーン参照画像データは、撮像装置の光電変換特性(ISO1452が定義するopto-electronic conversion function, 例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編◆479頁参照)の補正を行ったものである事が好ましい。標準化されたシーン参照画像データの情報量(例えば階調数)は前記A/D変換器の性能に準じ、後述の「鑑賞画像参照データ」で必要とされる情報量(例えば階調数)と同等以上であることが好ましい。例えば鑑賞画像参照データの階調数が1チャンネルあたり8bitである場合、シーン参照画像データの階調数は12bit以上が好ましく、14bit以上がより好ましく、また16bit以上がさらに好ましい。   "Scene reference image data" refers to standard colors such as RIMM RGB (Reference Input Medium Metric RGB) and ERIMM RGB (Extended Reference Input Medium Metric RGB), which are signal strengths of each color channel based on at least the spectral sensitivity of the image sensor itself. It means image data that has been mapped to a space and in which image processing for modifying the data contents is omitted in order to improve the effect at the time of image viewing such as gradation conversion, sharpness enhancement, and saturation enhancement. The scene reference image data is the photoelectric conversion characteristics of the imaging device (opto-electronic conversion function defined by ISO1452, such as Corona “Fine Imaging and Digital Photography” (published by the Japan Photographic Society Publishing Committee ◆ page 479). It is preferable that the correction is performed. The information amount (for example, the number of gradations) of the standardized scene reference image data conforms to the performance of the A / D converter, and the information amount (for example, the number of gradations) required for the “viewing image reference data” described later. It is preferable that it is equal to or higher. For example, when the number of gradations of the viewing image reference data is 8 bits per channel, the number of gradations of the scene reference image data is preferably 12 bits or more, more preferably 14 bits or more, and even more preferably 16 bits or more.

「出力媒体上での鑑賞に最適化」とは、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上において、最適な画像を得る為の処理であり、例えばsRGB規格に準拠したCRTディスプレイモニタに表示することを前提とした場合、sRGB規格の色域内で最適な色再現が得られるように処理される。銀塩印画紙への出力を前提とした場合、銀塩印画紙の色域内で最適な色再現が得られるように処理される。また、色域の圧縮の以外にも、16bitから8bitへの階調圧縮、出力画素数の低減、及び出力デバイスの出力特性(LUT)への対応処理等も含まれる。さらにノイズ抑制、鮮鋭化、グレーバランス調整、彩度調整、或いは覆い焼き処理等の階調圧縮処理が行われることは言うまでもない。   “Optimized for viewing on output media” means to obtain optimal images on output devices such as display devices such as CRT, liquid crystal display, plasma display, silver halide photographic paper, inkjet paper, thermal printer paper, etc. For example, when it is assumed that the image is displayed on a CRT display monitor compliant with the sRGB standard, the process is performed so that optimum color reproduction is obtained within the color gamut of the sRGB standard. If output to silver salt photographic paper is assumed, processing is performed so that optimum color reproduction is obtained within the color gamut of silver salt photographic paper. In addition to color gamut compression, gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, and processing for handling output characteristics (LUT) of the output device are also included. Furthermore, it goes without saying that tone compression processing such as noise suppression, sharpening, gray balance adjustment, saturation adjustment, or dodging processing is performed.

「出力媒体上での鑑賞に最適化された画像データ」とはCRT、液晶ディスプレイ、プラズマディスプレイ、或いは銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上の画像生成に用いるデジタル画像データを意味し、CRT、液晶、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上において、最適な画像が得られるよう処理が施されている。上述した「撮像画像データ」が、「シーン参照画像データ」であるとき、「出力媒体上での鑑賞に最適化された画像データ」を「鑑賞画像参照データ」と称す。   "Image data optimized for viewing on output media" means digital image data used to generate images on output media such as CRT, liquid crystal display, plasma display, silver halide photographic paper, inkjet paper, thermal printer paper, etc. In other words, processing is performed so as to obtain an optimal image on a display device such as a CRT, a liquid crystal display, a plasma display, and an output medium such as a silver salt photographic paper, an inkjet paper, and a thermal printer paper. When the above-described “captured image data” is “scene reference image data”, “image data optimized for viewing on an output medium” is referred to as “viewing image reference data”.

本発明の請求項10、11、27、28、44、45の記載における、色相領域を分割する境界値は、およそ1000駒のフィルムスキャン画像について、人間の肌色、植物の緑、空の色の検出率が最も高くなる色相範囲を調べた結果から算出した。明度領域を分割する境界値に関しても、予め逆光、ストロボ近接等のシーンを定義した上で、同様の調査を行い、数値を決定している。本発明の実施に際しては、フィルムスキャン画像、デジタルカメラ撮影画像夫々について前記数値限定を変更することが望ましい。

The boundary values for dividing the hue area in claims 10, 11, 27, 28, 44, and 45 of the present invention are the detection of human skin color, plant green, and sky color for about 1000 frames of film scan image. It was calculated from the result of examining the hue range where the rate was the highest. Regarding the boundary value for dividing the lightness region, a scene such as backlight and strobe proximity is defined in advance, and the same investigation is performed to determine a numerical value. In the practice of the present invention, it is desirable to change the numerical limits for the film scan image and the digital camera image.

請求項1、18、35に記載の発明によれば、撮像画像データにおける配色傾向に基づいて、グレーバランス調整条件算出のための低彩度画素を抽出する低彩度閾値設定を変更するので、例えば、芝生や空等の占める割合が大きな撮影シーン等、画像中のハイライト側やシャドー側が低彩度であるという経験則が符合しないシーンにおいて、特定の色相からグレーバランス調整条件算出に用いる低彩度画素が多く抽出されることによる色相の偏りが防止され、その結果、カラーフェリアを抑制することが可能となる。   According to the invention described in claims 1, 18 and 35, since the low saturation threshold setting for extracting low saturation pixels for gray balance adjustment condition calculation is changed based on the coloration tendency in the captured image data, For example, in a scene where the rule of thumb that the highlight side or shadow side in the image has low saturation does not match, such as a shooting scene where the proportion of lawn, sky, etc. is large, the low used to calculate gray balance adjustment conditions from a specific hue It is possible to prevent an uneven hue due to the extraction of many saturation pixels, and as a result, it is possible to suppress color failure.

請求項2、19、36に記載の発明によれば、撮像画像データにおける配色傾向に基づいて、グレーバランス調整の適用率を変更するので、例えば、タングステン等の人工光源や自発光光源による撮影シーンにおける過剰な色偏倚補正が防止され、その結果、カラーフェリアを抑制することが可能となる。   According to the invention described in claims 2, 19, and 36, since the application rate of gray balance adjustment is changed based on the color arrangement tendency in the captured image data, for example, a shooting scene using an artificial light source such as tungsten or a self-light-emitting light source In this case, excessive color deviation correction is prevented, and as a result, color feria can be suppressed.

請求項3、20、37に記載の発明によれば、グレーバランス調整条件算出のための低彩度画素を抽出する低彩度閾値設定を変更するので、例えば、芝生や空等の占める割合が大きな撮影シーン等、画像中のハイライト側やシャドー側が低彩度であるという経験則が符合しないシーンにおいて、特定の色相からグレーバランス調整条件算出に用いる低彩度画素が多く抽出されることによる色相の偏りが防止される。また、撮像画像データにおける配色傾向に基づいて、グレーバランス調整の適用率を変更するので、例えば、タングステン等の人工光源や自発光光源による撮影シーンにおける過剰な色偏倚補正が防止される。その結果、カラーフェリアを抑制することが可能となる。   According to the invention described in claims 3, 20 and 37, since the low saturation threshold value setting for extracting low saturation pixels for gray balance adjustment condition calculation is changed, for example, the proportion occupied by lawn, sky, etc. In scenes where the empirical rule that the highlight side or shadow side in the image is low saturation does not match, such as in large shooting scenes, because many low saturation pixels used for gray balance adjustment condition calculation are extracted from a specific hue Hue bias is prevented. Further, since the application rate of gray balance adjustment is changed based on the color arrangement tendency in the captured image data, excessive color deviation correction in a shooting scene using an artificial light source such as tungsten or a self-light-emitting light source is prevented. As a result, color feria can be suppressed.

請求項4、21、38に記載の発明によれば、撮像画像データの色相値及び彩度値の2次元ヒストグラムを作成し、作成された2次元ヒストグラムに基づいて、撮像画像データを少なくとも2つの色相領域に分割するので、処理を効率化することが可能となる。   According to invention of Claim 4, 21, 38, the two-dimensional histogram of the hue value and saturation value of picked-up image data is created, Based on the created two-dimensional histogram, at least two pieces of picked-up image data are obtained. Since the image is divided into hue regions, the processing can be made more efficient.

請求項5、22、39に記載の発明によれば、撮像画像データにおける配色傾向に基づいて、グレーバランス調整条件算出のための低彩度画素を抽出する低彩度閾値設定を変更するので、例えば、芝生や空等の占める割合が大きな撮影シーン等、画像中のハイライト側やシャドー側が低彩度であるという経験則が符合しないシーンにおいて、特定の色相からグレーバランス調整条件算出に用いる低彩度画素が多く抽出されることによる色相の偏りが防止され、その結果、カラーフェリアを抑制することが可能となる。また、撮影画像データにおける明度分布傾向を判別し、逆光やストロボ近接撮影等の撮影シーンを推定することで、ハイライト点の誤設定が防止され、より一層カラーフェリア抑制の精度を高めることが可能となる。   According to the invention described in claims 5, 22 and 39, since the low saturation threshold value setting for extracting low saturation pixels for gray balance adjustment condition calculation is changed based on the coloration tendency in the captured image data, For example, in a scene where the rule of thumb that the highlight side or shadow side in the image has low saturation does not match, such as a shooting scene where the proportion of lawn, sky, etc. is large, the low used to calculate gray balance adjustment conditions from a specific hue It is possible to prevent an uneven hue due to the extraction of many saturation pixels, and as a result, it is possible to suppress color failure. Also, by determining the lightness distribution tendency in the captured image data and estimating the shooting scene such as backlighting or close-up flash photography, it is possible to prevent erroneous setting of the highlight point and to further improve the accuracy of color feria suppression. It becomes.

請求項6、23、40に記載の発明によれば、撮像画像データにおける配色傾向に基づいて、グレーバランス調整の適用率を変更するので、例えば、タングステン等の人工光源や自発光光源による撮影シーンにおける過剰な色偏倚補正が防止される。また、その結果、カラーフェリアを抑制することが可能となる。また、撮影画像データにおける明度分布傾向を判別し、逆光やストロボ近接撮影等の撮影シーンを推定することで、撮影シーンに応じてグレーバランス調整の適用率を調節することが可能となる。   According to the invention described in claims 6, 23 and 40, since the application rate of the gray balance adjustment is changed based on the color arrangement tendency in the captured image data, for example, a photographing scene using an artificial light source such as tungsten or a self-light-emitting light source. Excessive color deviation correction at is prevented. As a result, color feria can be suppressed. Further, it is possible to adjust the application rate of the gray balance adjustment according to the photographic scene by determining the lightness distribution tendency in the photographic image data and estimating the photographic scene such as backlight or strobe proximity photography.

請求項7、24、41に記載の発明によれば、グレーバランス調整条件算出のための低彩度画素を抽出する低彩度閾値設定を変更するので、例えば、芝生や空等の占める割合が大きな撮影シーン等、画像中のハイライト側やシャドー側が低彩度であるという経験則が符合しないシーンにおいて、特定の色相からグレーバランス調整条件算出に用いる低彩度画素が多く抽出されることによる色相の偏りが防止される。また、撮像画像データにおける配色傾向に基づいて、グレーバランス調整の適用率を変更するので、例えば、タングステン等の人工光源や自発光光源による撮影シーンにおける過剰な色偏倚補正が防止される。また、撮影画像データにおける明度分布傾向を判別し、逆光やストロボ近接撮影等の撮影シーンを推定することで、ハイライト点の誤設定が防止されるとともに、撮影シーンに応じてグレーバランス調整の適用率を調節することが可能となる。その結果、カラーフェリア抑制の精度を高めることが可能となる。   According to the invention described in claims 7, 24 and 41, since the low saturation threshold value setting for extracting low saturation pixels for gray balance adjustment condition calculation is changed, for example, the proportion of lawn, sky, etc. In scenes where the empirical rule that the highlight side or shadow side in the image is low saturation does not match, such as in large shooting scenes, because many low saturation pixels used for gray balance adjustment condition calculation are extracted from a specific hue Hue bias is prevented. Further, since the application rate of gray balance adjustment is changed based on the color arrangement tendency in the captured image data, excessive color deviation correction in a shooting scene using an artificial light source such as tungsten or a self-light-emitting light source is prevented. In addition, by determining the lightness distribution tendency in the captured image data and estimating the shooting scene such as backlighting or close-up flash photography, incorrect setting of the highlight point is prevented and gray balance adjustment is applied according to the shooting scene The rate can be adjusted. As a result, it is possible to improve the accuracy of color feria suppression.

請求項8、25、42に記載の発明は、撮像画像データの彩度値及び明度値の3次元ヒストグラムを作成し、作成された3次元ヒストグラムに基づいて、撮像画像データを少なくとも2つの色相領域に分割するとともに、作成された3次元ヒストグラムに基づいて、撮像画像データを少なくとも2つの明度領域に分割するので、処理を効率化することが可能となる。   The invention according to claim 8, 25, 42 creates a three-dimensional histogram of the saturation value and the lightness value of the captured image data, and based on the created three-dimensional histogram, the captured image data is stored in at least two hue regions. Since the captured image data is divided into at least two brightness areas based on the created three-dimensional histogram, the processing can be made more efficient.

請求項9、26、43に記載の発明によれば、明度領域毎の占有率及び所定の色相及び明度の領域の占有率に応じて撮影シーンを推定するので、推定の精度を向上させることが可能となる。   According to the invention described in claims 9, 26, and 43, since the photographic scene is estimated according to the occupancy rate for each lightness area and the occupancy ratio of the predetermined hue and lightness area, it is possible to improve the estimation accuracy. It becomes possible.

請求項10、27、44に記載の発明によれば、肌色、緑色、空色、赤色の配色傾向に応じたグレーバランス調整を行うことができる。   According to the tenth, twenty-seventh and twenty-fourth aspects of the present invention, it is possible to perform gray balance adjustment in accordance with the flesh color, green, sky blue, and red coloration tendency.

請求項11、28、45に記載の発明によれば、シャドー、中間、ハイライトの明度分布傾向に応じて撮影シーンを推定することが可能となる。   According to the invention described in claims 11, 28, and 45, it is possible to estimate a photographic scene according to the brightness distribution tendency of shadow, middle, and highlight.

請求項12、29、46に記載の発明によれば、肌色相領域の明度偏倚量を撮影シーンの推定に用いることができる。   According to the invention described in claims 12, 29, and 46, the lightness deviation amount of the skin hue region can be used for estimation of the shooting scene.

請求項13、30、47に記載の発明によれば、色相領域毎の占有率に応じて色相領域毎に低彩度画素の抽出率を算出し、算出された低彩度画素の抽出率に基づいて、グレーバランス調整に用いる低彩度画素を抽出する。従って、低彩度画素抽出における色相間の偏りを防止することが可能となる。   According to the invention described in claims 13, 30 and 47, the low saturation pixel extraction rate is calculated for each hue region in accordance with the occupancy ratio for each hue region, and the calculated low saturation pixel extraction rate is calculated. Based on this, low saturation pixels used for gray balance adjustment are extracted. Therefore, it is possible to prevent a deviation between hues in low saturation pixel extraction.

請求項14、31、48に記載の発明によれば、色相領域毎の特性に応じた適用率を算出することが可能となる。   According to the invention described in claims 14, 31, and 48, it is possible to calculate the application rate according to the characteristics for each hue region.

請求項15、32、49に記載の発明によれば、ハイライト点に誤設定されやすい肌色相領域及び空色相領域の占有率が高い場合に、グレーバランス調整の適用率を低くすることができるので、過剰な色偏倚補正を防止することが可能となる。   According to the invention described in claims 15, 32, and 49, when the occupation ratio of the skin hue area and the sky hue area that are likely to be erroneously set to the highlight point is high, the application ratio of the gray balance adjustment can be lowered. Therefore, excessive color deviation correction can be prevented.

請求項16、33、50に記載の発明によれば、撮像画像情報の情報損失を伴うことなく最適化された画像を出力媒体上に形成することが可能となる。   According to the invention described in claims 16, 33, and 50, it is possible to form an optimized image on the output medium without causing information loss of the captured image information.

請求項17、34、51に記載の発明によれば、カラーフェリアの生じていない最適な鑑賞画像参照データを提供することが可能となる。   According to the invention described in claims 17, 34, and 51, it is possible to provide optimum viewing image reference data in which no color failure occurs.

〔第1の実施の形態〕
以下、図を参照して本発明の第1の実施の形態を詳細に説明する。
まず、構成を説明する。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.
First, the configuration will be described.

図1は、本発明の実施の形態における画像記録装置1の外観構成を示す斜視図である。画像記録装置1は、図1に示すように、筐体2の一側面に、感光材料を装填するためのマガジン装填部3が備えられている。筐体2の内側には、感光材料に露光する露光処理部4と、露光された感光材料を現像処理して乾燥し、プリントを作成するためのプリント作成部5が備えられている。筐体2の他側面には、プリント作成部5で作成されたプリントを排出するためのトレー6が備えられている。   FIG. 1 is a perspective view showing an external configuration of an image recording apparatus 1 according to an embodiment of the present invention. As shown in FIG. 1, the image recording apparatus 1 is provided with a magazine loading unit 3 for loading a photosensitive material on one side of a housing 2. Inside the housing 2 are provided an exposure processing unit 4 for exposing the photosensitive material, and a print creating unit 5 for developing and drying the exposed photosensitive material to create a print. On the other side surface of the housing 2, a tray 6 for discharging the print created by the print creation unit 5 is provided.

また、筐体2の上部には、表示装置としてのCRT(Cathode Ray Tube)8、透過原稿を読み込む装置であるフィルムスキャナ部9、反射原稿入力装置10、操作部11が備えられている。このCRT8が、プリントを作成しようとする画像情報の画像を画面に表示する表示手段を構成している。更に、筐体2には、各種デジタル記録媒体に記録された画像情報を読み取り可能な画像読込部14、各種デジタル記録媒体に画像信号を書き込み(出力)可能な画像書込部15が備えられている。また、筐体2の内部には、これらの各部を集中制御する制御部7が備えられている。   In addition, a CRT (Cathode Ray Tube) 8 serving as a display device, a film scanner unit 9 serving as a device for reading a transparent document, a reflective document input device 10, and an operation unit 11 are provided on the upper portion of the housing 2. The CRT 8 constitutes display means for displaying an image of image information to be printed on the screen. Further, the housing 2 includes an image reading unit 14 that can read image information recorded on various digital recording media, and an image writing unit 15 that can write (output) image signals to various digital recording media. Yes. In addition, a control unit 7 that centrally controls these units is provided inside the housing 2.

画像読込部14には、PCカード用アダプタ14a、フロッピー(登録商標)ディスク用アダプタ14bが備えられ、PCカード13aやフロッピー(登録商標)ディスク13bが差し込み可能になっている。PCカード13aは、例えば、デジタルカメラで撮像された複数の駒画像データが記録されたメモリを有する。フロッピー(登録商標)ディスク13bには、例えば、デジタルカメラで撮像された複数の駒画像データが記録される。PCカード13a及びフロッピー(登録商標)ディスク13b以外に駒画像データが記録される記録媒体としては、例えば、マルチメディアカード(登録商標)、メモリースティック(登録商標)、MDデータ、CD−ROM等がある。   The image reading unit 14 includes a PC card adapter 14a and a floppy (registered trademark) disk adapter 14b, and a PC card 13a and a floppy (registered trademark) disk 13b can be inserted therein. The PC card 13a has, for example, a memory in which a plurality of frame image data captured by a digital camera is recorded. For example, a plurality of frame image data captured by a digital camera is recorded on the floppy (registered trademark) disk 13b. Examples of the recording medium on which frame image data is recorded other than the PC card 13a and the floppy (registered trademark) disk 13b include a multimedia card (registered trademark), a memory stick (registered trademark), MD data, and a CD-ROM. .

画像書込部15には、フロッピー(登録商標)ディスク用アダプタ15a、MO用アダプタ15b、光ディスク用アダプタ15cが備えられ、それぞれ、FD16a、MO16b、光ディスク16cが差し込み可能になっている。光ディスク16cとしては、CD−R、DVD−R等がある。   The image writing unit 15 is provided with a floppy (registered trademark) disk adapter 15a, an MO adapter 15b, and an optical disk adapter 15c, into which an FD 16a, an MO 16b, and an optical disk 16c can be respectively inserted. Examples of the optical disc 16c include a CD-R and a DVD-R.

なお、図1では、操作部11、CRT8、フィルムスキャナ部9、反射原稿入力装置10、画像読込部14が、筐体2に一体的に備えられた構造となっているが、これらの何れか1つ以上を別体として設けるようにしてもよい。   In FIG. 1, the operation unit 11, the CRT 8, the film scanner unit 9, the reflection original input device 10, and the image reading unit 14 are integrally provided in the housing 2. One or more may be provided separately.

また、図1に示した画像記録装置1では、感光材料に露光して現像してプリントを作成するものが例示されているが、プリント作成方式はこれに限定されず、例えば、インクジェット方式、電子写真方式、感熱方式、昇華方式等の方式を用いてもよい。   Further, in the image recording apparatus 1 shown in FIG. 1, there is exemplified an apparatus that creates a print by exposing to a photosensitive material and developing it, but the print creation system is not limited to this, for example, an inkjet system, an electronic system, etc. A method such as a photographic method, a thermal method, or a sublimation method may be used.

〈画像記録装置1の機能的構成〉
図2は、画像記録装置1の機能的構成を示すブロック図である。以下、図2を参照して画像出力装置1の機能的構成について説明する。
<Functional Configuration of Image Recording Apparatus 1>
FIG. 2 is a block diagram showing a functional configuration of the image recording apparatus 1. Hereinafter, the functional configuration of the image output apparatus 1 will be described with reference to FIG.

制御部7は、マイクロコンピュータにより構成され、ROM(Read Only Memory)等の記憶部(図示略)に記憶されている各種制御プログラムと、CPU(Central Processing Unit)(図示略)との協働により、画像記録装置1を構成する各部の動作を制御する。   The control unit 7 is configured by a microcomputer, and cooperates with various control programs stored in a storage unit (not shown) such as a ROM (Read Only Memory) and a CPU (Central Processing Unit) (not shown). The operation of each part constituting the image recording apparatus 1 is controlled.

制御部7は、本発明の画像処理装置に係る画像処理部70を有し、操作部11からの入力信号(指令情報)に基づいて、フィルムスキャナ部9や反射原稿入力装置10から読み取られた画像信号、画像読込部14から読み込まれた画像信号、外部機器から通信手段32を介して入力された画像信号に対して、画像処理を施して露光用画像情報を形成し、露光処理部4に出力する。また、画像処理部70は、画像処理された画像信号に対して出力形態に応じた変換処理を施して出力する。画像処理部70の出力先としては、CRT8、画像書込部15、通信手段(出力)33等がある。   The control unit 7 includes an image processing unit 70 according to the image processing apparatus of the present invention, and is read from the film scanner unit 9 or the reflective original input device 10 based on an input signal (command information) from the operation unit 11. Image processing is performed on the image signal, the image signal read from the image reading unit 14, and the image signal input from the external device via the communication unit 32 to form exposure image information, and the exposure processing unit 4 Output. Further, the image processing unit 70 performs a conversion process corresponding to the output form on the image signal subjected to the image processing, and outputs the image signal. Output destinations of the image processing unit 70 include the CRT 8, the image writing unit 15, the communication means (output) 33, and the like.

露光処理部4は、感光材料に画像の露光を行い、この感光材料をプリント作成部5に出力する。プリント作成部5は、露光された感光材料を現像処理して乾燥し、プリントP1、P2、P3を作成する。プリントP1は、サービスサイズ、ハイビジョンサイズ、パノラマサイズ等のプリントであり、プリントP2は、A4サイズのプリントであり、プリントP3は、名刺サイズのプリントである。   The exposure processing unit 4 exposes an image to the photosensitive material and outputs the photosensitive material to the print creating unit 5. The print creating unit 5 develops and exposes the exposed photosensitive material to create prints P1, P2, and P3. The print P1 is a service size, high-definition size, panoramic size print, the print P2 is an A4 size print, and the print P3 is a business card size print.

フィルムスキャナ部9は、アナログカメラにより撮像された現像済みのネガフィルムN、リバーサルフィルム等の透過原稿に記録された駒画像を読み取り、駒画像のデジタル画像信号を取得する。反射原稿入力装置10は、フラットベットスキャナにより、プリントP(写真プリント、書画、各種の印刷物)上の画像を読み取り、デジタル画像信号を取得する。   The film scanner unit 9 reads a frame image recorded on a transparent original such as a developed negative film N or a reversal film imaged by an analog camera, and acquires a digital image signal of the frame image. The reflective original input device 10 reads an image on a print P (photo print, document, various printed materials) by a flat bed scanner, and acquires a digital image signal.

画像読込部14は、PCカード13aやフロッピー(登録商標)ディスク13bに記録された駒画像情報を読み出して制御部7に転送する。この画像読込部14は、画像転送手段30として、PCカード用アダプタ14a、フロッピー(登録商標)ディスク用アダプタ14b等を有する。画像読込部14は、PCカード用アダプタ14aに差し込まれたPCカード13aや、フロッピー(登録商標)ディスク用アダプタ14bに差し込まれたフロッピー(登録商標)ディスク13bに記録された駒画像情報を読み取り、制御部7に転送する。PCカード用アダプタ14aとしては、例えばPCカードリーダやPCカードスロット等が用いられる。   The image reading unit 14 reads frame image information recorded on the PC card 13 a or the floppy (registered trademark) disk 13 b and transfers the frame image information to the control unit 7. The image reading unit 14 includes, as the image transfer means 30, a PC card adapter 14a, a floppy (registered trademark) disk adapter 14b, and the like. The image reading unit 14 reads frame image information recorded on the PC card 13a inserted into the PC card adapter 14a or the floppy (registered trademark) disk 13b inserted into the floppy (registered trademark) disk adapter 14b. Transfer to the control unit 7. For example, a PC card reader or a PC card slot is used as the PC card adapter 14a.

通信手段(入力)32は、画像記録装置1が設置された施設内の別のコンピュータや、インターネット等を介した遠方のコンピュータから、撮像画像を表す画像信号やプリント命令信号を受信する。   The communication means (input) 32 receives an image signal representing a captured image and a print command signal from another computer in the facility where the image recording apparatus 1 is installed, or a distant computer via the Internet or the like.

画像書込部15は、画像搬送部31として、フロッピー(登録商標)ディスク用アダプタ15a、MO用アダプタ15b、光ディスク用アダプタ15cを備えている。画像書込部15は、制御部7から入力される書込信号に従って、フロッピー(登録商標)ディスク用アダプタ15aに差し込まれたフロッピー(登録商標)ディスク16a、MO用アダプタ15bに差し込まれたMO16b、光ディスク用アダプタ15cに差し込まれた光ディスク16cに、本発明における画像処理方法によって生成された画像信号を書き込む。   The image writing unit 15 includes, as the image conveying unit 31, a floppy (registered trademark) disk adapter 15a, an MO adapter 15b, and an optical disk adapter 15c. In accordance with a write signal input from the control unit 7, the image writing unit 15 includes a floppy (registered trademark) disk 16a inserted into the floppy (registered trademark) disk adapter 15a, an MO 16b inserted into the MO adapter 15b, The image signal generated by the image processing method according to the present invention is written to the optical disk 16c inserted into the optical disk adapter 15c.

データ蓄積手段71は、画像情報とそれに対応する注文情報(どの駒の画像から何枚プリントを作成するかの情報、プリントサイズの情報等)とを記憶し、順次蓄積する。   The data storage unit 71 stores and sequentially stores image information and order information corresponding to the image information (information on how many prints are to be created from images of which frames, print size information, and the like).

テンプレート記憶手段72は、サンプル識別情報D1、D2、D3に対応するサンプル画像データである背景画像、イラスト画像等と合成領域を設定する少なくとも1個のテンプレートのデータを記憶している。オペレータの操作によりセットしてテンプレート記憶手段72に予め記憶された複数のテンプレートから所定のテンプレートを選択し、駒画像情報は選択されたテンプレートにより合成し、指定されるサンプル識別情報D1、D2、D3に基づいて選択されたサンプル画像データと、注文に基づく画像データ及び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成する。このテンプレートによる合成は、周知のクロマキー法によって行なわれる。   The template storage means 72 stores at least one template data for setting a synthesis area and a background image, an illustration image, and the like, which are sample image data corresponding to the sample identification information D1, D2, and D3. A predetermined template is selected from a plurality of templates that are set by the operation of the operator and stored in advance in the template storage means 72, and the frame image information is synthesized by the selected template and designated sample identification information D1, D2, D3 The sample image data selected on the basis of the image data and the image data and / or character data based on the order are combined to create a print based on the specified sample. The synthesis using this template is performed by a well-known chroma key method.

なお、プリントのサンプルを指定するサンプル識別情報D1、D2、D3は、操作部211から入力されるように構成されているが、これらのサンプル識別情報は、プリントのサンプル又は注文シートに記録されているため、OCR等の読み取り手段により読み取ることができる。或いは、オペレータのキーボード操作により入力することもできる。   Note that sample identification information D1, D2, and D3 for specifying a print sample is configured to be input from the operation unit 211. These sample identification information is recorded on a print sample or an order sheet. Therefore, it can be read by reading means such as OCR. Or it can also input by an operator's keyboard operation.

このようにプリントのサンプルを指定するサンプル識別情報D1に対応してサンプル画像データを記録しておき、プリントのサンプルを指定するサンプル識別情報D1を入力し、この入力されるサンプル識別情報D1に基づきサンプル画像データを選択し、この選択されたサンプル画像データと、注文に基づく画像データ及び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成するため、種々の実物大のサンプルをユーザが実際に手にしてプリントの注文ができ、幅広いユーザの多様な要求に応じることができる。   In this way, sample image data is recorded corresponding to the sample identification information D1 for designating the print sample, the sample identification information D1 for designating the print sample is input, and based on the input sample identification information D1. Select the sample image data, synthesize the selected sample image data with the image data and / or text data based on the order, and create a print based on the specified sample. Can actually place a print order and meet the diverse requirements of a wide range of users.

また、第1のサンプルを指定する第1のサンプル識別情報D2と第1のサンプルの画像データを記憶し、また、第2のサンプルを指定する第2のサンプル識別情報D3と第2のサンプルの画像データを記憶し、指定される第1及び第2のサンプル識別情報D2、D3とに基づいて選択されたサンプル画像データと、注文に基づく画像データ及び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成するため、さらに多種多様の画像を合成することができ、より一層幅広いユーザの多様な要求に応じたプリントを作成することができる。   Also, the first sample identification information D2 designating the first sample and the image data of the first sample are stored, and the second sample identification information D3 designating the second sample and the second sample The image data is stored, the sample image data selected based on the designated first and second sample identification information D2 and D3, and the image data and / or character data based on the order are synthesized, and according to the designation In order to create a print based on a sample, it is possible to synthesize a wider variety of images, and it is possible to create a print that meets a wider variety of user requirements.

操作部11は、情報入力手段12を有する。情報入力手段12は、例えば、タッチパネル等により構成されており、情報入力手段12の押下信号を入力信号として制御部7に出力する。なお、操作部11は、キーボードやマウス等を備えて構成するようにしてもよい。CRT8は、制御部7から入力された表示制御信号に従って、画像情報等を表示する。   The operation unit 11 includes information input means 12. The information input unit 12 is configured by a touch panel, for example, and outputs a pressing signal of the information input unit 12 to the control unit 7 as an input signal. Note that the operation unit 11 may be configured to include a keyboard, a mouse, and the like. The CRT 8 displays image information and the like according to a display control signal input from the control unit 7.

通信手段(出力)33は、本発明の画像処理を施した後の撮影画像を表す画像信号と、それに付帯するオーダー情報を、画像記録装置1が設置された施設内の他のコンピュータや、インターネット等を介した遠方のコンピュータに対して送信する。   The communication means (output) 33 sends an image signal representing a photographed image after image processing of the present invention and order information attached thereto to other computers in the facility where the image recording apparatus 1 is installed, the Internet Etc. to a distant computer via

図2に示すように、画像記録装置1は、各種デジタルメディアの画像及び画像原稿を分割測光して得られた画像情報を取り込む画像入力手段と、画像処理手段と、処理済の画像を表示、プリント出力、画像記録メディアに書き込む画像出力手段と、通信回線を介して施設内の別のコンピュータやインターネット等を介した遠方のコンピュータに対して画像データと付帯するオーダー情報を送信する手段と、を備える。   As shown in FIG. 2, the image recording apparatus 1 displays an image input unit that captures image information obtained by dividing and metering images of various digital media and an image original, an image processing unit, and a processed image. Print output, image output means for writing to an image recording medium, and means for transmitting image data and accompanying order information to another computer in the facility or a distant computer via the Internet via a communication line, Prepare.

<画像処理部70の内部構成>
図3は、画像処理部70の機能的構成を示すブロック図である。以下、図3を参照して、画像処理部70について詳細に説明する。
<Internal Configuration of Image Processing Unit 70>
FIG. 3 is a block diagram illustrating a functional configuration of the image processing unit 70. Hereinafter, the image processing unit 70 will be described in detail with reference to FIG.

画像処理部70は、図3に示すように、画像調整処理部701、フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703、画像データ書式解読処理部704、テンプレート処理部705、CRT固有処理部706、プリンタ固有処理部A707、プリンタ固有処理部B708、画像データ作成処理部709により構成される。   As shown in FIG. 3, the image processing unit 70 includes an image adjustment processing unit 701, a film scan data processing unit 702, a reflection original scan data processing unit 703, an image data format decoding processing unit 704, a template processing unit 705, and CRT specific processing. 706, printer specific processing unit A707, printer specific processing unit B708, and image data creation processing unit 709.

フィルムスキャンデータ処理部702は、フィルムスキャナ部9から入力された画像データに対し、フィルムスキャナ部9固有の校正操作、ネガポジ反転(ネガ原稿の場合)、ゴミキズ除去、コントラスト調整、粒状ノイズ除去、鮮鋭化強調等の処理を施し、処理済の画像データを画像調整処理部701に出力する。また、フィルムサイズ、ネガポジ種別、フィルムに光学的或いは磁気的に記録された主要被写体に関わる情報、撮影条件に関する情報(例えば、APSの記載情報内容)等も併せて画像調整処理部701に出力する。   The film scan data processing unit 702 performs a calibration operation specific to the film scanner unit 9, negative / positive reversal (in the case of a negative document), dust scratch removal, contrast adjustment, granular noise removal, and sharpness for the image data input from the film scanner unit 9. Processing such as conversion enhancement is performed, and processed image data is output to the image adjustment processing unit 701. In addition, the film size, the negative / positive type, information relating to the main subject optically or magnetically recorded on the film, information relating to the photographing conditions (for example, information content described in APS), and the like are also output to the image adjustment processing unit 701. .

反射原稿スキャンデータ処理部703は、反射原稿入力装置10から入力された画像データに対し、反射原稿入力装置10固有の校正操作、ネガポジ反転(ネガ原稿の場合)、ゴミキズ除去、コントラスト調整、ノイズ除去、鮮鋭化強調等の処理を施し、処理済の画像データを画像調整処理部701に出力する。   The reflection original scan data processing unit 703 performs a calibration operation unique to the reflection original input device 10, negative / positive reversal (in the case of a negative original), dust flaw removal, contrast adjustment, and noise removal on the image data input from the reflection original input device 10. Then, processing such as sharpening enhancement is performed, and processed image data is output to the image adjustment processing unit 701.

画像データ書式解読処理部704は、画像転送手段30及び/又は通信手段(入力)32から入力された画像データに対し、その画像データのデータ書式に従って、必要に応じて圧縮符号の復元、色データの表現方法の変換等の処理を施し、画像処理部70内の演算に適したデータ形式に変換し、画像調整処理部701に出力する。また、画像データ書式解読処理部704は、操作部11、通信手段(入力)32、画像転送手段30の何れかから出力画像の大きさが指定された場合、その指定された情報を検出し、画像調整処理部701に出力する。なお、画像転送手段30により指定される出力画像の大きさについての情報は、画像転送手段30が取得した画像データのヘッダ情報、タグ情報に埋め込まれている。   The image data format decoding processing unit 704 restores the compression code, if necessary, according to the data format of the image data input from the image transfer means 30 and / or the communication means (input) 32, and the color data. Are converted into a data format suitable for computation in the image processing unit 70 and output to the image adjustment processing unit 701. Further, when the size of the output image is specified from any of the operation unit 11, the communication unit (input) 32, and the image transfer unit 30, the image data format decoding processing unit 704 detects the specified information, The image is output to the image adjustment processing unit 701. Information about the size of the output image designated by the image transfer means 30 is embedded in the header information and tag information of the image data acquired by the image transfer means 30.

画像調整処理部701は、操作部11又は制御部7の指令に基づいて、フィルムスキャナ部9、反射原稿入力装置10、画像転送手段30、通信手段(入力)32、テンプレート処理部705から受け取った画像データに対して、後述するグレーバランス調整処理Aを含む最適化処理を施して、出力媒体上での鑑賞に最適化された出力用のデジタル画像データを生成し、CRT固有処理部706、プリンタ固有処理部A707、プリンタ固有処理部B708、画像データ作成処理部709、データ蓄積手段71に出力する。   The image adjustment processing unit 701 receives from the film scanner unit 9, the reflection original input device 10, the image transfer unit 30, the communication unit (input) 32, and the template processing unit 705 based on the command from the operation unit 11 or the control unit 7. The image data is subjected to optimization processing including gray balance adjustment processing A, which will be described later, to generate digital image data for output optimized for viewing on the output medium. The CRT specific processing unit 706, printer The data is output to the unique processing unit A 707, the printer unique processing unit B 708, the image data creation processing unit 709, and the data storage unit 71.

最適化処理においては、例えばsRGB規格に準拠したCRTディスプレイモニタに表示することを前提とした場合、sRGB規格の色域内で最適な色再現が得られるように処理される。銀塩印画紙への出力を前提とした場合、銀塩印画紙の色域内で最適な色再現が得られるように処理される。また前記色域の圧縮の以外にも、16bitから8bitへの階調圧縮、出力画素数の低減、及び出力デバイスの出力特性(LUT)への対応処理等も含まれる。さらにノイズ抑制、鮮鋭化、彩度調整、或いは覆い焼き処理等の階調圧縮処理が行われることは言うまでもない。   In the optimization process, for example, when it is assumed that the image is displayed on a CRT display monitor compliant with the sRGB standard, the optimal color reproduction is performed within the sRGB standard color gamut. If output to silver salt photographic paper is assumed, processing is performed so that optimum color reproduction is obtained within the color gamut of silver salt photographic paper. In addition to the compression of the color gamut, gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, and processing for handling output characteristics (LUT) of the output device are also included. Furthermore, it goes without saying that tone compression processing such as noise suppression, sharpening, saturation adjustment, or dodging processing is performed.

テンプレート処理部705は、画像調整処理部701からの指令に基づいて、テンプレート記憶手段72から所定の画像データ(テンプレート)を読み出して、画像処理対象の画像データとテンプレートを合成するテンプレート処理を行い、テンプレート処理後の画像データを画像調整処理部701に出力する。   The template processing unit 705 reads out predetermined image data (template) from the template storage unit 72 based on a command from the image adjustment processing unit 701, and performs template processing for combining the image data to be processed with the template. The image data after the template processing is output to the image adjustment processing unit 701.

CRT固有処理部706は、画像調整処理部701から入力された画像データに対して、必要に応じて画素数変更やカラーマッチング等の処理を施し、制御情報等表示が必要な情報と合成した表示用の画像データをCRT8に出力する。   The CRT specific processing unit 706 performs a process such as changing the number of pixels and color matching on the image data input from the image adjustment processing unit 701 as necessary, and combines the information with information that needs to be displayed, such as control information. Image data is output to the CRT 8.

プリンタ固有処理部A707は、必要に応じてプリンタ固有の校正処理、カラーマッチング、画素数変更等の処理を行い、処理済の画像データを露光処理部4に出力する。   The printer-specific processing unit A707 performs printer-specific calibration processing, color matching, pixel number change processing, and the like as necessary, and outputs processed image data to the exposure processing unit 4.

本発明の画像記録装置1に、大判インクジェットプリンタ等の外部プリンタ51が接続可能な場合には、接続するプリンタ装置毎にプリンタ固有処理部B708が備えられている。このプリンタ固有処理部B708は、プリンタ固有の校正処理、カラーマッチング、画素数変更等の処理を施し、処理済の画像データを外部プリンタ51に出力する。   When an external printer 51 such as a large-format ink jet printer can be connected to the image recording apparatus 1 of the present invention, a printer specific processing unit B708 is provided for each printer apparatus to be connected. The printer-specific processing unit B708 performs printer-specific calibration processing, color matching, pixel number change, and the like, and outputs processed image data to the external printer 51.

画像データ書式作成処理部709は、画像調整処理部701から入力された画像データに対して、必要に応じてJPEG、TIFF、Exif等に代表される各種の汎用画像フォーマットへの変換を施し、処理済の画像データを画像搬送部31や通信手段(出力)33に出力する。   The image data format creation processing unit 709 converts the image data input from the image adjustment processing unit 701 into various general-purpose image formats typified by JPEG, TIFF, Exif, and the like as necessary. The completed image data is output to the image transport unit 31 and the communication means (output) 33.

なお、図3に示した、フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703、画像データ書式解読処理部704、画像調整処理部701、CRT固有処理部706、プリンタ固有処理部A707、プリンタ固有処理部B708、画像データ作成処理部709、という区分は、画像処理部70の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば、単一のCPUによるソフトウエア処理の種類の区分として実現されてもよい。   3, the film scan data processing unit 702, the reflection original scan data processing unit 703, the image data format decoding processing unit 704, the image adjustment processing unit 701, the CRT specific processing unit 706, the printer specific processing unit A707, the printer The divisions of the unique processing unit B708 and the image data creation processing unit 709 are provided to assist understanding of the functions of the image processing unit 70, and are not necessarily realized as physically independent devices. Alternatively, it may be realized as a type of software processing performed by a single CPU.

次に、本発明の動作について説明する。
図4は、画像調整処理部701により実行されるグレーバランス調整処理Aを示すフローチャートである。本処理は、ROM等の記憶部(図示略)に記憶されているグレーバランス調整処理AプログラムとCPUとの協働によるソフトウエア処理により実現されるものであり、フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703又は画像データ書式解読処理部704から画像データ(画像信号)が入力されることにより開始する。このグレーバランス調整処理Aの実行により、本発明の請求項18、20、35、37に記載のデータ取得手段、色相領域分割手段、色相領域占有率算出手段、低彩度閾値算出手段、低彩度閾値抽出手段、グレーバランス調整条件算出手段、グレーバランス調整手段、及び請求項21、38に記載の2次元ヒストグラム作成手段が実現される。
以下、図4を参照して、グレーバランス調整処理Aについて説明する。
Next, the operation of the present invention will be described.
FIG. 4 is a flowchart showing the gray balance adjustment process A executed by the image adjustment processing unit 701. This processing is realized by software processing in cooperation with the gray balance adjustment processing A program stored in a storage unit (not shown) such as a ROM and the CPU. The film scan data processing unit 702, reflection The process starts when image data (image signal) is input from the document scan data processing unit 703 or the image data format decoding processing unit 704. By executing this gray balance adjustment processing A, the data acquisition means, hue area division means, hue area occupancy ratio calculation means, low saturation threshold value calculation means, low saturation, and the like according to claims 18, 20, 35 and 37 of the present invention. The threshold value extraction means, the gray balance adjustment condition calculation means, the gray balance adjustment means, and the two-dimensional histogram creation means according to claims 21 and 38 are realized.
Hereinafter, the gray balance adjustment processing A will be described with reference to FIG.

フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703又は画像データ書式解読処理部704から画像データが入力されると、入力画像データがRGBの表色系からL*a*b*やHSVなどの表色系に変換されることにより、この入力画像データの画素毎の色相値と彩度値が取得され、図示しないRAMに記憶される(ステップS1)。   When image data is input from the film scan data processing unit 702, the reflection original scan data processing unit 703, or the image data format decoding processing unit 704, the input image data is converted into L * a * b * or HSV from the RGB color system. Are converted into the color system, the hue value and the saturation value for each pixel of the input image data are acquired and stored in a RAM (not shown) (step S1).

以下、入力画像データの各画素のRGB値から色相値、彩度値及び明度値を取得するための算出式の具体例を示す。
まず、RGBからHSV表色系に変換することにより色相値、彩度値、明度値を得る例について、プログラムコード(c言語)による具体例を[数1]に挙げて詳述する。この変換プログラムを、以下HSV変換プログラムと称す。HSV表色系は色を色相(Hue)、彩度(Saturation)、明度(Value又はBrightness)の3つの要素で表し、マンセルにより提案された表色体系を元にして考案されたものである。
Hereinafter, specific examples of calculation formulas for acquiring the hue value, the saturation value, and the brightness value from the RGB values of each pixel of the input image data will be shown.
First, an example of obtaining a hue value, a saturation value, and a lightness value by converting from RGB to the HSV color system will be described in detail with reference to [Expression 1]. This conversion program is hereinafter referred to as an HSV conversion program. The HSV color system is devised based on the color system proposed by Munsell, which expresses colors with three elements of hue, saturation, and value (brightness).

入力画像データであるデジタル画像データの値を、InR、InG、InBと定義する。また、算出された色相値をOutHとし、スケールを0〜360と定義し、彩度値をOutS、明度値をOutVとし、単位を0〜255と定義する。

Figure 2005192158
The values of digital image data that is input image data are defined as InR, InG, and InB. The calculated hue value is defined as OutH, the scale is defined as 0 to 360, the saturation value is defined as OutS, the lightness value is defined as OutV, and the unit is defined as 0 to 255.
Figure 2005192158

表色系には、HSVの他、L*a*b*、L*u*v*、ハンターL*a*b*、YCC、YUV、YIQなど如何なるものを用いても良いが、本発明では、直接色相値と彩度値が得られるHSVを用いることが望ましい。   Any color system such as L * a * b *, L * u * v *, Hunter L * a * b *, YCC, YUV, YIQ may be used in addition to HSV. It is desirable to use an HSV that can directly obtain a hue value and a saturation value.

HSV以外の表色系を用いる参考例として、以下にL*a*b*を用いる例について説明する。
L*a*b*表色系(CIE1976)とは、CIE (国際照明委員会)が、1976年に定めた均等色空間の1つであり、IEC61966-2-1が規定する下記[数2]、JISZ8729が規定する下記[数3]を適用することで、RGB値からL*a*b*値を得る。得られたa*b*から下記[数4]により、色相値(H')、彩度値(S')を得る。ただし、ここで求められる色相(H')、彩度(S')は、上述したHSV表色系の色相値(H)、彩度値(S)とは異なるものである。
As a reference example using a color system other than HSV, an example using L * a * b * will be described below.
The L * a * b * color system (CIE1976) is one of the uniform color spaces established by the CIE (International Commission on Illumination) in 1976, and is defined by IEC61966-2-1 [Equation 2 The L * a * b * value is obtained from the RGB value by applying the following [Equation 3] defined by JISZ8729. From the obtained a * b *, the hue value (H ′) and the saturation value (S ′) are obtained by the following [Equation 4]. However, the hue (H ′) and saturation (S ′) obtained here are different from the hue value (H) and saturation value (S) of the HSV color system described above.

Figure 2005192158
Figure 2005192158
Figure 2005192158
Figure 2005192158
Figure 2005192158
Figure 2005192158

上記[数2]は、8bitの入力画像データ(RsRGB(8)、GsRGB(8)、BsRGB(8))から等色関数の三刺激値(X、Y、Z)に変換することを示している。ここで、等色関数とは、人間の目の分光感度分布を示す関数である。ここで、[数2]における入力画像データ(RsRGB(8)、GsRGB(8)、BsRGB(8))のsRGBは、入力画像データのRGB値がsRGB規格に準拠することを示し、(8)は、8bit(0〜255)の画像データであることを示す。 The above [Equation 2] is converted from 8- bit input image data (R sRGB (8) , G sRGB (8) , B sRGB (8) ) to tristimulus values (X, Y, Z) of color matching functions. Is shown. Here, the color matching function is a function indicating the spectral sensitivity distribution of the human eye. Here, sRGB of input image data (R sRGB (8) , G sRGB (8) , B sRGB (8) ) in [Equation 2] indicates that the RGB value of the input image data conforms to the sRGB standard, (8) indicates 8-bit (0 to 255) image data.

また、上記[数3]は、三刺激値(X、Y、Z)からL*a*b*に変換することを示している。[数3]のXn、Yn、Znは、夫々標準白色板のX、Y、Zを示し、D65は、色温度が6500Kの光を標準白色板に照明したときの刺激値を示す。[数3]では、Xn=0.95、Yn=1.00、Zn=1.09である。 Further, the above [Expression 3] indicates that the tristimulus values (X, Y, Z) are converted into L * a * b *. Xn [Expression 3], Yn, Zn are X each standard white plate, Y, indicates Z, D 65 represents a stimulus value when the color temperature is illuminated with light of 6500K to standard white plate. In [Formula 3], Xn = 0.95, Yn = 1.00, and Zn = 1.09.

入力画像データの各画素の色相値及び彩度値が取得されると、X軸を色相値(H)、Y軸を彩度値(S)とした座標平面内に、画素の累積度数分布を示す2次元ヒストグラムが作成される(ステップS2)。   When the hue value and saturation value of each pixel of the input image data are acquired, the cumulative frequency distribution of the pixels in the coordinate plane with the hue value (H) as the X axis and the saturation value (S) as the Y axis is obtained. A two-dimensional histogram is generated (step S2).

図5(a)(b)に、2次元ヒストグラムの一例を示す。図5(a)に示す2次元ヒストグラムは、X軸を色相値(H)、Y軸を彩度値(S)とした座標平面内に、画素の累積度数分布の値を有する格子点を表したものである。座標平面の縁にある格子点は、色相値(H)が18、彩度値(S)が約13の範囲に分布する画素数の累積度数を保持している。それ以外の格子点は、色相値(H)が36、彩度値(S)が約25の範囲に分布する画素数の累積度数を保持している。領域Aは、色相値(H)が70〜184の緑色相領域を表す。境界線Bは、低彩度闘値を表す。領域Aの境界線Bより小さい彩度(S)の領域が、低彩度画素として画素を抽出する範囲である。   FIGS. 5A and 5B show examples of a two-dimensional histogram. The two-dimensional histogram shown in FIG. 5A represents a grid point having a cumulative frequency distribution value of pixels in a coordinate plane with a hue value (H) on the X axis and a saturation value (S) on the Y axis. It is a thing. The grid points at the edge of the coordinate plane hold the cumulative frequency of the number of pixels distributed in the range where the hue value (H) is 18 and the saturation value (S) is about 13. The remaining grid points hold the cumulative frequency of the number of pixels distributed in the range where the hue value (H) is 36 and the saturation value (S) is about 25. A region A represents a green hue region having a hue value (H) of 70 to 184. The boundary line B represents a low saturation threshold. A region having a saturation (S) smaller than the boundary line B of the region A is a range in which pixels are extracted as low saturation pixels.

次いで、作成された2次元ヒストグラムに基づいて、入力画像データが所定の色相領域に分割される(ステップS3)。具体的には、作成された2次元ヒストグラムが、予め定義された少なくとも一つの色相値を境界に、二つ以上の平面に分割されることにより、入力画像データが所定の色相領域に分割される。本発明においては、少なくとも3つの色相値により、入力画像データを4つの平面に分割することが望ましい。また、境界とする色相値は、上述したHSV変換プログラムによる算出値で70、185、225と定義しておくこおとが望ましい。このように定義することにより、図5(b)に示すように、2次元ヒストグラム(入力画像データ)を肌色相領域(色相値0〜69)、緑色相領域(色相値70〜184)、空色相領域(色相値185〜224)、赤色相領域(色相値225〜360)の4つの色相領域に分割することが可能となる。本実施の形態においても、2次元ヒストグラム(入力画像データ)を70、185、225の色相値で4つの色相領域に分割するものとする。   Next, the input image data is divided into predetermined hue regions based on the created two-dimensional histogram (step S3). Specifically, the created two-dimensional histogram is divided into two or more planes with at least one predefined hue value as a boundary, whereby the input image data is divided into predetermined hue regions. . In the present invention, it is desirable to divide input image data into four planes based on at least three hue values. Further, it is desirable to define the hue value as the boundary as 70, 185, 225 as calculated values by the above-mentioned HSV conversion program. By defining in this way, as shown in FIG. 5B, a two-dimensional histogram (input image data) is converted into a skin hue area (hue values 0 to 69), a green hue area (hue values 70 to 184), and sky. It is possible to divide into four hue areas, a hue area (hue values 185 to 224) and a red hue area (hue values 225 to 360). Also in the present embodiment, the two-dimensional histogram (input image data) is divided into four hue regions with hue values of 70, 185, and 225.

次いで、ステップS3で分割された色相領域の夫々について、各領域内の累積度数分布のシグマ値を入力画像データの全画素数で除算することにより、色相領域毎の画素が入力画像データの画面全体に占める割合、即ち色相領域毎の占有率が算出される(ステップS4)。   Next, for each of the hue regions divided in step S3, the pixel of each hue region is the entire screen of the input image data by dividing the sigma value of the cumulative frequency distribution in each region by the total number of pixels of the input image data. Is calculated, that is, the occupation ratio for each hue region is calculated (step S4).

例えば、入力画像データとして、全画素数が500万画素で、撮影シーンが、芝生の上に座った赤いカーディガンを着た女性を比較的大きめに撮影したもの(画像データαとする)を用いて上述したステップS1〜S4を実行すると、占有率は下記[表1]に示す値となる。

Figure 2005192158
For example, as input image data, the total number of pixels is 5 million pixels, and the shooting scene is a relatively large image of a woman wearing a red cardigan sitting on the lawn (referred to as image data α). When the steps S1 to S4 described above are executed, the occupation ratio becomes a value shown in [Table 1] below.
Figure 2005192158

次いで、ステップS4で求められた色相領域毎の占有率に応じて、色相領域毎の低彩度閾値が算出される(ステップS5)。当該ステップは、色相領域毎の占有率に応じて、後述のグレーバランス調整条件算出処理で用いる低彩度画素を抽出するための彩度の閾値(以下、「低彩度闘値」と称す)を、色相領域毎に設定する処理である。   Next, a low saturation threshold value for each hue area is calculated according to the occupation ratio for each hue area obtained in step S4 (step S5). In this step, a saturation threshold for extracting low saturation pixels used in a gray balance adjustment condition calculation process described later (hereinafter referred to as “low saturation threshold value”) according to the occupation ratio for each hue region. Is set for each hue region.

各色相領域の占有率(=RC)と低彩度闘値(=LC)との関係式を下記[式1]に例示する。なお、各色相領域の占有率(=RC)と低彩度闘値(=LC)との関係式は、これに限定されるものではない。
[式1]
LC(S) = 30×((RC(%) / 100)0.25×30)
A relational expression between the occupation ratio (= RC) of each hue region and the low saturation threshold value (= LC) is illustrated in [Expression 1] below. Note that the relational expression between the occupation ratio (= RC) and the low saturation threshold (= LC) of each hue region is not limited to this.
[Formula 1]
LC (S) = 30 × ((RC (%) / 100) 0.25 × 30)

ステップS5において上述した画像データαの色相領域毎の低彩度閾値を求めると、下記[表2]の結果が得られる。

Figure 2005192158
図5(b)の2次元ヒストグラムの境界線Bは、画像データαについて求められた低彩度閾値を示している。 When the low saturation threshold value for each hue region of the image data α described above is obtained in step S5, the following [Table 2] results are obtained.
Figure 2005192158
The boundary line B of the two-dimensional histogram in FIG. 5B indicates the low saturation threshold obtained for the image data α.

次いで、各色相領域について、ステップS5で算出された低彩度閾値に基づいて、グレーバランス調整に用いる画素が抽出される(ステップS6)。即ち、色相領域毎に算出された低彩度闘値を用いて後述するグレーバランス調整条件算出処理で用いる低彩度画素が決定され、低彩度画素だけで構成(画素自体を排除するか、0か255の値でマスキング処理する)した中間画像データが生成される。   Next, for each hue region, pixels used for gray balance adjustment are extracted based on the low saturation threshold calculated in step S5 (step S6). That is, a low saturation pixel to be used in a gray balance adjustment condition calculation process to be described later is determined using a low saturation threshold value calculated for each hue region, and is configured only with low saturation pixels (excluding the pixel itself, Intermediate image data that is masked with a value of 0 or 255) is generated.

上述したステップS1〜S6を実行することにより、芝生や空など画像に占める割合の高い領域から低彩度画素が多く抽出されることによるグレーバランス調整における色相の偏りが防止される。   By executing Steps S1 to S6 described above, it is possible to prevent a hue bias in gray balance adjustment due to extraction of many low-saturation pixels from a region having a high ratio in the image, such as lawn or sky.

なお、本処理においては、「低彩度闘値」だけでなく、各色相領域の占有率と低彩度画素の抽出率との関係式を予め定義しておき、色相領域毎の占有率に基づいて「低彩度画素の抽出率」を算出し(即ち、請求項30、47記載の低彩度画素抽出率算出手段)、低彩度閾値及び低彩度画素の抽出率に基づいて、低彩度画素を抽出するようにしても良い。   In this process, not only the “low saturation threshold value” but also a relational expression between the occupancy rate of each hue region and the extraction rate of low saturation pixels is defined in advance, and the occupancy rate for each hue region is determined. Based on the low saturation threshold and the low saturation pixel extraction rate, the "low saturation pixel extraction rate" is calculated based on the low saturation pixel extraction rate calculation means according to claims 30 and 47. Low saturation pixels may be extracted.

次いで、ステップS6で抽出された画素を対象画素としてグレーバランス調整条件算出処理が実行される(ステップS7)。   Next, a gray balance adjustment condition calculation process is executed with the pixel extracted in step S6 as the target pixel (step S7).

図6に、ステップS7で画像調整処理部701により実行されるグレーバランス調整条件算出処理を示すフローチャートである。以下、図6のフローチャート及び図7〜図9を参照してグレーバランス調整条件算出処理について説明する。   FIG. 6 is a flowchart showing the gray balance adjustment condition calculation processing executed by the image adjustment processing unit 701 in step S7. Hereinafter, the gray balance adjustment condition calculation process will be described with reference to the flowchart of FIG. 6 and FIGS. 7 to 9.

まず、グレーバランス調整条件算出のための対象画素について、R、G、Bの各チャンネルの累積ヒストグラムが作成される(ステップS11)。即ち、図7に示す累積ヒストグラムがR、G、Bの各チャンネルについて作成される。   First, a cumulative histogram of each channel of R, G, and B is created for the target pixel for gray balance adjustment condition calculation (step S11). That is, the cumulative histogram shown in FIG. 7 is created for each of the R, G, and B channels.

次いで、図7に示すように、R、G、Bの各チャンネルの累積ヒストグラムにおいて、ハイライト(8bitなら255)側からシャドー(0)側への画素の累積度数が、全低彩度画素数の所定%に達するまでの累積画素の平均値が算出され、この累積画素の平均値が各チャンネルのハイライト点(Hp)として決定される(ステップS12)。また、図7に示すように、R、G、Bの各チャンネルの累積ヒストグラムにおいて、シャドー(0)側からハイライト(8bitなら255)側への画素の累積度数が、全低彩度画素数の所定%に達するまでの累積画素の平均値が算出され、この累積画素の平均値が各チャンネルのシャドー点(Sp)として決定される(ステップS13)。   Next, as shown in FIG. 7, in the cumulative histogram of each channel of R, G, and B, the cumulative frequency of pixels from the highlight (255 for 8 bits) side to the shadow (0) side is the total low saturation pixel number. The average value of the accumulated pixels until the predetermined percentage is reached is calculated, and the average value of the accumulated pixels is determined as the highlight point (Hp) of each channel (step S12). Further, as shown in FIG. 7, in the cumulative histogram of each of the R, G, and B channels, the cumulative frequency of pixels from the shadow (0) side to the highlight (255 for 8 bits) is the total low saturation pixel number. The average value of the accumulated pixels until reaching a predetermined percentage of is calculated, and the average value of the accumulated pixels is determined as the shadow point (Sp) of each channel (step S13).

次いで、決定された各チャンネルのハイライト点Hp及びシャドー点Spに基づいて、END(equivalent neutral density)変換(等価中性濃度変換)用画素が抽出される(ステップS14)。具体的には、全対象画素についてB−G及びR−Gが算出され、X軸がB−G、Y軸がR−Gの色度図が作成され、この色度図上にハイライト点Hpとシャドー点Spがプロットされた後(図8参照。点AはHp、点BはSp)、両者を結んだ直線から所定の距離内に分布する画素(図8の領域Q内の画素)がEND変換用画素として抽出される。当該ステップは、ハイライト点Hp及びシャドー点Spが低彩度であるという経験則を前提として、色度図上でこの近辺に分布する低彩度画素をEND変換用画素として抽出するものであるが、本実施の形態においては、予め各色相の画像全体における占有率に基づいて抽出された低彩度画素を対象画素として利用しているので、例えば、芝生や空などが画像に占める面積の高い撮影シーン等、前記経験則が符合しない場合であっても、色相の偏りのないグレーバランス調整を行うことが可能な調整条件を設定することができる。   Next, END (equivalent neutral density) conversion (equivalent neutral density conversion) pixels are extracted based on the determined highlight point Hp and shadow point Sp of each channel (step S14). Specifically, BG and RG are calculated for all the target pixels, and a chromaticity diagram with the BG on the X axis and the RG on the Y axis is created, and a highlight point is displayed on the chromaticity diagram. After Hp and shadow point Sp are plotted (see FIG. 8, point A is Hp, point B is Sp), pixels distributed within a predetermined distance from the line connecting them (pixels in region Q in FIG. 8) Are extracted as END conversion pixels. In this step, on the premise of an empirical rule that the highlight point Hp and the shadow point Sp have low saturation, low saturation pixels distributed in the vicinity on the chromaticity diagram are extracted as END conversion pixels. However, in the present embodiment, low saturation pixels extracted based on the occupation ratio of each hue in the entire image are used as target pixels. Even when the above empirical rule does not agree, such as a high shooting scene, it is possible to set an adjustment condition capable of performing gray balance adjustment without hue deviation.

END変換用画素が抽出されると、図9に示すように、x軸=G値、y軸=R値の相関図と、x軸=G値、y軸=B値の相関図が作成され、各相関図上に抽出されたEND変換用の画素の値がプロットされ(ステップS15)、最小自乗近似直線lが設定される(ステップS16)。そして、設定された最小自乗近似直線lを、傾き=1、切片=0に補正するためのEND変換式が算出され(ステップS17)、処理は図4のステップS8に移行する。   When the END conversion pixels are extracted, as shown in FIG. 9, a correlation diagram of x-axis = G value, y-axis = R value, and a correlation diagram of x-axis = G value, y-axis = B value are created. The extracted END conversion pixel values are plotted on each correlation diagram (step S15), and a least square approximation line l is set (step S16). Then, an END conversion equation for correcting the set least square approximation straight line l so that the slope is 1 and the intercept is 0 is calculated (step S17), and the process proceeds to step S8 in FIG.

図4において、グレーバランス調整条件としてのEND変換式が算出されると、算出されたEND変換式が入力画像データに適用されることにより、グレーバランス調整が施され(ステップS8)、本処理は終了する。   In FIG. 4, when the END conversion formula as the gray balance adjustment condition is calculated, the calculated END conversion formula is applied to the input image data to perform gray balance adjustment (step S8). finish.

以上説明したように、画像記録装置1によれば、入力画像データの色相値及び彩度値を取得して、X軸を色相値(H)、Y軸を彩度値(S)とした座標平面内に、画素の累積度数分布を示す2次元ヒストグラムを作成し、この2次元ヒストグラムを所定の色相領域に分割し、分割された色相領域毎に各領域の画素が入力画像データ全体に占める割合(占有率)を算出し、算出された占有率に基づいて色相領域毎の低彩度閾値を算出して、この低彩度閾値に基づいてグレーバランス調整条件算出に用いる低彩度画素を抽出する。そして、この抽出された低彩度画素を用いてグレーバランス調整条件を算出し、算出された条件で入力画像データにグレーバランス調整を施す。   As described above, according to the image recording apparatus 1, the hue value and the saturation value of the input image data are acquired, and the X axis is the hue value (H) and the Y axis is the saturation value (S). Create a two-dimensional histogram showing the cumulative frequency distribution of pixels in a plane, divide the two-dimensional histogram into predetermined hue areas, and the ratio of pixels in each area to the entire input image data for each divided hue area (Occupancy ratio) is calculated, a low saturation threshold value for each hue area is calculated based on the calculated occupation ratio, and low saturation pixels used for gray balance adjustment condition calculation are extracted based on the low saturation threshold value. To do. Then, a gray balance adjustment condition is calculated using the extracted low saturation pixels, and the gray balance adjustment is performed on the input image data under the calculated condition.

従って、撮影シーンの配色傾向を判別し、判別結果に基づき低彩度画素を抽出する闘値設定を変更するようにしたことで、芝生や空など占有率の高い領域から、低彩度画素が多く抽出されることによる色相の偏りが防止され、結果カラーフェリアが抑制される。   Therefore, by determining the coloration tendency of the shooting scene and changing the threshold value setting for extracting low saturation pixels based on the determination result, low saturation pixels can be detected from areas with high occupancy such as lawn and sky. The unevenness of hue due to the extraction is prevented, and as a result, color feria is suppressed.

〔第2の実施の形態〕
次に、本発明の第2の実施の形態について説明する。
なお、本実施の形態に係る画像記録装置1の構成は、図1で示したものと同様であるので説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
The configuration of the image recording apparatus 1 according to the present embodiment is the same as that shown in FIG.

以下、本第2の実施の形態の動作について説明する。
図10は、画像調整処理部701により実行されるグレーバランス調整処理Bを示すフローチャートである。本処理は、ROM等の記憶部(図示略)に記憶されているグレーバランス調整処理BプログラムとCPUとの協働によるソフトウエア処理により実現されるものであり、フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703又は画像データ書式解読処理部704から画像データ(画像信号)が入力されることにより開始する。このグレーバランス調整処理Bの実行により、本発明の請求項19、20、36、37に記載のデータ取得手段、色相領域分割手段、色相領域占有率算出手段、適用率算出手段、グレーバランス調整手段、及び請求項21、38に記載の2次元ヒストグラム作成手段が実現される。
The operation of the second embodiment will be described below.
FIG. 10 is a flowchart showing the gray balance adjustment process B executed by the image adjustment processing unit 701. This processing is realized by software processing in cooperation with the gray balance adjustment processing B program stored in a storage unit (not shown) such as a ROM and the CPU, and includes a film scan data processing unit 702, reflection The process starts when image data (image signal) is input from the document scan data processing unit 703 or the image data format decoding processing unit 704. By executing this gray balance adjustment processing B, the data acquisition means, hue area dividing means, hue area occupancy rate calculating means, application rate calculating means, gray balance adjusting means according to claims 19, 20, 36, and 37 of the present invention And the two-dimensional histogram creation means of Claims 21 and 38 is implement | achieved.

以下、図10を参照して、グレーバランス調整処理Bについて説明する。
フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703又は画像データ書式解読処理部704から画像データが入力されると、入力画像データがRGBの表色系からL*a*b*やHSVなどの表色系に変換されることにより、この入力画像データの画素毎の色相値と彩度値が算出され、図示しないRAMに記憶される(ステップS21)。各画素のRGB値から色相値及び彩度値を算出するための算出式としては、例えば、上記第1の実施の形態で説明した[数1]、[数2]〜[数4]等を用いる。
Hereinafter, the gray balance adjustment process B will be described with reference to FIG.
When image data is input from the film scan data processing unit 702, the reflection original scan data processing unit 703, or the image data format decoding processing unit 704, the input image data is converted into L * a * b * or HSV from the RGB color system. Are converted into the color system, the hue value and the saturation value for each pixel of the input image data are calculated and stored in a RAM (not shown) (step S21). As a calculation formula for calculating the hue value and the saturation value from the RGB value of each pixel, for example, [Expression 1], [Expression 2] to [Expression 4] described in the first embodiment are used. Use.

画像データの各画素の色相値及び彩度値が算出されると、X軸を色相値(H)、Y軸を彩度値(S)とした座標平面内に、画素の累積度数分布を示す2次元ヒストグラムが作成される(ステップS22)。ここで作成される2次元ヒストグラムとしては、例えば、図5(a)(b)で説明したのと同様のヒストグラムである。   When the hue value and saturation value of each pixel of the image data are calculated, the cumulative frequency distribution of the pixels is shown in the coordinate plane with the hue value (H) as the X axis and the saturation value (S) as the Y axis. A two-dimensional histogram is created (step S22). The two-dimensional histogram created here is, for example, a histogram similar to that described with reference to FIGS.

次いで、作成された2次元ヒストグラムに基づいて、入力画像データが所定の色相領域に分割される(ステップS23)。具体的には、作成された2次元ヒストグラムが、予め定義された少なくとも一つの色相値を境界に、二つ以上の平面に分割されることにより、入力画像データが所定の色相領域に分割される。本発明においては、少なくとも3つの色相値により、入力画像データを4つの平面に分割することが望ましい。また、境界とする色相値は、上述したHSV変換プログラムによる算出値で70、185、225と定義しておくこおとが望ましい。このように定義することにより、図5(b)に示すように、2次元ヒストグラム(入力画像データ)を肌色相領域(色相値0〜69)、緑色相領域(色相値70〜184)、空色相領域(色相値185〜224)、赤色相領域(色相値225〜360)の4つの色相領域に分割することが可能となる。本実施の形態においても、2次元ヒストグラム(画像データ)を70、185、225の色相値で4つの色相領域に分割するものとする。   Next, the input image data is divided into predetermined hue areas based on the created two-dimensional histogram (step S23). Specifically, the created two-dimensional histogram is divided into two or more planes with at least one predefined hue value as a boundary, whereby the input image data is divided into predetermined hue regions. . In the present invention, it is desirable to divide input image data into four planes based on at least three hue values. Further, it is desirable to define the hue value as the boundary as 70, 185, 225 as calculated values by the above-mentioned HSV conversion program. By defining in this way, as shown in FIG. 5B, a two-dimensional histogram (input image data) is converted into a skin hue area (hue values 0 to 69), a green hue area (hue values 70 to 184), and sky. It is possible to divide into four hue areas, a hue area (hue values 185 to 224) and a red hue area (hue values 225 to 360). Also in the present embodiment, the two-dimensional histogram (image data) is divided into four hue regions with hue values of 70, 185, and 225.

次いで、ステップS23で分割された色相領域の夫々について、各領域内の累積度数分布のシグマ値を入力画像データの全画素数で除算することにより、各色相領域が入力画像の画面内に占める割合、即ち色相領域毎の占有率が算出される(ステップS24)。   Next, for each of the hue areas divided in step S23, the ratio of each hue area in the screen of the input image is obtained by dividing the sigma value of the cumulative frequency distribution in each area by the total number of pixels of the input image data. That is, the occupation ratio for each hue area is calculated (step S24).

例えば、入力画像データとして、全画素数が500万画素で、撮影シーンが、芝生の上に座った赤いカーディガンを着た女性を比較的大きめに撮影したもの(画像データαとする)を用いて上述したステップS21〜S24を実行すると、占有率は下記[表3]に示す値となる。

Figure 2005192158
For example, as input image data, the total number of pixels is 5 million pixels, and the shooting scene is a relatively large image of a woman wearing a red cardigan sitting on the lawn (referred to as image data α). When the steps S21 to S24 described above are executed, the occupation ratio becomes a value shown in [Table 3] below.
Figure 2005192158

次いで、ステップS24で色相領域毎について求められた占有率に応じて、具体的には、色相領域毎に求められた占有率のうち最大の占有率に応じて、グレーバランス調整の適用率が算出される(ステップS25)。グレーバランス調整の適用率とは、後述するグレーバランス調整条件算出処理で算出されるEND変換式による入力画像データの変換率を指す。グレーバランス調整の適用率の算出方法としては、例えば、色相領域毎に求められた占有率のうち最大の占有率をRCmax、適用率をARとすると、下記[式2]により求めることができる。
[式2]
AR(%) = 100 - RCmax(%)
Next, the application rate of gray balance adjustment is calculated according to the occupancy ratio obtained for each hue area in step S24, specifically, according to the maximum occupancy ratio among the occupancy ratios determined for each hue area. (Step S25). The application rate of gray balance adjustment refers to the conversion rate of input image data according to the END conversion formula calculated in the gray balance adjustment condition calculation process described later. As a calculation method of the application rate of gray balance adjustment, for example, when the maximum occupancy rate is RCmax and the application rate is AR among the occupancy rates obtained for each hue region, it can be obtained by the following [Equation 2].
[Formula 2]
AR (%) = 100-RCmax (%)

上記[式2]は、一律ではなく色相領域に応じて異なる式を設定することが望ましい。特に、肌色相領域、空色相領域は、他の色相領域に比べ、同一占有率に対する適用率(AR(%))が低くなるように設定することが望ましい。例えば肌色相領域の占有率が70%を超えるような場合、顔のアップの他、タングステンなどの暖色系の人工光源による撮影の可能性が高い。また、空色相領域の占有率が高い場合にも、飛行機の撮影や、水族館の水槽を撮影した可能性が高い。このような撮影シーンでは、ハイライト点が低彩度であるという経験則が符合せず、グレーバランス調整において過剰な色偏倚補正が行われ、その結果カラーフェリアが生じるため、肌色相領域及び空色相領域の適用率を事前に低く設定しておくことが望ましい。   It is desirable that the above [Expression 2] is not uniform and a different expression is set according to the hue region. In particular, it is desirable to set the skin hue area and the sky hue area so that the application rate (AR (%)) for the same occupancy is lower than the other hue areas. For example, when the occupancy ratio of the skin hue area exceeds 70%, there is a high possibility of photographing with a warm-colored artificial light source such as tungsten in addition to face up. In addition, even when the sky hue area occupancy is high, there is a high possibility of shooting an airplane or an aquarium tank. In such a shooting scene, the rule of thumb that the highlight point is low saturation does not match, and excessive color deviation correction is performed in gray balance adjustment, resulting in color feria. It is desirable to set the application rate of the hue area low in advance.

次いで、入力画像データの全画素を対象画素としてグレーバランス調整条件算出処理が実行される(ステップS26)。グレーバランス調整条件算出処理は、図6で説明したのと同様の処理により行う。この処理によりEND変換式が算出されると、ステップS25で算出された適用率に基づいて、END変換式が入力画像データに適用され、グレーバランス調整が施される(ステップS27)。即ち、END変換式を入力画像データに適用する際、適用前後の画像データの差(ΔRGB)が、適用率(AR)に基づき圧縮される。   Next, gray balance adjustment condition calculation processing is executed with all pixels of the input image data as target pixels (step S26). The gray balance adjustment condition calculation process is performed by the same process as described with reference to FIG. When the END conversion formula is calculated by this process, the END conversion formula is applied to the input image data based on the application rate calculated in step S25, and gray balance adjustment is performed (step S27). That is, when the END conversion formula is applied to the input image data, the difference (ΔRGB) between the image data before and after the application is compressed based on the application rate (AR).

以上説明したように、画像記録装置1によれば、入力画像データの色相値及び彩度値を取得して、X軸を色相値(H)、Y軸を彩度値(S)とした座標平面内に、画素の累積度数分布を示す2次元ヒストグラムを作成し、この2次元ヒストグラムを所定の色相領域に分割し、分割された色相領域毎に各領域の画素が入力画像データ全体に占める割合(占有率)を算出し、算出された占有率に基づいてグレーバランス調整の適用率を算出する。そして、入力画像データからグレーバランス調整に用いるEND変換式を算出し、このEND変換式を前記算出された適用率に基づいて入力画像データに適用し、入力画像データにグレーバランス調整を施す。   As described above, according to the image recording apparatus 1, the hue value and the saturation value of the input image data are acquired, and the X axis is the hue value (H) and the Y axis is the saturation value (S). Create a two-dimensional histogram showing the cumulative frequency distribution of pixels in a plane, divide the two-dimensional histogram into predetermined hue areas, and the ratio of pixels in each area to the entire input image data for each divided hue area (Occupancy rate) is calculated, and an application rate of gray balance adjustment is calculated based on the calculated occupancy rate. Then, an END conversion formula used for gray balance adjustment is calculated from the input image data, the END conversion formula is applied to the input image data based on the calculated application rate, and gray balance adjustment is performed on the input image data.

従って、撮影シーンの配色傾向を判別し、判別結果に基づきグレーバランス調整の適用率を変更するようにしたことで、タングステンなどの人工光源や、自発光光源の過剰な色偏倚補正が防止され、結果カラーフェリアが抑制される。   Therefore, by determining the coloration tendency of the shooting scene and changing the application rate of the gray balance adjustment based on the determination result, excessive color deviation correction of artificial light sources such as tungsten and self-luminous light sources is prevented, As a result, color feria is suppressed.

なお、上記第1及び第2の実施の形態において、色相領域毎の平均彩度を求め、この平均彩度に応じて上述した低彩度閾値や適用率を設定するようにしてもよい。平均彩度が高い場合、低彩度閾値やグレーバランス調整の適用率を下げるようにすることで、例えば、タングステンを光源としたような、全体的に彩度の高い撮影シーンにおける過剰な色偏倚補正を防止することが可能となる。   In the first and second embodiments, the average saturation for each hue region may be obtained, and the above-described low saturation threshold and application rate may be set according to the average saturation. When the average saturation is high, the low saturation threshold and the application rate of gray balance adjustment are reduced, for example, excessive color deviation in a scene with high overall saturation such as tungsten as the light source. Correction can be prevented.

また、上記第1の実施の形態における、グレーバランス調整条件算出で用いる低彩度画素の抽出と第2の実施の形態におけるグレーバランス調整の適用率の設定は、組み合わせて用いることが好ましい。組み合わせて用いる方法としては、上述した図4のステップS1〜S7を実行し、グレーバランス調整条件としてのEND変換式を算出するとともに、占有率が算出されたところでグレーバランス調整の適用率を算出し、算出された適用率に基づいて、入力画像データに算出されたEND変換式を適用してグレーバランス調整処理を行う。これにより、第1の実施の形態におけるグレーバランス調整処理A及び第2の実施の形態におけるグレーバランス調整処理Bをそれぞれ単独で実行するときに比べ、より一層カラーフェリア抑制の精度を高めることが可能となる。   Further, it is preferable that the extraction of the low saturation pixels used in the gray balance adjustment condition calculation in the first embodiment and the setting of the application rate of the gray balance adjustment in the second embodiment are used in combination. As a method to be used in combination, steps S1 to S7 in FIG. 4 described above are executed to calculate an END conversion formula as a gray balance adjustment condition, and when the occupation ratio is calculated, a gray balance adjustment application rate is calculated. Based on the calculated application rate, the gray balance adjustment processing is performed by applying the calculated END conversion formula to the input image data. As a result, it is possible to further improve the accuracy of color feria suppression as compared with the case where the gray balance adjustment processing A in the first embodiment and the gray balance adjustment processing B in the second embodiment are each executed independently. It becomes.

〔第3の実施の形態〕
次に、本発明の第3の実施の形態について説明する。
なお、本実施の形態に係る画像記録装置1の構成は、図1で示したものと同様であるので説明を省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described.
The configuration of the image recording apparatus 1 according to the present embodiment is the same as that shown in FIG.

以下、本第3の実施の形態の動作について説明する。
次に、本発明の動作について説明する。
図11は、画像調整処理部701により実行されるグレーバランス調整処理Cを示すフローチャートである。本処理は、ROM等の記憶部(図示略)に記憶されているグレーバランス調整処理CプログラムとCPUとの協働によるソフトウエア処理により実現されるものであり、フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703又は画像データ書式解読処理部704から画像データ(画像信号)が入力されることにより開始する。このグレーバランス調整処理Cの実行により、本発明の請求項22、24、39、41に記載のデータ取得手段、色相領域分割手段、色相領域占有率算出手段、低彩度閾値算出手段、低彩度画素抽出手段、グレーバランス調整条件算出手段、明度領域分割手段、明度領域占有率算出手段、撮影シーン推定手段、グレーバランス調整手段、及び請求項25、42に記載の3次元ヒストグラム作成手段が実現される。
Hereinafter, the operation of the third embodiment will be described.
Next, the operation of the present invention will be described.
FIG. 11 is a flowchart showing the gray balance adjustment process C executed by the image adjustment processing unit 701. This processing is realized by software processing in cooperation with the CPU and the gray balance adjustment processing C program stored in a storage unit (not shown) such as a ROM, and includes a film scan data processing unit 702, reflection The process starts when image data (image signal) is input from the document scan data processing unit 703 or the image data format decoding processing unit 704. By executing this gray balance adjustment processing C, the data acquisition means, hue area division means, hue area occupancy rate calculation means, low saturation threshold value calculation means, low saturation, and the like according to claims 22, 24, 39, and 41 of the present invention. 43. A degree pixel extracting means, a gray balance adjustment condition calculating means, a brightness area dividing means, a brightness area occupancy rate calculating means, a shooting scene estimating means, a gray balance adjusting means, and a three-dimensional histogram creating means according to claim 25 and 42 are realized. Is done.

以下、図11を参照して、グレーバランス調整処理Cについて説明する。
フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703又は画像データ書式解読処理部704から画像データが入力されると、入力画像データがRGBの表色系からL*a*b*やHSVなどの表色系に変換されることにより、この入力画像データの画素毎の色相値、彩度値及び明度値が算出され、図示しないRAMに記憶される(ステップS31)。各画素のRGB値から色相値及び彩度値を算出するための算出式としては、例えば、上記第1の実施の形態で説明した[数1]、[数2]〜[数4]等を用いる。
Hereinafter, the gray balance adjustment processing C will be described with reference to FIG.
When image data is input from the film scan data processing unit 702, the reflection original scan data processing unit 703, or the image data format decoding processing unit 704, the input image data is converted into L * a * b * or HSV from the RGB color system. Are converted into the color system, the hue value, saturation value, and brightness value for each pixel of the input image data are calculated and stored in a RAM (not shown) (step S31). As a calculation formula for calculating the hue value and the saturation value from the RGB value of each pixel, for example, [Expression 1], [Expression 2] to [Expression 4] described in the first embodiment are used. Use.

入力画像データの各画素の色相値、彩度値及び明度値が算出されると、x軸を色相値(H)、y軸を彩度値(S)、z軸を明度値(V)とした座標空間内に、画素の累積度数分布を示す3次元ヒストグラムが作成される(ステップS32)。   When the hue value, saturation value, and brightness value of each pixel of the input image data are calculated, the x axis is the hue value (H), the y axis is the saturation value (S), and the z axis is the brightness value (V). A three-dimensional histogram showing the cumulative frequency distribution of the pixels is created in the coordinate space (step S32).

図12(a)(b)に、3次元ヒストグラムの一例を示す。図12(a)(b)に示す3次元ヒストグラムは、x軸を色相値(H)、y軸を彩度値(S)、z軸を明度(V)とした座標空間内に、画素の累積度数分布の値を有する格子点を表したものである。座標空間の表面にある格子点は、色相値(H)が18、彩度値(S)、明度(V)が共に約13の範囲に分布する画素数の累積度数を保持している。それ以外の格子点は、色相値(H)が36、彩度値(S)、明度(V)が共にが約25の範囲に分布する画素数の累積度数を保持している。図12(b)は、色相(H)が70〜184の緑色相領域に分布する格子点を表す。   FIGS. 12A and 12B show an example of a three-dimensional histogram. The three-dimensional histograms shown in FIGS. 12 (a) and 12 (b) have pixel values in a coordinate space with the hue value (H) on the x axis, the saturation value (S) on the y axis, and the lightness (V) on the z axis. This is a representation of grid points having a cumulative frequency distribution value. The grid points on the surface of the coordinate space hold the cumulative frequency of the number of pixels distributed in the range where the hue value (H) is 18, the saturation value (S), and the brightness (V) are both about 13. The other grid points hold the cumulative frequency of the number of pixels distributed in the range where the hue value (H) is 36, the saturation value (S), and the brightness (V) are both about 25. FIG. 12B shows lattice points distributed in the green hue region having a hue (H) of 70 to 184.

次いで、作成された3次元ヒストグラムに基づいて、入力画像データが所定の色相領域に分割される(ステップS33)。具体的には、作成された3次元ヒストグラムが、予め定義された少なくとも一つの色相値を境界に、二つ以上の空間に分割されることにより、入力画像データが所定の色相領域に分割される。本発明においては、少なくとも3つの色相値により、入力画像データを4つの空間に分割することが望ましい。また、境界とする色相値は、上述したHSV変換プログラムによる算出値で70、185、225と定義しておくこおとが望ましい。このように定義することにより、3次元ヒストグラム(入力画像データ)を肌色相領域(色相値0〜69)、緑色相領域(色相値70〜184)、空色相領域(色相値185〜224)、赤色相領域(色相値225〜360)の4つの色相領域に分割することが可能となる。本実施の形態においても、3次元ヒストグラム(入力画像データ)を70、185、225の色相値で4つの色相領域に分割するものとする。   Next, the input image data is divided into predetermined hue regions based on the created three-dimensional histogram (step S33). Specifically, the generated three-dimensional histogram is divided into two or more spaces with at least one predefined hue value as a boundary, whereby the input image data is divided into predetermined hue regions. . In the present invention, it is desirable to divide input image data into four spaces based on at least three hue values. Further, it is desirable to define the hue value as the boundary as 70, 185, 225 as calculated values by the above-mentioned HSV conversion program. By defining in this way, a three-dimensional histogram (input image data) is converted into a skin hue area (hue values 0 to 69), a green hue area (hue values 70 to 184), a sky hue area (hue values 185 to 224), It becomes possible to divide into four hue areas of the red hue area (hue values 225 to 360). Also in this embodiment, it is assumed that the three-dimensional histogram (input image data) is divided into four hue regions with hue values of 70, 185, and 225.

次いで、ステップS33で分割された色相領域の夫々について、各領域内の累積度数分布のシグマ値を入力画像データの全画素数で除算することにより、各色相領域が入力画像の画面内に占める割合、即ち色相領域毎の占有率が算出される(ステップS34)。   Next, for each of the hue areas divided in step S33, the ratio of each hue area in the screen of the input image is obtained by dividing the sigma value of the cumulative frequency distribution in each area by the total number of pixels of the input image data. That is, the occupation ratio for each hue area is calculated (step S34).

例えば、入力画像データとして、全画素数が500万画素で、撮影シーンが、芝生の上に座った赤いカーディガンを着た女性を比較的大きめに撮影したもの(画像データαとする)を用いて上述したステップS31〜S34を実行すると、占有率は下記[表4]に示す値となる。

Figure 2005192158
For example, as input image data, the total number of pixels is 5 million pixels, and the shooting scene is a relatively large image of a woman wearing a red cardigan sitting on the lawn (referred to as image data α). When Steps S31 to S34 described above are executed, the occupation ratio becomes a value shown in [Table 4] below.
Figure 2005192158

次いで、ステップS34で求められた各色相領域の占有率に応じて、色相領域毎の低彩度閾値(抽出条件)が算出される(ステップS35)。当該ステップは、色相領域毎の占有率に応じて、後述のグレーバランス調整条件算出処理で用いる低彩度閾値を、色相領域毎に設定する処理である。   Next, a low saturation threshold (extraction condition) for each hue area is calculated according to the occupation ratio of each hue area obtained in step S34 (step S35). This step is a process for setting, for each hue area, a low saturation threshold used in a gray balance adjustment condition calculation process described later according to the occupation ratio for each hue area.

各色相領域の占有率(=RC)と低彩度闘値(=LC)との関係式は、上述した[式1]と同様である。なお、各色相領域の占有率(=RC)と低彩度闘値(=LC)との関係式は、これに限定されるものではない。   The relational expression between the occupation ratio (= RC) of each hue region and the low saturation threshold (= LC) is the same as [Expression 1] described above. Note that the relational expression between the occupation ratio (= RC) and the low saturation threshold (= LC) of each hue region is not limited to this.

ステップS35において上述した画像データαの各色相領域の低彩度閾値を求めると、下記[表5]の結果が得られる。

Figure 2005192158
When the low saturation threshold value of each hue region of the image data α described above is obtained in step S35, the following [Table 5] result is obtained.
Figure 2005192158

次いで、各色相領域について、ステップS35で算出された低彩度閾値に基づいて、グレーバランス調整に用いる画素が抽出される(ステップS36)。即ち、色相領域毎に算出された低彩度闘値を用いて後述するグレーバランス調整条件算出処理で用いる低彩度画素が決定され、低彩度画素だけで構成(画素自体を排除するか、0か255の値でマスキング処理する)した中間画像データが生成される。   Next, for each hue region, pixels used for gray balance adjustment are extracted based on the low saturation threshold calculated in step S35 (step S36). That is, a low saturation pixel to be used in a gray balance adjustment condition calculation process to be described later is determined using a low saturation threshold value calculated for each hue region, and is configured only with low saturation pixels (excluding the pixel itself, Intermediate image data that is masked with a value of 0 or 255) is generated.

上述したステップS31〜S36を実行することにより、芝生や空など画像に占める割合の高い領域から低彩度画素が多く抽出されることによるグレーバランス調整における色相の偏りが防止される。   By executing the above-described steps S31 to S36, hue bias in gray balance adjustment due to extraction of many low-saturation pixels from a region having a high ratio in the image, such as lawn and sky, is prevented.

なお、「低彩度闘値」だけでなく、色相領域毎に、「低彩度画素の抽出率」を設定するようにしても良い。   In addition to the “low saturation threshold value”, the “low saturation pixel extraction rate” may be set for each hue region.

次いで、ステップS36で抽出された中間画像データを用いてグレーバランス調整条件算出処理が実行され、END変換式が算出される(ステップS37)。グレーバランス調整条件算出処理は、上述した第1の実施の形態で説明したのと同様であるので説明を省略する(図6参照)。   Next, gray balance adjustment condition calculation processing is executed using the intermediate image data extracted in step S36, and an END conversion formula is calculated (step S37). Since the gray balance adjustment condition calculation process is the same as that described in the first embodiment, description thereof is omitted (see FIG. 6).

次いで、作成された3次元ヒストグラムに基づいて、入力画像データが所定の明度領域に分割される(ステップS38)。具体的には、作成された3次元ヒストグラムが、予め定義された少なくとも一つの明度値を境界に、二つ以上の空間に分割されることにより、入力画像データが所定の明度領域に分割される。本発明においては、3次元ヒストグラムを少なくとも2つの明度値により、3つの空間に分割することが望ましい。また、境界とする明度値は、上述したHSV変換プログラムによる算出値で85、170と定義しておくこおとが望ましい。このように定義することにより、3次元ヒストグラム(入力画像データ)をシャドー(明度値0〜84)、中間(明度値85〜169)、ハイライト(明度値170〜255)、の3つの明度領域に分割することが可能となる。本実施の形態においても、3次元ヒストグラム(入力画像データ)を85、170の明度値で3つの明度領域(シャドー、中間、ハイライト)に分割するものとする。   Next, the input image data is divided into predetermined brightness regions based on the created three-dimensional histogram (step S38). Specifically, the created three-dimensional histogram is divided into two or more spaces with at least one predefined brightness value as a boundary, whereby the input image data is divided into predetermined brightness areas. . In the present invention, it is desirable to divide the three-dimensional histogram into three spaces by at least two lightness values. Further, it is desirable to define the brightness value as the boundary as 85 and 170 calculated by the above-mentioned HSV conversion program. By defining in this way, the three-dimensional histogram (input image data) is divided into three brightness areas: shadow (brightness values 0 to 84), intermediate (brightness values 85 to 169), and highlight (brightness values 170 to 255). It becomes possible to divide into. Also in the present embodiment, it is assumed that the three-dimensional histogram (input image data) is divided into three brightness regions (shadow, middle, highlight) with brightness values of 85 and 170.

次いで、ステップS38で分割された明度領域の夫々について、各領域内の累積度数分布のシグマ値を入力画像データの全画素数で除算することにより、各明度領域が入力画像の画面内に占める割合、即ち明度領域毎の占有率が算出される(ステップS39)。   Next, for each of the brightness areas divided in step S38, the ratio of each brightness area in the screen of the input image is obtained by dividing the sigma value of the cumulative frequency distribution in each area by the total number of pixels of the input image data. That is, the occupation ratio for each brightness area is calculated (step S39).

例えば、入力画像データとして、全画素数が500万画素で、撮影シーンが、芝生の上に座った赤いカーディガンを着た女性を比較的大きめに撮影したもの(画像データαとする)を用いて上述したステップS38、39を実行すると、各明度領域の占有率は下記[表6]に示す値となる。

Figure 2005192158
For example, as input image data, the total number of pixels is 5 million pixels, and the shooting scene is a relatively large image of a woman wearing a red cardigan sitting on the lawn (referred to as image data α). When step S38, 39 mentioned above is performed, the occupation rate of each brightness area will be the value shown in the following [Table 6].
Figure 2005192158

明度領域毎の占有率が算出されると、この占有率に応じて、入力画像データの撮影シーンが推定される(ステップS40)。例えば、シャドー、中間、ハイライト領域の占有率の大小関係により、逆光か、ストロボ近接撮影かが推定される。シャドー、中間、ハイライト領域の占有率を夫々Rs、Rm、Rhとし、これらの大小関係と撮影シーンとの関係の定義を[定義1]として下記に例示する。
[定義1]
逆光シーン…Rs > Rm , Rh > Rm
ストロボ近接撮影…Rh > Rs , Rh > Rm
上記以外は、全て通常シーン。
When the occupation ratio for each brightness area is calculated, a shooting scene of the input image data is estimated according to the occupation ratio (step S40). For example, backlight or strobe close-up photography is estimated based on the size relationship between the shadow, intermediate, and highlight areas. The occupancy ratios of the shadow, middle, and highlight areas are Rs, Rm, and Rh, respectively, and the definition of the relationship between the magnitude relationship and the shooting scene is exemplified below as [Definition 1].
[Definition 1]
Backlight scene… Rs> Rm, Rh> Rm
Strobe close-up photography… Rh> Rs, Rh> Rm
All other scenes are normal scenes.

なお、ステップS38においては、ステップS33において少なくとも2つの色相領域に分割された3次元ヒストグラム夫々について、所定の明度領域への分割を行っても良い(請求項26、43に記載の色相明度領域分割手段)。上述したHSV変換プログラムによる算出値で、分割の境界となる色相値を70、185、225、分割の境界となる明度値を85、170と定義した場合、画像データαを用いて色相領域毎に明度分割を行うと、ステップS39において、下記[表7]に示す領域毎の占有率が得られる(請求項26、43に記載の色相明度領域占有率算出手段)。

Figure 2005192158
In step S38, each of the three-dimensional histograms divided into at least two hue regions in step S33 may be divided into predetermined lightness regions (hue lightness region division according to claims 26 and 43). means). When the hue value that becomes the boundary of division is defined as 70, 185, 225, and the lightness value that becomes the boundary of division is defined as 85, 170, calculated by the HSV conversion program described above, for each hue area using image data α When the brightness division is performed, the occupation ratio for each area shown in the following [Table 7] is obtained in step S39 (hue lightness area occupation ratio calculating means according to claims 26 and 43).
Figure 2005192158

このとき、上述した12に分割された3次元ヒストグラムを用いて、肌色相領域におけるシャドー、中間、ハイライト領域の占有率から、撮影シーンの推定を補助しても良い。シャドー、中間、ハイライト領域の占有率を夫々Rs、Rm、Rh、肌色相領域のシャドー、中間、ハイライト領域の占有率を夫々SkRs、SkRm、SkRhとしたときの、これらの大小関係と撮影シーンとの関係の定義を[定義2]として以下に例示する。
[定義2]
逆光シーン…Rs > Rm , Rh > Rm , SkRs > SkRm > SkRh
ストロボ近接撮影…Rh > Rs , Rh > Rm , SkRh > SkRm > SkRs
上記以外は、全て通常シーンと推定される。
At this time, using the three-dimensional histogram divided into 12 as described above, the estimation of the photographic scene may be assisted from the occupancy ratio of the shadow, middle, and highlight areas in the skin hue area. When the occupancy rates of the shadow, middle, and highlight areas are Rs, Rm, and Rh, respectively, and the occupancy ratios of the shadow, middle, and highlight areas are SkRs, SkRm, and SkRh, respectively. The definition of the relationship with the scene is exemplified below as [Definition 2].
[Definition 2]
Backlit scene… Rs> Rm, Rh> Rm, SkRs>SkRm> SkRh
Strobe close-up photography… Rh> Rs, Rh> Rm, SkRh>SkRm> SkRs
Other than the above, it is estimated that all are normal scenes.

また、肌色領域の明度偏倚量を別途計算により算出し、撮影シーンの推定を補助しても良い。以下に、例示する。
肌色領域の平均明度値(=A)、画像全体の最大明度(=B)、最小明度(=C)とし、肌色領域の明度偏倚量(=D)を、下記[式3]より得る。肌色領域の明度偏倚量(=D)、色相領域毎の占有率、明度領域の占有率の大小関係より、撮影シーンを推定する場合の定義の一例を、下記[定義3]に示す。
[式3]
D = (A-B)/(C-B)
[定義3]
D > 0.6…逆光シーン。
D < 0.4 + 緑色相領域15%未満、空色相領域30%未満…ストロボ近接撮影シーン。
0.4 ≦ D ≦ 0.6 + 緑色相領域15%未満、かつ空色相領域30%未満 + Rs20%以上…ストロボ撮影シーン。
0.4 ≦ D ≦ 0.6 + 緑色相領域15%以上、又は空色相領域30%以上 + Rh > Rm…逆光シーン。
上記以外は、全て通常シーン。
In addition, the brightness deviation amount of the skin color area may be calculated separately to assist the estimation of the shooting scene. Examples are given below.
Using the average brightness value (= A) of the skin color area, the maximum brightness (= B), and the minimum brightness (= C) of the entire image, the brightness deviation amount (= D) of the skin color area is obtained from [Equation 3] below. [Definition 3] below shows an example of a definition for estimating a shooting scene based on the magnitude relationship between the lightness deviation amount (= D) of the flesh color area, the occupation ratio for each hue area, and the occupation ratio of the brightness area.
[Formula 3]
D = (AB) / (CB)
[Definition 3]
D> 0.6 ... Backlit scene.
D <0.4 + Green hue area less than 15%, Sky hue area less than 30% ... Flash close-up scene.
0.4 ≤ D ≤ 0.6 + Green hue area less than 15% and sky hue area less than 30% + Rs20% or more ... Flash photography scene.
0.4 ≤ D ≤ 0.6 + 15% or more of the green hue area or 30% or more of the sky hue area + Rh> Rm ... Backlight scene.
All other scenes are normal scenes.

入力画像データの撮影シーンが推定されると、ステップS35で算出された低彩度闘値に対し、撮影シーンの推定結果を考慮した変更が行われ、これに基づいてグレーバランス調整条件が修正される(ステップS41)。以下の[表8]に、撮影シーン推定結果に応じた低彩度閾値の変更例を示す。

Figure 2005192158
When the shooting scene of the input image data is estimated, the low saturation threshold value calculated in step S35 is changed in consideration of the shooting scene estimation result, and the gray balance adjustment condition is corrected based on this change. (Step S41). The following [Table 8] shows an example of changing the low saturation threshold according to the photographic scene estimation result.
Figure 2005192158

逆光撮影は、被写体が太陽を背にして撮影したシーンであることから、明度の高い空色相領域が占める割合が高い。そのため、ハイライト点が空色相領域に誤設定されることを防止する確度を高めるため、上述した低彩度閾値の変更を行う。また、ストロボ近接撮影は、ほとんどが人物に近接してストロボ撮影を行うことから、明度の高い肌色相領域が占める割合が高い。そのため、ハイライト点が肌色相領域に誤設定されることを防止する確度を高めるため、上述した低彩度閾値の変更を行う。   Backlit photography is a scene where the subject is photographed with the sun behind, so the sky hue region with high brightness occupies a high ratio. For this reason, the above-described low saturation threshold value is changed in order to increase the accuracy of preventing the highlight point from being erroneously set in the sky hue region. Further, in the flash close-up shooting, since the flash shooting is mostly performed close to a person, the ratio of the skin hue region with high brightness is high. For this reason, the above-described low saturation threshold is changed in order to increase the accuracy of preventing the highlight point from being erroneously set in the skin hue region.

撮影シーン推定結果に応じてグレーバランス調整条件が修正されると、即ち、撮影シーン推定結果に応じたEND変換式が新たに算出されると、算出されたEND変換式が入力画像データに適用されることにより、撮影シーン推定結果に基づくグレーバランス調整が施され(ステップS42)、本処理は終了する。   When the gray balance adjustment condition is corrected according to the shooting scene estimation result, that is, when an END conversion formula corresponding to the shooting scene estimation result is newly calculated, the calculated END conversion formula is applied to the input image data. As a result, the gray balance adjustment based on the photographed scene estimation result is performed (step S42), and the present process ends.

以上説明したように、画像記録装置1によれば、入力画像データの色相値、彩度値及び明度値を取得して、x軸を色相値(H)、y軸を彩度値(S)、z軸を明度値(V)とした座標空間に、画素の累積度数分布を示す3次元ヒストグラムを作成し、この3次元ヒストグラムを用いて入力画像データを所定の色相領域に分割し、分割された色相領域毎に各領域の画素が入力画像データ全体に占める割合(占有率)を算出し、算出された占有率に基づいて色相領域毎の低彩度閾値を算出して、この低彩度閾値に基づいてグレーバランス調整条件算出に用いる低彩度画素を抽出する。そして、この抽出された低彩度画素を用いてグレーバランス調整条件を算出する。また、3次元ヒストグラムを用いて入力画像データを所定の明度領域に分割し、分割された明度領域毎に各領域の画素が入力画像データ全体に占める割合(占有率)を算出し、算出された占有率の大小関係により入力画像データの撮影シーンを推定する。そして、撮影シーンの推定結果に基づいてグレーバランス調整条件を修正し、修正された条件で入力画像データにグレーバランス調整を施す。   As described above, according to the image recording apparatus 1, the hue value, the saturation value, and the brightness value of the input image data are acquired, the x-axis is the hue value (H), and the y-axis is the saturation value (S). , Create a three-dimensional histogram showing the cumulative frequency distribution of pixels in the coordinate space with the z-axis lightness value (V), and divide the input image data into predetermined hue regions using this three-dimensional histogram. For each hue area, the ratio (occupancy ratio) of the pixels in each area to the entire input image data is calculated, and the low saturation threshold value for each hue area is calculated based on the calculated occupation ratio. Based on the threshold value, low saturation pixels used for gray balance adjustment condition calculation are extracted. Then, a gray balance adjustment condition is calculated using the extracted low saturation pixel. Further, the input image data is divided into predetermined brightness areas using a three-dimensional histogram, and the ratio (occupancy ratio) of the pixels in each area to the entire input image data is calculated for each divided brightness area. The shooting scene of the input image data is estimated based on the occupancy ratio. Then, the gray balance adjustment condition is corrected based on the estimation result of the shooting scene, and the gray balance adjustment is performed on the input image data under the corrected condition.

従って、撮影シーンの配色傾向を判別し、判別結果に基づき低彩度画素を抽出する闘値設定を変更するようにしたことで、芝生や空など占有率の高い領域から、低彩度画素が多く抽出されることによる色相の偏りが防止され、結果カラーフェリアが抑制される。また、撮影シーンの明度分布傾向を判別し、逆光やストロボ近接等の撮影シーン推定することで、ハイライト点の誤設定が防止され、より一層カラーフェリア抑制の精度を高めることが可能となる。   Therefore, by determining the coloration tendency of the shooting scene and changing the threshold value setting for extracting low saturation pixels based on the determination result, low saturation pixels can be detected from areas with high occupancy such as lawn and sky. The unevenness of hue due to the extraction is prevented, and as a result, color feria is suppressed. Also, by determining the brightness distribution tendency of the photographic scene and estimating the photographic scene such as backlight or strobe proximity, erroneous setting of the highlight point can be prevented, and the accuracy of color feria suppression can be further improved.

〔第4の実施の形態〕
次に、本発明の第4の実施の形態について説明する。
なお、本実施の形態に係る画像記録装置1の構成は、図1で示したものと同様であるので説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described.
The configuration of the image recording apparatus 1 according to the present embodiment is the same as that shown in FIG.

以下、本第4の実施の形態の動作について説明する。
次に、本発明の動作について説明する。
図13は、画像調整処理部701により実行されるグレーバランス調整処理Dを示すフローチャートである。本処理は、ROM等の記憶部(図示略)に記憶されているグレーバランス調整処理DプログラムとCPUとの協働によるソフトウエア処理により実現されるものであり、フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703又は画像データ書式解読処理部704から画像データ(画像信号)が入力されることにより開始する。このグレーバランス調整処理Dの実行により、本発明の請求項23、24、40、41に記載のデータ取得手段、色相領域分割手段、色相領域占有率算出手段、適用率算出手段、明度領域分割手段、明度領域占有率算出手段、撮影シーン推定手段、グレーバランス調整手段、及び請求項25、42に記載の3次元ヒストグラム作成手段が実現される。
The operation of the fourth embodiment will be described below.
Next, the operation of the present invention will be described.
FIG. 13 is a flowchart showing the gray balance adjustment process D executed by the image adjustment processing unit 701. This processing is realized by software processing in cooperation with the gray balance adjustment processing D program stored in a storage unit (not shown) such as a ROM and the CPU. The film scan data processing unit 702, reflection The process starts when image data (image signal) is input from the document scan data processing unit 703 or the image data format decoding processing unit 704. By executing this gray balance adjustment processing D, the data acquisition means, hue area dividing means, hue area occupation ratio calculating means, application rate calculating means, and brightness area dividing means according to claims 23, 24, 40, and 41 of the present invention The brightness area occupancy rate calculating means, the shooting scene estimating means, the gray balance adjusting means, and the three-dimensional histogram creating means according to claims 25 and 42 are realized.

以下、図13を参照して、グレーバランス調整処理Dについて説明する。
フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703又は画像データ書式解読処理部704から画像データが入力されると、入力画像データがRGBの表色系からL*a*b*やHSVなどの表色系に変換されることにより、この入力画像データの画素毎の色相値、彩度値及び明度値が算出され、図示しないRAMに記憶される(ステップS51)。各画素のRGB値から色相値及び彩度値を算出するための算出式としては、例えば、上記第1の実施の形態で説明した[数1]、[数2]〜[数4]等を用いる。
Hereinafter, the gray balance adjustment processing D will be described with reference to FIG.
When image data is input from the film scan data processing unit 702, the reflection original scan data processing unit 703, or the image data format decoding processing unit 704, the input image data is converted into L * a * b * or HSV from the RGB color system. Are converted into the color system, the hue value, saturation value, and brightness value for each pixel of the input image data are calculated and stored in a RAM (not shown) (step S51). As a calculation formula for calculating the hue value and the saturation value from the RGB value of each pixel, for example, [Expression 1], [Expression 2] to [Expression 4] described in the first embodiment are used. Use.

入力画像データの各画素の色相値、彩度値及び明度値が算出されると、x軸を色相値(H)、y軸を彩度値(S)、z軸を明度値(V)とした座標空間内に、画素の累積度数分布を示す3次元ヒストグラムが作成される(ステップS52)。ここで作成される3次元ヒストグラムとしては、例えば、図12で説明したのと同様のヒストグラムである。   When the hue value, saturation value, and brightness value of each pixel of the input image data are calculated, the x axis is the hue value (H), the y axis is the saturation value (S), and the z axis is the brightness value (V). A three-dimensional histogram showing the cumulative frequency distribution of the pixels is created in the coordinate space (step S52). The three-dimensional histogram created here is, for example, the same histogram as described in FIG.

次いで、作成された3次元ヒストグラムに基づいて、入力画像データが所定の色相領域に分割される(ステップS53)。具体的には、作成された3次元ヒストグラムが、予め定義された少なくとも一つの色相値を境界に、二つ以上の空間に分割されることにより、入力画像データが所定の色相領域に分割される。本発明においては、少なくとも3つの色相値により、入力画像データを4つの空間に分割することが望ましい。また、境界とする色相値は、上述したHSV変換プログラムによる算出値で70、185、225と定義しておくこおとが望ましい。このように定義することにより、3次元ヒストグラム(入力画像データ)を肌色相領域(色相値0〜69)、緑色相領域(色相値70〜184)、空色相領域(色相値185〜224)、赤色相領域(色相値225〜360)の4つの色相領域に分割することが可能となる。本実施の形態においても、3次元ヒストグラム(入力画像データ)を70、185、225の色相値で4つの色相領域に分割するものとする。   Next, the input image data is divided into predetermined hue regions based on the created three-dimensional histogram (step S53). Specifically, the generated three-dimensional histogram is divided into two or more spaces with at least one predefined hue value as a boundary, whereby the input image data is divided into predetermined hue regions. . In the present invention, it is desirable to divide input image data into four spaces based on at least three hue values. Further, it is desirable to define the hue value as the boundary as 70, 185, 225 as calculated values by the above-mentioned HSV conversion program. By defining in this way, a three-dimensional histogram (input image data) is converted into a skin hue area (hue values 0 to 69), a green hue area (hue values 70 to 184), a sky hue area (hue values 185 to 224), It becomes possible to divide into four hue areas of the red hue area (hue values 225 to 360). Also in this embodiment, it is assumed that the three-dimensional histogram (input image data) is divided into four hue regions with hue values of 70, 185, and 225.

次いで、ステップS53で分割された色相領域の夫々について、各領域内の累積度数分布のシグマ値を入力画像データの全画素数で除算することにより、各色相領域が入力画像の画面内に占める割合、即ち各色相領域の占有率が算出される(ステップS54)。   Next, for each of the hue areas divided in step S53, the ratio of each hue area in the screen of the input image is obtained by dividing the sigma value of the cumulative frequency distribution in each area by the total number of pixels of the input image data. That is, the occupation ratio of each hue area is calculated (step S54).

次いで、ステップS54で求められた各色相領域の占有率に応じて、色相領域毎のグレーバランス調整の適用率が算出される(ステップS55)。グレーバランス調整の適用率とは、後述するグレーバランス調整条件算出処理で算出されるEND変換式による入力画像データの変換率を指す。グレーバランス調整の適用率の算出方法としては、例えば、上述した[式2]により求めることができる。   Next, the application rate of gray balance adjustment for each hue area is calculated according to the occupation ratio of each hue area obtained in step S54 (step S55). The application rate of gray balance adjustment refers to the conversion rate of input image data according to the END conversion formula calculated in the gray balance adjustment condition calculation process described later. As a method of calculating the application rate of the gray balance adjustment, for example, it can be obtained by [Expression 2] described above.

上記[式2]は、一律ではなく最大の占有率をもつ色相領域に応じて異なる式を設定することが望ましい。特に、肌色相領域、空色相領域は、適用率(AR(%))の下げ幅を高く設定することが望ましい。例えば肌色相領域の占有率が70%を超えるような場合、顔のアップの他、タングステンなどの暖色系の人工光源による撮影の可能性が高い。また、空色相領域の占有率が高い場合にも、飛行機の撮影や、水族館の水槽を撮影した可能性が高い。このような撮影シーンでは、ハイライト点が低彩度であるという経験則が符合せず、グレーバランス調整において過剰な色偏倚補正が行われ、その結果カラーフェリアが生じるため、事前に適用率の下げ幅を高く設定しておくことが望ましい。   It is desirable that the above [Formula 2] is set differently depending on the hue region having the maximum occupancy instead of being uniform. In particular, in the skin hue area and the sky hue area, it is desirable to set the reduction rate of the application rate (AR (%)) high. For example, when the occupancy ratio of the skin hue area exceeds 70%, there is a high possibility of photographing with a warm-colored artificial light source such as tungsten in addition to face up. In addition, even when the sky hue area occupancy is high, there is a high possibility of shooting an airplane or an aquarium tank. In such a shooting scene, the rule of thumb that the highlight point is low saturation does not match, and excessive color deviation correction is performed in gray balance adjustment, resulting in color failure, so the application rate of It is desirable to set the lowering range high.

次いで、入力画像データの画素の値を用いてグレーバランス調整条件算出処理が実行される(ステップS56)。グレーバランス調整条件算出処理は、図6で説明したのと同様の処理により行う。   Next, a gray balance adjustment condition calculation process is executed using the pixel value of the input image data (step S56). The gray balance adjustment condition calculation process is performed by the same process as described with reference to FIG.

次いで、作成された3次元ヒストグラムに基づいて、入力画像データが所定の明度領域に分割される(ステップS57)。具体的には、作成された3次元ヒストグラムが、予め定義された少なくとも一つの明度値を境界に、二つ以上の空間に分割されることにより、入力画像データが所定の明度領域に分割される。本発明においては、3次元ヒストグラムを少なくとも2つの明度値により、3つの空間に分割することが望ましい。また、境界とする明度値は、上述したHSV変換プログラムによる算出値で85、170と定義しておくこおとが望ましい。このように定義することにより、3次元ヒストグラム(入力画像データ)をシャドー(明度値0〜84)、中間(明度値85〜169)、ハイライト(明度値170〜255)、の3つの明度領域に分割することが可能となる。本実施の形態においても、3次元ヒストグラム(入力画像データ)を85、170の明度値で3つの明度領域(シャドー、中間、ハイライト)に分割するものとする。   Next, the input image data is divided into predetermined brightness areas based on the created three-dimensional histogram (step S57). Specifically, the created three-dimensional histogram is divided into two or more spaces with at least one predefined brightness value as a boundary, whereby the input image data is divided into predetermined brightness areas. . In the present invention, it is desirable to divide the three-dimensional histogram into three spaces by at least two lightness values. In addition, it is desirable to define the brightness value as the boundary as 85 and 170 calculated by the above-mentioned HSV conversion program. By defining in this way, the three-dimensional histogram (input image data) is divided into three brightness areas: shadow (brightness values 0 to 84), intermediate (brightness values 85 to 169), and highlight (brightness values 170 to 255). It becomes possible to divide into. Also in the present embodiment, it is assumed that the three-dimensional histogram (input image data) is divided into three brightness regions (shadow, middle, highlight) with brightness values of 85 and 170.

次いで、ステップS57で分割された明度領域の夫々について、各領域内の累積度数分布のシグマ値を入力画像データの全画素数で除算することにより、各明度領域が入力画像の画面内に占める割合、即ち各明度領域の占有率が算出される(ステップS58)。   Next, for each of the brightness areas divided in step S57, the ratio of each brightness area in the screen of the input image is obtained by dividing the sigma value of the cumulative frequency distribution in each area by the total number of pixels of the input image data. That is, the occupation ratio of each brightness area is calculated (step S58).

例えば、入力画像データとして、全画素数が500万画素で、撮影シーンが、芝生の上に座った赤いカーディガンを着た女性を比較的大きめに撮影したもの(画像データαとする)を用いて上述したステップS57、58を実行すると、各明度領域の占有率は下記[表9]に示す値となる。

Figure 2005192158
For example, as input image data, the total number of pixels is 5 million pixels, and the shooting scene is a relatively large image of a woman wearing a red cardigan sitting on the lawn (referred to as image data α). When steps S57 and S58 described above are executed, the occupancy ratio of each lightness area becomes a value shown in [Table 9] below.
Figure 2005192158

各明度領域の占有率が算出されると、この占有率に応じて、入力画像データの撮影シーンが推定される(ステップS59)。撮影シーンの推定方法としては、例えば、上述した第3の実施の形態におけるグレーバランス調整処理CのステップS40で説明した方法を用いることができる。また、ステップS53において少なくとも2つの空間に分割された3次元ヒストグラム夫々について、所定の明度領域への分割を行って、肌色相領域におけるシャドー、中間、ハイライト領域の占有率から、撮影シーンの推定を補助しても良い。また、肌色領域の明度偏倚量を別途計算により算出し、撮影シーンの推定を補助しても良い。   When the occupancy rate of each lightness area is calculated, the shooting scene of the input image data is estimated according to the occupancy rate (step S59). As a method for estimating the shooting scene, for example, the method described in step S40 of the gray balance adjustment process C in the third embodiment described above can be used. In addition, each of the three-dimensional histograms divided into at least two spaces in step S53 is divided into predetermined brightness areas, and the shooting scene is estimated from the occupancy ratios of the shadow, middle, and highlight areas in the skin hue area. You may help. In addition, the brightness deviation amount of the skin color area may be calculated separately to assist the estimation of the shooting scene.

入力画像データの撮影シーンが推定されると、撮影シーンの推定結果に基づいて、ステップS55で算出された色相領域毎の適用率に対して見直しが行われ、必要な場合は、新たに適用率が算出され、占有率が最大の色相領域に対して算出された適用率に基づいて、END変換式が入力画像データに適用されることにより、撮影シーンの推定結果に基づくグレーバランス調整が施される(ステップS60)。下記[表10]に、撮影シーンの推定結果に基づく適用率の見直しの一例を示す。

Figure 2005192158
When the shooting scene of the input image data is estimated, the application rate for each hue area calculated in step S55 is reviewed based on the estimation result of the shooting scene, and if necessary, the application rate is newly set. The END conversion formula is applied to the input image data based on the application rate calculated for the hue area with the largest occupation ratio, and gray balance adjustment based on the estimation result of the shooting scene is performed. (Step S60). [Table 10] below shows an example of reviewing the application rate based on the estimation result of the shooting scene.
Figure 2005192158

以上説明したように、画像記録装置1によれば、入力画像データの色相値、彩度値及び明度値を取得して、x軸を色相値(H)、y軸を彩度値(S)、z軸を明度値(V)とした座標空間に、画素の累積度数分布を示す3次元ヒストグラムを作成し、この3次元ヒストグラムを用いて入力画像データを所定の色相領域に分割し、分割された色相領域毎に各領域の画素が入力画像データ全体に占める割合(占有率)を算出し、算出された占有率に基づいて色相領域毎にグレーバランス調整の適用率を算出する。また、3次元ヒストグラムを用いて入力画像データを所定の明度領域に分割し、分割された明度領域毎に各領域の画素が入力画像データ全体に占める割合(占有率)を算出し、算出された占有率の大小関係により入力画像データの撮影シーンを推定する。そして、撮影シーンの推定結果に基づいて各色相領域毎に算出されたグレーバランス調整の適用率を修正し、占有率が最大の色相領域の適用率で入力画像データにグレーバランス調整を施す。   As described above, according to the image recording apparatus 1, the hue value, the saturation value, and the brightness value of the input image data are acquired, the x-axis is the hue value (H), and the y-axis is the saturation value (S). , Create a three-dimensional histogram showing the cumulative frequency distribution of pixels in the coordinate space with the z-axis lightness value (V), and divide the input image data into predetermined hue regions using this three-dimensional histogram. For each hue area, the ratio (occupancy ratio) of the pixels in each area to the entire input image data is calculated, and the application ratio of gray balance adjustment is calculated for each hue area based on the calculated occupation ratio. Further, the input image data is divided into predetermined brightness areas using a three-dimensional histogram, and the ratio (occupancy ratio) of the pixels in each area to the entire input image data is calculated for each divided brightness area. The shooting scene of the input image data is estimated based on the occupancy ratio. Then, the application rate of the gray balance adjustment calculated for each hue region is corrected based on the estimation result of the photographing scene, and the gray balance adjustment is performed on the input image data with the application rate of the hue region having the maximum occupation ratio.

従って、撮影シーンの配色傾向を判別し、判別結果に基づきグレーバランス調整の適用率を変更するようにしたことで、タングステンなどの人工光源や、自発光光源の過剰な色偏倚補正が防止され、結果カラーフェリアが抑制される。また、撮影シーンの明度分布傾向を判別することで、撮影シーンに応じてグレーバランス調整の適用率を調節することが可能となる。   Therefore, by determining the coloration tendency of the shooting scene and changing the application rate of the gray balance adjustment based on the determination result, excessive color deviation correction of artificial light sources such as tungsten and self-luminous light sources is prevented, As a result, color feria is suppressed. Further, by determining the brightness distribution tendency of the shooting scene, it is possible to adjust the application rate of gray balance adjustment according to the shooting scene.

なお、上記第3実施の形態と第4の実施の形態における処理は組み合わせて用いることが好ましい。例えば、図11のステップS31〜37を実行して、グレーバランス調整条件としてのEND変換式を算出するとともに、各色相領域の占有率が算出されたところでグレーバランス調整の適用率を算出する。また、図11のステップS38〜40を実行することにより、撮影シーンを推定し、撮影シーンの推定結果に応じて、低彩度閾値及び適用率の見直しを行い、必要に応じて、修正されたグレーバランス調整条件及び適用率を用いて入力画像データへのグレーバランス調整を施す。これにより、第3の実施の形態におけるグレーバランス調整処理C及び第4の実施の形態におけるグレーバランス調整処理Dをそれぞれ単独で実行するときに比べ、より一層カラーフェリア抑制の精度を高めることが可能となる。   Note that the processes in the third embodiment and the fourth embodiment are preferably used in combination. For example, steps S31 to S37 in FIG. 11 are executed to calculate the END conversion formula as the gray balance adjustment condition, and the application rate of the gray balance adjustment is calculated when the occupation ratio of each hue region is calculated. In addition, by executing steps S38 to S40 in FIG. 11, the shooting scene is estimated, the low saturation threshold and the application rate are reviewed according to the estimation result of the shooting scene, and corrected as necessary. The gray balance adjustment is performed on the input image data using the gray balance adjustment condition and the application rate. As a result, it is possible to further increase the accuracy of color feria suppression compared to when the gray balance adjustment process C in the third embodiment and the gray balance adjustment process D in the fourth embodiment are executed individually. It becomes.

以上、第1〜第4の実施の形態について説明してきたが、これらの実施の形態で用いる画像データとしては、デジタルカメラで撮影した画像である場合、シーン参照画像データであることが望ましい。シーン参照画像データは、少なくとも撮像素子自体の分光感度に基づく各色チャンネルの信号強度をRIMM RGBやERIMM RGBなどの標準色空間にマッピング済みであり、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上する為にデータ内容を改変する画像処理が省略された状態の画像データを意味する。従って、画像記録装置1にシーン参照画像データを入力し、画像調整処理部701において、操作部11から入力された出力先の情報に基づいて、出力媒体上(CRT、液晶ディスプレイ、プラズマディスプレイ、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等)で最適な鑑賞画像が得られるよう、上述したグレーバランス調整を含めた最適化処理を施して鑑賞画像参照データに変換することで、撮像画像情報の情報損失を伴うことなく最適化された鑑賞画像参照データを出力媒体上で形成することが可能となる。   Although the first to fourth embodiments have been described above, the image data used in these embodiments is preferably scene reference image data in the case of an image taken with a digital camera. In the scene reference image data, the signal intensity of each color channel based on at least the spectral sensitivity of the image sensor itself has been mapped to a standard color space such as RIMM RGB or ERIMM RGB, and tone conversion, sharpness enhancement, saturation enhancement, etc. This means image data in a state where image processing for modifying the data content is omitted in order to improve the effect at the time of image viewing. Accordingly, the scene reference image data is input to the image recording apparatus 1, and the image adjustment processing unit 701 uses the output destination information input from the operation unit 11 on the output medium (CRT, liquid crystal display, plasma display, silver display). In order to obtain an optimal viewing image on salt-printed paper, inkjet paper, thermal printer paper, etc.), it is converted into viewing image reference data by performing optimization processing including the gray balance adjustment described above. It is possible to form the appreciation image reference data optimized without any information loss on the output medium.

なお、上記各実施の形態における記述内容は、本発明の好適な一例であり、これに限定されるものではない。
例えば、上記実施の形態においては、入力画像データに画像処理を施して、出力媒体上に記録する機能を備えた画像記録装置を例にとり説明したが、本発明は、入力画像データに画像処理を施して、画像記録装置に画像を出力する画像処理装置についても適用可能であることは言うまでもない。
In addition, the description content in each said embodiment is a suitable example of this invention, and is not limited to this.
For example, in the above embodiment, the image recording apparatus having a function of performing image processing on input image data and recording on the output medium has been described as an example. However, the present invention performs image processing on input image data. Needless to say, the present invention can also be applied to an image processing apparatus that outputs an image to an image recording apparatus.

また、上記各実施の形態においては、2次元ヒストグラム、3次元ヒストグラムを用いて撮像画像データを色相領域や明度領域に分割することとしたが、これらのヒストグラムを用いることなく、取得された色相値、明度値、彩度値に基づいて撮像画像データを分割するようにしてもよい。2次元ヒストグラム、3次元ヒストグラムを用いることにより、処理を効率化することが可能となる。   Further, in each of the above embodiments, the captured image data is divided into the hue area and the brightness area using the two-dimensional histogram and the three-dimensional histogram, but the obtained hue value is used without using these histograms. The captured image data may be divided based on the brightness value and the saturation value. By using the two-dimensional histogram and the three-dimensional histogram, the processing can be made efficient.

その他、画像記録装置1の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of the image recording apparatus 1 can be changed as appropriate without departing from the spirit of the present invention.

本発明に係る画像記録装置1の外観構成を示す斜視図である。1 is a perspective view showing an external configuration of an image recording apparatus 1 according to the present invention. 図1の画像記録装置1の内部構成を示すブロック図である。FIG. 2 is a block diagram illustrating an internal configuration of the image recording apparatus 1 in FIG. 1. 図2の画像処理部70の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the image process part 70 of FIG. 図3の画像調整処理部701により実行されるグレーバランス調整処理Aを示すフローチャートである。4 is a flowchart showing a gray balance adjustment process A executed by an image adjustment processing unit 701 in FIG. 3. (a)は、2次元ヒストグラムの一例を示す図であり、(b)は、2次元ヒストグラムを色相領域に分割した例を示す図である。(A) is a figure which shows an example of a two-dimensional histogram, (b) is a figure which shows the example which divided | segmented the two-dimensional histogram into the hue area | region. 図3の画像調整処理部701により実行されるグレーバランス調整条件算出処理を示すフローチャートである。4 is a flowchart showing gray balance adjustment condition calculation processing executed by an image adjustment processing unit 701 in FIG. 3. 図6のステップS11で作成される累積ヒストグラムの一例を示す図である。It is a figure which shows an example of the accumulation histogram created by step S11 of FIG. 図6のステップS14で作成される色度図の一例を示す図である。It is a figure which shows an example of the chromaticity diagram produced by step S14 of FIG. 図6のステップS15で作成されるG、R相関図、G、Y相関図の一例を示す図である。FIG. 7 is a diagram illustrating an example of a G / R correlation diagram and a G / Y correlation diagram created in step S <b> 15 of FIG. 6. 図3の画像調整処理部701により実行されるグレーバランス調整処理Bを示すフローチャートである。4 is a flowchart showing a gray balance adjustment process B executed by an image adjustment processing unit 701 in FIG. 3. 図3の画像調整処理部701により実行されるグレーバランス調整処理Cを示すフローチャートである。4 is a flowchart showing gray balance adjustment processing C executed by an image adjustment processing unit 701 in FIG. 3. (a)は、3次元ヒストグラムの一例を示す図であり、(b)は、(a)の3次元ヒストグラムにおける色相(H)が70〜184の緑色相領域に分布する格子点を表す図である。(A) is a figure which shows an example of a three-dimensional histogram, (b) is a figure showing the grid point distributed in the green hue area | region whose hue (H) in the three-dimensional histogram of (a) is 70-184. is there. 図3の画像調整処理部701により実行されるグレーバランス調整処理Dを示すフローチャートである。4 is a flowchart showing a gray balance adjustment process D executed by the image adjustment processing unit 701 in FIG. 3.

符号の説明Explanation of symbols

1 画像記録装置
2 筐体
3 マガジン装填部
4 露光処理部
5 プリント作成部
7 制御部
8 CRT
9 フィルムスキャナ部
10 反射原稿入力装置
11 操作部
12 情報入力手段
14 画像読込部
15 画像書込部
30 画像転送手段
31 画像搬送部
32 通信手段(入力)
33 通信手段(出力)
51 外部プリンタ
70 画像処理部
701 画像調整処理部
702 フィルムスキャンデータ処理部
703 反射原稿スキャンデータ処理部
704 画像データ書式解読処理部
705 テンプレート処理部
706 CRT固有処理部
707 プリント固有処理部A
708 プリント固有処理部B
709 画像データ作成処理部
71 データ蓄積手段
72 テンプレート記憶手段
DESCRIPTION OF SYMBOLS 1 Image recording apparatus 2 Case 3 Magazine loading part 4 Exposure processing part 5 Print preparation part 7 Control part 8 CRT
DESCRIPTION OF SYMBOLS 9 Film scanner part 10 Reflected original input device 11 Operation part 12 Information input means 14 Image reading part 15 Image writing part 30 Image transfer means 31 Image conveying part 32 Communication means (input)
33 Communication means (output)
51 External Printer 70 Image Processing Unit 701 Image Adjustment Processing Unit 702 Film Scan Data Processing Unit 703 Reflected Original Scan Data Processing Unit 704 Image Data Format Decoding Processing Unit 705 Template Processing Unit 706 CRT Specific Processing Unit 707 Print Specific Processing Unit A
708 Print unique processing section B
709 Image data creation processing unit 71 Data storage unit 72 Template storage unit

Claims (51)

撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法において、
前記撮像画像データの画素毎の色相値及び彩度値を得る工程と、
前記撮像画像データを少なくとも2つの色相領域に分割する工程と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する工程と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する工程と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出する工程と、
前記算出されたグレーバランス調整条件に基づいて、前記撮像画像データにグレーバランス調整を施す工程と、
を含むことを特徴とする画像処理方法。
In an image processing method for inputting captured image data and outputting image data optimized for viewing on an output medium,
Obtaining a hue value and a saturation value for each pixel of the captured image data;
Dividing the captured image data into at least two hue regions;
Calculating an occupancy ratio indicating a ratio of pixels for each of the divided hue regions to the entire screen of the captured image data;
Calculating a low saturation threshold value for each hue area according to the calculated occupancy ratio for each hue area;
Extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
Calculating a gray balance adjustment condition using the extracted low saturation pixel;
Applying gray balance adjustment to the captured image data based on the calculated gray balance adjustment condition;
An image processing method comprising:
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法において、
前記撮像画像データの画素毎の色相値及び彩度値を得る工程と、
前記撮像画像データを少なくとも2つの色相領域に分割する工程と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する工程と、
前記算出された適用率に基づいて、グレーバランス調整を施す工程と、
を含むことを特徴とする画像処理方法。
In an image processing method for inputting captured image data and outputting image data optimized for viewing on an output medium,
Obtaining a hue value and a saturation value for each pixel of the captured image data;
Dividing the captured image data into at least two hue regions;
Calculating an occupancy ratio indicating a ratio of pixels for each of the divided hue regions to the entire screen of the captured image data;
Calculating a gray balance adjustment application rate according to the calculated occupancy for each hue region;
Applying gray balance adjustment based on the calculated application rate;
An image processing method comprising:
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法において、
前記撮像画像データの画素毎の色相値及び彩度値を得る工程と、
前記撮像画像データを少なくとも2つの色相領域に分割する工程と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する工程と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する工程と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出する工程と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する工程と、
前記算出されたグレーバランス調整条件及び適用率に基づいて、前記撮像画像データにグレーバランス調整を施す工程と、
を含むことを特徴とする画像処理方法。
In an image processing method for inputting captured image data and outputting image data optimized for viewing on an output medium,
Obtaining a hue value and a saturation value for each pixel of the captured image data;
Dividing the captured image data into at least two hue regions;
Calculating an occupancy ratio indicating a ratio of pixels for each of the divided hue regions to the entire screen of the captured image data;
Calculating a low saturation threshold value for each hue area according to the calculated occupancy ratio for each hue area;
Extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
Calculating a gray balance adjustment condition using the extracted low saturation pixel;
Calculating a gray balance adjustment application rate according to the calculated occupancy for each hue region;
Applying gray balance adjustment to the captured image data based on the calculated gray balance adjustment condition and application rate;
An image processing method comprising:
前記取得された色相値及び彩度値の2次元ヒストグラムを作成する工程を含み、
前記撮像画像データを少なくとも2つの色相領域に分割する工程は、前記作成された2次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの色相領域に分割することを特徴とする請求項1〜3の何れか一項に記載の画像処理方法。
Creating a two-dimensional histogram of the acquired hue and saturation values;
4. The step of dividing the captured image data into at least two hue regions divides the captured image data into at least two hue regions based on the created two-dimensional histogram. An image processing method according to any one of the above.
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得る工程と、
前記撮像画像データを少なくとも2つの色相領域に分割する工程と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する工程と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する工程と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出する工程と、
前記撮像画像データを少なくとも2つの明度領域に分割する工程と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する工程と、
前記算出されたグレーバランス調整条件及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施す工程と、
を含むことを特徴とする画像処理方法。
In an image processing method for inputting captured image data and outputting image data optimized for viewing on an output medium,
Obtaining a hue value, a saturation value, and a brightness value for each pixel of the captured image data;
Dividing the captured image data into at least two hue regions;
Calculating an occupancy ratio indicating a ratio of pixels for each of the divided hue regions to the entire screen of the captured image data;
Calculating a low saturation threshold value for each hue area according to the calculated occupancy ratio for each hue area;
Extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
Calculating a gray balance adjustment condition using the extracted low saturation pixel;
Dividing the captured image data into at least two brightness regions;
Calculating an occupancy ratio indicating a ratio of pixels of the divided brightness areas to the entire screen of the captured image data;
Estimating a captured scene of the captured image data according to the calculated occupancy for each brightness region;
Applying gray balance adjustment to the captured image data based on the calculated gray balance adjustment condition and the estimation result of the shooting scene;
An image processing method comprising:
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得る工程と、
前記撮像画像データを少なくとも2つの色相領域に分割する工程と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する工程と、
前記撮像画像データを少なくとも2つの明度領域に分割する工程と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する工程と、
前記算出された適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施す工程と、
を含むことを特徴とする画像処理方法。
In an image processing method for inputting captured image data and outputting image data optimized for viewing on an output medium,
Obtaining a hue value, a saturation value, and a brightness value for each pixel of the captured image data;
Dividing the captured image data into at least two hue regions;
Calculating an occupancy ratio indicating a ratio of pixels for each of the divided hue regions to the entire screen of the captured image data;
Calculating a gray balance adjustment application rate according to the calculated occupancy for each hue region;
Dividing the captured image data into at least two brightness regions;
Calculating an occupancy ratio indicating a ratio of pixels of the divided brightness areas to the entire screen of the captured image data;
Estimating a captured scene of the captured image data according to the calculated occupancy for each brightness region;
Applying gray balance adjustment to the captured image data based on the calculated application rate and the estimation result of the shooting scene;
An image processing method comprising:
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理方法において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得る工程と、
前記撮像画像データを少なくとも2つの色相領域に分割する工程と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する工程と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する工程と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出する工程と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する工程と、
前記撮像画像データを少なくとも2つの明度領域に分割する工程と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する工程と、
前記算出された適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施す工程と、
前記算出されたグレーバランス調整条件、適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施す工程と、
を含むことを特徴とする画像処理方法。
In an image processing method for inputting captured image data and outputting image data optimized for viewing on an output medium,
Obtaining a hue value, a saturation value, and a brightness value for each pixel of the captured image data;
Dividing the captured image data into at least two hue regions;
Calculating an occupancy ratio indicating a ratio of pixels for each of the divided hue regions to the entire screen of the captured image data;
Calculating a low saturation threshold value for each hue area according to the calculated occupancy ratio for each hue area;
Extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
Calculating a gray balance adjustment condition using the extracted low saturation pixel;
Calculating a gray balance adjustment application rate according to the calculated occupancy for each hue region;
Dividing the captured image data into at least two brightness regions;
Calculating an occupancy ratio indicating a ratio of pixels of the divided brightness areas to the entire screen of the captured image data;
Estimating a captured scene of the captured image data according to the calculated occupancy for each brightness region;
Applying gray balance adjustment to the captured image data based on the calculated application rate and the estimation result of the shooting scene;
Applying gray balance adjustment to the captured image data based on the calculated gray balance adjustment condition, application rate, and estimation result of the shooting scene;
An image processing method comprising:
前記取得された色相値、彩度値及び明度値の3次元ヒストグラムを作成する工程を含み、
前記撮像画像データを少なくとも2つの色相領域に分割する工程は、前記作成された3次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの色相領域に分割し、
前記撮像画像データを少なくとも2つの明度領域に分割する工程は、前記作成された3次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの明度領域に分割することを特徴とする請求項5〜7の何れか一項に記載の画像処理方法。
Creating a three-dimensional histogram of the acquired hue value, saturation value and brightness value;
The step of dividing the captured image data into at least two hue regions divides the captured image data into at least two hue regions based on the created three-dimensional histogram,
8. The step of dividing the captured image data into at least two brightness regions divides the captured image data into at least two brightness regions based on the created three-dimensional histogram. An image processing method according to any one of the above.
前記分割された少なくとも2つの色相領域の夫々を、少なくとも2つの明度領域に分割する工程と、
前記分割された領域のうち所定の色相及び明度の領域の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する工程と、
前記算出された明度領域毎の占有率及び前記所定の色相及び明度の領域の占有率に応じて、前記撮像画像データの撮影シーンを推定する工程と、
を含むことを特徴とする請求項5〜8の何れか一項に記載の画像処理方法。
Dividing each of the divided at least two hue regions into at least two brightness regions;
Calculating an occupancy ratio indicating a ratio of pixels of a predetermined hue and brightness area in the divided area to the entire screen of the captured image data;
Estimating a shooting scene of the captured image data according to the calculated occupancy for each brightness area and the occupancy of the predetermined hue and brightness area;
The image processing method according to claim 5, further comprising:
前記撮像画像データを少なくとも2つの色相領域に分割する工程において、前記撮像画像データを、HSV表色系の色相値で70、185、225を境界として分割し、肌色相領域、緑色相領域、空色相領域、赤色相領域の4つの色相領域に分割することを特徴とする請求項1〜9の何れか一項に記載の画像処理方法。   In the step of dividing the picked-up image data into at least two hue regions, the picked-up image data is divided with the hue values of the HSV color system 70, 185, 225 as boundaries, and the skin hue region, the green hue region, the sky region The image processing method according to claim 1, wherein the image processing method is divided into four hue areas, a hue area and a red hue area. 前記撮像画像データを少なくとも2つの明度領域に分割する工程において、前記撮像画像データを、HSV表色系の明度値で85、170を境界として分割し、シャドー領域、中間領域、ハイライト領域の3つの明度領域に分割することを特徴とする請求項5〜10の何れか一項に記載の画像処理方法。   In the step of dividing the picked-up image data into at least two lightness areas, the picked-up image data is divided with HSV color system lightness values of 85 and 170 as boundaries, and a shadow area, an intermediate area, and a highlight area. The image processing method according to claim 5, wherein the image processing method is divided into two brightness regions. 前記分割された色相領域のうち肌色相領域の明度偏倚量を算出し、前記撮影シーンの推定に用いることを特徴とする請求項5〜11の何れか一項に記載の画像処理方法。   The image processing method according to any one of claims 5 to 11, wherein a lightness deviation amount of a skin hue region is calculated among the divided hue regions and used for estimation of the shooting scene. 前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度画素の抽出率を算出する工程と、
前記算出された低彩度画素の抽出率に基づいて、グレーバランス調整に用いる低彩度画素を抽出する工程と、
を含むことを特徴とする請求項1、3、4、5、7の何れか一項に記載の画像処理方法。
Calculating a low saturation pixel extraction rate for each hue region according to the calculated occupancy rate for each hue region;
Extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation pixel extraction rate; and
The image processing method according to claim 1, further comprising:
前記算出された色相領域毎の占有率に応じてグレーバランス調整の適用率を算出する工程は、前記色相領域毎に異なる適用率算出式を用いて前記各占有率から色相領域毎の適用率を算出し、前記色相領域毎に算出された適用率の最大値を前記グレーバランス調整の適用率とすることを特徴とする請求項2、3、6、7の何れか一項に記載の画像処理方法。   The step of calculating the application rate of gray balance adjustment according to the calculated occupancy rate for each hue region is obtained by calculating the application rate for each hue region from each occupancy rate using a different application rate calculation formula for each hue region. 8. The image processing according to claim 2, wherein a maximum value of the application rate calculated for each hue region is set as an application rate of the gray balance adjustment. Method. 前記適用率算出式は、前記撮像画像データが肌色相領域、空色相領域、緑色相領域、赤色相領域に分割された場合に、同一の占有率に対する前記肌色相領域及び空色相領域の適用率が他の色相領域の適用率に比べて小さくなるように設定されていることを特徴とする請求項14に記載の画像処理方法。   When the captured image data is divided into a skin hue area, a sky hue area, a green hue area, and a red hue area, the application ratio calculation formula is an application ratio of the skin hue area and the sky hue area with respect to the same occupation ratio. The image processing method according to claim 14, wherein is set to be smaller than an application rate of other hue regions. 前記撮像画像データは、シーン参照画像データであることを特徴とする請求項1〜15の何れか一項に記載の画像処理方法。   The image processing method according to claim 1, wherein the captured image data is scene reference image data. 前記出力媒体上での鑑賞に最適化された画像データは、鑑賞画像参照データであることを特徴とする請求項1〜16の何れか一項に記載の画像処理方法。   The image processing method according to claim 1, wherein the image data optimized for viewing on the output medium is viewing image reference data. 撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理装置において、
前記撮像画像データの画素毎の色相値及び彩度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記算出されたグレーバランス調整条件に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus for inputting captured image data and outputting image data optimized for viewing on an output medium,
Data acquisition means for obtaining a hue value and a saturation value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
Based on the calculated gray balance adjustment conditions, gray balance adjustment means for performing gray balance adjustment on the captured image data;
An image processing apparatus comprising:
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理装置において、
前記撮像画像データの画素毎の色相値及び彩度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記算出された適用率に基づいて、グレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus for inputting captured image data and outputting image data optimized for viewing on an output medium,
Data acquisition means for obtaining a hue value and a saturation value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Gray balance adjustment means for performing gray balance adjustment based on the calculated application rate;
An image processing apparatus comprising:
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理装置において、
前記撮像画像データの画素毎の色相値及び彩度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記算出されたグレーバランス調整条件及び適用率に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus for inputting captured image data and outputting image data optimized for viewing on an output medium,
Data acquisition means for obtaining a hue value and a saturation value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated gray balance adjustment condition and application rate;
An image processing apparatus comprising:
前記取得された色相値及び彩度値の2次元ヒストグラムを作成する2次元ヒストグラム作成手段を備え、
前記色相領域分割手段は、前記作成された2次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの色相領域に分割することを特徴とする請求項18〜20の何れか一項に記載の画像処理装置。
Two-dimensional histogram creation means for creating a two-dimensional histogram of the acquired hue value and saturation value;
The image according to any one of claims 18 to 20, wherein the hue area dividing unit divides the captured image data into at least two hue areas based on the created two-dimensional histogram. Processing equipment.
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理装置において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記撮像画像データを少なくとも2つの明度領域に分割する明度領域分割手段と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する明度領域占有率算出手段と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する撮影シーン推定手段と、
前記算出されたグレーバランス調整条件及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus for inputting captured image data and outputting image data optimized for viewing on an output medium,
Data acquisition means for obtaining a hue value, a saturation value and a brightness value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
Brightness area dividing means for dividing the captured image data into at least two brightness areas;
A brightness area occupancy ratio calculating means for calculating an occupancy ratio indicating a ratio of pixels of the divided brightness area to the entire screen of the captured image data;
In accordance with the calculated occupancy for each brightness area, shooting scene estimation means for estimating a shooting scene of the captured image data;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated gray balance adjustment condition and the estimation result of the shooting scene;
An image processing apparatus comprising:
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理装置において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記撮像画像データを少なくとも2つの明度領域に分割する明度領域分割手段と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する明度領域占有率算出手段と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する撮影シーン推定手段と、
前記算出された適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus for inputting captured image data and outputting image data optimized for viewing on an output medium,
Data acquisition means for obtaining a hue value, a saturation value and a brightness value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Brightness area dividing means for dividing the captured image data into at least two brightness areas;
A brightness area occupancy ratio calculating means for calculating an occupancy ratio indicating a ratio of pixels of the divided brightness area to the entire screen of the captured image data;
In accordance with the calculated occupancy for each brightness area, shooting scene estimation means for estimating a shooting scene of the captured image data;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated application rate and the estimation result of the shooting scene;
An image processing apparatus comprising:
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを出力する画像処理装置において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記撮像画像データを少なくとも2つの明度領域に分割する明度領域分割手段と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する明度領域占有率算出手段と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する撮影シーン推定手段と、
前記算出されたグレーバランス調整条件、適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を含むことを特徴とする画像処理装置。
In an image processing apparatus for inputting captured image data and outputting image data optimized for viewing on an output medium,
Data acquisition means for obtaining a hue value, a saturation value and a brightness value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Brightness area dividing means for dividing the captured image data into at least two brightness areas;
A brightness area occupancy ratio calculating means for calculating an occupancy ratio indicating a ratio of pixels of the divided brightness area to the entire screen of the captured image data;
In accordance with the calculated occupancy for each brightness area, shooting scene estimation means for estimating a shooting scene of the captured image data;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated gray balance adjustment condition, application rate, and estimation result of the shooting scene;
An image processing apparatus comprising:
前記取得された色相値、彩度値及び明度値の3次元ヒストグラムを作成する3次元ヒストグラム作成手段を備え、
前記色相領域分割手段は、前記作成された3次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの色相領域に分割し、
前記明度領域分割手段は、前記作成された3次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの明度領域に分割することを特徴とする請求項22〜24の何れか一項に記載の画像処理装置。
A three-dimensional histogram creating means for creating a three-dimensional histogram of the acquired hue value, saturation value and lightness value;
The hue area dividing unit divides the captured image data into at least two hue areas based on the created three-dimensional histogram,
The image according to any one of claims 22 to 24, wherein the lightness region dividing means divides the captured image data into at least two lightness regions based on the created three-dimensional histogram. Processing equipment.
前記分割された少なくとも2つの色相領域の夫々を、少なくとも2つの明度領域に分割する色相明度領域分割手段と、
前記分割された領域のうち所定の色相及び明度の領域の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相明度領域占有率算出手段と、を備え、
前記撮影シーン推定手段は、前記算出された明度領域毎の占有率及び前記所定の色相及び明度の領域の占有率に応じて、前記撮像画像データの撮影シーンを推定することを特徴とする請求項22〜25の何れか一項に記載の画像処理装置。
Hue lightness area dividing means for dividing each of the divided at least two hue areas into at least two lightness areas;
Hue lightness area occupancy calculating means for calculating an occupancy ratio indicating a ratio of pixels of a predetermined hue and lightness area among the divided areas to the entire screen of the captured image data,
The photographic scene estimation means estimates a photographic scene of the captured image data according to the calculated occupancy ratio for each brightness area and the occupancy ratio of the predetermined hue and brightness area. The image processing apparatus according to any one of 22 to 25.
前記色相領域分割手段は、前記撮像画像データを、HSV表色系の色相値で70、185、225の値を境界として分割し、肌色相領域、緑色相領域、空色相領域、赤色相領域の4つの色相領域に分割することを特徴とする請求項18〜26の何れか一項に記載の画像処理装置。   The hue area dividing means divides the captured image data with HSV color system hue values of 70, 185, and 225 as boundaries, and includes a skin hue area, a green hue area, a sky hue area, and a red hue area. 27. The image processing device according to claim 18, wherein the image processing device is divided into four hue regions. 前記明度領域分割手段は、前記撮像画像データを、HSV表色系の明度値で85、170の値を境界として分割し、シャドー領域、中間領域、ハイライト領域の3つの明度領域に分割することを特徴とする請求項22〜27の何れか一項に記載の画像処理装置。   The brightness area dividing unit divides the captured image data into three brightness areas, a shadow area, an intermediate area, and a highlight area, by dividing the HSV color system brightness values with values of 85 and 170 as boundaries. The image processing apparatus according to any one of claims 22 to 27, wherein: 前記撮影シーン推定手段は、前記分割された色相領域のうち肌色相領域の明度偏倚量を算出し、この明度偏倚量を前記撮影シーンの推定に用いることを特徴とする請求項22〜28の何れか一項に記載の画像処理装置。   29. The photographic scene estimation unit calculates a lightness deviation amount of a skin hue region among the divided hue regions, and uses the lightness deviation amount for estimation of the photographic scene. An image processing apparatus according to claim 1. 前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度画素の抽出率を算出する低彩度画素抽出率算出手段を備え、
前記低彩度画素抽出手段は、前記算出された低彩度閾値若しくは前記算出された低彩度画素の抽出率に基づいて、グレーバランス調整に用いる低彩度画素を抽出することを特徴とする請求項18、20、21、22、24の何れか一項に記載の画像処理装置。
Low saturation pixel extraction rate calculating means for calculating an extraction rate of low saturation pixels for each hue region according to the calculated occupancy rate for each hue region;
The low saturation pixel extraction unit extracts low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold or the calculated extraction ratio of the low saturation pixels. The image processing apparatus according to any one of claims 18, 20, 21, 22, and 24.
前記適用率算出手段は、前記色相領域毎に異なる算出式を用いて前記各占有率から各色相領域毎の適用率を算出し、前記色相領域毎に算出された適用率の最大値を前記グレーバランス調整の適用率とすることを特徴とする請求項19、20、23、24の何れか一項に記載の画像処理装置。   The application rate calculating means calculates an application rate for each hue region from each occupancy rate using a different calculation formula for each hue region, and calculates a maximum value of the application rate calculated for each hue region. The image processing apparatus according to any one of claims 19, 20, 23, and 24, wherein an application rate of balance adjustment is used. 前記適用率算出式は、前記撮像画像データが肌色相領域、空色相領域、緑色相領域、赤色相領域に分割された場合に、同一の占有率に対する前記肌色相領域及び空色相領域の適用率が他の色相領域の適用率に比べて小さくなるように設定されていることを特徴とする請求項31に記載の画像処理装置。   When the captured image data is divided into a skin hue area, a sky hue area, a green hue area, and a red hue area, the application ratio calculation formula is an application ratio of the skin hue area and the sky hue area with respect to the same occupation ratio. 32. The image processing apparatus according to claim 31, wherein is set so as to be smaller than an application rate of other hue regions. 前記撮像画像データは、シーン参照画像データであることを特徴とする請求項18〜32の何れか一項に記載の画像処理装置。   The image processing apparatus according to any one of claims 18 to 32, wherein the captured image data is scene reference image data. 前記出力媒体上での鑑賞に最適化された画像データは、鑑賞画像参照データであることを特徴とする請求項18〜33の何れか一項に記載の画像処理装置。   The image processing apparatus according to any one of claims 18 to 33, wherein the image data optimized for viewing on the output medium is viewing image reference data. 撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを生成し、生成された画像データを出力媒体上に形成する画像記録装置において、
前記撮像画像データの画素毎の色相値及び彩度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記算出されたグレーバランス調整条件に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴とする画像記録装置。
In an image recording apparatus that inputs captured image data, generates image data optimized for viewing on an output medium, and forms the generated image data on the output medium.
Data acquisition means for obtaining a hue value and a saturation value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
Based on the calculated gray balance adjustment conditions, gray balance adjustment means for performing gray balance adjustment on the captured image data;
An image recording apparatus comprising:
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを生成し、生成された画像データを出力媒体上に形成する画像記録装置において、
前記撮像画像データの画素毎の色相値及び彩度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記算出された適用率に基づいて、グレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴とする画像記録装置。
In an image recording apparatus that inputs captured image data, generates image data optimized for viewing on an output medium, and forms the generated image data on the output medium.
Data acquisition means for obtaining a hue value and a saturation value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Gray balance adjustment means for performing gray balance adjustment based on the calculated application rate;
An image recording apparatus comprising:
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを生成し、生成された画像データを出力媒体上に形成する画像記録装置において、
前記撮像画像データの画素毎の色相値及び彩度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記算出されたグレーバランス調整条件及び適用率に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴とする画像記録装置。
In an image recording apparatus that inputs captured image data, generates image data optimized for viewing on an output medium, and forms the generated image data on the output medium.
Data acquisition means for obtaining a hue value and a saturation value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated gray balance adjustment condition and application rate;
An image recording apparatus comprising:
前記取得された色相値及び彩度値の2次元ヒストグラムを作成する2次元ヒストグラム作成手段を備え、
前記色相領域分割手段は、前記作成された2次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの色相領域に分割することを特徴とする請求項35〜37の何れか一項に記載の画像記録装置。
Two-dimensional histogram creation means for creating a two-dimensional histogram of the acquired hue value and saturation value;
The image according to any one of claims 35 to 37, wherein the hue area dividing unit divides the captured image data into at least two hue areas based on the created two-dimensional histogram. Recording device.
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを生成し、生成された画像データを出力媒体上に形成する画像記録装置において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記撮像画像データを少なくとも2つの明度領域に分割する明度領域分割手段と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する明度領域占有率算出手段と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する撮影シーン推定手段と、
前記算出されたグレーバランス調整条件及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴とする画像記録装置。
In an image recording apparatus that inputs captured image data, generates image data optimized for viewing on an output medium, and forms the generated image data on the output medium.
Data acquisition means for obtaining a hue value, a saturation value and a brightness value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
Brightness area dividing means for dividing the captured image data into at least two brightness areas;
A brightness area occupancy ratio calculating means for calculating an occupancy ratio indicating a ratio of pixels of the divided brightness area to the entire screen of the captured image data;
In accordance with the calculated occupancy for each brightness area, shooting scene estimation means for estimating a shooting scene of the captured image data;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated gray balance adjustment condition and the estimation result of the shooting scene;
An image recording apparatus comprising:
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを生成し、生成された画像データを出力媒体上に形成する画像記録装置において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記撮像画像データを少なくとも2つの明度領域に分割する明度領域分割手段と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する明度領域占有率算出手段と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する撮影シーン推定手段と、
前記算出された適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を備えたことを特徴とする画像記録装置。
In an image recording apparatus that inputs captured image data, generates image data optimized for viewing on an output medium, and forms the generated image data on the output medium.
Data acquisition means for obtaining a hue value, a saturation value and a brightness value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Brightness area dividing means for dividing the captured image data into at least two brightness areas;
A brightness area occupancy ratio calculating means for calculating an occupancy ratio indicating a ratio of pixels of the divided brightness area to the entire screen of the captured image data;
In accordance with the calculated occupancy for each brightness area, shooting scene estimation means for estimating a shooting scene of the captured image data;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated application rate and the estimation result of the shooting scene;
An image recording apparatus comprising:
撮像画像データを入力し、出力媒体上での鑑賞に最適化された画像データを生成し、生成された画像データを出力媒体上に形成する画像記録装置において、
前記撮像画像データの画素毎の色相値、彩度値及び明度値を得るデータ取得手段と、
前記撮像画像データを少なくとも2つの色相領域に分割する色相領域分割手段と、
前記分割された色相領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相領域占有率算出手段と、
前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度闘値を算出する低彩度閾値算出手段と、
前記算出された低彩度闘値に基づいて、グレーバランス調整に用いる低彩度画素を抽出する低彩度画素抽出手段と、
前記抽出された低彩度画素を用いてグレーバランス調整条件を算出するグレーバランス調整条件算出手段と、
前記算出された色相領域毎の占有率に応じて、グレーバランス調整の適用率を算出する適用率算出手段と、
前記撮像画像データを少なくとも2つの明度領域に分割する明度領域分割手段と、
前記分割された明度領域毎の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する明度領域占有率算出手段と、
前記算出された明度領域毎の占有率に応じて、前記撮像画像データの撮影シーンを推定する撮影シーン推定手段と、
前記算出されたグレーバランス調整条件、適用率及び前記撮影シーンの推定結果に基づいて、前記撮像画像データにグレーバランス調整を施すグレーバランス調整手段と、
を含むことを特徴とする画像記録装置。
In an image recording apparatus that inputs captured image data, generates image data optimized for viewing on an output medium, and forms the generated image data on the output medium.
Data acquisition means for obtaining a hue value, a saturation value and a brightness value for each pixel of the captured image data;
Hue area dividing means for dividing the captured image data into at least two hue areas;
A hue area occupancy ratio calculating unit that calculates an occupancy ratio indicating a ratio of pixels for each of the divided hue areas to the entire screen of the captured image data;
Low saturation threshold value calculating means for calculating a low saturation threshold value for each hue region according to the calculated occupancy ratio for each hue region;
Low saturation pixel extraction means for extracting low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold;
A gray balance adjustment condition calculating means for calculating a gray balance adjustment condition using the extracted low saturation pixel;
An application rate calculating means for calculating an application rate of gray balance adjustment according to the calculated occupation ratio for each hue region;
Brightness area dividing means for dividing the captured image data into at least two brightness areas;
A brightness area occupancy ratio calculating means for calculating an occupancy ratio indicating a ratio of pixels of the divided brightness area to the entire screen of the captured image data;
In accordance with the calculated occupancy for each brightness area, shooting scene estimation means for estimating a shooting scene of the captured image data;
Gray balance adjustment means for performing gray balance adjustment on the captured image data based on the calculated gray balance adjustment condition, application rate, and estimation result of the shooting scene;
An image recording apparatus comprising:
前記取得された色相値、彩度値及び明度値の3次元ヒストグラムを作成する3次元ヒストグラム作成手段を備え、
前記色相領域分割手段は、前記作成された3次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの色相領域に分割し、
前記明度領域分割手段は、前記作成された3次元ヒストグラムに基づいて、前記撮像画像データを少なくとも2つの明度領域に分割することを特徴とする請求項39〜41の何れか一項に記載の画像記録装置。
A three-dimensional histogram creating means for creating a three-dimensional histogram of the acquired hue value, saturation value and lightness value;
The hue area dividing unit divides the captured image data into at least two hue areas based on the created three-dimensional histogram,
The image according to any one of claims 39 to 41, wherein the lightness region dividing unit divides the captured image data into at least two lightness regions based on the created three-dimensional histogram. Recording device.
前記分割された少なくとも2つの色相領域の夫々を、少なくとも2つの明度領域に分割する色相明度領域分割手段と、
前記分割された領域のうち所定の色相及び明度の領域の画素が前記撮像画像データの画面全体に占める割合を示す占有率を算出する色相明度領域占有率算出手段と、を備え、
前記撮影シーン推定手段は、前記算出された明度領域毎の占有率及び前記所定の色相及び明度の領域の占有率に応じて、前記撮像画像データの撮影シーンを推定することを特徴とする請求項39〜42の何れか一項に記載の画像記録装置。
Hue lightness area dividing means for dividing each of the divided at least two hue areas into at least two lightness areas;
Hue lightness area occupancy calculating means for calculating an occupancy ratio indicating a ratio of pixels of a predetermined hue and lightness area among the divided areas to the entire screen of the captured image data,
The photographic scene estimation means estimates a photographic scene of the captured image data according to the calculated occupancy ratio for each brightness area and the occupancy ratio of the predetermined hue and brightness area. The image recording device according to any one of 39 to 42.
前記色相領域分割手段は、前記撮像画像データを、HSV表色系の色相値で70、185、225の値を境界として分割し、肌色相領域、緑色相領域、空色相領域、赤色相領域の4つの色相領域に分割することを特徴とする請求項35〜43の何れか一項に記載の画像記録装置。   The hue area dividing means divides the captured image data with HSV color system hue values of 70, 185, and 225 as boundaries, and includes a skin hue area, a green hue area, a sky hue area, and a red hue area. 44. The image recording apparatus according to any one of claims 35 to 43, wherein the image recording apparatus is divided into four hue regions. 前記明度領域分割手段は、前記撮像画像データを、HSV表色系の明度値で85、170の値を境界として分割し、シャドー領域、中間領域、ハイライト領域の3つの明度領域に分割することを特徴とする請求項39〜44の何れか一項に記載の画像記録装置。   The brightness area dividing unit divides the captured image data into three brightness areas, a shadow area, an intermediate area, and a highlight area, by dividing the HSV color system brightness values with values of 85 and 170 as boundaries. 45. The image recording apparatus according to any one of claims 39 to 44, wherein: 前記撮影シーン推定手段は、前記分割された色相領域のうち肌色相領域の明度偏倚量を算出し、この明度偏倚量を前記撮影シーンの推定に用いることを特徴とする請求項39〜45の何れか一項に記載の画像記録装置。   46. The photographic scene estimation means calculates a lightness deviation amount of a skin hue region among the divided hue regions, and uses the lightness deviation amount for estimation of the photographic scene. An image recording apparatus according to claim 1. 前記算出された色相領域毎の占有率に応じて、前記色相領域毎に低彩度画素の抽出率を算出する低彩度画素抽出率算出手段を備え、
前記低彩度画素抽出手段は、前記算出された低彩度閾値若しくは前記算出された低彩度画素の抽出率に基づいて、グレーバランス調整に用いる低彩度画素を抽出することを特徴とする請求項35、37、38、39、41の何れか一項に記載の画像記録装置。
Low saturation pixel extraction rate calculating means for calculating an extraction rate of low saturation pixels for each hue region according to the calculated occupancy rate for each hue region;
The low saturation pixel extraction means extracts low saturation pixels used for gray balance adjustment based on the calculated low saturation threshold or the calculated extraction ratio of the low saturation pixels. The image recording apparatus according to any one of claims 35, 37, 38, 39, and 41.
前記適用率算出手段は、前記色相領域毎に異なる算出式を用いて前記各占有率から各色相領域毎の適用率を算出し、前記色相領域毎に算出された適用率の最大値を前記グレーバランス調整の適用率とすることを特徴とする請求項36、37、40、41の何れか一項に記載の画像記録装置。   The application rate calculating means calculates an application rate for each hue region from each occupancy rate using a different calculation formula for each hue region, and calculates a maximum value of the application rate calculated for each hue region. The image recording apparatus according to any one of claims 36, 37, 40, and 41, wherein the application rate of balance adjustment is used. 前記適用率算出式は、前記撮像画像データが肌色相領域、空色相領域、緑色相領域、赤色相領域に分割された場合に、同一の占有率に対する前記肌色相領域及び空色相領域の適用率が他の色相領域の適用率に比べて小さくなるように設定されていることを特徴とする請求項48に記載の画像記録装置。   When the captured image data is divided into a skin hue area, a sky hue area, a green hue area, and a red hue area, the application ratio calculation formula is an application ratio of the skin hue area and the sky hue area with respect to the same occupation ratio. 49. The image recording apparatus according to claim 48, wherein the image recording apparatus is set to be smaller than an application rate of other hue regions. 前記撮像画像データは、シーン参照画像データであることを特徴とする請求項35〜49の何れか一項に記載の画像記録装置。   The image recording apparatus according to any one of claims 35 to 49, wherein the captured image data is scene reference image data. 前記出力媒体上での鑑賞に最適化された画像データは、鑑賞画像参照データであることを特徴とする請求項35〜50の何れか一項に記載の画像記録装置。   51. The image recording apparatus according to claim 35, wherein the image data optimized for viewing on the output medium is viewing image reference data.
JP2003434636A 2003-12-26 2003-12-26 Image processing method, image processing apparatus, and image recording apparatus Pending JP2005192158A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003434636A JP2005192158A (en) 2003-12-26 2003-12-26 Image processing method, image processing apparatus, and image recording apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003434636A JP2005192158A (en) 2003-12-26 2003-12-26 Image processing method, image processing apparatus, and image recording apparatus

Publications (1)

Publication Number Publication Date
JP2005192158A true JP2005192158A (en) 2005-07-14

Family

ID=34791635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003434636A Pending JP2005192158A (en) 2003-12-26 2003-12-26 Image processing method, image processing apparatus, and image recording apparatus

Country Status (1)

Country Link
JP (1) JP2005192158A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8072647B2 (en) 2007-08-17 2011-12-06 Mitsubishi Electric Corporation Color conversion apparatus and method
US8094343B2 (en) 2007-08-31 2012-01-10 Brother Kogyo Kabushiki Kaisha Image processor
US8159716B2 (en) 2007-08-31 2012-04-17 Brother Kogyo Kabushiki Kaisha Image processing device performing image correction by using a plurality of sample images
US8174731B2 (en) 2007-08-31 2012-05-08 Brother Kogyo Kabushiki Kaisha Image processing device outputting image for selecting sample image for image correction
US8284417B2 (en) 2007-08-31 2012-10-09 Brother Kogyo Kabushiki Kaisha Image processing device capable of preventing needless printing
US8311323B2 (en) 2007-08-31 2012-11-13 Brother Kogyo Kabushiki Kaisha Image processor for converting image by using image retrieved based on keyword
US8390905B2 (en) 2007-08-31 2013-03-05 Brother Kogyo Kabushiki Kaisha Image processing device extracting desired region to be used as model for image correction
CN117217476A (en) * 2023-09-15 2023-12-12 南京轶诺科技有限公司 Automatic configuration method for production line test resources

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8072647B2 (en) 2007-08-17 2011-12-06 Mitsubishi Electric Corporation Color conversion apparatus and method
US8094343B2 (en) 2007-08-31 2012-01-10 Brother Kogyo Kabushiki Kaisha Image processor
US8159716B2 (en) 2007-08-31 2012-04-17 Brother Kogyo Kabushiki Kaisha Image processing device performing image correction by using a plurality of sample images
US8174731B2 (en) 2007-08-31 2012-05-08 Brother Kogyo Kabushiki Kaisha Image processing device outputting image for selecting sample image for image correction
US8284417B2 (en) 2007-08-31 2012-10-09 Brother Kogyo Kabushiki Kaisha Image processing device capable of preventing needless printing
US8311323B2 (en) 2007-08-31 2012-11-13 Brother Kogyo Kabushiki Kaisha Image processor for converting image by using image retrieved based on keyword
US8390905B2 (en) 2007-08-31 2013-03-05 Brother Kogyo Kabushiki Kaisha Image processing device extracting desired region to be used as model for image correction
CN117217476A (en) * 2023-09-15 2023-12-12 南京轶诺科技有限公司 Automatic configuration method for production line test resources
CN117217476B (en) * 2023-09-15 2024-03-08 南京轶诺科技有限公司 Automatic configuration method for production line test resources

Similar Documents

Publication Publication Date Title
JP2005190435A (en) Image processing method, image processing apparatus and image recording apparatus
US20050185837A1 (en) Image-processing method, image-processing apparatus and image-recording apparatus
US7312824B2 (en) Image-capturing apparatus, image processing apparatus and image recording apparatus
US20040095478A1 (en) Image-capturing apparatus, image-processing apparatus, image-recording apparatus, image-processing method, program of the same and recording medium of the program
US8463038B2 (en) Image processing apparatus and method for correcting an image based upon features of the image
US20070071316A1 (en) Image correcting method and image correcting system
EP1130899B1 (en) Method, apparatus and recording medium for image processing
JP2005210370A (en) Image processor, photographic device, image processing method, image processing program
US20040041920A1 (en) Image forming method, image processing apparatus, and image recording apparatus
JP2005192162A (en) Image processing method, image processing apparatus, and image recording apparatus
JP2006033383A (en) Image processing apparatus and method thereof
US7324702B2 (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
JP2005192158A (en) Image processing method, image processing apparatus, and image recording apparatus
JP2006325015A (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
US20050128539A1 (en) Image processing method, image processing apparatus and image recording apparatus
JP2007221678A (en) Imaging apparatus, image processor, image processing method and image processing program
US20050259282A1 (en) Image processing method, image processing apparatus, image recording apparatus, and image processing program
JP2007293686A (en) Imaging apparatus, image processing apparatus, image processing method and image processing program
US20040042025A1 (en) Image processing method, image processing apparatus, image recording apparatus, program and recording medium
JP4292873B2 (en) Image processing method, image processing apparatus, and image recording apparatus
JP2005202749A (en) Image processing method, image processing apparatus, and image recording apparatus
JP2006092133A (en) Image processing method, image processor, imaging device and image processing program
JP2005332054A (en) Image processing method, image processor, image recording device and image processing program
JP2007235204A (en) Imaging apparatus, image processing apparatus, image processing method and image processing program
JP2006092137A (en) Image processing method, image processor, imaging device and image processing program