[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2006072742A - Catch light composition method and device - Google Patents

Catch light composition method and device Download PDF

Info

Publication number
JP2006072742A
JP2006072742A JP2004255804A JP2004255804A JP2006072742A JP 2006072742 A JP2006072742 A JP 2006072742A JP 2004255804 A JP2004255804 A JP 2004255804A JP 2004255804 A JP2004255804 A JP 2004255804A JP 2006072742 A JP2006072742 A JP 2006072742A
Authority
JP
Japan
Prior art keywords
face
pupil
light
catchlight
catch light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004255804A
Other languages
Japanese (ja)
Inventor
Ikuko Yoshida
伊公子 吉田
Noriyuki Nishi
規之 西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Koki Co Ltd
Original Assignee
Noritsu Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Koki Co Ltd filed Critical Noritsu Koki Co Ltd
Priority to JP2004255804A priority Critical patent/JP2006072742A/en
Publication of JP2006072742A publication Critical patent/JP2006072742A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique capable of improving an impression of an eye, and capable of enhancing a value of an image, by putting automatically catch light on the pupil in a natural condition. <P>SOLUTION: This catch light composition method for composing the catch light in the pupil of the image is constituted of a face selection step for selecting a face from the image; a face dividing step for dividing the face into a prescribed number of divided face areas; a feature amount calculation step for calculating a prescribed feature amount, based on a brightness value of each picture element included in the divided face area, in every of the divided face areas; a determination step for determining an incident direction of light into the face, based on the feature amount in the each divided face area; a pupil selection step for selecting the pupil from the face; and a correction step for setting a catch light area in the pupil, based on the incident direction of the light, for conducting correction to change brightness of the catch light area, and for outputting the pupil with the catch light. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像の瞳にキャッチライトを合成するキャッチライト合成技術に関する。   The present invention relates to a catchlight synthesis technique for synthesizing a catchlight with the pupil of an image.

肖像画等、人物の顔が写っている画像では、一般に、人物の印象に与える目の影響が大きく、目の印象が良いと人物の印象も良くなる。このため、画像の目を補正し、画像の人物の印象を良好にする技術が提案されている。瞳を補正する技術には、瞳の形状や濃度、位置等に基づいて修正の必要のある赤目領域を選択して補正すると共に、選択した赤目領域にキャッチライトがある場合、赤目を補正する際に瞳にキャッチライトを合成する画像処理方法がある(例えば、特許文献1参照)。   In an image such as a portrait, in which a person's face is shown, the influence of the eyes on the person's impression is generally large. For this reason, a technique has been proposed in which the eyes of an image are corrected to improve the impression of a person in the image. The technique for correcting the pupil is to select and correct the red-eye area that needs to be corrected based on the shape, density, position, etc. of the pupil, and when there is a catch light in the selected red-eye area, There is an image processing method for synthesizing a catch light with a pupil (see, for example, Patent Document 1).

特開2000−76427号公報JP 2000-76427 A

一般に、瞳にキャッチライトが入っていると画像の人物の表情が生き生きとしたものになり、人物の印象が良くなる。しかしながら、特許文献1の画像処理方法では、元の画像の瞳にキャッチライトが入っている場合に、このキャッチライトを補正後の画像に残すことはできるが、元の画像の瞳にキャッチライトが入っていない場合に、自動的にキャッチライトを入れることはできない。
このため、従来は、手作業で瞳にキャッチライトを合成していたが、手動で瞳にキャッチライトを入れる場合には、作業者の熟練を要し、補正に時間がかかるといった問題があった。特に、キャッチライトを瞳のどの部分にいれれば良いかを判断することが難しく、適正な補正が行えない場合があった。
In general, when a catch light is in the pupil, the facial expression of the person in the image becomes vivid and the impression of the person is improved. However, in the image processing method of Patent Document 1, when a catchlight is included in the pupil of the original image, the catchlight can be left in the corrected image. If it is not, the catchlight cannot be turned on automatically.
For this reason, conventionally, the catchlight was manually synthesized into the pupil. However, when the catchlight was manually inserted into the pupil, the skill of the operator was required, and there was a problem that the correction took time. . In particular, it is difficult to determine in which part of the pupil the catchlight should be placed, and there are cases where appropriate correction cannot be performed.

本発明は上記の問題に鑑みてなされたものであり、その目的は、自動的に且つ自然な状態にキャッチライトを瞳に入れることで、目の印象を良くし、画像の価値を高める技術を提供する点にある。   The present invention has been made in view of the above problems, and its purpose is to provide a technique for improving the impression of the eyes and enhancing the value of the image by automatically putting the catch light into the pupil in a natural state. The point is to provide.

この目的を達成するための本発明に係る画像の瞳にキャッチライトを合成するキャッチライト合成方法の特徴構成は、前記画像から顔を選択する顔選択ステップと、前記顔を所定数の分割顔領域に分割する顔分割ステップと、前記分割顔領域毎に、前記分割顔領域に含まれる各画素の輝度値に基づいて所定の特徴量を算出する特徴量算出ステップと、前記分割顔領域夫々の前記特徴量に基づき、前記顔への光の入射方向を判定する判定ステップと、前記顔から瞳を選択する瞳選択ステップと、前記光の入射方向に基づいて、前記瞳にキャッチライトエリアを設定し、前記キャッチライトエリアの輝度を変更する補正を行い、キャッチライト付瞳を出力する補正ステップとから構成されている点にある。   In order to achieve this object, the feature configuration of the catchlight synthesis method for synthesizing the catchlight with the pupil of the image according to the present invention includes a face selection step of selecting a face from the image, and a predetermined number of divided face regions. A face dividing step for dividing the divided face area, a feature amount calculating step for calculating a predetermined feature amount based on a luminance value of each pixel included in the divided face area, and the divided face area for each of the divided face areas A determination step for determining an incident direction of light on the face based on a feature amount, a pupil selection step for selecting a pupil from the face, and a catch light area for the pupil based on the incident direction of the light. And a correction step of performing correction for changing the luminance of the catchlight area and outputting a catchlight-equipped pupil.

ここでのキャッチライトは、図6Bに示すように、キャッチライトエリア50a、及び/または、キャッチライトスポット50bである。キャッチライトエリア50aは、瞳の虹彩に光が回り込んだように瞳が明るくなっている部分であり、一定の広がりを持つ。キャッチライトスポット50bは、照明光によって、瞳に入る白色の部分であり、円形等、まとまった形状を持つ。また、ここでの瞳は、目の黒目の部分を指す。
一般に、キャッチライトが入る位置は光の入射方向によって決まり、キャッチライトエリアは、瞳の中心に対し光の入射方向と対称の方向に入る。従って、上記特徴構成の如く、光の入射方向に基づいてキャッチライトエリアを設定することで、キャッチライトエリアを瞳の自然な位置に入れることができ、人物の印象を良好にして画像の価値を高めることができる。更に、上記特徴構成によれば、光の入射方向にある分割顔領域の輝度が明るくなることから、分割顔領域毎に輝度値に基づいた特徴量を算出することで、光の入射方向を適切に判定することができる。
The catchlight here is a catchlight area 50a and / or a catchlight spot 50b as shown in FIG. 6B. The catchlight area 50a is a portion where the pupil is bright as if the light wraps around the iris of the pupil, and has a certain spread. The catchlight spot 50b is a white portion that enters the pupil by illumination light, and has a uniform shape such as a circle. The pupil here refers to the black eye part of the eye.
Generally, the position where the catch light enters is determined by the incident direction of light, and the catch light area enters a direction symmetrical to the incident direction of light with respect to the center of the pupil. Therefore, by setting the catchlight area based on the incident direction of light as in the above feature configuration, the catchlight area can be placed in the natural position of the pupil, and the value of the image can be improved by improving the impression of the person. Can be increased. Further, according to the above feature configuration, the brightness of the divided face area in the light incident direction becomes brighter. Therefore, by calculating the feature amount based on the luminance value for each divided face area, the light incident direction is appropriately set. Can be determined.

この目的を達成するための本発明に係るキャッチライト合成方法の他の特徴構成は、前記瞳選択ステップにおいて選択された前記瞳から、所定の認定条件に基づいてキャッチライトスポットを検出するキャッチライトスポット検出ステップを有し、前記補正ステップが、前記キャッチライトスポット検出ステップにおいて前記キャッチライトスポットが検出された場合に、検出された前記キャッチライトスポットの周辺に、前記キャッチライトエリアを設定する点にある。
即ち、上記特徴構成によれば、瞳にキャッチライトスポットが既に入っている場合に、キャッチライトスポットに重ならない状態でキャッチライトエリアを設定するので、より適切に、キャッチライトを自然な状態に瞳に入れることができる。
To achieve this object, another feature configuration of the catchlight combining method according to the present invention is to detect a catchlight spot from the pupil selected in the pupil selection step based on a predetermined recognition condition. A detection step, and the correction step is to set the catchlight area around the detected catchlight spot when the catchlight spot is detected in the catchlight spot detection step. .
In other words, according to the above-described feature configuration, when the catchlight spot is already in the pupil, the catchlight area is set so as not to overlap the catchlight spot. Can be put in.

また、本発明は、上述したキャッチライト合成方法をコンピュータに実行させるプログラムやそのプログラムを記録した媒体も権利の対象とするものであり、そのようなキャッチライト合成プログラムは、前記画像から顔を選択する顔選択機能と、前記顔を所定数の分割顔領域に分割する顔分割機能と、前記分割顔領域毎に、前記分割顔領域に含まれる各画素の輝度値に基づいて所定の特徴量を算出する特徴量算出機能と、前記分割顔領域夫々の前記特徴量に基づき、前記顔への光の入射方向を判定する判定機能と、前記顔から瞳を選択する瞳選択機能と、前記光の入射方向に基づいて、前記瞳にキャッチライトエリアを設定し、前記キャッチライトエリアの輝度を変更する補正を行い、キャッチライト付瞳を出力する補正機能とを備えている。当然ながら、このようなキャッチライト合成プログラムも上述したキャッチライト合成方法におけるすべての作用効果を得ることができる。また、キャッチライト合成方法において記載した従属項に係る機能をキャッチライト合成プログラムに追加するのも好適である。   The present invention also covers a program for causing a computer to execute the catchlight composition method described above and a medium on which the program is recorded. Such a catchlight composition program selects a face from the image. A face selection function for dividing the face into a predetermined number of divided face areas, and a predetermined feature amount for each divided face area based on a luminance value of each pixel included in the divided face area. A feature amount calculation function to be calculated; a determination function that determines the direction of light incident on the face based on the feature amount of each of the divided face regions; a pupil selection function that selects a pupil from the face; A correction function for setting a catch light area on the pupil based on the incident direction, performing a correction for changing the luminance of the catch light area, and outputting a pupil with a catch light. . Naturally, such a catchlight synthesis program can also obtain all the effects of the catchlight synthesis method described above. It is also preferable to add the function according to the dependent claim described in the catchlight synthesis method to the catchlight synthesis program.

本発明では、更に、上述したキャッチライト合成方法を実施するキャッチライト合成装置も権利の対象としており、そのようなキャッチライト合成装置は、前記画像から顔を選択する顔選択部と、前記顔を所定数の分割顔領域に分割する顔分割部と、前記分割顔領域毎に、前記分割顔領域に含まれる各画素の輝度値に基づいて所定の特徴量を算出する特徴量算出部と、前記分割顔領域夫々の前記特徴量に基づき、前記顔への光の入射方向を判定する判定部と、前記顔から瞳を選択する瞳選択部と、前記光の入射方向に基づいて、前記瞳にキャッチライトエリアを設定し、前記キャッチライトエリアの輝度を変更する補正を行い、キャッチライト付瞳を出力する補正部とを備えている。当然ながら、このようなキャッチライト合成装置も上述したキャッチライト合成方法におけるすべての作用効果を得ることができる。また、キャッチライト合成方法において記載した従属項に係る構成をキャッチライト合成装置に追加するのも好適である。
本発明によるその他の特徴及び利点は、以下図面を用いた実施形態の説明により明らかになるだろう。
In the present invention, a catchlight combining device that performs the above-described catchlight combining method is also subject to rights, and such a catchlight combining device includes a face selection unit that selects a face from the image, and the face. A face dividing unit that divides into a predetermined number of divided face regions; a feature amount calculating unit that calculates a predetermined feature amount for each of the divided face regions based on a luminance value of each pixel included in the divided face region; Based on the feature amount of each of the divided face regions, a determination unit that determines an incident direction of light on the face, a pupil selection unit that selects a pupil from the face, and an entrance direction of the light based on the incident direction of the light. A correction unit that sets a catchlight area, performs correction to change the luminance of the catchlight area, and outputs a pupil with catchlight. Naturally, such a catchlight synthesizing apparatus can also obtain all the effects of the catchlight synthesizing method described above. It is also preferable to add the configuration according to the dependent claim described in the catchlight composition method to the catchlight composition apparatus.
Other features and advantages of the present invention will become apparent from the following description of embodiments using the drawings.

以下、本発明に係るキャッチライト合成技術の実施形態を図面に基づいて説明する。
図1は、本発明に係る写真プリント装置の外観図であり、この写真プリント装置は、印画紙Pに対して露光処理と現像処理とを行う写真プリンタとしてのプリントステーション1Bと、現像済み写真フィルム2aやデジタルカメラ用メモリカード2b等の画像入力メディアから取り込んだ撮影画像を処理してプリントステーション1Bで使用されるプリントデータの生成・転送等を行う操作ステーション1Aとから構成されている。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of catchlight synthesis technology according to the present invention will be described with reference to the drawings.
FIG. 1 is an external view of a photographic printing apparatus according to the present invention. This photographic printing apparatus includes a printing station 1B as a photographic printer that performs exposure processing and development processing on photographic paper P, and a developed photographic film. 2A, an operation station 1A that processes a captured image taken from an image input medium such as a digital camera memory card 2b and generates / transfers print data used in the print station 1B.

この写真プリント装置はデジタルミニラボとも称せられるものであり、図2からよく理解できるように、プリントステーション1Bは2つの印画紙マガジン11に納めたロール状の印画紙Pを引き出してシートカッター12でプリントサイズに切断すると共に、このように切断された印画紙Pに対し、バックプリント部13で色補正情報やコマ番号などのプリント処理情報を印画紙Pの裏面に印字するとともに、プリント露光部14で印画紙Pの表面(感光面)に撮影画像の露光を行い、この露光後の印画紙Pを複数の現像処理槽を有した処理槽ユニット15に送り込んで現像処理する。乾燥の後に装置上部の横送りコンベア16からソータ17に送られた印画紙P、つまり写真プリントPは、このソータ17の複数のトレイにオーダ単位で仕分けられた状態で集積される(図1参照)。   This photo printing apparatus is also called a digital minilab. As can be understood from FIG. 2, the printing station 1B pulls out the roll-shaped printing paper P stored in the two printing paper magazines 11 and prints it with the sheet cutter 12. The back print unit 13 prints print processing information such as color correction information and frame number on the back side of the photographic paper P, and the print exposure unit 14 cuts the print paper P into the size. The photographed image is exposed on the surface (photosensitive surface) of the photographic paper P, and the exposed photographic paper P is sent to a processing tank unit 15 having a plurality of development processing tanks for development processing. After drying, the photographic paper P, that is, the photographic prints P, sent to the sorter 17 from the transverse feed conveyor 16 at the upper part of the apparatus is accumulated in a plurality of trays of the sorter 17 in a state of being sorted in order units (see FIG. 1). ).

上述した印画紙Pに対する各種処理に合わせた搬送速度で印画紙Pを搬送するために印画紙搬送機構18が敷設されている。印画紙搬送機構18は、印画紙搬送方向に関してプリント露光部14の前後に配置されたチャッカー式印画紙搬送ユニット18aを含む複数の挟持搬送ローラ対から構成されている。   A photographic paper transport mechanism 18 is laid to transport the photographic paper P at a transport speed in accordance with various processes for the photographic paper P described above. The photographic paper transport mechanism 18 is composed of a plurality of nipping and transporting roller pairs including a chucker type photographic paper transport unit 18a disposed before and after the print exposure unit 14 in the photographic paper transport direction.

プリント露光部14には、副走査方向に搬送される印画紙Pに対して、主走査方向に沿って操作ステーション1Aからのプリントデータに基づいてR(赤)、G(緑)、B(青)の3原色のレーザ光線の照射を行うライン露光ヘッドが設けられている。処理槽ユニット15は、発色現像処理液を貯留する発色現像槽15aと、漂白定着処理液を貯留する漂白定着槽15bと、安定処理液を貯留する安定槽15cを備えている。   The print exposure unit 14 applies R (red), G (green), and B (blue) to the printing paper P conveyed in the sub-scanning direction based on print data from the operation station 1A along the main scanning direction. A line exposure head for irradiating laser beams of the three primary colors (1) is provided. The processing tank unit 15 includes a color developing tank 15a for storing a color developing processing liquid, a bleach-fixing tank 15b for storing a bleach-fixing processing liquid, and a stabilizing tank 15c for storing a stable processing liquid.

操作ステーション1Aのデスク状コンソールの上部位置には、写真フィルム2aの撮影画像コマから撮影画像を2000dpiを超える解像度でもって取得することができるフィルムスキャナ20が配置されており、デジタルカメラ等に装着される撮影画像記録媒体2bとして用いられている各種半導体メモリやCD−R等から撮影画像を取得するメディアリーダ21は、この写真プリント装置のコントローラ3として機能する汎用パソコンに組み込まれている。この汎用パソコンには、更に各種情報を表示するモニタ23、各種設定や調整を行う際に用いる操作入力部として利用される操作入力デバイスとしてのキーボード24やマウス25も接続されている。   At the upper position of the desk-like console of the operation station 1A, there is disposed a film scanner 20 capable of acquiring a photographed image from a photographed image frame of the photographic film 2a with a resolution exceeding 2000 dpi, and is attached to a digital camera or the like. A media reader 21 that acquires captured images from various semiconductor memories, CD-Rs, and the like used as the captured image recording medium 2b is incorporated in a general-purpose personal computer that functions as the controller 3 of the photographic printing apparatus. The general-purpose personal computer is also connected with a monitor 23 for displaying various information, and a keyboard 24 and a mouse 25 as operation input devices used as operation input units used for various settings and adjustments.

この写真プリント装置のコントローラ3は、CPUを中核部材として、写真プリント装置の種々の動作を行うための機能部をハードウエア又はソフトウエアあるいはその両方で構築しているが、図3に示すように、本発明に特に関係する機能部としては、フィルムスキャナ20やメディアリーダ21によって読み取られた撮影画像を取り込んで次の処理のために必要な前処理を行う画像入力部31と、各種ウインドウや各種操作ボタン等を含むグラフィック操作画面の作成やそのようなグラフィック操作画面を通じてのユーザ操作入力(キーボード24やマウス25などによる)から制御コマンドを生成するグラフィックユーザインターフェース(以下GUIと略称する)を構築するGUI部33と、GUI部33から送られてきた制御コマンドや直接キーボード24等から入力された操作命令に基づいて所望のプリントデータを生成するために画像入力部31からメモリ30に転送された撮影画像に対する画像処理等を行うプリント管理部32と、色補正等のプレジャッジプリント作業時にプリントソース画像や予想仕上がりプリント画像としてのシミュレート画像さらにはGUI部33から送られてきたグラフィックデータをモニタ23に表示させるためのビデオ信号を生成するビデオ制御部35と、画像処理が完了した処理済み撮影画像に基づいてプリントステーション1Bに装備されているプリント露光部14に適したプリントデータを生成するプリントデータ生成部36と、顧客の要望に応じて生の撮影画像や画像処理が完了した処理済み撮影画像等をCD−Rに書き込むための形式にフォーマットするフォーマッタ部37等が挙げられる。   The controller 3 of this photographic printing apparatus has a functional unit for performing various operations of the photographic printing apparatus using hardware and / or software, with the CPU as a core member, as shown in FIG. The function unit particularly related to the present invention includes an image input unit 31 that takes a photographed image read by the film scanner 20 or the media reader 21 and performs pre-processing necessary for the next processing, various windows, and various types. Creation of a graphic operation screen including operation buttons and the like and construction of a graphic user interface (hereinafter abbreviated as GUI) for generating a control command from a user operation input (via the keyboard 24, mouse 25, etc.) through such a graphic operation screen GUI unit 33 and control frames sent from GUI unit 33 A print management unit 32 that performs image processing on the captured image transferred from the image input unit 31 to the memory 30 in order to generate desired print data based on an operation command input directly from the keyboard 24 or the like; A video control unit 35 that generates a video signal for causing the monitor 23 to display graphic data sent from the GUI unit 33, or a simulated image as a print source image, an expected finished print image, or the like during pre-judge printing work such as correction. A print data generation unit 36 that generates print data suitable for the print exposure unit 14 installed in the print station 1B based on the processed captured image that has been subjected to image processing, and a raw capture according to the customer's request Write images and processed shots that have been processed to CD-R Etc. formatter 37 for formatting the like to form for.

画像入力部31は、撮影画像記録媒体がフィルム2aの場合プレスキャンモードと本スキャンモードとのスキャンデータを別々にメモリ30に送り込み、それぞれの目的に合わせた前処理を行う。また、撮影画像記録媒体がメモリカード2bの場合取り込んだ撮影画像にサムネイル(低解像度データ)が含まれている場合はモニタ23での一覧表示などの目的で使用するため撮影画像の本データ(高解像度データ)とは別にメモリ30に送り込むが、もしサムネイルが含まれていない場合は本データから縮小画像を作り出してサムネイルとしてメモリ30に送り込む。   When the photographic image recording medium is the film 2a, the image input unit 31 separately sends the scan data for the pre-scan mode and the main scan mode to the memory 30, and performs preprocessing according to each purpose. When the captured image recording medium is the memory card 2b, when the captured image includes thumbnails (low resolution data), the captured image main data (high data) is used for the purpose of displaying a list on the monitor 23. The thumbnail image is sent to the memory 30 separately from the resolution data. If a thumbnail is not included, a reduced image is created from this data and sent to the memory 30 as a thumbnail.

プリント管理部32は、プリントサイズやプリント枚数などを管理するプリント注文処理ユニット60、メモリ30に展開された撮影画像に対して各種画像処理を施す画像処理ユニット70、画像の瞳にキャッチライトを合成するキャッチライト合成手段80、及び、濃度補正や解像度変換などのフォトレタッチ機能を実現する手段等が含まれている。キャッチライト合成手段80は、プログラムとしてプリント管理部32に実装されている。   The print management unit 32, a print order processing unit 60 that manages the print size, the number of prints, and the like, an image processing unit 70 that performs various image processing on the photographed image developed in the memory 30, and a catch light in the pupil of the image Catch light combining means 80, and means for realizing a photo retouch function such as density correction and resolution conversion. The catchlight combining unit 80 is installed in the print management unit 32 as a program.

キャッチライト合成手段80は、図4に示すように、入力部81、顔選択部82、顔分割部84、特徴量算出部85、判定部86、瞳選択部87、補正部88及び出力部89を備えている。尚、本実施形態では、顔分割部84、特徴量算出部85及び判定部86が、顔への光の入射方向を判定する光入射方向判定手段83を構成している。光入射方向判定手段83により、顔への光の入射方向に基づいてキャッチライトを合成することで、補正後の瞳を自然なものとすることができ、更に、自動的に光の入射方向を算出することから、キャッチライトの合成にかかる手間及び時間を省力化できる。   As shown in FIG. 4, the catchlight combining unit 80 includes an input unit 81, a face selection unit 82, a face division unit 84, a feature amount calculation unit 85, a determination unit 86, a pupil selection unit 87, a correction unit 88, and an output unit 89. It has. In this embodiment, the face dividing unit 84, the feature amount calculating unit 85, and the determining unit 86 constitute a light incident direction determining unit 83 that determines the incident direction of light on the face. By combining the catch light based on the light incident direction on the face by the light incident direction determining means 83, the corrected pupil can be made natural, and the light incident direction can be automatically determined. Since it is calculated, labor and time required for catchlight synthesis can be saved.

顔選択部82は、画像から顔を選択する顔選択ステップを行う処理部であり、顔分割部84は、顔を所定数の分割顔領域に分割する顔分割ステップを行う処理部であり、特徴量算出部85は、分割顔領域毎に、分割顔領域に含まれる各画素の輝度値に基づいて所定の特徴量を算出する特徴量算出ステップを行う処理部であり、判定部86は、分割顔領域夫々の特徴量に基づき、顔への光の入射方向を判定する判定ステップを行う処理部であり、瞳選択部87は、顔から瞳を選択する瞳選択ステップを行う処理部であり、補正部88は、光の入射方向に基づいて、瞳にキャッチライトエリア50aを設定し、キャッチライトエリア50aの輝度を変更する補正を行い、キャッチライト付瞳を出力する補正ステップを行う処理部である。   The face selection unit 82 is a processing unit that performs a face selection step of selecting a face from an image, and the face division unit 84 is a processing unit that performs a face division step of dividing a face into a predetermined number of divided face regions. The amount calculation unit 85 is a processing unit that performs a feature amount calculation step for calculating a predetermined feature amount based on the luminance value of each pixel included in the divided face region for each divided face region. A processing unit that performs a determination step of determining the incident direction of light on the face based on the feature amount of each face area, and a pupil selection unit 87 is a processing unit that performs a pupil selection step of selecting a pupil from the face, The correction unit 88 is a processing unit that performs a correction step of setting the catch light area 50a in the pupil based on the incident direction of light, changing the luminance of the catch light area 50a, and outputting the catch light pupil. is there.

次に、このように構成されたキャッチライト合成手段80のキャッチライト合成処理手順を図4乃至図6に基づいて説明する。ここでのキャッチライト50は、図6Bに示すように、三日月形状のキャッチライトエリア50a、及び、円形のキャッチライトスポット50bである。キャッチライト合成手段80によるキャッチライト50の合成処理に先立って、フィルムスキャナ20やメディアリーダ21を通じて撮影画像、詳しくは撮影画像のデジタル画像データが取り込まれ、メモリ30に展開される。尚、ここでのデジタル画像データは、後の加工処理のためにビットマップ形式でメモリ30に記憶される。   Next, the catch light composition processing procedure of the catch light composition means 80 configured as described above will be described with reference to FIGS. The catchlight 50 here is, as shown in FIG. 6B, a crescent-shaped catchlight area 50a and a circular catchlight spot 50b. Prior to synthesizing the catchlight 50 by the catchlight synthesizing unit 80, a photographed image, specifically digital image data of the photographed image, is captured through the film scanner 20 and the media reader 21 and developed in the memory 30. The digital image data here is stored in the memory 30 in a bitmap format for later processing.

入力部81は、キーボード24若しくはマウス25等のポインティングデバイスからの入力操作に基づいて、メモリ30から瞳の補正を行う画像を読み込む(ステップ#101)。更に、キャッチライト合成手段80は、入力部81による画像の読み込みの際にモニタ23に読み込んだ画像を表示する。   The input unit 81 reads an image for pupil correction from the memory 30 based on an input operation from a pointing device such as the keyboard 24 or the mouse 25 (step # 101). Further, the catchlight combining means 80 displays the read image on the monitor 23 when the input unit 81 reads the image.

顔選択部82は、入力部81から画像を受取り、この画像から顔を検出する(ステップ#102)。ここでは、キーボード24若しくはマウス25からの入力操作に基づいて顔を検出する。尚、後述する特徴量算出部85において肌画素の平均輝度値を求めることから、ここで検出する顔は、肌画素であり、白眼及び瞳を含む目や口等は除かれる。詳細には、例えば、RGB3原色の輝度値の範囲を規定した肌色画素認定条件に従って肌画素候補を検出し、検出した各肌画素候補の連続性を求め、所定の範囲以上連続分布している肌画素候補群を肌画素として認定する。   The face selection unit 82 receives an image from the input unit 81 and detects a face from this image (step # 102). Here, the face is detected based on an input operation from the keyboard 24 or the mouse 25. Note that since an average luminance value of skin pixels is obtained by a feature amount calculation unit 85 described later, the face detected here is a skin pixel, and eyes, mouths, and the like including white eyes and pupils are excluded. Specifically, for example, skin pixel candidates are detected in accordance with skin color pixel recognition conditions that define a range of luminance values of RGB three primary colors, the continuity of each detected skin pixel candidate is obtained, and skin that is continuously distributed over a predetermined range The pixel candidate group is certified as a skin pixel.

続いて、キャッチライト合成手段80は、画像の顔への光の入射方向を求める。
詳細には、先ず、顔分割部84が、顔選択部82によって検出された顔を所定数の分割顔領域に分割する(ステップ#103)。ここで、光の入射方向が顔の下方向であることは少ないと考えられることから、本実施形態では、光の入射方向が顔の右寄り若しくは左寄りのいずれかであるとみなして、顔を左右の2つの分割顔領域に分割する。尚、分割顔領域の数は、2つに限られず、画像の人物の大きさや解像度、画像の用途等を考慮して適宜適切な数を設定する。更に、分割顔領域は、例えば、顔の中心を基準に放射状に分割する等、光の入射方向を判定可能となるように設定し、分割顔領域の一部が重複設定されても良い。
Subsequently, the catch light combining unit 80 obtains the incident direction of light on the face of the image.
Specifically, first, the face dividing unit 84 divides the face detected by the face selecting unit 82 into a predetermined number of divided face regions (step # 103). Here, since it is unlikely that the incident direction of light is the downward direction of the face, in the present embodiment, it is assumed that the incident direction of light is either the right side or the left side of the face, and the face is Are divided into two divided face regions. Note that the number of divided face regions is not limited to two, and an appropriate number is set in consideration of the size and resolution of the person in the image, the purpose of the image, and the like. Further, the divided face area may be set so that the incident direction of light can be determined, for example, by dividing the face in a radial manner with respect to the center of the face, and a part of the divided face area may be set to overlap.

特徴量算出部85は、顔分割部84によって分割された分割顔領域毎に、特徴量を算出する(ステップ#104)。ここでの特徴量は、分割領域毎の肌画素の平均輝度値である。顔分割部84によって分割された左側分割顔領域及び右側分割顔領域の夫々の肌画素の平均輝度値を算出する。尚、特徴量は、平均輝度値に限られない。肌画素の重心や、輝度値のピーク、輝度分布等をパラメータとして設定若しくは追加するように構成するのも好ましい実施態様である。   The feature amount calculation unit 85 calculates a feature amount for each divided face area divided by the face division unit 84 (step # 104). The feature amount here is an average luminance value of the skin pixels for each divided region. The average luminance value of each skin pixel of the left divided face area and the right divided face area divided by the face dividing unit 84 is calculated. Note that the feature amount is not limited to the average luminance value. It is also a preferred embodiment that the centroid of the skin pixel, the peak of the luminance value, the luminance distribution, etc. are set or added as parameters.

判定部86は、分割顔領域夫々の特徴量に基づき、顔への光の入射方向を判定する(ステップ#105)。詳細には、左側分割顔領域及び右側分割顔領域の平均輝度値を比較し、平均輝度値が大きい分割顔領域がある側を光の入射方向として判定する。   The determination unit 86 determines the incident direction of light on the face based on the feature amount of each divided face area (step # 105). Specifically, the average luminance values of the left divided face region and the right divided face region are compared, and the side having the divided face region having a large average luminance value is determined as the light incident direction.

瞳選択部87は、顔から瞳を選択する(ステップ#106)。ここでは、利用者がキーボード24若しくはマウス25によってモニタ23に表示された画像上で瞳を含む領域を指定する構成とする。そして、所定の黒色画素認定条件に基づいて、指定された領域内の黒色画素を検出し、黒色画素の連続性を判定し、所定の範囲以上連続分布している黒色画素群であって、外形が略円形とみなせるものを瞳として認定する。尚、補正前の画像の瞳に既にキャッチライトスポット50bが入っている場合にもキャッチライトエリア50aを入れることが可能になるように、黒色画素群の間に白色画素等が含まれる場合であっても瞳として検出するように構成する。   The pupil selection unit 87 selects a pupil from the face (step # 106). Here, the user designates an area including the pupil on the image displayed on the monitor 23 by the keyboard 24 or the mouse 25. A black pixel group that detects black pixels in a specified area based on a predetermined black pixel recognition condition, determines the continuity of the black pixels, and is continuously distributed over a predetermined range, Those that can be considered to be approximately circular are recognized as pupils. This is a case where white pixels are included between the black pixel groups so that the catchlight area 50a can be inserted even when the catchlight spot 50b is already in the pupil of the image before correction. However, it is configured to detect as a pupil.

更に、瞳選択部87は、瞳からキャッチライトスポット50bを検出する(ステップ#107)。具体的には、瞳として認定した黒色画素群によって囲まれる領域から、所定の白色画素認定条件に基づき白色画素を検出し、所定の範囲以上連続分布している白色画素をキャッチライトスポット50bとして認定する。   Further, the pupil selection unit 87 detects the catch light spot 50b from the pupil (step # 107). Specifically, white pixels are detected from a region surrounded by a black pixel group certified as a pupil based on a predetermined white pixel certification condition, and white pixels continuously distributed over a predetermined range are certified as catchlight spots 50b. To do.

補正部88は、瞳選択部87においてキャッチライトスポット50bが検出されなかった場合(ステップ#108でNo分岐)には、光の入射方向に基づいてキャッチライトエリア50aを設定する(ステップ#109)。例えば、光の入射方向が、顔の右側である場合には瞳の左下側に、顔の左側である場合には瞳の右下側にキャッチライトエリア50aを配置する。キャッチライトエリア50aは、予め三日月状の形状が設定されており、瞳の大きさに応じて大きさを調整する。更に、キャッチライトエリア50aの重心方向が、光の入射方向の反対方向となるように方向を設定する。尚、キャッチライトエリア50aの形状は、予め用意されている所定の形状から選択する構成や、直接入力する構成、メモリ等の外部記憶装置から選択する構成とするのも好適である。   When the catch light spot 50b is not detected by the pupil selection unit 87 (No branch at step # 108), the correction unit 88 sets the catch light area 50a based on the light incident direction (step # 109). . For example, when the light incident direction is the right side of the face, the catch light area 50a is arranged on the lower left side of the pupil, and when it is on the left side of the face, the catch light area 50a is arranged on the lower right side of the pupil. The catch light area 50a has a crescent shape in advance, and adjusts the size according to the size of the pupil. Further, the direction is set so that the direction of the center of gravity of the catchlight area 50a is opposite to the light incident direction. The shape of the catchlight area 50a is preferably selected from a predetermined shape prepared in advance, directly input, or selected from an external storage device such as a memory.

また、補正部88は、瞳選択部87においてキャッチライトスポット50bが検出された場合(ステップ#108でYes分岐)には、キャッチライトスポット50bにキャッチライトエリア50aが重ならないように、キャッチライトスポット50bの周辺にキャッチライトエリア50aを設定する(ステップ#110)。詳細には、例えば、光の入射方向が、顔の右側である場合にはキャッチライトスポット50bの左下側に、顔の左側である場合にはキャッチライトスポット50bの右下側にキャッチライトエリア50aを配置する。キャッチライトエリア50aの形状、大きさ及び向きについてはステップ#109と同様に調整する。   When the catch light spot 50b is detected by the pupil selection unit 87 (Yes in step # 108), the correction unit 88 catches the catch light spot 50b so that the catch light area 50a does not overlap the catch light spot 50b. A catch light area 50a is set around 50b (step # 110). Specifically, for example, when the incident direction of light is the right side of the face, the catchlight area 50a is located on the lower left side of the catchlight spot 50b, and when the incident direction is the left side of the face, the catchlight area 50a is located on the lower right side of the catchlight spot 50b. Place. The shape, size and orientation of the catch light area 50a are adjusted in the same manner as in step # 109.

続いて、補正部88は、設定したキャッチライトエリア50aの輝度を変更する(ステップ#111)。ここでは、瞳の虹彩に僅かに残っている色の情報を明るくするために、キャッチライトエリア50a内の画素の輝度値を10%大きくする補正を行う。   Subsequently, the correction unit 88 changes the luminance of the set catchlight area 50a (step # 111). Here, in order to brighten the color information slightly remaining in the iris of the pupil, correction is performed to increase the luminance value of the pixels in the catchlight area 50a by 10%.

出力部89は、このようにして補正したキャッチライト付瞳を画像に合成し、メモリ30に出力する(ステップ#112)。更に、仕上がりを確認できるように、キャッチライト付瞳を合成した補正画像をモニタ23に表示する。   The output unit 89 synthesizes the pupil with the catch light corrected in this way into an image and outputs it to the memory 30 (step # 112). Further, a corrected image obtained by synthesizing the catch-lit pupil is displayed on the monitor 23 so that the finish can be confirmed.

図6は、合成処理前の瞳の画像Aと、キャッチライト付瞳を合成した補正画像Bとを示している。画像Aと比較して、補正画像Bは瞳の印象が良好なものとなっており、本発明に係るキャッチライト合成技術を用いることで、画像の価値を高めることができる。   FIG. 6 shows an image A of the pupil before the synthesis process and a corrected image B obtained by synthesizing the catch-lit pupil. Compared with the image A, the corrected image B has a better pupil impression, and the value of the image can be increased by using the catchlight combining technique according to the present invention.

尚、本発明に係るキャッチライト合成技術は、人物だけでなく、動物の瞳に対しても適用することが可能である。更に、上記実施形態では写真プリント装置に適用したが、これに限られず、PC(Personal Computer)等のアプリケーションプログラムとして利用することも有用である。この場合には、顔選択部82や瞳選択部87を、既知の手段、例えば、ASP(Application Service Provider)等をネットワークを介して利用する構成としても良い。   The catchlight synthesis technique according to the present invention can be applied not only to a person but also to an animal pupil. Furthermore, in the above-described embodiment, the present invention is applied to a photographic printing apparatus. In this case, the face selection unit 82 and the pupil selection unit 87 may be configured to use known means such as an ASP (Application Service Provider) via a network.

本発明に係るキャッチライト合成技術を採用した写真プリント装置の外観図External view of photographic printing apparatus employing catchlight synthesis technology according to the present invention 写真プリント装置のプリントステーションの構成を示す模式図Schematic diagram showing the configuration of the print station of the photo printing device 写真プリント装置のコントローラ内に構築される機能要素を説明する機能ブロック図Functional block diagram explaining the functional elements built in the controller of the photo printing device 本発明に係るキャッチライト合成手段の構成を示す機能ブロック図Functional block diagram showing the configuration of the catch light combining means according to the present invention 本発明に係るキャッチライト合成技術の処理手順を示すフローチャートThe flowchart which shows the process sequence of the catchlight synthetic technique which concerns on this invention 本発明に係るキャッチライト合成技術による合成処理の実施前及び実施後の画像の例を示す図The figure which shows the example of the image before and after implementation of the synthetic | combination process by the catchlight synthetic | combination technique which concerns on this invention

符号の説明Explanation of symbols

50a キャッチライトエリア
50b キャッチライトスポット
80 キャッチライト合成手段
82 顔選択部
83 光入射方向判定手段
84 顔分割部
85 特徴量算出部
86 判定部
87 瞳選択部
88 補正部
50a Catchlight area 50b Catchlight spot 80 Catchlight combining means 82 Face selection section 83 Light incident direction determination means 84 Face segmentation section 85 Feature quantity calculation section 86 Determination section 87 Eye selection section 88 Correction section

Claims (4)

画像の瞳にキャッチライトを合成するキャッチライト合成方法において、
前記画像から顔を選択する顔選択ステップと、
前記顔を所定数の分割顔領域に分割する顔分割ステップと、
前記分割顔領域毎に、前記分割顔領域に含まれる各画素の輝度値に基づいて所定の特徴量を算出する特徴量算出ステップと、
前記分割顔領域夫々の前記特徴量に基づき、前記顔への光の入射方向を判定する判定ステップと、
前記顔から瞳を選択する瞳選択ステップと、
前記光の入射方向に基づいて、前記瞳にキャッチライトエリアを設定し、前記キャッチライトエリアの輝度を変更する補正を行い、キャッチライト付瞳を出力する補正ステップとから構成されていることを特徴とするキャッチライト合成方法。
In the catch light synthesis method that synthesizes the catch light with the pupil of the image,
A face selection step of selecting a face from the image;
A face dividing step of dividing the face into a predetermined number of divided face regions;
A feature amount calculating step for calculating a predetermined feature amount based on a luminance value of each pixel included in the divided face region for each of the divided face regions;
A determination step of determining an incident direction of light on the face based on the feature amount of each of the divided face regions;
A pupil selection step of selecting a pupil from the face;
Based on the incident direction of the light, a catch light area is set in the pupil, a correction for changing the brightness of the catch light area is performed, and a correction step for outputting a catch light pupil is configured. Catch light synthesis method.
前記瞳選択ステップにおいて選択された前記瞳から、所定の認定条件に基づいてキャッチライトスポットを検出するキャッチライトスポット検出ステップを有し、
前記補正ステップが、前記キャッチライトスポット検出ステップにおいて前記キャッチライトスポットが検出された場合に、検出された前記キャッチライトスポットの周辺に、前記キャッチライトエリアを設定することを特徴とする請求項1に記載のキャッチライト合成方法。
From the pupil selected in the pupil selection step, it has a catch light spot detection step for detecting a catch light spot based on a predetermined certification condition,
The said correction step sets the said catchlight area around the said detected catchlight spot when the said catchlight spot is detected in the said catchlight spot detection step. The catchlight synthesis method described.
画像の瞳にキャッチライトを合成するキャッチライト合成プログラムにおいて、
前記画像から顔を選択する顔選択機能と、
前記顔を所定数の分割顔領域に分割する顔分割機能と、
前記分割顔領域毎に、前記分割顔領域に含まれる各画素の輝度値に基づいて所定の特徴量を算出する特徴量算出機能と、
前記分割顔領域夫々の前記特徴量に基づき、前記顔への光の入射方向を判定する判定機能と、
前記顔から瞳を選択する瞳選択機能と、
前記光の入射方向に基づいて、前記瞳にキャッチライトエリアを設定し、前記キャッチライトエリアの輝度を変更する補正を行い、キャッチライト付瞳を出力する補正機能とをコンピュータに実行させるキャッチライト合成プログラム。
In the catch light composition program that synthesizes the catch light to the pupil of the image,
A face selection function for selecting a face from the image;
A face dividing function for dividing the face into a predetermined number of divided face regions;
A feature amount calculation function for calculating a predetermined feature amount based on a luminance value of each pixel included in the divided face region for each of the divided face regions;
A determination function for determining a light incident direction on the face based on the feature amount of each of the divided face regions;
A pupil selection function for selecting a pupil from the face;
Based on the incident direction of the light, a catch light composition is set so that a catch light area is set in the pupil, the brightness of the catch light area is changed, and a correction function for outputting the catch light pupil is executed by a computer. program.
画像の瞳にキャッチライトを合成するキャッチライト合成装置において、
前記画像から顔を選択する顔選択部と、
前記顔を所定数の分割顔領域に分割する顔分割部と、
前記分割顔領域毎に、前記分割顔領域に含まれる各画素の輝度値に基づいて所定の特徴量を算出する特徴量算出部と、
前記分割顔領域夫々の前記特徴量に基づき、前記顔への光の入射方向を判定する判定部と、
前記顔から瞳を選択する瞳選択部と、
前記光の入射方向に基づいて、前記瞳にキャッチライトエリアを設定し、前記キャッチライトエリアの輝度を変更する補正を行い、キャッチライト付瞳を出力する補正部とから構成されるキャッチライト合成装置。
In the catch light synthesizer that synthesizes the catch light with the pupil of the image
A face selection unit for selecting a face from the image;
A face dividing unit for dividing the face into a predetermined number of divided face regions;
A feature amount calculating unit that calculates a predetermined feature amount based on a luminance value of each pixel included in the divided face region for each of the divided face regions;
A determination unit that determines an incident direction of light on the face based on the feature amount of each of the divided face regions;
A pupil selection unit for selecting a pupil from the face;
A catchlight synthesizing apparatus comprising: a correction unit that sets a catchlight area in the pupil based on the incident direction of the light, performs correction for changing the luminance of the catchlight area, and outputs a pupil with the catchlight .
JP2004255804A 2004-09-02 2004-09-02 Catch light composition method and device Pending JP2006072742A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004255804A JP2006072742A (en) 2004-09-02 2004-09-02 Catch light composition method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004255804A JP2006072742A (en) 2004-09-02 2004-09-02 Catch light composition method and device

Publications (1)

Publication Number Publication Date
JP2006072742A true JP2006072742A (en) 2006-03-16

Family

ID=36153300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004255804A Pending JP2006072742A (en) 2004-09-02 2004-09-02 Catch light composition method and device

Country Status (1)

Country Link
JP (1) JP2006072742A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009224994A (en) * 2008-03-14 2009-10-01 Olympus Imaging Corp Photographing apparatus, and image combining method of photographing apparatus
JP2010135996A (en) * 2008-12-03 2010-06-17 Olympus Imaging Corp Imaging apparatus, and apparatus, method and program for lighting processing

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091761A (en) * 1996-09-17 1998-04-10 Fuji Photo Film Co Ltd Picture processor
JP2000076427A (en) * 1998-06-15 2000-03-14 Fuji Photo Film Co Ltd Image processing method
JP2000134486A (en) * 1998-10-22 2000-05-12 Canon Inc Image processing unit, image processing method and storage medium
JP2002015322A (en) * 2000-06-29 2002-01-18 Nissan Motor Co Ltd Inattentive driving condition detection device
JP2005122287A (en) * 2003-10-14 2005-05-12 Fuji Photo Film Co Ltd Image processing method
JP2005222152A (en) * 2004-02-03 2005-08-18 Omron Corp Image correcting device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091761A (en) * 1996-09-17 1998-04-10 Fuji Photo Film Co Ltd Picture processor
JP2000076427A (en) * 1998-06-15 2000-03-14 Fuji Photo Film Co Ltd Image processing method
JP2000134486A (en) * 1998-10-22 2000-05-12 Canon Inc Image processing unit, image processing method and storage medium
JP2002015322A (en) * 2000-06-29 2002-01-18 Nissan Motor Co Ltd Inattentive driving condition detection device
JP2005122287A (en) * 2003-10-14 2005-05-12 Fuji Photo Film Co Ltd Image processing method
JP2005222152A (en) * 2004-02-03 2005-08-18 Omron Corp Image correcting device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009224994A (en) * 2008-03-14 2009-10-01 Olympus Imaging Corp Photographing apparatus, and image combining method of photographing apparatus
US8405713B2 (en) 2008-03-14 2013-03-26 Olympus Imaging Corp. Image pickup apparatus and image combining method of image pickup apparatus
JP2010135996A (en) * 2008-12-03 2010-06-17 Olympus Imaging Corp Imaging apparatus, and apparatus, method and program for lighting processing

Similar Documents

Publication Publication Date Title
US7298380B2 (en) Image processing method and apparatus for white eye correction
JP2005128942A (en) Method for correcting red eye and device for implementing method
JP4496465B2 (en) Red-eye correction method, program, and apparatus for implementing the method
JP2005148915A (en) Proper face discrimination method and apparatus for implementing the method
JP4798446B2 (en) Photographed image correction method and photographed image correction module
JP4507082B2 (en) Catch light synthesis method
JP2006072743A (en) Catch light composition method and device
JP4655210B2 (en) Density correction curve generation method and density correction curve generation module
JP4441853B2 (en) Face selection method for density correction and apparatus for carrying out this method
JP2005159387A (en) Method of determining density characteristic curve and density correction management apparatus for executing this method
JP4441876B2 (en) Photographed image processing method, photographed image processing program, and photographed image processing apparatus
JP2006186753A (en) Method and apparatus for processing photographic image
JP2006059162A (en) Tooth image correction method and device
JP2006072742A (en) Catch light composition method and device
JP4793648B2 (en) Image correction unit and image correction program
JP4284604B2 (en) Contrast adjustment method and contrast adjustment apparatus for implementing the method
JP2008160704A (en) Density correction curve generation method and density correction curve generation module
JP2006146646A (en) Method and apparatus for processing photographic image
JP4655211B2 (en) Generation method, generation program and generation module of correction characteristics used for contrast correction
JP2008153756A (en) Method and module for generating density correction curve
JP2008079196A (en) Image correcting method, image correcting program and image correcting module
JP2006318276A (en) Color correction processing method and color correction processing module using it
JP2006074742A (en) Photographing scene correcting method, program, and photographing scene correction processing system implementing the method
JP2008166963A (en) Image density correction method and image processing unit executing its method
JP2006301675A (en) Image processor and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100527