[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH11168620A - Image processing method, input device and record medium thereof - Google Patents

Image processing method, input device and record medium thereof

Info

Publication number
JPH11168620A
JPH11168620A JP9370320A JP37032097A JPH11168620A JP H11168620 A JPH11168620 A JP H11168620A JP 9370320 A JP9370320 A JP 9370320A JP 37032097 A JP37032097 A JP 37032097A JP H11168620 A JPH11168620 A JP H11168620A
Authority
JP
Japan
Prior art keywords
color
area
image processing
changed
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9370320A
Other languages
Japanese (ja)
Inventor
Hiromichi Enomoto
洋道 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP9370320A priority Critical patent/JPH11168620A/en
Publication of JPH11168620A publication Critical patent/JPH11168620A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily select colors by deciding candidates for a color to be change corresponding to a display image, selecting the color to be changed among the color candidates and changing a decided color change area to the selected color. SOLUTION: A user selects and input threshold TH-edge that detects a flesh- colored area by using a scroll bar B7. A computer detects a flesh colored area that does not include eyes and a mouth by using the threshold. The computer shows the detected flesh colored area. The user selects and inputs a ratio which mixes it with a color before conversion by using a scroll bar B8. Next, color to be changed is selected and inputted, a scroll bar B9 is used as a means which selects and inputs the color to be changed. The bar B9 shows candidates for colors to be changed. The computer performs processing which changes a decided color change area to a selected color, e.g., performs charge in flesh- colored.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、たとえば、デジタ
ルカメラで撮影された人物や風景等をディスプレイ上に
表示して、その顔の肌色や空の色、植物の緑等を好みの
色に変更する技術に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention displays, for example, a person or landscape photographed by a digital camera on a display and changes the skin color of the face, the color of the sky, the green color of the plant, etc. to a desired color. It relates to the technology to be performed.

【0002】[0002]

【従来の技術】デジタルカメラにより人物や風景を撮影
し、ディスプレイ上に表示することが行われている。し
かしながら、実際の撮影においては、たとえば露光光が
自然光であったり蛍光灯の光であったりするが、それに
より被写体からの反射光の状態が異なるため、撮影され
た画像情報に基づきディスプレイ上に表示された被写体
の色が、必ずしもユーザーの好みの色になるとは限らな
い。従って、被写体の色を好みの色に変更したいという
要求がある。
2. Description of the Related Art A digital camera is used to photograph a person or a landscape and display it on a display. However, in actual photographing, for example, the exposure light may be natural light or light from a fluorescent lamp. The color of the subject is not always the color desired by the user. Therefore, there is a demand to change the color of the subject to a desired color.

【0003】[0003]

【発明が解決しようとする課題】ここで、人物の顔を撮
影した場合を例に取ると、その肌色を好みの色に変換す
るためには、まず肌色領域を抽出し、変換する肌色の候
補を表示し、その中から好みの肌色を選択して変換する
というステップが必要である。肌色を変更することに関
しては、従来、特開平8−153197号に記載されて
いるように、人物の画像から自動的に肌色を検出する技
術が研究されている。しかし、撮影されたシーンにより
顔の肌色は異なり、また同一の顔においても光と陰の関
係から左右で肌色が大きく異なる場合もあり、従って肌
色領域の抽出精度をあげることは難しく、撮影された顔
の色によっては細かく領域分けが必要になる等、複雑な
計算を必要としていた。
Here, taking a case where a person's face is photographed as an example, in order to convert the skin color to a desired color, a skin color region is first extracted, and a candidate skin color to be converted is obtained. Is displayed, and a desired skin color is selected and converted from the display. As for changing the skin color, a technique for automatically detecting the skin color from a human image has been studied, as described in Japanese Patent Application Laid-Open No. 8-153197. However, the skin color of the face differs depending on the scene being photographed, and even in the same face, the skin color may be significantly different between the left and right due to the relationship between light and shade, so it is difficult to improve the extraction accuracy of the skin color region, and the photograph was taken. Complicated calculations were required, for example, depending on the color of the face, fine segmentation was required.

【0004】また、ディスプレイ上に、撮影された顔と
ともに、肌色の候補を表示するカラーパレットを表示
し、表示された複数の色の中から好みの色をユーザーが
指定することにより、その色に肌色を変更する従来技術
もある。しかしながら、一般的にカラーパレットには不
要な色が含まれていることが多いため、ユーザーが選択
しにくいという問題がある。一方、選択しやすくするた
めに色の候補を少なくすると、好みの色が選べない場合
が生ずる。更に、好みの肌色を選択して変換するステッ
プでは、変換する前の色とある割合でミックスすること
が多いが、この割合をユーザー側で任意に選択すること
ができないという問題もある。
[0004] Further, a color palette displaying skin color candidates is displayed on the display together with the photographed face, and a user designates a desired color from a plurality of displayed colors. There are also conventional techniques for changing skin color. However, in general, unnecessary colors are often included in the color palette, so that there is a problem that it is difficult for the user to select. On the other hand, if the number of color candidates is reduced to facilitate selection, a desired color may not be selected. Furthermore, in the step of selecting and converting a desired skin color, the color before conversion is often mixed at a certain ratio, but there is a problem that the user cannot arbitrarily select this ratio.

【0005】更に従来技術によれば、ユーザーが、上記
の処置をディスプレイに表示されたダイアログボックス
上でプレビュー画像を表示して、画像を見ながらパラメ
ータを調整する場合が多いが、すべてのステップを単一
のダイアログボックス上で行うために、パラメータが多
くなり、ユーザーの使い勝手が悪くなるという問題も生
じている。
Further, according to the prior art, a user often displays a preview image on a dialog box displayed on a display and adjusts parameters while viewing the image. Since the operation is performed on a single dialog box, there are also problems that the number of parameters increases and the usability of the user deteriorates.

【0006】本発明の目的は、画像情報が可視化された
場合において、可視化された画像の色を好みの色に容易
に、そして自然に変換する画像処理方法を提供すること
にある。
An object of the present invention is to provide an image processing method for easily and naturally converting the color of a visualized image to a desired color when the image information is visualized.

【0007】[0007]

【課題を解決するための手段】上述の目的を達成すべ
く、本発明の画像処理方法は、表示画像に対し、色を変
更する色変更領域を特定するためのパラメータを入力す
るステップと、前記パラメータに基づいて、色変更領域
を決定するステップと、前記表示画像に応じて、変更す
る色の候補を決定するステップと、前記決定された色の
候補の中から、変更する色を選択するステップと、前記
決定された色変更領域を前記選択された色に変更するス
テップとを有することを特徴とする。
In order to achieve the above object, an image processing method according to the present invention comprises the steps of: inputting a parameter for specifying a color change area for changing a color to a display image; A step of determining a color change area based on the parameter; a step of determining a color candidate to be changed according to the display image; and a step of selecting a color to be changed from the determined color candidates. And changing the determined color change area to the selected color.

【0008】[0008]

【作用】本願発明の画像処理方法によれば、表示画像に
対し、色を変更する色変更領域を特定するためのパラメ
ータを入力するステップと、前記パラメータに基づい
て、色変更領域を決定するステップと、前記表示画像に
応じて、変更する色の候補を決定するステップと、前記
決定された色の候補の中から、変更する色を選択するス
テップと、前記決定された色変更領域を前記選択された
色に変更するステップとを有するので、たとえばユーザ
ーは、限られた色の中から、変更したい色を選択するこ
とができ、それにより色の選択が容易になる。
According to the image processing method of the present invention, a step of inputting a parameter for specifying a color change area for changing a color in a display image, and a step of determining a color change area based on the parameter Determining a color candidate to be changed according to the display image; selecting a color to be changed from the determined color candidates; and selecting the determined color change area. For example, the user can select the color to be changed from the limited colors, thereby facilitating the selection of the color.

【0009】[0009]

【発明の実施の形態】以下、本発明による第1の実施の
形態を、図面を参照して説明する。図1は、コンピュー
タのディスプレイ上に表示された顔の肌色を検出し、好
みの肌色に変換する画像処理方法を示すフローチャート
である。図2は、かかる画像処理方法を実行するプログ
ラムが読みとられたコンピュータを示す斜視図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a first embodiment according to the present invention will be described with reference to the drawings. FIG. 1 is a flowchart illustrating an image processing method for detecting a skin color of a face displayed on a display of a computer and converting the color to a desired skin color. FIG. 2 is a perspective view showing a computer from which a program for executing the image processing method is read.

【0010】図2においては、不図示のデジタルカメラ
により撮影された人物の画像情報が、コンピュータ1に
内蔵されたメモリに記憶されており、かかる画像情報に
基づき、人物の顔Fが表示手段であるディスプレイ1a
に表示されている。表示された顔Fの周囲には、6つの
スクロールバーB1乃至B6を含む第1のダイアログボ
ックスD1が表示され、後述するユーザーの操作を可能
としている。すなわち、かかるスクロールバーB1乃至
B6のボタンは、マウス1bにより上下または左右に移
動可能となっている。記録媒体であるフロッピーディス
クFDには、後述する画像処理方法を実行させるプログ
ラムが記憶されており、かかるフロッピーディスクFD
のプラグラムをコンピュータ1が読みとることにより、
肌色を変更するという画像処理が可能となる。なお、か
かるプログラムはCDまたはROM等に記憶されていて
も良い。以下、この画像処理について説明する。
In FIG. 2, image information of a person photographed by a digital camera (not shown) is stored in a memory built in the computer 1, and based on the image information, a face F of the person is displayed on a display means. A display 1a
Is displayed in. A first dialog box D1 including six scroll bars B1 to B6 is displayed around the displayed face F, and allows a user operation to be described later. That is, the buttons of the scroll bars B1 to B6 can be moved up and down or left and right by the mouse 1b. The floppy disk FD serving as a recording medium stores a program for executing an image processing method described later.
The computer 1 reads the program of
Image processing of changing the skin color becomes possible. Note that such a program may be stored on a CD, a ROM, or the like. Hereinafter, this image processing will be described.

【0011】図1のステップS101乃至S108にお
いて、色を変更する色変更領域の決定を行う。ステップ
S101において、まずユーザーは、顔領域の選択を行
う。より具体的には、図2において、色を変換したい顔
Fを囲む矩形領域Afを指定する。この指定は、たとえ
ばユーザーが、マウス1bをドラッグすることにより可
能となる。
In steps S101 to S108 of FIG. 1, a color change area for changing a color is determined. In step S101, the user first selects a face area. More specifically, in FIG. 2, a rectangular area Af surrounding a face F whose color is to be converted is designated. This designation can be made, for example, by the user dragging the mouse 1b.

【0012】以下、ステップS102乃至S104では
色変更領域の決定のために、顔の一部を指定する場合を
示す。ステップS102において、まずコンピュータ1
は、第1のダイアログボックスD1(図2)を表示す
る。ディスプレイ1a上において複数の矩形領域A1乃
至A3の位置、面積が変えられるようになっているの
で、ユーザーは、これらの矩形領域A1乃至A3を移動
させ、顔Fの目E、口Mを囲むようにして、目E、口M
を選択する(ステップS103)。なお、ユーザーは、
図2におけるスクロールバーB1により目Eを囲む矩形
領域A1,A2を左右に動かすことができ、スクロール
バーB2により矩形領域A1,A2を上下に動かすこと
ができ、スクロールバーB3により矩形領域A1,A2
の面積を変えることができる。なお、矩形領域A1,A
2は独立にその位置・面積を変えられるようにしても良
い。
In the following, steps S102 to S104 show a case where a part of the face is designated to determine the color change area. In step S102, first, the computer 1
Displays a first dialog box D1 (FIG. 2). Since the positions and areas of the plurality of rectangular areas A1 to A3 can be changed on the display 1a, the user moves these rectangular areas A1 to A3 so as to surround the eyes E and the mouth M of the face F. , Eyes E, mouth M
Is selected (step S103). Please note that
The rectangular areas A1 and A2 surrounding the eye E can be moved left and right by the scroll bar B1 in FIG. 2, the rectangular areas A1 and A2 can be moved up and down by the scroll bar B2, and the rectangular areas A1 and A2 can be moved by the scroll bar B3.
Area can be changed. The rectangular areas A1, A
2 may be configured so that its position and area can be changed independently.

【0013】一方ユーザーは、スクロールバーB4によ
り口Mを囲む矩形領域A3を左右に動かすことができ、
スクロールバーB5により矩形領域A3を上下に動かす
ことができ、スクロールバーB6により矩形領域A3の
面積を変えることができる。
On the other hand, the user can move the rectangular area A3 surrounding the mouth M right and left by the scroll bar B4,
The rectangular area A3 can be moved up and down by the scroll bar B5, and the area of the rectangular area A3 can be changed by the scroll bar B6.

【0014】更にステップS104において、コンピュ
ータ1は目E、口Mを検出する。選択された領域内で目
E、口Mを検出する態様につき、以下に説明する。図3
は、目E、口Mを検出するサブルーチンを示すフローチ
ャートである。
In step S104, the computer 1 detects the eyes E and the mouth M. The manner in which the eyes E and the mouth M are detected in the selected area will be described below. FIG.
Is a flowchart showing a subroutine for detecting an eye E and a mouth M.

【0015】まず、ステップS103(図1)において
選択された領域内で、コンピュータ1はエッジ画素の検
出を行う(ステップS104a)。具体的には、まず対
象画素のRGB値の線形和Xijを求める。ここで、
i,jは画像中の縦横の位置である。この線形和は目、
口それぞれ固有の値となっており、目の検出の場合は、
たとえばXij=0.3*Rij+0.59*Gij
0.11*Bijで計算され、口の検出の場合は、たと
えば、Xij=0.21*Rij−0.52*Gij
0.31*Bijで計算される。
First, the computer 1 detects an edge pixel in the area selected in step S103 (FIG. 1) (step S104a). Specifically, first, a linear sum X i , j of the RGB values of the target pixel is obtained. here,
i and j are vertical and horizontal positions in the image. This linear sum is the eye,
Each mouth has a unique value, and in the case of eye detection,
For example, X i , j = 0.3 * R i , j + 0.59 * G i , j +
It is calculated with 0.11 * B i , j , and in the case of mouth detection, for example, X i , j = 0.21 * R i , j− 0.52 * G i , j +
Calculated as 0.31 * B i , j .

【0016】コンピュータ1は、ある画素に対してその
周囲4画素との差を求め、エッジ量Eijを求める。E
ijは以下の式で表される。 Eij=|Xi+1j −Xij|+|Xi-1j−Xij
|+|Xij+1−Xij|+|Xij-1−Xij
The computer 1 obtains a difference between a certain pixel and its surrounding four pixels, and obtains edge amounts E i , j . E
i and j are represented by the following equations. E i , j = | X i + 1 , j −X i , j | + | X i−1 , j −X i , j
| + | X i, j + 1 -X i, j | + | X i, j-1 -X i, j |

【0017】更にコンピュータ1は、対象領域内での上
記エッジ量の平均Ave_edgeを求める。対象領域
内でEijがAve_edgeより大きければ、その画
素はエッジ画素であると判定する。
Further, the computer 1 calculates an average Ave_edge of the edge amount in the target area. If E i , j is larger than Ave_edge in the target area, it is determined that the pixel is an edge pixel.

【0018】次にステップS104bにおいて、コンピ
ュータ1は、検出されたエッジ画素の上下左右8近傍で
ラベリングする。具体的には、エッジ画素の周囲8近傍
にエッジ画素がある場合には、同じラベルと判定し、そ
れぞれのラベルの面積にはAi(i=ラベル)を求め
る。
Next, in step S104b, the computer 1 labels the detected edge pixel in the vicinity of the upper, lower, left, and right of the detected edge pixel. More specifically, if there are edge pixels near the periphery 8 of the edge pixel, the same label is determined, and Ai (i = label) is obtained for the area of each label.

【0019】コンピュータ1は、更にステップS104
cにおいて、それぞれの領域で面積の最も大きいラベル
が割り振られた領域をそれぞれ、目、口の領域と自ら判
定する。目もしくは口の位置が決定されれば、ある程度
顔の輪郭が統計的に推定され、推定された顔の輪郭を用
いることにより、肌色領域の検出の精度を向上させるこ
とができる。なお、眉の位置を決定することにより、顔
の輪郭を推定するようにしても良い。
The computer 1 further performs step S104
In c, the area to which the label having the largest area is allocated in each area is determined as an eye and mouth area. If the positions of the eyes or the mouth are determined, the outline of the face is statistically estimated to some extent, and the accuracy of detecting the skin color region can be improved by using the estimated outline of the face. The contour of the face may be estimated by determining the position of the eyebrows.

【0020】ステップS105乃至S107は、ステッ
プS102乃至S104で求めた色変更領域を変更する
ステップである。再び図1にフローチャートに戻り、コ
ンピュータ1は、ステップS105で第2のダイアログ
ボックスD2の表示を行う。図4は、ディスプレイ上に
表示された第2のダイアログボックスD2を示す図であ
る。ディスプレイ1aにおいて、図4に示すような第2
のダイアログボックスD2とともに、対象となる顔画像
がプレビュー画像Pvとして表示されている。かかるプ
レビュー画像Pvを見ながら、ユーザーはスクロールバ
ーB7乃至B9の形態で、肌色領域を検出する閾値、変
換前の色と混合する割合、変換する色の候補を表示す
る。このスクロールバーを用いて各項目を変更する。よ
り具体的には、図4におけるスクロールバーB7により
肌色領域を検出する閾値を変更することができ、スクロ
ールバーB8により変更前の色と混合する割合を変更で
き、スクロールバーB9により好みの肌の色調を変える
ことができる。
Steps S105 to S107 are steps for changing the color change area obtained in steps S102 to S104. Returning to the flowchart of FIG. 1 again, the computer 1 displays a second dialog box D2 in step S105. FIG. 4 is a diagram showing a second dialog box D2 displayed on the display. In the display 1a, the second as shown in FIG.
Along with the dialog box D2, the target face image is displayed as the preview image Pv. While viewing the preview image Pv, the user displays, in the form of scroll bars B7 to B9, a threshold for detecting a flesh color area, a mixing ratio with the color before conversion, and a candidate for a color to be converted. Each item is changed using this scroll bar. More specifically, the threshold value for detecting the skin color area can be changed by the scroll bar B7 in FIG. 4, the mixing ratio with the color before the change can be changed by the scroll bar B8, and the desired skin color can be changed by the scroll bar B9. You can change the color tone.

【0021】まずステップS106において、ユーザー
がスクロールバーB7を用いて、肌色領域を検出する閾
値TH_edgeを選択し入力する。この閾値を用いる
ことにより、コンピュータ1は、目、口を含まない肌色
領域を検出する(ステップS107)。その態様につ
き、以下に述べる。
First, in step S106, the user uses the scroll bar B7 to select and enter a threshold value TH_edge for detecting a flesh color area. By using this threshold, the computer 1 detects a flesh-colored area that does not include the eyes and the mouth (step S107). The mode is described below.

【0022】まず、顔領域の線形和Xijを求める。こ
こで、i,jは画像中の縦横の位置である。この線形和
は、たとえばXij=Rij+Bij+Gijで計算さ
れる。
First, the linear sum X i , j of the face area is obtained. Here, i and j are vertical and horizontal positions in the image. This linear sum is calculated by, for example, X i , j = R i , j + B i , j + G i , j .

【0023】ある画素に対し周囲4画素との差を求め、
エッジ量Eijを求める。Eijは以下の式で表され
る。 Eij=|Xi+1j −Xij|+|Xi-1j−Xij
|+|Xij+1−Xij|+|Xij-1−Xij
The difference between a certain pixel and its surrounding four pixels is obtained,
The edge amounts E i and j are obtained. E i and j are represented by the following equations. E i , j = | X i + 1 , j −X i , j | + | X i−1 , j −X i , j
| + | X i, j + 1 -X i, j | + | X i, j-1 -X i, j |

【0024】コンピュータ1は、対象領域内でEi
jが、入力された閾値TH_edgeより大きく、かつ
ステップS104で検出された目、口の領域でなけれ
ば、かかる画素に対応する領域は肌色領域であると判定
する。
The computer 1 determines that E i ,
If j is larger than the input threshold TH_edge and is not the eye or mouth area detected in step S104, it is determined that the area corresponding to the pixel is a skin color area.

【0025】更に、ステップS108において、コンピ
ュータ1は検出した肌色領域を表示する。より具体的に
は、ステップS107において検出した肌色領域で、肌
色領域でない領域との境界領域画素の色を白(または
黒)として、第2のダイアログボックスD2のプレビュ
ー画像Pv上に表示する(図4)。ユーザーはこの境界
領域を見て、肌色領域が適切に選択されているかを判断
する(ステップS109)。適切に選択されていないと
判断した場合は、ステップS106に戻って、ユーザー
は入力すべき閾値TH_edgeを変更し、それにより
肌色領域が再検出されることとなる。領域が適正と判断
した場合には、OKボタンをクリックして、領域が決定
される。以上の処理により、色を変更する領域を決定す
る。
Further, in step S108, the computer 1 displays the detected skin color area. More specifically, in the skin color region detected in step S107, the color of the boundary region pixel with the region other than the skin color region is displayed as white (or black) on the preview image Pv of the second dialog box D2 (FIG. 4). The user looks at the boundary area and determines whether the skin color area has been appropriately selected (step S109). If it is determined that the selection is not appropriate, the process returns to step S106, and the user changes the threshold value TH_edge to be input, whereby the skin color area is detected again. If it is determined that the area is appropriate, the user clicks the OK button to determine the area. By the above processing, the area for changing the color is determined.

【0026】ステップS110においては、ユーザーは
スクロールバーB8を用いて、変換前の色と混合する割
合を選択し入力する。検出した肌色領域に関して、変更
前のRGB値をそれぞれ、Rb、Gb、Bbとし、オペ
レータの選択した好みの肌色をRo、Go、Boとし、
入力された混合する割合をRate、変換後のRGB値
をRa、Ga、Baとすると、以下の式に従って変換が
行われる。 Ra=Rate*Rb+(1−Rate)*Ro Ga=Rate*Gb+(1−Rate)*Go Ba=Rate*Bb+(1−Rate)*Bo
In step S110, the user uses the scroll bar B8 to select and input a ratio to be mixed with the color before conversion. Regarding the detected skin color area, the RGB values before the change are Rb, Gb, and Bb, respectively, and the favorite skin colors selected by the operator are Ro, Go, and Bo.
Assuming that the input mixing ratio is Rate and the converted RGB values are Ra, Ga, and Ba, the conversion is performed according to the following equation. Ra = Rate * Rb + (1-Rate) * Ro Ga = Rate * Gb + (1-Rate) * Go Ba = Rate * Bb + (1-Rate) * Bo

【0027】Rateの値は、0から1の間の数で、こ
の値を1に近づけるほど、元の色からの変化量が大きく
なる。一般的に、あまり大きくすると色を変更した領域
と、しない領域との境界が目立ち、不自然になる。
The value of Rate is a number between 0 and 1, and as this value approaches 1, the amount of change from the original color increases. In general, if the size is too large, the boundary between a region where the color is changed and a region where the color is not changed is conspicuous and unnatural.

【0028】ステップS111において、変更する色を
選択し入力するが、変更する色を選択し入力する手段と
して、スクロールバーB9を用いる。スクロールバーB
9は、変更する色の候補を表示する。ここで、白人、黄
色人種の肌色の分布をCIEL*u*vのu*v*空間
上で表すと、図5に示すようになり、たとえば以下の式
に示すような1次式で表される。 v*=0.715*u*−5.458 ユーザーはプレビュー画像Pv(図4)を見ながら、ス
クロールバーB9を操作し、それによりu*の値を調整
することができる。なお、黒人の肌の分布を示す別な1
次式をを用いれば、肌色変更の対象を黒人とすることが
できる。
In step S111, a color to be changed is selected and input. The scroll bar B9 is used as means for selecting and inputting the color to be changed. Scroll bar B
9 displays a candidate for a color to be changed. Here, the distribution of the flesh color of the Caucasian and yellow races on the u * v * space of CIEL * u * v is as shown in FIG. 5, for example, expressed by the following linear expression. Is done. v * = 0.715 * u * -5.458 While viewing the preview image Pv (FIG. 4), the user can operate the scroll bar B9 to adjust the value of u *. Another one showing the distribution of black skin
By using the following equation, the target of the skin color change can be black.

【0029】色の明度を示す成分であるL*の値は、変
更前のR値をRbとすると、たとえば以下の式で計算さ
れる。 L*=100*(Rb/255) このようにして決定されたL*u*v*を、ルックアッ
プテーブルを使ってRGB値(上述したRo、Go、B
oに相当)に変更する。
The value of L *, which is a component indicating the lightness of a color, is calculated by the following equation, for example, where R before the change is Rb. L * = 100 * (Rb / 255) The L * u * v * determined in this way is converted to an RGB value (Ro, Go, B
o).

【0030】ステップS112において、コンピュータ
1は、決定された色変更領域を選択した色に変更する処
理、この例では肌色の変更を行う。上記条件を設定する
ことによって、直ちにプレビュー画像Pvの肌色が変更
されるので、ユーザーは、このプレビュー画像Pvを見
て、変更が適切か否か確認することができる(ステップ
S113)。変更が適切であれば、OKの情報を入力す
ることによりフローを終了し、変更が不適切であるた
め、条件の変更を望む場合は、ステップS110に戻
る。
In step S112, the computer 1 performs a process of changing the determined color change area to the selected color, in this example, changing the skin color. By setting the above conditions, the skin color of the preview image Pv is immediately changed, so that the user can check the preview image Pv to determine whether the change is appropriate (step S113). If the change is appropriate, the flow is terminated by inputting OK information. Since the change is inappropriate, if the user wants to change the condition, the process returns to step S110.

【0031】以上述べた第1の実施の形態によれば、一
次元的な処理で、肌色の境界を簡単に変更でき、またオ
リジナルの肌色に対して変更後の色の混合割合が簡単に
変更できる。更に、変更すべき色を肌色一色に限定して
いるため、画像処理が簡便となるという利点もある。よ
って、顔の肌色をシーンによらず正確に検出でき、簡単
な操作で好みの肌色を選択し、自然に変換することがで
きる。
According to the first embodiment described above, the boundary of the skin color can be easily changed by one-dimensional processing, and the mixing ratio of the changed color to the original skin color can be easily changed. it can. Furthermore, since the color to be changed is limited to a single skin color, there is an advantage that image processing is simplified. Therefore, the skin color of the face can be accurately detected irrespective of the scene, and a desired skin color can be selected by a simple operation and converted naturally.

【0032】なお、第1の実施の形態においては、スク
ロールバーを用いることにより、ユーザーが1次元の連
続した肌色の候補から選択し、入力していたが、別な実
施の形態によれば、たとえば「厚化粧」、「小麦色」、
「赤ちゃん」等の肌の色に近似する色の候補を予め決定
しておき、ユーザーはいずれかを選択するだけで、それ
らに近似する肌色に瞬時に設定できるようにすることも
できる。
In the first embodiment, the user selects and inputs one-dimensional continuous skin color candidates by using the scroll bar. However, according to another embodiment, For example, "heavy makeup", "tan",
A candidate for a color similar to a skin color such as "baby" can be determined in advance, and the user can select one of them to instantaneously set a skin color similar to them.

【0033】具体的には、たとえば「赤ちゃん」を選択
した場合には、その代表値であるu*=37,v*=2
0を採用して、ステップS111と同様な手法でRGB
値に変換する。「小麦色」の場合は、u*=42,v*
=28,「厚化粧」の場合は、u*=20,v*=0を
採用する。また、ユーザーインタフェースとしては、図
4に示すように、第2ダイアログボックスD2上で、ラ
ジオボタンB10を選択することによって入力する態様
も考えられる。
Specifically, for example, when "baby" is selected, its representative values u * = 37, v * = 2
0 and RGB in the same manner as in step S111.
Convert to a value. U * = 42, v * for "Wheaty"
= 28, "heavy makeup", u * = 20, v * = 0. In addition, as the user interface, as shown in FIG. 4, a mode in which input is performed by selecting a radio button B10 on the second dialog box D2 is also conceivable.

【0034】次に、第2の実施の形態につき、図面を参
照して説明する。図6は、ディスプレイ1a上に表示さ
れた風景中に含まれる空の色を検出し、好みの色に変換
する画像処理方法を示すフローチャートである。各ステ
ップについて説明する。
Next, a second embodiment will be described with reference to the drawings. FIG. 6 is a flowchart illustrating an image processing method for detecting a sky color included in the scenery displayed on the display 1a and converting the color to a desired color. Each step will be described.

【0035】まず、コンピュータ1が第1のダイアログ
ボックスD1を表示し(ステップS201)、そこでユ
ーザーは空の一部を選択する(ステップS202)。図
7に示すように表示された第1のダイアログボックスD
1において、スクロールバーB11乃至B13を用いて
矩形領域Asの位置、面積が変えられるようになってい
る。そこでユーザーは、この矩形領域Asで変更したい
空の一部を囲む。なお、スクロールバーB11により矩
形領域Asを左右に動かすことができ、スクロールバー
B12により矩形領域Asを上下に動かすことができ、
スクロールバーB13により矩形領域Asの面積を変え
ることができるようになっている。又は、矩形領域をド
ラッグして移動する構成としても良い。
First, the computer 1 displays a first dialog box D1 (step S201), and the user selects a part of the sky (step S202). First dialog box D displayed as shown in FIG.
In 1, the position and area of the rectangular area As can be changed using the scroll bars B11 to B13. Therefore, the user surrounds a part of the sky to be changed in the rectangular area As. Note that the rectangular area As can be moved right and left by the scroll bar B11, and the rectangular area As can be moved up and down by the scroll bar B12.
The area of the rectangular area As can be changed by the scroll bar B13. Alternatively, a configuration in which a rectangular area is moved by dragging may be adopted.

【0036】更に、コンピュータ1は、図8に示すよう
な第2のダイアログボックスD2を表示し(ステップS
203)、対象となる画像をプレビュー画像として表示
し、ユーザーが、空の領域を検出する閾値、変換前の色
と混合する割合、変換する色の候補を入力できるように
する。
Further, the computer 1 displays a second dialog box D2 as shown in FIG.
203) Display the target image as a preview image, and allow the user to input a threshold for detecting an empty area, a mixing ratio with a color before conversion, and a candidate for a color to be converted.

【0037】まず、ユーザーがスクロールバーB14を
用いて空の領域を検出する閾値を選択し入力することに
より(ステップS204)、コンピュータ1は空の領域
を検出する。その方法を以下に説明する。
First, the computer 1 detects an empty area by using the scroll bar B14 to select and input a threshold for detecting an empty area (step S204). The method will be described below.

【0038】選択した矩形領域Asの画素の線形和
ijを求める。ここで、i,jは画像中の縦横の位置
である。この線形和は、たとえばXij=Rij
ij+Bijで計算される。
The linear sum X i , j of the pixels of the selected rectangular area As is obtained. Here, i and j are vertical and horizontal positions in the image. This linear sum is, for example, X i , j = R i , j +
G i, j + B i, are computed by j.

【0039】上記領域でのXijの平均値Ave_sk
yを求める。対象画像全領域について、上記Ave_s
kyとの差を求め、この値の絶対値が空の領域を検出す
る閾値より小さければ、空領域候補の画素とする。空領
域候補の画素の周囲8近傍に空領域候補画素がある場合
には、同じラベルと判定する。
Average value Ave_sk of X i , j in the above area
Find y. Ave_s for the entire target image area
ky is determined, and if the absolute value of this value is smaller than a threshold value for detecting an empty region, the pixel is determined as a candidate for an empty region. If there are empty region candidate pixels near the periphery 8 of the empty region candidate pixel, the same label is determined.

【0040】ステップS205において、コンピュータ
1は検出した空の色領域を表示する。より具体的には、
上述のようにして検出した空の色領域で、空の色領域で
ない領域との境界領域画素の色を白(または黒)とし
て、第2のダイアログボックスD2のプレビュー画像P
v(図8)上に表示する。ユーザーはこの境界領域を見
て、空の色領域が適切に選択されているかを判断する
(ステップS206)。適切に選択されていないと判断
した場合は、ステップS204に戻って、空の色領域を
再検出することとなる。
In step S205, the computer 1 displays the detected sky color area. More specifically,
In the sky color region detected as described above, the color of the boundary region pixel with the non-sky color region is set to white (or black), and the preview image P of the second dialog box D2 is set.
v (FIG. 8). The user looks at the boundary area and determines whether the sky color area is appropriately selected (step S206). If it is determined that the selection has not been made appropriately, the process returns to step S204, and the sky color area is detected again.

【0041】ステップS207において、ユーザーはス
クロールバーB15を用いて、変更前の色と混合する割
合を選択し入力する。検出した空の色領域に関して、変
換前のRGB値にそれぞれ、Rb、Gb、Bbとし、オ
ペレータの選択した好みの空の色をRo、Go、Boと
し、入力された混合する割合をRate、変換後のRG
B値をRa、Ga、Baとすると、以下の式に従って変
換が行われる。 Ra=Rate*Rb+(1−Rate)*Ro Ga=Rate*Gb+(1−Rate)*Go Ba=Rate*Bb+(1−Rate)*Bo
In step S207, the user uses the scroll bar B15 to select and input a ratio to be mixed with the color before the change. Regarding the detected sky color area, Rb, Gb, and Bb are used as RGB values before conversion, respectively, the sky color of preference selected by the operator is set as Ro, Go, Bo, and the input mixing ratio is Rate, and conversion is performed. RG after
Assuming that the B value is Ra, Ga, Ba, conversion is performed according to the following equation. Ra = Rate * Rb + (1-Rate) * Ro Ga = Rate * Gb + (1-Rate) * Go Ba = Rate * Bb + (1-Rate) * Bo

【0042】Rateの値は、0から1の間の数で、こ
の値を1に近づけるほど、元の色からの変化量が大きく
なる。一般的に、あまり大きくすると変換した領域と変
換されない領域との境界が目立ち、不自然になる。
The value of Rate is a number between 0 and 1, and as this value approaches 1, the amount of change from the original color increases. In general, if the size is too large, the boundary between the converted area and the non-converted area becomes conspicuous and unnatural.

【0043】ステップS208において、ユーザーは変
換する色を選択し入力するが、変更する色を選択し入力
する手段として、スクロールバーB16を用いる。ここ
で、青空の分布をCIEL*u*vのu*v*空間上で
表すと、図9に示すようになり、たとえば以下の式に示
すような1次式で表される。 v*=−40 −30≦u*≦−10 ユーザーはプレビュー画像Pv(図8)を見ながら、ス
クロールバーB16を操作し、それによりu*の値を調
整する。
In step S208, the user selects and inputs a color to be converted. The scroll bar B16 is used as a means for selecting and inputting a color to be changed. Here, when the distribution of the blue sky is represented on the u * v * space of CIEL * u * v, it is as shown in FIG. 9 and is represented by, for example, a linear expression as shown in the following expression. v * = − 40−30 ≦ u * ≦ −10 The user operates the scroll bar B16 while watching the preview image Pv (FIG. 8), thereby adjusting the value of u *.

【0044】色の明度を示す成分であるL*の値は、変
更前のB値をBbとすると、たとえば以下の式で計算さ
れる。 L*=100*(Bb/255) このようにして決定されたL*u*v*を、ルックアッ
プテーブルを使ってRGB値(上述したRo、Go、B
oに相当)に変更する。
Assuming that the B value before change is Bb, the value of L *, which is a component indicating the color brightness, is calculated by, for example, the following equation. L * = 100 * (Bb / 255) The L * u * v * determined in this way is converted into an RGB value (Ro, Go, B
o).

【0045】ステップS209において、コンピュータ
1は空の色の変更を行う。上記条件を設定することによ
って、直ちにプレビュー画像Pvの肌色が変更されるの
で、ユーザーは、このプレビュー画像Pvを見て、変更
が適切か否か確認することができる(ステップS21
0)。変更が適切であればフローを終了し、変更が不適
切であるため、条件の変更を望む場合は、ステップS2
07に戻る。
In step S209, the computer 1 changes the color of the sky. By setting the above conditions, the skin color of the preview image Pv is immediately changed, so that the user can check the preview image Pv to determine whether the change is appropriate (step S21).
0). If the change is appropriate, the flow ends. If the change is inappropriate, and the user wants to change the condition, the process proceeds to step S2.
Return to 07.

【0046】以上述べた第2の実施の形態においても、
一次元的な処理で、空の色の境界を簡単に変更でき、ま
たオリジナルの空の色に対して変更後の色の混合割合が
簡単に変更できる。更に、変更すべき色を空の色一色に
限定しているため、画像処理が簡便となるという利点も
ある。よって、空の色をシーンによらず正確に検出で
き、簡単な操作で好みの色を選択し、自然に変換するこ
とができる。
Also in the second embodiment described above,
By one-dimensional processing, the boundary of the sky color can be easily changed, and the mixing ratio of the changed color to the original sky color can be easily changed. Further, since the color to be changed is limited to only the sky color, there is an advantage that image processing is simplified. Therefore, the color of the sky can be accurately detected regardless of the scene, and a desired color can be selected by a simple operation and converted naturally.

【0047】なお、第2の実施の形態においては、スク
ロールバーを用いて、ユーザーが1次元の連続した空の
色の候補から選択し、入力していたが、別な実施の形態
によれば、たとえば「夕日」、「曇り空」等の空の色に
近似する色の候補を予め決定しておき、ユーザーはいず
れかを選択するだけで、それらに近似する空の色に瞬時
に設定できるようにすることもできる。
In the second embodiment, the user selects and inputs one-dimensional continuous sky color candidates using the scroll bar. However, according to another embodiment, For example, in advance, color candidates similar to the sky color such as "sunset" and "cloudy sky" are determined in advance, and the user can select any one of them and instantly set the sky color similar to them. You can also

【0048】具体的には、たとえば「夕日」を選択した
場合には、その代表値であるu*=15,v*=30を
採用して、ステップS207と同様な手法でRGB値に
変換する。「曇り空」の場合は、u*=−10,v*=
−4を採用する。また、ユーザーインタフェースとして
は、第2ダイアログボックスD2上に表示したラジオボ
タンを用いて入力することも考えられる。
More specifically, when "sunset" is selected, for example, the representative values u * = 15 and v * = 30 are adopted and converted to RGB values by the same method as in step S207. . In the case of "cloudy sky", u * =-10, v * =
-4 is adopted. In addition, as the user interface, it is conceivable to input using a radio button displayed on the second dialog box D2.

【0049】更に、本実施の形態にかかる画像処理方法
を実行させるプログラムを、液晶画面付きデジタルカメ
ラに予め組み込んでおけば、その液晶画面を介して本画
像処理を行うこともできる。
Further, if a program for executing the image processing method according to the present embodiment is incorporated in a digital camera with a liquid crystal screen in advance, the image processing can be performed through the liquid crystal screen.

【0050】[0050]

【発明の効果】本願発明の画像処理方法によれば、表示
画像に対し、色を変更する色変更領域を特定するための
パラメータを入力するステップと、前記パラメータに基
づいて、色変更領域を決定するステップと、前記表示画
像に応じて、変更する色の候補を決定するステップと、
前記決定された色の候補の中から、変更する色を選択す
るステップと、前記決定された色変更領域を前記選択さ
れた色に変更するステップとを有するので、たとえばユ
ーザーは、限られた色の中から、変更したい色を選択す
ることができ、それにより色の選択が容易になる。
According to the image processing method of the present invention, a step of inputting a parameter for specifying a color change area for changing a color in a display image, and determining the color change area based on the parameter And determining a candidate color to be changed according to the display image,
The method includes a step of selecting a color to be changed from among the determined color candidates and a step of changing the determined color change area to the selected color. Can be selected from among the colors to be changed, thereby facilitating the selection of the color.

【図面の簡単な説明】[Brief description of the drawings]

【図1】ディスプレイ上に表示された顔の肌色を検出
し、好みの肌色に変換する画像処理方法を示すフローチ
ャートである。
FIG. 1 is a flowchart illustrating an image processing method for detecting a skin color of a face displayed on a display and converting the skin color to a desired skin color.

【図2】本願発明にかかる画像処理方法を実行するプロ
グラムが読みとられたコンピュータを示す斜視図であ
る。
FIG. 2 is a perspective view showing a computer from which a program for executing an image processing method according to the present invention has been read.

【図3】目E、口Mを検出するサブルーチンを示すフロ
ーチャートである。
FIG. 3 is a flowchart showing a subroutine for detecting an eye E and a mouth M;

【図4】ディスプレイ上に表示された第2のダイアログ
ボックスを示す図である。
FIG. 4 is a diagram showing a second dialog box displayed on a display.

【図5】白人、黄色人種の肌色の分布をCIEL*u*
vのu*v*空間上で表わしたグラフである。
FIG. 5 shows the distribution of skin color of Caucasian and yellow races by CIEL * u *.
6 is a graph showing v in u * v * space.

【図6】ディスプレイ上に表示された風景中に含まれる
空の色を検出し、好みの色に変換する画像処理方法を示
すフローチャートである。
FIG. 6 is a flowchart illustrating an image processing method for detecting a sky color included in a landscape displayed on a display and converting the color to a desired color.

【図7】第1のダイアログボックスを示す図である。FIG. 7 is a diagram showing a first dialog box.

【図8】第2のダイアログボックスを示す図である。FIG. 8 is a diagram showing a second dialog box.

【図9】青空の分布をCIEL*u*vのu*v*空間
上で表したグラフである。
FIG. 9 is a graph showing a blue sky distribution on a u * v * space of CIEL * u * v.

【符号の説明】 1‥‥コンピュータ 1a‥‥ディスプレイ 1b‥‥マウス B1乃至B9,B11乃至B16‥‥スクロールバー B10‥‥ラジオボタン D1‥‥第1のダイアログボックス D2‥‥第2のダイアログボックス FD‥‥フロッピー[Description of Signs] 1 Computer 1a Display 1b Mouse B1 to B9, B11 to B16 Scroll bar B10 Radio button D1 First dialog box D2 Second dialog box FD ‥‥ Floppy

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 表示画像に対し、色を変更する色変更領
域を特定するためのパラメータを入力するステップと、 前記パラメータに基づいて、色変更領域を決定するステ
ップと、 前記表示画像に応じて、変更する色の候補を決定するス
テップと、 前記決定された色の候補の中から、変更する色を選択す
るステップと、 前記決定された色変更領域を前記選択された色に変更す
るステップとを有することを特徴とする画像処理方法。
1. A step of inputting a parameter for specifying a color change area for changing a color to a display image; a step of determining a color change area based on the parameter; Determining a color candidate to be changed; selecting a color to be changed from the determined color candidates; and changing the determined color change area to the selected color. An image processing method comprising:
【請求項2】 表示画像の種類を選択するステップを有
し、 前記表示画像に応じて、変更する色の候補を決定する前
記ステップは、前記選択された画像の種類に応じて変更
する色の候補を決定することを特徴とする請求項1記載
の画像処理方法。
2. The method according to claim 1, further comprising the step of selecting a type of a display image, and the step of determining a candidate for a color to be changed according to the display image, 2. The image processing method according to claim 1, wherein candidates are determined.
【請求項3】 変更する色の候補を表示する前記ステッ
プにおいて、1つの色彩情報のみを変数として、前記表
示する色の候補を決定することを特徴とする請求項1又
は2記載の画像処理方法。
3. The image processing method according to claim 1, wherein, in the step of displaying color candidates to be changed, the color candidates to be displayed are determined using only one color information as a variable. .
【請求項4】 前記パラメータは、色変更領域内の位置
情報を含むことを特徴とする請求項1乃至4のいずれか
に記載の画像処理方法。
4. The image processing method according to claim 1, wherein the parameter includes position information in a color change area.
【請求項5】 前記パラメータは、色変更領域を特定す
る閾値情報を含むことを特徴とする請求項4に記載の画
像処理方法。
5. The image processing method according to claim 4, wherein the parameter includes threshold information for specifying a color change area.
【請求項6】 前記候補から色を選択する前記ステップ
は、色を変更する領域における、変更前の色と選択され
た色との混合の割合の候補を表示すること含むことを特
徴とする請求項1乃至5のいずれかに記載の画像処理方
法。
6. The method according to claim 1, wherein the step of selecting a color from the candidates includes displaying a candidate for a mixture ratio of the color before the change and the selected color in the color change area. Item 6. The image processing method according to any one of Items 1 to 5.
【請求項7】 前記画像を表示手段上に表示し、 前記領域を特定するステップと前記色を選択するステッ
プにおいて、前記表示手段上に前記画像と共に前記領域
特定のためのパラメータ及び変更する色の候補の表示を
行うことを特徴とする請求項1乃至6のいずれかに記載
の画像処理方法。
7. Displaying the image on a display means, and, in the step of specifying the region and the step of selecting the color, a parameter for specifying the region and a color to be changed together with the image are displayed on the display device. 7. The image processing method according to claim 1, wherein candidates are displayed.
【請求項8】 請求項1乃至6のいずれかに記載の画像
処理を実行するための入力装置であって、 前記画像を表示する表示手段と、 前記表示手段上に前記画像と共に、前記領域を特定する
ための情報及び色の候補を表示する手段とを有すること
を特徴とする入力装置。
8. An input device for executing the image processing according to claim 1, wherein a display unit for displaying the image, and the area on the display unit together with the image are displayed on the display unit. Means for displaying information for specifying and color candidates.
【請求項9】 画像の色を変更すべき領域を特定する前
記ステップは、人間の肌色に基づき、前記特定された領
域から、色を変更すべき人間の顔領域を更に識別するス
テップを有することを特徴とする請求項1乃至6のいず
れかにに記載の画像処理方法。
9. The method according to claim 1, wherein the step of specifying an area in which the color of the image is to be changed includes the step of further identifying, from the specified area, a human face area whose color is to be changed, based on a human skin color. The image processing method according to claim 1, wherein:
【請求項10】 画像の色を変更すべき領域を特定する
前記ステップは、人間の顔の部位に基づき、特定された
領域から人間の顔領域を識別するステップを更に含むこ
とを特徴とする請求項1乃至6のいずれかに記載の画像
処理方法。
10. The method according to claim 1, wherein the step of specifying an area in which the color of the image is to be changed further includes the step of identifying a human face area from the specified area based on a human face part. Item 7. The image processing method according to any one of Items 1 to 6.
【請求項11】 前記人間の顔の部位は、前記表示手段
上に表示された人間の眉、目、口の少なくとも一つであ
り、前記部位は前記ダイアログボックスを介して指定さ
れることを特徴とする請求項10に記載の画像処理方
法。
11. The human face part is at least one of a human eyebrow, eyes, and mouth displayed on the display means, and the part is designated via the dialog box. The image processing method according to claim 10, wherein
【請求項12】 前記一つの色彩情報は、人間の肌の色
の特徴を示す情報であることを特徴とする請求項3に記
載の画像処理方法。
12. The image processing method according to claim 3, wherein the one color information is information indicating a characteristic of a human skin color.
【請求項13】 前記変更する色は、画像情報として記
録された空の色であることを特徴とする請求項1乃至6
に記載の画像処理方法。
13. The method according to claim 1, wherein the color to be changed is a sky color recorded as image information.
The image processing method according to 1.
【請求項14】 画像の色を変更すべき領域を特定する
前記ステップは、空の色に基づき、前記特定された領域
から、色を変更すべき空の領域を更に識別するステップ
を更に含むことを特徴とする請求項1乃至6に記載の画
像処理方法。
14. The method according to claim 1, wherein the step of identifying an area in which the color of the image is to be changed further includes the step of further identifying an empty area in which the color is to be changed from the identified area based on the sky color. The image processing method according to claim 1, wherein:
【請求項15】 前記一つの色彩情報は、空の色の特徴
を示す情報であることを特徴とする請求項3に記載の画
像処理方法。
15. The image processing method according to claim 3, wherein the one color information is information indicating a feature of a sky color.
【請求項16】 請求項1乃至7及び9乃至13のいず
れかに記載の画像処理方法を実行させるためのプログラ
ムを記録したコンピュータ読み取り可能な記録媒体。
16. A computer-readable recording medium on which a program for executing the image processing method according to claim 1 is recorded.
JP9370320A 1997-12-04 1997-12-04 Image processing method, input device and record medium thereof Pending JPH11168620A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9370320A JPH11168620A (en) 1997-12-04 1997-12-04 Image processing method, input device and record medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9370320A JPH11168620A (en) 1997-12-04 1997-12-04 Image processing method, input device and record medium thereof

Publications (1)

Publication Number Publication Date
JPH11168620A true JPH11168620A (en) 1999-06-22

Family

ID=18496612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9370320A Pending JPH11168620A (en) 1997-12-04 1997-12-04 Image processing method, input device and record medium thereof

Country Status (1)

Country Link
JP (1) JPH11168620A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005006772A1 (en) * 2003-07-09 2005-01-20 Matsushita Electric Industrial Co., Ltd. Image display device and image display method
JP2006229930A (en) * 2005-01-18 2006-08-31 Fuji Photo Film Co Ltd Image correction apparatus, method and program
WO2007072907A1 (en) * 2005-12-21 2007-06-28 Nec Corporation Gray-scale correcting method, gray-scale correcting device, gray-scale correcting program, and image device
JP2010178258A (en) * 2009-02-02 2010-08-12 Nikon Corp Image processing program, image processing apparatus, and camera
US7936919B2 (en) 2005-01-18 2011-05-03 Fujifilm Corporation Correction of color balance of face images depending upon whether image is color or monochrome
US9532021B2 (en) 2014-03-19 2016-12-27 Papalab Co., Ltd. True-color environment correction device and true-color environment correction method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005006772A1 (en) * 2003-07-09 2005-01-20 Matsushita Electric Industrial Co., Ltd. Image display device and image display method
JP2006229930A (en) * 2005-01-18 2006-08-31 Fuji Photo Film Co Ltd Image correction apparatus, method and program
JP4594225B2 (en) * 2005-01-18 2010-12-08 富士フイルム株式会社 Image correction apparatus and method, and image correction program
US7936919B2 (en) 2005-01-18 2011-05-03 Fujifilm Corporation Correction of color balance of face images depending upon whether image is color or monochrome
US8135215B2 (en) 2005-01-18 2012-03-13 Fujifilm Corporation Correction of color balance of face images
WO2007072907A1 (en) * 2005-12-21 2007-06-28 Nec Corporation Gray-scale correcting method, gray-scale correcting device, gray-scale correcting program, and image device
US8374458B2 (en) 2005-12-21 2013-02-12 Nec Corporation Tone correcting method, tone correcting apparatus, tone correcting program, and image equipment
JP2010178258A (en) * 2009-02-02 2010-08-12 Nikon Corp Image processing program, image processing apparatus, and camera
US9532021B2 (en) 2014-03-19 2016-12-27 Papalab Co., Ltd. True-color environment correction device and true-color environment correction method

Similar Documents

Publication Publication Date Title
US7133571B2 (en) Automated cropping of electronic images
US8441544B2 (en) Electronic camera and medium storing image processing program for skin color correction
US8237809B2 (en) Imaging camera processing unit and method
US5898436A (en) Graphical user interface for digital image editing
US20040156544A1 (en) Image processing apparatus and method
US7864226B2 (en) Image sensing apparatus and control method thereof
JP2003069846A (en) Image processing program
KR20070084293A (en) Color adjusting device and method
JP2018006912A (en) Imaging apparatus, image processing apparatus, and control method and program of the same
KR20140035372A (en) Image processing device, image processing method, and recording medium that has recorded program
JP2005114531A (en) Image display device and method
JPH11168620A (en) Image processing method, input device and record medium thereof
KR20070090224A (en) Method of electronic color image saturation processing
US8502882B2 (en) Image pick-up apparatus, white balance setting method and recording medium
KR101427649B1 (en) Digital image processing appratus and method displaying distribution chart of color
JP2004248213A (en) Image processing apparatus, imaging apparatus, and program
JP6089476B2 (en) Image processing apparatus, imaging apparatus, and image processing program
Kuang et al. A psychophysical study on the influence factors of color preference in photographic color reproduction
JP2007087123A (en) Image correction method, device and program
JP2014021782A (en) Image processor, control method thereof and program
JP5752993B2 (en) Image processing apparatus and image processing program
JP5375420B2 (en) Image processing apparatus, image processing method, and program
WO2022174423A1 (en) Image processing method, image processing apparatus, electronic device and storage medium
JP2007318320A (en) Image processor, imaging device, image processing method, and image processing program
JP2004357001A (en) Image processing method, image processor, and image recorder

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051004