[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3789911B2 - Image processing apparatus and face image processing apparatus - Google Patents

Image processing apparatus and face image processing apparatus Download PDF

Info

Publication number
JP3789911B2
JP3789911B2 JP2003274049A JP2003274049A JP3789911B2 JP 3789911 B2 JP3789911 B2 JP 3789911B2 JP 2003274049 A JP2003274049 A JP 2003274049A JP 2003274049 A JP2003274049 A JP 2003274049A JP 3789911 B2 JP3789911 B2 JP 3789911B2
Authority
JP
Japan
Prior art keywords
image
generated
processing apparatus
component
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003274049A
Other languages
Japanese (ja)
Other versions
JP2005034355A (en
Inventor
博英 鍋島
光弘 白石
伸俊 小島
洋一 三宅
徳道 津村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2003274049A priority Critical patent/JP3789911B2/en
Publication of JP2005034355A publication Critical patent/JP2005034355A/en
Application granted granted Critical
Publication of JP3789911B2 publication Critical patent/JP3789911B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、皮膚、特に顔の肌色の観測を行う技術に関する。本発明は、顧客の肌色を観測して顧客の肌の状態を診断し、その診断結果を出力するとともに、この診断結果に基づいて基礎化粧を行ったときの結果を出力したりどのような基礎化粧を行ったらよいかのアドバイスを行う装置に関する。   The present invention relates to a technique for observing skin color, particularly skin color. The present invention diagnoses a customer's skin condition by observing the customer's skin color, outputs the diagnosis result, and outputs the result when basic makeup is performed based on the diagnosis result. The present invention relates to a device for giving advice on whether to apply makeup.

被験者の顔画像を撮影し、この顔画像の肌領域の画像に基づき美顔方法や化粧方法のアドバイスを行うための肌色測定装置および肌色診断装置および顔画像処理装置が知られている。この装置では、ノイズ成分となる表面反射光成分を偏光を用いて除去し、内部光成分についてメラニン成分、ヘモグロビン成分等の色素成分を求める(例えば、特許文献1参照)。   2. Description of the Related Art A skin color measuring device, a skin color diagnostic device, and a face image processing device for photographing a face image of a subject and performing advice on a beauty method and a makeup method based on an image of a skin region of the face image are known. In this apparatus, a surface reflected light component that becomes a noise component is removed using polarized light, and a pigment component such as a melanin component and a hemoglobin component is obtained for the internal light component (see, for example, Patent Document 1).

このような、特許文献1に開示された装置を用いて肌色測定または肌色診断を行うに際し、被験者の顔画像から髪、目、唇などを除去した肌領域の画像を抽出し、この抽出した肌領域の画像に美白剤を用いて手入れした場合あるいは血行促進剤を用いて手入れした場合などの肌色の変化を擬似的に作り出し、これを再び顔画像に戻して表示させると、被験者は視覚的に手入れの効果を認識することができる。
特開2002−200050号公報
When performing skin color measurement or skin color diagnosis using such an apparatus disclosed in Patent Document 1, an image of a skin region in which hair, eyes, lips, and the like are removed from a subject's face image is extracted, and the extracted skin When a skin color change, such as when the area image was cared for with a whitening agent or when administered with a blood circulation promoter, is simulated, and this is displayed again on the face image, the subject visually The effect of care can be recognized.
JP 2002-200050 A

前述したように、特許文献1に開示された装置を用いて肌色測定または肌色診断を行うに際し、被験者の顔画像から髪、目、唇などを除去した肌領域の画像を抽出する場合に、あらかじめ、この抽出を希望する領域に対応するマスク画像を生成しておく必要がある。   As described above, when performing skin color measurement or skin color diagnosis using the apparatus disclosed in Patent Document 1, when extracting an image of a skin region from which hair, eyes, lips, and the like are removed from a face image of a subject, Therefore, it is necessary to generate a mask image corresponding to a region where this extraction is desired.

マスク画像の生成は、抽出を希望する画像の色が決まっている場合には、その色を含む領域を指定することにより生成することができる。例えば、青一色の背景を置き、その背景の前に抽出したいブルー以外の被写体を置く「ブルーバック撮影」と呼ばれる手法があるが、この手法では、背景に置かれたブルーの画素からなるマスク画像を生成すれば、ブルーではない被写体の画像を容易に抽出することができる。   When the color of an image desired to be extracted is determined, the mask image can be generated by designating an area including the color. For example, there is a technique called `` blue back photography '' in which a blue background is placed and an object other than blue to be extracted is placed in front of the background. In this technique, a mask image consisting of blue pixels placed in the background is used. , It is possible to easily extract an image of a subject that is not blue.

顔画像の場合には、一口に肌色と言っても被験者毎に微妙に異なっているので、一律に色を決めることは困難である。また、顔には凹凸があり、陰影を含む部分と含まない部分とでは、同じ肌色であったとしても異なった肌色として認識されてしまい、この陰影部分の処理も容易ではない。このように、顔画像に用いるマスクを生成するには、熟練者の試行錯誤的な操作を必要とする。   In the case of a face image, even though it is said to be a skin color, it differs slightly for each subject, so it is difficult to determine the color uniformly. In addition, the face has irregularities, and even if the part including the shadow and the part not including the shadow are recognized as different skin colors even if they are the same skin color, it is not easy to process the shadow part. As described above, generation of a mask used for a face image requires a trial and error operation by an expert.

一方、肌色測定または肌色診断は、被験者とカウンセリングを行いながら進めるものであり、被験者の顔画像から肌領域を抽出する処理は、カウンセリングの過程で、リアルタイムに処理できることが望まれる。   On the other hand, skin color measurement or skin color diagnosis is performed while counseling with the subject, and it is desired that the process of extracting the skin region from the face image of the subject can be performed in real time in the process of counseling.

本発明は、このような背景に行われたものであって、被験者身体の肌領域に対応するマスク画像を試行錯誤的な操作なしに生成することができる画像処理装置または方法を提供することを目的とする。本発明は、被験者の顔画像に基づき肌色測定または肌色診断をリアルタイムで行うことができる顔画像処理装置または方法を提供することを目的とする。   The present invention has been performed against such a background, and provides an image processing apparatus or method capable of generating a mask image corresponding to a skin region of a subject's body without trial and error operations. Objective. An object of this invention is to provide the face image processing apparatus or method which can perform a skin color measurement or skin color diagnosis in real time based on a test subject's face image.

本発明の画像処理装置は、あらかじめ設定された閾値と各画素値とを比較する簡単な処理によって、高速に画像を処理することができる。例えば、画素相互間の画素値を比較して平均化するといった複数の画素の相互関係を用いる処理は行わないので、処理を高速化できる。したがって、本発明の画像処理装置を顔画像処理装置に応用すれば、被験者とカウンセラーとのカウンセリングの過程でリアルタイムに被験者の顔画像から肌領域の画像を抽出してカウンセリングを進めることができる。   The image processing apparatus of the present invention can process an image at high speed by a simple process of comparing a preset threshold value with each pixel value. For example, the processing using the interrelationship of a plurality of pixels such as comparing and averaging pixel values between pixels is not performed, so the processing can be speeded up. Therefore, if the image processing apparatus of the present invention is applied to a face image processing apparatus, it is possible to extract an image of a skin region from the face image of the subject in real time in the process of counseling between the subject and the counselor and to proceed with the counseling.

すなわち、本発明の第一の観点は、画像処理装置であって、本発明の特徴とするところは、被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像から肌色を構成する色素成分のうちメラニン成分およびヘモグロビン成分を抽出してこれらの成分により画像を生成し、この生成された画像を明度値により表される画像に変換し、さらにその画像の明暗を反転して画像を生成する第一の手段(手続き#1)と、被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像から肌色を構成する色素成分のうちヘモグロビン成分を抽出してこの成分により画像を生成し、この生成された画像を明度値により表される画像に変換して画像を生成する第二の手段(手続き#5)と、この第二の手段により生成された画像と前記第一の手段により生成された画像とを合成して画像を生成する第三の手段(手続き#6)とを備えたところにある。 That is, the first aspect of the present invention is an image processing apparatus, and the feature of the present invention is that a pigment that constitutes a skin color from an internal light image excluding a surface reflected light component of a predetermined part of the subject skin surface Extract the melanin component and hemoglobin component from the components, generate an image using these components, convert the generated image into an image represented by the brightness value, and generate an image by reversing the brightness of the image The first means (procedure # 1) to extract the hemoglobin component from the pigment component constituting the skin color from the internal light image excluding the surface reflected light component of the predetermined part of the subject's skin surface, and generate an image using this component Then, a second means (procedure # 5) for converting the generated image into an image represented by a lightness value to generate an image, the image generated by the second means, and the first means In Ri is by synthesizing the generated images to place and a third means for generating (Procedure # 6) image.

このように、前記第一の手段は、メラニン成分およびヘモグロビン成分により顔画像を生成するので、毛髪、背景など肌色の範囲外と認識される画素を容易に排除することができる。また、メラニン成分およびヘモグロビン成分の双方を用いることにより、一方の色素成分のみで肌領域を抽出するよりも双方の色素成分を用いたほうがより精度高く肌領域を抽出することができる。さらに、前記第二の手段により、ヘモグロビン成分を特に多く含んでいる唇などを抽出し、前記第一の手段により生成された画像と前記第二の手段により生成された画像とを合成することにより、マスク画像を得ることができる。   As described above, the first means generates a face image by using the melanin component and the hemoglobin component, so that pixels recognized as outside the skin color range such as hair and background can be easily excluded. Further, by using both the melanin component and the hemoglobin component, it is possible to extract the skin region with higher accuracy by using both pigment components than by extracting the skin region by only one pigment component. Further, by extracting the lips and the like that contain a particularly large amount of hemoglobin component by the second means, and combining the image generated by the first means and the image generated by the second means A mask image can be obtained.

本発明の画像処理装置は、被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像を彩度値により表される画像に変換し、この画像と前記第一の手段により生成された画像とを合成して画像を生成する第四の手段(手続き#2)を備えることができる。 The image processing apparatus of the present invention converts an internal light image excluding the surface reflected light component of a predetermined part of the subject skin surface into an image represented by a saturation value, and is generated by this image and the first means. A fourth means (procedure # 2) for generating an image by combining the image may be provided.

これにより、肌色に近い色を有する茶色の毛髪や茶色味を帯びた眼球などの肌色ではない部分を排除することができる。すなわち、毛髪や目などは一般的に彩度が低いので、彩度値により画像を生成すると、毛髪や目などを排除し易くなる。   Thereby, the part which is not skin color, such as the brown hair which has a color close | similar to a skin color, and the brownish eyeball, can be excluded. That is, since hair, eyes, and the like are generally low in saturation, when an image is generated based on the saturation value, it becomes easy to exclude hair, eyes, and the like.

本発明の画像処理装置は、被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像を明度値により表される画像に変換し、この画像と前記第四の手段により生成された画像とを合成して画像を生成する第五の手段(手続き#3)を備えることができる。 The image processing apparatus of the present invention converts an internal light image obtained by removing a surface reflected light component of a predetermined part of the surface of the subject's skin into an image represented by a brightness value, and this image and an image generated by the fourth means And a fifth means (procedure # 3) for generating an image.

これにより、マスク周囲に「ぼかし」処理を施したような画像を得ることができる。すなわち、「ぼかし」とは、ある画素に関して、その画素の値と周囲の画素の値との重み付け平均化処理を行うことであるが、本発明では、このような画素相互間の関係を用いずに処理の高速化を図ることを特徴としている。前記第四手段により生成された画像の肌色領域全体の中で、特に肌色境界領域において大きく明度が変化する被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像を利用し、それを明度値に変換して生成する画像を合成することにより、「ぼかし」処理を施したような画像が得られる。 As a result, it is possible to obtain an image in which a “blurring” process is performed around the mask. In other words, “blurring” is to perform a weighted averaging process for the value of a pixel and the values of surrounding pixels for a certain pixel. In the present invention, such a relationship between pixels is not used. The feature is to speed up the processing. Using the internal light image excluding the surface reflected light component of the predetermined part of the subject skin surface where the lightness changes greatly in the whole skin color region of the image generated by the fourth means, particularly in the skin color boundary region, By synthesizing images generated by converting to lightness values, an image that has been subjected to the “blurring” process can be obtained.

本発明の画像処理装置は、白の画素値を“1”とし、黒の画素値を“0”とするとき、前記第五の手段により生成された画像を構成する画素の画素値について、その画素値よりも
“1”に近づくように所定の演算を施して画像を生成する第六の手段(手続き#4)を備えることができる。
In the image processing apparatus of the present invention, when the white pixel value is “1” and the black pixel value is “0”, the pixel values of the pixels constituting the image generated by the fifth means are A sixth means (procedure # 4) for generating an image by performing a predetermined calculation so as to be closer to “1” than the pixel value can be provided.

これにより、白部分がより肌色領域と等しくなるようなマスク画像を作成することができる。   This makes it possible to create a mask image in which the white portion is more equal to the skin color area.

本発明の画像処理装置は、前記第二の手段(手続き#5)により生成された画像と前記第六の手段(手続き#4)により生成された画像とを合成して画像を生成する第七の手段(手続き#6)を備えることができる。   The image processing apparatus of the present invention is a seventh method for generating an image by combining the image generated by the second means (procedure # 5) and the image generated by the sixth means (procedure # 4). Means (procedure # 6).

これにより、前記第二の手段により生成された画像と前記第一の手段により生成された画像とを合成して画像を生成する場合と比較してさらに良好なマスク画像を得ることができる。   As a result, a better mask image can be obtained as compared with the case where the image generated by the second means and the image generated by the first means are combined to generate an image.

本発明の第二の観点は、本発明の画像処理装置により生成された画像をマスク画像とし、被験者の顔画像から当該マスク画像に相当する部位の画像を抽出する手段と、この抽出する手段により抽出された部位の画像を表示する手段とを備えたことを特徴とする顔画像処理装置である。   According to a second aspect of the present invention, an image generated by the image processing apparatus of the present invention is used as a mask image, and a means for extracting an image of a part corresponding to the mask image from the face image of the subject, and this extracting means A face image processing apparatus comprising: means for displaying an image of an extracted part.

本発明の画像処理装置によれば、顔画像から肌領域を抽出するためのマスク画像を試行錯誤的な操作なしに作成することができる。これにより、被験者とカウンセリングにより肌色測定または肌色診断を行う場合に、リアルタイムで顔画像から肌領域を抽出して、所定の処理を施した画像を表示することができる。   According to the image processing apparatus of the present invention, a mask image for extracting a skin region from a face image can be created without trial and error operations. Thereby, when skin color measurement or skin color diagnosis is performed by counseling with a subject, a skin region can be extracted from a face image in real time and an image subjected to a predetermined process can be displayed.

本発明の第三の観点は、被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像から肌色を構成する色素成分のうちメラニン成分およびヘモグロビン成分を抽出してこれらの成分により画像を生成し、この生成された画像を明度値により表される画像に変換し、さらにその画像の明暗を反転して画像を生成する第一のステップ(手続き#1)と、被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像から肌色を構成する色素成分のうちヘモグロビン成分を抽出してこの成分により画像を生成し、この生成された画像を明度値により表される画像に変換して画像を生成する第二のステップ(手続き#5)と、この第二のステップにより生成された画像と前記第一のステップにより生成された画像とを合成して画像を生成する第三のステップ(手続き#6)とを実行することを特徴とする画像処理方法である。 The third aspect of the present invention is to extract a melanin component and a hemoglobin component from the pigment component constituting the skin color from the internal light image excluding the surface reflected light component of a predetermined part of the subject skin surface, and image the component by these components. A first step (procedure # 1) for generating and converting the generated image into an image represented by a brightness value, and further inverting the brightness of the image to generate an image; The hemoglobin component is extracted from the pigment component that constitutes the skin color from the internal light image excluding the surface reflection light component, and an image is generated by this component, and the generated image is converted into an image represented by the brightness value. The second step (procedure # 5) for generating an image and the image generated by the second step and the image generated by the first step are combined to generate an image. An image processing method characterized by performing the third step (Procedure # 6).

本発明の画像処理方法は、被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像を彩度値により表される画像に変換し、この画像と前記第一の手段により生成された画像とを合成して画像を生成する第四のステップ(手続き#2)を実行することができる。 The image processing method of the present invention converts an internal light image excluding the surface reflected light component of a predetermined part of the subject skin surface into an image represented by a saturation value, and is generated by this image and the first means. A fourth step (procedure # 2) for generating an image by combining with the image can be executed.

本発明の画像処理方法は、被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像を明度値により表される画像に変換し、この画像と前記第四のステップにより生成された画像とを合成して画像を生成する第五のステップ(手続き#3)を実行することができる。 The image processing method of the present invention converts an internal light image excluding the surface reflected light component of a predetermined part of the surface of the subject's skin into an image represented by a brightness value, and this image and the image generated by the fourth step And the fifth step (procedure # 3) for generating an image can be executed.

本発明の画像処理方法は、白の画素値を“1”とし、黒の画素値を“0”とするとき、前記第五のステップにより生成された画像を構成する画素の画素値について、その画素値よりも“1”に近づくように所定の演算を施して画像を生成する第六のステップ(手続き#4)を実行することができる。   In the image processing method of the present invention, when the white pixel value is set to “1” and the black pixel value is set to “0”, the pixel values of the pixels constituting the image generated by the fifth step are A sixth step (procedure # 4) for generating an image by performing a predetermined calculation so as to be closer to “1” than the pixel value can be executed.

本発明の画像処理方法は、前記第二のステップ(手続き#5)により生成された画像と前記第六のステップ(手続き#4)により生成された画像とを合成して画像を生成する第七のステップ(手続き#6)を実行することができる。   The image processing method of the present invention is a seventh method for generating an image by synthesizing the image generated in the second step (procedure # 5) and the image generated in the sixth step (procedure # 4). Step (procedure # 6) can be executed.

本発明の第四の観点は、本発明の画像処理方法により生成された画像をマスク画像とし、被験者の顔画像から当該マスク画像に相当する部位の画像を抽出するステップと、この抽出するステップにより抽出された部位に所定の処理を施した画像を表示するステップとを実行することを特徴とする顔画像処理方法である。   According to a fourth aspect of the present invention, an image generated by the image processing method of the present invention is used as a mask image, and an image of a part corresponding to the mask image is extracted from the face image of the subject, and this extraction step includes And a step of displaying an image obtained by performing a predetermined process on the extracted part.

本発明の第五の観点は、情報処理装置にインストールすることにより、その情報処理装置に、本発明の画像処理装置の各手段に相応する機能を実現させることを特徴とするプログラムである。あるいは、情報処理装置にインストールすることにより、その情報処理装置に、本発明の顔画像処理装置の各手段に相応する機器を実現させることを特徴とするプログラムである。   According to a fifth aspect of the present invention, there is provided a program characterized in that, when installed in an information processing apparatus, the information processing apparatus realizes functions corresponding to the respective means of the image processing apparatus of the present invention. Alternatively, the program is characterized in that, when installed in the information processing apparatus, the information processing apparatus realizes equipment corresponding to each means of the face image processing apparatus of the present invention.

本発明のプログラムは本発明の記録媒体に記録されることにより、前記情報処理装置は、この記録媒体を用いて本発明のプログラムをインストールすることができる。あるいは、本発明のプログラムを保持するサーバからネットワークを介して直接前記情報処理装置に本発明のプログラムをインストールすることもできる。   By recording the program of the present invention on the recording medium of the present invention, the information processing apparatus can install the program of the present invention using this recording medium. Alternatively, the program of the present invention can be directly installed in the information processing apparatus via a network from a server holding the program of the present invention.

これにより、汎用の情報処理装置を用いて、被験者身体の肌領域に対応するマスク画像を試行錯誤的な操作なしに生成することができる画像処理装置または被験者の顔画像に基づき肌色測定または肌色診断をリアルタイムで行うことができる顔画像処理装置を実現することができる。   Thus, using a general-purpose information processing device, a mask image corresponding to the skin region of the subject's body can be generated without trial and error operations, or skin color measurement or skin color diagnosis based on the face image of the subject Can be realized in real time.

本発明によれば、被験者身体の肌領域に対応するマスク画像を自動的に生成することができる画像処理装置または被験者の顔画像に基づき肌色測定または肌色診断をリアルタイムで行うことができる顔画像処理装置を実現することができる。   According to the present invention, an image processing apparatus capable of automatically generating a mask image corresponding to the skin area of the subject's body, or face image processing capable of performing skin color measurement or skin color diagnosis in real time based on the face image of the subject. An apparatus can be realized.

本実施形態の顔画像処理装置を図1を参照して説明する。本実施形態の顔画像処理装置は、図1に示すように、マスク生成部3により生成された画像をマスク画像とし、被験者の顔画像から当該マスク画像に相当する部位の画像を抽出する肌色処理部4と、この肌色処理部4により抽出された部位の画像を表示する表示部5とを備える。   The face image processing apparatus of this embodiment will be described with reference to FIG. As shown in FIG. 1, the face image processing apparatus according to the present embodiment uses the image generated by the mask generation unit 3 as a mask image, and extracts an image of a part corresponding to the mask image from the face image of the subject. Unit 4 and a display unit 5 for displaying an image of a part extracted by the skin color processing unit 4.

偏光板50、51、52、カメラ装置1、分析部2は、特許文献1に説明されている。ここで簡単に説明すると、偏光板50を透過することにより偏光面が整えられた光が肌の表面を通過し、内部で散乱を複数回繰り返した後に外に出てくる場合には、偏光板50で整えられた光は内部反射することにより、様々な偏光を有する光すなわち、内部光となって外に出ていく。   The polarizing plates 50, 51, 52, the camera device 1, and the analysis unit 2 are described in Patent Document 1. Briefly described here, when the light whose polarization plane is adjusted by passing through the polarizing plate 50 passes through the surface of the skin and repeats scattering inside and out several times, the polarizing plate The light arranged at 50 is internally reflected to be emitted as light having various polarizations, that is, internal light.

また、偏光板50を透過することにより偏光面が整えられた光が肌の表面で反射した場合には、偏光板50で整えられた偏光方向は保存される。偏光板50により、例えば、縦方向の偏光に整えられた光が表面反射することにより、再び縦方向の偏光を有する光すなわち、表面光となって反射される。   In addition, when the light whose polarization plane is adjusted by being transmitted through the polarizing plate 50 is reflected on the surface of the skin, the polarization direction adjusted by the polarizing plate 50 is preserved. For example, light that has been adjusted to vertically polarized light is reflected on the surface by the polarizing plate 50, so that it is reflected again as light having longitudinally polarized light, that is, surface light.

このように偏光により表面光と内部光とを区別できる性質を利用して、偏光板51および52を透過して見える像をカメラ装置1によりそれぞれ記録する。偏光板51を透過して撮影された画像を画像aとする。偏光板52を透過して撮影された画像を画像bとする。ここで、内部光画像を得たいときには、
2×画像b
として画像合成を行う。すなわち、画像bには、内部光の要素しか含まれていないので、画像bとしてとらえられる光はそのまま全て内部光画像となる。しかし、内部光の約半分は、偏光板52によって遮光されるので、遮光分を補う目的で、画像bの光量を2倍にする。この2×画像bが、分析対象となる内部光画像に相当する。
In this way, using the property that the surface light and the internal light can be distinguished by polarized light, the images that are transmitted through the polarizing plates 51 and 52 are recorded by the camera device 1. An image taken through the polarizing plate 51 is taken as an image a. An image taken through the polarizing plate 52 is taken as an image b. Here, when you want to get an internal light image,
2 x image b
As shown in FIG. That is, since the image b includes only the internal light element, all the light captured as the image b becomes the internal light image as it is. However, since about half of the internal light is shielded by the polarizing plate 52, the light amount of the image b is doubled for the purpose of compensating for the light shielding. This 2 × image b corresponds to the internal light image to be analyzed.

このようにしてノイズ成分となる肌の表面反射成分を除去した内部光成分に対し、分析部2では、メラニン成分およびヘモグロビン成分の分析を行う。   In this way, the analysis unit 2 analyzes the melanin component and the hemoglobin component with respect to the internal light component from which the skin surface reflection component that becomes the noise component is removed.

以下では、本発明の特徴であるマスク生成部3について詳細に説明する。   Below, the mask production | generation part 3 which is the characteristics of this invention is demonstrated in detail.

(手続き#1)
手続き#1では、まず、顔画像からメラニン成分およびヘモグロビン成分の色素成分の画像を生成し、この画像を明度画像化した後に閾値を用いて顔部分のマスクを抽出する。このようにして生成される画像は、毛髪、背景など、肌色の範囲外と認識される画素が排除されており、試行錯誤的な操作なしに閾値を設定できる。また、単一の色素成分画像ではなく、メラニン成分およびヘモグロビン成分を併用しているのは、一方の色素成分のみで肌領域を抽出するよりも双方の色素成分を用いたほうがより精度高く肌領域を抽出することができるためである。
(Procedure # 1)
In the procedure # 1, first, an image of a pigment component of a melanin component and a hemoglobin component is generated from a face image, and after this image is converted into a brightness image, a mask for the face portion is extracted using a threshold value. In the image generated in this manner, pixels that are recognized as outside the skin color range, such as hair and background, are excluded, and a threshold can be set without trial and error operations. In addition, a melanin component and a hemoglobin component are used in combination instead of a single pigment component image. It is more accurate to use both pigment components than to extract a skin region with only one pigment component. This is because it can be extracted.

手続き#1のフローチャートを図2に示す。被験者の顔画像について表面反射光成分を除いた内部光画像である元画像からメラニン成分およびヘモグロビン成分からなる画像のRGB(赤、緑、青)を明度値変換し、明暗反転処理する。このようにして生成された画像における画素値をMHとする(ステップ1)。続いて、MHと既定の閾値の値域との比較を行う(ステップ2)。 A flowchart of procedure # 1 is shown in FIG. RGB (red, green, blue) of an image composed of a melanin component and a hemoglobin component is converted from the original image, which is an internal light image obtained by removing the surface reflected light component, from the face image of the subject, and the brightness inversion processing is performed. The pixel value in the image generated in this way is set to MH (step 1). Subsequently, MH is compared with a predetermined threshold value range (step 2).

MHが閾値の値域内にあるときは、それを肌領域として、
MHmin<MH<MHmax
画素値を“1”(白)とする(ステップ3)。MHが閾値の上限または下限から許容値(tol)以上に外れているときは、それを肌領域以外として、
MH≦MHmin−tol or MH≧MHmax+tol
画素値を“0”(黒)とする(ステップ4)。MHが閾値の値域外だが、許容値以内にあるとき、
MHmax+tol>MH≧MHmax
であれば、肌の周囲のなじませ領域として、画素値を
1−((MH−MHmax)/tol)
とする(ステップ5)。ここで、「なじませ領域」とは、画像の不自然さを軽減させるために、異なった色同士が隣接する境界において、境界を過ぎるといきなり異なった色に変わるのではなく、徐々に隣接する色に変えてゆく手法を用いるが、その手法で用いる領域のことをいう。また、
MHmin≧MH>MHmin−tol
であれば、肌の周囲のなじませ領域として、画素値を
1−((MHmin−MH)/tol)
とする(ステップ6)。なお、ステップ5および6における画素値のとる値の範囲は0から1の間である。これにより手続き#1によりマスク#1が得られる。
When MH is within the threshold value range, it is used as the skin region.
MHmin <MH <MHmax
The pixel value is set to “1” (white) (step 3). When MH deviates from the upper limit or lower limit of the threshold value to the allowable value (tol) or more, it is assumed that it is other than the skin area,
MH ≦ MHmin-tol or MH ≧ MHmax + tol
The pixel value is set to “0” (black) (step 4). When MH is outside the threshold value range but within the allowable value,
MHmax + tol> MH ≧ MHmax
If so, the pixel value is set to 1-((MH-MHmax) / tol) as a familiar area around the skin.
(Step 5). Here, in order to reduce the unnaturalness of the image, the “familiarization region” is a boundary where different colors are adjacent to each other, rather than suddenly changing to a different color after passing the boundary. The method of changing to color is used, but it refers to the area used in that method. Also,
MHmin ≧ MH> MHmin-tol
If so, the pixel value is 1-((MHmin-MH) / tol) as a familiar area around the skin.
(Step 6). Note that the range of values taken by the pixel values in steps 5 and 6 is between 0 and 1. Thereby, the mask # 1 is obtained by the procedure # 1.

(手続き#2)
手続き#2では、肌色に近い色であるが肌ではない部分を除去する。例えば、茶色の毛髪、茶色味を帯びた眼球、茶色の衣服などの画素を除去する。茶色は、一般に彩度が低いことに着目し、図3に示すように、元画像のRGBから彩度値変換した画像Sを生成する(ステップ1)。手続き#1で作成したマスク#1と画像Sとを乗算する(ステップ2)。これにより、マスク#2が生成される。
(Procedure # 2)
In procedure # 2, a portion that is close to the skin color but not the skin is removed. For example, pixels such as brown hair, brown eyes, and brown clothes are removed. Focusing on the fact that brown is generally low in saturation, as shown in FIG. 3, an image S obtained by converting the saturation value from RGB of the original image is generated (step 1). The mask # 1 created in the procedure # 1 is multiplied by the image S (step 2). Thereby, mask # 2 is generated.

(手続き#3)
通常のマスク作成では、合成の違和感を軽減するために、マスク周囲に「ぼかし」処理を施すが、一般に、「ぼかし」処理とは、ある画素に関して、その画素と周囲の画素の値との重み付け平均化処理を行うことである。つまり、一般的な「ぼかし」処理を施す場合は、画素値の算出を周囲の画素と独立して行うことができず、本実施形態には適合しない。そこで、本実施形態では、図4に示すように、元画像を明度値変換した画像Vを生成する(ステップ1)。手続き#2で作成したマスク#2と画像Vとを乗算する(ステップ2)。これにより、「ぼかし」と同様な効果を得たマスク#3が生成される。
(Procedure # 3)
In normal mask creation, in order to reduce the uncomfortable feeling of compositing, a “blurring” process is performed around the mask. In general, a “blurring” process is a weighting between a pixel and the values of surrounding pixels. An averaging process is performed. That is, when performing a general “blur” process, the pixel value cannot be calculated independently of the surrounding pixels, and is not suitable for the present embodiment. Therefore, in the present embodiment, as shown in FIG. 4, an image V obtained by converting the brightness value of the original image is generated (step 1). The mask # 2 created in the procedure # 2 is multiplied by the image V (step 2). As a result, a mask # 3 having the same effect as “blur” is generated.

(手続き#4)
手続き3までで作成するマスクでは、少数値を乗算することにより、徐々に値域が狭められてしまう。手続き#4では、この値域を再度拡張する。値域を拡張するために用いられる変数は、他の閾値と同様にあらかじめ定められ、システムに与えられる。すなわち、手続き#4で生成されるマスクの画素値をMaskMHとし、手続き#3で生成されたマスクの画素値をMask#3とし、既定のパラメータをSscaleとすると、図5に示すように、
MaskMH=Mask#3*Sscale
とする。ただし、MaskMHが“1”の値を超えた場合は“1”に丸めることとする。請求項4または10の「所定の演算」とは、たとえば、この手続き#4の演算である。これにより、本来あるべきマスク画像の画素値に近い白黒の区別が明確な画像が得られる。
(Procedure # 4)
In the mask created up to procedure # 3, the range of values is gradually narrowed by multiplying by a decimal value. In procedure # 4, this range is expanded again. Variables used to extend the range are predetermined and given to the system, as are other thresholds. That is, if the pixel value of the mask generated in procedure # 4 is MaskMH, the pixel value of the mask generated in procedure # 3 is Mask # 3, and the default parameter is Sscale, as shown in FIG.
MaskMH = Mask # 3 * Sscale
And However, if MaskMH exceeds the value of “1”, it is rounded to “1”. The “predetermined operation” in claim 4 or 10 is, for example, the operation of procedure # 4. Thereby, an image with clear distinction between black and white close to the pixel value of the mask image that should be originally obtained can be obtained.

(手続き#5)
手続き#4までで、毛髪、目などを排除することができた。しかし、まだ、唇等が排除されていない。手続き#5では、ヘモグロビン色素成分画像を用いて、顔の中で特にヘモグロビン成分の多い部分である唇、発赤等を抽出する。すなわち、図6に示すように、ヘモグロビン成分画像のRGBを明度値変換する(ステップ1)。これにより、明度画像化された画像が得られる。明度画像化された画像の画素値をHとする。このHと既定の閾値の値域とを比較し(ステップ2)、Hが、閾値より小さい
Hthresh>H
のときは、唇、発赤領域であるのでその画素値を“0”(黒)とする(ステップ3)。また、Hが閾値から許容値以上に外れる
H≧Hthresh+tol
の場合には、唇、発赤領域以外であるのでその画素値を“1”(白)とする(ステップ4)。また、Hが閾値以上だが、許容値以内にある
Hthresh+tol>H≧Hthresh
のときには、唇周囲のなじませ領域であるのでその画素値を
(H−Hthresh)/tol
とする(ステップ5)。なお、ステップ5における画素値のとる値の範囲は0から1の間である。これにより、手続き#5によるMaskHが生成される。
(Procedure # 5)
By procedure # 4, hair, eyes, etc. could be excluded. However, lips and the like have not been excluded yet. In procedure # 5, using the hemoglobin pigment component image, lips, redness, and the like, which are portions having a particularly large hemoglobin component, are extracted from the face. That is, as shown in FIG. 6, the RGB values of the hemoglobin component image are converted to lightness values (step 1). As a result, an image having a lightness image is obtained. Let H be the pixel value of a lightness image. This H is compared with a predetermined threshold value range (step 2), and H is smaller than the threshold. Hthresh> H
In this case, the pixel value is set to “0” (black) because it is a lip and red region (step 3). Also, H deviates from the threshold value beyond the allowable value. H ≧ Hthresh + tol
In this case, the pixel value is set to “1” (white) because it is outside the lip and red area (step 4). Further, H is equal to or greater than a threshold value, but is within an allowable value. Hthresh + tol > H ≧ Hthresh
In this case, since it is a familiar area around the lips, the pixel value is set to (H-Hthresh) / tol.
(Step 5). Note that the range of the pixel value in step 5 is between 0 and 1. Thereby, MaskH by the procedure # 5 is generated.

(手続き#6)
最後の手続きとして、図7に示すように、手続き#4で作成したマスクMaskMHと、手続き#5で作成したマスクMaskHとを乗算して最終マスクFinalMaskが生成される。
(Procedure # 6)
As the final procedure, as shown in FIG. 7, the final mask FinalMask is generated by multiplying the mask MaskMH created in procedure # 4 and the mask MaskH created in procedure # 5.

(まとめ)
手続き#1から手続き#6までを一つにまとめたフローチャートを図8に示す。図8のフローチャートにおいて、手続き#2、手続き#3、手続き#4を省いて、手続き#1、手続き#5、手続き#6によりマスク画像を生成することもできる。これによれば、全ての手続きを経たマスク生成と比較すると、当然のことながら、マスク画像としての品質は低くなるが、処理手順を短縮できるので、高速にマスク生成を行う上では有利である。
(Summary)
FIG. 8 shows a flowchart in which procedure # 1 to procedure # 6 are combined into one. In the flowchart of FIG. 8, the procedure # 2, the procedure # 3, and the procedure # 4 can be omitted, and the mask image can be generated by the procedure # 1, the procedure # 5, and the procedure # 6. According to this, as compared with the mask generation through all procedures, the quality as a mask image is naturally reduced, but the processing procedure can be shortened, which is advantageous in performing mask generation at high speed.

このようにして生成したマスク画像を用いて、図1に示す肌色処理部4は、顔画像から肌領域を抽出し肌領域に所定の処理を施した画像が表示部5に表示される。請求項6または12またはここでいう「所定の処理」とは、たとえば、特許文献1で書かれているメラニン・ヘモグロビン成分を擬似的に変化させる処理である。カウンセラーは、表示部5に表示された肌領域を参照してカウンセリングを行うことができる。また、顔画像処理装置の付加機能として、肌色を所望する色に変換する機能や、肌領域の所定部位を切り出して表示する機能や、この切り出した所定部位を拡大表示する機能を追加することもできる。この所定部位の切り出し、拡大表示はメラニン成分、ヘモグロビン成分のみの画像についても行うことができる。   Using the mask image generated in this way, the skin color processing unit 4 shown in FIG. 1 displays an image obtained by extracting a skin region from the face image and applying a predetermined process to the skin region on the display unit 5. The “predetermined process” as defined in claim 6 or 12 is, for example, a process of artificially changing the melanin / hemoglobin component described in Patent Document 1. The counselor can perform counseling with reference to the skin area displayed on the display unit 5. Further, as an additional function of the face image processing device, a function of converting the skin color into a desired color, a function of cutting out and displaying a predetermined part of the skin region, and a function of displaying the cut out predetermined part in an enlarged manner may be added. it can. The cutout and enlarged display of the predetermined part can be performed also on an image having only a melanin component and a hemoglobin component.

また、本実施形態の顔画像処理装置におけるリアルタイムにマスク画像を生成する機能を用いれば、動画としての顔画像から肌領域を動画として抽出することも可能である。   Further, if a function for generating a mask image in real time in the face image processing apparatus of the present embodiment is used, it is possible to extract a skin region as a moving image from a face image as a moving image.

本発明は、汎用の情報処理装置にインストールすることにより、その情報処理装置に本発明の顔画像処理装置に相応する機能を実現させるプログラムとして実現することができる。このプログラムは、記録媒体に記録されて情報処理装置にインストールされ、あるいは通信回線を介して情報処理装置にインストールされることにより当該情報処理装置に、分析部2、マスク生成部3、肌色処理部4にそれぞれ相応する機能を実現させることができる。   The present invention can be implemented as a program that, when installed in a general-purpose information processing apparatus, causes the information processing apparatus to realize functions corresponding to the face image processing apparatus of the present invention. The program is recorded on a recording medium and installed in the information processing apparatus, or installed in the information processing apparatus via a communication line, so that the information processing apparatus includes an analysis unit 2, a mask generation unit 3, and a skin color processing unit. 4 can be realized.

本発明は、被験者身体の肌領域に対応するマスク画像を自動的に生成することができる画像処理装置または方法を提供することができる。本発明は、被験者の顔画像に基づき肌色測定または肌色診断をリアルタイムで行うことができる顔画像処理装置または方法を提供することができる。   The present invention can provide an image processing apparatus or method that can automatically generate a mask image corresponding to a skin region of a subject's body. The present invention can provide a face image processing apparatus or method capable of performing skin color measurement or skin color diagnosis in real time based on a face image of a subject.

本実施形態の顔画像処理装置の構成図。The block diagram of the face image processing apparatus of this embodiment. 手続き#1のフローチャート。Flowchart of procedure # 1. 手続き#2のフローチャート。Flowchart of procedure # 2. 手続き#3のフローチャート。Flowchart of procedure # 3. 手続き#4のフローチャート。Flowchart of procedure # 4. 手続き#5のフローチャート。Flowchart of procedure # 5. 手続き#6のフローチャート。Flowchart of procedure # 6. 手続き#1〜#6をまとめたフローチャート。The flowchart which put together procedure # 1- # 6.

符号の説明Explanation of symbols

1 カメラ装置
2 分析部
3 マスク生成部
4 肌色処理部
5 表示部
10 顔画像処理装置
50、51、52 偏光板
DESCRIPTION OF SYMBOLS 1 Camera apparatus 2 Analysis part 3 Mask generation part 4 Skin color processing part 5 Display part 10 Face image processing apparatus 50, 51, 52 Polarizing plate

Claims (14)

被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像から肌色を構成する色素成分のうちメラニン成分およびヘモグロビン成分を抽出してこれらの成分により画像を生成し、この生成された画像を明度値により表される画像に変換し、さらにその画像の明暗を反転して画像を生成する第一の手段と、
被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像から肌色を構成する色素成分のうちヘモグロビン成分を抽出してこの成分により画像を生成し、この生成された画像を明度値により表される画像に変換して画像を生成する第二の手段と、
この第二の手段により生成された画像と前記第一の手段により生成された画像とを合成して画像を生成する第三の手段と
を備えたことを特徴とする画像処理装置。
The melanin component and hemoglobin component are extracted from the pigment components constituting the skin color from the internal light image excluding the surface reflected light component of the predetermined part of the subject's skin surface, and an image is generated with these components, and the generated image is A first means for generating an image by converting to an image represented by a brightness value and further inverting the brightness of the image;
A hemoglobin component is extracted from the pigment components constituting the skin color from the internal light image excluding the surface reflected light component of the predetermined part of the subject's skin surface, and an image is generated by this component, and the generated image is represented by the brightness value. A second means for generating an image by converting into an image to be generated;
An image processing apparatus comprising: third means for generating an image by synthesizing the image generated by the second means and the image generated by the first means.
被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像を彩度値により表される画像に変換し、この画像と前記第一の手段により生成された画像とを合成して画像を生成する第四の手段を備えた請求項1記載の画像処理装置。 The internal light image excluding the surface reflected light component of the predetermined part of the subject's skin surface is converted into an image represented by a saturation value, and this image is combined with the image generated by the first means to obtain an image. The image processing apparatus according to claim 1, further comprising a fourth means for generating. 被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像を明度値により表される画像に変換し、この画像と前記第四の手段により生成された画像とを合成して画像を生成する第五の手段を備えた請求項2記載の画像処理装置。 The internal light image excluding the surface reflected light component of the predetermined part of the subject's skin surface is converted into an image represented by a brightness value, and this image and the image generated by the fourth means are combined to generate an image The image processing apparatus according to claim 2, further comprising a fifth means. 白の画素値を“1”とし、黒の画素値を“0”とするとき、
前記第五の手段により生成された画像を構成する画素の画素値について、その画素値よりも“1”に近づくように所定の演算を施して画像を生成する第六の手段を備えた請求項3記載の画像処理装置。
When the white pixel value is “1” and the black pixel value is “0”,
6. A sixth means for generating an image by performing a predetermined calculation so that a pixel value of a pixel constituting the image generated by the fifth means is closer to “1” than the pixel value. 3. The image processing apparatus according to 3.
前記第二の手段により生成された画像と前記第六の手段により生成された画像とを合成して画像を生成する第七の手段を備えた請求項1ないし4のいずれかに記載の画像処理装置。   5. The image processing according to claim 1, further comprising seventh means for generating an image by synthesizing the image generated by the second means and the image generated by the sixth means. 6. apparatus. 請求項1または5記載の画像処理装置により生成された画像をマスク画像とし、被験者の顔画像から当該マスク画像に相当する部位の画像を抽出する手段と、
この抽出する手段により抽出された部位に所定の処理を施した画像を表示する手段と
を備えたことを特徴とする顔画像処理装置。
Means for extracting, as a mask image, an image generated by the image processing apparatus according to claim 1 or 5, and extracting an image of a portion corresponding to the mask image from the face image of the subject;
A face image processing apparatus comprising: means for displaying an image obtained by performing predetermined processing on a part extracted by the extracting means.
被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像から肌色を構成する色素成分のうちメラニン成分およびヘモグロビン成分を抽出してこれらの成分により画像を生成し、この生成された画像を明度値により表される画像に変換し、さらにその画像の明暗を反転して画像を生成する第一のステップと、
被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像から肌色を構成する色素成分のうちヘモグロビン成分を抽出してこの成分により画像を生成し、この生成された画像を明度値により表される画像に変換して画像を生成する第二のステップと、
この第二のステップにより生成された画像と前記第一のステップにより生成された画像とを合成して画像を生成する第三のステップと
を実行することを特徴とする画像処理方法。
The melanin component and hemoglobin component are extracted from the pigment components constituting the skin color from the internal light image excluding the surface reflected light component of the predetermined part of the subject's skin surface, and an image is generated with these components, and the generated image is A first step of generating an image by converting to an image represented by a brightness value, and further inverting the brightness of the image;
A hemoglobin component is extracted from the pigment components constituting the skin color from the internal light image excluding the surface reflected light component of the predetermined part of the subject's skin surface, and an image is generated by this component, and the generated image is represented by the brightness value. A second step of converting the generated image into an image and generating the image;
An image processing method comprising: executing a third step of generating an image by combining the image generated by the second step and the image generated by the first step.
被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像を彩度値により表される画像に変換し、この画像と前記第一のステップにより生成された画像とを合成して画像を生成する第四のステップを実行する請求項7記載の画像処理方法。 The internal light image excluding the surface reflected light component of the predetermined part of the subject's skin surface is converted into an image represented by a saturation value, and this image is combined with the image generated by the first step to obtain an image. The image processing method according to claim 7, wherein the fourth step of generating is executed. 被験者皮膚表面の所定部位の表面反射光成分を除いた内部光画像を明度値により表される画像に変換し、この画像と前記第四のステップにより生成された画像とを合成して画像を生成する第五のステップを実行する請求項8記載の画像処理方法。 The internal light image excluding the surface reflected light component of the predetermined part of the subject's skin surface is converted into an image represented by a brightness value, and this image and the image generated by the fourth step are combined to generate an image The image processing method according to claim 8, wherein the fifth step is executed. 白の画素値を“1”とし、黒の画素値を“0”とするとき、
前記第五のステップにより生成された画像を構成する画素の画素値について、その画素値よりも“1”に近づくように所定の演算を施して画像を生成する第六のステップを実行する請求項9記載の画像処理方法。
When the white pixel value is “1” and the black pixel value is “0”,
6. The sixth step of generating an image by performing a predetermined calculation so that the pixel value of a pixel constituting the image generated in the fifth step is closer to “1” than the pixel value is performed. 10. The image processing method according to 9.
前記第二のステップにより生成された画像と前記第六のステップにより生成された画像とを合成して画像を生成する第七のステップを実行する請求項7ないし10のいずれかに記載の画像処理方法。   The image processing according to any one of claims 7 to 10, wherein a seventh step of generating an image by combining the image generated by the second step and the image generated by the sixth step is executed. Method. 請求項7または11記載の画像処理方法により生成された画像をマスク画像とし、被験者の顔画像から当該マスク画像に相当する部位の画像を抽出するステップと、
この抽出するステップにより抽出された部位に所定の処理を施した画像を表示するステップと
を実行することを特徴とする顔画像処理方法。
Extracting the image generated by the image processing method according to claim 7 or 11 as a mask image, and extracting an image of a part corresponding to the mask image from the face image of the subject;
And a step of displaying an image obtained by performing a predetermined process on the part extracted by the extracting step.
情報処理装置にインストールすることにより、その情報処理装置に、請求項1ないし5のいずれかに記載の画像処理装置の各手段に相応する機能を実現させることを特徴とするプログラム。   A program that, when installed in an information processing apparatus, causes the information processing apparatus to realize functions corresponding to the respective means of the image processing apparatus according to any one of claims 1 to 5. 情報処理装置にインストールすることにより、その情報処理装置に、請求項6記載の顔画像処理装置の各手段に相応する機能を実現させることを特徴とするプログラム。   A program that, when installed in an information processing apparatus, causes the information processing apparatus to realize functions corresponding to the respective means of the face image processing apparatus according to claim 6.
JP2003274049A 2003-07-14 2003-07-14 Image processing apparatus and face image processing apparatus Expired - Fee Related JP3789911B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003274049A JP3789911B2 (en) 2003-07-14 2003-07-14 Image processing apparatus and face image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003274049A JP3789911B2 (en) 2003-07-14 2003-07-14 Image processing apparatus and face image processing apparatus

Publications (2)

Publication Number Publication Date
JP2005034355A JP2005034355A (en) 2005-02-10
JP3789911B2 true JP3789911B2 (en) 2006-06-28

Family

ID=34211114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003274049A Expired - Fee Related JP3789911B2 (en) 2003-07-14 2003-07-14 Image processing apparatus and face image processing apparatus

Country Status (1)

Country Link
JP (1) JP3789911B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101269533B1 (en) 2005-04-28 2013-06-04 가부시키가이샤 시세이도 Skin state analyzing method, skin state analyzing device, and recording medium on which skin state analyzing program is recorded
JP5000196B2 (en) * 2006-05-17 2012-08-15 株式会社 資生堂 Evaluation method of whitening effect
JP2015197710A (en) * 2014-03-31 2015-11-09 株式会社メガチップス Makeup support device, and program
JP6704586B1 (en) * 2019-03-28 2020-06-03 ピクシーダストテクノロジーズ株式会社 Ultrasonic beauty device, information processing device, method, program
CN113240760B (en) * 2021-06-29 2023-11-24 北京市商汤科技开发有限公司 Image processing method, device, computer equipment and storage medium

Also Published As

Publication number Publication date
JP2005034355A (en) 2005-02-10

Similar Documents

Publication Publication Date Title
CN110443747B (en) Image processing method, device, terminal and computer readable storage medium
US9020257B2 (en) Transforming a digital image from a low dynamic range (LDR) image to a high dynamic range (HDR) image
CN110111245B (en) Image processing method, device, terminal and computer readable storage medium
CN102046062B (en) Signal processing system and signal processing method
JP2002200050A (en) Skin color meter, skin color diagnostic machine, and face image processor
TW200830217A (en) Image processing device and method by using differences of different scaled images as layered images
Yamaguchi et al. Multispectral color imaging for dermatology: application in inflammatory and immunologic diseases
Luo et al. Endoscopic vision augmentation using multiscale bilateral-weighted retinex for robotic surgery
JP3789911B2 (en) Image processing apparatus and face image processing apparatus
WO2021162112A1 (en) Video processing device, pulse rate measurement device, video processing program, and pulse rate measurement program
CN109104601A (en) Detection device, image processing apparatus, detection method and image processing method
Hasegawa et al. Skin Visualization Using Smartphone and Deep Learning in the Beauty Industry
JP3572304B2 (en) Image analysis method using photo retouching software in medical field
Benzi et al. A bio-inspired synergistic virtual retina model for tone mapping
Mazlan et al. Enhancement of retinal images for microaneurysms detection in diabetic retinopathy
Meyer et al. Color spatial acuity control of a screen subdivision image synthesis algorithm
JP2023546307A (en) Methods, devices, equipment and storage medium for facial pigment detection model training
JP2023003764A (en) Image processing apparatus, image processing method, and program
Abel et al. Methods for removing glare in digital endoscope images
JP3126996B2 (en) Endoscope image processing method
Cyriac et al. Perceptual dynamic range for in-camera image processing.
CN111563839A (en) Fundus image conversion method and device
JP6585623B2 (en) Biological information measuring device, biological information measuring method, and biological information measuring program
Abel et al. Automatic glare removal in endoscopic imaging
Chen et al. Quantitative evaluation of a new gamma correction method for endoscopic image improvement

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060329

R151 Written notification of patent or utility model registration

Ref document number: 3789911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090407

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120407

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140407

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees