[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021049082A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2021049082A
JP2021049082A JP2019173568A JP2019173568A JP2021049082A JP 2021049082 A JP2021049082 A JP 2021049082A JP 2019173568 A JP2019173568 A JP 2019173568A JP 2019173568 A JP2019173568 A JP 2019173568A JP 2021049082 A JP2021049082 A JP 2021049082A
Authority
JP
Japan
Prior art keywords
make
content
user
face
operation amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019173568A
Other languages
Japanese (ja)
Other versions
JP7413691B2 (en
Inventor
加寿子 林
Kazuko Hayashi
加寿子 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019173568A priority Critical patent/JP7413691B2/en
Publication of JP2021049082A publication Critical patent/JP2021049082A/en
Application granted granted Critical
Publication of JP7413691B2 publication Critical patent/JP7413691B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To provide a method for wearing makeup for appropriately expressing an impression desired by a user.SOLUTION: A display unit 104 displays a captured image in which a user's face is imaged. A feature specification unit 105 specifies a feature of the user's face on the basis of the captured image. A makeup content determination unit 110 determines makeup contents for expressing a target impression on the basis of a target impression which is an impression of a target expressed by the makeup of the face and the feature of the user's face. A display control unit 103 causes the display unit 104 to display a makeup image obtained by processing the captured image according to the makeup contents.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method and a program.

現在、ユーザの顔に化粧品を塗布したときの顔の状態をシミュレーションする技術が知られている。例えば、特許文献1には、ユーザの顔画像に、顔部品に対してメイクを施したときのメイクの状態を示すメイクパーツを重畳してシミュレーション画像を生成し、生成したシミュレーション画像を表示する技術が記載されている。 Currently, there is known a technique for simulating the state of the face when cosmetics are applied to the user's face. For example, Patent Document 1 describes a technique of superimposing a make-up part indicating a make-up state when a make-up is applied to a face part on a user's face image to generate a simulation image and displaying the generated simulation image. Is described.

ここで、ユーザは、顔のメイクで表現したい印象(例えば、クールな印象、明るい印象、落ち着いた印象など)を意識しながらメイクすることが一般的である。しかしながら、所望の印象をメイクで適切に表現するためには、ユーザの顔パーツの形状や配置を考慮する必要がある。従って、ユーザが、所望の印象をメイクで適切に表現することは容易ではない。このため、メイクのシミュレーションにおいて、ユーザが所望する印象を適切に表現するためのメイクの方法が提示されると便利である。 Here, the user generally makes up while being aware of the impression that he / she wants to express with the make-up of the face (for example, a cool impression, a bright impression, a calm impression, etc.). However, in order to properly express the desired impression with makeup, it is necessary to consider the shape and arrangement of the user's facial parts. Therefore, it is not easy for the user to properly express the desired impression with make-up. Therefore, in the make-up simulation, it is convenient to present a make-up method for appropriately expressing the impression desired by the user.

国際公開第2017/115453号International Publication No. 2017/115453

しかしながら、特許文献1には、そもそもユーザが所望する印象を表現するためのメイクの方法を提示することについて記載も示唆もされていない。このため、ユーザが所望する印象を適切に表現するためのメイクの方法を提示する技術が望まれている。 However, Patent Document 1 does not describe or suggest a method of making up for expressing an impression desired by a user in the first place. Therefore, there is a demand for a technique for presenting a makeup method for appropriately expressing the impression desired by the user.

本発明は、上記問題に鑑みてなされたものであり、ユーザが所望する印象を適切に表現するためのメイクの方法を提示する画像処理装置、画像処理方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing device, an image processing method, and a program that present a makeup method for appropriately expressing an impression desired by a user. ..

上記目的を達成するために、本発明に係る画像処理装置は、
ユーザの顔が撮像された撮像画像を表示する表示手段と、
前記撮像画像に基づいて、前記ユーザの顔の特徴を特定する特徴特定手段と、
顔のメイクで表現する目標の印象として設定された目標印象と、前記特徴特定手段により特定された前記ユーザの顔の特徴とに基づいて、前記目標印象を表現するためのメイク内容を決定するメイク内容決定手段と、
前記表示手段に、前記撮像画像が前記メイク内容決定手段により決定された前記メイク内容に応じて加工されたメイク画像を表示させる表示制御手段と、を備える。
In order to achieve the above object, the image processing apparatus according to the present invention is
A display means for displaying an captured image of the user's face, and
A feature identifying means for identifying the facial features of the user based on the captured image, and
Makeup that determines the makeup content for expressing the target impression based on the target impression set as the target impression expressed by the facial makeup and the facial features of the user specified by the feature specifying means. Content determination means and
The display means includes a display control means for displaying a make-up image in which the captured image is processed according to the make-up content determined by the make-up content determining means.

本発明によれば、ユーザが所望する印象を適切に表現するためのメイクの方法を提示することができる。 According to the present invention, it is possible to present a make-up method for appropriately expressing the impression desired by the user.

本発明の実施形態1に係るメイクシミュレーション装置の外観図External view of the make-up simulation apparatus according to the first embodiment of the present invention. 本発明の実施形態1に係る画像処理装置のハードウェア構成を示すブロック図A block diagram showing a hardware configuration of the image processing apparatus according to the first embodiment of the present invention. 本発明の実施形態1に係る指示装置のハードウェア構成を示すブロック図A block diagram showing a hardware configuration of an instruction device according to a first embodiment of the present invention. 本発明の実施形態1に係る画像処理装置の機能的な構成を示すブロック図A block diagram showing a functional configuration of the image processing apparatus according to the first embodiment of the present invention. 本発明の実施形態1に係る画像処理装置をユーザが使用している様子を示す図The figure which shows the state that the user is using the image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る画像処理装置がメイク画像を表示する様子を示す図The figure which shows a mode that the image processing apparatus which concerns on Embodiment 1 of this invention displays a make-up image. 顔パラメータの第1の説明図First explanatory view of face parameters 顔パラメータの第2の説明図Second explanatory diagram of face parameters モデル値情報の説明図Explanatory diagram of model value information 基本操作量情報の説明図Explanatory diagram of basic operation amount information メイク内容情報の説明図Explanatory drawing of makeup content information ユーザの顔をモデル顔に近づけるためのメイク方法を示す図であり、(A)は垂れ目を標準の目に見せるためのメイク方法を示す図であり、(B)はつり目を標準の目に見せるためのメイク方法を示す図It is a figure which shows the make-up method to make a user's face close to a model face, (A) is a figure which shows the make-up method to make a drooping eye look like a standard eye, and (B) is a figure which shows a make-up method to make a slanted eye look like a standard eye. Diagram showing how to make up to show 本発明の実施形態1に係る画像処理装置が実行する画像表示処理を示すフローチャートA flowchart showing an image display process executed by the image processing apparatus according to the first embodiment of the present invention. 本発明の実施形態2に係る画像処理装置の機能的な構成を示すブロック図A block diagram showing a functional configuration of the image processing apparatus according to the second embodiment of the present invention. 適合印象情報の説明図Explanatory drawing of conformity impression information

以下、本発明の実施形態について、図面を参照して説明する。なお、図中において、同一又は対応する部分には、同一の符号を付す。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are designated by the same reference numerals.

(実施形態1)
まず、図1を参照して、本発明の実施形態1に係るメイクシミュレーション装置100の構成について説明する。メイクシミュレーション装置100は、ユーザが化粧品でメイクした後の状態をコンピュータ上でシミュレーションする装置である。ユーザは、メイクシミュレーション装置100を用いることで、本物の化粧品を用いることなく、気軽にメイクを練習したり、メイク後の状態を事前に確認したりすることができる。
(Embodiment 1)
First, the configuration of the make-up simulation device 100 according to the first embodiment of the present invention will be described with reference to FIG. The make-up simulation device 100 is a device that simulates a state after the user has made up with cosmetics on a computer. By using the make-up simulation device 100, the user can easily practice make-up and check the state after make-up in advance without using real cosmetics.

図1に示すように、メイクシミュレーション装置100は、画像処理装置10と、指示装置30とを備える。画像処理装置10は、ユーザの顔が撮像された撮像画像を用いて、メイク後の状態を表す画像をシミュレーションにより生成して表示する装置である。画像処理装置10は、例えば、メイク用のパレットを模した形状を有する。 As shown in FIG. 1, the make-up simulation device 100 includes an image processing device 10 and an instruction device 30. The image processing device 10 is a device that generates and displays an image showing the state after make-up by simulation using the captured image of the user's face. The image processing device 10 has, for example, a shape that imitates a palette for makeup.

図2に、画像処理装置10のハードウェア構成を示す。図2に示すように、画像処理装置10は、プロセッサ11と、フラッシュメモリ12と、カメラ13と、第1のタッチスクリーン14と、第2のタッチスクリーン15と、通信インターフェース16とを備える。画像処理装置10が備えるこれらの要素は、例えば、システムバスを介して相互に接続される。 FIG. 2 shows the hardware configuration of the image processing device 10. As shown in FIG. 2, the image processing device 10 includes a processor 11, a flash memory 12, a camera 13, a first touch screen 14, a second touch screen 15, and a communication interface 16. These elements included in the image processing apparatus 10 are connected to each other via, for example, a system bus.

プロセッサ11は、画像処理装置10の全体の動作を制御する。プロセッサ11は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、RTC(Real Time Clock)を備える。フラッシュメモリ12は、各種の情報を記憶する。 The processor 11 controls the overall operation of the image processing device 10. The processor 11 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and an RTC (Real Time Clock). The flash memory 12 stores various types of information.

カメラ13は、被写体を撮像する。カメラ13は、被写体から射出された光を集光するレンズと、集光した光を受けて被写体の画像を取得するCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と、撮像素子から電気信号として送られた撮像データをデジタルデータに変換するA/D(Analog/Digital)変換器とを備える。図1に示すように、カメラ13は、第1のタッチスクリーン14の近傍に配置され、第1のタッチスクリーン14を見ながら画像処理装置10を使用しているユーザの顔を撮像する。 The camera 13 takes an image of the subject. The camera 13 includes a lens that collects light emitted from the subject, an image sensor such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) that receives the collected light and acquires an image of the subject. It includes an A / D (Analog / Digital) converter that converts the image pickup data sent as an electric signal from the image pickup device into digital data. As shown in FIG. 1, the camera 13 is arranged in the vicinity of the first touch screen 14 and images the face of a user who is using the image processing device 10 while looking at the first touch screen 14.

第1のタッチスクリーン14と第2のタッチスクリーン15とは、ユーザインターフェースであり、各種の情報をユーザから受け付け、また、各種の情報をユーザに提示する。図1に示すように、第1のタッチスクリーン14は、画像処理装置10の上側の面に配置され、カメラ13の撮像により得られた撮像画像を表示する。第2のタッチスクリーン15は、画像処理装置10の下側の面に配置され、操作受付画像又は化粧品画像を表示する。 The first touch screen 14 and the second touch screen 15 are user interfaces, receive various information from the user, and present various information to the user. As shown in FIG. 1, the first touch screen 14 is arranged on the upper surface of the image processing device 10 and displays the captured image obtained by the imaging of the camera 13. The second touch screen 15 is arranged on the lower surface of the image processing device 10 and displays an operation reception image or a cosmetics image.

操作受付画像は、ユーザから各種の操作を受け付けるための画面である。化粧品画像は、メイクシミュレーションにおいてユーザの顔に仮想的に塗布される化粧品を表現する画像である。化粧品画像は、複数の化粧品のそれぞれを異なる領域において表現する画像である。複数の化粧品のそれぞれは、色、光沢、質感等が少なくとも1つ相違する化粧品である。また、第2のタッチスクリーン15は、第2のタッチスクリーン15の表面に対する接触を伴うユーザ操作を受け付ける。 The operation reception image is a screen for receiving various operations from the user. The cosmetic image is an image representing cosmetics that are virtually applied to the user's face in a makeup simulation. A cosmetic image is an image that represents each of a plurality of cosmetics in different regions. Each of the plurality of cosmetics is a cosmetic having at least one difference in color, luster, texture and the like. Further, the second touch screen 15 accepts a user operation involving contact with the surface of the second touch screen 15.

通信インターフェース16は、プロセッサ11による制御のもと、指示装置30を含む外部の装置と通信するモジュールである。通信インターフェース16は、例えば、無線LAN(Local Area Network)、Bluetooth(登録商標)等の無線通信、又はUSB(Universal Serial Bus)ケーブル等の有線通信により外部の機器と通信する。 The communication interface 16 is a module that communicates with an external device including an instruction device 30 under the control of the processor 11. The communication interface 16 communicates with an external device by, for example, wireless communication such as a wireless LAN (Local Area Network) or Bluetooth (registered trademark), or wired communication such as a USB (Universal Serial Bus) cable.

指示装置30は、メイクシミュレーションにおいて、化粧品を選択し、選択した化粧品を仮想的に塗布する顔の位置を指示するための装置である。指示装置30は、スティック状の形状を有し、いわゆる化粧筆(化粧ブラシ、メイクブラシ)のように、顔に化粧品を塗布するために用いられる塗布ツールを模した部材である。ユーザは、指示装置30を手で把持し、画像処理装置10に表示された化粧品画像及びユーザの実際の顔を、指示装置30の端部で指し示すようにして使用する。 The instruction device 30 is a device for selecting cosmetics in the make-up simulation and instructing the position of the face to which the selected cosmetics are virtually applied. The instruction device 30 has a stick-like shape and is a member that imitates an application tool used for applying cosmetics to the face, such as a so-called makeup brush (makeup brush, makeup brush). The user holds the instruction device 30 by hand and uses the cosmetic image displayed on the image processing device 10 and the user's actual face so as to point to the end of the instruction device 30.

図3に、指示装置30のハードウェア構成を示す。指示装置30は、プロセッサ31と、フラッシュメモリ32と、圧力センサ33と、通信インターフェース34とを備える。指示装置30が備えるこれらの要素は、例えば、システムバスを介して相互に接続される。 FIG. 3 shows the hardware configuration of the instruction device 30. The instruction device 30 includes a processor 31, a flash memory 32, a pressure sensor 33, and a communication interface 34. These elements included in the indicator 30 are interconnected, for example, via a system bus.

プロセッサ31は、指示装置30の全体の動作を制御する。プロセッサ31は、例えば、CPU、ROM、RAM、RTCを備える。フラッシュメモリ32は、各種の情報を記憶する。圧力センサ33は、指示装置30の端部にかかる圧力を検知する。つまり、圧力センサ33は、指示装置30の端部に対する接触を検知する。 The processor 31 controls the overall operation of the instruction device 30. The processor 31 includes, for example, a CPU, ROM, RAM, and RTC. The flash memory 32 stores various types of information. The pressure sensor 33 detects the pressure applied to the end of the indicator device 30. That is, the pressure sensor 33 detects contact with the end of the indicator device 30.

圧力センサ33は、静電容量式、歪みゲージ式などの方式で圧力を検知する。通信インターフェース34は、プロセッサ31による制御のもと、画像処理装置10と通信するモジュールである。通信インターフェース34は、圧力センサ33が検知した圧力を示す圧力情報を画像処理装置10に送信する。通信インターフェース34は、例えば、無線LAN、Bluetooth(登録商標)等の無線通信、又はUSBケーブル等の有線通信により画像処理装置10と通信する。 The pressure sensor 33 detects the pressure by a method such as a capacitance type or a strain gauge type. The communication interface 34 is a module that communicates with the image processing device 10 under the control of the processor 31. The communication interface 34 transmits pressure information indicating the pressure detected by the pressure sensor 33 to the image processing device 10. The communication interface 34 communicates with the image processing device 10 by, for example, wireless communication such as wireless LAN and Bluetooth (registered trademark), or wired communication such as a USB cable.

メイクシミュレーション装置100は、バーチャルメイク機能とメイク方法提示機能とを有する。バーチャルメイク機能は、ユーザによるメイク動作に従ったメイクパーツを、ユーザの顔画像に重ねて表示する機能である。メイク方法提示機能は、ユーザの顔画像に、ユーザが顔のメイクで表現したい印象に合致するメイクパーツを重ねて表示する機能である。つまり、メイク方法提示機能は、ユーザの顔を所望の印象の顔に近づけるためのメイクの見本を提示する機能である。バーチャルメイク機能とメイク方法提示機能とは、例えば、第2のタッチスクリーン15に対するユーザ操作に従って切り替えられる。 The make-up simulation device 100 has a virtual make-up function and a make-up method presentation function. The virtual make-up function is a function of superimposing a make-up part according to a make-up operation by the user on a face image of the user. The make-up method presentation function is a function of superimposing a make-up part that matches the impression that the user wants to express with the make-up of the face on the user's face image. That is, the make-up method presenting function is a function of presenting a make-up sample for bringing the user's face closer to the face having a desired impression. The virtual make-up function and the make-up method presenting function are switched according to, for example, a user operation on the second touch screen 15.

以下、バーチャルメイク機能を実現するためにメイクシミュレーション装置100が実行する処理について簡単に説明する。まず、メイクシミュレーション装置100は、第1のタッチスクリーン14にカメラ13の撮像により得られた撮像画像を表示し、第2のタッチスクリーン15に化粧品画像を表示する。そして、メイクシミュレーション装置100は、ユーザのメイク動作に従って、ユーザの顔に仮想的に塗布される化粧品を示すメイクパーツを撮像画像に重ねて表示する。 Hereinafter, the process executed by the make-up simulation device 100 in order to realize the virtual make-up function will be briefly described. First, the make-up simulation device 100 displays the captured image obtained by the imaging of the camera 13 on the first touch screen 14, and displays the cosmetic image on the second touch screen 15. Then, the make-up simulation device 100 superimposes and displays the make-up parts indicating the cosmetics virtually applied to the user's face on the captured image according to the make-up operation of the user.

このメイク動作には、第1のメイク動作と第2のメイク動作とがある。第1のメイク動作は、化粧用のパレットに収納された化粧品を化粧筆の先端部に付着させる動作を模した動作である。第1のメイク動作は、具体的には、第2のタッチスクリーン15に表示された化粧品画像のうち所望の化粧品を表す領域に指示装置30の先端を接触させる動作である。メイクシミュレーション装置100は、第2のタッチスクリーン15上における接触位置からユーザが選択した化粧品を特定することができる。 This make-up operation includes a first make-up operation and a second make-up operation. The first make-up operation is an operation that imitates the operation of attaching the cosmetics stored in the cosmetic palette to the tip of the makeup brush. Specifically, the first make-up operation is an operation in which the tip of the instruction device 30 is brought into contact with a region representing a desired cosmetic product in the cosmetic image displayed on the second touch screen 15. The makeup simulation device 100 can identify the cosmetics selected by the user from the contact position on the second touch screen 15.

第2のメイク動作は、化粧筆の先端部に付着した化粧品をユーザの顔に塗布する動作を模した動作である。第2の動作は、具体的には、指示装置30の先端をユーザの顔の所望の領域に接触させる動作である。メイクシミュレーション装置100は、指示装置30から画像処理装置10に送信される圧力情報と、カメラ13による撮像により得られた撮像画像内における、ユーザの顔と指示装置30の先端との位置関係とに基づいて、ユーザの顔における指示装置30の先端の接触位置を特定することができる。 The second make-up operation is an operation that imitates the operation of applying the cosmetics adhering to the tip of the makeup brush to the user's face. Specifically, the second operation is an operation of bringing the tip of the instruction device 30 into contact with a desired region of the user's face. The make-up simulation device 100 determines the positional relationship between the pressure information transmitted from the instruction device 30 to the image processing device 10 and the user's face and the tip of the instruction device 30 in the image captured by the image captured by the camera 13. Based on this, the contact position of the tip of the instruction device 30 on the user's face can be specified.

メイクシミュレーション装置100は、第1のメイク動作においてユーザが選択した化粧品を、第2のメイク動作においてユーザが指定した顔の領域に塗布する動作をシミュレーションする。つまり、メイクシミュレーション装置100は、ユーザが選択した化粧品を表すメイクパーツを、撮像画像上における、ユーザが指定した顔の領域に重ねたメイク画像を表示する。バーチャルメイク機能によれば、メイク後の状態をシミュレーションすることができる。なお、ユーザは、バーチャルメイク機能を利用する前にメイク方法提示機能を利用して、適切なメイク方法を把握することが好適である。以下、本実施形態では、基本的に、メイク方法提示機能について説明する。 The make-up simulation device 100 simulates an operation of applying the cosmetics selected by the user in the first make-up operation to the facial area designated by the user in the second make-up operation. That is, the make-up simulation device 100 displays a make-up image in which make-up parts representing cosmetics selected by the user are superimposed on a face area designated by the user on the captured image. According to the virtual make-up function, the state after make-up can be simulated. It is preferable that the user grasps an appropriate make-up method by using the make-up method presenting function before using the virtual make-up function. Hereinafter, in the present embodiment, the makeup method presentation function will be basically described.

図4に示すように、画像処理装置10は、機能的には、撮像部101と、画像取得部102と、表示制御部103と、表示部104と、特徴特定部105と、印象指定操作受付部106と、印象設定部107と、調整指示操作受付部108と、メイク内容決定部110と、記憶部120とを備える。特徴特定部105は、ユーザ値取得部115を備える。メイク内容決定部110は、基本操作量決定部111と、追加操作量決定部112と、メイク領域決定部113と、メイク色決定部114とを備える。記憶部120は、モデル値記憶部121と、基本操作量記憶部122と、メイク内容記憶部123とを備える。 As shown in FIG. 4, the image processing device 10 functionally receives an image pickup unit 101, an image acquisition unit 102, a display control unit 103, a display unit 104, a feature identification unit 105, and an impression designation operation reception. A unit 106, an impression setting unit 107, an adjustment instruction operation reception unit 108, a make-up content determination unit 110, and a storage unit 120 are provided. The feature specifying unit 105 includes a user value acquisition unit 115. The make-up content determination unit 110 includes a basic operation amount determination unit 111, an additional operation amount determination unit 112, a make-up area determination unit 113, and a make-up color determination unit 114. The storage unit 120 includes a model value storage unit 121, a basic operation amount storage unit 122, and a make-up content storage unit 123.

画像取得部102は、本発明における画像取得手段の一例である。表示制御部103は、本発明における表示制御手段の一例である。表示部104は、本発明における表示手段及び表示装置の一例である。特徴特定部105は、本発明における特徴特定手段の一例である。印象設定部107は、本発明における印象設定手段の一例である。調整指示操作受付部108は、本発明における調整指示操作受付手段の一例である。メイク内容決定部110は、本発明におけるメイク内容決定手段の一例である。基本操作量決定部111は、本発明における基本操作量決定手段の一例である。追加操作量決定部112は、本発明における追加操作量決定手段の一例である。ユーザ値取得部115は、本発明におけるユーザ値取得手段の一例である。モデル値記憶部121は、本発明におけるモデル値記憶手段の一例である。基本操作量記憶部122は、本発明における基本操作量記憶手段の一例である。メイク内容記憶部123は、本発明におけるメイク内容記憶手段の一例である。 The image acquisition unit 102 is an example of the image acquisition means in the present invention. The display control unit 103 is an example of the display control means in the present invention. The display unit 104 is an example of the display means and the display device in the present invention. The feature specifying unit 105 is an example of the feature specifying means in the present invention. The impression setting unit 107 is an example of the impression setting means in the present invention. The adjustment instruction operation reception unit 108 is an example of the adjustment instruction operation reception means in the present invention. The make-up content determining unit 110 is an example of the make-up content determining means in the present invention. The basic operation amount determination unit 111 is an example of the basic operation amount determination means in the present invention. The additional manipulated variable determination unit 112 is an example of the additional manipulated variable determining means in the present invention. The user value acquisition unit 115 is an example of the user value acquisition means in the present invention. The model value storage unit 121 is an example of the model value storage means in the present invention. The basic manipulated variable storage unit 122 is an example of the basic manipulated variable storage means in the present invention. The make-up content storage unit 123 is an example of the make-up content storage means in the present invention.

撮像部101は、ユーザの顔を含む範囲を撮像し、この範囲を表す撮像画像を生成する。図5に、ユーザがメイクシミュレーション装置100を用いてメイクのシミュレーションをするために、画像処理装置10が備える第1のタッチスクリーン14に向かい合っている様子を示す。撮像部101は、図5において破線で示す視野の内側の範囲、具体的には、第1のタッチスクリーン14に向かい合っているユーザの顔を含む範囲を撮像する。 The imaging unit 101 images a range including the user's face and generates an captured image representing this range. FIG. 5 shows a state in which a user faces a first touch screen 14 included in the image processing device 10 in order to simulate make-up using the make-up simulation device 100. The imaging unit 101 captures an image of the area inside the field of view shown by the broken line in FIG. 5, specifically, the area including the user's face facing the first touch screen 14.

従って、撮像部101を実現するためのカメラ13の設置位置及び光軸の向きは、第1のタッチスクリーン14に向かい合うユーザの顔がカメラ13の視野に含まれるように調整される。撮像部101は、画像処理装置10がユーザにより使用されている間、継続的に、ユーザの顔を撮像して撮像画像を生成する処理を実行する。撮像部101の機能は、例えば、プロセッサ11とカメラ13とが協働することにより実現される。 Therefore, the installation position of the camera 13 and the orientation of the optical axis for realizing the image pickup unit 101 are adjusted so that the user's face facing the first touch screen 14 is included in the field of view of the camera 13. The image pickup unit 101 continuously executes a process of capturing the user's face and generating an captured image while the image processing device 10 is being used by the user. The function of the imaging unit 101 is realized, for example, by the cooperation of the processor 11 and the camera 13.

画像取得部102は、撮像部101が生成した撮像画像を取得する。画像取得部102の機能は、例えば、プロセッサ11の機能により実現される。 The image acquisition unit 102 acquires the captured image generated by the image capturing unit 101. The function of the image acquisition unit 102 is realized by, for example, the function of the processor 11.

表示制御部103は、表示部104による画像の表示を制御する。具体的には、表示制御部103は、表示部104が備える第1の表示領域に、画像取得部102により取得された撮像画像を表示する。第1の表示領域は、例えば、第1のタッチスクリーン14に対応する表示領域である。このように、表示制御部103は、ユーザの顔の様子をリアルタイムで表示する。 The display control unit 103 controls the display of the image by the display unit 104. Specifically, the display control unit 103 displays the captured image acquired by the image acquisition unit 102 in the first display area included in the display unit 104. The first display area is, for example, a display area corresponding to the first touch screen 14. In this way, the display control unit 103 displays the state of the user's face in real time.

また、表示制御部103は、表示部104が備える第2の表示領域に、ユーザ操作を受け付けるための操作受付画像を表示する。第2の表示領域は、第1の表示領域とは異なる表示領域であり、例えば、第2のタッチスクリーン15に対応する表示領域である。操作受付画像は、ユーザ操作を受け付けるための各種のボタンなどを含む画像である。例えば、操作受付画像は、ユーザが複数の印象から所望する印象を決定するためのボタン、メイクシミュレーション装置100が実行する処理を、メイク方法提示機能のための処理からバーチャルメイク機能のための処理に切り替えることを指示するためのボタンなどを含む画像である。表示制御部103の機能は、例えば、プロセッサ11の機能により実現される。 In addition, the display control unit 103 displays an operation acceptance image for accepting a user operation in a second display area included in the display unit 104. The second display area is a display area different from the first display area, and is, for example, a display area corresponding to the second touch screen 15. The operation reception image is an image including various buttons for receiving user operations. For example, in the operation reception image, a button for determining a desired impression from a plurality of impressions by the user, a process executed by the make-up simulation device 100 is changed from a process for a make-up method presentation function to a process for a virtual make-up function. It is an image including a button for instructing to switch. The function of the display control unit 103 is realized by, for example, the function of the processor 11.

表示部104は、表示制御部103による制御に従って画像を表示する。具体的には、表示部104は、第1の表示領域に画像取得部102が取得した撮像画像を表示し、第2の表示領域に操作受付画像を表示する。なお、表示部104は、表示制御部103による制御に従って、第1の表示領域において撮像画像にメイクパーツが重ねられたメイク画像を表示する。図6に、第1のタッチスクリーン14において、顔画像である画像50を含む撮像画像に、メイクパーツである画像51が重ねられたメイク画像が表示された様子を示す。表示部104の機能は、例えば、プロセッサ11と第1のタッチスクリーン14と第2のタッチスクリーン15とが協働することにより実現される。 The display unit 104 displays an image according to the control of the display control unit 103. Specifically, the display unit 104 displays the captured image acquired by the image acquisition unit 102 in the first display area, and displays the operation reception image in the second display area. The display unit 104 displays a make-up image in which make-up parts are superimposed on the captured image in the first display area under the control of the display control unit 103. FIG. 6 shows how the first touch screen 14 displays a make-up image in which the image 51, which is a make-up part, is superimposed on the captured image including the image 50, which is a face image. The function of the display unit 104 is realized, for example, by the cooperation of the processor 11, the first touch screen 14, and the second touch screen 15.

特徴特定部105は、画像取得部102により取得された撮像画像に基づいて、ユーザの顔の特徴を特定する。ユーザの顔の特徴は、例えば、ユーザの顔パーツの大きさ、形状、配置位置、配置角度、又は、ユーザの顔パーツ間の配置関係に関わる特徴である。ユーザの顔の特徴は、例えば、ユーザの顔パラメータの値により表現される。上述したように、特徴特定部105は、ユーザ値取得部115を備える。特徴特定部105の機能は、例えば、プロセッサ11の機能により実現される。 The feature specifying unit 105 identifies the features of the user's face based on the captured image acquired by the image acquisition unit 102. The features of the user's face are, for example, features related to the size, shape, placement position, placement angle of the user's face parts, or the placement relationship between the user's face parts. The features of the user's face are represented, for example, by the values of the user's face parameters. As described above, the feature specifying unit 105 includes a user value acquisition unit 115. The function of the feature specifying unit 105 is realized by, for example, the function of the processor 11.

ユーザ値取得部115は、画像取得部102により取得された撮像画像に基づいて、ユーザの顔パラメータの値であるユーザ値を取得する。顔パラメータは、顔が備えるパーツである顔パーツに関するパラメータである。顔パーツは、右目、左目、右眉、左眉、鼻、眉間、口、右耳、左耳などである。顔パラメータは、例えば、顔パーツのサイズ、顔パーツの形状、顔パーツの配置位置、顔パーツの配置角度、複数の顔パーツ間のサイズの比率、複数の顔パーツ間の配置バランスなどのパラメータである。なお、顔パラメータの値ではなく顔パラメータの種類のことを、適宜、単に、顔パラメータという。本実施形態では、顔パラメータは、目の角度と、目の間隔と、目の大きさと、目の開きとの4つである。以下、図7と図8とを参照して、これらの顔パラメータについて説明する。 The user value acquisition unit 115 acquires the user value, which is the value of the user's face parameter, based on the captured image acquired by the image acquisition unit 102. The face parameter is a parameter related to a face part, which is a part of the face. Face parts include the right eye, left eye, right eyebrow, left eyebrow, nose, glabellar, mouth, right ear, and left ear. Face parameters are, for example, parameters such as face part size, face part shape, face part placement position, face part placement angle, size ratio between multiple face parts, and placement balance between multiple face parts. is there. The type of face parameter, not the value of the face parameter, is appropriately and simply referred to as a face parameter. In this embodiment, there are four face parameters: eye angle, eye spacing, eye size, and eye opening. Hereinafter, these face parameters will be described with reference to FIGS. 7 and 8.

図7に、第1のタッチスクリーン14に表示されるユーザの顔の一部を示す。図7における右側の目がユーザの右目であり、図7における左側の目がユーザの左目である。また、図8に、ユーザの右目の近傍の拡大図を示す。図7において、W1は右目の横幅を表し、W2は左目の横幅を表し、W3は右目の目頭から左目の目頭までの長さを表し、W4は右目の目頭から顔の右側の輪郭までの長さを表す。 FIG. 7 shows a part of the user's face displayed on the first touch screen 14. The right eye in FIG. 7 is the user's right eye, and the left eye in FIG. 7 is the user's left eye. Further, FIG. 8 shows an enlarged view of the vicinity of the user's right eye. In FIG. 7, W1 represents the width of the right eye, W2 represents the width of the left eye, W3 represents the length from the inner corner of the right eye to the inner corner of the left eye, and W4 represents the length from the inner corner of the right eye to the contour on the right side of the face. Represents

図8において、W1は右目の横幅を表し、H1は右目の縦幅を表し、W5は右眉の眉頭から右眉の眉尻までの長さを表し、W6は右眉の眉頭から右眉の眉山までの長さを表す。また、図8において、直線L1は、右目の目頭を通過し、顔の幅方向に延びる直線であり、直線L2は、右目の目頭と右目の目尻とを結ぶ直線であり、D1は直線L1と直線L2とのなす角度を表す。なお、顔の幅方向は、顔の縦方向と顔の前後方向とに直交する方向であり、概ね、両耳を結ぶ方向である。顔の縦方向は、概ね、脳天とあごとを結ぶ方向である。顔の前後方向は、概ね、顔面と直交する方向である。 In FIG. 8, W1 represents the width of the right eye, H1 represents the height of the right eye, W5 represents the length from the inside of the right eyebrow to the end of the right eyebrow, and W6 represents the length from the inside of the right eyebrow to the end of the right eyebrow. Represents the length to Mt. Bizan. Further, in FIG. 8, the straight line L1 is a straight line that passes through the inner corner of the right eye and extends in the width direction of the face, the straight line L2 is a straight line connecting the inner corner of the right eye and the outer corner of the right eye, and D1 is a straight line L1. Represents the angle formed by the straight line L2. The width direction of the face is a direction orthogonal to the vertical direction of the face and the front-back direction of the face, and is generally a direction connecting both ears. The vertical direction of the face is generally the direction connecting the brain and the chin. The anteroposterior direction of the face is generally orthogonal to the face.

目の角度は、右目の角度と左目の角度とを総称する概念である。目の角度は、目頭と目尻とを結ぶ直線と、目頭を通過し、顔の幅方向に延びる直線とのなす角度により表される。従って、右目の角度は、直線L1と直線L2とのなす角度を表すD1により表される。目の間隔は、目の横幅に対する両目の目頭間の長さの割合により表される。目の横幅としては、右目の横幅、左目の横幅、又は、右目の横幅と左目の横幅との平均値を採用することができる。目の間隔は、W3/W1、W3/W2、又は、W3×2/(W1+W2)により表される。 The eye angle is a concept that collectively refers to the angle of the right eye and the angle of the left eye. The angle of the eye is represented by the angle formed by the straight line connecting the inner and outer corners of the eye and the straight line passing through the inner corner of the eye and extending in the width direction of the face. Therefore, the angle of the right eye is represented by D1 representing the angle formed by the straight line L1 and the straight line L2. The distance between the eyes is expressed by the ratio of the length between the inner corners of both eyes to the width of the eyes. As the width of the eyes, the width of the right eye, the width of the left eye, or the average value of the width of the right eye and the width of the left eye can be adopted. The eye spacing is represented by W3 / W1, W3 / W2, or W3 × 2 / (W1 + W2).

目の大きさは、右目の大きさと左目の大きさとを総称する概念である。目の大きさは、目頭から顔の輪郭までの長さに対する目の横幅の割合により表される。従って、右目の大きさは、W1/W4により表される。目の開きは、右目の開きと左目の開きとを総称する概念である。目の開きは、目の横幅に対する目の縦幅の割合により表される。従って、右目の開きは、H1/W1により表される。 Eye size is a concept that collectively refers to the size of the right eye and the size of the left eye. The size of the eye is expressed by the ratio of the width of the eye to the length from the inner corner of the eye to the contour of the face. Therefore, the size of the right eye is represented by W1 / W4. Eye opening is a concept that collectively refers to the opening of the right eye and the opening of the left eye. The opening of the eyes is represented by the ratio of the vertical width of the eyes to the horizontal width of the eyes. Therefore, the opening of the right eye is represented by H1 / W1.

なお、顔パラメータは、目に関する顔パラメータに限定されず、例えば、眉に関する顔パラメータであってもよい。例えば、顔パラメータとして、眉山の位置がある。眉山の位置は、右眉の眉山の位置と左眉の眉山の位置とを総称する概念である。眉山の位置は、眉頭から眉尻までの長さに対する眉頭から眉山までの長さの割合により表される。従って、右眉の眉山の位置は、W6/W5により表される。 The face parameter is not limited to the face parameter related to the eyes, and may be, for example, a face parameter related to the eyebrows. For example, as a face parameter, there is the position of Mt. Bizan. The position of Mt. Bizan is a concept that collectively refers to the position of Mt. Bizan on the right eyebrow and the position of Mt. Bizan on the left eyebrow. The position of the ridge of the eyebrow is represented by the ratio of the length from the inside of the eyebrow to the ridge of the eyebrow to the length from the inside of the eyebrow to the end of the eyebrow. Therefore, the position of the ridge of the right eyebrow is represented by W6 / W5.

ユーザ値取得部115は、画像取得部102により取得された撮像画像から、ユーザの顔の位置を特定し、特定した顔の位置から各顔パーツの位置及びサイズを特定する。そして、ユーザ値取得部115は、全ての顔パラメータについて、各顔パーツの位置及びサイズから、ユーザの顔パラメータの値であるユーザ値を求める。なお、ユーザ値取得部115は、エッジ検出、パターンマッチングなどの周知の技術を利用して、顔の位置と、各顔パーツの位置と、各顔パーツのサイズとを特定することができる。ユーザ値取得部115の機能は、例えば、プロセッサ11の機能により実現される。 The user value acquisition unit 115 specifies the position of the user's face from the captured image acquired by the image acquisition unit 102, and specifies the position and size of each face part from the specified face position. Then, the user value acquisition unit 115 obtains the user value, which is the value of the user's face parameter, from the position and size of each face part for all the face parameters. The user value acquisition unit 115 can specify the position of the face, the position of each face part, and the size of each face part by using well-known techniques such as edge detection and pattern matching. The function of the user value acquisition unit 115 is realized by, for example, the function of the processor 11.

印象指定操作受付部106は、ユーザから印象指定操作を受け付ける。印象指定操作は、ユーザが顔のメイクで表現することを所望する印象を指定する操作である。つまり、印象指定操作受付部106は、ユーザがメイクで実現したい顔の印象を示す情報をユーザから取得する。印象指定操作により指定される印象としては、知的、おおらか、控えめ、華やか、クール、明るい、可愛い、シャープなどがある。印象指定操作受付部106は、例えば、これらの印象を表す画像をユーザに提示した上で、ユーザから印象を選択する操作を受け付ける。印象指定操作受付部106の機能は、例えば、プロセッサ11と第2のタッチスクリーン15とが協働することにより実現される。 The impression designation operation reception unit 106 receives an impression designation operation from the user. The impression designation operation is an operation of designating an impression that the user wants to express with facial makeup. That is, the impression designation operation reception unit 106 acquires information indicating the impression of the face that the user wants to realize by makeup from the user. Impressions specified by the impression specification operation include intellectual, easy-going, modest, gorgeous, cool, bright, cute, and sharp. The impression designation operation reception unit 106, for example, presents an image representing these impressions to the user, and then accepts an operation of selecting an impression from the user. The function of the impression designation operation receiving unit 106 is realized, for example, by the cooperation of the processor 11 and the second touch screen 15.

印象設定部107は、ユーザから取得された情報に基づいて、顔のメイクで表現する目標の印象である目標印象を設定する。本実施形態では、印象指定操作受付部106がユーザから受け付ける印象指定操作によりユーザが所望する印象が指定される。従って、印象設定部107は、印象指定操作により指定された印象を目標印象として設定する。印象設定部107の機能は、例えば、プロセッサ11の機能により実現される。 The impression setting unit 107 sets a target impression, which is an impression of the target expressed by facial makeup, based on the information acquired from the user. In the present embodiment, the impression specified by the user is designated by the impression designation operation received from the user by the impression designation operation receiving unit 106. Therefore, the impression setting unit 107 sets the impression designated by the impression designation operation as the target impression. The function of the impression setting unit 107 is realized by, for example, the function of the processor 11.

調整指示操作受付部108は、ユーザから調整指示操作を受け付ける。調整指示操作は、メイク内容決定部110により決定されたメイク内容の調整を指示する操作である。調整指示操作受付部108は、例えば、メイク色やメイク領域を調整するためのオブジェクトをユーザに提示した上で、ユーザからこのオブジェクトを用いてメイク色やメイク領域を調整する操作を受け付ける。このようなオブジェクトとしては、例えば、スクロールバーなどがある。メイク色は、撮像画像に重ねられるメイクパーツの色である。メイク領域は、撮像画像にメイクパーツが重ねられる領域である。調整指示操作受付部108は、の機能は、例えば、プロセッサ11と第2のタッチスクリーン15とが協働することにより実現される。 The adjustment instruction operation reception unit 108 receives an adjustment instruction operation from the user. The adjustment instruction operation is an operation for instructing the adjustment of the make-up content determined by the make-up content determination unit 110. The adjustment instruction operation receiving unit 108, for example, presents an object for adjusting the make-up color and the make-up area to the user, and then receives an operation for adjusting the make-up color and the make-up area from the user using this object. Examples of such an object include a scroll bar and the like. The make-up color is the color of the make-up parts superimposed on the captured image. The make-up area is an area in which make-up parts are superimposed on the captured image. The function of the adjustment instruction operation receiving unit 108 is realized, for example, by the cooperation of the processor 11 and the second touch screen 15.

メイク内容決定部110は、ユーザ値取得部115により取得されたユーザ値と、印象設定部107により設定された目標印象とに基づいて、目標印象を表現するためのメイク内容を決定する。メイク内容は、メイク色とメイク領域とを含む。本実施形態では、仮想的に塗布される化粧品はアイシャドーであり、メイク色は仮想的に塗布されるアイシャドーの色であり、メイク領域はアイシャドーが仮想的に塗布される領域である。メイク内容決定部110の詳細については後述する。メイク内容決定部110の機能は、例えば、プロセッサ11の機能により実現される。 The make-up content determination unit 110 determines the make-up content for expressing the target impression based on the user value acquired by the user value acquisition unit 115 and the target impression set by the impression setting unit 107. The make-up content includes a make-up color and a make-up area. In the present embodiment, the cosmetic to be virtually applied is an eye shadow, the make-up color is the color of the eye shadow to be applied virtually, and the make-up area is an area to which the eye shadow is virtually applied. The details of the make-up content determination unit 110 will be described later. The function of the make-up content determination unit 110 is realized by, for example, the function of the processor 11.

ここで、表示制御部103は、表示部104に、メイク内容決定部110により決定されたメイク内容に応じたメイクパーツを撮像画像に重ねたメイク画像を表示させる。例えば、表示制御部103は、図6に示すように、メイク内容に応じたメイクパーツを表す画像51を、顔画像である画像50を含む撮像画像に重ねることにより得られるメイク画像を表示する。 Here, the display control unit 103 causes the display unit 104 to display a make-up image in which make-up parts corresponding to the make-up contents determined by the make-up content determination unit 110 are superimposed on the captured image. For example, as shown in FIG. 6, the display control unit 103 displays a make-up image obtained by superimposing an image 51 representing a make-up part according to the make-up content on an captured image including an image 50 which is a face image.

記憶部120は、メイク内容決定部110がメイク内容を決定するときに用いる各種の情報を記憶する。上述したように、記憶部120は、モデル値記憶部121と、基本操作量記憶部122と、メイク内容記憶部123とを備える。記憶部120、モデル値記憶部121、基本操作量記憶部122、及び、メイク内容記憶部123の機能は、例えば、フラッシュメモリ12の機能により実現される。 The storage unit 120 stores various information used when the make-up content determination unit 110 determines the make-up content. As described above, the storage unit 120 includes a model value storage unit 121, a basic operation amount storage unit 122, and a make-up content storage unit 123. The functions of the storage unit 120, the model value storage unit 121, the basic operation amount storage unit 122, and the make-up content storage unit 123 are realized by, for example, the functions of the flash memory 12.

モデル値記憶部121は、モデル値情報を記憶する。モデル値情報は、複数の顔パラメータのそれぞれについて、予め定められたモデル顔の顔パラメータの値であるモデル値を示す情報である。モデル顔は、各顔パーツのサイズ、各顔パーツの配置バランスなどが適正である模範的な顔である。つまり、モデル値は、顔パラメータの値の模範的な値である。モデル値情報は、例えば、図9に示すように、顔パラメータ毎に、モデル値を示す情報である。このモデル値情報は、目の角度が+5度であり、目の間隔が1であり、目の大きさが0.7であり、目の開きが0.33である顔が、モデル顔であることを示している。 The model value storage unit 121 stores model value information. The model value information is information indicating a model value which is a predetermined value of the face parameter of the model face for each of the plurality of face parameters. The model face is a model face in which the size of each face part and the arrangement balance of each face part are appropriate. That is, the model value is a model value of the value of the face parameter. The model value information is, for example, as shown in FIG. 9, information indicating a model value for each face parameter. In this model value information, a face having an eye angle of +5 degrees, an eye spacing of 1, an eye size of 0.7, and an eye opening of 0.33 is a model face. It is shown that.

基本操作量記憶部122は、基本操作量情報を記憶する。基本操作量情報は、モデル顔に目標印象を持たせるためのモデル値に対する操作量である基本操作量を特定可能な情報である。具体的には、基本操作量情報は、複数の印象のそれぞれについて、モデル顔に各印象を持たせるための各モデル値に対する操作量を示す情報である。モデル顔は、基本的には、目標印象を与えることができる顔である目標顔とは一致しない。言い換えれば、モデル顔の顔パラメータの値であるモデル値と、目標顔の顔パラメータの値である目標値とは一致しない。そこで、モデル値を目標値にするための操作量、つまり、モデル値と目標値との差分値を、モデル値に対する操作量とする。 The basic operation amount storage unit 122 stores the basic operation amount information. The basic manipulated variable information is information that can specify the basic manipulated variable, which is the manipulated variable for the model value for giving the model face a target impression. Specifically, the basic manipulated variable information is information indicating the manipulated variable for each model value for giving each impression to the model face for each of the plurality of impressions. The model face basically does not match the target face, which is a face that can give a target impression. In other words, the model value, which is the value of the face parameter of the model face, does not match the target value, which is the value of the face parameter of the target face. Therefore, the manipulated variable for setting the model value to the target value, that is, the difference value between the model value and the target value is set as the manipulated variable for the model value.

基本操作量情報は、例えば、図10に示すように、印象毎に、顔パラメータと基本操作量とを示す情報である。図10に示す基本操作量情報は、例えば、モデル顔を知的な印象の顔に近づけるためには、目の間隔を0.2だけ狭める必要があることを示している。言い換えれば、この基本操作量情報は、知的な印象の顔の目の間隔は、模範的な顔の目の間隔である1よりも0.2少ない0.8であることを示している。 The basic operation amount information is, for example, as shown in FIG. 10, information indicating a face parameter and a basic operation amount for each impression. The basic operation amount information shown in FIG. 10 indicates that, for example, in order to bring the model face closer to the face with an intellectual impression, it is necessary to narrow the eye spacing by 0.2. In other words, this basic manipulated variable information shows that the facial eye spacing of the intellectual impression is 0.8, which is 0.2 less than the exemplary facial eye spacing of 1.

また、基本操作量情報の内容を考慮すると、以下のように考えることができる。つまり、モデル顔をおおらかな印象の顔に近づけるためには、目の間隔を0.2だけ広げるとよい。また、モデル顔を控えめな印象の顔に近づけるためには、目の大きさを0.1だけ小さくするとよい。また、モデル顔を華やかな印象の顔に近づけるためには、目の大きさを0.1だけ大きくするとよい。また、モデル顔をクールな印象の顔に近づけるためには、目の開きを0.05だけ小さくするとよい。また、モデル顔を明るい印象の顔に近づけるためには、目の開きを0.05だけ大きくするとよい。また、モデル顔を可愛い印象の顔に近づけるためには、目の角度を5度だけ小さくするとよい。また、モデル顔をシャープな印象の顔に近づけるためには、目の角度を5度だけ大きくするとよい。 Further, considering the content of the basic operation amount information, it can be considered as follows. In other words, in order to bring the model face closer to a face with a laid back impression, it is advisable to widen the eye spacing by 0.2. Also, in order to bring the model face closer to a face with a modest impression, the size of the eyes should be reduced by 0.1. Further, in order to bring the model face closer to a face with a gorgeous impression, it is advisable to increase the size of the eyes by 0.1. Also, in order to bring the model face closer to a face with a cool impression, it is advisable to reduce the eye opening by 0.05. Further, in order to bring the model face closer to the face with a bright impression, the eye opening should be increased by 0.05. In addition, in order to bring the model face closer to the face with a cute impression, the angle of the eyes should be reduced by 5 degrees. Further, in order to bring the model face closer to a face with a sharp impression, it is advisable to increase the angle of the eyes by 5 degrees.

メイク内容記憶部123は、メイク内容情報を記憶する。メイク内容情報は、複数の顔パラメータのそれぞれについて、ユーザ値又はモデル値に対する操作量に対応するメイク内容を示す情報である。この操作量は、基本操作量又は追加操作量に対応する。なお、基本操作量は、モデル顔に目標印象を持たせるためのモデル値に対する操作量である。また、追加操作量は、ユーザの顔をモデル顔に近づけるためのユーザ値に対する操作量である。メイク内容情報は、顔パラメータを変更した場合と同様の効果が期待できるメイク内容、言い換えれば、顔パラメータに対する操作と同様の効果が期待できるメイク内容を示す情報である。 The make-up content storage unit 123 stores the make-up content information. The make-up content information is information indicating the make-up content corresponding to the operation amount for the user value or the model value for each of the plurality of face parameters. This manipulated variable corresponds to a basic manipulated variable or an additional manipulated variable. The basic operation amount is an operation amount with respect to the model value for giving a target impression to the model face. Further, the additional operation amount is an operation amount for the user value for bringing the user's face closer to the model face. The make-up content information is information indicating the make-up content that can be expected to have the same effect as when the face parameter is changed, in other words, the make-up content that can be expected to have the same effect as the operation on the face parameter.

メイク内容情報は、例えば、図11に示すように、顔パラメータと操作量との組み合わせ毎に、メイク領域とメイク色とを含むメイク内容を示す情報である。図11に示すメイク内容情報は、例えば、目の角度を10度下げた場合と同様の効果を得るためには、目の周囲に幅広く紫色のアイシャドーを塗布するメイクを施すべきことを示している。 The make-up content information is, for example, as shown in FIG. 11, information indicating the make-up content including the make-up area and the make-up color for each combination of the face parameter and the operation amount. The makeup content information shown in FIG. 11 indicates that, for example, in order to obtain the same effect as when the angle of the eyes is lowered by 10 degrees, a makeup in which a wide purple eye shadow is applied around the eyes should be applied. There is.

以下、図12(A)と図12(B)とを参照して、見た目の印象を変えるためのメイクについて説明する。まず、図12(A)を参照して、垂れ目を模範的な目に近づけるためのメイクについて説明する。目の角度の適正値は+5度であり、モデル顔の目の角度は+5度であるものとする。また、ユーザの右目は垂れ目であり、ユーザの右目の角度は−5度であるものとする。この場合、ユーザの右目の角度をモデル顔の右目の角度にするための操作量は、+10度である。そこで、右目の角度が10度上がった場合と同様の効果が得られるメイクとして、目尻の外側の上部に紫色のアイシャドーを塗布するというメイク内容が決定される。図12(A)に、アイシャドーが仮想的に塗布されるメイク領域として、領域E1を示す。かかるメイクが施されたユーザの顔は、右目の角度が+5度であるモデル顔と同様の印象を見た人に与えることが期待できる。 Hereinafter, makeup for changing the appearance impression will be described with reference to FIGS. 12 (A) and 12 (B). First, with reference to FIG. 12 (A), a make-up for bringing the drooping eyes closer to the exemplary eyes will be described. It is assumed that the proper value of the eye angle is +5 degrees and the eye angle of the model face is +5 degrees. Further, it is assumed that the user's right eye is a drooping eye and the angle of the user's right eye is −5 degrees. In this case, the amount of operation for setting the angle of the user's right eye to the angle of the right eye of the model face is +10 degrees. Therefore, as a make-up that can obtain the same effect as when the angle of the right eye is increased by 10 degrees, the make-up content of applying purple eye shadow to the upper part of the outside of the outer corner of the eye is determined. FIG. 12A shows the area E1 as a make-up area to which the eye shadow is virtually applied. The user's face to which such makeup is applied can be expected to give an impression similar to that of a model face in which the angle of the right eye is +5 degrees.

次に、図12(B)を参照して、つり目を模範的な目に近づけるためのメイクについて説明する。ここでは、ユーザの右目はつり目であり、ユーザの右目の角度は+10度であるものとする。この場合、ユーザの右目の角度をモデル顔の右目の角度にするための操作量は、−5度である。そこで、右目の角度が5度下がった場合と同様の効果が得られるメイクとして、目の周囲に幅広く薄紫色のアイシャドーを塗布するというメイク内容が決定される。図12(B)に、アイシャドーが仮想的に塗布されるメイク領域として、領域E2を示す。かかるメイクが施されたユーザの顔は、右目の角度が+5度であるモデル顔と同様の印象を見た人に与えることが期待できる。 Next, with reference to FIG. 12B, a make-up for bringing the slanted eyes closer to the model eyes will be described. Here, it is assumed that the user's right eye is a chipping eye and the angle of the user's right eye is +10 degrees. In this case, the amount of operation for setting the angle of the user's right eye to the angle of the right eye of the model face is −5 degrees. Therefore, as a make-up that can obtain the same effect as when the angle of the right eye is lowered by 5 degrees, the make-up content of applying a wide range of lilac eye shadow around the eyes is determined. FIG. 12B shows the area E2 as a make-up area to which the eye shadow is virtually applied. The user's face to which such makeup is applied can be expected to give an impression similar to that of a model face in which the angle of the right eye is +5 degrees.

なお、垂れ目を模範的な目に近づけるためのメイクは、模範的な目をシャープな印象を与える目に近づけるメイクでもある。つまり、目の角度が上がったように見せるメイクは、よりシャープな印象を与えるためのメイクである。同様に、つり目を模範的な目に近づけるためのメイクは、模範的な目を可愛い印象を与える目に近づけるメイクでもある。つまり、目の角度が下がったように見せるメイクは、より可愛い印象を与えるためのメイクである。 The make-up that brings the drooping eyes closer to the model eyes is also the make-up that brings the model eyes closer to the eyes that give a sharp impression. In other words, make-up that makes the eyes look like they are raised is a make-up that gives a sharper impression. Similarly, make-up that brings the model eyes closer to the model eyes is also make-up that brings the model eyes closer to the eyes that give a cute impression. In other words, make-up that makes the eyes look like they are lowered is a make-up that gives a more cute impression.

また、目の間隔が狭くなったように見せるメイクは、より知的な印象を与えるためのメイクである。また、目の間隔が広くなったように見せるメイクは、よりおおらかな印象を与えるためのメイクである。また、目の大きさが小さくなったように見せるメイクは、より控えめな印象を与えるためのメイクである。また、目の大きさが大きくなったように見せるメイクは、より華やかな印象を与えるためのメイクである。また、目の開きが狭くなったように見せるメイクは、よりクール印象を与えるためのメイクである。また、目の開きが広くなったように見せるメイクは、より明るい印象を与えるためのメイクである。 In addition, make-up that makes the eyes look narrower is a make-up that gives a more intellectual impression. In addition, make-up that makes the eyes look wider is a make-up that gives a more laid back impression. Also, make-up that makes the eyes look smaller is a make-up that gives a more modest impression. In addition, the make-up that makes the eyes look larger is a make-up that gives a more gorgeous impression. In addition, the make-up that makes the eyes look narrower is a make-up that gives a cooler impression. In addition, the make-up that makes the eyes look wider is a make-up that gives a brighter impression.

次に、メイク内容決定部110について詳細に説明する。上述したように、メイク内容決定部110は、基本操作量決定部111と、追加操作量決定部112と、メイク領域決定部113と、メイク色決定部114とを備える。 Next, the make-up content determination unit 110 will be described in detail. As described above, the make-up content determination unit 110 includes a basic operation amount determination unit 111, an additional operation amount determination unit 112, a make-up area determination unit 113, and a make-up color determination unit 114.

基本操作量決定部111は、基本操作量記憶部122に記憶された操作量情報と目標印象とに基づいて、複数の顔パラメータのそれぞれについて、基本操作量を決定する。例えば、目標印象がシャープである場合、目の角度については、基本操作量として+5度が決定される。なお、目の角度以外のパラメータについては、基本操作量として0が決定される。基本操作量決定部111の機能は、例えば、プロセッサ11の機能により実現される。 The basic operation amount determination unit 111 determines the basic operation amount for each of the plurality of face parameters based on the operation amount information stored in the basic operation amount storage unit 122 and the target impression. For example, when the target impression is sharp, +5 degrees is determined as the basic operation amount for the eye angle. For parameters other than the eye angle, 0 is determined as the basic operation amount. The function of the basic operation amount determination unit 111 is realized by, for example, the function of the processor 11.

追加操作量決定部112は、複数の顔パラメータのそれぞれについて取得されたユーザ値とモデル値記憶部121に記憶されたモデル値情報とに基づいて、複数の顔パラメータのそれぞれについて、追加操作量を決定する。例えば、顔パラメータが目の角度であり、ユーザの顔の目の角度が0度であり、モデル顔の目の角度が+5度であるものとする。この場合、目の角度については、追加操作量として+5度が決定される。なお、目の角度以外のパラメータについては、追加操作量として0が決定される。追加操作量決定部112の機能は、例えば、プロセッサ11の機能により実現される。 The additional operation amount determination unit 112 determines the additional operation amount for each of the plurality of face parameters based on the user value acquired for each of the plurality of face parameters and the model value information stored in the model value storage unit 121. decide. For example, it is assumed that the face parameter is the eye angle, the eye angle of the user's face is 0 degrees, and the eye angle of the model face is +5 degrees. In this case, +5 degrees is determined as an additional operation amount for the eye angle. For parameters other than the eye angle, 0 is determined as the additional operation amount. The function of the additional operation amount determination unit 112 is realized by, for example, the function of the processor 11.

メイク内容決定部110は、メイク内容記憶部123に記憶されたメイク内容情報と、基本操作量決定部111により決定された基本操作量と、追加操作量決定部112により決定された追加操作量とに基づいて、メイク内容を決定する。ここで、メイク内容決定部110は、特定顔パラメータを考慮してメイク内容を決定してもよいし、特定顔パラメータを考慮せずにメイク内容を決定してもよい。特定顔パラメータは、基本操作量決定部111により決定された基本操作量のうち、基本操作量として予め定められた閾値以上の操作量が決定された顔パラメータである。特定顔パラメータは、モデル顔に目標印象を与えるために操作すべき顔パラメータである。 The make-up content determination unit 110 includes make-up content information stored in the make-up content storage unit 123, a basic operation amount determined by the basic operation amount determination unit 111, and an additional operation amount determined by the additional operation amount determination unit 112. Determine the makeup content based on. Here, the make-up content determination unit 110 may determine the make-up content in consideration of the specific face parameter, or may determine the make-up content without considering the specific face parameter. The specific face parameter is a face parameter in which, among the basic operation amounts determined by the basic operation amount determination unit 111, an operation amount equal to or greater than a threshold value predetermined as the basic operation amount is determined. The specific face parameter is a face parameter that should be manipulated to give a target impression to the model face.

ここで、メイク内容決定部110は、メイク内容を決定するときに、特定顔パラメータについて決定された基本操作量を考慮する。一方、メイク内容決定部110は、メイク内容を決定するときに、特定顔パラメータ以外の顔パラメータについて決定された基本操作量を考慮しなくてもよい。このような顔パラメータは、そもそも基本操作量が小さいため、このような顔パラメータのためにメイク箇所を増やすことは好ましくないためである。 Here, the make-up content determination unit 110 considers the basic operation amount determined for the specific face parameter when determining the make-up content. On the other hand, when determining the makeup content, the makeup content determination unit 110 does not have to consider the basic operation amount determined for the face parameters other than the specific face parameters. This is because such a face parameter has a small basic operation amount in the first place, and it is not preferable to increase the number of makeup points due to such a face parameter.

また、メイク内容決定部110は、メイク内容を決定するときに、特定顔パラメータについて決定された追加操作量を考慮する。このような追加操作量は、メイクすべき箇所に関わるため、ユーザの顔の個人差を吸収するために、考慮することが望ましいためである。一方、メイク内容決定部110は、メイク内容を決定するときに、特定顔パラメータ以外の顔パラメータについて決定された追加操作量を考慮しなくてもよい。このような追加操作量は、メイクすべき箇所に関わらないため、仮にユーザの顔のこの箇所に特徴がある場合でも、メイク箇所の増大を抑制するために考慮しないことが望ましいと考えられるためである。 In addition, the make-up content determination unit 110 considers the additional operation amount determined for the specific face parameter when determining the make-up content. This is because such an additional operation amount is related to the part to be made, and therefore it is desirable to consider it in order to absorb individual differences in the user's face. On the other hand, the make-up content determination unit 110 does not have to consider the additional operation amount determined for the face parameter other than the specific face parameter when determining the make-up content. Since such an additional operation amount does not affect the part to be made, even if this part of the user's face has a feature, it is considered desirable not to consider it in order to suppress the increase of the make part. is there.

以下、特定顔パラメータを考慮してメイク内容を決定する具体例について説明する。例えば、第1の具体例として、目標印象がシャープであり、目の角度について決定される基本操作量が+5度であり、目の角度について決定される追加操作量が+5度である場合を想定する。この場合、目の角度のみが特定顔パラメータである。従って、メイク内容決定部110は、目の角度について決定された基本操作量である+5度と目の角度について決定された追加操作量である+5度との合計量である+10度に対応するメイク内容を決定する。 Hereinafter, a specific example of determining the makeup content in consideration of specific face parameters will be described. For example, as a first specific example, it is assumed that the target impression is sharp, the basic operation amount determined for the eye angle is +5 degrees, and the additional operation amount determined for the eye angle is +5 degrees. To do. In this case, only the eye angle is the specific face parameter. Therefore, the make-up content determination unit 110 makes up corresponding to +10 degrees, which is the total amount of +5 degrees, which is the basic operation amount determined for the eye angle, and +5 degrees, which is the additional operation amount determined for the eye angle. Determine the content.

つまり、メイク内容決定部110は、メイク内容情報に基づいて、目の角度を10度上げる場合と同様の効果を得るためのメイク、つまり、目尻の外側の上部に紫色のアイシャドーを塗布するというメイク内容を決定する。このように、メイク内容決定部110は、垂れ目のユーザがシャープな印象を所望する場合、シャープな印象を与える程度につり目に見えるメイク内容を決定する。このように、特定顔パラメータについて決定された追加操作量に関しては、過度のメイク若しくはメイク不足を抑制するために考慮することが好適である。 That is, the make-up content determination unit 110 applies a make-up to obtain the same effect as when the eye angle is raised by 10 degrees, that is, a purple eye shadow is applied to the outer upper part of the outer corner of the eye based on the make-up content information. Determine the makeup content. In this way, when the user with drooping eyes desires a sharp impression, the make-up content determination unit 110 determines the make-up content that is visible to the extent that it gives a sharp impression. As described above, it is preferable to consider the additional operation amount determined for the specific face parameter in order to suppress excessive make-up or make-up deficiency.

次に、第2の具体例として、目標印象が華やかであり、目の大きさについて決定される基本操作量が+5度であり、目の角度について決定される追加操作量が+5度である場合を想定する。この場合、目の大きさのみが特定顔パラメータであり、目の角度は特定顔パラメータではない。従って、メイク内容決定部110は、目の大きさについて決定された基本操作量である+5度に対応するメイク内容を決定する。つまり、メイク内容決定部110は、メイク内容情報に基づいて、目の大きさを0.1大きくする場合と同様の効果を得るためのメイク、つまり、目尻の近傍に薄紫色のアイシャドーを塗布するというメイク内容を決定する。このように、特定顔パラメータ以外の顔パラメータについて決定された追加操作量に関しては、メイク箇所の増大を抑制するため考慮しないことが好適である。 Next, as a second specific example, when the target impression is gorgeous, the basic operation amount determined for the eye size is +5 degrees, and the additional operation amount determined for the eye angle is +5 degrees. Is assumed. In this case, only the size of the eyes is a specific face parameter, and the angle of the eyes is not a specific face parameter. Therefore, the make-up content determination unit 110 determines the make-up content corresponding to +5 degrees, which is the basic operation amount determined for the size of the eyes. That is, the make-up content determination unit 110 applies a make-up for obtaining the same effect as when the eye size is increased by 0.1, that is, a lilac eye shadow in the vicinity of the outer corner of the eye, based on the make-up content information. Decide what makeup to do. As described above, it is preferable not to consider the additional operation amount determined for the face parameter other than the specific face parameter in order to suppress the increase of the make-up portion.

なお、特定顔パラメータ以外の顔パラメータを考慮してメイク内容を決定してもよい。例えば、第3の具体例として、目標印象が華やかであり、目の大きさについて決定される基本操作量が+5度であり、目の角度について決定される追加操作量が+5度である場合を想定する。この場合、まず、メイク内容決定部110は、目の大きさについて決定された基本操作量である+5度に対応するメイク内容を決定する。つまり、メイク内容決定部110は、メイク内容情報に基づいて、目の大きさを0.1大きくする場合と同様の効果を得るためのメイク、つまり、目尻の近傍に薄紫色のアイシャドーを塗布するというメイク内容を決定する。 The makeup content may be determined in consideration of face parameters other than the specific face parameters. For example, as a third specific example, a case where the target impression is gorgeous, the basic operation amount determined for the eye size is +5 degrees, and the additional operation amount determined for the eye angle is +5 degrees. Suppose. In this case, first, the make-up content determination unit 110 determines the make-up content corresponding to +5 degrees, which is the basic operation amount determined for the size of the eyes. That is, the make-up content determination unit 110 applies a make-up for obtaining the same effect as when the eye size is increased by 0.1, that is, a lilac eye shadow in the vicinity of the outer corner of the eye, based on the make-up content information. Decide what makeup to do.

更に、メイク内容決定部110は、目の角度について決定された追加操作量に対応するメイク内容を決定する。つまり、メイク内容決定部110は、メイク内容情報に基づいて、目の角度を5度上げる場合と同様の効果を得るためのメイク、つまり、目尻の外側の上部に薄紫色のアイシャドーを塗布するというメイク内容を決定する。このように、特定顔パラメータ以外の顔パラメータについて決定された追加操作量に関しても、ユーザの顔をモデル顔に近づけるために考慮してもよい。 Further, the make-up content determination unit 110 determines the make-up content corresponding to the additional operation amount determined for the eye angle. That is, the make-up content determination unit 110 applies make-up to obtain the same effect as when raising the eye angle by 5 degrees, that is, a lilac eye shadow on the outer upper part of the outer corner of the eye based on the make-up content information. Determine the makeup content. As described above, the additional operation amount determined for the face parameter other than the specific face parameter may be considered in order to bring the user's face closer to the model face.

メイク領域決定部113は、複数の顔パラメータのそれぞれについて決定された基本操作量と、複数の顔パラメータのそれぞれについて決定された追加操作量と、メイク内容情報とに基づいて、メイク領域を決定する。メイク領域決定部113の機能は、例えば、プロセッサ11の機能により実現される。 The make-up area determination unit 113 determines the make-up area based on the basic operation amount determined for each of the plurality of face parameters, the additional operation amount determined for each of the plurality of face parameters, and the make-up content information. .. The function of the make area determination unit 113 is realized by, for example, the function of the processor 11.

メイク色決定部114は、複数の顔パラメータのそれぞれについて決定された基本操作量と、複数の顔パラメータのそれぞれについて決定された追加操作量と、メイク内容情報とに基づいて、メイク色を決定する。メイク色を決定することは、化粧品と塗布量とを決定することを意味する。メイク色は、例えば、顔画像におけるメイク領域の色と決定された化粧品の色とを、決定された塗布量に応じた割合で合成した色である。例えば、メイク色は、塗布量が多いほど化粧品の色に近づき、塗布量が少ないほど顔画像におけるメイク領域の色に近づく。なお、メイクパーツの色は、全体としてメイク色に応じた色であればよい。つまり、メイクパーツの全体がメイク色で統一されている必要はなく、メイクパーツの各部の色が異なっていても良い。メイク色決定部114の機能は、例えば、プロセッサ11の機能により実現される。 The make-up color determination unit 114 determines the make-up color based on the basic operation amount determined for each of the plurality of face parameters, the additional operation amount determined for each of the plurality of face parameters, and the make-up content information. .. Determining the make-up color means determining the cosmetics and the amount to be applied. The make-up color is, for example, a color obtained by synthesizing the color of the make-up area in the face image and the determined color of the cosmetic product at a ratio corresponding to the determined application amount. For example, the makeup color approaches the color of cosmetics as the amount of application increases, and approaches the color of the makeup area in the face image as the amount of application decreases. The color of the make-up parts may be a color corresponding to the make-up color as a whole. That is, the entire make-up part does not have to be unified with the make-up color, and the color of each part of the make-up part may be different. The function of the make-up color determining unit 114 is realized by, for example, the function of the processor 11.

また、メイク内容決定部110は、調整指示操作受付部108により調整指示操作が受け付けられた場合、調整指示操作に基づいて、メイク内容に含まれる、メイク色とメイク領域とのうちの少なくとも一方を調整する。例えば、メイク内容決定部110は、調整指示操作に従って、メイクパーツの色を濃くしたり、メイクパーツの色を薄くしたりする。また、メイク内容決定部110は、調整指示操作に従って、メイク領域を全体的に又は特定の方向に向けて広げたり、メイク領域を全体的に又は特定の方向に向けて狭めたりする。 Further, when the adjustment instruction operation is received by the adjustment instruction operation reception unit 108, the make-up content determination unit 110 selects at least one of the make-up color and the make-up area included in the make-up content based on the adjustment instruction operation. adjust. For example, the make-up content determination unit 110 darkens the color of the make-up parts or lightens the color of the make-up parts according to the adjustment instruction operation. Further, the make-up content determination unit 110 widens the make-up area as a whole or in a specific direction, or narrows the make-up area as a whole or in a specific direction according to the adjustment instruction operation.

次に、図13に示すフローチャートを参照して、画像処理装置10が実行する画像表示処理について説明する。 Next, the image display process executed by the image processing apparatus 10 will be described with reference to the flowchart shown in FIG.

まず、画像処理装置10が備えるプロセッサ11は、操作受付画像を表示する(ステップS101)。具体的には、プロセッサ11は、第2のタッチスクリーン15に操作受付画像を表示する。プロセッサ11は、ステップS101の処理を完了すると、撮像を開始する(ステップS102)。具体的には、プロセッサ11は、カメラ13に撮像を開始させ、以後、カメラ13から撮像画像を継続的に取得する。 First, the processor 11 included in the image processing device 10 displays the operation reception image (step S101). Specifically, the processor 11 displays the operation reception image on the second touch screen 15. When the processor 11 completes the process of step S101, the processor 11 starts imaging (step S102). Specifically, the processor 11 causes the camera 13 to start imaging, and thereafter continuously acquires the captured image from the camera 13.

プロセッサ11は、ステップS102の処理を完了すると、撮像画像を表示する(ステップS103)。具体的には、プロセッサ11は、カメラ13から取得した撮像画像を、第1のタッチスクリーン14に表示させる。プロセッサ11は、ステップS103の処理を完了すると、印象指定操作があるか否かを判別する(ステップS104)。例えば、プロセッサ11は、第2のタッチスクリーン15に対して印象指定操作がなされたか否かを判別する。 When the processor 11 completes the process of step S102, the processor 11 displays the captured image (step S103). Specifically, the processor 11 displays the captured image acquired from the camera 13 on the first touch screen 14. When the processor 11 completes the process of step S103, it determines whether or not there is an impression designation operation (step S104). For example, the processor 11 determines whether or not an impression designation operation has been performed on the second touch screen 15.

プロセッサ11は、印象指定操作があると判別すると(ステップS104:YES)、目標印象を設定する(ステップS105)。なお、プロセッサ11は、印象指定操作により指示された印象を目標印象として設定する。プロセッサ11は、ステップS105の処理を完了すると、撮像画像からユーザの顔の特徴を特定する(ステップS106)。つまり、プロセッサ11は、撮像画像から抽出される顔画像から各顔パーツを特定し、各顔パーツの形状、大きさ及び位置関係などから各顔パラメータについてユーザ値を特定する。 When the processor 11 determines that there is an impression designation operation (step S104: YES), the processor 11 sets a target impression (step S105). The processor 11 sets the impression instructed by the impression designation operation as the target impression. When the processor 11 completes the process of step S105, the processor 11 identifies the facial features of the user from the captured image (step S106). That is, the processor 11 specifies each face part from the face image extracted from the captured image, and specifies the user value for each face parameter from the shape, size, positional relationship, and the like of each face part.

プロセッサ11は、ステップS106の処理を完了すると、基本操作量を決定する(ステップS107)。具体的には、プロセッサ11は、基本操作量情報と目標印象とに基づいて、各顔パラメータにおける基本操作量を決定する。プロセッサ11は、ステップS107の処理を完了すると、追加操作量を決定する(ステップS108)。具体的には、プロセッサ11は、各顔パラメータについて、ユーザ値とモデル値との差分を求めることにより、各顔パラメータの追加操作量を決定する。 When the processor 11 completes the process of step S106, the processor 11 determines the basic operation amount (step S107). Specifically, the processor 11 determines the basic operation amount for each face parameter based on the basic operation amount information and the target impression. When the processor 11 completes the process of step S107, the processor 11 determines the additional operation amount (step S108). Specifically, the processor 11 determines the additional operation amount of each face parameter by obtaining the difference between the user value and the model value for each face parameter.

プロセッサ11は、ステップS108の処理を完了すると、特定顔パラメータを特定する(ステップS109)。具体的には、プロセッサ11は、複数の顔パラメータのそれぞれについて決定された基本操作量のうち、基本操作量として予め定められた閾値以上の操作量が決定された顔パラメータを特定顔パラメータとして特定する。プロセッサ11は、ステップS109の処理を完了すると、メイク領域を決定する(ステップS110)。具体的には、プロセッサ11は、各特定顔パラメータについて、基本操作量と追加操作量との合計である合計操作量を求め、各特定顔パラメータについて、メイク内容情報に基づいて合計操作量に応じたメイク領域を決定する。 When the processor 11 completes the process of step S108, the processor 11 specifies a specific face parameter (step S109). Specifically, the processor 11 specifies as a specific face parameter a face parameter in which an operation amount equal to or larger than a predetermined threshold value as a basic operation amount is determined among the basic operation amounts determined for each of a plurality of face parameters. To do. When the processor 11 completes the process of step S109, the processor 11 determines the make area (step S110). Specifically, the processor 11 obtains the total operation amount, which is the sum of the basic operation amount and the additional operation amount, for each specific face parameter, and responds to the total operation amount for each specific face parameter based on the makeup content information. Determine the make-up area.

プロセッサ11は、ステップS110の処理を完了すると、メイク色を決定する(ステップS111)。具体的には、プロセッサ11は、各特定顔パラメータについて、メイク内容情報に基づいて合計操作量に応じたメイク色を決定する。プロセッサ11は、ステップS111の処理を完了すると、メイク画像を表示する(ステップS112)。具体的には、プロセッサ11は、表示部104を制御して、撮像画像におけるメイク領域にメイク色に応じたメイクパーツを重ねることにより得られるメイク画像を表示する。プロセッサ11は、ステップS112の処理を完了すると、ステップS103に処理を戻す。 When the processor 11 completes the process of step S110, the processor 11 determines the make-up color (step S111). Specifically, the processor 11 determines the make-up color according to the total operation amount for each specific face parameter based on the make-up content information. When the processor 11 completes the process of step S111, the processor 11 displays a make-up image (step S112). Specifically, the processor 11 controls the display unit 104 to display the make-up image obtained by superimposing the make-up parts corresponding to the make-up colors on the make-up area in the captured image. When the processor 11 completes the process of step S112, the processor 11 returns the process to step S103.

ここで、プロセッサ11は、印象指定操作がないと判別すると(ステップS104:NO)、調整指示操作があるか否かを判別する(ステップS113)。具体的には、プロセッサ11は、第2のタッチスクリーン15に対して調整指示操作がなされたか否かを判別する。プロセッサ11は、調整指示操作があると判別すると(ステップS113:YES)、メイクパーツを調整する(ステップS114)。具体的には、プロセッサ11は、調整指示操作に従って、メイク領域とメイク色とのうち少なくとも一方を調整する。 Here, when the processor 11 determines that there is no impression designation operation (step S104: NO), the processor 11 determines whether or not there is an adjustment instruction operation (step S113). Specifically, the processor 11 determines whether or not an adjustment instruction operation has been performed on the second touch screen 15. When the processor 11 determines that there is an adjustment instruction operation (step S113: YES), the processor 11 adjusts the make parts (step S114). Specifically, the processor 11 adjusts at least one of the make-up area and the make-up color according to the adjustment instruction operation.

プロセッサ11は、ステップS114の処理を完了すると、調整後のメイク画像を表示する(ステップS115)。具体的には、プロセッサ11は、表示部104を制御して、撮像画像における調整後のメイク領域に調整後のメイク色に応じたメイクパーツを重ねることにより調整後のメイク画像を生成し、生成した調整後のメイク画像を表示する。プロセッサ11は、調整指示操作がないと判別した場合(ステップS113:NO)、又は、ステップS115の処理を完了した場合、ステップS103に処理を戻す。 When the processor 11 completes the process of step S114, the processor 11 displays the adjusted make-up image (step S115). Specifically, the processor 11 controls the display unit 104 to generate and generate an adjusted make-up image by superimposing a make-up part corresponding to the adjusted make-up color on the adjusted make-up area in the captured image. Display the adjusted make-up image. When the processor 11 determines that there is no adjustment instruction operation (step S113: NO), or when the process of step S115 is completed, the processor 11 returns the process to step S103.

本実施形態では、ユーザの顔の特徴に応じて、目標印象を表現するためのメイク内容が決定され、撮像画像がこのメイク内容に応じて加工されたメイク画像が表示される。従って、本実施形態によれば、ユーザが所望する印象を適切に表現するためのメイクの方法を提示することができる。 In the present embodiment, the make-up content for expressing the target impression is determined according to the facial features of the user, and the captured image is displayed as the make-up image processed according to the make-up content. Therefore, according to the present embodiment, it is possible to present a make-up method for appropriately expressing the impression desired by the user.

また、本実施形態では、モデル顔に目標印象を持たせるための基本操作量と、ユーザの顔をモデル顔に近づけるための追加操作量とに基づいて、メイク内容が決定される。従って、本実施形態によれば、ユーザが所望する印象とユーザの顔の特徴とに応じた適切なメイクの方法を提示することができる。 Further, in the present embodiment, the makeup content is determined based on the basic operation amount for giving the model face a target impression and the additional operation amount for bringing the user's face closer to the model face. Therefore, according to the present embodiment, it is possible to present an appropriate makeup method according to the impression desired by the user and the facial features of the user.

また、本実施形態では、特定顔パラメータについて決定された基本操作量と特定顔パラメータについて決定された追加操作量とに基づいて、メイク内容が決定される。従って、本実施形態によれば、ユーザが所望する印象への影響が少ない顔部分へのメイクが排除されたメイクを提示することができる。 Further, in the present embodiment, the makeup content is determined based on the basic operation amount determined for the specific face parameter and the additional operation amount determined for the specific face parameter. Therefore, according to the present embodiment, it is possible to present a make-up in which the make-up on the face portion, which has little influence on the impression desired by the user, is excluded.

また、本実施形態では、調整指示操作に基づいて、メイク内容が調整される。従って、本実施形態によれば、ユーザが所望する印象をより適切に表現するためのメイクの方法を提示することができる。 Further, in the present embodiment, the makeup content is adjusted based on the adjustment instruction operation. Therefore, according to the present embodiment, it is possible to present a make-up method for more appropriately expressing the impression desired by the user.

(実施形態2)
実施形態1では、ユーザが所望する印象が直接ユーザから指定される例について説明した。ユーザが所望する印象が直接ユーザから指定されなくてもよい。以下、本実施形態では、ユーザから指定されたシーンからユーザが所望する印象を特定する例について説明する。以下、図14を参照して、本実施形態に係る画像処理装置20の機能について説明する。
(Embodiment 2)
In the first embodiment, an example in which the impression desired by the user is directly specified by the user has been described. The impression desired by the user does not have to be directly specified by the user. Hereinafter, in the present embodiment, an example of specifying an impression desired by the user from a scene specified by the user will be described. Hereinafter, the function of the image processing apparatus 20 according to the present embodiment will be described with reference to FIG.

本実施形態に係る画像処理装置20は、機能的には、実施形態1に係る画像処理装置10と比較して、印象指定操作受付部106を備えず、シーン指定操作受付部109を備え、記憶部120が適合印象記憶部124を更に備える。シーン指定操作受付部109は、本発明におけるシーン指定操作受付手段の一例である。適合印象記憶部124は、本発明における適合印象記憶手段の一例である。 Functionally, the image processing device 20 according to the present embodiment does not include the impression designation operation reception unit 106 but includes the scene designation operation reception unit 109 and stores as compared with the image processing device 10 according to the first embodiment. The unit 120 further includes a conforming impression storage unit 124. The scene designation operation reception unit 109 is an example of the scene designation operation reception means in the present invention. The conforming impression storage unit 124 is an example of the conforming impression storage means in the present invention.

適合印象記憶部124は、複数のシーンのそれぞれに適合する印象を示す適合印象情報を記憶する。図15に、適合印象情報を示す。この適合印象情報は、シーンと印象との対応関係を示す情報であり、シーン毎にシーンに相応しいと考えられる印象を示す情報である。図15に示す適合印象情報は、例えば、面接というシーンでは、知的な印象を与える顔が望ましいことを示している。適合印象記憶部124の機能は、例えば、フラッシュメモリ12の機能により実現される。 The conforming impression storage unit 124 stores conforming impression information indicating an impression conforming to each of a plurality of scenes. FIG. 15 shows conformity impression information. This conforming impression information is information indicating the correspondence relationship between the scene and the impression, and is information indicating the impression considered to be suitable for each scene for each scene. The conforming impression information shown in FIG. 15 indicates that, for example, in an interview scene, a face that gives an intellectual impression is desirable. The function of the conforming impression storage unit 124 is realized by, for example, the function of the flash memory 12.

シーン指定操作受付部109は、ユーザからシーン指定操作を受け付ける。シーン指定操作は、複数のシーンのうちいずれかのシーンを指定する操作である。複数のシーンは、面接、接客、随行、パーティー、プレゼン、飲み会、観光、会議などである。シーン指定操作受付部109は、例えば、これらのシーンを表す画像をユーザに提示した上で、ユーザからシーンを選択する操作を受け付ける。シーン指定操作受付部109の機能は、例えば、プロセッサ11と第2のタッチスクリーン15とが協働することにより実現される。 The scene designation operation reception unit 109 receives a scene designation operation from the user. The scene designation operation is an operation for designating one of a plurality of scenes. Multiple scenes include interviews, customer service, attendance, parties, presentations, drinking parties, sightseeing, meetings, and so on. The scene designation operation reception unit 109, for example, presents an image representing these scenes to the user, and then accepts an operation of selecting a scene from the user. The function of the scene designation operation reception unit 109 is realized, for example, by the cooperation of the processor 11 and the second touch screen 15.

ここで、印象設定部107は、シーン指定操作受付部109によりシーン指定操作が受け付けられた場合、適合印象記憶部124に記憶された適合印象情報に基づいて、複数のシーンのうちシーン指定操作により指定されたシーンに適合する印象を目標印象として設定する。 Here, when the scene designation operation is received by the scene designation operation reception unit 109, the impression setting unit 107 performs the scene designation operation among a plurality of scenes based on the conformity impression information stored in the conformity impression storage unit 124. An impression that matches the specified scene is set as the target impression.

本実施形態では、ユーザにより指定されたシーンに基づいて、目標印象が自動で設定される。従って、本実施形態によれば、ユーザにより指定されたシーンに適合する印象を適切に表現するためのメイクの方法を提示することができる。 In this embodiment, the target impression is automatically set based on the scene specified by the user. Therefore, according to the present embodiment, it is possible to present a make-up method for appropriately expressing an impression suitable for a scene specified by the user.

(変形例)
以上、本発明の実施形態を説明したが、本発明を実施するにあたっては、種々の形態による変形及び応用が可能である。
(Modification example)
Although the embodiments of the present invention have been described above, various modifications and applications are possible in carrying out the present invention.

本発明において、上記実施形態において説明した構成、機能、動作のどの部分を採用するのかは任意である。また、本発明において、上述した構成、機能、動作のほか、更なる構成、機能、動作が採用されてもよい。また、上述した実施形態は、適宜、自由に組み合わせることができる。また、上述した実施形態で説明した構成要素の個数は、適宜、調整することができる。また、本発明において採用可能な素材、サイズ、電気的特性などが、上記実施形態において示したものに限定されないことは勿論である。 In the present invention, which part of the configuration, function, and operation described in the above embodiment is adopted is arbitrary. Further, in the present invention, in addition to the above-described configurations, functions, and operations, further configurations, functions, and operations may be adopted. In addition, the above-described embodiments can be freely combined as appropriate. In addition, the number of components described in the above-described embodiment can be adjusted as appropriate. Further, it goes without saying that the materials, sizes, electrical characteristics, and the like that can be adopted in the present invention are not limited to those shown in the above embodiments.

実施形態1では、メイク方法提示機能のための処理と、バーチャルメイク機能のための処理とが、別々に実行される例について説明した。これらの処理が組み合わせて実行されてもよい。例えば、メイクシミュレーション装置100は、メイク方法提示機能により生成したメイク画像を第1のタッチスクリーン14の左半分の領域に表示し、バーチャルメイク機能により生成したメイク画像を第1のタッチスクリーン14の右半分の領域に表示し、バーチャルメイク機能により生成した化粧品画像を第2のタッチスクリーン15に表示することができる。 In the first embodiment, an example in which the process for the make-up method presentation function and the process for the virtual make-up function are executed separately has been described. These processes may be executed in combination. For example, the make-up simulation device 100 displays the make-up image generated by the make-up method presenting function in the left half area of the first touch screen 14, and displays the make-up image generated by the virtual make-up function on the right side of the first touch screen 14. It can be displayed in half of the area, and the cosmetic image generated by the virtual make-up function can be displayed on the second touch screen 15.

メイク方法提示機能により生成したメイク画像は、撮像画像に、目標印象を表現するためのメイク内容に応じたメイクパーツを重ねた画像である。バーチャルメイク機能により生成したメイク画像は、撮像画像に、ユーザによるメイク動作に従ったメイクパーツを重ねた画像である。かかる構成によれば、ユーザは、第1のタッチスクリーン14の左半分の領域に表示された、見本となるメイクの方法を示すメイク画像を参考にしながら、メイクをシミュレーションすることができる。 The make-up image generated by the make-up method presentation function is an image in which make-up parts corresponding to the make-up contents for expressing a target impression are superimposed on the captured image. The make-up image generated by the virtual make-up function is an image in which make-up parts according to the make-up operation by the user are superimposed on the captured image. According to such a configuration, the user can simulate make-up with reference to a make-up image showing a sample make-up method displayed in the left half area of the first touch screen 14.

あるいは、バーチャルメイク機能により生成したメイク画像にメイク方法提示機能により決定したメイク領域の輪郭を示す輪郭画像を重ねた画像を、第1のタッチスクリーン14に表示し、バーチャルメイク機能により生成した化粧品画像を第2のタッチスクリーン15に表示してもよい。かかる構成によれば、ユーザは、第1のタッチスクリーン14に表示された輪郭画像を参考にしながら、メイクをシミュレーションすることができる。 Alternatively, an image obtained by superimposing the contour image showing the contour of the make-up area determined by the make-up method presentation function on the make-up image generated by the virtual make-up function is displayed on the first touch screen 14, and the cosmetic image generated by the virtual make-up function is displayed. May be displayed on the second touch screen 15. According to such a configuration, the user can simulate the make-up while referring to the contour image displayed on the first touch screen 14.

実施形態1,2では、印象設定部107は、ユーザから取得された情報に基づいて、目標印象を設定する例について説明した。印象設定部107は、予め定められた基準に従って、自動で目標印象を設定してもよい。例えば、目標印象は、ユーザの嗜好に基づく印象に、自動で設定されてもよい。この場合、嗜好と印象との対応関係を示す情報が、フラッシュメモリ12に記憶されていればよい。なお、ユーザの嗜好は、例えば、通信インターフェース16を介して他の装置から取得された情報などから自動的に特定される。また、目標印象は、ユーザの現在の顔の印象をより際立たせる印象に自動で設定されてもよい。或いは、目標印象は、ユーザの現在の顔の印象を弱める印象に自動で設定されてもよい。例えば、ユーザの目がつり目であれば、目標印象は、つり目を和らげる印象に自動で設定されてもよい。 In the first and second embodiments, the impression setting unit 107 has described an example of setting a target impression based on the information acquired from the user. The impression setting unit 107 may automatically set a target impression according to a predetermined standard. For example, the target impression may be automatically set to an impression based on the user's taste. In this case, the information indicating the correspondence between the preference and the impression may be stored in the flash memory 12. The user's preference is automatically specified from, for example, information acquired from another device via the communication interface 16. Further, the target impression may be automatically set to an impression that makes the impression of the user's current face more conspicuous. Alternatively, the target impression may be automatically set to an impression that weakens the impression of the user's current face. For example, if the user's eyes are slanted, the target impression may be automatically set to an impression that softens the slanted eyes.

実施形態1では、メイク内容が、目の周囲にアイシャドーを塗布するメイクである例について説明した。メイク内容は、この例に限定されないことは勿論である。例えば、メイク内容が、目の周囲にアイラインを塗布するメイクであってもよい。また、メイク内容が、眉の周囲にアイブロウを塗布するメイクであってもよい。 In the first embodiment, an example in which the makeup content is a makeup in which eye shadow is applied around the eyes has been described. Of course, the makeup content is not limited to this example. For example, the makeup content may be a makeup in which an eyeliner is applied around the eyes. Further, the makeup content may be a makeup in which eyebrow is applied around the eyebrows.

上記実施形態では、プロセッサ11において、CPUがROMに記憶されたプログラムを実行することによって、各種の処理を実行する例について説明した。本発明において、プロセッサ11の代わりに、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、各種制御回路等の専用のハードウェアを備え、専用のハードウェアが、各種の処理を実行してもよい。この場合、各部の機能それぞれを個別のハードウェアで実現しても良いし、各部の機能をまとめて単一のハードウェアで実現しても良い。また、各部の機能のうち、一部を専用のハードウェアによって実現し、他の一部をソフトウェア又はファームウェアによって実現しても良い。 In the above embodiment, an example in which the CPU executes various processes by executing a program stored in the ROM in the processor 11 has been described. In the present invention, instead of the processor 11, for example, ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), various control circuits, and other dedicated hardware are provided, and the dedicated hardware performs various processes. You may do it. In this case, the functions of each part may be realized by individual hardware, or the functions of each part may be collectively realized by a single hardware. Further, some of the functions of each part may be realized by dedicated hardware, and the other part may be realized by software or firmware.

なお、本発明に係る機能を実現するための構成を予め備えた画像処理装置として提供できることはもとより、プログラムの適用により、既存の情報処理装置等を、本発明に係る画像処理装置として機能させることもできる。すなわち、上記実施形態で例示した画像処理装置10による各機能構成を実現させるためのプログラムを、既存の情報処理装置等を制御するCPU等が実行できるように適用することで、本発明に係る画像処理装置として機能させることができる。 Not only can it be provided as an image processing device provided with a configuration for realizing the function according to the present invention, but also an existing information processing device or the like can be made to function as an image processing device according to the present invention by applying a program. You can also. That is, the image according to the present invention is applied by applying the program for realizing each functional configuration by the image processing device 10 exemplified in the above embodiment so that the CPU or the like that controls the existing information processing device or the like can execute the program. It can function as a processing device.

また、このようなプログラムの適用方法は任意である。プログラムを、例えば、フレキシブルディスク、CD(Compact Disc)−ROM、DVD(Digital Versatile Disc)−ROM、メモリカード等のコンピュータ読み取り可能な記憶媒体に格納して適用できる。さらに、プログラムを搬送波に重畳し、インターネットなどの通信媒体を介して適用することもできる。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にプログラムを掲示して配信してもよい。そして、このプログラムを起動し、OS(Operating System)の制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。 Moreover, the method of applying such a program is arbitrary. The program can be stored and applied in a computer-readable storage medium such as a flexible disc, a CD (Compact Disc) -ROM, a DVD (Digital Versatile Disc) -ROM, or a memory card. Further, the program can be superimposed on the carrier wave and applied via a communication medium such as the Internet. For example, the program may be posted and distributed on a bulletin board system (BBS: Bulletin Board System) on a communication network. Then, this program may be started and executed in the same manner as other application programs under the control of the OS (Operating System) so that the above processing can be executed.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
ユーザの顔が撮像された撮像画像を表示する表示手段と、
前記撮像画像に基づいて、前記ユーザの顔の特徴を特定する特徴特定手段と、
顔のメイクで表現する目標の印象として設定された目標印象と、前記特徴特定手段により特定された前記ユーザの顔の特徴とに基づいて、前記目標印象を表現するためのメイク内容を決定するメイク内容決定手段と、
前記表示手段に、前記撮像画像が前記メイク内容決定手段により決定された前記メイク内容に応じて加工されたメイク画像を表示させる表示制御手段と、を備える、
画像処理装置。
(付記2)
前記特徴特定手段は、前記撮像画像に基づいて、前記ユーザの顔パラメータの値であるユーザ値を取得するユーザ値取得手段を備え、
前記メイク内容決定手段は、前記目標印象と前記ユーザ値取得手段により取得された前記ユーザ値とに基づいて、前記メイク内容を決定する、
付記1に記載の画像処理装置。
(付記3)
予め定められたモデル顔の顔パラメータの値であるモデル値を示すモデル値情報を記憶するモデル値記憶手段と、
前記モデル顔に前記目標印象を持たせるための前記モデル値に対する操作量である基本操作量を示す基本操作量情報を記憶する基本操作量記憶手段と、
前記ユーザ値又は前記モデル値に対する操作量に対応するメイク内容を示すメイク内容情報を記憶するメイク内容記憶手段と、を更に備え、
前記メイク内容決定手段は、
前記基本操作量記憶手段に記憶された前記基本操作量情報に基づいて、前記基本操作量を決定する基本操作量決定手段と、
前記ユーザ値取得手段により取得された前記ユーザ値と前記モデル値記憶手段に記憶された前記モデル値情報とに基づいて、前記ユーザの顔を前記モデル顔に近づけるための前記ユーザ値に対する操作量である追加操作量を決定する追加操作量決定手段と、を備え、
前記メイク内容決定手段は、前記基本操作量決定手段により決定された前記基本操作量と、前記追加操作量決定手段により決定された前記追加操作量と、前記メイク内容記憶手段に記憶された前記メイク内容情報とに基づいて、前記メイク内容を決定する、
付記2に記載の画像処理装置。
(付記4)
前記モデル値情報は、複数の顔パラメータのそれぞれについて、前記モデル値を示す情報であり、
前記基本操作量情報は、複数の印象のそれぞれについて、前記モデル顔に各印象を持たせるための各モデル値に対する操作量を示す情報であり、
前記メイク内容情報は、前記複数の顔パラメータのそれぞれについて、前記ユーザ値又は前記モデル値に対する前記操作量に対応する前記メイク内容を示す情報であり、
前記ユーザ値取得手段は、前記撮像画像に基づいて、前記複数の顔パラメータのそれぞれについて、前記ユーザ値を取得し、
前記基本操作量決定手段は、前記基本操作量情報と前記目標印象とに基づいて、前記複数の顔パラメータのそれぞれについて、前記基本操作量を決定し、
前記追加操作量決定手段は、前記ユーザ値取得手段により前記複数の顔パラメータのそれぞれについて取得された前記ユーザ値と前記モデル値情報とに基づいて、前記複数の顔パラメータのそれぞれについて、前記追加操作量を決定し、
前記メイク内容決定手段は、前記基本操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記基本操作量と、前記追加操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記追加操作量と、前記メイク内容情報とに基づいて、前記メイク内容を決定する、
付記3に記載の画像処理装置。
(付記5)
前記メイク内容決定手段は、前記基本操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記基本操作量のうち、前記基本操作量として予め定められた閾値以上の操作量が決定された顔パラメータである特定顔パラメータについて決定された基本操作量と、前記追加操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記追加操作量のうち、前記特定顔パラメータについて決定された追加操作量と、前記メイク内容情報とに基づいて、前記メイク内容を決定する、
付記4に記載の画像処理装置。
(付記6)
前記メイク内容決定手段により決定された前記メイク内容の調整を指示する操作である調整指示操作を受け付ける調整指示操作受付手段を更に備え、
前記メイク内容決定手段は、前記調整指示操作受付手段により前記調整指示操作が受け付けられた場合、前記メイク内容に含まれる、前記メイク画像の色であるメイク色と前記メイク画像が重ねられる領域であるメイク領域とのうちの少なくとも一方を調整する、
付記1から5のいずれか1項に記載の画像処理装置。
(付記7)
前記目標印象を設定する印象設定手段を更に備える、
付記1から6のいずれか1項に記載の画像処理装置。
(付記8)
複数のシーンのそれぞれに適合する印象を示す適合印象情報を記憶する適合印象記憶手段と、
前記ユーザから前記複数のシーンのうちいずれかのシーンを指定する操作であるシーン指定操作を受け付けるシーン指定操作受付手段と、を更に備え、
前記印象設定手段は、前記シーン指定操作受付手段により前記シーン指定操作が受け付けられた場合、前記適合印象記憶手段に記憶された前記適合印象情報に基づいて、前記複数のシーンのうち前記シーン指定操作により指定されたシーンに適合する印象を前記目標印象として設定する、
付記7に記載の画像処理装置。
(付記9)
前記メイク画像は、前記撮像画像における、前記メイク内容に応じたメイク領域に、前記メイク内容に応じた化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像である、
付記1から8のいずれか1項に記載の画像処理装置。
(付記10)
前記撮像画像を取得する画像取得手段を更に備え、
前記表示手段は、前記画像取得手段により取得された前記撮像画像を表示する、
付記1から9のいずれか1項に記載の画像処理装置。
(付記11)
ユーザの顔が撮像された撮像画像を表示し、
前記撮像画像に基づいて、前記ユーザの顔の特徴を特定し、
顔のメイクで表現する目標の印象として設定された目標印象と、前記ユーザの顔の特徴とに基づいて、前記目標印象を表現するためのメイク内容を決定し、
前記撮像画像が前記メイク内容に応じて加工されたメイク画像を表示する、
画像処理方法。
(付記12)
コンピュータを、
ユーザの顔が撮像された撮像画像を表示装置に表示させる表示制御手段、
前記撮像画像に基づいて、前記ユーザの顔の特徴を特定する特徴特定手段、
顔のメイクで表現する目標の印象として設定された目標印象と、前記特徴特定手段により特定された前記ユーザの顔の特徴とに基づいて、前記目標印象を表現するためのメイク内容を決定するメイク内容決定手段、として機能させるプログラムであって、
前記表示制御手段は、前記表示装置に、前記撮像画像が前記メイク内容決定手段により決定された前記メイク内容に応じて加工されたメイク画像を表示させる、
プログラム。
Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the specific embodiment, and the present invention includes the invention described in the claims and the equivalent range thereof. included. The inventions described in the claims of the original application of the present application are described below.
(Appendix 1)
A display means for displaying an captured image of the user's face, and
A feature identifying means for identifying the facial features of the user based on the captured image, and
Makeup that determines the makeup content for expressing the target impression based on the target impression set as the target impression expressed by the facial makeup and the facial features of the user specified by the feature specifying means. Content determination means and
The display means includes a display control means for displaying a make-up image in which the captured image is processed according to the make-up content determined by the make-up content determining means.
Image processing device.
(Appendix 2)
The feature specifying means includes a user value acquiring means for acquiring a user value which is a value of the face parameter of the user based on the captured image.
The make-up content determining means determines the make-up content based on the target impression and the user value acquired by the user value acquisition means.
The image processing apparatus according to Appendix 1.
(Appendix 3)
A model value storage means for storing model value information indicating a model value which is a value of a predetermined model face parameter, and a model value storage means.
A basic operation amount storage means for storing basic operation amount information indicating a basic operation amount which is an operation amount with respect to the model value for giving the model face the target impression.
Further provided with a make-up content storage means for storing make-up content information indicating the make-up content corresponding to the operation amount with respect to the user value or the model value.
The means for determining the content of makeup is
A basic operation amount determining means for determining the basic operation amount based on the basic operation amount information stored in the basic operation amount storage means, and a basic operation amount determining means.
Based on the user value acquired by the user value acquisition means and the model value information stored in the model value storage means, the amount of operation on the user value for bringing the user's face closer to the model face. It is provided with an additional operation amount determining means for determining a certain additional operation amount.
The make-up content determining means includes the basic operation amount determined by the basic operation amount determining means, the additional operation amount determined by the additional operation amount determining means, and the make-up stored in the make-up content storage means. The makeup content is determined based on the content information.
The image processing apparatus according to Appendix 2.
(Appendix 4)
The model value information is information indicating the model value for each of a plurality of face parameters.
The basic manipulated variable information is information indicating the manipulated variable for each model value for giving each impression to the model face for each of the plurality of impressions.
The make-up content information is information indicating the make-up content corresponding to the operation amount with respect to the user value or the model value for each of the plurality of face parameters.
The user value acquisition means acquires the user value for each of the plurality of face parameters based on the captured image.
The basic operation amount determining means determines the basic operation amount for each of the plurality of face parameters based on the basic operation amount information and the target impression.
The additional operation amount determining means performs the additional operation for each of the plurality of face parameters based on the user value and the model value information acquired for each of the plurality of face parameters by the user value acquisition means. Determine the amount,
The make-up content determining means is the basic operation amount determined for each of the plurality of face parameters by the basic operation amount determining means, and the additional operation amount determining means determined for each of the plurality of face parameters. The make-up content is determined based on the additional operation amount and the make-up content information.
The image processing apparatus according to Appendix 3.
(Appendix 5)
Among the basic operation amounts determined for each of the plurality of face parameters by the basic operation amount determining means, the make content determining means determines an operation amount equal to or greater than a predetermined threshold value as the basic operation amount. Of the basic operation amount determined for the specific face parameter which is a face parameter and the additional operation amount determined for each of the plurality of face parameters by the additional operation amount determining means, the addition determined for the specific face parameter. The makeup content is determined based on the operation amount and the makeup content information.
The image processing apparatus according to Appendix 4.
(Appendix 6)
Further provided with an adjustment instruction operation receiving means for receiving an adjustment instruction operation which is an operation for instructing the adjustment of the make-up content determined by the make-up content determining means.
The make-up content determining means is a region in which the make-up color, which is the color of the make-up image, and the make-up image, which are the colors of the make-up image, are superimposed on the make-up content when the adjustment instruction operation is received by the adjustment instruction operation receiving means. Adjust at least one of the make-up areas,
The image processing apparatus according to any one of Appendix 1 to 5.
(Appendix 7)
Further provided with an impression setting means for setting the target impression.
The image processing apparatus according to any one of Appendix 1 to 6.
(Appendix 8)
A conforming impression storage means for storing conforming impression information indicating an impression conforming to each of a plurality of scenes,
Further provided with a scene designation operation receiving means for receiving a scene designation operation which is an operation of designating one of the plurality of scenes from the user.
When the scene designation operation is received by the scene designation operation receiving means, the impression setting means performs the scene designation operation among the plurality of scenes based on the matching impression information stored in the conforming impression storage means. An impression that matches the scene specified by is set as the target impression.
The image processing apparatus according to Appendix 7.
(Appendix 9)
The make-up image is an image in which make-up parts representing a state in which cosmetics according to the make-up content are applied to the face of the user are superimposed on the make-up area corresponding to the make-up content in the captured image.
The image processing apparatus according to any one of Appendix 1 to 8.
(Appendix 10)
Further provided with an image acquisition means for acquiring the captured image,
The display means displays the captured image acquired by the image acquisition means.
The image processing apparatus according to any one of Appendix 1 to 9.
(Appendix 11)
Display the captured image of the user's face,
Based on the captured image, the facial features of the user are identified.
Based on the target impression set as the target impression to be expressed by the facial makeup and the facial features of the user, the makeup content for expressing the target impression is determined.
The captured image displays a make-up image processed according to the make-up content.
Image processing method.
(Appendix 12)
Computer,
A display control means for displaying an captured image of a user's face on a display device,
A feature identifying means for identifying the facial features of the user based on the captured image,
Makeup that determines the makeup content for expressing the target impression based on the target impression set as the target impression expressed by the facial makeup and the facial features of the user specified by the feature specifying means. A program that functions as a means of determining content
The display control means causes the display device to display a make-up image in which the captured image is processed according to the make-up content determined by the make-up content determining means.
program.

10,20…画像処理装置、11…プロセッサ、12…フラッシュメモリ、13…カメラ、14…第1のタッチスクリーン、15…第2のタッチスクリーン、16…通信インターフェース、30…指示装置、31…プロセッサ、32…フラッシュメモリ、33…圧力センサ、34…通信インターフェース、50,51…画像、100…メイクシミュレーション装置、101…撮像部、102…画像取得部、103…表示制御部、104…表示部、105…特徴特定部、106…印象指定操作受付部、107…印象設定部、108…調整指示操作受付部、109…シーン指定操作受付部、110…メイク内容決定部、111…基本操作量決定部、112…追加操作量決定部、113…メイク領域決定部、114…メイク色決定部、115…ユーザ値取得部、120…記憶部、121…モデル値記憶部、122…基本操作量記憶部、123…メイク内容記憶部、124…適合印象記憶部、E1,E2…領域、L1,L2…直線 10, 20 ... Image processing device, 11 ... Processor, 12 ... Flash memory, 13 ... Camera, 14 ... First touch screen, 15 ... Second touch screen, 16 ... Communication interface, 30 ... Indicator device, 31 ... Processor , 32 ... Flash memory, 33 ... Pressure sensor, 34 ... Communication interface, 50, 51 ... Image, 100 ... Make simulation device, 101 ... Imaging unit, 102 ... Image acquisition unit, 103 ... Display control unit, 104 ... Display unit, 105 ... Feature identification unit, 106 ... Impression designation operation reception unit, 107 ... Impression setting unit, 108 ... Adjustment instruction operation reception unit, 109 ... Scene designation operation reception unit, 110 ... Make content determination unit, 111 ... Basic operation amount determination unit , 112 ... Additional operation amount determination unit, 113 ... Make area determination unit, 114 ... Make color determination unit, 115 ... User value acquisition unit, 120 ... Storage unit, 121 ... Model value storage unit, 122 ... Basic operation amount storage unit, 123 ... Make content storage unit, 124 ... Conformity impression storage unit, E1, E2 ... Area, L1, L2 ... Straight line

Claims (12)

ユーザの顔が撮像された撮像画像を表示する表示手段と、
前記撮像画像に基づいて、前記ユーザの顔の特徴を特定する特徴特定手段と、
顔のメイクで表現する目標の印象として設定された目標印象と、前記特徴特定手段により特定された前記ユーザの顔の特徴とに基づいて、前記目標印象を表現するためのメイク内容を決定するメイク内容決定手段と、
前記表示手段に、前記撮像画像が前記メイク内容決定手段により決定された前記メイク内容に応じて加工されたメイク画像を表示させる表示制御手段と、を備える、
画像処理装置。
A display means for displaying an captured image of the user's face, and
A feature identifying means for identifying the facial features of the user based on the captured image, and
Makeup that determines the makeup content for expressing the target impression based on the target impression set as the target impression expressed by the facial makeup and the facial features of the user specified by the feature specifying means. Content determination means and
The display means includes a display control means for displaying a make-up image in which the captured image is processed according to the make-up content determined by the make-up content determining means.
Image processing device.
前記特徴特定手段は、前記撮像画像に基づいて、前記ユーザの顔パラメータの値であるユーザ値を取得するユーザ値取得手段を備え、
前記メイク内容決定手段は、前記目標印象と前記ユーザ値取得手段により取得された前記ユーザ値とに基づいて、前記メイク内容を決定する、
請求項1に記載の画像処理装置。
The feature specifying means includes a user value acquiring means for acquiring a user value which is a value of the face parameter of the user based on the captured image.
The make-up content determining means determines the make-up content based on the target impression and the user value acquired by the user value acquisition means.
The image processing apparatus according to claim 1.
予め定められたモデル顔の顔パラメータの値であるモデル値を示すモデル値情報を記憶するモデル値記憶手段と、
前記モデル顔に前記目標印象を持たせるための前記モデル値に対する操作量である基本操作量を示す基本操作量情報を記憶する基本操作量記憶手段と、
前記ユーザ値又は前記モデル値に対する操作量に対応するメイク内容を示すメイク内容情報を記憶するメイク内容記憶手段と、を更に備え、
前記メイク内容決定手段は、
前記基本操作量記憶手段に記憶された前記基本操作量情報に基づいて、前記基本操作量を決定する基本操作量決定手段と、
前記ユーザ値取得手段により取得された前記ユーザ値と前記モデル値記憶手段に記憶された前記モデル値情報とに基づいて、前記ユーザの顔を前記モデル顔に近づけるための前記ユーザ値に対する操作量である追加操作量を決定する追加操作量決定手段と、を備え、
前記メイク内容決定手段は、前記基本操作量決定手段により決定された前記基本操作量と、前記追加操作量決定手段により決定された前記追加操作量と、前記メイク内容記憶手段に記憶された前記メイク内容情報とに基づいて、前記メイク内容を決定する、
請求項2に記載の画像処理装置。
A model value storage means for storing model value information indicating a model value which is a value of a predetermined model face parameter, and a model value storage means.
A basic operation amount storage means for storing basic operation amount information indicating a basic operation amount which is an operation amount with respect to the model value for giving the model face the target impression.
Further provided with a make-up content storage means for storing make-up content information indicating the make-up content corresponding to the operation amount with respect to the user value or the model value.
The means for determining the content of makeup is
A basic operation amount determining means for determining the basic operation amount based on the basic operation amount information stored in the basic operation amount storage means, and a basic operation amount determining means.
Based on the user value acquired by the user value acquisition means and the model value information stored in the model value storage means, the amount of operation on the user value for bringing the user's face closer to the model face. It is provided with an additional operation amount determining means for determining a certain additional operation amount.
The make-up content determining means includes the basic operation amount determined by the basic operation amount determining means, the additional operation amount determined by the additional operation amount determining means, and the make-up stored in the make-up content storage means. The makeup content is determined based on the content information.
The image processing apparatus according to claim 2.
前記モデル値情報は、複数の顔パラメータのそれぞれについて、前記モデル値を示す情報であり、
前記基本操作量情報は、複数の印象のそれぞれについて、前記モデル顔に各印象を持たせるための各モデル値に対する操作量を示す情報であり、
前記メイク内容情報は、前記複数の顔パラメータのそれぞれについて、前記ユーザ値又は前記モデル値に対する前記操作量に対応する前記メイク内容を示す情報であり、
前記ユーザ値取得手段は、前記撮像画像に基づいて、前記複数の顔パラメータのそれぞれについて、前記ユーザ値を取得し、
前記基本操作量決定手段は、前記基本操作量情報と前記目標印象とに基づいて、前記複数の顔パラメータのそれぞれについて、前記基本操作量を決定し、
前記追加操作量決定手段は、前記ユーザ値取得手段により前記複数の顔パラメータのそれぞれについて取得された前記ユーザ値と前記モデル値情報とに基づいて、前記複数の顔パラメータのそれぞれについて、前記追加操作量を決定し、
前記メイク内容決定手段は、前記基本操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記基本操作量と、前記追加操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記追加操作量と、前記メイク内容情報とに基づいて、前記メイク内容を決定する、
請求項3に記載の画像処理装置。
The model value information is information indicating the model value for each of a plurality of face parameters.
The basic manipulated variable information is information indicating the manipulated variable for each model value for giving each impression to the model face for each of the plurality of impressions.
The make-up content information is information indicating the make-up content corresponding to the operation amount with respect to the user value or the model value for each of the plurality of face parameters.
The user value acquisition means acquires the user value for each of the plurality of face parameters based on the captured image.
The basic operation amount determining means determines the basic operation amount for each of the plurality of face parameters based on the basic operation amount information and the target impression.
The additional operation amount determining means performs the additional operation for each of the plurality of face parameters based on the user value and the model value information acquired for each of the plurality of face parameters by the user value acquisition means. Determine the amount,
The make-up content determining means is the basic operation amount determined for each of the plurality of face parameters by the basic operation amount determining means, and the additional operation amount determining means determined for each of the plurality of face parameters. The make-up content is determined based on the additional operation amount and the make-up content information.
The image processing apparatus according to claim 3.
前記メイク内容決定手段は、前記基本操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記基本操作量のうち、前記基本操作量として予め定められた閾値以上の操作量が決定された顔パラメータである特定顔パラメータについて決定された基本操作量と、前記追加操作量決定手段により前記複数の顔パラメータのそれぞれについて決定された前記追加操作量のうち、前記特定顔パラメータについて決定された追加操作量と、前記メイク内容情報とに基づいて、前記メイク内容を決定する、
請求項4に記載の画像処理装置。
Among the basic operation amounts determined for each of the plurality of face parameters by the basic operation amount determining means, the make content determining means determines an operation amount equal to or greater than a predetermined threshold value as the basic operation amount. Of the basic operation amount determined for the specific face parameter which is a face parameter and the additional operation amount determined for each of the plurality of face parameters by the additional operation amount determining means, the addition determined for the specific face parameter. The makeup content is determined based on the operation amount and the makeup content information.
The image processing apparatus according to claim 4.
前記メイク内容決定手段により決定された前記メイク内容の調整を指示する操作である調整指示操作を受け付ける調整指示操作受付手段を更に備え、
前記メイク内容決定手段は、前記調整指示操作受付手段により前記調整指示操作が受け付けられた場合、前記メイク内容に含まれる、前記メイク画像の色であるメイク色と前記メイク画像が重ねられる領域であるメイク領域とのうちの少なくとも一方を調整する、
請求項1から5のいずれか1項に記載の画像処理装置。
Further provided with an adjustment instruction operation receiving means for receiving an adjustment instruction operation which is an operation for instructing the adjustment of the make-up content determined by the make-up content determining means.
The make-up content determining means is a region in which the make-up color, which is the color of the make-up image, and the make-up image, which are the colors of the make-up image, are superimposed on the make-up content when the adjustment instruction operation is received by the adjustment instruction operation receiving means. Adjust at least one of the make-up areas,
The image processing apparatus according to any one of claims 1 to 5.
前記目標印象を設定する印象設定手段を更に備える、
請求項1から6のいずれか1項に記載の画像処理装置。
Further provided with an impression setting means for setting the target impression.
The image processing apparatus according to any one of claims 1 to 6.
複数のシーンのそれぞれに適合する印象を示す適合印象情報を記憶する適合印象記憶手段と、
前記ユーザから前記複数のシーンのうちいずれかのシーンを指定する操作であるシーン指定操作を受け付けるシーン指定操作受付手段と、を更に備え、
前記印象設定手段は、前記シーン指定操作受付手段により前記シーン指定操作が受け付けられた場合、前記適合印象記憶手段に記憶された前記適合印象情報に基づいて、前記複数のシーンのうち前記シーン指定操作により指定されたシーンに適合する印象を前記目標印象として設定する、
請求項7に記載の画像処理装置。
A conforming impression storage means for storing conforming impression information indicating an impression conforming to each of a plurality of scenes,
Further provided with a scene designation operation receiving means for receiving a scene designation operation which is an operation of designating one of the plurality of scenes from the user.
When the scene designation operation is received by the scene designation operation receiving means, the impression setting means performs the scene designation operation among the plurality of scenes based on the matching impression information stored in the conforming impression storage means. An impression that matches the scene specified by is set as the target impression.
The image processing apparatus according to claim 7.
前記メイク画像は、前記撮像画像における、前記メイク内容に応じたメイク領域に、前記メイク内容に応じた化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像である、
請求項1から8のいずれか1項に記載の画像処理装置。
The make-up image is an image in which make-up parts representing a state in which cosmetics according to the make-up content are applied to the face of the user are superimposed on the make-up area corresponding to the make-up content in the captured image.
The image processing apparatus according to any one of claims 1 to 8.
前記撮像画像を取得する画像取得手段を更に備え、
前記表示手段は、前記画像取得手段により取得された前記撮像画像を表示する、
請求項1から9のいずれか1項に記載の画像処理装置。
Further provided with an image acquisition means for acquiring the captured image,
The display means displays the captured image acquired by the image acquisition means.
The image processing apparatus according to any one of claims 1 to 9.
ユーザの顔が撮像された撮像画像を表示し、
前記撮像画像に基づいて、前記ユーザの顔の特徴を特定し、
顔のメイクで表現する目標の印象として設定された目標印象と、前記ユーザの顔の特徴とに基づいて、前記目標印象を表現するためのメイク内容を決定し、
前記撮像画像が前記メイク内容に応じて加工されたメイク画像を表示する、
画像処理方法。
Display the captured image of the user's face,
Based on the captured image, the facial features of the user are identified.
Based on the target impression set as the target impression to be expressed by the facial makeup and the facial features of the user, the makeup content for expressing the target impression is determined.
The captured image displays a make-up image processed according to the make-up content.
Image processing method.
コンピュータを、
ユーザの顔が撮像された撮像画像を表示装置に表示させる表示制御手段、
前記撮像画像に基づいて、前記ユーザの顔の特徴を特定する特徴特定手段、
顔のメイクで表現する目標の印象として設定された目標印象と、前記特徴特定手段により特定された前記ユーザの顔の特徴とに基づいて、前記目標印象を表現するためのメイク内容を決定するメイク内容決定手段、として機能させるプログラムであって、
前記表示制御手段は、前記表示装置に、前記撮像画像が前記メイク内容決定手段により決定された前記メイク内容に応じて加工されたメイク画像を表示させる、
プログラム。
Computer,
A display control means for displaying an captured image of a user's face on a display device,
A feature identifying means for identifying the facial features of the user based on the captured image,
Makeup that determines the makeup content for expressing the target impression based on the target impression set as the target impression expressed by the facial makeup and the facial features of the user specified by the feature specifying means. A program that functions as a means of determining content
The display control means causes the display device to display a make-up image in which the captured image is processed according to the make-up content determined by the make-up content determining means.
program.
JP2019173568A 2019-09-24 2019-09-24 Image processing device, image processing method and program Active JP7413691B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019173568A JP7413691B2 (en) 2019-09-24 2019-09-24 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173568A JP7413691B2 (en) 2019-09-24 2019-09-24 Image processing device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2021049082A true JP2021049082A (en) 2021-04-01
JP7413691B2 JP7413691B2 (en) 2024-01-16

Family

ID=75155134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019173568A Active JP7413691B2 (en) 2019-09-24 2019-09-24 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP7413691B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008102440A1 (en) * 2007-02-21 2008-08-28 Tadashi Goino Makeup face image creating device and method
WO2018088243A1 (en) * 2016-11-11 2018-05-17 ソニー株式会社 Information processing device, information processing method, and program
JPWO2018012136A1 (en) * 2016-07-14 2019-04-25 パナソニックIpマネジメント株式会社 MAKE-UP SUPPORT DEVICE AND MAKE-UP SUPPORT METHOD
WO2019130933A1 (en) * 2017-12-26 2019-07-04 パナソニックIpマネジメント株式会社 Physical appearance correction assistance device, physical appearance correction assistance method, and computer program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6740049B2 (en) 2016-07-22 2020-08-12 リョービ株式会社 Mold cooling device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008102440A1 (en) * 2007-02-21 2008-08-28 Tadashi Goino Makeup face image creating device and method
JPWO2018012136A1 (en) * 2016-07-14 2019-04-25 パナソニックIpマネジメント株式会社 MAKE-UP SUPPORT DEVICE AND MAKE-UP SUPPORT METHOD
WO2018088243A1 (en) * 2016-11-11 2018-05-17 ソニー株式会社 Information processing device, information processing method, and program
WO2019130933A1 (en) * 2017-12-26 2019-07-04 パナソニックIpマネジメント株式会社 Physical appearance correction assistance device, physical appearance correction assistance method, and computer program

Also Published As

Publication number Publication date
JP7413691B2 (en) 2024-01-16

Similar Documents

Publication Publication Date Title
US10617301B2 (en) Information processing device and information processing method
EP2615576B1 (en) Image-processing device, image-processing method, and control program
EP2615577B1 (en) Image-processing device, image-processing method, and control program
JP6055160B1 (en) Cosmetic information providing system, cosmetic information providing apparatus, cosmetic information providing method, and program
CN108765273A (en) The virtual lift face method and apparatus that face is taken pictures
US20120044335A1 (en) Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program
US20150262403A1 (en) Makeup support apparatus and method for supporting makeup
CN108764180A (en) Face identification method, device, electronic equipment and readable storage medium storing program for executing
US11315298B2 (en) Personalized stylized avatars
JP5949331B2 (en) Image generating apparatus, image generating method, and program
KR20100110793A (en) Makeup method, makeup simulation device, adn makeup simulation program
WO2013036612A2 (en) Systems, devices, and methods for providing products and consultations
JP2010211308A (en) Makeup advice device, the makeup advice method and program
CN110121728B (en) Cosmetic presentation system, cosmetic presentation method, and cosmetic presentation server
CN109147037A (en) Effect processing method, device and electronic equipment based on threedimensional model
JP5949030B2 (en) Image generating apparatus, image generating method, and program
JP6566240B2 (en) Information processing apparatus, information processing method, and program
WO2015152028A1 (en) Makeup assistance device and recording medium
JP2021144582A (en) Makeup simulation device, makeup simulation method and program
JP2000151985A (en) Picture processing method and recording medium
JP2011022733A (en) Device and program for simulating makeup, and counter selling support method
JPWO2011155067A1 (en) Character generation system, character generation method and program
JP6165187B2 (en) Makeup evaluation method, makeup evaluation system, and makeup product recommendation method
JP7413691B2 (en) Image processing device, image processing method and program
JP2004326488A (en) Simulation image producing server, simulation image producing system, simulation image producing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231211

R150 Certificate of patent or registration of utility model

Ref document number: 7413691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150