[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5085636B2 - Makeup face image generating apparatus, method thereof, server and program - Google Patents

Makeup face image generating apparatus, method thereof, server and program Download PDF

Info

Publication number
JP5085636B2
JP5085636B2 JP2009500036A JP2009500036A JP5085636B2 JP 5085636 B2 JP5085636 B2 JP 5085636B2 JP 2009500036 A JP2009500036 A JP 2009500036A JP 2009500036 A JP2009500036 A JP 2009500036A JP 5085636 B2 JP5085636 B2 JP 5085636B2
Authority
JP
Japan
Prior art keywords
face
image
makeup
user
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009500036A
Other languages
Japanese (ja)
Other versions
JPWO2008102440A1 (en
Inventor
正 五井野
Original Assignee
正 五井野
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 正 五井野 filed Critical 正 五井野
Publication of JPWO2008102440A1 publication Critical patent/JPWO2008102440A1/en
Application granted granted Critical
Publication of JP5085636B2 publication Critical patent/JP5085636B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/002Masks for cosmetic treatment of the face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、ユーザの顔画像からユーザ専用手本化粧顔画像を生成する化粧顔画像生成装置、その方、サーバ及びプログラムに関する。 The present invention is a cosmetic facial image generating apparatus for generating user-specific model makeup face image from the user's face image, the way, about the server and a program.

ユーザの要望に適う化粧方法をユーザに提供する技術が特許文献1〜5に開示されている。例えば特許文献1に記載された化粧方法提示方法では、ユーザから送られた顔画像に、ユーザによって選択された化粧方法を施して化粧顔画像を作成し、この化粧顔画像に応じた化粧手順をユーザに提示する。   Patent Documents 1 to 5 disclose techniques for providing a user with a makeup method that meets a user's request. For example, in the makeup method presentation method described in Patent Document 1, a makeup method selected by the user is applied to the face image sent from the user to create a makeup face image, and a makeup procedure according to the makeup face image is performed. Present to the user.

特許文献2に記載された化粧アドバイス方法では、ユーザの顔と化粧モデルの顔が合成されてユーザが手本とする化粧顔画像を作成する。
特許文献3に開示された化粧アドバイスシステムは、画像入力手段からユーザの顔画像を取得し、その顔画像の特徴量に基づいてユーザの顔の印象を複数の印象パターンのいずれかに分類し、その分類結果を複数の印象パターンの典型的な顔画像と共に出力する。そして、ユーザの化粧顔のシミュレーション画像を、典型的な印象パターンのそれぞれについて形成し、ユーザの顔画像と共に出力する。
In the makeup advice method described in Patent Document 2, the face of the user and the face of the makeup model are combined to create a makeup face image modeled by the user.
The makeup advice system disclosed in Patent Literature 3 acquires a user's face image from an image input unit, classifies the user's face impression into one of a plurality of impression patterns based on the feature amount of the face image, The classification result is output together with typical face images of a plurality of impression patterns. Then, a simulation image of the user's makeup face is formed for each of the typical impression patterns, and is output together with the user's face image.

特許文献4に記載された化粧アドバイス装置は、ユーザの顔画像を入力し、該顔画像と第2データベースに登録された理想顔との差異から、必要な化粧を判断し、化粧の手順を第1データベースから読み出し、表示装置に表示する。   The makeup advice device described in Patent Literature 4 inputs a user's face image, determines the necessary makeup from the difference between the face image and the ideal face registered in the second database, and determines the makeup procedure. The data is read from one database and displayed on a display device.

特許文献5に記載された化粧シミュレーション方法では、ユーザの顔の画像にモルフィングやトウィーニングなどの画像処理を行って、ユーザの顔と希望顔とが混合される。ユーザの顔と希望顔との混合比率を変更して、複数の化粧顔候補を得る。得られた化粧顔候補のうち、化粧で得ることの可能な相似レベルの範囲内にある化粧顔候補から、ユーザが望ましいと化粧顔を選択する。
特開2000−339331号公報 特許第3408524号公報 特許第3582458号公報 特開2002−123585号公報 特開平10−255066号公報
In the makeup simulation method described in Patent Literature 5, image processing such as morphing and tweening is performed on the user's face image to mix the user's face and the desired face. A plurality of makeup face candidates are obtained by changing the mixing ratio of the user's face and the desired face. Among the obtained makeup face candidates, a makeup face is selected as desired by the user from among makeup face candidates within a range of similarity levels that can be obtained by makeup.
JP 2000-339331 A Japanese Patent No. 3408524 Japanese Patent No. 3582458 JP 2002-123585 A JP-A-10-255066

従来の化粧アドバイスでは、化粧モデルの化粧顔の画像や、化粧モデルの正味化粧画像とユーザの顔画像との合成画像が手本として用いられていた。化粧モデルの正味化粧画像をユーザの顔画像と合成する場合、ユーザの顔画像とその化粧モデルの正味化粧画像との間で、顔形、目や口等のパーツの位置と形状が一致するように、化粧モデルの正味化粧画像を変形する処理が行われていた。しかし、変形処理された化粧モデルの正味化粧画像からユーザの手本化粧顔を作成した場合、ユーザに合わない手本化粧顔が得られてしまう。例えば、卵形の顔を有する化粧モデルの正味化粧画像を、四角形の顔のユーザに合うように変形し、手本化粧顔画像を生成した場合、その手本化粧顔画像は、ユーザの期待した化粧顔からかけ離れてしまうことがあった。そのため、ユーザは、ユーザの顔形に似ている顔形の別の化粧モデルの化粧顔を選択せざるを得なかった。   In the conventional makeup advice, a makeup model image of a makeup model or a composite image of a makeup model net makeup image and a user face image is used as a model. When compositing a net makeup image of a makeup model with a user's face image, the position and shape of parts such as the face shape, eyes, and mouth are matched between the user's face image and the net makeup image of the makeup model. In addition, a process of deforming the net makeup image of the makeup model has been performed. However, when a user's model makeup face is created from the net makeup image of the makeup model that has been subjected to the deformation process, a model makeup face that does not match the user is obtained. For example, when a model makeup face image is generated by transforming a net makeup image of a makeup model having an egg-shaped face to fit a user with a square face, the model makeup face image is expected by the user. Sometimes it was far from the makeup face. Therefore, the user has to select a makeup face of another makeup model having a face shape similar to the user's face shape.

特許文献5では、希望顔から離れた化粧顔候補ばかりが得られてしまうという問題があった。
本発明の目的は、サンプル化粧顔の正味化粧画像をユーザの顔画像に合成してユーザ専用の手本化粧顔を生成する場合に、ユーザの好みに近いユーザ専用の手本化粧顔を生成できる化粧顔画像生成装置、その方法、サーバ及びプログラムを提供することにある。
In Patent Document 5, there is a problem that only makeup face candidates that are separated from the desired face are obtained.
An object of the present invention, the net makeup image of the sample cosmetic face when synthesized in the face image of the user to generate a model decorative face of the user only can generate a model decorative face of the user dedicated closer to the user's preference The object is to provide a makeup face image generation apparatus, a method thereof, a server, and a program .

本発明は、ユーザの顔の画像からそのユーザ専用手本化粧顔の画像を生成する装置であって、前記ユーザによって選択されたサンプル化粧顔の画像、前記サンプル化粧顔の素顔の画像、及び前記サンプル化粧顔の素顔の画像と前記サンプル化粧顔の画像との差に対応する正味の化粧画像を記憶する記憶手段と、前記ユーザの素顔の画像を取得する顔画像取得手段と、前記正味の化粧画像を前記ユーザの素顔の画像にマッチングさせる処理を行って、マッチング済みの正味化粧画像を生成するマッチング処理手段と、前記サンプル化粧顔の素顔の画像と前記ユーザの素顔の画像の各々に対して特徴抽出を行って、各素顔の特徴を取得し、両素顔の特徴の差異を取得する素顔差異取得手段と、前記ユーザの素顔を前記サンプル化粧顔の素顔に似せるために前記ユーザの素顔に施すべき化粧であって前記素顔の特徴の差異を小さくする当該化粧の画像を表す素顔補正用化粧画像を取得す素顔補正用化粧画像取得手段と、前記素顔補正用化粧画像と、前記マッチング済みの正味化粧画像とを、前記ユーザの素顔の画像に付加する合成処理を行って、ユーザ専用手本化粧顔の画像を生成する画像合成手段とを備える。 The present invention is an apparatus for generating a user-specific model makeup face image from a user face image, the sample makeup face image selected by the user, the sample makeup face image, and the Storage means for storing a net makeup image corresponding to the difference between the sample makeup face image and the sample makeup face image, face image acquisition means for obtaining the user face image, and the net makeup Matching processing means for generating a matched net makeup image by performing processing for matching an image with the user's face image, and each of the sample makeup face image and the user face image performing feature extraction to obtain the characteristics of each real face, resembling a real face difference acquisition means for acquiring a difference in the characteristics of both real face, the real face of the user in real face of the sample decorative face Wherein the real face correcting cosmetic image acquisition hand stage you get a decorative image for real face correction a cosmetic to be applied to the real face representing the image of the makeup to reduce the difference in characteristics of the real face of the user, the real face corrected for comprising the use makeup image, said matching already net makeup image, before SL performs synthetic processing to add the user's real face image and an image synthesizing means for generating an image of the user-specific model makeup face.

前記画像合成手段は、前マッチング済みの正味化粧画像に前記素顔補正用化粧画像を付加して補正後の正味化粧画像を生成する画像補正手段を備え、前記補正後の正味化粧画像を前記ユーザの素顔の画像に付加する合成処理を行って、前記ユーザ専用手本化粧顔の画像を生成することが好ましい。 The image synthesizing means, prior SL includes an image correction means for generating a positive Ajika粧image compensation after by adding Matched net makeup the real face correcting cosmetic image on an image, the corrected net makeup image Is preferably added to the user's face image to generate the user-specific model face image .

前記正味の化粧画像は、前記サンプル化粧顔の素顔から前記サンプル化粧顔に至るまでの複数の化粧層に対応する複数のレイヤを含むことが好ましい。
前記素顔差異取得手段は、前記ユーザの素顔の画像と前記サンプル化粧顔の素顔の画像から、両顔の輪郭と、両素顔の輪郭の差を取得し、前記素顔補正用化粧画像取得手段は、前記輪郭の差異を少なく見せるための素顔輪郭補正用化粧画像を前記素顔補正用化粧画像として取得することが好ましい。
It is preferable that the net makeup image includes a plurality of layers corresponding to a plurality of makeup layers from the face of the sample makeup face to the sample makeup face.
The real face difference obtaining means, from the real face of the image of the image with the sample decorative face of the real face of the user, and the outline of both faces to obtain a difference different contours of both real face, the real face correction makeup image acquisition unit , it is preferable to obtain the real face contour correction cosmetic picture image for showing less difference in the contour as the real face correction cosmetic image.

前記素顔差異取得手段は、前記ユーザの素顔の画像と前記サンプル化粧顔の素顔の画像の各々に対して特徴抽出を行って、両素顔のパーツの形状を取得し、両素顔間の対応するパーツの形状の差異を取得し、前記素顔補正用化粧画像取得手段は、前記パーツの形状の差異を少なく見せるためのパーツ形状補正画像を前記素顔補正用化粧画像として取得することが好ましい。 The face difference acquisition means performs feature extraction on each of the user's face image and the sample makeup face's face image to acquire the shape of both face parts, and the corresponding parts between the face faces. get the differences in shape, the real face correction makeup image acquisition unit preferably acquires a part shape correction image image for showing less difference in the shape of the part as the real face correction cosmetic image.

一例では、前記パーツは、目、眉、鼻及び口のうちの少なくとも一つである。
前記素顔差異取得手段は、前記ユーザの素顔の画像と前記サンプル化粧顔の素顔の画像の各々から、顔パーツレイアウトを取得し、両素顔間の顔パーツレイアウトの差異を取得し、前記素顔補正用化粧画像取得手段は、前記顔パーツレイアウトの差異を少なく見せるための素顔パーツレイアウト補正用化粧画像を前記素顔補正用化粧画像として取得することが好ましい。
In one example, the part is at least one of eyes, eyebrows, nose and mouth.
The face difference acquisition means acquires a face part layout from each of the user's face image and the sample makeup face's face image, acquires a face part layout difference between both face faces, and corrects the face correction. cosmetic image obtaining means, it is preferable to obtain the real face parts layout correction cosmetic picture image for showing less difference in the face parts layout as the real face correction cosmetic image.

前記装置は、前前記画像合成手段が前記素顔補正用化粧画像を付加する処理を行うか否かを前記ユーザの操作に従って選択する選択手段を更に備えることが好ましい The apparatus preferably has before the image synthesizing unit further comprising a selection means for selecting in accordance with the operation of the user whether to perform a process of pressurizing with the real face correction cosmetic image.

一例では、前記記憶手段は、前記素顔の特徴の差異の種類と程度に対応付けられた差異解消用画像と、前記ユーザの素顔の画像において前記差異解消用画像を付加する位置とを記憶し、前記素顔補正用化粧画像取得手段は、前記素顔の特徴の差異の種類と程度に応じた差異解消用画像と位置とを前記記憶手段から読み出し、前記画像合成手段は、前記読み出した差異解消用画像を前記ユーザの素顔の画像中の前記読み出した位置に付加するIn one example, the storage unit stores the difference eliminating image associated with the type and extent of the difference in characteristics of the real face and the location for adding the difference solution extinguishing images in real face images of the users The face correction makeup image acquisition means reads the difference-resolving image and the position according to the type and degree of difference in the features of the face from the storage means, and the image composition means reads the difference-resolving image. An image is added to the read position in the user's face image.

一例では、前記記憶手段は、前記差異解消用画像を前記位置に付加するためのプロシージャ情報を記憶し、前記素顔補正用化粧画像取得手段は、前記差異解消用画像、前記位置及び前記プロシージャ情報を前記記憶手段から読み出し、前記画像合成手段は、前記プロシージャ情報に従って、前記読み出した差異解消用画像を前記ユーザの素顔の画像中の前記読み出した位置に付加するIn one example, the storage means stores procedure information for adding the difference elimination image to the position, and the face correction makeup image acquisition means stores the difference elimination image, the position, and the procedure information. Read from the storage means, and the image composition means adds the read difference eliminating image to the read position in the user's face image according to the procedure information.

前記装置は、前記サンプル化粧顔に対応する素顔から前記サンプル化粧顔に対応する化粧顔に化粧するための手順を、文書、音声及び画像のうち少なくとも一つで説明する第1化粧手順レシピを記憶するレシピ記憶手段と、前記ユーザの顔から前記ユーザ専用手本化粧顔に化粧するための手順を、文書、音声及び画像のうち少なくとも一つで説明する第2化粧手順レシピを作成する化粧手順作成手段とを更に備え、前記化粧手順作成手段は、前記サンプル化粧顔に対応する前記第1化粧手順レシピを前記レシピ記憶手段から読み出し、前記第1化粧手順レシピにおいて、前記素顔補正用化粧画像に対応する一部を修正して、前記第2化粧手順レシピを作成することが好ましい。 The apparatus stores a first makeup procedure recipe for explaining a procedure for applying makeup from a bare face corresponding to the sample makeup face to a makeup face corresponding to the sample makeup face using at least one of a document, sound, and image. And a makeup procedure creation for creating a second makeup procedure recipe that describes at least one of a document, a sound, and an image of a procedure for applying makeup from the user's face to the user-specific model makeup face. The makeup procedure creating means reads out the first makeup procedure recipe corresponding to the sample makeup face from the recipe storage means, and corresponds to the makeup image for face correction in the first makeup procedure recipe. It is preferable that the second makeup procedure recipe is created by correcting a part of the recipe.

一例では、前記素顔補正用化粧画像と前マッチング済みの味化粧画像は、複数の化粧ステップとそれぞれ対応付けられた複数のレイヤから構成され、前記装置は更に、前記ユーザの素顔の画像に、前記化粧ステップの進行に伴って前記レイヤを順次合成して、各化粧ステップにおける途中の手本化粧顔の画像を作成する化粧途中顔画像生成手段を備える。 In one example, the real face correction makeup image and the previous Matched positive Ajika粧image is composed of a plurality of makeup step and a plurality of layers respectively associated with said device further allows the image of the real face of the user And a makeup intermediate face image generating means for sequentially synthesizing the layers as the makeup step proceeds to create an image of a model makeup face in the middle of each makeup step.

一例では、各化粧ステップにおける前記ユーザの実際の化粧途中顔の画像と、前記各化粧ステップにおける途中の手本化粧顔の画像とを取得する化粧途中顔画像取得手段と、前記実際の化粧途中顔画像と、前記途中の手本化粧顔の画像との差異を取得する途中化粧顔差異取得手段と、前記途中化粧顔差異取得手段により取得された前記差異を減らすための化粧手順レシピを文書、音声、画像のうち少なくとも一つで説明する化粧アドバイスを生成するアドバイス手段とを更に備える。   In one example, a makeup intermediate face image acquisition means for acquiring an image of an actual makeup intermediate face of the user in each makeup step and an image of a model makeup face in the middle of each makeup step, and the actual makeup intermediate face An intermediate makeup face difference acquisition unit for acquiring a difference between the image and the image of the intermediate model makeup face; a makeup procedure recipe for reducing the difference acquired by the intermediate makeup face difference acquisition unit; And advice means for generating makeup advice described in at least one of the images.

一例では、前記サンプル化粧顔の画像は、複数の他人の化粧顔の画像から前記ユーザによって選択された、ユーザ好みの化粧が施された他人の化粧顔の画像であり、前記記憶手段は、前記複数の他人の化粧顔の画像と前記複数の他人の素顔とを互いに対応付けて記憶している。   In one example, the sample makeup face image is an image of another person's makeup face that is selected by the user from a plurality of others' makeup face images and has a user-preferred makeup, and the storage means A plurality of other person's makeup face images and the plurality of other person's natural faces are stored in association with each other.

一例では、前記装置は、クライアント端末とネットワークを介して接続されたサーバであり、前記サーバは、前記クライアント端末から開始要求を受けたときに、前記ユーザ専用手本化粧顔の画像の生成処理を開始し、前記ユーザの素顔の画像を前記クライアント端末から受信し、前記ユーザ専用手本化粧顔の画像を前記クライアント端末に送信する。 In one example, the device is a server connected via a client terminal and a network, wherein the server, when receiving a start request from said client terminal, generate process of the user-specific model makeup face image The user's face image is received from the client terminal, and the user-specific model makeup face image is transmitted to the client terminal.

一例では、前記装置は、サーバとネットワークを介して接続されるとともに、前記サーバからダウンロードした化粧顔画像生成処理プログラムを実行するプロセッサを内蔵するクライアント端末であり、前記記憶手段は、前記クライアント端末に設けられており、前記サーバから受信した前記サンプル化粧顔の画像、前記サンプル化粧顔の素顔の画像及び前記正味の化粧画像を記憶し、前記素顔補正用化粧画像取得手段は、前記クライアント端末に設けられており、前記サーバにアクセスして、前記両素顔の特徴の差異に応じた前記素顔補正用化粧画像を取得する。 In one example, the apparatus is a client terminal that is connected to a server via a network, and that includes a processor that executes a makeup face image generation processing program downloaded from the server, and the storage unit is connected to the client terminal. The sample makeup face image, the sample makeup face image, and the net makeup image received from the server are stored, and the makeup image acquisition means for face correction is provided in the client terminal. And accessing the server to acquire the makeup image for face correction according to the difference between the features of the faces .

本発明は更に、ユーザ専用手本化粧顔の画像を生成する方法を提供する。その方法は、前記ユーザによって選択されたサンプル化粧顔の画像、前記サンプル化粧顔の素顔の画像、及び前記サンプル化粧顔の素顔の画像と前記サンプル化粧顔の画像との差に対応するユーザ好みの正味の化粧画像を記憶する工程と、前記ユーザの素顔の画像を取得する工程と、前記正味の化粧画像を前記ユーザの素顔の画像にマッチングさせる処理を行って、マッチング済みの正味化粧画像を生成する工程と、前記サンプル化粧顔の素顔の画像と前記ユーザの素顔の画像の各々に対して特徴抽出を行って、各素顔の特徴を取得し、両素顔の特徴の差異を取得する工程と、前記ユーザの素顔を前記サンプル化粧顔の素顔に似せるために前記ユーザの素顔に施すべき化粧であって前記素顔の特徴の差異を小さくする当該化粧の画像を表す素顔補正用化粧画像を取得する工程と、前記素顔補正用化粧画像と、前記マッチング済みの正味化粧画像とを、前記ユーザの素顔の画像に付加する合成処理を行って、ユーザ専用手本化粧顔の画像を生成する工程とを備えている。 The present invention further provides a method for generating a user-specific model makeup face image. The method includes: a sample makeup face image selected by the user; a sample makeup face image; and a user preference corresponding to a difference between the sample makeup face image and the sample makeup face image. A step of storing a net makeup image, a step of obtaining an image of the user's face, and a process of matching the net makeup image with the image of the user's face to generate a matched net makeup image a step of a step of performing feature extraction to obtain the characteristics of each real face, obtains a difference in the characteristics of both real face for each of the sample decorative face real face image and the user of the real face of the image, element representing the image of the makeup to reduce the difference in characteristics of the real face of the sample decorative face of the to resemble real face said a cosmetic to be applied to the real face of the user real face of the user A step you get a correction makeup image by performing said real face correcting cosmetic image, and the matching previously net makeup image, the synthesis process to be added to the real face of the image before Symbol user, user-specific model makeup Generating a face image.

一例では、前記両素顔の特徴は、顔の輪郭、顔のパーツ形状、顔パーツレイアウトのうちの少なくとも一つである。
本発明は更に、ユーザの顔の画像から、そのユーザ専用手本化粧顔の画像を生成するサーバを提供する。そのサーバは、ユーザの顔の画像から、そのユーザ専用手本化粧顔の画像を生成するサーバであって、前記ユーザによって選択されたサンプル化粧顔の画像、前記サンプル化粧顔の素顔の画像、及び前記サンプル化粧顔の素顔の画像と前記サンプル化粧顔の画像との差に対応するユーザ好みの正味の化粧画像を記憶する記憶手段と、前記クライアント端末から前記ユーザの素顔の画像を取得する顔画像取得手段と、前記正味の化粧画像を前記ユーザの素顔の画像にマッチングさせる処理を行って、マッチング済みの正味化粧画像を生成するマッチング処理手段と、前記サンプル化粧顔の素顔の画像と前記ユーザの素顔の画像の各々に対して特徴抽出を行って、各素顔の特徴を取得し、両素顔の特徴の差異を取得する素顔差異取得手段と、前記ユーザの素顔を前記サンプル化粧顔の素顔に似せるために前記ユーザの素顔に施すべき化粧であって前記素顔の特徴の差異を小さくする当該化粧の画像を表す素顔補正用化粧画像を取得す素顔補正用化粧画像取得手段と、前記素顔補正用化粧画像と、前記マッチング済みの正味化粧画像とを、前記ユーザの素顔の画像に付加する合成処理を行って、ユーザ専用手本化粧顔の画像を生成する画像合成手段と、前記ユーザ専用手本化粧顔の画像を前記クライアント端末に送信する手段とを備えている。
In one example, the feature of the both faces is at least one of a face outline, a face part shape, and a face part layout.
The present invention further provides a server for generating a user-specific model makeup face image from a user face image. The server generates a user-specific model makeup face image from the user face image, the sample makeup face image selected by the user, the sample makeup face image, and Storage means for storing a user-preferred net makeup image corresponding to the difference between the sample makeup face image and the sample makeup face image, and a face image for obtaining the user face image from the client terminal An acquisition means; a matching processing means for generating a matched net makeup image by performing processing for matching the net makeup image with the user's face image; and an image of the sample makeup face and the user's face performing feature extraction for each of the real face of the image, acquires the characteristics of each real face, the real face difference acquisition means for acquiring a difference in the characteristics of both real face, the You get a decorative image for real face correction representing an image of the makeup a cosmetic to be applied to the real face of the user real face of over THE to resemble real face of the sample decorative face to reduce the differences in the characteristics of the real face performing a real face correcting cosmetic image acquisition hand stage, and the real face correcting cosmetic image, and the matching previously net makeup image, the synthesis process to be added to the real face of the image before Symbol user, user-specific model makeup face Image synthesizing means for generating the image and means for transmitting the image of the user-specific model makeup face to the client terminal.

本発明は更に、前記方法をコンピュータに実行させるためのプログラムを提供する。 The present invention further provides a program for executing the method on a computer.

以下、本発明の好ましい実施形態を図1〜図17に従って説明する。
図1は、化粧に関するアドバイスを提供するための化粧アドバイスシステム10を示す。化粧アドバイスシステム10は、インターネット等のネットワーク11を通じて互いに通信可能に接続されたクライアント端末12と、サーバコンピュータ20(以下、単にサーバという)とを備えている。クライアント端末12は、例えばネットワーク11に有線又は無線接続可能なパーソナルコンピュータや、携帯電話回線網13を介してネットワーク11に接続可能な携帯電話機のような移動局であり得る。ネットワーク11には、化粧または美容健康関連機関に設置されたコンピュータ15が接続されている。コンピュータ15は、化粧に関する情報や、美容情報及び健康情報を、ネットワーク11を通じてサーバ20に提供する。化粧情報には、化粧品情報(化粧品の新製品情報、特徴、使い方、成分等)、化粧の手順やテクニックに関する情報などが含まれる。ネットワーク11の例は、インターネット、LAN(Local Area Network)、及びVAN(付加価値回線網)である。
Hereinafter, preferred embodiments of the present invention will be described with reference to FIGS.
FIG. 1 shows a makeup advice system 10 for providing makeup advice. The makeup advice system 10 includes a client terminal 12 that is communicably connected to each other through a network 11 such as the Internet, and a server computer 20 (hereinafter simply referred to as a server). The client terminal 12 can be a mobile station such as a personal computer that can be connected to the network 11 by wire or wirelessly, or a mobile phone that can be connected to the network 11 via the mobile phone network 13. Connected to the network 11 is a computer 15 installed in a makeup or beauty / health related organization. The computer 15 provides information related to makeup, beauty information, and health information to the server 20 through the network 11. The makeup information includes information on cosmetics (new product information on cosmetics, characteristics, usage, ingredients, etc.), information on makeup procedures and techniques, and the like. Examples of the network 11 are the Internet, a LAN (Local Area Network), and a VAN (value added circuit network).

クライアント端末12は入力部12a(例えばキーボードやマウス等のポインティングデバイス)を有する。入力部12aは、ユーザ14が化粧アドバイスを受けたいときに、ユーザ14の顔画像をクライアント端末12に入力するときに使用される。クライアント端末12は、ユーザ14の素顔画像を、ネットワーク11を通じてサーバ20に送信する。サーバ20は、クライアント端末12から受信したユーザ14の素顔画像に画像処理を施して、ユーザ14専用の手本化粧顔画像を生成し、その手本化粧顔画像をユーザ14のクライアント端末12に送信する。クライアント端末12はその手本化粧顔画像を表示部12bに表示する。クライアント端末12には、カメラ16が設けられている。カメラ16は、ユーザ14の素顔や化粧顔を撮影するのに用いられる。カメラ16はクライアント端末12に内蔵されるか外部接続される。   The client terminal 12 includes an input unit 12a (for example, a pointing device such as a keyboard or a mouse). The input unit 12 a is used when the user 14 wants to receive makeup advice and inputs the face image of the user 14 to the client terminal 12. The client terminal 12 transmits the face image of the user 14 to the server 20 through the network 11. The server 20 performs image processing on the face image of the user 14 received from the client terminal 12, generates a model makeup face image dedicated to the user 14, and transmits the model makeup face image to the client terminal 12 of the user 14. To do. The client terminal 12 displays the model makeup face image on the display unit 12b. The client terminal 12 is provided with a camera 16. The camera 16 is used to photograph the user's 14 face and makeup face. The camera 16 is built in the client terminal 12 or externally connected.

サーバ20は、手本化粧顔画像をクライアント端末12に提供した後、ユーザ14の素顔を手本化粧顔どおりの化粧顔にする化粧の手順を文書、音声、画像のうち少なくとも一つで説明する化粧手順レシピをユーザ14のクライアント端末12に送信し、表示部12b等の出力装置に化粧手順レシピを出力させる。化粧手順レシピは、少なくとも文章を含んでいる。化粧手順レシピが例えば音声を含む場合、クライアント端末12のスピーカから化粧手順を説明する音声が出力される。   After providing the model makeup face image to the client terminal 12, the server 20 will explain at least one of a document, sound, and image a makeup procedure for making the user's 14 face as a makeup face according to the model makeup face. The makeup procedure recipe is transmitted to the client terminal 12 of the user 14, and the makeup procedure recipe is output to an output device such as the display unit 12b. The makeup procedure recipe includes at least sentences. For example, when the makeup procedure recipe includes sound, a sound describing the makeup procedure is output from the speaker of the client terminal 12.

化粧手順は複数のステップからなる。ユーザ14は化粧手順レシピに従って化粧を順次施す。各ステップの目標化粧顔すなわち化粧途中顔が出来上がると、ユーザ14は、その化粧途中顔を撮影してクライアント端末12からサーバ20に送信する。その化粧途中顔を受信したサーバ20は、現在の化粧ステップにおける化粧途中顔を評価する。そして、サーバ20は、現在の化粧途中顔を、そのステップの手本化粧顔に近づけるための化粧アドバイスを用意し、ユーザ14のクライアント端末12に送信する。ユーザは例えば表示部12bに表示された化粧アドバイスを参考にして、化粧を修正することができる。   The makeup procedure consists of a plurality of steps. The user 14 sequentially applies makeup according to the makeup procedure recipe. When the target makeup face for each step, that is, the face during makeup, is completed, the user 14 captures the face during makeup and transmits it to the server 20 from the client terminal 12. The server 20 that received the makeup intermediate face evaluates the makeup intermediate face in the current makeup step. Then, the server 20 prepares makeup advice for bringing the current makeup intermediate face closer to the model makeup face of the step, and transmits the makeup advice to the client terminal 12 of the user 14. For example, the user can correct the makeup with reference to the makeup advice displayed on the display unit 12b.

図1に示すように、サーバ20は、本体21と、第1〜第7記憶部22〜28(7種類のデータベース)を備えている。記憶部22〜28は、一つの記憶装置に格納されてもよく、複数の記憶装置に別々に格納されてもよい。記憶部22〜28を格納する記憶装置は本体21に内蔵されていてもよく、外付けされていてもよい。データベースのうち化粧に関する化粧品や化粧の手順やテクニック等の化粧に関する専門知識などが要求される内容については、コンピュータ15からネットワーク11を通じて取得した情報を用いて作成されている。   As shown in FIG. 1, the server 20 includes a main body 21 and first to seventh storage units 22 to 28 (seven types of databases). The storage units 22 to 28 may be stored in one storage device or may be stored separately in a plurality of storage devices. A storage device that stores the storage units 22 to 28 may be built in the main body 21 or may be externally attached. The contents that require specialized knowledge about makeup such as cosmetics and procedures and techniques for makeup in the database are created using information acquired from the computer 15 through the network 11.

サーバ20は記憶手段に格納された各種プログラムコードに従って、ユーザ14専用の手本化粧顔画像を生成する処理、ユーザ14の実施した化粧を評価する処理、化粧のアドバイスをする処理を行なう。サーバ20は記憶手段には、図4,図5,図12,図13,図15,図17に示す画面をクライアント端末12の表示部12bに表示させるための画像や、図3の化粧支援処理プログラムが格納されている。化粧支援処理プログラムは、化粧顔画像生成処理プログラムと化粧アドバイス処理プログラムを含む。   The server 20 performs a process of generating a model makeup face image dedicated to the user 14, a process of evaluating the makeup performed by the user 14, and a process of giving makeup advice according to various program codes stored in the storage means. The server 20 stores in the storage means images for displaying the screens shown in FIGS. 4, 5, 12, 13, 15, and 17 on the display unit 12 b of the client terminal 12, and makeup support processing in FIG. 3. The program is stored. The makeup support processing program includes a makeup face image generation processing program and a makeup advice processing program.

サーバ20は、中央演算処理装置(CPU)、ROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)を備えている。CPUは、ROMやハードディスクドライブに記憶された種々の制御プログラムを実行する。RAMは、演算結果のような各種データが一時的に記憶する。サーバ20は、インターネット11に接続されたクライアント端末12との間でデータの送受信を行う送受信部29を備えている。例えば、送受信部29はクライアント端末12からのアクセス要求に応じてウェブ画面データを送信してクライアント端末12の表示部12bに、図4,図5,図12等に示すウェブ画面を表示させるウェブサーバ部を含む。   The server 20 includes a central processing unit (CPU), a ROM (read only memory), and a RAM (random access memory). The CPU executes various control programs stored in the ROM or hard disk drive. The RAM temporarily stores various data such as calculation results. The server 20 includes a transmission / reception unit 29 that transmits / receives data to / from the client terminal 12 connected to the Internet 11. For example, the transmission / reception unit 29 transmits web screen data in response to an access request from the client terminal 12 and causes the display unit 12b of the client terminal 12 to display the web screen shown in FIGS. Part.

図2は、サーバ20が、化粧支援処理プログラム(化粧顔生成処理プログラム及び化粧アドバイス処理プログラム)を実行することで、サーバによって構築される化粧支援装置の機能構成を示すブロック図である。送受信部29は、前述のようにウェブサーバ部により構成されており、クライアント端末12に送信すべきデータは予めウェブデータとして生成して送信する。図2に示す化粧支援装置30は、化粧顔画像生成処理と、化粧手順画面生成処理と、化粧アドバイス処理とを行う化粧顔画像生成装置を含むものである。   FIG. 2 is a block diagram showing a functional configuration of a makeup support apparatus constructed by the server when the server 20 executes the makeup support processing program (makeup face generation processing program and makeup advice processing program). The transmission / reception unit 29 is configured by the web server unit as described above, and data to be transmitted to the client terminal 12 is generated and transmitted in advance as web data. The makeup support apparatus 30 illustrated in FIG. 2 includes a makeup face image generation apparatus that performs makeup face image generation processing, makeup procedure screen generation processing, and makeup advice processing.

化粧支援装置30は、該装置を統括制御する制御部31、マッチング処理部32、正味化粧画像補正処理部33、合成処理部34、レシピ補正部35、第1〜第7記憶部22〜28及び画像等のデータを一時記憶するバッファとして機能する記憶部36〜38を備える。   The makeup support apparatus 30 includes a control unit 31 that performs overall control of the apparatus, a matching processing unit 32, a net makeup image correction processing unit 33, a composition processing unit 34, a recipe correction unit 35, first to seventh storage units 22 to 28, and Storage units 36 to 38 functioning as buffers for temporarily storing data such as images are provided.

記憶部22〜28について説明する。
第1記憶部22には、サンプル化粧顔データベースが構築されている。サンプル化粧顔データベースは、多数のサンプル化粧顔(例えば化粧モデルのような他人の化粧顔)の画像64と、各サンプル化粧顔の画像64からそのサンプル化粧顔の素顔の画像72を除算して得られるサンプル化粧顔の正味の化粧画像73とを対応付けて形成されている。
The storage units 22 to 28 will be described.
A sample makeup face database is constructed in the first storage unit 22. The sample makeup face database is obtained by dividing an image 64 of a large number of sample makeup faces (for example, a makeup face of another person such as a makeup model) and an image 72 of the sample makeup face from the sample makeup face images 64. And a net makeup image 73 of the sample makeup face.

第2記憶部23には、第1記憶部22に記憶されている多数のサンプル化粧顔の画像64にそれぞれ対応するサンプル化粧顔の素顔の画像72からなるサンプル素顔データベースが構築されている。   In the second storage unit 23, a sample face database including sample face images 72 of the sample makeup face respectively corresponding to the many sample makeup face images 64 stored in the first storage unit 22 is constructed.

第3記憶部24には、顔形の差異(例えばユーザ14の顔の輪郭と、そのユーザ14の選択したサンプルの顔の輪郭との差異)を補うために用いられる顔の輪郭補正画像が記憶され、顔の輪郭補正用データベースが構築されている。   The third storage unit 24 stores a facial contour correction image used to compensate for a facial shape difference (for example, a difference between the facial contour of the user 14 and the facial contour of the sample selected by the user 14). Thus, a face contour correction database is constructed.

第4記憶部25には、顔のパーツ形状の差異(例えばユーザ14の鼻と、そのユーザ14の選択したサンプルの鼻との差異)を補うために用いられるパーツ形状補正画像が記憶され、パーツ形状補正用データベースが構築されている。   The fourth storage unit 25 stores a part shape correction image used to compensate for a difference in facial part shape (for example, a difference between the nose of the user 14 and the nose of the sample selected by the user 14). A database for shape correction has been established.

第5記憶部26には、顔パーツレイアウト(図11参照)の差異(例えばユーザ14の目の位置と、そのユーザ14の選択したサンプルの目の位置との差異)を補うために用いられる顔パーツレイアウト補正画像が記憶され、顔パーツレイアウト補正用データベースが構築されている。   In the fifth storage unit 26, a face used to compensate for a difference in face part layout (see FIG. 11) (for example, a difference between the eye position of the user 14 and the eye position of the sample selected by the user 14). A part layout correction image is stored, and a face part layout correction database is constructed.

第3〜第5記憶部24〜26に記憶されている、顔の輪郭補正画像、パーツ形状補正画像、顔パーツレイアウト補正画像には一画像につき一つの識別子が付されている。
レシピ記憶手段としての第6記憶部27には、サンプルの素顔からサンプル化粧顔に化粧するための手順を説明する、文書、画像、音声のうち少なくとも一つからなる化粧手順レシピ(第1化粧手順レシピ)が記憶され、化粧手順レシピデータベースが構築されている。化粧手順レシピは少なくとも文書を含む。化粧手順レシピは、文章と画像(静止画又は動画)の組合せとすることが好ましいが、文章のみとしたり、音声のみとしたり、音声と画像との組合せとしたり、文章と音声と画像との組合せでもよい。
The face contour correction image, the part shape correction image, and the face part layout correction image stored in the third to fifth storage units 24 to 26 are each assigned one identifier.
A sixth storage unit 27 serving as a recipe storage means describes a procedure for applying makeup from a sample face to a sample makeup face. A makeup procedure recipe (first makeup procedure) including at least one of a document, an image, and a voice is described. Recipe) is stored, and a makeup procedure recipe database is constructed. The makeup procedure recipe includes at least a document. The makeup procedure recipe is preferably a combination of a sentence and an image (still image or video), but only a sentence, only a voice, a combination of a voice and an image, or a combination of a sentence, a voice and an image But you can.

第7記憶部28には、第1化粧手順レシピの文章をユーザ14に応じて補正するための補正用文書が記憶され、レシピ補正用データベースが構築されている。このレシピ補正用文書は、第1化粧手順レシピの文書に挿入されたり一部(例えば、単語、句、文、段落)を置き替えるのに使用される。補正用文書は、第3〜第5記憶部24〜26のそれぞれに記憶されている、レシピ補正用文書は、顔の輪郭を補正するように適合された輪郭補正用正味化粧画像、パーツ形状を補正するように適合されたパーツ形状補正用正味化粧画像、顔パーツレイアウトを補正するように適合されたレイアウト補正用正味化粧画像のそれぞれに付された識別子と関連付けられている。サーバ20は補正用の正味化粧画像に付された識別子を基に手順補正用データベースを検索すれば、その識別子と対応する補正用文書を取得できる。第7記憶部28には、文書中において補正のために補正用文書の置き換えの可能性がある文書位置、又は補正用文書の追加挿入の可能性がある位置を特定するアドレスと、補正用の正味化粧画像に付された前記識別子とを関連付けたリンクテーブルが記憶されている。補正用の正味化粧画像が決まると、それに付された識別子を基にリンクを参照すれば、その識別子と対応する補正用文書の置き換えエリアアドレス又は追加挿入位置アドレスを取得できる。文書やリンク等の詳細については後述する。   The seventh storage unit 28 stores a correction document for correcting the text of the first makeup procedure recipe in accordance with the user 14, and a recipe correction database is constructed. This recipe correction document is inserted into the document of the first makeup procedure recipe or used to replace a part (eg, word, phrase, sentence, paragraph). The correction document is stored in each of the third to fifth storage units 24 to 26. The recipe correction document is a contour correction net makeup image and part shape adapted to correct the face contour. The part shape correction net makeup image adapted to be corrected and the layout correction net makeup image adapted to correct the face part layout are associated with identifiers. If the server 20 searches the procedure correction database based on the identifier attached to the correction net makeup image, the correction document corresponding to the identifier can be acquired. The seventh storage unit 28 includes an address for specifying a document position in the document where the correction document may be replaced for correction, or a position where additional correction document may be inserted. A link table that associates the identifier attached to the net makeup image is stored. When the net makeup image for correction is determined, the replacement area address or additional insertion position address of the correction document corresponding to the identifier can be acquired by referring to the link based on the identifier attached thereto. Details of documents and links will be described later.

記憶部36は、ユーザ14の素顔の顔画像を記憶する。ユーザ14の素顔の画像は、クライアント端末12から送受信部29に受信され、制御部31の指示に従って記憶部36に格納される。送受信部29、制御部31及び記憶部36はユーザ14の素顔の画像を取得する顔画像取得手段を構成する。   The storage unit 36 stores a face image of the user 14's face. The face image of the user 14 is received by the transmission / reception unit 29 from the client terminal 12 and stored in the storage unit 36 in accordance with an instruction from the control unit 31. The transmission / reception unit 29, the control unit 31, and the storage unit 36 constitute a face image acquisition unit that acquires an image of the face of the user 14.

記憶部37は、ユーザ14の手本化粧顔画像を生成するためにユーザ14の素顔画像に合成すべき補正後正味化粧画像100を生成する過程で取得される画像を記憶する。補正後正味化粧画像100は、後述するマッチング処理後の正味化粧画像74(図7(b))と、ユーザ14の素顔画像とサンプル化粧顔の素顔画像72との間の差異、特に、顔の輪郭の差異、パーツ形状の差異、顔パーツレイアウトの差異を補うために正味化粧画像74に付加される化粧の画像(補正画像)とを含む。   The memory | storage part 37 memorize | stores the image acquired in the process of producing | generating the corrected net makeup image 100 which should be synthesize | combined with the user's 14 face image in order to produce the user's 14 example makeup face image. The corrected net makeup image 100 is a difference between a net makeup image 74 (FIG. 7 (b)) after matching processing, which will be described later, and the face image 72 of the user 14 and the sample makeup face. And a makeup image (corrected image) added to the net makeup image 74 in order to compensate for a difference in contour, a difference in part shape, and a difference in face part layout.

記憶部38は、ユーザ14の素顔を手本化粧顔にするための化粧の手順を作成する過程の文書データが一時的に記憶される。各記憶部36〜38は、RAM等のメモリの所定の記憶領域から構成される。   The storage unit 38 temporarily stores document data in the process of creating a makeup procedure for making the user's 14 face into a model makeup face. Each of the storage units 36 to 38 includes a predetermined storage area of a memory such as a RAM.

以下、第1〜第7記憶部22〜28に記憶された各種データを用いて、ユーザ14の手本化粧顔画像を生成する化粧顔画像生成処理、及びユーザ14が手本化粧顔を手本として行う化粧についてアドバイスする化粧アドバイス処理を行う各部32〜35について説明する。各部32〜35の動作は、制御部31により制御される。   Hereinafter, using various data stored in the first to seventh storage units 22 to 28, a makeup face image generation process for generating a model makeup face image of the user 14, and the user 14 models the model makeup face Each of the units 32 to 35 that perform makeup advice processing for advice on makeup to be performed will be described. The operations of the units 32 to 35 are controlled by the control unit 31.

化粧支援装置30は、ユーザ14の素顔画像71と、サンプル化粧顔の素顔画像72と、サンプル化粧顔の正味化粧画像73とを用いて、この正味化粧画像をユーザ14の顔の輪郭等に合うように加工してユーザ14用の正味化粧画像(補正後正味化粧画像100)を生成する。そして、その補正後正味化粧画像100をユーザ14の素顔画像に合成してユーザ14の手本化粧顔画像を生成する。この処理は、マッチング処理部32、正味化粧画像補正処理部33及び合成処理部34によって行われる。生成されたユーザ14の手本化粧顔画像は、ユーザ14が化粧をするときの手本として使用される。   The makeup support apparatus 30 uses the face image 71 of the user 14, the face image 72 of the sample makeup face, and the net makeup image 73 of the sample makeup face, and matches the net makeup image to the contour of the face of the user 14 and the like. Thus, the net makeup image for user 14 (corrected net makeup image 100) is generated. Then, the corrected net makeup image 100 is combined with the user's 14 face image to generate a model 14 makeup face image. This processing is performed by the matching processing unit 32, the net makeup image correction processing unit 33, and the composition processing unit 34. The generated model makeup face image of the user 14 is used as a model when the user 14 applies makeup.

マッチング処理手段としてのマッチング処理部32は、サンプル化粧顔の正味化粧画像73(図6を参照)を、ユーザ14の顔サイズや顔の輪郭等にマッチングさせるように加工するマッチング処理を行う。すなわち、第1記憶部22から、ユーザ14によって選択されたサンプル化粧顔の正味化粧画像73(図6を参照)を読み出す。正味化粧画像73は、サンプル化粧顔の画像64を構成する一部のレイヤ(正味化粧画像レイヤ群)として記憶されていたり、サンプル化粧顔の画像64と関連付けられるとともにサンプル化粧顔の画像64とは別個の画像として記憶されたりしている。従来においてユーザ14の手本化粧顔画像を生成する場合、正味化粧画像73にマッチング処理を施すまでは行われていたが、好ましい実施形態では、マッチング処理後の正味化粧画像74(図7(b)参照)に対し、更に正味化粧画像補正処理部33による補正が加えられる。   The matching processing unit 32 as a matching processing means performs a matching process for processing the net makeup image 73 (see FIG. 6) of the sample makeup face so as to match the face size, the face outline, and the like of the user 14. That is, the net makeup image 73 (see FIG. 6) of the sample makeup face selected by the user 14 is read from the first storage unit 22. The net makeup image 73 is stored as a part of the layer (net makeup image layer group) constituting the sample makeup face image 64, or is associated with the sample makeup face image 64 and the sample makeup face image 64. Or stored as a separate image. Conventionally, when a model makeup face image of the user 14 is generated, it is performed until the matching process is performed on the net makeup image 73. However, in the preferred embodiment, the net makeup image 74 after the matching process (FIG. 7B). ))) Is further corrected by the net makeup image correction processing unit 33.

補正手段としての正味化粧画像補正処理部33は、サンプル化粧顔の素顔とユーザ14の素顔との差異を抽出して、その差異を少なく見せるための化粧を表す画像(補正画像)を、マッチング処理後の正味化粧画像74に付加する補正処理を行う。この補正処理を実現するために、正味化粧画像補正処理部33は、差異抽出部40と、画像処理部45とを含む。差異抽出部40は、サンプル化粧顔の素顔とユーザ14の素顔との差異を抽出する差異抽出機能と、その差異を少なく見せるための化粧を表す画像(補正画像)を取得する補正画像取得機能とを有している。また、画像処理部45は、マッチング処理後の正味化粧画像74に補正画像を付加して補正後正味化粧画像100を生成する画像処理を行う。好ましい実施形態では、差異抽出部40が素顔差異取得手段及び補正画像取得手段として機能する。   The net makeup image correction processing unit 33 serving as a correction unit extracts a difference between the sample facial face of the sample makeup face and the user's 14 facial face, and performs matching processing on an image (correction image) representing makeup to make the difference less visible. Correction processing to be added to the subsequent net makeup image 74 is performed. In order to realize this correction processing, the net makeup image correction processing unit 33 includes a difference extraction unit 40 and an image processing unit 45. The difference extraction unit 40 extracts a difference between the sample facial face of the sample makeup face and the user's 14 facial face, and a correction image acquisition function of acquiring an image (correction image) representing makeup for making the difference less visible have. Further, the image processing unit 45 performs image processing for adding the corrected image to the net makeup image 74 after the matching processing to generate the corrected net makeup image 100. In a preferred embodiment, the difference extraction unit 40 functions as a face difference acquisition unit and a corrected image acquisition unit.

差異抽出部40は、顔の輪郭、パーツ形状、顔パーツレイアウトを差異の抽出対象としており、差異の抽出対象別に、顔の輪郭抽出部41とパーツ形状抽出部42と顔パーツレイアウト抽出部43とを備える。また、画像処理部45が正味化粧画像74に付加する補正画像には、顔の輪郭、パーツ形状、顔パーツレイアウトの各差異に応じた三種類ある。画像処理部45は、正味化粧画像74に付加する補正画像の種類に応じて、第1画像処理部46と第2画像処理部47と第3画像処理部48とを備える。   The difference extraction unit 40 uses facial contours, part shapes, and face part layouts as extraction targets of differences, and for each difference extraction target, a facial contour extraction unit 41, a part shape extraction unit 42, and a face part layout extraction unit 43 Is provided. Further, there are three types of correction images that the image processing unit 45 adds to the net makeup image 74 in accordance with differences in face contour, part shape, and face part layout. The image processing unit 45 includes a first image processing unit 46, a second image processing unit 47, and a third image processing unit 48 according to the type of the correction image added to the net makeup image 74.

顔の輪郭抽出部41は、サンプル化粧顔の素顔画像とユーザ14の素顔画像とからそれぞれの顔の輪郭を特徴抽出し、特徴抽出したサンプルとユーザ14との顔の輪郭との差異を抽出する。そして、その顔の輪郭の差異を少なく見せるための化粧を表す画像(以下、顔の輪郭補正画像79(図8を参照)という)を取得するために、顔の輪郭の差異に基づいて、第3記憶部24の顔の輪郭補正用データベースから、その差異に応じた補正画像と、該補正画像のプロシージャ情報と、レイヤ位置情報とを検索する。補正画像とは、化粧層又は化粧種に応じて一つ決まる化粧の色や濃度を表すカラー画像であり、例えばシャドウやハイライト等の画像であり、ものによってはグラディエーション等の濃度分布が所定方向に施された画像である。プロシージャ情報とは、補正画像を施す領域を、差異に対応する領域に対する位置関係で指定する領域指定情報と、グラディエーション等の濃度分布がある画像の場合に濃度分布を付ける方向を指定する濃度指定情報等を含んでいる。位置指定情報は、補正画像を施す領域として、差異に対応する領域そのものを指定する場合もあれば、差異に対応する領域がユーザ14の素顔上に存在しないときなど、差異に対応する領域に対する位置関係でユーザ14の素顔領域内の特定領域を、補正画像を施す領域として指定する場合などがある。そして、第1画像処理部46は、顔の輪郭抽出部41が取得した補正画像を、プロシージャ情報で位置指定された領域に、指定のプロシージャで施すことにより、顔の輪郭補正画像のレイヤを生成するとともに、その顔の輪郭補正画像のレイヤをマッチング処理後の正味化粧画像74に付加する顔の輪郭補正処理を行う。   The face contour extraction unit 41 extracts the feature of each face contour from the sample makeup face image and the user's 14 face image, and extracts the difference between the feature-extracted sample and the user's 14 face profile. . Then, in order to obtain an image representing makeup (hereinafter referred to as a face contour correction image 79 (see FIG. 8)) for showing the difference in the face contour less, 3. A correction image corresponding to the difference, procedure information of the correction image, and layer position information are searched from the face contour correction database in the storage unit 24. The corrected image is a color image representing a makeup color or density determined according to the makeup layer or makeup type, for example, an image such as a shadow or a highlight. Depending on the image, a density distribution such as a gradient is predetermined. It is an image applied in the direction. The procedure information is the area designation information that designates the area to be corrected by the positional relationship with the area corresponding to the difference, and the density designation that designates the direction in which the density distribution is applied in the case of an image having a density distribution such as gradient. Contains information. The position designation information may specify the area itself corresponding to the difference as the area to which the correction image is applied, or the position relative to the area corresponding to the difference, such as when the area corresponding to the difference does not exist on the user's 14 face. In some cases, a specific area in the face area of the user 14 is designated as an area to be subjected to the correction image. Then, the first image processing unit 46 generates a layer of the face contour corrected image by applying the corrected image acquired by the face contour extracting unit 41 to the region specified by the procedure information by a specified procedure. At the same time, a face contour correction process is performed to add the layer of the face contour correction image to the net makeup image 74 after the matching process.

例えば図6における上段に示すように、サンプル化粧顔の画像64は、サンプル化粧顔の素顔の画像(すなわちサンプル化粧顔の化粧前の顔の画像)72と、サンプル化粧顔の正味化粧画像73とに分けることができる。好ましい実施形態では、図6に示すサンプル化粧顔の正味化粧画像73は、同図においてその下側に示すように、複数枚のレイヤLm1〜Lmnから構成されている。複数枚のレイヤLm1〜Lmnは、例えばファンデーション、コンシーラ、チーク(頬紅)、口紅(リップ)、アイシャドウ、アイライン、マスカラ、アイブロウ等の化粧の種類や化粧の層別に分けられた画像である。そして、正味化粧画像73をユーザ14の顔の輪郭や顔サイズ等に合わせてマッチング処理して得られた正味化粧画像74も、同様に複数枚のレイヤLu1〜Lunから構成される(図7を参照)。また、顔の輪郭補正画像79(図8を参照)も一枚ないし複数枚のレイヤからなる。   For example, as shown in the upper part of FIG. 6, the sample makeup face image 64 includes a sample makeup face image (ie, a face image of the sample makeup face before makeup) 72, and a sample makeup face net makeup image 73. Can be divided into In the preferred embodiment, the net makeup image 73 of the sample makeup face shown in FIG. 6 is composed of a plurality of layers Lm1 to Lmn, as shown on the lower side in FIG. The plurality of layers Lm1 to Lmn are images classified according to makeup types and makeup layers such as foundation, concealer, teak (blusher), lipstick (lip), eye shadow, eyeline, mascara, eyebrow, and the like. A net makeup image 74 obtained by matching the net makeup image 73 with the contour of the user's face, the face size, and the like is similarly composed of a plurality of layers Lu1 to Lun (see FIG. 7). reference). The face contour correction image 79 (see FIG. 8) is also composed of one or a plurality of layers.

第1画像処理部46は、補正画像とプロシージャ情報に従って生成した顔の輪郭補正画像79のレイヤを、正味化粧画像74を構成する複数枚のレイヤLu1〜Lunの層間のうちレイヤ位置情報で指定された適切なレイヤ位置に挿入付加する処理を行う。正味化粧画像74の各レイヤLu1〜Lunは、化粧の種類別の所定の順番、かつ少なくとも複数の化粧層をなす部分については顔の地肌上に化粧の層を積み上げる順番に積層されており、レイヤの挿入位置は、顔の輪郭補正画像79の化粧の種類及び層(例えばファンデーションやチークなど)に応じた層に対応するレイヤ位置に決まる。好ましい実施形態では、記憶部24には、顔の輪郭に係る補正画像毎に、挿入すべきレイヤ位置を特定するレイヤ位置情報が対応付けられた状態で記憶されている。顔の輪郭抽出部41は、顔の輪郭の差異に応じた顔の輪郭に係る補正画像及びプロシージャ情報を取得したときには、補正画像に対応するレイヤ位置情報を一緒に記憶部24から読み出し、顔の輪郭に係る補正画像とプロシージャ情報とレイヤ位置情報とをセットで、第1画像処理部46に送る。第1画像処理部46は、補正画像をプロシージャ情報に従った位置領域に指定の方法で施すことにより生成した顔の輪郭補正画像79のレイヤを、正味化粧画像74を構成するレイヤLu1〜Lunに対して、レイヤ位置情報で特定されたレイヤ位置に付加する。   The first image processing unit 46 designates the layer of the face contour correction image 79 generated according to the correction image and the procedure information by the layer position information among the plurality of layers Lu1 to Lun constituting the net makeup image 74. The process of inserting and adding to the appropriate layer position is performed. The layers Lu1 to Lun of the net makeup image 74 are stacked in a predetermined order for each makeup type, and at least a plurality of makeup layers in the order in which makeup layers are stacked on the face background. The insertion position is determined to be a layer position corresponding to a layer corresponding to the makeup type and layer (for example, foundation, cheek, etc.) of the facial contour correction image 79. In a preferred embodiment, the storage unit 24 stores layer position information for specifying a layer position to be inserted in association with each corrected image related to the face outline. When the face contour extraction unit 41 obtains the correction image and procedure information related to the face contour according to the difference in the face contour, the face contour extraction unit 41 reads out the layer position information corresponding to the correction image from the storage unit 24 together. The corrected image related to the contour, the procedure information, and the layer position information are sent as a set to the first image processing unit 46. The first image processing unit 46 applies the layer of the face contour correction image 79 generated by applying the correction image to the position area according to the procedure information by the specified method to the layers Lu1 to Lun constituting the net makeup image 74. On the other hand, it is added to the layer position specified by the layer position information.

このような顔の輪郭の差異を補う化粧を付加する補正を行う理由は、次のとおりである。顔の輪郭には、卵形、逆三角形、四角形、丸形、三角形などがある。例えばサンプルの輪郭が卵形であれば、それに施される化粧は卵形に合った化粧が施される。この卵形の顔と、卵形の顔に合った化粧との合成が、サンプル化粧顔である。例えば四角顔のユーザ14の素顔画像にこの正味化粧画像を付与すれば、その正味化粧画像がたとえユーザ14の四角顔に合わせてマッチング処理した後の正味化粧画像であっても、その手本化粧顔画像は、ユーザ14の四角顔に原因して、サンプル化粧顔の画像64よりもエラが張った印象を与える。このため、得られたユーザ14の手本化粧顔画像はサンプル化粧顔の画像64から大きくかけ離れた印象を与えてしまい、そのサンプル化粧顔の化粧を、ユーザ14が自分の顔に施しても似合わない化粧ということになる。   The reason for performing the correction to add makeup that compensates for the difference in the facial contour is as follows. The outline of the face includes an egg shape, an inverted triangle, a quadrangle, a round shape, and a triangle. For example, if the outline of the sample is an egg shape, the makeup applied to the sample is a makeup that matches the egg shape. The composition of this egg-shaped face and makeup suitable for the egg-shaped face is a sample makeup face. For example, if this net makeup image is given to the face image of the user 14 with a square face, even if the net makeup image is a net makeup image after matching processing according to the square face of the user 14, the model makeup The face image gives the impression that the user's 14 square face is more stretched than the sample makeup face image 64. Therefore, the obtained model makeup face image of the user 14 gives an impression that is greatly different from the sample makeup face image 64, and is suitable even if the user 14 applies the makeup of the sample makeup face to his / her face. There will be no makeup.

好ましい実施形態では、顔の輪郭と化粧との合成が化粧顔を決めていることに鑑み、サンプル化粧顔の素顔画像とユーザ14の素顔画像から特徴抽出して得たサンプルとユーザ14との間の顔の輪郭との差異を抽出し、その差異を少なく見せるための化粧を表す化粧(補正画像)を、マッチング処理後の正味化粧画像74に施す画像処理を行う。例えばサンプルの輪郭が「卵形」であり、ユーザ14の顔の輪郭が「四角形」であるとすると、四角形の顔の輪郭を卵形の顔の輪郭に見せる化粧を、正味化粧画像74に追加する顔の輪郭補正処理を施す。具体的には、ユーザ14の四角形の顔の輪郭をサンプルの卵形の顔の輪郭に近づける化粧、例えば顎から両サイドに向かう部分の顔輪郭形状を角が取り除かれて丸みを帯びた形状に見せる化粧を付加して、ユーザ14の四角形の顔の輪郭をサンプルの卵形の顔に近づける化粧を施した上で、サンプル化粧顔の正味化粧画像(但し、マッチング処理後の正味化粧画像74)が施される。このため、ユーザ14の手本化粧顔画像は、サンプル化粧顔の画像に近い印象を与える。   In the preferred embodiment, in consideration of the combination of the face contour and the makeup determines the makeup face, between the sample facial image of the sample makeup face and the sample obtained by feature extraction from the user's 14 face image and the user 14 The image processing is performed to extract the difference from the face contour and make up the makeup (corrected image) representing the makeup for making the difference appear small on the net makeup image 74 after the matching processing. For example, assuming that the contour of the sample is “oval” and the contour of the face of the user 14 is “square”, a makeup that makes the contour of the square face appear as an oval facial contour is added to the net makeup image 74. The contour correction process for the face to be performed is performed. Specifically, the face contour of the user 14 is made close to the sample egg-shaped face contour, for example, the face contour shape of the part from the jaw toward both sides is rounded to a rounded shape. The makeup to be shown is added, the makeup of the square face of the user 14 is made close to the sample egg-shaped face, and then the net makeup image of the sample makeup face (however, the net makeup image 74 after the matching process) Is given. For this reason, the model makeup face image of the user 14 gives an impression close to the image of the sample makeup face.

パーツ形状抽出部42は、サンプル化粧顔の素顔画像とユーザ14の素顔画像とからそれぞれのパーツ形状を特徴抽出するとともに、特徴抽出したサンプルのパーツ形状とユーザ14のパーツ形状の差異を抽出する。そして、パーツ形状の差異を少なく見せるための化粧を表す画像(パーツ形状補正画像という)を生成するために用いられるパーツ形状に係る補正画像と、該補正画像のプロシージャ情報と、レイヤ位置情報とを、第4記憶部25のパーツ形状補正用データベースから検索する。そして、第2画像処理部47は、パーツ形状抽出部42が取得した補正画像をプロシージャ情報に従って指定の位置領域に指定の方法で施すことによりパーツ形状補正画像のレイヤを生成し、生成したパーツ形状補正画像をマッチング処理後の正味化粧画像74に付加するパーツ形状補正処理を行う。好ましい実施形態では、パーツとして、目、眉、鼻、口を採用している。すなわち、サンプル化粧顔の素顔とユーザ14の素顔における目、眉、鼻、口などのパーツ形状の違いも、ユーザ14の素顔画像に正味化粧画像74を合成して得られる化粧顔の印象に大きく影響する。そこで、好ましい実施形態では、サンプルとユーザ14との間のパーツ形状の差異を抽出し、その差異を少なく見せるための化粧を表す画像(パーツ形状補正画像)を、マッチング処理後の正味化粧画像74に施すパーツ形状補正処理を行うことにより、パーツ形状の面から、ユーザ14の手本化粧顔画像をサンプル化粧顔の印象に近づけるようにしている。   The part shape extraction unit 42 extracts features of each part shape from the sample facial image of the sample makeup face and the user's 14 facial image, and also extracts the difference between the sampled part shape of the sample and the part shape of the user 14. Then, a correction image related to the part shape used to generate an image (referred to as a part shape correction image) representing makeup for showing a small difference in part shape, procedure information of the correction image, and layer position information The part shape correction database in the fourth storage unit 25 is searched. Then, the second image processing unit 47 generates a layer of the part shape correction image by applying the correction image acquired by the part shape extraction unit 42 to the specified position area in accordance with the procedure information by a specified method, and generates the generated part shape. A part shape correction process for adding the corrected image to the net makeup image 74 after the matching process is performed. In a preferred embodiment, eyes, eyebrows, nose and mouth are used as parts. That is, the difference in the shape of parts such as eyes, eyebrows, nose, and mouth between the sample makeup face and the user's 14 face is also significant in the impression of the makeup face obtained by synthesizing the net makeup image 74 with the user's 14 face image. Affect. Therefore, in a preferred embodiment, a difference in part shape between the sample and the user 14 is extracted, and an image (part shape correction image) representing makeup for making the difference appear small is a net makeup image 74 after the matching process. By performing the part shape correction process applied to the model 14, the model makeup face image of the user 14 is brought close to the impression of the sample makeup face from the part shape surface.

詳しくは、パーツが目である場合、サンプル化粧顔の素顔画像とユーザ14の素顔画像の各々から、サンプルの目の形状とユーザ14の目の形状とを抽出するとともに、特徴抽出したサンプルとユーザ14との間の目の形状の差異を抽出する。そして、その目の形状の差異に基づいて第4記憶部25のパーツ形状補正用データベースから、その目の形状の差異を少なく見せるための化粧を表す画像(補正画像)を生成するために用いられる補正画像と、該補正画像のプロシージャ情報と、レイヤ位置情報とを検索する。そして、その検索た補正画像をプロシージャデー情報に従って指定の位置領域に指定の方法で施すことにより目形状補正画像を生成し、その目形状補正画像を正味化粧画像74に付加する。また、パーツが眉である場合、サンプルとユーザ14の眉形状を抽出するとともに、特徴抽出したサンプルとユーザ14との間の眉形状の差異を抽出する。そして、その差異に基づいて第4記憶部25のパーツ形状補正用データベースから、その眉形状の差異を少なく見せるための化粧を表す画像(眉形状補正画像)を生成するために用いられる補正画像とプロシージャ情報とレイヤ位置情報とを検索し、その検索した補正画像をプロシージャ情報に従って指定の領域に指定の方法で施すことにより眉形状補正画像を生成し、その眉形状補正画像を正味化粧画像74に付加する。パーツが鼻である場合、サンプルとユーザ14の鼻形状を抽出するとともに、特徴抽出したサンプルとユーザ14との間の鼻形状の差異を抽出する。そして、その差異に基づいて第4記憶部25のパーツ形状補正用データベースから、その鼻形状の差異を少なく見せるようにする化粧の画像(鼻形状補正画像)を生成するために用いられる補正画像とプロシージャ情報とレイヤ位置情報とを検索し、その検索した補正画像をプロシージャ情報に従って指定の領域に指定の方法で施すことにより生成された鼻形状補正画像を正味化粧画像74に付加する。また、パーツが口である場合、サンプルとユーザ14の口形状を特徴抽出するとともに、特徴抽出したサンプルとユーザ14との間の口形状の差異を抽出する。そして、口形状の差異に基づいて第4記憶部25のパーツ形状補正用データベースから、その口形状の差異を少なく見せるための化粧を表す画像(口形状補正画像)を生成するために用いられる補正画像とプロシージャ情報とレイヤ位置情報とを検索し、その検索した補正画像をプロシージャ情報に従って指定の領域に指定の方法で施すことにより口形状補正画像を生成し、その口形状補正画像を正味化粧画像74に付加する。   Specifically, when the part is an eye, the sample eye shape and the user 14 eye shape are extracted from each of the sample makeup face image and the user 14 face image, and the feature extracted sample and user 14 is extracted. Then, it is used to generate an image (corrected image) representing makeup for making the eye shape difference look smaller from the part shape correction database in the fourth storage unit 25 based on the eye shape difference. A corrected image, procedure information of the corrected image, and layer position information are searched. Then, an eye shape correction image is generated by applying the searched correction image to a specified position region according to the procedure data information by a specified method, and the eye shape correction image is added to the net makeup image 74. When the part is an eyebrow, the eyebrow shape of the sample and the user 14 is extracted, and the difference in the eyebrow shape between the sample whose features are extracted and the user 14 is extracted. Then, based on the difference, a correction image used for generating an image (eyebrow shape correction image) representing makeup for showing the difference in the eyebrow shape from the part shape correction database in the fourth storage unit 25, and The procedure information and the layer position information are retrieved, and the eyebrow shape corrected image is generated by applying the retrieved corrected image to the specified region according to the procedure information in a specified method, and the eyebrow shape corrected image is converted into the net makeup image 74. Append. When the part is a nose, the nose shape of the sample and the user 14 is extracted, and the difference in the nose shape between the sample whose features are extracted and the user 14 is extracted. Then, based on the difference, from the part shape correction database of the fourth storage unit 25, a correction image used to generate a makeup image (nose shape correction image) that makes the difference in the nose shape appear less The procedure information and the layer position information are searched, and the nose shape correction image generated by applying the searched correction image to the specified area according to the procedure information by the specified method is added to the net makeup image 74. Further, when the part is a mouth, the mouth shape of the sample and the user 14 is extracted, and the difference in mouth shape between the extracted sample and the user 14 is extracted. Then, based on the difference in mouth shape, the correction used to generate an image (mouth shape correction image) representing makeup for making the mouth shape difference appear less from the part shape correction database in the fourth storage unit 25. The image, procedure information, and layer position information are searched, and the searched corrected image is applied to a specified area according to the procedure information by a specified method to generate a mouth shape corrected image, and the mouth shape corrected image is a net makeup image. 74.

例えば、サンプルの目が目尻のやや上がった「つり目」であるのに対して、ユーザ14の目が目尻のやや下がった「たれ目」である場合、サンプル化粧顔の正味化粧画像73は、若干のつり目に適した化粧(例えば目尻を実際より若干下がったように見せる化粧)であるので、たとえマッチング処理後であってもその正味化粧画像74をそのままユーザ14に施すと、ユーザ14のたれ目が一層強調されてしまう。そのため、ユーザ14の手本化粧顔画像が、サンプル化粧顔とは大きくかけ離れた印象を与えてしまう。そこで、このパーツ形状補正処理では、マッチング処理後の正味化粧画像74に、ユーザ14のたれ目をサンプル化粧顔のつり目に近づける化粧の画像(つまり目尻を実際より上がったように見せる化粧の画像)を付加する補正を行う。このパーツの補正化粧によって、ユーザ14の素顔画像上に補正後の正味化粧画像を合成して得られるユーザ14の手本化粧顔画像の印象は、サンプル化粧顔の印象に近づく。   For example, when the eyes of the sample are “hanging eyes” slightly raised at the corners of the eyes, whereas the eyes of the user 14 are “sagging eyes” slightly lowered at the corners of the eyes, the net makeup image 73 of the sample makeup face is: Since it is a makeup suitable for some hanging eyes (for example, makeup that makes the corners of the eyes look slightly lower than the actual makeup), even if the net makeup image 74 is applied to the user 14 as it is even after the matching processing, Sagging eyes will be further emphasized. Therefore, the model makeup face image of the user 14 gives an impression far from the sample makeup face. Therefore, in this part shape correction process, a makeup image in which the user's 14 sag is brought close to the catch of the sample makeup face on the net makeup image 74 after the matching process (that is, a makeup image that makes the corner of the eye look higher than the actual makeup). ) Is added. By the correction makeup of the parts, the impression of the model makeup face image of the user 14 obtained by synthesizing the corrected net makeup image on the face image of the user 14 approaches the impression of the sample makeup face.

顔パーツレイアウト抽出部43は、サンプル化粧顔の素顔画像とユーザ14の素顔画像の各々から、パーツ位置とパーツ間隔とを表す顔パーツレイアウトを特徴抽出し、サンプルとユーザ14との間の顔パーツレイアウトとの差異を算出する。顔パーツレイアウト抽出部43は、その差異を少なく見せるための化粧を表す画像(顔パーツレイアウト補正画像という)を生成するために用いられる補正画像とプロシージャ情報とレイヤ位置情報とを、第4記憶部25の顔パーツレイアウト補正用データベースから検索する。そして、第3画像処理部48は、顔パーツレイアウト抽出部43が取得した補正画像をプロシージャ情報に従って指定の領域に指定の方法で施すことにより顔パーツレイアウト補正画像生成し、その顔パーツレイアウト補正画像を、マッチング処理後の正味化粧画像74に付加する顔パーツレイアウト補正処理を行う。サンプル化粧顔の素顔とユーザ14の素顔において、顔全体における目、眉、鼻、口などのパーツのレイアウトから決まる顔パーツレイアウトの違いも、ユーザ14の素顔画像に正味化粧画像を合成して得られる化粧顔の印象に大きく影響する。そこで、好ましい実施形態では、サンプルとユーザ14との間の顔パーツレイアウトとの差異を抽出し、その差異を少なく見せるための化粧、すなわちユーザ14の顔パーツレイアウトをサンプル化粧顔の顔パーツレイアウトに近づける化粧の画像(顔パーツレイアウト補正画像)を、正味化粧画像74に付加する顔パーツレイアウト補正処理を行う。この顔パーツレイアウト補正処理により、顔パーツレイアウトの面から、ユーザ14の手本化粧顔画像の印象をサンプル化粧顔の印象に近づけるようにしている。   The face part layout extraction unit 43 extracts a face part layout representing a part position and a part interval from each of the sample face image of the sample makeup face and the user face image, and the face part between the sample and the user 14. Calculate the difference from the layout. The face part layout extraction unit 43 stores a correction image, procedure information, and layer position information used to generate an image (referred to as a face part layout correction image) representing makeup for showing the difference to a fourth storage unit. Search from 25 face part layout correction databases. Then, the third image processing unit 48 generates a face part layout corrected image by applying the corrected image acquired by the face part layout extracting unit 43 to a specified region in accordance with the procedure information in a specified method, and the face part layout corrected image. Is added to the net makeup image 74 after the matching process. The difference in the facial part layout determined by the layout of parts such as the eyes, eyebrows, nose and mouth in the entire face between the sample makeup face and the user's 14 face is also obtained by synthesizing the net makeup image with the user's 14 face image. This greatly affects the impression of the makeup face. Therefore, in a preferred embodiment, the difference between the facial part layout between the sample and the user 14 is extracted, and the makeup for making the difference appear small, that is, the facial part layout of the user 14 is changed to the facial part layout of the sample cosmetic face. A face part layout correction process is performed in which the makeup image (face part layout correction image) to be brought closer is added to the net makeup image 74. By this face part layout correction process, the impression of the model makeup face image of the user 14 is brought close to the impression of the sample makeup face from the face part layout side.

顔パーツレイアウトとしては、サンプルとユーザ14のそれぞれについて顔の横と縦の各々における顔パーツレイアウトを求める。横の顔パーツレイアウトは、例えば目の高さにおける顔幅を両目の位置で3分割した各領域幅の比率として求める。例えば顔の水平すなわち横において、顔幅に対してユーザ14の両目の間隔がサンプルの両目の間隔に比べて広ければ、両目の間隔を狭く見せる化粧の画像(補正画像)を正味化粧画像74に付加する。縦の顔パーツレイアウトは、例えば顔の縦において、頭髪の生え際から目までの間隔と、目から口の口角までの間隔と、口角から顎の先端までの間隔との比率として求める。縦方向の顔パーツレイアウトを、サンプルとユーザ14とで比較し、ユーザ14の顔パーツレイアウトがサンプル化粧顔の顔パーツレイアウトに近づいて見えるようにする化粧の画像(補正画像)を、マッチング処理後の正味化粧画像74に付加する画像処理を行う。例えばユーザ14の頭髪の生え際と目の間隔がサンプルのそれより広ければ、頭髪の生え際と目の間隔が狭く見えるようにする化粧の画像(補正画像)を、正味化粧画像74に付加することにより、顔パーツレイアウトの印象をサンプル化粧顔のそれに近づける。   As the face part layout, the face part layout in each of the horizontal and vertical faces is obtained for each of the sample and the user 14. The horizontal face part layout is obtained, for example, as the ratio of the width of each area obtained by dividing the face width at the eye height into three at the positions of both eyes. For example, if the distance between both eyes of the user 14 is wider than the distance between both eyes of the sample in the horizontal or horizontal direction of the face, the makeup image (corrected image) that makes the distance between the eyes narrower is displayed as the net makeup image 74. Append. The vertical face part layout is obtained as a ratio of the distance from the hairline to the eyes, the distance from the eyes to the mouth corner of the mouth, and the distance from the mouth corner to the tip of the jaw in the face length, for example. After comparing the face part layout in the vertical direction between the sample and the user 14, the makeup image (corrected image) that makes the face part layout of the user 14 look closer to the face part layout of the sample makeup face is subjected to the matching process The image processing to be added to the net makeup image 74 is performed. For example, if the hairline of the user 14 and the gap between eyes are wider than that of the sample, a makeup image (corrected image) that makes the gap between the hairline and eyes look narrower is added to the net makeup image 74. , The impression of the face part layout is brought closer to that of the sample makeup face.

顔の輪郭とパーツ形状の抽出処理には、2次元の画像を用いてもよいが、3次元の画像を用いるのが好ましい。例えばいくつかの異なる角度から顔を撮影して得られた複数の画像を用いて、顔の輪郭とパーツ形状の3次元画像を作成することができる。3次元画像から、例えば鼻の高さがサンプルの鼻より低いというような、ユーザ14とサンプルとの間の顔の立体的な違いを検出することができるそして、例えば鼻を高く見せる化粧の画像(補正画像)を、正味化粧画像74に付加する。ユーザ14の頬骨がサンプルのものより出ていれば、頬骨の出っ張りを抑える化粧の画像を、正味化粧画像74に付加する。好ましい実施形態では、化粧以外に、ヘアスタイルのアドバイスも行う。例えばユーザの額がサンプルに比べて広い場合、前髪を降ろすように勧め、また髪のボリュームが少ない場合はつけ毛等を勧め、サンプル化粧顔の印象に似せる工夫を化粧以外でもアドバイスする。小物や服の色をアドバイスして、ユーザの顔の印象がサンプル化粧顔に近づく変化を与える小物、顔色が引き立つ服の色、小顔に見える服装や服の模様などをアドバイスする。   A two-dimensional image may be used for the face contour and part shape extraction processing, but a three-dimensional image is preferably used. For example, it is possible to create a three-dimensional image of the face outline and part shape using a plurality of images obtained by photographing a face from several different angles. From the three-dimensional image, it is possible to detect a three-dimensional difference in the face between the user 14 and the sample, for example, the height of the nose is lower than the nose of the sample and, for example, a makeup image that makes the nose look higher (Corrected image) is added to the net makeup image 74. If the user's 14 cheekbone comes out of the sample, a makeup image that suppresses the protrusion of the cheekbone is added to the net makeup image 74. In a preferred embodiment, hair style advice is provided in addition to makeup. For example, if the user's forehead is wider than the sample, it is recommended to remove the bangs, and if the hair volume is small, it is recommended to apply hair, etc., and advice other than makeup is advised to resemble the impression of the sample makeup face. Advise the colors of accessories and clothes, and advise on the accessories that change the impression of the user's face closer to the sample makeup face, the color of clothes that emphasize the face color, the clothes and patterns of clothes that look like small faces.

画像合成手段としての合成処理部34は、正味化粧画像74を補正して補正後正味化粧画像100(図7(c)を参照)を生成し、その補正後正味化粧画像100をユーザ14の素顔画像へ合成する。すなわち、ユーザ14の素顔画像を記憶部36から読み出すとともに、記憶部37から補正後正味化粧画像100を読み出して、素顔画像の上に補正後正味化粧画像100を重ねる合成処理を行ってユーザ14の手本化粧顔画像を生成する。   The composition processing unit 34 as an image composition unit corrects the net makeup image 74 to generate a corrected net makeup image 100 (see FIG. 7C), and the corrected net makeup image 100 is displayed as the face of the user 14. Composite to image. That is, the user's 14 face image is read from the storage unit 36, the corrected net makeup image 100 is read from the storage unit 37, and the combined process of overlaying the corrected net makeup image 100 on the face image is performed. A model makeup face image is generated.

化粧支援装置30は、合成処理部34で生成したユーザ14の手本化粧顔画像を見てユーザ14が自分の素顔に化粧を施すときに参照される化粧手順レシピ(本例では文書)を作成する。そして、手本化粧顔画像の化粧に到達するまでの複数の化粧ステップにおいて、各化粧ステップで目標とする化粧途中顔画像と、その化粧途中顔に仕上げるための化粧方法の説明文とを含む画面(図13,図15を参照)をクライアント端末12に表示する。   The makeup support apparatus 30 creates a makeup procedure recipe (in this example, a document) that is referred to when the user 14 applies makeup on his / her own face by looking at the model makeup face image of the user 14 generated by the composition processing unit 34. To do. Then, in a plurality of makeup steps until reaching the makeup of the model makeup face image, a screen including a makeup intermediate face image targeted in each makeup step and a description of a makeup method for finishing the makeup intermediate face (See FIGS. 13 and 15) is displayed on the client terminal 12.

化粧手順作成手段としての手順補正部35は、第6記憶部27のサンプル化粧手順データベースから、選択されたサンプル化粧顔に対応する化粧手順レシピを読み出し、そのレシピの文書を、正味化粧画像74に付した補正画像に応じて修正することにより、ユーザ14の手本化粧顔画像に合った化粧手順文書を作成する。   The procedure correction unit 35 as a makeup procedure creation means reads a makeup procedure recipe corresponding to the selected sample makeup face from the sample makeup procedure database in the sixth storage unit 27, and converts the recipe document into a net makeup image 74. By making corrections according to the attached correction image, a makeup procedure document suitable for the model makeup face image of the user 14 is created.

手順補正部35は、正味化粧画像74に加えられた補正の種類(顔の輪郭、パーツ形状、顔パーツレイアウト)に応じて化粧手順レシピを補正する顔の輪郭手順補正部51、パーツ形状手順補正部52及び顔パーツレイアウト手順補正部53を備えている。差異抽出部40で抽出された補正画像(顔の輪郭補正画像、パーツ形状補正画像、顔パーツレイアウト補正画像)には、識別子(顔の輪郭画像識別子、パーツ形状画像識別子、顔パーツレイアウト画像識別子)が付されている。手順補正部35は、正味化粧画像74に加えられた補正画像の識別子を差異抽出部40から取得する。   The procedure correction unit 35 corrects the makeup procedure recipe according to the type of correction (face contour, part shape, face part layout) applied to the net makeup image 74, and the part shape procedure correction. Unit 52 and face part layout procedure correction unit 53. An identifier (a face contour image identifier, a part shape image identifier, a face part layout image identifier) is included in the correction image (face contour correction image, part shape correction image, face part layout correction image) extracted by the difference extraction unit 40. Is attached. The procedure correction unit 35 acquires the identifier of the correction image added to the net makeup image 74 from the difference extraction unit 40.

顔の輪郭手順補正部51は顔の輪郭画像識別子を基に、第7記憶部28の手順補正用データベースを検索して、顔の輪郭画像識別子に応じた顔の輪郭補正用文書を取得する。この顔の輪郭補正用文書は、その識別子が付された顔の輪郭補正画像を正味化粧画像74に付加したために必要になった化粧手順レシピの修正内容を示す。パーツ形状手順補正部52はパーツ形状画像識別子を基に、第7記憶部28の手順補正用データベースを検索して、パーツ形状画像識別子に応じたパーツ形状補正用文書を取得する。このパーツ形状補正用文書は、その識別子が付されたパーツ形状補正画像を正味化粧画像74に付加したために必要になった化粧手順レシピの修正内容を示す。顔パーツレイアウト手順補正部53は顔パーツレイアウト画像識別子を基に、第7記憶部28の手順補正用データベースを検索して、顔パーツレイアウト画像識別子に応じた顔パーツレイアウト補正用文書を取得する。この顔パーツレイアウト補正用文書は、その識別子が付された顔パーツレイアウト補正画像を正味化粧画像74に付加したために必要になった化粧手順レシピの修正内容を示す。手順補正部35は、手順補正処理を行うときには、まずサンプル化粧顔に対応する化粧手順レシピを第6記憶部27から読み出し、記憶部38に格納する。そして、記憶部38に一時記憶したサンプル化粧手順レシピ(第1化粧手順レシピ)の一部又は全部を、第7記憶部28のデータベースを検索して取得した補正用文書で置き換えたり、サンプル化粧手順レシピに補正用文書を追加して、ユーザ14用の化粧手順レシピ(第2化粧手順レシピ)を作成する。   The face contour procedure correction unit 51 searches the procedure correction database in the seventh storage unit 28 based on the face contour image identifier to obtain a face contour correction document according to the face contour image identifier. This face contour correction document indicates the correction contents of the makeup procedure recipe that is necessary because the face contour correction image with the identifier is added to the net makeup image 74. The part shape procedure correction unit 52 searches the procedure correction database in the seventh storage unit 28 based on the part shape image identifier, and acquires the part shape correction document corresponding to the part shape image identifier. This part shape correction document indicates the correction contents of the makeup procedure recipe that is necessary because the part shape correction image with the identifier is added to the net makeup image 74. The face part layout procedure correction unit 53 searches the procedure correction database in the seventh storage unit 28 based on the face part layout image identifier, and acquires a face part layout correction document according to the face part layout image identifier. The face part layout correction document indicates the correction contents of the makeup procedure recipe that is necessary because the face part layout correction image with the identifier is added to the net makeup image 74. When performing the procedure correction process, the procedure correction unit 35 first reads a makeup procedure recipe corresponding to the sample makeup face from the sixth storage unit 27 and stores it in the storage unit 38. Then, part or all of the sample makeup procedure recipe (first makeup procedure recipe) temporarily stored in the storage unit 38 is replaced with a correction document obtained by searching the database of the seventh storage unit 28, or the sample makeup procedure A correction document is added to the recipe to create a makeup procedure recipe (second makeup procedure recipe) for the user 14.

図14(a)は、第6記憶部27に記憶されたサンプル化粧手順レシピを示す。この例では化粧手順レシピは、「ステップ1」〜「ステップn」までのn個のレシピD1〜Dnからなる。各化粧手順レシピは、各ステップで目標とすべき化粧途中顔を完成させるために使用された化粧品や化粧道具を使った化粧の手順を説明する文章を含む。各化粧手順レシピD1〜Dnには、顔の輪郭に影響を与える化粧を説明する文章部分(顔の輪郭関連文書)と、目、眉、鼻、口などのパーツの形状に影響を与える化粧を説明する文章部分(パーツ形状関連文書)と、顔パーツレイアウトに影響を与える化粧を説明する文章部分(顔パーツレイアウト関連文書)とが含まれる。これらの各文章部分は、一つのステップの文章のみに含まれる場合もあれば、いくつかのステップの文書に渡って複数含まれる場合もある。   FIG. 14A shows a sample makeup procedure recipe stored in the sixth storage unit 27. In this example, the makeup procedure recipe includes n recipes D1 to Dn from “Step 1” to “Step n”. Each makeup procedure recipe includes a sentence explaining a makeup procedure using a cosmetic or a makeup tool used to complete a makeup intermediate face to be targeted in each step. Each of the makeup procedure recipes D1 to Dn includes a sentence portion (face contour related document) explaining makeup that affects the face contour and makeup that affects the shape of parts such as eyes, eyebrows, nose and mouth. A sentence part to be explained (part shape related document) and a sentence part (face part layout related document) explaining makeup that affects the face part layout are included. Each of these sentence parts may be included only in one step of sentence, or may be included in a plurality of documents in several steps.

好ましい実施形態では、化粧指示D1〜Dnは、サンプル化粧顔の素顔からサンプル化粧顔に至るまでの化粧手順を複数のステップに分け、ステップごとに化粧方法を説明する文書からなる。図14(a)に示すように、各化粧指示D1〜Dnの文書内における所定の文書エリア55又は位置には、アドレス56が付されている。アドレス56で特定される文書エリア55は、補正画像に対応する補正文書の置き換え先の候補であり、アドレス56で特定される位置は、補正画像に対応する補正文書の追加挿入先の候補である。図14の例では、アドレス56は5ビットの2値データで表されているが、適宜なビット数を採用できる。   In a preferred embodiment, the makeup instructions D1 to Dn are composed of a document explaining a makeup method for each step by dividing a makeup procedure from a sample makeup face to a sample makeup face into a plurality of steps. As shown in FIG. 14A, an address 56 is assigned to a predetermined document area 55 or position in the document of each makeup instruction D1 to Dn. The document area 55 specified by the address 56 is a candidate for replacement destination of the corrected document corresponding to the corrected image, and the position specified by the address 56 is a candidate for additional insertion destination of the corrected document corresponding to the corrected image. . In the example of FIG. 14, the address 56 is represented by 5-bit binary data, but an appropriate number of bits can be adopted.

第7記憶部28の所定記憶領域には、補正画像の識別子とアドレス56とを関連付けるリンクテーブルが記憶されている。補正画像の識別子を基にリンクテーブルを参照すると、その識別子に対応するアドレス56を取得できる。すなわち、顔の輪郭画像識別子は、その識別子を基に検索された顔の輪郭に影響を与える補正文書を、置き換えるべき文書エリア55を特定するアドレス56又は追加挿入すべき位置を特定するアドレス56とリンクされている。目形状画像識別子は、その識別子を基に検索された目の形状に影響を与える補正文書を、置き換えるべき文書エリア55を特定するアドレス56又は追加挿入すべき位置を特定するアドレス56とリンクされている。以下、同様に、鼻形状画像識別子は、その識別子を基に検索された鼻形状に影響を与える補正文書の置き換え先の文書エリア55又は追加挿入先の位置を特定するアドレス56と、口形状画像識別子は、その識別子を基に検索された口形状に影響を与える補正文章の置き換え先の文書エリア55又は追加挿入先の位置を特定するアドレス56とそれぞれリンクされている。顔パーツレイアウト画像識別子は、その識別子を基に検索された顔パーツレイアウトに影響を与える補正文章の置き換え先の文書エリア55又は追加挿入先の位置を特定するアドレス56とリンクされている。   A link table that associates the identifier of the corrected image with the address 56 is stored in the predetermined storage area of the seventh storage unit 28. By referring to the link table based on the identifier of the corrected image, the address 56 corresponding to the identifier can be acquired. In other words, the face contour image identifier includes an address 56 for specifying a document area 55 to be replaced or an address 56 for specifying a position to be additionally inserted into a corrected document that affects the face contour searched based on the identifier. Linked. The eye shape image identifier is linked to an address 56 that specifies a document area 55 to be replaced or an address 56 that specifies a position to be additionally inserted into a corrected document that affects the searched eye shape based on the identifier. Yes. Hereinafter, similarly, the nose shape image identifier includes an address 56 for specifying a replacement document area 55 or an additional insertion destination position of the corrected document that affects the nose shape searched based on the identifier, and a mouth shape image. The identifier is linked to the document area 55 that is the replacement destination of the corrected text that affects the mouth shape searched based on the identifier or the address 56 that specifies the position of the additional insertion destination. The face part layout image identifier is linked to an address 56 that specifies the position of the replacement insertion destination document area 55 or the additional insertion destination that affects the face part layout searched based on the identifier.

手順補正部35は、補正画像の識別子を基にリンクテーブルを参照して取得したアドレス56が文書エリア55を特定するものである場合は、その識別子を基に第7記憶部28の手順補正用データベースから検索した補正文書をそのアドレス56の文書エリア55の文書と置き換え、アドレス56が位置を特定するものである場合は、識別子に応じた補正文書をそのアドレス56で特定された位置に追加挿入する。詳しくは、顔の輪郭手順補正部51は、顔の輪郭画像識別子を基にリンクを参照してアドレス56を取得し、その取得されたアドレス56で特定される文書エリア55の文書と補正文書を置き換えたり、そのアドレス56で特定される位置に補正文書を追加挿入したりする。パーツ形状手順補正部52は、パーツ形状画像識別子を基にリンクを参照してアドレス56を取得し、その取得されたアドレス56で特定される文書エリア55の文書と補正文書を置き換えたり、そのアドレス56で特定される位置に補正文書を追加挿入したりする。顔パーツレイアウト手順補正部53は、顔パーツレイアウト画像識別子を基にリンクを参照してアドレス56を取得し、その取得されたアドレス56で特定される文書エリア55の文書と補正文書を置き換えたり、そのアドレス56で特定される位置に補正文書を追加挿入したりする。   If the address 56 acquired by referring to the link table based on the identifier of the corrected image specifies the document area 55, the procedure correcting unit 35 uses the identifier for the procedure correction in the seventh storage unit 28. When the corrected document retrieved from the database is replaced with the document in the document area 55 at the address 56, and the address 56 specifies the position, the corrected document corresponding to the identifier is additionally inserted at the position specified by the address 56. To do. Specifically, the face contour procedure correction unit 51 acquires an address 56 by referring to a link based on the face contour image identifier, and the document in the document area 55 specified by the acquired address 56 and the corrected document are obtained. The correction document is additionally inserted at the position specified by the address 56. The part shape procedure correction unit 52 refers to the link based on the part shape image identifier, acquires the address 56, and replaces the document in the document area 55 specified by the acquired address 56 with the corrected document, or the address A correction document is additionally inserted at the position specified by 56. The face part layout procedure correcting unit 53 obtains an address 56 by referring to the link based on the face part layout image identifier, and replaces the document in the document area 55 specified by the acquired address 56 with the corrected document, A correction document is additionally inserted at the position specified by the address 56.

形状に関連する補正文書は、形状に影響を与える化粧をする場合にどの部位にシャドウやハイライトを入れるか、また必要に応じてその面積や形状、濃度はどのくらいがよいかを補正する内容になっている。例えばひな形となるサンプル化粧顔用の化粧手順レシピに、「○○色のファンデーションを塗ってください。」という文書が含まれ、この文章の文書エリア55のアドレス56が顔の輪郭補正画像の識別子とリンクされているとする。そして、顔の輪郭手順補正部51が差異抽出部40から取得したその識別子を基に手順補正用データベースにアクセスして、例えば「顎からサイドにかけてシャドウを入れるように化粧下地より少し濃いトーンの○○色のファンデーションを塗ってください。」という補正文書を取得するとともに、その識別子からリンクテーブルを参照してアドレス56を取得する。すると、顔の輪郭手順補正部51は、その補正文書を、そのアドレス56で特定される文書エリア55の文書、すなわち「○○色のファンデーションを塗ってください。」と置き換える。同様にパーツ形状と顔パーツレイアウトについても補正文書による化粧手順レシピの補正が行われる。   The amendment document related to the shape should contain information that corrects which part should have shadows and highlights when applying makeup that affects the shape, and what the area, shape, and density should be as appropriate. It has become. For example, a makeup procedure recipe for a sample makeup face to be used as a template includes a document “please apply a XX foundation”, and the address 56 in the document area 55 of this sentence is an identifier of a face contour correction image. Is linked to. Then, the face contour procedure correction unit 51 accesses the procedure correction database based on the identifier acquired from the difference extraction unit 40, for example, “a tone of a tone slightly darker than the makeup base so as to put a shadow from the chin to the side. “A color foundation is applied” is acquired, and an address 56 is acquired by referring to the link table from the identifier. Then, the face contour procedure correction unit 51 replaces the corrected document with a document in the document area 55 specified by the address 56, that is, “please apply a foundation of color XX”. Similarly, the makeup procedure recipe is corrected by the correction document for the part shape and the face part layout.

例えば顔の輪郭と顔パーツレイアウトに係るそれぞれの補正画像が、同じファンデーションに係るものである場合、それぞれの識別子が異なっても、共にファンデーションの塗り方に係る文書エリア55又は位置を特定する同一のアドレス56が取得されることになる。手順補正部35は、識別子を基にリンクテーブルを参照して取得されたアドレス56が異なる識別子間で同じになる場合は、予め決められたルールに従って一方の補正文書を優先して用いたり、補正文書中の特定エリアの文書内容を解析して、その解析結果に基づき両補正文書を組み合わせる処理を行ったりする。   For example, if each corrected image related to the face outline and the face part layout is related to the same foundation, even if the identifiers are different from each other, the same document area 55 or position relating to how to apply the foundation is specified. The address 56 is acquired. When the address 56 obtained by referring to the link table based on the identifier becomes the same between different identifiers, the procedure correction unit 35 preferentially uses one correction document according to a predetermined rule, The document content in a specific area in the document is analyzed, and processing for combining both corrected documents is performed based on the analysis result.

このように手順補正部35により、ひな形文書すなわちサンプル化粧顔用の化粧手順レシピの説明文書に補正が加えられることで、ユーザ14が化粧顔画像を手本として化粧を行うときの化粧手順レシピの説明文書が作成される。そして、図14(a)に示すサンプル化粧顔用の化粧手順レシピD1〜Dnが、上記の補正により、図14(b)に示すように、補正文書58が置き換え又は追加挿入されたユーザ14用の化粧手順レシピX1〜Xnが作成される。   In this way, the procedure correction unit 35 corrects the template document, that is, the explanation document of the makeup procedure recipe for the sample makeup face, so that the makeup procedure recipe when the user 14 performs makeup using the makeup face image as a model. An explanatory document is created. Then, the makeup procedure recipes D1 to Dn for the sample makeup face shown in FIG. 14 (a) are replaced or additionally inserted as shown in FIG. 14 (b) by the correction described above. The makeup procedure recipes X1 to Xn are created.

化粧手順レシピの説明が、文章以外に、音声又は画像を含む場合、補正用として、例えば音声中の顔の輪郭に影響を与える部分の説明部分のアドレスが、顔の輪郭補正画像の識別子とリンクされていたり、画像中の顔の輪郭に影響を与える部分の説明画像部分のアドレスが顔の輪郭補正画像の識別子にリンクされたりすればよい。こうすれば、化粧手順レシピが音声や画像であっても、サンプル化粧顔用の化粧手順レシピを補正してユーザ14用にカスタマイズされた化粧手順レシピを作成することはできる。   When the description of the makeup procedure recipe includes voice or an image other than text, for correction, for example, the address of the description part of the part that affects the face outline in the voice is linked to the identifier of the face outline corrected image The address of the explanation image part of the part that affects the outline of the face in the image may be linked to the identifier of the face outline corrected image. In this way, even if the makeup procedure recipe is sound or image, the makeup procedure recipe customized for the user 14 can be created by correcting the makeup procedure recipe for the sample makeup face.

次にサーバ20のCPUが化粧支援処理プログラムを実行することで、化粧支援装置30において行われる化粧顔画像生成処理及び化粧アドバイス処理について、図3に示すフローチャートに従って説明する。CPUはまず化粧顔画像生成プログラムを実行する。   Next, the makeup face image generation process and the makeup advice process performed in the makeup support apparatus 30 by the CPU of the server 20 executing the makeup support process program will be described with reference to the flowchart shown in FIG. The CPU first executes a makeup face image generation program.

まず、ユーザ14は、化粧アドバイスシステム10を利用する場合、ユーザ登録をし、IDとパスワードを取得しておき、クライアント端末12の表示部12bに表示された初期画面(図示せず)から、入力部12aの操作によりIDとパスワードを入力してサーバ20にアクセスする。サーバ20のCPUは、クライアント端末12からのアクセスがあると、化粧支援のメイン画面をクライアント端末12の表示部12bに表示させる。このメイン画面で、化粧支援を受けることを選択すると、ユーザ14の素顔の画像を取得するための画像登録ボタンを有する画面が表示される。   First, when using the makeup advice system 10, the user 14 registers as a user, obtains an ID and a password, and inputs from an initial screen (not shown) displayed on the display unit 12b of the client terminal 12. The server 20 is accessed by inputting the ID and password by operating the unit 12a. When there is an access from the client terminal 12, the CPU of the server 20 displays a main screen for makeup support on the display unit 12 b of the client terminal 12. When the user selects to receive makeup support on this main screen, a screen having an image registration button for acquiring an image of the user's 14 face is displayed.

ステップS1において、ユーザ14の顔画像を取り込む処理を行う。ユーザ14は、クライアント端末12に付属のカメラ16により自分の素顔(化粧が多少施されていてもよい)の写真を撮影してクライアント端末12のメモリにその素顔画像を格納しておくか、デジタルカメラで撮影した自分の素顔の顔画像をクライアント端末12のメモリに予め格納させておく。ユーザ14は、入力部12aを操作して画像登録ボタンを操作すると、画面に画像格納先フォルダ及び画像ファイルを順次指定可能な入力欄が表示されるので、その入力欄にユーザ14の素顔画像の格納アドレス(例えばパス)を指定した後、登録実行ボタン(図示せず)を操作する。こうしてクライアント端末12のメモリに格納されている自分の素顔画像の格納アドレス(パス)が指定される。画像登録ボタンを操作すると、カメラ16による撮影を行う撮影画面が表示され、その撮影画面で入力部12aを操作すると、カメラ16による撮影が行われ、その撮影された素顔画像が、クライアント端末12に搭載されたプロセッサが管理する所定のフォルダに格納される構成でもよい。   In step S1, processing for capturing the face image of the user 14 is performed. The user 14 takes a picture of his / her own face (may be slightly decorated) with the camera 16 attached to the client terminal 12 and stores the face image in the memory of the client terminal 12 or digitally. The face image of his / her own face photographed by the camera is stored in the memory of the client terminal 12 in advance. When the user 14 operates the input unit 12a and operates the image registration button, an input field for sequentially specifying an image storage destination folder and an image file is displayed on the screen. After specifying a storage address (for example, a path), a registration execution button (not shown) is operated. In this way, the storage address (path) of the own face image stored in the memory of the client terminal 12 is designated. When the image registration button is operated, a shooting screen for shooting with the camera 16 is displayed. When the input unit 12a is operated on the shooting screen, shooting with the camera 16 is performed and the captured face image is displayed on the client terminal 12. It may be configured to be stored in a predetermined folder managed by an installed processor.

ユーザ14がクライアント端末12の入力部12aを操作してユーザ14の素顔画像(顔画像)の登録実行ボタンを操作すると、その操作に基づくアクセス要求を受け付けたサーバ20は、サンプル化粧顔選択画面用の画像データを含むウェブデータをクライアント端末12に送信し、クライアント端末12の表示部12bに図4に示すウェブ画面60を表示させる。このウェブ画面60はコンテンツエリアにサンプル化粧顔選択画面61を含み、このサンプル化粧顔選択画面61には、複数のサンプル化粧顔の画像が例えばマトリクス状に配列された一覧表示領域62と、OKボタン63とが含まれている。   When the user 14 operates the input unit 12a of the client terminal 12 and operates the registration execution button of the user 14's face image (face image), the server 20 that has received an access request based on the operation is for the sample makeup face selection screen. 4 is transmitted to the client terminal 12, and the web screen 60 shown in FIG. 4 is displayed on the display unit 12 b of the client terminal 12. The web screen 60 includes a sample makeup face selection screen 61 in the content area. The sample makeup face selection screen 61 includes a list display area 62 in which images of a plurality of sample makeup faces are arranged in a matrix, for example, and an OK button. 63.

次のステップS2では、サンプル化粧顔の選択を行う。すなわち、ユーザ14は、入力部12aを操作して、一覧表示領域62の中から好みのサンプル化粧顔を選択した後、OKボタン63を操作する。図4の例では、一覧表示領域62内における上段左から3番目のサンプル化粧顔の画像64が選択されている。この選択状態でOKボタン63が操作されると、その操作に基づくアクセス要求を受け付けたサーバ20は、サンプル化粧顔の画像64に対応する化粧前のサンプル化粧顔の素顔画像を第2記憶部23から読み出して選択画面用の画像データを含むウェブデータを作成するとともに、そのウェブデータをクライアント端末12に送信する。その結果、クライアント端末12の表示部12bに図5に示すウェブ画面65が表示される。このウェブ画面65はコンテンツエリアに選択画面66を含み、この選択画面66には、ユーザ14の素顔画像71が表示される第1表示領域67と、サンプル化粧顔の素顔画像72が表示される第2表示領域68と、化粧補正処理を行うか否かの選択や化粧補正処理を行う場合に化粧補正の対象を選択可能な項目選択を行うための項目選択領域69と、実行ボタン70等が含まれている。クライアント端末12はサンプル化粧顔選択画面61でOKボタン63が操作されたときに実行されるプログラムを、それ以前のウェブデータと共に受信しており、OKボタン63が操作されるとそのプログラムを実行することで、ユーザ14自身の素顔画像を先に指定されたパスから読み出して、選択画面66における第1表示領域67にユーザ14の素顔画像71を表示する。もちろん、OKボタン63の操作に基づきユーザ14の素顔画像を指定のパスから読み出してサーバ20に送信し、サーバ20がユーザ14の素顔画像とサンプル化粧顔の素顔画像の両方を含むウェブデータを作成して、それをクライアント端末12に送信する構成も採用できる。   In the next step S2, a sample makeup face is selected. That is, the user 14 operates the input unit 12 a to select a favorite sample makeup face from the list display area 62, and then operates the OK button 63. In the example of FIG. 4, the third sample makeup face image 64 from the upper left in the list display area 62 is selected. When the OK button 63 is operated in this selected state, the server 20 that has received an access request based on the operation stores the sample facial face image before makeup corresponding to the sample cosmetic face image 64 in the second storage unit 23. Web data including the image data for the selection screen is created and transmitted to the client terminal 12. As a result, the web screen 65 shown in FIG. 5 is displayed on the display unit 12 b of the client terminal 12. The web screen 65 includes a selection screen 66 in the content area. The selection screen 66 includes a first display area 67 in which the face image 71 of the user 14 is displayed and a face image 72 of the sample makeup face. 2 includes a display area 68, an item selection area 69 for selecting whether or not to perform a makeup correction process, or an item selection area 69 for selecting a makeup correction target when performing the makeup correction process, an execution button 70, and the like. It is. The client terminal 12 receives the program executed when the OK button 63 is operated on the sample makeup face selection screen 61 together with the previous web data, and executes the program when the OK button 63 is operated. As a result, the user's own face image is read from the previously designated path, and the user's 14 face image 71 is displayed in the first display area 67 of the selection screen 66. Of course, based on the operation of the OK button 63, the user's 14 face image is read from the specified path and transmitted to the server 20, and the server 20 creates web data including both the user 14's face image and the sample makeup face's face image. And the structure which transmits it to the client terminal 12 is also employable.

ステップS3では、項目選択を行う。すなわち、ユーザ14は入力部12aを操作して、図5に示す選択画面66において項目選択領域69の項目の中から所望の項目を選択する。ユーザ14は、選択画面66における項目選択領域69に用意された項目、すなわち「顔の輪郭」、パーツ形状である「眉形状」、「目形状」、「鼻形状」、「口形状」、「顔パーツレイアウト」、「すべて選択」のうちから、所望の項目を少なくとも一つ選択できる。本例では、「すべて選択」が選択されたものとして説明を進める。項目の選択後、ユーザ14は入力部12aを操作して化粧顔作成処理を実行させるべく実行ボタン70を操作する。すると、サンプル化粧顔の正味化粧画像73をユーザ14の顔の輪郭等に合わせてユーザ14の顔画像に合成等するステップS4以降の処理が進められる。入力部12aの操作により入力された項目選択領域69の選択情報を受け付けて選択情報に応じた内容の化粧補正処理を指示する制御部31は選択手段を構成する。   In step S3, an item is selected. That is, the user 14 operates the input unit 12a to select a desired item from the items in the item selection area 69 on the selection screen 66 shown in FIG. The user 14 prepares items prepared in the item selection area 69 on the selection screen 66, that is, “face outline”, part shapes “eyebrow shape”, “eye shape”, “nose shape”, “mouth shape”, “ At least one desired item can be selected from “Face parts layout” and “Select all”. In this example, the description will proceed assuming that “select all” is selected. After the item is selected, the user 14 operates the input button 12a to operate the execution button 70 to execute the makeup face creation process. Then, the process after step S4 which synthesize | combines the net makeup image 73 of a sample makeup face with the face image of the user 14, etc. according to the outline of the user 14, etc. is advanced. The control unit 31 that receives the selection information of the item selection area 69 input by the operation of the input unit 12a and instructs the makeup correction processing of the content according to the selection information constitutes a selection unit.

ステップS4では、サンプル化粧顔の正味化粧画像73をユーザ14の顔に合わせるマッチング処理を行う。サンプルとユーザ14では、顔サイズ(画像サイズに起因するものも含む)や顔の輪郭、パーツ形状、顔パーツレイアウト(パーツ配置)などの違いがあるので、サンプル化粧顔の正味化粧画像73をユーザ14の顔サイズや顔の輪郭、パーツ形状、顔パーツレイアウトに合わせるようにマッチング処理し、ユーザ14の顔に合った正味化粧画像74(図7を参照)を取得する。   In step S4, a matching process for matching the sample makeup face net makeup image 73 with the face of the user 14 is performed. Since the sample and the user 14 have differences in face size (including those caused by the image size), face contour, part shape, face part layout (part placement), etc., the sample makeup face net makeup image 73 is displayed as the user. The matching process is performed so as to match the 14 face size, face outline, part shape, and face part layout, and a net makeup image 74 (see FIG. 7) that matches the face of the user 14 is acquired.

図7(a)は、ユーザ14の素顔画像71と、サンプル化粧顔の素顔画像72とを模式的に示したものである。まず両素顔画像71,72に対して両目を特徴抽出する。次に両目の中心点(座標)を求め、サンプル化粧顔の素顔の両目の中心点がユーザ14の両目の中心点に一致するように、サンプル化粧顔の正味化粧画像73を伸縮処理させて、正味化粧画像73をユーザ14の顔サイズに合わせる。両素顔画像71,72から、顔輪郭と口と鼻をそれぞれ特徴抽出し、両目の位置は一致させたままで顔の輪郭と口と鼻の各位置(例えば図7(a)の各素顔画像71,72中の各ドット)が、所定の許容範囲内で一致するように、正味化粧画像73をユーザ14の顔に合わせる。以上のマッチング処理を行う。   FIG. 7A schematically shows the face image 71 of the user 14 and the face image 72 of the sample makeup face. First, feature extraction is performed on both eyes for both face images 71 and 72. Next, the center point (coordinates) of both eyes is obtained, and the sample makeup face net makeup image 73 is expanded and contracted so that the center points of both eyes of the sample makeup face coincide with the center points of both eyes of the user 14, The net makeup image 73 is adjusted to the face size of the user 14. The features of the face contour, mouth and nose are extracted from both face images 71 and 72, and the positions of the eyes and the positions of the mouth and nose (for example, each face image 71 in FIG. , 72), the net makeup image 73 is matched to the face of the user 14 so that they match within a predetermined tolerance. The above matching process is performed.

こうして正味化粧画像73がユーザ14の顔サイズ、顔の輪郭、パーツレイアウト等に合うようにマッチング処理された正味化粧画像74を取得する。マッチング処理後の正味化粧画像74は、図7(b)に示すように、ユーザ14の顔サイズ、顔の輪郭(顔輪郭)、目、眉、鼻、口の位置に合うように正味化粧画像73を変形処理したものなので、この正味化粧画像74をユーザ14の素顔画像71上に合成すれば、正味化粧画像74の化粧はユーザ14の素顔上に位置ずれなく正しく施される。正味化粧画像74は、ユーザ14の素顔画像71に対して、例えば口紅は唇に、チークは頬に、アイシャドウは瞼に、アイブロウは眉に正確に施すことが可能な形態に処理されている。この正味化粧画像74は、図6に示す正味化粧画像73を構成するレイヤLm1〜Lmnにマッチング処理を施したものであるので、正味化粧画像73のレイヤと同枚数からなる図7(c)に示す複数枚のレイヤLu1〜Lunから構成される。各レイヤLu1〜Lunは、マッチング処理前の図6に示す各レイヤLm1〜Lmnとそれぞれ対応している。上記のマッチング処理において、両目の中心点のみを採用したり、両目の中心点及び顔輪郭のみを採用したりする構成でもよい。マッチング処理で位置合わせのために使用される点(図7の素顔画像71,72中のドット)の位置や数も適宜設定することができる。   In this way, the net makeup image 74 is acquired by performing the matching process so that the net makeup image 73 matches the face size, face contour, parts layout, and the like of the user 14. As shown in FIG. 7B, the net makeup image 74 after the matching processing is a net makeup image that fits the face size, face contour (face contour), eyes, eyebrows, nose, and mouth positions of the user 14. 73, since this net makeup image 74 is synthesized on the user's 14 face image 71, the makeup of the net makeup image 74 is correctly applied on the user's 14 face without any misalignment. The net makeup image 74 is processed with respect to the face image 71 of the user 14 in a form that can be accurately applied to, for example, lipstick on the lips, cheek on the cheeks, eye shadow on the eyelids, and eyebrow on the eyebrows. . Since the net makeup image 74 is obtained by performing matching processing on the layers Lm1 to Lmn constituting the net makeup image 73 shown in FIG. 6, the same number of layers as the layer of the net makeup image 73 is shown in FIG. It is composed of a plurality of layers Lu1 to Lun shown. Each layer Lu1 to Lun corresponds to each layer Lm1 to Lmn shown in FIG. 6 before the matching process. In the above matching processing, only the center point of both eyes or only the center point of both eyes and the face outline may be employed. The position and number of points (dots in the bare face images 71 and 72 in FIG. 7) used for alignment in the matching process can be set as appropriate.

マッチング処理後の正味化粧画像74は、サンプル化粧顔の素顔とユーザ14の素顔の間で、顔の輪郭、パーツ形状(目、眉、鼻、口の形状)、顔パーツレイアウトが異なることを無視したものとなっている。そのため、正味化粧画像74をそのままユーザ14の素顔画像71に合成しても、合成して得られたユーザの化粧顔は、サンプル化粧顔と随分印象の異なるものとなってしまう。これを防ぐために、好ましい実施形態では、サンプル化粧顔の素顔とユーザの素顔の間で、顔の輪郭、パーツ形状、顔パーツレイアウトに差異があることを考慮して、正味化粧画像74にその差異を補う化粧(補正画像)を加える補正を施す。   The net makeup image 74 after the matching process ignores that the face contour, part shape (eye, eyebrow, nose, mouth shape), and face part layout differ between the sample makeup face and the user 14 face. It has become. Therefore, even if the net makeup image 74 is directly synthesized with the user's 14 face image 71 as it is, the user's makeup face obtained by the synthesis has a much different impression from the sample makeup face. In order to prevent this, in the preferred embodiment, the difference between the face of the sample makeup face and the user's face is different in the net makeup image 74 in consideration of the difference in the face outline, part shape, and face part layout. Correction is performed to add makeup (corrected image) to compensate for.

ステップS5では、顔の輪郭補正ありか否かを判断する。顔の輪郭補正ありと判断すればステップS6へ進み、顔の輪郭補正ありと判断されなければステップS7進む。図7で実行ボタン70が操作されたときに、選択画面66の項目選択領域69での選択情報がサーバ20に送信されており、メモリに一時記憶した選択情報に基づいて顔の輪郭が選択されているか否かを判断する。そして、顔の輪郭が選択されている場合は顔の輪郭補正ありと判断し、顔の輪郭が選択されていない場合は顔の輪郭補正なしと判断する。項目選択で「すべて選択」が選択されている例を説明しているので、ステップS6に進むことになる。   In step S5, it is determined whether face contour correction is performed. If it is determined that face contour correction is performed, the process proceeds to step S6. If it is not determined that face contour correction is performed, the process proceeds to step S7. When the execution button 70 in FIG. 7 is operated, the selection information in the item selection area 69 on the selection screen 66 is transmitted to the server 20, and the face outline is selected based on the selection information temporarily stored in the memory. Judge whether or not. When the face contour is selected, it is determined that the face contour is corrected, and when the face contour is not selected, it is determined that the face contour is not corrected. Since an example in which “select all” is selected in the item selection has been described, the process proceeds to step S6.

ステップS6では、まず顔の輪郭補正処理を行う。すなわち、サンプル化粧顔の素顔画像とユーザ14の素顔画像とから顔の輪郭を特徴抽出し、サンプルとユーザ14との間の顔の輪郭との差異を抽出し、その差異を少なくしてユーザ14の顔の輪郭がサンプル化粧顔の輪郭に近づいて見えるようにする化粧の画像(顔の輪郭補正画像)を、マッチング処理後の正味化粧画像74に付加する画像処理を行う。図5,図7(a)に示すように、本例では、サンプル化粧顔の輪郭が「卵形」であるのに対して、ユーザ14の顔の輪郭が「四角形」であるので、「四角形」を「卵形」の顔の輪郭に見せる化粧を、ユーザ14の正味化粧画像74に追加する顔の輪郭補正処理を施す。この顔の輪郭補正処理は、顔の輪郭抽出部41と第1画像処理部46との協働により行われる。詳細には、記憶部23,36からそれぞれサンプル化粧顔の素顔画像とユーザ14の素顔画像を読み出し、必要に応じて顔サイズを揃える処理をした後の両素顔画像からそれぞれの顔の輪郭を特徴抽出し、サンプルとユーザ14との間の顔の輪郭の差異を抽出する。この結果、図8に示すようなユーザ14の顔の輪郭75と、サンプルの顔の輪郭76とを取得する。図8には、輪郭75,76に加え、目、鼻、口が示されているが、実際には目、鼻、口は示されない。   In step S6, face contour correction processing is first performed. That is, the feature of the face contour is extracted from the sample facial image of the sample makeup face and the user's 14 face image, the difference between the sample and the user 14 is extracted, the difference is reduced, and the user 14 is reduced. Image processing is performed to add a makeup image (face contour correction image) that makes the contour of the face closer to the contour of the sample makeup face to the net makeup image 74 after the matching processing. As shown in FIGS. 5 and 7A, in this example, the contour of the sample makeup face is “oval”, whereas the contour of the face of the user 14 is “square”. ”Is added to the net makeup image 74 of the user 14 to make up the face contour of“ oval ”. The face contour correction process is performed in cooperation with the face contour extraction unit 41 and the first image processing unit 46. Specifically, the facial images of the sample makeup face and the user's 14 facial image are read out from the storage units 23 and 36, respectively, and the facial contours are characterized from the both facial images after the face size is adjusted as necessary. Extract the difference in facial contour between the sample and the user 14. As a result, the face outline 75 of the user 14 and the sample face outline 76 as shown in FIG. 8 are acquired. In FIG. 8, in addition to the contours 75 and 76, the eyes, nose, and mouth are shown, but the eyes, nose, and mouth are not actually shown.

次に、得られた顔の輪郭75,76の差異をとる処理を行い、サンプルの輪郭76に対してユーザ14の輪郭75がはみ出した部分又は内側へ窪んでいる部分を顔の輪郭の差異として取得する。例えばサンプルの輪郭が「卵形」であり、ユーザ14の輪郭が「四角顔」である場合、図8に示すように、サンプルの輪郭76に対してユーザ14の輪郭75がはみ出している顔のエラの部分の領域がプラスの差異77として得られる。一方、図8に示すように、ユーザ14の輪郭75に対してサンプル化粧顔の輪郭76がはみ出している顔の顎の部分の領域がマイナスの差異78として得られる。プラスの差異77である場合は、その差異77の領域の位置(例えばエラと額の両端)と、その差異の正負の符号である正値とを基に第3記憶部24の顔の輪郭データベースにアクセスして、例えば「エラ,プラス」という検索情報に対応する補正画像とその補正用画像のプロシージャ情報とレイヤ位置情報とを取得する。そして、その補正画像とプロシージャ情報とレイヤ位置情報とを第1画像処理部46に送る。一方、マイナスの差異78である場合は、その差異78の領域の属する位置(部位)(例えば顎)とその差異の正負の符号である負値とを基に第3記憶部24の顔の輪郭データベースにアクセスして、例えば「顎,マイナス」という検索情報に対応する補正画像とその補正用画像のプロシージャ情報とレイヤ位置情報とを取得する。そして、その補正画像とプロシージャ情報とレイヤ位置情報とを第1画像処理部46に送る。   Next, a process of taking the difference between the obtained face contours 75 and 76 is performed, and a portion where the contour 75 of the user 14 protrudes from the sample contour 76 or a portion recessed inward is taken as a difference in the face contour. get. For example, when the contour of the sample is “oval” and the contour of the user 14 is “square face”, the contour 75 of the user 14 protrudes from the contour 76 of the sample as shown in FIG. The area of the error area is obtained as a positive difference 77. On the other hand, as shown in FIG. 8, a region of the face jaw portion where the contour 76 of the sample makeup face protrudes from the contour 75 of the user 14 is obtained as a negative difference 78. In the case of a positive difference 77, the face contour database in the third storage unit 24 based on the position of the area of the difference 77 (for example, both ends of the error and the forehead) and the positive value that is the sign of the difference. To obtain the corrected image corresponding to the search information “Era, Plus”, the procedure information and the layer position information of the correction image, for example. Then, the corrected image, procedure information, and layer position information are sent to the first image processing unit 46. On the other hand, when the difference 78 is negative, the contour of the face of the third storage unit 24 is based on the position (part) (for example, the jaw) to which the region of the difference 78 belongs and the negative value that is the sign of the difference. For example, the correction image corresponding to the search information “jaw, minus”, the procedure information of the correction image, and the layer position information are acquired by accessing the database. Then, the corrected image, procedure information, and layer position information are sent to the first image processing unit 46.

第1画像処理部46は、差異77、78に対応する各領域にそれぞれに対応する補正画像をそれぞれのプロシージャ情報で指定された条件で施し、図8に示す顔の輪郭補正画像79を生成する。差異77に対応する補正画像は、例えばグラディエーションが施されたシャドウ画像(カラー画像)であり、プロシージャ情報は、差異77の領域に輪郭寄り側ほど濃くなる所定濃度分布でそのシャドウ画像を施すというプロシージャの条件を示す情報である。一方、差異78に対応する補正画像は、例えばグラディエーションが施されたハイライト画像(カラー画像)であり、プロシージャ情報は、差異78の領域に隣接するユーザ14の顎領域に、指定方向に濃度分布がでるようにそのハイライト画像を施すというプロシージャの条件を示す情報である。第1画像処理部46は、プロシージャ情報に従って、差異77,78の領域に対応する指定の領域にシャドウ80あるいはハイライト81を、それぞれ濃度分布が指定方向となるように施すことにより補正画像として、シャドウ80のレイヤとハイライト81のレイヤとを生成する。本例では、第1画像処理部46は、差異77に対応する両側のエラ領域及び額の両端領域に、輪郭寄り(外側)から内側へ向かって濃度が徐々に薄くなる濃度分布で施されたシャドウ80のレイヤL1を生成する。また、第1画像処理部46は、差異78の領域に対してユーザ14の顔領域側に隣接する顎領域に指定方向の濃度分布で施されたハイライト81のレイヤL2(いずれも図7(c)を参照)を生成する。顔の輪郭補正画像79は、シャドウ80のレイヤL1と、ハイライト81のレイヤL2との2枚のレイヤで構成される。そして、記憶部37から読み出した正味化粧画像74を構成するレイヤLu1〜Lunの層間のうちその補正画像に応じたレイヤ位置情報から定まるレイヤ挿入位置に顔の輪郭補正画像79の各レイヤL1,L2をそれぞれ追加する処理を行う。そして、各レイヤL1,L2を追加した正味化粧画像を記憶部37に記憶する。本例では、ユーザ14の顔の輪郭をサンプルの輪郭に近づけるために付加される顔の輪郭補正画像79を構成するシャドウ80のレイヤL1とハイライト81のレイヤL2は、例えばファンデーション又はコンシーラの補正画像であり、ファンデーション又はコンシーラに相当する化粧層のレイヤ位置に追加される。図8における顔の輪郭補正画像79では、シャドウ80とハイライト81における濃度分布の表現は省略している。   The first image processing unit 46 applies the correction image corresponding to each of the regions corresponding to the differences 77 and 78 under the conditions specified by the respective procedure information, and generates the face outline correction image 79 shown in FIG. . The corrected image corresponding to the difference 77 is, for example, a shadow image (color image) that has been subjected to gradation, and the procedure information is that the shadow image is applied to the region of the difference 77 with a predetermined density distribution that becomes darker toward the contour side. This is information indicating the condition of the procedure. On the other hand, the corrected image corresponding to the difference 78 is, for example, a highlight image (color image) that has been subjected to gradation, and the procedure information has a density in the specified direction in the jaw region of the user 14 adjacent to the region of the difference 78. This is information indicating the condition of the procedure of applying the highlight image so that the distribution appears. In accordance with the procedure information, the first image processing unit 46 applies a shadow 80 or a highlight 81 to a designated area corresponding to the area of the differences 77 and 78 so that the density distribution is in the designated direction as a corrected image. A shadow 80 layer and a highlight 81 layer are generated. In this example, the first image processing unit 46 is applied to the error areas on both sides corresponding to the difference 77 and both end areas of the forehead with a density distribution in which the density gradually decreases from the contour side (outside) toward the inside. A layer L1 of the shadow 80 is generated. The first image processing unit 46 also applies the layer L2 of the highlight 81 applied to the jaw region adjacent to the face region side of the user 14 with the density distribution in the designated direction with respect to the region of the difference 78 (both in FIG. 7 ( c)). The face outline correction image 79 is composed of two layers, a layer L 1 of the shadow 80 and a layer L 2 of the highlight 81. Then, each layer L1, L2 of the face contour correction image 79 at the layer insertion position determined from the layer position information corresponding to the correction image among the layers Lu1 to Lun constituting the net makeup image 74 read from the storage unit 37. Process to add each. And the net makeup image which added each layer L1, L2 is memorize | stored in the memory | storage part 37. FIG. In this example, the layer L1 of the shadow 80 and the layer L2 of the highlight 81 constituting the facial contour correction image 79 added to bring the facial contour of the user 14 closer to the contour of the sample are, for example, foundation or concealer correction. It is an image and is added to the layer position of the decorative layer corresponding to the foundation or concealer. In the face contour corrected image 79 in FIG. 8, the expression of the density distribution in the shadow 80 and the highlight 81 is omitted.

ステップS7では、パーツ形状補正ありか否かを判断する。パーツ形状補正ありと判断すればステップS8へ進み、パーツ形状補正ありと判断されなければステップS9へ進む。つまり、メモリに一時記憶した選択情報に基づいてパーツ形状(目、眉、鼻、口)のうち一つでも選択されているか否かを判断し、一つでも選択されている場合はパーツ形状補正ありと判断し、一つも選択されていない場合はパーツ形状補正なしと判断する。項目選択で「すべて選択」が選択されている場合を説明しているので、ステップS8に進むことになる。   In step S7, it is determined whether or not there is a part shape correction. If it is determined that there is part shape correction, the process proceeds to step S8. If it is not determined that there is part shape correction, the process proceeds to step S9. In other words, based on the selection information temporarily stored in the memory, it is determined whether or not one of the part shapes (eyes, eyebrows, nose, mouth) is selected. If it is determined that there is no part shape correction, it is determined that there is no part shape correction. Since the case where “select all” is selected in the item selection has been described, the process proceeds to step S8.

次のステップS8では、パーツ形状補正処理を行う。すなわち、サンプルの素顔画像とユーザ14の素顔画像とからそれぞれパーツ形状を特徴抽出し、サンプルとユーザ14との間のパーツ形状の差異を抽出し、その差異を少なくしてユーザ14のパーツ形状をサンプルのパーツ形状に近づいて見せるようにする化粧(補正画像)を、マッチング処理後の正味化粧画像74に施すパーツ形状補正処理を行う。このパーツ形状補正処理は、パーツ形状抽出部42と第2画像処理部47との協働により行われる。詳細には、先に記憶部23,36からそれぞれ読み出されて顔サイズが揃えられたサンプル化粧顔の素顔とユーザ14の素顔の画像から、補正対象として選択されたパーツ(目、眉、鼻、口のうち選択された少なくとも一つ)を特徴抽出して、ユーザ14とサンプルの各パーツの形状を取得する。そして、特定のパーツについては、更にパーツ形状からパーツの角度(例えば目の傾き)を求めたり、パーツの濃度(濃度分布)(例えば眉の濃度、唇の濃度)やパーツの周囲の高濃度ライン(一重瞼、二重瞼、皺など)などを求めたりする。   In the next step S8, a part shape correction process is performed. In other words, the part shape is extracted from the sample face image and the user's 14 face image, the difference in the part shape between the sample and the user 14 is extracted, and the part shape of the user 14 is reduced by reducing the difference. A part shape correction process is performed in which makeup (corrected image) that makes the sample appear close to the part shape of the sample is applied to the net makeup image 74 after the matching process. This part shape correction processing is performed in cooperation with the part shape extraction unit 42 and the second image processing unit 47. Specifically, the parts (eyes, eyebrows, nose) selected as correction targets from the sample facial face of the sample makeup face and the face of the user 14 that have been previously read from the storage units 23 and 36 and have the same face size, respectively. , At least one selected from the mouth) is extracted, and the shape of each part of the user 14 and the sample is acquired. For a specific part, the angle of the part (eg, eye inclination) is further obtained from the part shape, the density of the part (density distribution) (eg, eyebrow density, lip density) and the high density line around the part. (Single fence, double fence, firewood, etc.)

次に、得られたユーザ14とサンプルのパーツ形状を用いて同じパーツ同士でパーツ形状の差異をとる処理を行う。例えばサンプルのパーツに対してユーザ14のパーツがはみ出た部分又は凹んだ部分をパーツ形状の差異として取得する。   Next, using the obtained user 14 and the sample part shape, a process of obtaining a difference in the part shape between the same parts is performed. For example, the part of the user 14 protruding or recessed from the sample part is acquired as a difference in part shape.

図9は、パーツとして目が選択されているときに、ユーザ14とサンプルの目の形状の差異を補う化粧(補正画像)を正味化粧画像74に付加する場合を説明するものである。以下、図9を用いて、目の形状補正処理について説明する。図9に示すように、本例では、サンプルが若干「つり目」であるのに対して、ユーザ14が「たれ目」であるとする。   FIG. 9 illustrates a case where makeup (corrected image) that compensates for the difference in shape between the user 14 and the sample eye is added to the net makeup image 74 when the eyes are selected as parts. Hereinafter, the eye shape correction process will be described with reference to FIG. As shown in FIG. 9, in this example, it is assumed that the sample is slightly “hanging” while the user 14 is “hanging”.

記憶部23,36からそれぞれ読み出したサンプル化粧顔の素顔画像とユーザ14の素顔画像を、必要に応じて顔サイズを揃えた後、ユーザ14の素顔画像とサンプル化粧顔の素顔画像からそれぞれの目を特徴抽出する。図9における上段は、特徴抽出されたユーザ14の目83とサンプルの目84を示す。この目の形状の抽出によって、目の形状及び大きさを把握できる。目の形状に関する抽出情報を基に目の角度(つり目、たれ目等)を求めたり、目の周囲の高濃度ライン(一重瞼や二重瞼等)などを求めたりすることもできる。   The face image of the sample makeup face and the face image of the user 14 read out from the storage units 23 and 36, respectively, after aligning the face size as necessary, each eye from the face image of the user 14 and the face image of the sample makeup face. Is extracted. The upper part in FIG. 9 shows the eyes 83 and sample eyes 84 of the user 14 whose features have been extracted. By extracting the eye shape, the shape and size of the eye can be grasped. It is also possible to obtain the eye angle (hanging eyes, leaning eyes, etc.) based on the extracted information related to the eye shape, and to obtain high density lines (single eyelids, double eyelids, etc.) around the eyes.

目の差異を求める際は、目の中心点(瞳の中心点)を一致させるようにユーザ14の目83とサンプルの目84を重ね合わせる。ユーザ14の目83はサンプルの目84に対して下側で目頭側(図9における右側)ほど内側へのシフト量が大きく、この内側へシフトした部分でマイナスの差異85が得られ、一方、目の上側では目尻側(図9における左側)ほど内側へシフトしており、この内側へシフトした部分でマイナスの差異85が得られる。また、ユーザ14の目83がサンプルの目84よりも細い場合は、ユーザ14の目の周囲に目の上側か下側のうち少なくとも一方にマイナスの差異85が生じる。目の下側において差異がマイナスになる領域が目尻側で狭く目頭側で広い、かつ目の上側において差異がマイナスになる領域が目尻側で広く目頭側で狭いと、ユーザ14がサンプルに比べ「たれ目」であると判定する。この場合、目の目頭側と目尻側とで内側へのシフト量の違いが大きいほどたれ目の度合が大きいことになる。本例では、目の傾き度合いは9段階で表される。目の傾き度合いの内訳は、例えばたれ目の度合は4段階で表され、標準傾き(略水平)は1段階で表され、つり目の度合は4段階で表される。たれ目とその度合を検索条件として第4記憶部25のパーツ形状データベースにアクセスして、その検索条件に応じたパーツ形状補正画像を取得する。この場合、パーツ形状補正画像87を構成する一レイヤとして、目尻上側の領域に追加されるアイシャドウ88の補正画像が得られる。   When obtaining the eye difference, the eye 83 of the user 14 and the sample eye 84 are overlapped so that the center point of the eye (the center point of the pupil) matches. The eye 14 of the user 14 has a larger shift amount inward toward the eye side (right side in FIG. 9) on the lower side of the sample eye 84, and a negative difference 85 is obtained in the portion shifted inward, On the upper side of the eye, the shift toward the inner side is performed toward the outer corner of the eye (left side in FIG. 9), and a negative difference 85 is obtained at the portion shifted to the inner side. When the user's 14 eye 83 is narrower than the sample eye 84, a negative difference 85 is generated around the user's 14 eye on at least one of the upper side and the lower side of the eye. If the region where the difference is negative at the lower side of the eye is narrower at the outer corner of the eye and wider at the outer side of the eye, and the region of lower difference at the upper side of the eye is wider at the outer corner of the eye and narrower at the upper side of the eye, the user 14 Is determined. In this case, the greater the difference in the amount of shift inward between the top of the eye and the outside of the eye, the greater the degree of sag. In this example, the degree of eye inclination is expressed in nine levels. The breakdown of the degree of inclination of the eyes is represented by, for example, the degree of slacking in four stages, the standard inclination (substantially horizontal) is represented in one stage, and the degree of lifting is represented in four stages. A part shape correction image corresponding to the search condition is acquired by accessing the part shape database of the fourth storage unit 25 using the stagnation and its degree as a search condition. In this case, a corrected image of the eye shadow 88 added to the upper area of the outer corner of the eye is obtained as one layer constituting the part shape corrected image 87.

目が一重瞼か二重瞼かも特徴抽出され得る。ユーザ14の目83が一重瞼であり、サンプルの目84が二重瞼である場合、二重部分のラインが差異86として得られる。サンプルの二重瞼に対してユーザ14が一重瞼であって、ユーザ14が一重分不足するので、「マイナス一重」と評価し、これを検索条件とする。サンプルが一重瞼でユーザ14が二重瞼である場合は、「プラス一重」となる。標準設定では二重を一重にする補正は行わないが、二重を一重にする補正を行ってもよい。マイナス一重を検索条件として第4記憶部25のパーツ形状データベースにアクセスして、その検索条件に応じた補正画像を取得する。この場合、パーツ形状補正画像87を構成する一レイヤとして、目の上側に追加して二重瞼とするためのライン89の補正画像が得られる。このように図9におけるパーツ形状補正画像87は、アイシャドウレイヤと二重瞼レイヤとを合わせた画像となっており、例えば図7におけるレイヤL3,L4からなる。   Whether the eye is a single eyelid or a double eyelid can be extracted. If the user's 14 eye 83 is a single eyelid and the sample eye 84 is a double eyelash, a double portion line is obtained as the difference 86. Since the user 14 is single-legged with respect to the double fold of the sample and the user 14 is short of the single-legged, it is evaluated as “minus-single”, and this is used as the search condition. If the sample is single and the user 14 is double, then “plus single”. In the standard setting, correction to make the double is single is not performed, but correction to make the double is also possible. Using the minus single as a search condition, the part shape database in the fourth storage unit 25 is accessed, and a corrected image corresponding to the search condition is acquired. In this case, a corrected image of the line 89 is obtained as a layer constituting the part shape corrected image 87 to be added to the upper side of the eye to form a double eyelid. As described above, the part shape correction image 87 in FIG. 9 is an image in which the eye shadow layer and the double eyelid layer are combined, and includes, for example, the layers L3 and L4 in FIG.

図10は、パーツとして口が選択されているときに、ユーザ14とサンプルとの間の口の形状の差異を少なく見せる化粧(補正画像)を正味化粧画像74に施す場合を説明するものである。以下、図10を用いて、口の形状補正処理について説明する。記憶部23,36からそれぞれ読み出したサンプル化粧顔の素顔画像とユーザ14の素顔画像に対し、必要に応じて顔サイズを揃え、ユーザ14の素顔画像とサンプルの素顔画像の各々から口を特徴抽出する。図10における上段は、ユーザ14の口91とサンプルの口92を示す。この特徴抽出によって、口の形状及び大きさを把握できる。図10に示すように、本例では、ユーザ14の口91は唇が若干薄くかつ水平方向の幅が広めであり、サンプルの口92は唇が若干厚くかつ水平方向の幅が狭めである。   FIG. 10 illustrates a case where makeup (corrected image) that makes the difference in the shape of the mouth between the user 14 and the sample appear small is applied to the net makeup image 74 when the mouth is selected as a part. . The mouth shape correction process will be described below with reference to FIG. The face size of the sample makeup face and the user's 14 face image read out from the storage units 23 and 36, respectively, are adjusted as necessary, and the mouth is extracted from each of the user's 14 face image and the sample face image. To do. The upper row in FIG. 10 shows the mouth 91 and the sample mouth 92 of the user 14. By this feature extraction, the shape and size of the mouth can be grasped. As shown in FIG. 10, in this example, the mouth 91 of the user 14 has a slightly thin lip and a wide horizontal width, and the sample mouth 92 has a slightly thick lip and a narrow horizontal width.

図10における下段中央に示すように、両口91,92を重ねて、両者の差異を抽出すると、サンプル化粧顔の口92に対してユーザ14の口91が上側で若干、下側でかなりの量、内側へシフトしたマイナスの差異93が得られる。また、口91の左端と右端でユーザ14の口91がサンプルの口92に対してはみ出たプラスの差異94が得られる。口の周囲に沿って複数の領域が設定され、図10の例では、口の上側に設定されている例えば7領域のうち中央部寄りの3領域と、口の下側に設定されている例えば7領域のうち中央部寄りの5領域と、左側の領域と、右側の領域との各領域位置の情報と、プラスまたはマイナスとを検索条件として取得する。そして、第4記憶部25のパーツ形状データベースにアクセスして、その検索条件に応じた補正画像を取得する。この場合、図10における下段右側に示すように、ユーザ14の口の上側と下側の領域位置の情報とマイナスの情報とに基づき、ユーザ14の唇の上側中央部と下側中央部に追加される口紅96の補正画像(レイヤ)が得られ、ユーザ14の口の左側と右側の領域位置の情報とプラスの情報とに基づき、ユーザ14の唇の左端と右端に口紅を消去する画像97の補正画像(レイヤ)が得られる。図10に示す補正画像95は、口紅96のレイヤと、口紅を消去する画像97のレイヤとから構成される。   As shown in the lower center of FIG. 10, when the mouths 91 and 92 are overlapped and the difference between them is extracted, the mouth 91 of the user 14 is slightly higher on the upper side than the mouth 92 of the sample makeup face, and considerably lower on the lower side. A negative difference 93 is obtained which is shifted inwardly by the amount. In addition, a positive difference 94 is obtained in which the mouth 91 of the user 14 protrudes from the sample mouth 92 at the left end and the right end of the mouth 91. A plurality of areas are set along the periphery of the mouth. In the example of FIG. 10, for example, three areas near the center of the seven areas set on the upper side of the mouth and the lower side of the mouth are set. Among the seven areas, information on the position of each of the five areas closer to the center, the left area, and the right area, plus or minus is acquired as a search condition. Then, the part shape database in the fourth storage unit 25 is accessed, and a corrected image corresponding to the search condition is acquired. In this case, as shown on the lower right side in FIG. 10, based on the information on the upper and lower region positions of the user's 14 mouth and the negative information, it is added to the upper center portion and the lower center portion of the user's lips. A corrected image (layer) of the lipstick 96 is obtained, and an image 97 for deleting the lipstick at the left end and the right end of the lip of the user 14 based on the information on the left and right area positions of the user 14 and the plus information. A corrected image (layer) is obtained. The corrected image 95 shown in FIG. 10 includes a lipstick 96 layer and an image 97 layer that erases the lipstick.

そして、それら補正画像を第2画像処理部47に送る。第2画像処理部47は、正味化粧画像74を構成するレイヤLu1〜Lunの層間のうちその補正画像に応じた化粧層に応じたレイヤ挿入位置を把握し、その把握したレイヤ挿入位置にパーツ形状補正画像87の各レイヤL3,L4等をそれぞれ追加する処理を行う。そして、処理後の正味化粧画像を記憶部37に記憶する。画像97に替え、正味化粧画像74を構成する口紅のレイヤから唇の左端と右端に相当する口紅を消去する画像処理を施しても構わない。   Then, these corrected images are sent to the second image processing unit 47. The second image processing unit 47 grasps the layer insertion position corresponding to the makeup layer corresponding to the corrected image among the layers Lu1 to Lun constituting the net makeup image 74, and the part shape is determined at the grasped layer insertion position. Processing for adding each layer L3, L4, etc. of the corrected image 87 is performed. Then, the processed net makeup image is stored in the storage unit 37. Instead of the image 97, image processing for deleting the lipstick corresponding to the left and right ends of the lips from the lipstick layer constituting the net makeup image 74 may be performed.

ステップS9では、顔パーツレイアウト補正ありか否かを判断する。顔パーツレイアウト補正ありと判断すればステップS10へ進み、顔パーツレイアウト補正ありと判断されなければステップS11へ進む。つまり、メモリに一時記憶した選択情報に基づいて顔パーツレイアウトの項目が選択されているか否かを判断し、顔パーツレイアウトが選択されている場合は顔パーツレイアウト補正ありと判断し、顔パーツレイアウトが選択されていない場合は顔パーツレイアウト補正なしと判断する。項目選択で「すべて選択」が選択されている場合を説明しているので、ステップS10に進むことになる。   In step S9, it is determined whether or not there is face part layout correction. If it is determined that there is face part layout correction, the process proceeds to step S10, and if it is not determined that face part layout correction is performed, the process proceeds to step S11. That is, it is determined whether or not a face part layout item is selected based on the selection information temporarily stored in the memory. If the face part layout is selected, it is determined that the face part layout is corrected, and the face part layout is determined. If is not selected, it is determined that there is no face part layout correction. Since the case where “select all” is selected in the item selection is described, the process proceeds to step S10.

次のステップS10では、顔パーツレイアウト補正処理を行う。すなわち、記憶部23,36からそれぞれ読み出したサンプル化粧顔の素顔画像とユーザ14の素顔画像に対して、必要に応じて顔サイズを揃え、サンプル化粧顔の素顔画像とユーザ14の素顔画像の各々から、顔輪郭と複数のパーツ(両目、口)とを抽出し、顔輪郭と複数のパーツの位置から、サンプルとユーザ14の顔パーツレイアウトとを求める。そして、両者の顔パーツレイアウトの差異を抽出するとともに、その差異を少なく見せるようにする化粧を、正味化粧画像74に施す顔パーツレイアウト補正処理を行う。例えば図11に示すように、ユーザ14の素顔画像71とサンプル化粧顔の素顔画像72とから特徴抽出を行って得た顔輪郭と両目と口の各位置を取得する。そして、顔輪郭と両目の位置とに基づいて、横方向の顔幅を両目の各位置で分割した三つの間隔の比率を、横方向のパーツレイアウト比率(顔パーツレイアウト横比率)として求める。また、顔輪郭と両目と口の各位置とに基づいて、顔の縦方向において頭髪の生え際から目の位置までの間隔と、目から口の口角までの間隔と、口角から顎の先端までの間隔との比率である縦方向のパーツレイアウト比率(顔パーツレイアウト縦比率)を求める。   In the next step S10, face part layout correction processing is performed. That is, the face size of the sample makeup face and the user's 14 facial image are read out from the storage units 23 and 36, respectively, and the face size is aligned as necessary. Then, the face outline and a plurality of parts (both eyes and mouth) are extracted, and the sample and the face part layout of the user 14 are obtained from the position of the face outline and the plurality of parts. Then, a difference between both face part layouts is extracted, and a face part layout correction process is performed for applying makeup to the net makeup image 74 so as to make the difference appear small. For example, as shown in FIG. 11, the face contour obtained by performing feature extraction from the face image 71 of the user 14 and the face image 72 of the sample makeup face, and the positions of both eyes and mouth are acquired. Then, based on the face contour and the positions of both eyes, the ratio of three intervals obtained by dividing the width of the face in the horizontal direction at each position of both eyes is obtained as a horizontal part layout ratio (face part layout horizontal ratio). Also, based on the face contour and the positions of both eyes and mouth, the distance from the hairline to the eye position in the vertical direction of the face, the distance from the eyes to the mouth corner of the mouth, and the mouth corner to the tip of the jaw A vertical part layout ratio (face part layout vertical ratio), which is a ratio to the interval, is obtained.

例えば図11における上段に示すように、顔の横方向において顔幅を両目の位置で三つの領域に区画した各領域の比率である顔パーツレイアウト横比率が、ユーザ14が20:60:20(%)であるのに対して、サンプルが25:50:25(%)であるとする。また、顔の縦方向において、頭髪の生え際から目までの間隔と、目から口の口角までの間隔と、口角から顎の先端までの間隔との比率である顔パーツレイアウト縦比率が、ユーザ14が30%:45%:25%であるのに対して、サンプルが45%:35%:20%であるとする。   For example, as shown in the upper part of FIG. 11, the face part layout horizontal ratio, which is the ratio of each area obtained by dividing the face width into three areas at the positions of both eyes in the horizontal direction of the face, is 20:60:20 ( %) Whereas the sample is 25:50:25 (%). Further, in the vertical direction of the face, the face part layout vertical ratio, which is the ratio of the distance from the hairline to the eyes, the distance from the eyes to the mouth corners, and the distance from the mouth corners to the tip of the chin, is the user 14. Is 30%: 45%: 25%, whereas the sample is 45%: 35%: 20%.

顔パーツレイアウト横比率について、サンプルとユーザ14との差異を算出すると、ユーザ14の両目の位置が、サンプルの両目の位置に対して、顔幅の5%だけ顔の幅中心から外側へ向かう方向(マイナス方向)へシフトしていることを意味する「マイナス5%」の差異が得られる。ユーザ14の両目の間隔の割合がサンプルの両目の間隔の割合にその差異を補うように近づけて、両目の間隔を顔幅の5%だけ狭く見せる化粧(補正画像)を正味化粧画像74に付加する画像処理を行う。   When the difference between the sample and the user 14 is calculated with respect to the face part layout aspect ratio, the position of both eyes of the user 14 is the direction from the center of the face toward the outside by 5% of the face width with respect to the positions of both eyes of the sample. A difference of “minus 5%” is obtained, which means that the shift is in the minus direction. A makeup (corrected image) is added to the net makeup image 74 so that the ratio of the distance between both eyes of the user 14 approaches the ratio of the distance between both eyes of the sample so as to compensate for the difference. Perform image processing.

また、顔パーツレイアウト縦比率について、サンプルとユーザ14との差異を算出すると、ユーザ14の頭髪の生え際から目の位置までの間隔の割合が、サンプルのそれに対して、顔の縦方向の長さである顔長の15%だけ狭い側(マイナス方向)へシフトしていることを意味する「マイナス15%」の差異が得られる。但し、化粧でパーツを実際よりも所定方向へシフトしているように見せられる割合には限界があり、この限界値(例えば5%)を最大値とするように「プラス5%」の差異は与えられる。   Further, when the difference between the sample and the user 14 is calculated regarding the face part layout vertical ratio, the ratio of the interval from the hairline of the user 14 to the position of the eyes is the length of the face in the vertical direction relative to that of the sample. A difference of “minus 15%” is obtained, which means that the face length is shifted to the narrow side (minus direction) by 15% of the face length. However, there is a limit to the rate at which makeup can be seen as if the parts are shifted in a certain direction from the actual, and the difference of “plus 5%” is to make this limit value (for example, 5%) the maximum value. Given.

同様にユーザ14の目の位置から口の位置までの間隔の割合が、サンプルのそれに対して、顔長の10%だけ広い側(プラス方向)へシフトしていることを意味する「プラス10%」の差異が得られる。この場合、先に頭髪の生え際と目の間隔の割合を広くするマイナス5%が既に与えられているので、この場合、「マイナス5%」が与えられる。同様にユーザ14の口の位置から顎の先端までの間隔の割合が、サンプルのそれに対して、顔長の5%だけ広い側(マイナス方向)へシフトしていることを意味する「プラス5%」の差異が得られる。この場合、口から顎の先端までの間隔の割合を顔長の5%だけ狭くする「マイナス5%」の差異として演算される。顔の縦方向における顔パーツレイアウトの差異を補うように、ユーザ14の顔パーツレイアウトをサンプルの顔パーツレイアウトに近づける化粧(補正画像)を、正味化粧画像74に付加する画像処理を行う。   Similarly, it means that the ratio of the interval from the eye position of the user 14 to the mouth position is shifted to the wide side (plus direction) by 10% of the face length with respect to that of the sample “plus 10%”. Is obtained. In this case, since minus 5%, which increases the ratio between the hairline and the distance between the eyes, has already been given, “minus 5%” is given in this case. Similarly, it means that the ratio of the distance from the mouth position of the user 14 to the tip of the jaw is shifted to the wide side (minus direction) by 5% of the face length with respect to that of the sample “plus 5%”. Is obtained. In this case, the difference between the mouth and the tip of the jaw is calculated as a difference of “minus 5%” which narrows the ratio of the distance by 5% of the face length. Image processing for adding makeup (corrected image) that approximates the facial part layout of the user 14 to the sample facial part layout to the net makeup image 74 is performed so as to compensate for the difference in facial part layout in the vertical direction of the face.

上記の顔パーツレイアウト以外にも、例えば頭髪の生え際から眉の下端までの間隔と、眉と目の間隔と、目と鼻の下端との間隔と、鼻の下端から顎の先端までの間隔との比率で表される顔パーツレイアウトも求めており、サンプルとユーザ14との間の顔パーツレイアウトの差異を算出し、ユーザ14の比率がサンプルの比率に近づく化粧(補正画像)を、正味化粧画像74に追加する画像処理を行うこともできる。例えばユーザ14の顔は、頭髪の生え際と眉の下端との間の割合がサンプルのそれより小さく、眉の下端と目との間隔の割合がサンプルのそれと略等しく、目と鼻の下端との間の間隔の割合がサンプルのそれと略等しく、かつ鼻と口との間隔の割合がサンプルのそれよりも大きい。よって、ユーザ14の眉と目の間隔の割合を大きくする化粧(補正画像)と、鼻と口の間隔の割合を小さくする化粧(補正画像)を、正味化粧画像74に施す画像処理を行う。   In addition to the above face part layout, for example, the distance from the hairline to the lower end of the eyebrows, the distance between the eyebrows and the eyes, the distance between the eyes and the lower end of the nose, and the distance from the lower end of the nose to the tip of the chin The facial part layout represented by the ratio of the user 14 is also calculated, the difference in the facial part layout between the sample and the user 14 is calculated, and the makeup (corrected image) in which the ratio of the user 14 approaches the ratio of the sample is calculated as the net makeup. Image processing to be added to the image 74 can also be performed. For example, in the face of the user 14, the ratio between the hairline and the lower end of the eyebrows is smaller than that of the sample, the ratio of the distance between the lower end of the eyebrows and the eyes is substantially equal to that of the sample, and The proportion of the interval between is approximately equal to that of the sample and the proportion of the nose-to-mouth spacing is greater than that of the sample. Therefore, image processing is performed in which makeup (corrected image) that increases the proportion of the eyebrow and eye spacing of the user 14 and makeup (corrected image) that decreases the proportion of the nose and mouth spacing are applied to the net makeup image 74.

顔パーツレイアウトの差異を補うために、顔パーツレイアウトデータベースから取得される補正画像は、例えば図11下段に示されている。この例では、ユーザ14の頭髪の生え際から目までの間隔を広く見せるために、頭髪の生え際から目までの間隔とプラス5%との検索条件に基づいて顔パーツレイアウトデータベースにアクセスし、ユーザ14の額部分に追加するハイライト102の補正画像が取得される。目から口までの間隔を狭く見せるために、目から口までの間隔とマイナス5%との検索条件に基づいて顔パーツレイアウトデータベースにアクセスし、鼻に沿って追加されるシャドウ104の補正画像が取得される。口と顎の先端との間隔を狭く見せるために、顎の部分に追加されるシャドウ104の補正画像が取得される。鼻の下端と口との間隔の割合を狭くするために、口の上側部分に追加されるシャドウ104の補正画像を取得することもできる。顔の横方向においてユーザ14の両目の間隔を狭くみせるために、目の目尻側に追加されるハイライト103の補正画像を取得することもできる。この顔パーツレイアウト補正処理により、図11における下段右側に示すように、例えばハイライト102のレイヤL5と、シャドウ104のレイヤL6と、ハイライト103のレイヤL7が取得される。   In order to compensate for the difference in the face part layout, a corrected image acquired from the face part layout database is shown in the lower part of FIG. 11, for example. In this example, in order to show a wide interval from the hairline to the eyes of the user 14, the face part layout database is accessed based on the search condition of the interval from the hairline to the eyes and the plus 5%. A correction image of the highlight 102 to be added to the forehead portion is acquired. In order to make the interval from the eyes to the mouth narrow, the correction image of the shadow 104 added along the nose is accessed by accessing the face parts layout database based on the search condition of the interval from the eyes to the mouth and minus 5%. To be acquired. In order to make the gap between the mouth and the tip of the jaw narrow, a correction image of the shadow 104 added to the jaw portion is acquired. In order to reduce the ratio of the distance between the lower end of the nose and the mouth, a corrected image of the shadow 104 added to the upper part of the mouth can be acquired. It is also possible to acquire a correction image of the highlight 103 added to the outer corner of the eye in order to make the distance between both eyes of the user 14 narrower in the lateral direction of the face. By this face part layout correction process, for example, the layer L5 of the highlight 102, the layer L6 of the shadow 104, and the layer L7 of the highlight 103 are acquired as shown on the lower right side in FIG.

取得された補正画像を第3画像処理部48に送る。第3画像処理部48は、記憶部37から正味化粧画像74を読み出し、その読み出した正味化粧画像74に対して顔パーツレイアウトに係る補正画像を、顔パーツレイアウト識別子から特定されるレイヤ位置に追加し、追加後の正味化粧画像74を記憶部37に再び記憶する。こうしてマッチング処理後の正味化粧画像74をユーザ14の顔の輪郭、パーツ形状、顔パーツレイアウトをサンプルのそれに近づけるように補正して得られた図7(c)に示す補正後正味化粧画像100が記憶部37に記憶される。顔の輪郭、パーツ形状、顔パーツレイアウトに係る各補正画像が、同じ化粧層で重複する場合や、化粧層が異なる場合でもユーザ14の顔をサンプル化粧顔に同じ対象において近づける場合は、重複による過度の補正が加えられることがないようにしている。   The acquired corrected image is sent to the third image processing unit 48. The third image processing unit 48 reads the net makeup image 74 from the storage unit 37 and adds a correction image related to the face part layout to the read net makeup image 74 to the layer position specified by the face part layout identifier. Then, the net makeup image 74 after the addition is stored in the storage unit 37 again. A corrected net makeup image 100 shown in FIG. 7C obtained by correcting the net makeup image 74 after the matching processing so that the facial contour, part shape, and face part layout of the user 14 are close to those of the sample is obtained. It is stored in the storage unit 37. When each correction image related to the face outline, part shape, and face part layout overlaps in the same makeup layer, or even when the face of the user 14 is brought close to the sample makeup face in the same target even if the makeup layer is different, it is due to the overlap To prevent excessive correction.

顔パーツレイアウトの差異を、ユーザ14の顔パーツレイアウトをサンプルの顔パーツレイアウトに近づける方法として、顔パーツレイアウトの差異を、眉、目、鼻、口の各位置のシフト方向、シフト量に換算し、その換算情報を基に、パーツを実際よりそのシフト方向、シフト量だけシフトしていように見せる補正画像を取得して正味化粧画像74に付与する方法を採用することもできる。   As a method of making the facial part layout difference closer to the sample facial part layout of the user 14, the facial part layout difference is converted into the shift direction and shift amount of the eyebrow, eye, nose, and mouth positions. Based on the conversion information, a method of acquiring a correction image that makes the part appear to be shifted by the shift direction and the shift amount from the actual part and applying the correction image to the net makeup image 74 can be adopted.

ステップS11では、補正後正味化粧画像100と素顔画像71との合成処理及び表示を行う。すなわち、記憶部37から図7(c)に示す補正後正味化粧画像100を読み出すとともに、記憶部36からユーザ14の素顔画像71を読み出し、ユーザ14の素顔画像71上に補正後正味化粧画像100を重ねる合成処理を行う。この合成処理時の位置合わせは、二点を一致させれば足りるので、例えば両目の中心位置を合わせることで補正後正味化粧画像100の素顔画像71上への貼り付け処理を行ってもよい。   In step S11, the corrected net makeup image 100 and the face image 71 are combined and displayed. That is, the corrected net makeup image 100 shown in FIG. 7C is read from the storage unit 37, and the user's 14 face image 71 is read from the storage unit 36, and the corrected net makeup image 100 is displayed on the user's 14 face image 71. The composition process to overlap is performed. Since it is sufficient that the two points coincide with each other during the composition processing, for example, the corrected net makeup image 100 may be pasted onto the bare face image 71 by aligning the center positions of both eyes.

制御部31は、合成処理部34で合成された化粧顔画像を含むウェブデータを作成し、そのウェブデータを送受信部29からネットワーク11を通じてクライアント端末12に送信する。その結果、クライアント端末12の表示部12bには、図12に示すウェブ画面105が表示される。ウェブ画面105は、そのコンテンツエリアに化粧顔表示画面106を含み、化粧顔表示画面106の化粧顔表示領域107にユーザ14の化粧顔画像が表示される。化粧顔表示画面106には、追加修正を行う項目を選択するための複数の選択欄(プルダウンメニュー)が設けられている。詳しくは、追加修正できる項目として、顔の輪郭、パーツ形状、顔パーツレイアウトの三種類が用意されており、パーツ形状としては目、眉、鼻、口を選択できる。顔の輪郭のプルダウンメニューでは、希望の顔の輪郭を選択でき、例えば卵形、四角形、三角形などの顔の輪郭を選択できる他、顎を長く、頬を丸く、エラを丸くなどの顔の部分の形状の選択も可能となっている。例えば顔の輪郭の中から例えば卵形を選択すると、次画面(詳細設定画面)が表示され、複数種の卵形の中から所望のものを選択できたり、卵形に近づける割合(%)の指定も可能となっている。パーツ形状の目には、プルダウンメニューで、大きく、細く、切れ長、たれ目、つり目、アーモンド形などを選択できる他、二重瞼、一重瞼、睫毛を長くなどの選択も可能となっている。そして、いずれか一つを選択すると、同様に詳細設定画面が表示されて詳細設定が可能となっている。その他、眉、鼻、口についても種々の形状や、一部の形状や質感(例えば口であれば唇のしっとり感、艶、濡れた感じ、弾力感など)を選択できる。顔パーツレイアウトについては、黄金比、3:4:2、4:3:3などの所定比率の他、額を広くまたは狭く、目と口の間隔を広くまたは狭く、口と顎先の間隔を広くまたは狭くなどの部分的なエリアの広さを変更する選択が可能になっており、同様にそれぞれについて詳細設定が可能になっている。そして、修正実行ボタン111を操作すると、ユーザ14が選択指定した追加修正の処理が実行される。色変更ボタン112を操作すると、色変更の詳細設定画面が表示され、ファンデーションの色、コンシーラの色、口紅の色、チークの色、アイシャドウの色などを変更することができる。   The control unit 31 creates web data including the makeup face image synthesized by the synthesis processing unit 34 and transmits the web data from the transmission / reception unit 29 to the client terminal 12 through the network 11. As a result, the web screen 105 shown in FIG. 12 is displayed on the display unit 12 b of the client terminal 12. The web screen 105 includes a makeup face display screen 106 in its content area, and the makeup face image of the user 14 is displayed in the makeup face display area 107 of the makeup face display screen 106. The makeup face display screen 106 is provided with a plurality of selection fields (pull-down menus) for selecting items to be additionally corrected. Specifically, three types of face contour, part shape, and face part layout are prepared as items that can be additionally corrected, and the eyes, eyebrows, nose, and mouth can be selected as the part shape. In the face outline pull-down menu, you can select the desired face outline. For example, you can select the face outline such as oval, square, triangle, etc. It is also possible to select the shape. For example, when an egg shape is selected from the outline of the face, for example, the next screen (detailed setting screen) is displayed, and a desired one can be selected from a plurality of types of egg shapes, or the ratio (%) of approaching the egg shape. Specification is also possible. In the eyes of the part shape, you can select large, thin, cut length, leaning, hanging, almond, etc. from the pull-down menu, as well as selection of double eyelids, single eyelids, long eyelashes, etc. When any one is selected, a detailed setting screen is displayed in the same manner, and detailed setting is possible. In addition, various shapes and partial shapes and textures of the eyebrows, nose, and mouth (for example, if the mouth is moist, glossy, wet, elastic, etc.) can be selected. For the facial parts layout, in addition to the golden ratio, 3: 4: 2, 4: 3: 3, etc., the forehead is widened or narrowed, the distance between eyes and mouth is widened or narrowed, and the distance between mouth and chin is It is possible to select to change the size of a partial area such as wide or narrow, and similarly, detailed setting is possible for each. When the correction execution button 111 is operated, an additional correction process selected and specified by the user 14 is executed. When the color change button 112 is operated, a detailed color change setting screen is displayed, and the foundation color, concealer color, lipstick color, cheek color, eye shadow color, and the like can be changed.

このように必要に応じて形状や比率、色を追加修正する。手本化粧顔が気に入れば、保存ボタン113を操作することで化粧顔データをクライアント端末12のメモリに保存することができる。例えば、好みの手本化粧顔を保存し、それらを順番にあるいは一覧として画面に表示してその中から自分の一番好む手本化粧顔画像を選択することもできる。   In this way, the shape, ratio, and color are additionally corrected as necessary. If you like the model makeup face, you can save the makeup face data in the memory of the client terminal 12 by operating the save button 113. For example, it is also possible to save favorite model makeup faces, display them on the screen in order or as a list, and select a model makeup face image that is most preferred from them.

こうして手本化粧顔画像が生成されると、ユーザ14は入力部12aを操作して化粧手順レシピ表示ボタン109を操作する。化粧手順表示ボタン109の操作に基づく要求をサーバ20が受け付けると、サーバ20のCPUは化粧支援処理プログラムのうち化粧アドバイス処理プログラムを実行することで、ステップS12以降の化粧アドバイス処理を行う。   When the model makeup face image is generated in this way, the user 14 operates the input unit 12a to operate the makeup procedure recipe display button 109. When the server 20 accepts a request based on the operation of the makeup procedure display button 109, the CPU of the server 20 executes the makeup advice process from step S12 by executing the makeup advice process program in the makeup support process program.

ところで、化粧顔画像生成処理において、顔の輪郭抽出部41、パーツ形状抽出部42及び顔パーツレイアウト抽出部43が取得した識別子(顔の輪郭画像識別子、パーツ形状画像識別子、顔パーツレイアウト画像識別子)は、手順補正部35へ送られる。そして、手順補正部35内において、顔の輪郭画像識別子は顔の輪郭手順補正部51へ、パーツ形状画像識別子はパーツ形状手順補正部52へ、顔パーツレイアウト画像識別子は顔パーツレイアウト手順補正部53へそれぞれ送られる。   By the way, in the makeup face image generation process, identifiers acquired by the face contour extraction unit 41, the part shape extraction unit 42, and the face part layout extraction unit 43 (face contour image identifier, part shape image identifier, face part layout image identifier). Is sent to the procedure correction unit 35. In the procedure correction unit 35, the face contour image identifier is sent to the face contour procedure correction unit 51, the part shape image identifier is sent to the part shape procedure correction unit 52, and the face part layout image identifier is sent to the face part layout procedure correction unit 53. Sent to each.

ステップS12では、手順補正処理を行う。すなわち、手順補正部35が、第7記憶部28に格納されているリンクテーブルを参照して、補正画像の識別子に応じたアドレスを取得する。そして、手順補正部35は、第7記憶部28に格納されている手順補正用データベースにアクセスして、補正画像の識別子に応じた手順補正データを取得する。すなわち、顔の輪郭手順補正部51は、手順補正用データベースにアクセスして、顔の輪郭画像識別子に応じた顔の輪郭手順補正データを取得する。パーツ形状手順補正部52は、手順補正用データベースにアクセスして、パーツ形状画像識別子に応じたパーツ形状手順補正データを取得する。顔パーツレイアウト手順補正部53は、補正用データベースにアクセスして、顔パーツレイアウト画像識別子に応じた顔パーツレイアウト手順補正データを取得する。   In step S12, procedure correction processing is performed. That is, the procedure correction unit 35 refers to the link table stored in the seventh storage unit 28 and acquires an address corresponding to the identifier of the corrected image. Then, the procedure correction unit 35 accesses the procedure correction database stored in the seventh storage unit 28, and acquires procedure correction data corresponding to the identifier of the corrected image. That is, the face contour procedure correction unit 51 accesses the procedure correction database and acquires face contour procedure correction data corresponding to the face contour image identifier. The part shape procedure correction unit 52 accesses the procedure correction database, and acquires part shape procedure correction data corresponding to the part shape image identifier. The face part layout procedure correction unit 53 accesses the correction database, and acquires face part layout procedure correction data corresponding to the face part layout image identifier.

手順補正部35は、手順補正処理を行うに当たり、まず、サンプル化粧顔の画像64に対応するサンプル化粧手順レシピD1〜Dnを第6記憶部27から読み出し、記憶部38に一時記憶する。手順補正処理では、記憶部38に格納されているサンプル化粧手順レシピD1〜Dnの文章に補正を加える。スピーカからの音声は文章の読み上げ処理を行う構成では、文章の補正により音声も補正される。もちろん、音声を用意しておき、音声を補正する構成も採用できる。   In performing the procedure correction process, the procedure correction unit 35 first reads the sample makeup procedure recipes D1 to Dn corresponding to the sample makeup face image 64 from the sixth storage unit 27 and temporarily stores them in the storage unit 38. In the procedure correction process, corrections are made to the texts of the sample makeup procedure recipes D1 to Dn stored in the storage unit 38. In the configuration in which the voice from the speaker is read out, the voice is also corrected by correcting the text. Of course, it is possible to employ a configuration in which sound is prepared and the sound is corrected.

顔の輪郭手順補正データ、パーツ形状手順補正データ、顔パーツレイアウト手順補正データは、それぞれサンプル化粧手順レシピ中の文章を補正するための文章データである。顔の輪郭手順補正データ、パーツ形状手順補正データは、顔の輪郭(卵形顔、四角顔、逆三角形顔、丸顔、三角形顔等)、パーツ形状(詳しくは眉形状、目形状、鼻形状、口形状)ごとに、サンプル化粧手順レシピの文章中の特定の文書エリア55又は特定の位置を特定するアドレス56とリンクされている。各手順補正データは、対応するアドレス56で特定される文書エリア55に置き替えられたり、対応するアドレス56で特定される特定位置に追加挿入されたりする。   The face contour procedure correction data, the part shape procedure correction data, and the face part layout procedure correction data are sentence data for correcting sentences in the sample makeup procedure recipe. Face contour procedure correction data and part shape procedure correction data include face contour (egg-shaped face, square face, inverted triangle face, round face, triangle face, etc.), part shape (specifically eyebrow shape, eye shape, nose shape) , Mouth shape) is linked to a specific document area 55 or an address 56 specifying a specific position in the text of the sample makeup procedure recipe. Each procedure correction data is replaced with the document area 55 specified by the corresponding address 56 or additionally inserted at a specific position specified by the corresponding address 56.

すなわち、顔の輪郭手順補正データは、図14中に示すサンプル化粧手順レシピの文章中において、顔の輪郭画像識別子とリンクされたアドレス56で指定された文書エリア55の文章と置き替えられたり、顔の輪郭画像識別子とリンクされたアドレス56で指定された位置に追加挿入されたりする。目形状、鼻形状、口形状などの各手順補正データは、図14中に示す文章中において、目形状、鼻形状、口形状の画像識別子とリンクされたアドレス56で指定された文書エリア55の文章と置き替えられる。サンプル化粧手順レシピD1〜Dに文書以外に画像が含まれている場合は、文書の場合と同様に識別子に対応する画像が特定され、その画像が補正用の画像に置き換えられたり、その画像に補正用の画像のレイヤが追加されたりする。   That is, the facial contour procedure correction data is replaced with the text in the document area 55 specified by the address 56 linked to the facial contour image identifier in the text of the sample makeup procedure recipe shown in FIG. Further, it is inserted at a position designated by the address 56 linked to the face outline image identifier. The procedure correction data such as the eye shape, the nose shape, and the mouth shape are stored in the document area 55 designated by the address 56 linked to the image identifiers of the eye shape, the nose shape, and the mouth shape in the text shown in FIG. Replaced with text. When the sample makeup procedure recipes D1 to D include an image other than the document, the image corresponding to the identifier is specified as in the case of the document, and the image is replaced with a correction image, or the image An image layer for correction is added.

そして、図13において、化粧の途中のステップでの完成イメージを提供する手本化粧顔画像I1〜Inは、補正後正味化粧画像100を構成するレイヤを用いて作成される。補正後正味化粧画像100を構成するレイヤは、化粧層別(例えば同じコンシーラでも化粧層が異なれば別々のレイヤ)、及び化粧種別(例えばファンデーションとチーク)に一枚ずつ分けて構成されている。補正後正味化粧画像100を構成するレイヤは、化粧が施される順番に例えば番号が付されており、そのレイヤ番号からどの化粧ステップに属するかが管理されている。手本化粧顔画像I1〜Inを作成するときは、補正後正味化粧画像100を構成するレイヤの中から、まず手順1に属するレイヤを記憶部37から読み出し、その読み出したレイヤをユーザ14の素顔画像71上に重ねる合成処理を行うことにより、手順1の手本化粧顔画像I1を生成する。次に手順2に属するレイヤを記憶部37から読み出し、その読み出したレイヤを手本化粧顔画像I1上に重ねる合成処理を行うことにより、手順2の手本化粧顔画像I2を生成する。以下、手順3から手順nまで同様の処理を繰り返して、手本化粧顔画像I3〜Inを生成する。補正後正味化粧画像100のレイヤを用いて手本化粧顔画像を生成する制御部31は化粧途中顔画像生成手段を構成する。   In FIG. 13, model makeup face images I <b> 1 to In that provide a completed image at a step in the middle of makeup are created using the layers constituting the corrected net makeup image 100. The layers constituting the corrected net makeup image 100 are divided into makeup layers (for example, different layers if the makeup layer is different even for the same concealer) and makeup types (for example, foundation and cheek). The layers constituting the corrected net makeup image 100 are numbered, for example, in the order in which makeup is performed, and the makeup step to which the layer belongs is managed from the layer number. When creating the model makeup face images I1 to In, the layer belonging to the procedure 1 is first read out from the storage unit 37 from the layers constituting the corrected net makeup image 100, and the read layer is the face of the user 14 The model makeup face image I1 of the procedure 1 is generated by performing a composition process to be superimposed on the image 71. Next, the layer belonging to the procedure 2 is read from the storage unit 37, and the sample makeup face image I2 of the procedure 2 is generated by performing a composition process of superimposing the read layer on the model makeup face image I1. Thereafter, the same process is repeated from the procedure 3 to the procedure n to generate model makeup face images I3 to In. The control unit 31 that generates a model makeup face image using the layer of the corrected net makeup image 100 constitutes a makeup intermediate face image generation means.

こうして、全ての化粧ステップにおいて、手本化粧顔画像I1〜Inと、文章からなるユーザ14の化粧手順レシピX1〜Xnとが作成される。そして、制御部31は、手本化粧顔画像I1〜Inと化粧手順レシピX1〜Xnとを用いて、図13に示すように手順別に手本化粧顔画像と化粧方法の説明文書とが配列された化粧手順レシピ表示画面116を表示するためのウェブデータを作成する。そして、制御部31はそのウェブデータを送受信部29からネットワーク11を通じてクライアント端末12に送信する。   Thus, in all makeup steps, the model makeup face images I1 to In and the makeup procedure recipes X1 to Xn of the user 14 composed of sentences are created. Then, the control unit 31 uses the model makeup face images I1 to In and the makeup procedure recipes X1 to Xn to arrange the model makeup face image and the makeup method explanation document for each procedure as shown in FIG. Web data for displaying the makeup procedure recipe display screen 116 is created. Then, the control unit 31 transmits the web data from the transmission / reception unit 29 to the client terminal 12 through the network 11.

クライアント端末12の表示部12bには、図13に示すウェブ画面115が表示される。ウェブ画面115中の化粧手順レシピ表示画面116には、ステップ1からステップnまでのステップごとに、手本化粧顔画像と、化粧方法を説明する化粧手順レシピX1〜Xnに基づく文章が表示される。化粧手順レシピ表示画面116には、やり直しボタン117と、登録ボタン118が設けられている。やり直しボタン117を操作すると、ユーザ14の化粧顔を選択できる画面が表示され、その画面で選択し直した化粧顔の化粧手順レシピを表示し直すことができる。その化粧手順レシピに従って化粧をしてみて気に入った場合などに、登録ボタン118を操作すると、その化粧手順レシピをクライアント端末12又はサーバ20に保存することができる。保存(登録)された化粧手順レシピは、クライアント端末12からサーバ20にアクセスすることによりクライアント端末12の画面に一覧表示させることができ、ユーザ14が登録した中から気に入った化粧手順レシピを選択することにより、化粧顔生成処理を経ず直ぐに化粧手順レシピを表示部12bに表示させることも可能である。   A web screen 115 shown in FIG. 13 is displayed on the display unit 12 b of the client terminal 12. The makeup procedure recipe display screen 116 in the web screen 115 displays a model makeup face image and a sentence based on the makeup procedure recipes X1 to Xn explaining the makeup method for each step from step 1 to step n. . The makeup procedure recipe display screen 116 is provided with a redo button 117 and a registration button 118. When the redo button 117 is operated, a screen for selecting the makeup face of the user 14 is displayed, and the makeup procedure recipe for the makeup face reselected on the screen can be displayed again. If the user operates the registration button 118 when he / she likes to make makeup according to the makeup procedure recipe, the makeup procedure recipe can be stored in the client terminal 12 or the server 20. The stored (registered) makeup procedure recipe can be displayed in a list on the screen of the client terminal 12 by accessing the server 20 from the client terminal 12, and the user can select a favorite makeup procedure recipe from the registered ones. Thus, the makeup procedure recipe can be displayed on the display unit 12b immediately without the makeup face generation process.

図13に示す化粧手順レシピ表示画面116において最上段の手順番号はリンクされており、所望の手順番号を選択すると、その選択した手順に対応する化粧実行画面が表示される。例えば「手順1」を選択操作すると、図15に示すように、手順1の化粧実行画面121を含むウェブ画面120が表示される。化粧実行画面121には、ユーザ14が化粧を行っている様子をカメラ16で撮影した動画が表示される中継画面122と、その手順における手本化粧顔画像I1が表示される手本画面123とが設けられ、それらの下側に化粧方法を説明する化粧手順レシピX1に基づく文章が表示される。中継画面122は鏡の役割をし、ユーザ14はこの中継画面122を見ながら手本画面123内の手本化粧顔を手本にして、提示された化粧方法の説明文書に従って化粧を行う。化粧実行画面121でNEXTボタン124を操作すると、次の手順へ進むことができる。化粧アドバイスボタン125を操作すると、その手順における実際の化粧顔画像と手本化粧顔画像との比較に基づく化粧アドバイスを受けることができる。   In the makeup procedure recipe display screen 116 shown in FIG. 13, the uppermost procedure number is linked. When a desired procedure number is selected, a makeup execution screen corresponding to the selected procedure is displayed. For example, when “procedure 1” is selected and operated, a web screen 120 including a makeup execution screen 121 of procedure 1 is displayed as shown in FIG. The makeup execution screen 121 includes a relay screen 122 on which a moving image of the user 14 performing makeup with the camera 16 is displayed, and a model screen 123 on which a model makeup face image I1 in the procedure is displayed. And a sentence based on the makeup procedure recipe X1 explaining the makeup method is displayed below them. The relay screen 122 serves as a mirror, and the user 14 performs makeup according to the explanation document of the presented makeup method using the model makeup face in the model screen 123 as a model while viewing the relay screen 122. When the NEXT button 124 is operated on the makeup execution screen 121, it is possible to proceed to the next procedure. When the makeup advice button 125 is operated, makeup advice based on a comparison between the actual makeup face image and the model makeup face image in the procedure can be received.

化粧ステップごとに化粧アドバイスを作成する処理は、引用文献2に記載の処理方法と同様である。すなわち、ユーザ14は各化粧ステップの化粧を完成させる度に化粧途中の自分の顔をカメラ16で撮影する。その撮影された化粧顔画像K1(図16を参照)はクライアント端末12の所定記憶領域に書込まれる。その後、入力部12aを操作して図15に示す化粧アドバイスボタン125を操作すると、実際の化粧顔画像がサーバ20に送信され、サーバ20内のメモリに記憶される。   The process of creating makeup advice for each makeup step is the same as the processing method described in Citation 2. That is, the user 14 takes a picture of his / her face during makeup with the camera 16 each time makeup for each makeup step is completed. The photographed makeup face image K1 (see FIG. 16) is written in a predetermined storage area of the client terminal 12. After that, when the makeup advice button 125 shown in FIG. 15 is operated by operating the input unit 12a, the actual makeup face image is transmitted to the server 20 and stored in the memory in the server 20.

サーバ20の制御部31は、手順ごとに撮影された実際の化粧顔画像K1(化粧途中顔画像又は化粧完成顔画像)と、手本化粧顔画像I1(手本の化粧途中顔画像又は手本の化粧完成顔画像)とをメモリから読み出して、図16に示すように化粧顔画像K1と手本化粧顔画像I1との間で化粧状態の差異を演算する。そして、制御部31はこの差異を基にして、ユーザ14の化粧顔画像K1を手本化粧顔画像I1に近づけるための化粧アドバイスを作成する。サーバ20は化粧アドバイスをクライアント端末12に送信し、図17に示す化粧アドバイス表示画面Jj(j=1,2,…,n)を手順ごとに表示させる。化粧アドバイスは、好ましい実施形態では、少なくとも文章を含むが、もちろん化粧アドバイスは、文書、音声、画像のうち少なくとも1つであれば足りる。カメラ16及びクライアント端末12側の送受信部及び送受信部29は化粧途中顔画像取得手段を構成する。また、化粧顔画像と手本化粧顔画像との間で化粧状態の差異を演算する制御部31は化粧顔差異取得手段を構成する。化粧顔の差異を基にして化粧アドバイスを作成する制御部31はアドバイス手段を構成する。化粧アドバイスを表示するクライアント端末12の表示部12bは出力手段を構成する。   The control unit 31 of the server 20 includes an actual makeup face image K1 (makeup face image or makeup completed face image) photographed for each procedure, and a model makeup face image I1 (model makeup face image or model). ) And the makeup state difference between the makeup face image K1 and the model makeup face image I1 is calculated as shown in FIG. Then, based on this difference, the control unit 31 creates makeup advice for bringing the makeup face image K1 of the user 14 closer to the model makeup face image I1. The server 20 transmits makeup advice to the client terminal 12 and displays a makeup advice display screen Jj (j = 1, 2,..., N) shown in FIG. 17 for each procedure. In the preferred embodiment, the makeup advice includes at least a sentence. Of course, the makeup advice may be at least one of a document, sound, and image. The camera 16 and the transmission / reception unit 29 on the client terminal 12 side and transmission / reception unit 29 constitute a makeup intermediate face image acquisition means. Moreover, the control part 31 which calculates the difference in makeup | decoration state between a makeup face image and a model makeup face image comprises a makeup face difference acquisition means. The control unit 31 that creates makeup advice based on the difference in makeup face constitutes advice means. The display unit 12b of the client terminal 12 that displays makeup advice constitutes output means.

図17に示す化粧アドバイス表示画面J1〜Jnには、実際の化粧顔画像K1〜Knと手本化粧顔画像I1〜Inが表示される他に、手本化粧顔画像I1〜Inと化粧顔画像K1〜Knとの差異に基づきサーバ20内の制御部31が作成した化粧アドバイスR1〜Rn(文書)が表示される。この化粧アドバイスR1〜Rnは、ユーザ14が化粧を行った実際の化粧顔画像Kj(j=1,2,…,n)に対して手本化粧顔画像Ij(j=1,2,…,n)と異なる部分の指摘や、その部分の修正方法など、ユーザ14の化粧顔を手本化粧顔画像Ijに近づけさせるためのアドバイスが表示される。ユーザ14はこの操作を各手順ごとに繰り返し行い、この化粧アドバイス表示画面J1〜Jnは各手順1〜nごとにそれぞれ表示される。   In addition to the actual makeup face images K1 to Kn and the model makeup face images I1 to In displayed on the makeup advice display screens J1 to Jn shown in FIG. 17, the model makeup face images I1 to In and the makeup face images Cosmetic advices R1 to Rn (documents) created by the control unit 31 in the server 20 based on the difference from K1 to Kn are displayed. The makeup advices R1 to Rn correspond to the model makeup face image Ij (j = 1, 2,...) With respect to the actual makeup face image Kj (j = 1, 2,. Advice for bringing the makeup face of the user 14 close to the model makeup face image Ij, such as pointing out a different part from n) and a method for correcting the part, is displayed. The user 14 repeats this operation for each procedure, and the makeup advice display screens J1 to Jn are displayed for each procedure 1 to n.

ユーザ14はこの化粧アドバイス表示画面J1〜Jnを見ることで、提供された化粧方法に従って自分が施した化粧に対して、手本化粧顔画像の通りに化粧を行ったか否かの適正な判断を受けることが可能になる。また、手順ごとに化粧アドバイスを受ける構成であるので、例えば全て化粧が終わった後にその化粧状態を手本化粧顔画像と比較する場合に比べ、化粧修正時に大幅な修正を行う必要がなくなる。   By viewing the makeup advice display screens J1 to Jn, the user 14 makes an appropriate judgment as to whether or not makeup has been applied according to the makeup face image of the user according to the makeup method provided. It becomes possible to receive. Further, since the makeup advice is received for each procedure, for example, compared with a case where the makeup state is compared with the model makeup face image after all makeup is completed, it is not necessary to make a significant correction at the time of makeup correction.

以上詳述したように、好ましい実施形態によれば、以下の効果を得ることができる。
(1)ユーザ14とサンプルとの顔の輪郭の差異を補う化粧(補正画像)が、マッチング処理後の正味化粧画像74に追加されるので、サンプル化粧顔に近いユーザ14の化粧顔画像を提供できる。
As described above in detail, according to the preferred embodiment, the following effects can be obtained.
(1) Since makeup (corrected image) that compensates for the difference in facial contour between the user 14 and the sample is added to the net makeup image 74 after the matching process, a makeup face image of the user 14 that is close to the sample makeup face is provided. it can.

(2)ユーザ14とサンプルとの間の目、眉、鼻、口などのパーツ形状の差異を補う化粧(補正画像)が、マッチング処理後の正味化粧画像74に追加されるので、サンプル化粧顔画像により近いユーザ14の化粧顔画像を提供できる。   (2) Since makeup (corrected image) that compensates for differences in the shape of parts such as eyes, eyebrows, nose, and mouth between the user 14 and the sample is added to the net makeup image 74 after the matching process, the sample makeup face A makeup face image of the user 14 closer to the image can be provided.

(3)ユーザ14とサンプルとの間の顔パーツレイアウトの差異を補う化粧(補正画像)が、マッチング処理後の正味化粧画像74に追加されるので、サンプル化粧顔により近い化粧が施されたユーザ14の化粧顔を提供できる。   (3) Since makeup (corrected image) that compensates for the difference in the facial part layout between the user 14 and the sample is added to the net makeup image 74 after the matching process, the user who has applied makeup that is closer to the sample makeup face 14 makeup faces can be provided.

(4)サンプル化粧顔用の化粧手順レシピ中の文章を補正して、ユーザ14の化粧手順レシピの文章を作成するので、ありうる全ての説明文章をデータベースとして用意する必要がなく、補正用の文章部分のみをデータベースとして持てばよいので、化粧手順レシピのデータベースのために必要な記憶容量を少なく抑えられる。   (4) Since the text in the makeup procedure recipe for the sample makeup face is corrected and the makeup procedure recipe text of the user 14 is created, it is not necessary to prepare all possible explanatory texts as a database, and for correction Since it is only necessary to have the sentence portion as a database, the storage capacity required for the database of makeup procedure recipes can be reduced.

(5)補正後正味化粧画像100を構成するレイヤは、化粧ステップ毎に番号などが付されて分類されている。そのため、化粧ステップごとのレイヤを、ユーザ14の素顔画像に追加したり、前の化粧ステップにおける化粧途中顔画像に追加する画像処理を行えば、化粧ステップごとに化粧途中顔画像を簡単に作成できる。   (5) The layers constituting the corrected net makeup image 100 are classified with numbers and the like for each makeup step. Therefore, if a layer for each makeup step is added to the face image of the user 14 or an image process is performed to add to the makeup face image in the previous makeup step, the makeup face image can be easily created for each makeup step. .

(6)ユーザ14が各化粧ステップで化粧途中顔を完成させると、その化粧途中顔の写真画像を読み込ませることにより、実際に化粧を施したユーザ14の化粧途中顔と目標とすべき化粧途中顔との差異を抽出し、その抽出した差異を補う化粧法を化粧アドバイスとして提供する。よって、ユーザ14は各化粧ステップにおいて目標どおりの化粧途中顔を完成させて、次の化粧手順に進むことができ、ユーザ14の素顔を化粧顔画像どおりの化粧顔に仕上げることができる。そのため、出来上がった化粧顔が希望の化粧顔からかけ離れてしまう頻度を少なくできる。   (6) When the user 14 completes a makeup intermediate face in each makeup step, by reading a photo image of the makeup intermediate face, the makeup intermediate face of the user 14 who actually applied makeup and the makeup intermediate to be targeted A makeup method that extracts the difference from the face and compensates for the extracted difference is provided as makeup advice. Therefore, the user 14 can complete the makeup face as the target in each makeup step and proceed to the next makeup procedure, and can finish the user 14's face as a makeup face according to the makeup face image. Therefore, it is possible to reduce the frequency with which the finished makeup face is far from the desired makeup face.

(7)ユーザ14とサンプルとの間の差異を補う化粧を追加するかどうか、化粧支援画面において、顔の輪郭、パーツ形状、顔パーツレイアウトなどの項目のうちから少なくとも一つを選択できる構成とした。このため、この種の差異を補う化粧を追加する場合と、追加しない場合、またある項目のみ差異を補う化粧を追加するなど、色々試して作成されたユーザ14の化粧顔画像を比較して、ユーザ14は所望の化粧顔を目標化粧顔として選択できる。このため、ユーザ14は、いろいろ試した化粧顔画像の中から、所望の化粧顔画像を手本として選択できる。また、自分の顔のうち好みの特徴を残したい場合は、その残したい顔の特徴部分を、項目から外せば、その特徴を維持したユーザ14の化粧顔画像を生成することができる。そのため、自分の気に入った顔の特徴を残しつつ、顔のその特徴以外の部分についてはサンプル化粧顔に近づけた化粧顔画像を取得できる。   (7) A configuration in which at least one of items such as a face outline, a part shape, and a face part layout can be selected on the makeup support screen, whether makeup to compensate for the difference between the user 14 and the sample is added did. For this reason, comparing the makeup face image of the user 14 created by various trials such as adding makeup that compensates for this kind of difference, not adding, or adding makeup that compensates for only a certain item, The user 14 can select a desired makeup face as the target makeup face. For this reason, the user 14 can select a desired makeup face image as a model from variously tested makeup face images. Further, when it is desired to leave a favorite feature of one's own face, if the feature portion of the desired face is removed from the item, a makeup face image of the user 14 maintaining the feature can be generated. Therefore, it is possible to acquire a makeup face image that is close to the sample makeup face for a portion other than the feature of the face while leaving the feature of the face that the user likes.

(8)またパーツ形状を選択した場合は、眉、目、鼻、口の各パーツ形状の中から所望の少なくとも一つを選択できる構成としたので、ユーザ14は、眉、目、鼻、口の各パーツ形状の中から所望の少なくとも一つを選択しつつ化粧顔画像をいろいろ試して、そのうち所望の化粧顔画像を手本として選択することができる。また、自分の顔のうち好みのパーツの特徴を残したい場合は、その残したい顔のパーツを、項目から外せば、そのパーツの特徴が残るかたちでユーザ14の化粧顔画像を生成することができる。そのため、自分の気に入った顔のパーツの特徴を残しつつ、顔のそのパーツ以外の部分についてはサンプル化粧顔に近づけた化粧顔画像を取得できる。   (8) When the part shape is selected, since at least one desired part shape can be selected from the eyebrow, eye, nose, and mouth part shapes, the user 14 can select the eyebrow, eyes, nose, mouth. Various makeup face images can be tried while selecting at least one desired shape from the respective part shapes, and a desired makeup face image can be selected as a model. Also, if you want to keep the features of your favorite part of your face, remove the face part you want to leave from the item, and you can generate the makeup face image of the user 14 in the form that the feature of that part remains. it can. Therefore, it is possible to acquire a makeup face image that is close to the sample makeup face for a portion other than the part of the face while keeping the features of the face parts that the user likes.

(9)ユーザ14及びサンプルの画像として2次元画像ではなく、3次元画像を使用した場合、鼻の高さや目の窪み、頬、額、口の突出量などの立体情報を取得し、ユーザ14とサンプルにおける立体情報の差異を補う化粧を、正味化粧画像に追加することができる。よって、立体的にもサンプル化粧顔に近づけたユーザ14の化粧顔を提供できる。   (9) When a three-dimensional image is used as the user 14 and the sample image instead of the two-dimensional image, three-dimensional information such as the height of the nose, the depression of the eyes, the cheek, the forehead, and the protruding amount of the mouth is acquired. And makeup that compensates for the difference in the three-dimensional information in the sample can be added to the net makeup image. Therefore, the makeup face of the user 14 that is close to the sample makeup face in three dimensions can be provided.

好ましい実施形態は以下のように変更してもよい。
好ましい実施形態では、補正画像をレイヤとして追加したが、正味化粧画像に補正用の正味化粧画像を施す処理方法はレイヤを追加する方法に限定されない。例えば正味化粧画像74を構成するレイヤに補正画像を直接追加したり、そのレイヤの画像を一部消去するなどの画像処理を行う構成も採用できる。要するに正味化粧画像にユーザ14とサンプル化粧顔の素顔の輪郭、パーツ形状、顔パーツレイアウトのうち少なくとも一つの差異を補うような化粧の画像を施す構成であれば足りる。また、正味化粧画像73,74がレイヤ構造をとることも必須ではない。
The preferred embodiment may be modified as follows.
In the preferred embodiment, the correction image is added as a layer. However, the processing method for applying the correction net makeup image to the net makeup image is not limited to the method of adding a layer. For example, a configuration in which a correction image is directly added to a layer constituting the net makeup image 74 or image processing such as partial deletion of the image of the layer can be employed. In short, a configuration in which a makeup image that compensates for at least one of the contour, part shape, and face part layout of the user 14 and the sample makeup face is sufficient for the net makeup image. Further, it is not essential that the net makeup images 73 and 74 have a layer structure.

好ましい実施形態では、顔の輪郭、パーツ形状、顔パーツレイアウトについてそれらの差異を補う補正後正味化粧画像100を正味化粧画像に付加する構成としたが、上記の三つすべてを採用することに限定されない。例えば顔の輪郭のみ、パーツ形状のみ、顔パーツレイアウトのみを採用したり、顔の輪郭とパーツ形状、顔の輪郭と顔パーツレイアウト、パーツ形状と顔パーツレイアウトのように二つを採用したりしてもよい。また、パーツ形状として、目、眉、鼻、口を採用したが、これらのうち一のみ、二つのみ、三つのみを採用してもよい。さらに他の要素の差異を補う化粧を付加する構成も採用できる。例えばユーザ14とサンプルとの地肌の色の差異を補う化粧を正味化粧画像に付加する構成でもよい。つまり、ユーザ14の顔地肌色がサンプルの顔地肌色より濃い場合は、ファンデーションの色をサンプルのものより薄くし、その逆にユーザ14の顔地肌色がサンプルのそれより薄い場合は、ファンデーションの色をサンプルのものより濃くする。これとは逆の濃度を選択する構成でもよく、例えばユーザ14の顔地肌色がサンプルの顔地肌色より濃い場合は、ファンデーションの色をサンプルのものより濃くし、その逆にユーザ14の顔地肌色がサンプルのそれより薄い場合は、ファンデーションの色をサンプルのものより薄くする。この構成によれば、サンプルと同じ色のファンデーションを用いたことにより、ユーザ14の顔地肌とファンデーションとの色が違い過ぎてユーザ14が不自然な顔色になることを避けることができる。   In the preferred embodiment, the corrected net makeup image 100 is added to the net makeup image to compensate for the differences in facial contour, part shape, and facial part layout. However, the present invention is limited to adopting all three above. Not. For example, only the face outline, only the part shape, only the face part layout, or the face outline and part shape, the face outline and face part layout, the part shape and face part layout, etc. May be. Moreover, although eyes, eyebrows, noses, and mouths are employed as the part shapes, only one, only two, or only three of these may be employed. Furthermore, the structure which adds the makeup | decoration which compensates for the difference of another element is also employable. For example, a configuration in which makeup that compensates for the difference in background color between the user 14 and the sample may be added to the net makeup image. In other words, if the user's 14 skin color is darker than the sample's facial skin color, the foundation color is made lighter than that of the sample, and conversely if the user 14's facial skin color is lighter than that of the sample, Make the color darker than the sample. For example, when the user's 14 skin color is darker than the sample skin color, the foundation color is darker than that of the sample, and vice versa. If the skin color is lighter than that of the sample, make the foundation color lighter than that of the sample. According to this configuration, by using the foundation having the same color as that of the sample, it is possible to prevent the user 14 from having an unnatural facial color because the color of the face background of the user 14 and the foundation are too different.

サンプル化粧顔の画像は、実際の人物の化粧顔の画像に限られず、画像処理した化粧顔画像であってもよい。例えば、化粧モデルのような他人の化粧顔画像とユーザ14の素顔の画像とをモーフィング合成した化粧顔を、ユーザ好みの化粧顔として選択してもよい。モーフィング合成する場合に、目、眉、鼻、口、顔の輪郭のうち少なくとも一つを選択し、その選択したパーツや顔の部分についてのみユーザ14の顔画像と化粧モデルの化粧顔画像とを合成してもよい。化粧モデルの素顔の画像は、ユーザ14の素顔画像と化粧モデルの素顔画像とを、ユーザ好みの化粧顔画像を合成したときと同じ条件でモルフィング処理を行って合成することで取得できる。そして、正味化粧画像は、モルフィングで生成したユーザ好みの化粧顔像から、モルフィングで生成した素顔の画像を差し引く処理を行って取得する。   The sample makeup face image is not limited to the makeup image of an actual person, and may be a makeup face image obtained by image processing. For example, a makeup face obtained by morphing and synthesizing another person's makeup face image such as a makeup model and the user's 14 face image may be selected as the user's favorite makeup face. When performing morphing synthesis, at least one of the eyes, eyebrows, nose, mouth, and face outline is selected, and the face image of the user 14 and the makeup face image of the makeup model are selected only for the selected parts and face portions. You may synthesize. The face image of the makeup model can be obtained by combining the face image of the user 14 and the face image of the makeup model by performing a morphing process under the same conditions as when the user's favorite makeup face image is combined. The net makeup image is acquired by performing a process of subtracting the face image generated by morphing from the user's favorite makeup image generated by morphing.

好ましい実施形態では、サーバ20が化粧支援処理を行ってその処理結果をクライアント端末12に送信する構成であったが、クライアント端末が、サーバからダウンロードした化粧支援処理プログラム(化粧顔画像生成処理プログラムを含む)を実行することにより、クライアント端末12を化粧顔画像生成装置として構成することもできる。化粧支援プログラムの一部をクライアント端末がサーバからダウンロードし、クライアント端末のCPUがそのプログラムを実行して化粧支援処理を実行するとともに、データベースへのアクセスが必要な処理についてはサーバに必要なデータを送信して、サーバがそのデータを基にデータベースにアクセスして必要なデータ(画像又は文書)を取得して必要に応じて所定の処理を施した後にデータをクライアント端末12に送信する構成も採用できる。   In the preferred embodiment, the server 20 performs makeup support processing and transmits the processing result to the client terminal 12. However, the client terminal downloads the makeup support processing program (makeup face image generation processing program downloaded from the server). In other words, the client terminal 12 can be configured as a makeup face image generation device. The client terminal downloads a part of the makeup support program from the server, and the CPU of the client terminal executes the program to execute the makeup support process, and for the process that requires access to the database, the necessary data is stored in the server. A configuration is also adopted in which the server accesses the database based on the data, acquires necessary data (image or document), performs predetermined processing as necessary, and then transmits the data to the client terminal 12. it can.

化粧アドバイスシステムは、ネットワークを通じて互いに接続されたサーバとクライアント端末とにより構成することに限定されない。例えばパーソナルコンピュータやワークステーション、PDA(Personal Digital Assistants)、携帯電話機に、例えばCD−ROM等の記憶媒体から化粧支援処理プログラムをインストールし、その化粧支援処理プログラムを内蔵のCPUに実行させることで、化粧支援装置を構成することもできる。この化粧支援装置は、入力したユーザ14の素顔画像と化粧モデルの素顔の画像とを用いて、ユーザ14の素顔画像と化粧モデル等の素顔画像との差を補う補正処理を正味化粧画像に施して、その補正された正味化粧画像をユーザ14の素顔画像に合成して生成したユーザ14の化粧顔画像を、モニタに表示する化粧顔画像生成装置として機能する。この場合、パーソナルコンピュータ等にカメラ(画像撮影手段)を接続又は組み付け、ユーザ14の素顔や化粧アドバイス時の化粧途中顔などを撮影する画像撮影手段、及びユーザ好みの化粧顔や化粧アドバイス内容などを表示するモニタ等の表示手段を備えた化粧支援装置として構成することもできる。   The makeup advice system is not limited to being configured by a server and a client terminal connected to each other through a network. For example, by installing a makeup support processing program from a storage medium such as a CD-ROM in a personal computer, workstation, PDA (Personal Digital Assistants), or mobile phone, and causing the built-in CPU to execute the makeup support processing program, A makeup support apparatus can also be configured. This makeup support apparatus performs correction processing on the net makeup image to compensate for the difference between the user's 14 face image and the makeup model's face image using the input user's 14 face image and the makeup model's face image. Then, it functions as a makeup face image generation device that displays the makeup face image of the user 14 generated by combining the corrected net makeup image with the face image of the user 14 on the monitor. In this case, a camera (image photographing means) is connected or assembled to a personal computer or the like, and an image photographing means for photographing the user's 14 face or a makeup intermediate face at the time of makeup advice, and a user's favorite makeup face or makeup advice content, etc. It can also be configured as a makeup support apparatus having display means such as a monitor for displaying.

好ましい実施形態では、化粧アドバイスを行ったが、化粧アドバイスをしない構成でもよい。例えばユーザ14の化粧顔画像(手本化粧顔)を表示させるだけの化粧顔画像生成装置としてもよい。化粧アドバイスを行う場合についても、前記実施形態のようにサンプル化粧手順レシピを修正して化粧手順レシピを作成する構成に限定されない。例えば、各手順の化粧顔画像を分析して、その分析結果を基にコンピュータが化粧手順レシピを作成してもよい。   In a preferred embodiment, makeup advice is given, but a configuration without makeup advice may be used. For example, a makeup face image generation apparatus that only displays the makeup face image (model makeup face) of the user 14 may be used. The case where makeup advice is performed is not limited to the configuration in which the makeup procedure recipe is created by correcting the sample makeup procedure recipe as in the embodiment. For example, the makeup face image of each procedure may be analyzed, and the computer may create a makeup procedure recipe based on the analysis result.

好ましい実施形態では、コンピュータにプログラムを実行させることでソフトウェアにより実現したが、例えば制御回路(カスタムICなど)によりハードウェアで実現してもよく、ハードウェアとソフトウェアとの協働により実現してもよい。   In the preferred embodiment, it is realized by software by causing a computer to execute a program. However, it may be realized by hardware such as a control circuit (custom IC or the like), or may be realized by cooperation of hardware and software. Good.

本発明の好ましい実施形態に従う化粧アドバイスシステムを示す模式図。The schematic diagram which shows the makeup | decoration advice system according to preferable embodiment of this invention. 化粧支援装置のブロック図。The block diagram of a makeup | decoration assistance apparatus. 化粧支援処理のフローチャート。The flowchart of a makeup | decoration assistance process. サンプル化粧顔選択画面の例。An example of a sample makeup face selection screen. 選択画面の例。Example of selection screen. サンプル化粧顔とその正味化粧画像を説明する説明図。Explanatory drawing explaining a sample makeup face and its net makeup image. 正味化粧画像のマッチング処理を説明する説明図。Explanatory drawing explaining the matching process of a net makeup image. 顔の輪郭補正の例。An example of face contour correction. 目の形状補正の例。An example of eye shape correction. 口の形状補正の例。An example of mouth shape correction. 顔パーツレイアウト補正処理を説明する説明図。Explanatory drawing explaining a face parts layout correction process. 化粧顔表示画面の例。An example of a makeup face display screen. 化粧手順レシピ表示画面の例。An example of a makeup procedure recipe display screen. (a),(b)化粧手順レシピの説明図。(A), (b) Explanatory drawing of a makeup | decoration procedure recipe. 化粧実行画面の例。An example of a makeup execution screen. 化粧アドバイス処理を説明する説明図。Explanatory drawing explaining makeup advice processing. 各手順における化粧アドバイス表示画面の例。The example of the makeup | decoration advice display screen in each procedure.

Claims (20)

ユーザの顔の画像からそのユーザ専用手本化粧顔の画像を生成する装置であって、
前記ユーザによって選択されたサンプル化粧顔の画像、前記サンプル化粧顔の素顔の画像、及び前記サンプル化粧顔の素顔の画像と前記サンプル化粧顔の画像との差に対応する正味の化粧画像を記憶する記憶手段と、
前記ユーザの素顔の画像を取得する顔画像取得手段と、
前記正味の化粧画像を前記ユーザの素顔の画像にマッチングさせる処理を行って、マッチング済みの正味化粧画像を生成するマッチング処理手段と、
前記サンプル化粧顔の素顔の画像と前記ユーザの素顔の画像の各々に対して特徴抽出を行って、各素顔の特徴を取得し、両素顔の特徴の差異を取得する素顔差異取得手段と、
前記ユーザの素顔を前記サンプル化粧顔の素顔に似せるために前記ユーザの素顔に施すべき化粧であって前記素顔の特徴の差異を小さくする当該化粧の画像を表す素顔補正用化粧画像を取得す素顔補正用化粧画像取得手段と、
前記素顔補正用化粧画像と、前記マッチング済みの正味化粧画像とを、前記ユーザの素顔の画像に付加する合成処理を行って、ユーザ専用手本化粧顔の画像を生成する画像合成手段とを備えたことを特徴とする化粧顔画像生成装置
An apparatus for generating a user-specific model makeup face image from a user face image,
The sample makeup face image selected by the user, the sample makeup face image, and the net makeup image corresponding to the difference between the sample makeup face image and the sample makeup face image are stored. Storage means;
Face image acquisition means for acquiring an image of the user's face;
Matching processing means for generating a matched net makeup image by performing processing for matching the net makeup image with the user's face image,
Performing feature extraction on each of the sample makeup face image and the user's face image, obtaining the feature of each face, and obtaining a difference between the features of both faces;
You get a real face correction cosmetic image representing an image of the makeup to reduce the difference in characteristics of the real face of the sample decorative face of the to resemble real face said a cosmetic to be applied to the real face of the user real face of the user and the real face correction cosmetic image acquisition hand stage,
Said real face correcting cosmetic image, wherein the Matched net makeup image, before SL performs synthetic processing to add the user's real face image and an image synthesizing means for generating an image of the user-specific model makeup face A makeup face image generation apparatus comprising the makeup face image generation apparatus .
前記画像合成手段は、前マッチング済みの正味化粧画像に前記素顔補正用化粧画像を付加して補正後の正味化粧画像を生成する画像補正手段を備え、前記補正後の正味化粧画像を前記ユーザの素顔の画像に付加する合成処理を行って、前記ユーザ専用手本化粧顔の画像を生成することを特徴とする請求項1に記載の化粧顔画像生成装置。 The image synthesizing means, prior SL includes an image correction means for generating a positive Ajika粧image compensation after by adding Matched net makeup the real face correcting cosmetic image on an image, the corrected net makeup image The makeup face image generating apparatus according to claim 1 , wherein the image of the user-specific model makeup face is generated by performing a composition process for adding the image to the user's face image . 前記正味の化粧画像は、前記サンプル化粧顔の素顔から前記サンプル化粧顔に至るまでの複数の化粧層に対応する複数のレイヤを含むことを特徴とする請求項1又は2に記載の化粧顔画像生成装置。3. The makeup face image according to claim 1, wherein the net makeup image includes a plurality of layers corresponding to a plurality of makeup layers from the face of the sample makeup face to the sample makeup face. 4. Generator . 前記素顔差異取得手段は、前記ユーザの素顔の画像と前記サンプル化粧顔の素顔の画像から、両顔の輪郭と、両素顔の輪郭の差を取得し、
前記素顔補正用化粧画像取得手段は、前記輪郭の差異を少なく見せるための素顔輪郭補正用化粧画像を前記素顔補正用化粧画像として取得することを特徴とする請求項1乃至3のいずれか一項に記載の化粧顔画像生成装置。
The real face difference obtaining means, from the real face of the image of the image with the sample decorative face of the real face of the user, acquires the contour of both the face, the difference between different contours of both real face,
The real face correction makeup image acquisition unit, any one of claims 1 to 3, characterized in that to obtain the real face contour correction cosmetic picture image for showing less difference in the contour as the real face correction cosmetic image The makeup face image generation apparatus according to the item .
前記素顔差異取得手段は、前記ユーザの素顔の画像と前記サンプル化粧顔の素顔の画像の各々に対して特徴抽出を行って、両素顔のパーツの形状を取得し、両素顔間の対応するパーツの形状の差異を取得し、
前記素顔補正用化粧画像取得手段は、前記パーツの形状の差異を少なく見せるためのパーツ形状補正画像を前記素顔補正用化粧画像として取得することを特徴とする請求項1乃至4のいずれか一項に記載の化粧顔画像生成装置。
The face difference acquisition means performs feature extraction on each of the user's face image and the sample makeup face's face image to acquire the shape of both face parts, and the corresponding parts between the face faces. To get the difference in the shape of
The real face correction makeup image acquisition unit, any one of claims 1 to 4, characterized in that to obtain the part shape correction image image for showing less difference in the shape of the part as the real face correction cosmetic image The makeup face image generation apparatus according to the item .
前記パーツは、目、眉、鼻及び口のうちの少なくとも一つであることを特徴とする請求項5に記載の化粧顔画像生成装置。The makeup part image generation apparatus according to claim 5, wherein the part is at least one of eyes, eyebrows, nose, and mouth. 前記素顔差異取得手段は、前記ユーザの素顔の画像と前記サンプル化粧顔の素顔の画像の各々から、顔パーツレイアウトを取得し、両素顔間の顔パーツレイアウトの差異を取得し、
前記素顔補正用化粧画像取得手段は、前記顔パーツレイアウトの差異を少なく見せるための素顔パーツレイアウト補正用化粧画像を前記素顔補正用化粧画像として取得することを特徴とする請求項1乃至6のいずれか一項に記載の化粧顔画像生成装置。
The face difference acquisition unit acquires a face part layout from each of the user's face image and the sample makeup face's face image, and acquires a difference in face part layout between both face faces,
The real face correction makeup image acquisition unit of claim 1 to 6, characterized in that to obtain the real face parts layout correction cosmetic picture image for showing less difference in the face parts layout as the real face correction cosmetic image The makeup | decoration face image generation apparatus as described in any one of Claims .
前記画像合成手段が前記素顔補正用化粧画像を付加する処理を行うか否かを前記ユーザの操作に従って選択する選択手段を更に備えたことを特徴とする請求項1乃至7のいずれか一項に記載の化粧顔画像生成装置 Any one of claims 1 to 7, characterized in that said image synthesizing means further comprising selection means for selecting in accordance with the operation of the user whether to perform a process of pressurizing with the real face correction cosmetic image The makeup face image generation device described in 1 . 前記記憶手段は、前記素顔の特徴の差異の種類と程度に対応付けられた差異解消用画像と、前記ユーザの素顔の画像において前記差異解消用画像を付加する位置とを記憶し、
前記素顔補正用化粧画像取得手段は、前記素顔の特徴の差異の種類と程度に応じた差異解消用画像と位置とを前記記憶手段から読み出し、
前記画像合成手段は、前記読み出した差異解消用画像を前記ユーザの素顔の画像中の前記読み出した位置に付加することを特徴とする請求項1乃至8のいずれか一項に記載の化粧顔画像生成装置。
The storage means may store a difference eliminating image associated with the type and extent of the difference in characteristics of the real face and the location for adding the difference solution extinguishing images in real face image of the user,
The face correction makeup image acquisition means reads from the storage means the difference elimination image and position according to the type and degree of difference in the features of the face.
The image synthesizing means, cosmetic face image according to any one of claims 1 to 8, characterized in that the addition of the read differences resolved image to the read position in the image of the real face of the user Generator .
前記記憶手段は、前記差異解消用画像を前記位置に付加するためのプロシージャ情報を記憶し、
前記素顔補正用化粧画像取得手段は、前記差異解消用画像、前記位置及び前記プロシージャ情報を前記記憶手段から読み出し、
前記画像合成手段は、前記プロシージャ情報に従って、前記読み出した差異解消用画像を前記ユーザの素顔の画像中の前記読み出した位置に付加することを特徴とする請求項9に記載の化粧顔画像生成装置。
The storage means stores procedure information for adding the difference eliminating image to the position,
The face correction makeup image acquisition means reads the difference elimination image, the position and the procedure information from the storage means,
The makeup image generating apparatus according to claim 9, wherein the image synthesis unit adds the read difference-resolving image to the read position in the user's face image according to the procedure information. .
前記サンプル化粧顔に対応する素顔から前記サンプル化粧顔に対応する化粧顔に化粧するための手順を、文書、音声及び画像のうち少なくとも一つで説明する第1化粧手順レシピを記憶するレシピ記憶手段と、
前記ユーザの顔から前記ユーザ専用手本化粧顔に化粧するための手順を、文書、音声及び画像のうち少なくとも一つで説明する第2化粧手順レシピを作成する化粧手順作成手段とを更に備え、
前記化粧手順作成手段は、前記サンプル化粧顔に対応する前記第1化粧手順レシピを前記レシピ記憶手段から読み出し、前記第1化粧手順レシピにおいて、前記素顔補正用化粧画像に対応する一部を修正して、前記第2化粧手順レシピを作成することを特徴とする請求項1乃至10のいずれか一項に記載の化粧顔画像生成装置。
Recipe storage means for storing a first makeup procedure recipe for explaining a procedure for applying makeup from a bare face corresponding to the sample makeup face to a makeup face corresponding to the sample makeup face by at least one of a document, sound and image When,
A makeup procedure creating means for creating a second makeup procedure recipe for explaining a procedure for applying makeup from the user's face to the user-specific model makeup face using at least one of a document, sound and image;
The makeup procedure creation means reads the first makeup procedure recipe corresponding to the sample makeup face from the recipe storage means, and corrects a part corresponding to the makeup image for face correction in the first makeup procedure recipe. Te, cosmetic facial image generating apparatus according to any one of claims 1 to 10, characterized in that to create the second cosmetic procedures recipe.
前記素顔補正用化粧画像と前マッチング済みの味化粧画像は、複数の化粧ステップとそれぞれ対応付けられた複数のレイヤから構成され、前記装置は更に、
前記ユーザの素顔の画像に、前記化粧ステップの進行に伴って前記レイヤを順次合成して、各化粧ステップにおける途中の手本化粧顔の画像を作成する化粧途中顔画像生成手段を備えることを特徴とする請求項1乃至11のいずれか一項に記載の化粧顔画像生成装置。
The real face correction makeup image and the previous Matched positive Ajika粧image is composed of a plurality of makeup step and a plurality of layers respectively associated with said apparatus further
A makeup intermediate face image generating means is provided for sequentially synthesizing the layers with the face image of the user as the makeup step proceeds to create an image of a model makeup face in the middle of each makeup step. The makeup face image generation device according to any one of claims 1 to 11 .
各化粧ステップにおける前記ユーザの実際の化粧途中顔の画像と、前記各化粧ステップにおける途中の手本化粧顔の画像とを取得する化粧途中顔画像取得手段と、
前記実際の化粧途中顔画像と、前記途中の手本化粧顔の画像との差異を取得する途中化粧顔差異取得手段と、
前記途中化粧顔差異取得手段により取得された前記差異を減らすための化粧手順レシピを文書、音声、画像のうち少なくとも一つで説明する化粧アドバイスを生成するアドバイス手段とを更に備えることを特徴とする請求項12に記載の化粧顔画像生成装置。
A makeup intermediate face image acquisition means for acquiring an image of the user's actual makeup intermediate face in each makeup step and an image of a model makeup face in the middle of each makeup step;
A midway makeup face difference obtaining means for obtaining a difference between the actual makeup midway face image and the image of the model makeup face on the way;
An advice means for generating makeup advice that explains the makeup procedure recipe for reducing the difference acquired by the midway makeup face difference acquisition means by at least one of a document, a sound, and an image is further provided. The makeup face image generation device according to claim 12 .
前記サンプル化粧顔の画像は、複数の他人の化粧顔の画像から前記ユーザによって選択された、ユーザ好みの化粧が施された他人の化粧顔の画像であり、前記記憶手段は、前記複数の他人の化粧顔の画像と前記複数の他人の素顔とを互いに対応付けて記憶していることを特徴とする請求項1乃至13のいずれか一項に記載の化粧顔画像生成装置。The sample makeup face image is an image of another person's makeup face selected by the user from a plurality of other person's makeup face images and having a user's favorite makeup, and the storage means is the plurality of others The makeup face image generation apparatus according to any one of claims 1 to 13, wherein the makeup face image and the plurality of others' face faces are stored in association with each other. 前記装置は、クライアント端末とネットワークを介して接続されたサーバであり、前記サーバは、
前記クライアント端末から開始要求を受けたときに、前記ユーザ専用手本化粧顔の画像の生成処理を開始し、
前記ユーザの素顔の画像を前記クライアント端末から受信し、
前記ユーザ専用手本化粧顔の画像を前記クライアント端末に送信することを特徴とする請求項1乃至14のいずれか一項に記載の化粧顔画像生成装置。
The apparatus is a server connected to a client terminal via a network, and the server
When receiving the start request from the client terminal starts generate processing of the user-specific model makeup face image,
Receiving an image of the user's face from the client terminal;
Makeup face image generating apparatus according to any one of claims 1 to 14 and transmits the image of the user-specific model makeup face to the client terminal.
前記装置は、サーバとネットワークを介して接続されるとともに、前記サーバからダウンロードした化粧顔画像生成処理プログラムを実行するプロセッサを内蔵するクライアント端末であり、
前記記憶手段は、前記クライアント端末に設けられており、前記サーバから受信した前記サンプル化粧顔の画像、前記サンプル化粧顔の素顔の画像及び前記正味の化粧画像を記憶し、
前記素顔補正用化粧画像取得手段は、前記クライアント端末に設けられており、前記サーバにアクセスして、前記両素顔の特徴の差異に応じた前記素顔補正用化粧画像を取得することを特徴とする請求項1乃至15のいずれか一項に記載の化粧顔画像生成装置。
The apparatus is a client terminal that is connected to a server via a network and incorporates a processor that executes a makeup face image generation processing program downloaded from the server,
The storage means is provided in the client terminal and stores the sample makeup face image, the sample makeup face image and the net makeup image received from the server,
The face correction makeup image acquisition means is provided in the client terminal, and accesses the server to acquire the face correction makeup image according to the difference between the features of the faces. The makeup face image generation device according to any one of claims 1 to 15 .
ユーザの顔の画像から、そのユーザ専用手本化粧顔の画像を生成する方法であって、
前記ユーザによって選択されたサンプル化粧顔の画像、前記サンプル化粧顔の素顔の画像、及び前記サンプル化粧顔の素顔の画像と前記サンプル化粧顔の画像との差に対応するユーザ好みの正味の化粧画像を記憶する工程と、
前記ユーザの素顔の画像を取得する工程と、
前記正味の化粧画像を前記ユーザの素顔の画像にマッチングさせる処理を行って、マッチング済みの正味化粧画像を生成する工程と、
前記サンプル化粧顔の素顔の画像と前記ユーザの素顔の画像の各々に対して特徴抽出を行って、各素顔の特徴を取得し、両素顔の特徴の差異を取得する工程と、
前記ユーザの素顔を前記サンプル化粧顔の素顔に似せるために前記ユーザの素顔に施すべき化粧であって前記素顔の特徴の差異を小さくする当該化粧の画像を表す素顔補正用化粧画像を取得する工程と、
前記素顔補正用化粧画像と、前記マッチング済みの正味化粧画像とを、前記ユーザの素顔の画像に付加する合成処理を行って、ユーザ専用手本化粧顔の画像を生成する工程とを備えたことを特徴とする化粧顔画像生成方法。
A method for generating a user-specific model makeup face image from a user face image,
The sample makeup face image selected by the user, the sample makeup face image, and the user-desired net makeup image corresponding to the difference between the sample makeup face image and the sample makeup face image Storing
Obtaining an image of the user's face;
Performing a process of matching the net makeup image with the face image of the user to generate a matched net makeup image;
Performing feature extraction on each of the sample makeup face image and the user's face image, obtaining the features of each face, and obtaining the difference between the features of both faces;
You get a real face correction cosmetic image representing an image of the makeup to reduce the difference in characteristics of the real face of the sample decorative face of the to resemble real face said a cosmetic to be applied to the real face of the user real face of the user Process,
Said real face correcting cosmetic image, and the matching previously net makeup image, before SL performs synthetic processing to add the user's real face image, and a step of generating an image of a user dedicated model makeup face A method for generating a makeup face image .
前記両素顔の特徴は、顔の輪郭、顔のパーツ形状、顔パーツレイアウトのうちの少なくとも一つである請求項17に記載の化粧顔画像生成方法。The makeup face image generation method according to claim 17, wherein the feature of the both faces is at least one of a face outline, a face part shape, and a face part layout. ユーザの顔の画像から、そのユーザ専用手本化粧顔の画像を生成するサーバであって、
前記ユーザによって選択されたサンプル化粧顔の画像、前記サンプル化粧顔の素顔の画像、及び前記サンプル化粧顔の素顔の画像と前記サンプル化粧顔の画像との差に対応するユーザ好みの正味の化粧画像を記憶する記憶手段と、
ライアント端末から前記ユーザの素顔の画像を取得する顔画像取得手段と、
前記正味の化粧画像を前記ユーザの素顔の画像にマッチングさせる処理を行って、マッチング済みの正味化粧画像を生成するマッチング処理手段と、
前記サンプル化粧顔の素顔の画像と前記ユーザの素顔の画像の各々に対して特徴抽出を行って、各素顔の特徴を取得し、両素顔の特徴の差異を取得する素顔差異取得手段と、
前記ユーザの素顔を前記サンプル化粧顔の素顔に似せるために前記ユーザの素顔に施すべき化粧であって前記素顔の特徴の差異を小さくする当該化粧の画像を表す素顔補正用化粧画像を取得す素顔補正用化粧画像取得手段と、
前記素顔補正用化粧画像と、前記マッチング済みの正味化粧画像とを、前記ユーザの素顔の画像に付加する合成処理を行って、ユーザ専用手本化粧顔の画像を生成する画像合成手段と、
前記ユーザ専用手本化粧顔の画像を前記クライアント端末に送信する手段とを備えたことを特徴とするサーバ。
A server that generates an image of a user-specific model makeup face from an image of the user's face,
The sample makeup face image selected by the user, the sample makeup face image, and the user-desired net makeup image corresponding to the difference between the sample makeup face image and the sample makeup face image Storage means for storing
A face image acquiring means for acquiring an image of the real face of the user from a client terminal,
Matching processing means for generating a matched net makeup image by performing processing for matching the net makeup image with the user's face image,
Performing feature extraction on each of the sample makeup face image and the user's face image, obtaining the feature of each face, and obtaining a difference between the features of both faces;
You get a real face correction cosmetic image representing an image of the makeup to reduce the difference in characteristics of the real face of the sample decorative face of the to resemble real face said a cosmetic to be applied to the real face of the user real face of the user and the real face correction cosmetic image acquisition hand stage,
Said real face correcting cosmetic image, wherein the Matched net makeup image, before SL performs synthetic processing to add the user's real face image, an image combining means for generating an image of the user-specific model makeup face,
Means for transmitting an image of the user-specific model makeup face to the client terminal.
請求項17の方法をコンピュータに実行させるためのプログラム A program for causing a computer to execute the method of claim 17 .
JP2009500036A 2007-02-21 2007-02-21 Makeup face image generating apparatus, method thereof, server and program Expired - Fee Related JP5085636B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2007/053194 WO2008102440A1 (en) 2007-02-21 2007-02-21 Makeup face image creating device and method

Publications (2)

Publication Number Publication Date
JPWO2008102440A1 JPWO2008102440A1 (en) 2010-05-27
JP5085636B2 true JP5085636B2 (en) 2012-11-28

Family

ID=39709726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009500036A Expired - Fee Related JP5085636B2 (en) 2007-02-21 2007-02-21 Makeup face image generating apparatus, method thereof, server and program

Country Status (2)

Country Link
JP (1) JP5085636B2 (en)
WO (1) WO2008102440A1 (en)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010104737A (en) * 2008-10-29 2010-05-13 Shinsuke Kawaguchi Simulation software of makeup and hair style
JP5302793B2 (en) * 2009-06-24 2013-10-02 ソニーモバイルコミュニケーションズ株式会社 Cosmetic support device, cosmetic support method, cosmetic support program, and portable terminal device
FR2959846B1 (en) * 2010-05-04 2014-03-14 Vesalis IMAGE PROCESSING METHOD FOR CORRECTING A TARGET BASED ON A REFERENCE IMAGE AND CORRESPONDING IMAGE PROCESSING DEVICE
WO2011015928A2 (en) * 2009-08-04 2011-02-10 Vesalis Image-processing method for correcting a target image in accordance with a reference image, and corresponding image-processing device
JP2012181688A (en) * 2011-03-01 2012-09-20 Sony Corp Information processing device, information processing method, information processing system, and program
JP6128309B2 (en) * 2013-02-01 2017-05-17 パナソニックIpマネジメント株式会社 Makeup support device, makeup support method, and makeup support program
JP5991536B2 (en) * 2013-02-01 2016-09-14 パナソニックIpマネジメント株式会社 Makeup support device, makeup support method, and makeup support program
EP2953090A4 (en) * 2013-02-01 2016-05-25 Panasonic Ip Man Co Ltd Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
CN104822292B (en) * 2013-08-30 2019-01-04 松下知识产权经营株式会社 Makeup auxiliary device, makeup auxiliary system, cosmetic auxiliary method and makeup auxiliary program
JP6709993B2 (en) 2015-10-26 2020-06-17 パナソニックIpマネジメント株式会社 MAKE PART GENERATION DEVICE AND MAKE PART GENERATION METHOD
JP6128357B2 (en) * 2016-01-22 2017-05-17 パナソニックIpマネジメント株式会社 Makeup support device and makeup support method
JP6128356B2 (en) * 2016-01-22 2017-05-17 パナソニックIpマネジメント株式会社 Makeup support device and makeup support method
JP6078897B2 (en) * 2016-01-26 2017-02-15 パナソニックIpマネジメント株式会社 Makeup support device and makeup support method
JP6078896B2 (en) * 2016-01-26 2017-02-15 パナソニックIpマネジメント株式会社 Makeup support device and makeup support method
US11741639B2 (en) 2016-03-02 2023-08-29 Holition Limited Locating and augmenting object features in images
GB2548088B (en) * 2016-03-02 2022-05-11 Holition Ltd Augmenting object features in images
US10324739B2 (en) 2016-03-03 2019-06-18 Perfect Corp. Systems and methods for simulated application of cosmetic effects
JP6314322B2 (en) * 2016-06-20 2018-04-25 株式会社メイクソフトウェア Image processing apparatus, image processing method, and computer program
CN109310196B (en) * 2016-07-14 2021-08-10 松下知识产权经营株式会社 Makeup assisting device and makeup assisting method
WO2018025402A1 (en) * 2016-08-05 2018-02-08 株式会社オプティム Image processing device, image processing system, and program
WO2018079255A1 (en) * 2016-10-24 2018-05-03 パナソニックIpマネジメント株式会社 Image processing device, image processing method, and image processing program
JP6753276B2 (en) 2016-11-11 2020-09-09 ソニー株式会社 Information processing equipment, information processing methods, and programs
JP2017201550A (en) * 2017-06-23 2017-11-09 株式会社メイクソフトウェア Image processing apparatus, image processing method, and computer program
JP6853748B2 (en) * 2017-07-31 2021-03-31 株式会社第一興商 Server for engraving lessons
CN109419140A (en) * 2017-08-31 2019-03-05 丽宝大数据股份有限公司 Recommend eyebrow shape display methods and electronic device
CN107485157A (en) * 2017-09-20 2017-12-19 成都信息工程大学 A kind of intelligent cosmetic mirror
JP2019070870A (en) * 2017-10-05 2019-05-09 カシオ計算機株式会社 Image processing device, image processing method and program
DE102017127066A1 (en) * 2017-11-17 2019-05-23 Thomas Ebert A method of creating a visual make-up instruction for a person to make up their face, a method of visualizing a make-up instruction for a person to make up their face, computer program product, server equipment, and a person instructing a person to make-up their face
JP2019115653A (en) * 2017-12-26 2019-07-18 パナソニックIpマネジメント株式会社 Body appearance correction support method and device, and computer program
CN110276822A (en) * 2018-03-13 2019-09-24 英属开曼群岛商玩美股份有限公司 It is implemented in the system for calculating equipment, method and storage media
US10762665B2 (en) 2018-05-23 2020-09-01 Perfect Corp. Systems and methods for performing virtual application of makeup effects based on a source image
JP2019208906A (en) * 2018-06-05 2019-12-12 カシオ計算機株式会社 Information processing device, information processing method, and information processing program
CN109858392B (en) * 2019-01-11 2021-02-02 复旦大学 Automatic face image identification method before and after makeup
WO2020170845A1 (en) * 2019-02-22 2020-08-27 株式会社 資生堂 Information processing device, and program
JPWO2020261531A1 (en) * 2019-06-28 2020-12-30
US11253045B2 (en) 2019-07-18 2022-02-22 Perfect Mobile Corp. Systems and methods for recommendation of makeup effects based on makeup trends and facial analysis
JP7413691B2 (en) * 2019-09-24 2024-01-16 カシオ計算機株式会社 Image processing device, image processing method and program
CN111275650B (en) * 2020-02-25 2023-10-17 抖音视界有限公司 Beauty treatment method and device
JP7183414B2 (en) * 2020-04-29 2022-12-05 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Image processing method and apparatus
CN114418837B (en) * 2022-04-02 2023-06-13 荣耀终端有限公司 Dressing migration method and electronic equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255066A (en) * 1997-03-06 1998-09-25 Ryuichi Utsuki Face image correcting method, makeup simulating method, makeup method, makeup supporting device, and foundation transfer film
JP3582458B2 (en) * 2000-06-07 2004-10-27 花王株式会社 Makeup advice system
JP2005044283A (en) * 2003-07-25 2005-02-17 Seiko Epson Corp Cosmetics guidance system, server apparatus, terminal device and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255066A (en) * 1997-03-06 1998-09-25 Ryuichi Utsuki Face image correcting method, makeup simulating method, makeup method, makeup supporting device, and foundation transfer film
JP3582458B2 (en) * 2000-06-07 2004-10-27 花王株式会社 Makeup advice system
JP2005044283A (en) * 2003-07-25 2005-02-17 Seiko Epson Corp Cosmetics guidance system, server apparatus, terminal device and program

Also Published As

Publication number Publication date
WO2008102440A1 (en) 2008-08-28
JPWO2008102440A1 (en) 2010-05-27

Similar Documents

Publication Publication Date Title
JP5085636B2 (en) Makeup face image generating apparatus, method thereof, server and program
KR101635730B1 (en) Apparatus and method for generating montage, recording medium for performing the method
CN108292423B (en) Partial makeup making, partial makeup utilizing device, method, and recording medium
CN109310196B (en) Makeup assisting device and makeup assisting method
JP5324031B2 (en) Beauty simulation system
WO2014119253A1 (en) Makeup application assistance device, makeup application assistance method, and makeup application assistance program
KR101430122B1 (en) System, method and computer readable recording medium for simulating hair style
US20190035163A1 (en) Virtual hair consultation
JPH10255066A (en) Face image correcting method, makeup simulating method, makeup method, makeup supporting device, and foundation transfer film
CN101779218A (en) Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program
US11145091B2 (en) Makeup simulation device, method, and non-transitory recording medium
JP7278724B2 (en) Information processing device, information processing method, and information processing program
JP2011209887A (en) Method and program for creating avatar, and network service system
JP2020113061A (en) Information processing device, information processing method, and program
US20190066348A1 (en) Image processing system and method
US11776187B2 (en) Digital makeup artist
CN107924577B (en) Cosmetic part creation device and cosmetic part creation method
KR20190043925A (en) Method, system and non-transitory computer-readable recording medium for providing hair styling simulation service
US11961169B2 (en) Digital makeup artist
JP2011143158A (en) Hair style selection system, hair style selection method, and recording medium with program stored for achieving the method
JPH1125253A (en) Method for drawing eyebrow
KR100376112B1 (en) The method and system by using the internet to offer the human synthesis modeling
JP2013178789A (en) Beauty simulation system
JP6804562B2 (en) Proposal system, proposal method, server and computer program
KR102372524B1 (en) System for buying service of cosmetic object and applying selective makeup effect

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120905

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees