JPH11143352A - Method and device for automatically plotting makeup simulation - Google Patents
Method and device for automatically plotting makeup simulationInfo
- Publication number
- JPH11143352A JPH11143352A JP32718897A JP32718897A JPH11143352A JP H11143352 A JPH11143352 A JP H11143352A JP 32718897 A JP32718897 A JP 32718897A JP 32718897 A JP32718897 A JP 32718897A JP H11143352 A JPH11143352 A JP H11143352A
- Authority
- JP
- Japan
- Prior art keywords
- makeup
- face image
- model
- makeup simulation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、コンピュータグラ
フィックスを用いた化粧シミュレーション描画方法に関
する。さらに詳細には、美容院、化粧販売、美容学校、
変身願望アミューズメント系における化粧顔画像の描画
またはそのシミュレーションを行う分野に関する。The present invention relates to a makeup simulation drawing method using computer graphics. Further details include beauty salons, makeup sales, beauty schools,
The present invention relates to a field of performing a makeup face image or a simulation thereof in a transformation desire amusement system.
【0002】[0002]
【従来の技術】従来の顔画像に対して化粧シミュレーシ
ョン描画を行うソフトウェアでは、個々の個所をメイク
して顔全体のメイクを完成させる方法がとられている。
それも、求めるメイクの形を張り合わせる手法である。
たとえば、眉毛は、眉の形を選びそれを単に顔画像の眉
の大きさに合わせて元の眉の上に張り合わせる方法が使
われている。唇に口紅を塗る場合も同様に、あらかじめ
用意された型を張り合わせる手法などが用いられてい
る。2. Description of the Related Art Conventional software for performing makeup simulation drawing on a face image employs a method of making individual parts to complete makeup of the entire face.
That is also a method of attaching the desired makeup shape.
For example, for eyebrows, a method is used in which a shape of an eyebrow is selected, and the shape is simply fitted on the original eyebrow according to the size of the eyebrow in the face image. Similarly, in the case of applying lipstick to the lips, a method of pasting together a prepared mold is used.
【0003】[0003]
【発明が解決しようとする課題】化粧シミュレーション
描画を行う場合、画面を表示しながらきめ細かな化粧処
理を施しているが、実際にはかなり手間がかかる作業で
ある。また、どのような化粧を望むのかという点につい
ても、化粧する本人にも選択が難しいという問題があ
る。本発明は、このような場合にも、簡易に化粧シミュ
レーションを行う方法および装置を得ることを目的とす
る。In the case of performing a makeup simulation drawing, fine makeup processing is performed while displaying a screen, but in practice, it is a considerably time-consuming operation. Also, there is a problem that it is difficult for the person who wants to make makeup to select what kind of makeup is desired. An object of the present invention is to provide a method and apparatus for easily performing makeup simulation even in such a case.
【0004】[0004]
【課題を解決するための手段】本発明は上記の課題を解
決するために、コンピュータグラフィックスを用いた化
粧シミュレーション描画方法において、(1)コンピュー
タグラフィックスを用いた化粧シミュレーションにより
作成した化粧後のモデル顔画像、および該モデル顔画像
を作成した化粧シミュレーションの手順を予め記憶し、
(2)化粧シミュレーション対象者に対し、前記予め準備
されたモデル顔画像を選択し、該選択されたモデル顔画
像の化粧シミュレーション手順を前記化粧シミュレーシ
ョン対象者の顔画像に適応することにより、選択したモ
デル化粧顔画像と同じ化粧を施した顔画像を作成する。SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a makeup simulation drawing method using computer graphics. Model face image, and the procedure of makeup simulation that created the model face image is stored in advance,
(2) For the makeup simulation subject, the prepared model face image is selected, and the makeup simulation procedure of the selected model face image is selected by applying to the makeup simulation subject face image. A face image with the same makeup as the model makeup face image is created.
【0005】また、コンピュータグラフィックスを用い
た化粧シミュレーション描画装置において、(1)コンピ
ュータグラフィックスを用いた化粧シミュレーションに
より作成した化粧後のモデル顔画像、および該モデル顔
画像を作成した化粧シミュレーションの手順を予め記憶
する手段、(2)化粧シミュレーション対象者に対し、前
記予め準備されたモデル顔画像を選択し、該選択された
モデル顔画像の化粧シミュレーション手順を前記化粧シ
ミュレーション対象者の顔画像に適用する手段、を備え
た装置で、選択したモデル化粧顔画像と同じ化粧を施し
た顔画像を作成する。Also, in a makeup simulation drawing apparatus using computer graphics, (1) a makeup model face image created by makeup simulation using computer graphics, and a makeup simulation procedure for creating the model face image (2) selecting a model face image prepared in advance for a makeup simulation subject, and applying a makeup simulation procedure of the selected model face image to the makeup simulation subject face image A face image having the same makeup as the selected model makeup face image.
【0006】上記のような方法ないしは装置によれば、
モデル化粧顔画像を選択するだけで、同じ化粧を施すシ
ミュレーションを行うことができ、自動的にシミュレー
ション描画を行うことも可能となる。しかし、実際に本
発明の方法を行うには、化粧シミュレーションプログラ
ムについては、化粧対象の顔画像が指定された後の処理
について、なるべく自動化されていることが望ましい。According to the above method or apparatus,
By simply selecting a model makeup face image, a simulation for applying the same makeup can be performed, and a simulation drawing can be automatically performed. However, in order to actually perform the method of the present invention, it is desirable that the makeup simulation program be automated as much as possible after the designation of the face image to be makeup.
【0007】モデルのメイクとして眉、唇への口紅、肌
へのパウダー(ファンデーション、アイシャドウ、頬紅
等を含む)、およびカラーコンタクトの描画を行う。そ
れぞれの描画は以下のように行う。 ・眉……眉の領域を定義し、眉領域の元も眉毛を剃り落
として周辺の肌色を描画する。眉型を選び、その眉型を
眉領域に描く。このとき、眉領域の画素単位に処理し、
眉を一定の計算式に従って眉毛を描いていく。 ・口紅……口紅を着ける唇領域を定義し、唇領域に選択
した口紅色を塗る。この場合、描画処理は色相、明度、
彩度の3原色で行い、唇領域を口紅の色相に置き換え、
なおかつ元の唇の明度と彩度を口紅の明度と彩度に変換
し、唇領域に口紅の描画を行う。またこのとき、ツヤ出
しなどの操作を行う。さらに唇と肌の境界線付近ではフ
ァジィ理論を用いて肌と唇の境が連続的な色になるよう
にする。 ・肌のパウダーメイク……肌のカラー値とパウダーのカ
ラー値を指定した比率で混ぜ合わせて描画する。なお、
パウダーメイクにはファンデーション、アイシャドウ、
頬紅等のメイキャップを含む。 ・カラーコンタクト……カラーコンタクトをはめ込む位
置(カラーコンタクトのカラー部分を描く位置)の定義
をしたのちに、カラーコンタクトのカラー値と虹彩のカ
ラー値をある比率で混ぜ合わせて表示する。As the makeup of the model, drawing of eyebrows, lipstick on lips, powder on skin (including foundation, eyeshadow, blusher, etc.) and color contact are performed. Each drawing is performed as follows. -Eyebrow ... Defines the area of the eyebrow, and also shaves off the eyebrows at the base of the eyebrow area and draws the surrounding skin color. Select an eyebrow shape and draw the eyebrow shape in the eyebrow area. At this time, processing is performed for each pixel of the eyebrow area,
The eyebrows are drawn according to a certain formula. Lipstick: Defines the lip area to be put on lipstick, and paints the lip area with the selected lipstick color. In this case, the rendering process is hue, lightness,
Performs with the three primary colors of saturation, replaces the lip area with the lipstick hue,
In addition, the brightness and saturation of the original lips are converted into the brightness and saturation of the lipstick, and the lipstick is drawn on the lip area. At this time, an operation such as glossing is performed. Further, the boundary between the skin and the lips is made to have a continuous color by using fuzzy theory near the boundary between the lips and the skin.・ Skin powder make-up ... Draws by mixing skin color value and powder color value at the specified ratio. In addition,
Powder makeup includes foundation, eyeshadow,
Including makeup such as blusher. Color contact: After defining the position where the color contact is fitted (the position where the color portion of the color contact is drawn), the color value of the color contact and the color value of the iris are mixed and displayed at a certain ratio.
【0008】以上の方法でメイキャップしたモデルに対
して、メイキャップ情報として以下のものを記録してお
く。 ・眉……眉型、眉の色(カラー値)、顔に対応する相対
的な位置と大きさ ・口紅……口紅のカラー値、ツヤ出し度 ・パウダー……画素ごとのパウダーのカラー値と塗られ
た濃さ ・カラーコンタクト……カラーコンタクトのカラー値 および、 ・顔画像定義点The following information is recorded as make-up information for the model made by the above method.・ Eyebrows …… Eyebrow type, eyebrow color (color value), relative position and size corresponding to the face ・ Lipstick …… lipstick color value, gloss level ・ Powder …… Powder color value for each pixel Painted color ・ Color contact …… Color value of color contact and ・ Facial image definition point
【0009】一方、ユーザーの顔画像に選択したモデル
のメイキャップを施す処理は以下の手順で行う。まず、
前段階として、デジタルカメラなどでユーザーの顔画像
をコンピュータに取り込み、モデルに設定されていると
同じ形態でユーザーの顔画像の定義を行う。以下、モデ
ルのメイキャップと同じメイキャップの属性値を取り込
み、定義したユーザーの顔画像に施す。メイキャップは
各個所によって異なるが、眉、口紅、カラーコンタクト
については、モデルに施してあるメイキャップの素材を
使い、モデルで描画した方法に準じてユーザーの顔に描
画する。しかしパウダーは、場所場所によって濃さやパ
ウダーの種類が異なる可能性があるために、モデルとユ
ーザーの顔画像の各画素の対応を取り、ユーザーの顔画
像にメイクしていく。具体的にはモーフ技術を用いて、
ユーザーの顔画像の画素がモデルの顔画像の画素のどの
部分に対応するかを算出し、モデルの画素に施されたと
同じパウダーをユーザーの肌属性の各画素に施す。On the other hand, the process of applying make-up of the selected model to the face image of the user is performed in the following procedure. First,
As a pre-stage, a face image of the user is taken into a computer by a digital camera or the like, and the face image of the user is defined in the same form as set in the model. Hereinafter, the same makeup attribute value as the makeup of the model is fetched and applied to the defined user's face image. Makeup varies depending on the location, but eyebrows, lipsticks, and color contacts are drawn on the user's face according to the method of drawing on the model using the makeup material applied to the model. However, since there is a possibility that the density and the type of powder may differ depending on the location, the correspondence between the model and each pixel of the user's face image is made, and makeup is applied to the user's face image. Specifically, using morph technology,
A portion of the pixel of the face image of the model corresponding to the pixel of the face image of the user is calculated, and the same powder as that applied to the pixel of the model is applied to each pixel of the skin attribute of the user.
【0010】[0010]
【発明の実施の形態】本発明の実施の形態を図を用いて
説明する。まずモデルのメイキャップから説明する。パ
ウダー描画(ファンデーション、アイシャドウ、頬紅等
の化粧素材の描画も含む)を行うには、皮膚の色とパウ
ダーの色をある比で混ぜ合わせる。すなわち、 Cn(x,y)=COP(x,y)・(1-rn(x,y))+CQ(x,y)・rn(x,y) …… (1) で求める。ここでCnはパウダー描画後の肌のカラー
値、COPはパウダーを変更する直前のメイクされた肌の
カラー値(初期値は画像入力装置から取り込まれた時点
の肌のカラー値CO)、CQはパウダーのカラー値、rn
は混ぜ合わせの比率(混合比である。(x,y)は座標値で
あるが、実際の描画では(x,y)に位置する画素を表す。
rnは同一種のパウダーが重ね塗りされることによって
得られる累積濃さ(累積混合比率)であり、一つ前の累
積濃さrn-1、新たに塗る濃さrとしたとき、 r=f(d) rn=rn-1+r-rn-1r ……… (2) で求められる。ただし、f(d)は指定点からの距離d
の関数を表す。通常、距離が増加するに従って濃さrが
減少するように定義する。なお、n=1すなわちr0の
場合は、r0=0とする。DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described with reference to the drawings. First, the makeup of the model will be described. To perform powder drawing (including drawing of makeup materials such as foundation, eyeshadow, blusher, etc.), the skin color and the powder color are mixed in a certain ratio. In other words, C n (x, y) = C OP (x, y) · (1-r n (x, y)) + C Q (x, y) · r n (x, y) in the ... (1) Ask. Where C n is the color value of the skin after powder drawing, C OP make-color values of the skin immediately before changing the powder (initial value color value C O skin when taken in from the image input device) , C Q are the powder color values, r n
Is a mixing ratio (mixing ratio. (X, y) is a coordinate value, but represents a pixel located at (x, y) in actual drawing.
r n is the cumulative density obtained by the same kind of powder is overcoated (cumulative mixing ratio), the previous cumulative density r n-1, when the density r painting new, r = F (d) r n = r n-1 + r-r n-1 r (2) Where f (d) is the distance d from the designated point
Represents the function of Usually, it is defined that the density r decreases as the distance increases. In the case of n = 1 That is r 0, and r 0 = 0.
【0011】パウダーのカラー値を変えるごとに肌のカ
ラーCOPを変更直前の肌のカラー値Cnで置き換え、パ
ウダーのカラー値CQを新しいパウダーのカラー値で置
き換え、すべての累積濃さrnを0に初期化すれば、新
しいカラー値のもとで数1がそのまま利用できる。Each time the powder color value is changed, the skin color C OP is replaced with the skin color value C n immediately before the change, the powder color value C Q is replaced with the new powder color value, and all the accumulated densities r If n is initialized to 0, Equation 1 can be used as it is under a new color value.
【0012】次に眉の描画では、眉領域、目尻、小鼻の
端から選択した眉型を描画する位置を決定する。この場
合、眉領域に対しては、元の眉毛をいったん剃り落とし
て周辺の肌色COに変え、画素ごとに眉毛を描くかどう
かを決定し、描く個所に対しては画素の位置によって眉
毛の方向と太さ、長さ、濃さなどを計算して、眉ペンで
描いたときと同じ感覚で自然に近い状態で描画する。詳
しくは以下で説明する。Next, in the drawing of the eyebrows, the position for drawing the selected eyebrow shape from the eyebrow area, the outer corner of the eye, and the end of the nostril is determined. In this case, for the eyebrow region, the original eyebrows are shaved off once and changed to the surrounding skin color C O, and it is determined whether or not to draw the eyebrows for each pixel. Calculate the direction and thickness, length, density, etc., and draw in a state close to nature with the same feeling as drawing with the eyebrow pen. Details will be described below.
【0013】眉画像を以下の手順で形成する。 (1)眉描画領域を設定する。 (2)前記眉描画領域の眉毛の根元位置を、乱数を含む数
式により設定する。 (3)眉毛の長さと方向を前記眉毛の根元位置と乱数を含
む数式から眉毛長さと方向を求める。 (4)前記眉毛の長さと方向の計算により得られた眉毛の
濃さを眉毛の根元位置と眉毛の根元からの距離に基づい
て眉毛の濃さを計算する。 (5)前記計算により得られた数値をもとに眉毛を描画す
る。An eyebrow image is formed by the following procedure. (1) Set the eyebrow drawing area. (2) The base position of the eyebrows in the eyebrow drawing area is set by a mathematical expression including a random number. (3) The length and direction of the eyebrows are determined from a formula including the root position of the eyebrows and a random number. (4) The eyebrow depth obtained by the calculation of the eyebrow length and direction is calculated based on the eyebrow root position and the distance from the eyebrow root. (5) Draw the eyebrows based on the numerical values obtained by the above calculation.
【0014】上記の(4)で得られた値に一様乱数を施せ
ば、1本1本の眉毛の濃さにもばらつきが生じ、より自
然な描画となる。具体的な例として、以下の式を挙げ
る。 (1)眉描画領域に対して眉テンプレートマスク画像をも
とに、眉頭、眉山、眉尻の各x座標をlx、cx、rx、眉山
のy座標をebyとし、前記各x座標について新眉領域の
縦方向の中心cy(x)、および新眉領域の高さhy(x)を求
め、hy(x)の最大値をhymaxとし、(2)前記眉描画領域の
各点(x,y)に対して rand2≦ceb・rate1・rate2 となる点(x,y)を眉毛の根元位置(sx,sy)として決定す
る。ただし rand2は0≦rand2≦1なる値をとる一様乱数 cebは0≦ceb≦1なる値をとる眉全体の濃さを表す定数 c1は眉の端における眉毛の生える確率を0にしないため
の定数 rate1、rate2は以下の式で求まる値 rate1=1-(|x-cx|)/{(|cx-lx|)・c1} (x<cx) =1-(|x-cx|)/{(|cx-rx|)・c1} (x≧cx)) rate2=1-{(|y-cy(x)|)/(dy(x)/2)}^3 (3)眉毛の根元位置(sx,sy)から生える眉毛の長さlとそ
の方向θを次式で決定する θ=-π/6+2/3・π・(|sx-rx|/|rx-lx|^2-rand2・π/9 (y≧cy(sx)) =-π/6+2/3・π・(|sx-rx|/|rx-lx|^2+rand2・π/9 (y<cy(sx)) l=hymax/4・(1+rand2/2) (4)直線(sx,sy)-(ex,ey)で表される眉毛上の点(x,y)の
濃さを表す眉毛度ebrate(x,y)を以下の数式で求める ebrate(x,y)=1-sqr{(x-sx)^2+(y-sy)^2)}/[c2・sqr{(ex-
sx)^2+(ey-sy)^2}] ここでsqr(z)は変数zに対する平方根、c2は定数 (5)前記計算手段により得られた数値をもとに眉毛を描
画する。If a uniform random number is applied to the value obtained in the above (4), the depth of each eyebrow also varies, resulting in a more natural drawing. The following formula is given as a specific example. (1) Based on the eyebrow template mask image for the eyebrow drawing area, the x-coordinates of the eyebrow head, eyebrow peak, and eyebrow tail are lx, cx, rx, the y-coordinate of eyebrow peak is eby, and the new eyebrow is The vertical center cy (x) of the area and the height hy (x) of the new eyebrow area are obtained, and the maximum value of hy (x) is set to hymax. (2) Each point (x, y ), The point (x, y) where rand2 ≦ ceb · rate1 · rate2 is determined as the eyebrow root position (sx, sy). Where rand2 is a uniform random number that takes a value of 0 ≦ rand2 ≦ 1 ceb is a value that satisfies 0 ≦ ceb ≦ 1 c1 is a constant that represents the density of the entire eyebrow The constants rate1 and rate2 are values obtained by the following formula rate1 = 1- (| x-cx |) / {(| cx-lx |) · c1} (x <cx) = 1- (| x-cx |) / {(| Cx-rx |) ・ c1} (x ≧ cx)) rate2 = 1-{(| y-cy (x) |) / (dy (x) / 2)} ^ 3 (3) Root of eyebrows Determine the length l of eyebrows and its direction θ from the position (sx, sy) by the following formula: θ = -π / 6 + 2/3 · π · (| sx-rx | / | rx-lx | ^ 2 -rand2 · π / 9 (y ≧ cy (sx)) = -π / 6 + 2/3 · π · (| sx-rx | / | rx-lx | ^ 2 + rand2 · π / 9 (y <cy (sx)) l = hymax / 4 ・ (1 + rand2 / 2) (4) Represents the density of the point (x, y) on the eyebrows represented by the straight line (sx, sy)-(ex, ey) Obtain the eyebrow degree ebrate (x, y) by the following formula: ebrate (x, y) = 1-sqr {(x-sx) ^ 2 + (y-sy) ^ 2)} / [c2 ・ sqr {(ex -
sx) ^ 2 + (ey-sy) ^ 2}] Here, sqr (z) is the square root of the variable z, and c2 is a constant. (5) The eyebrows are drawn based on the numerical values obtained by the calculation means.
【0015】なお眉型(眉テクスチャマスク画像)を選
択して眉毛を描くわけであるが、眉型に合わせて眉毛を
描く位置を決定するために、顔の特徴点の定義を図1に
示すF1〜F4の4点で行う。すなわち、各点は F1:小鼻の内側 F2:眉山 F3:黒目の外側 F
4:目尻 である。The eyebrows are drawn by selecting the eyebrow type (eyebrow texture mask image). In order to determine the position where the eyebrows are drawn according to the eyebrow type, the definition of the characteristic points of the face is shown in FIG. This is performed at four points, F1 to F4. That is, each point is F1: inside the nostril F2: Mt. Bizan F3: outside the iris F
4: Eye corners.
【0016】図2の眉型の座標点lx、ex、ebyと図1の
顔の特徴点との関係が、 lx=F1.x ex=(F3.x+F4.x)/2 eby=F2.y となるように、図2の新しく描画する眉型を縦横を変え
ずに、拡大、縮小および移動して、顔画像と眉型を合成
する。ここで、Fn.x、Fn.yはそれぞれ点Fnにおけるx座
標とy座標を表す。この眉型に合わせて上記の各種計算
式によって眉毛を描画すれば、眉ペンで描いたときの感
覚で眉が描画できる。The relationship between the eyebrow-shaped coordinate points lx, ex, eby in FIG. 2 and the facial feature points in FIG. 1 is given by: lx = F1.x ex = (F3.x + F4.x) / 2 eby = F2 The face image and the eyebrow shape are synthesized by enlarging, reducing, and moving the newly drawn eyebrow shape in FIG. Here, Fn.x and Fn.y represent the x coordinate and the y coordinate at the point Fn, respectively. If the eyebrows are drawn according to the above-mentioned various formulas according to the eyebrow shape, the eyebrows can be drawn as if drawn with an eyebrow pen.
【0017】唇に対する口紅の描画処理では、色相、明
度、彩度の色空間で取り扱う。まず口紅を着ける唇の領
域を定義する。ただし唇の場合には肌と唇の境界が曖昧
な領域が生じるために、図3に示すように唇領域と曖昧
領域別々に処理する(図中の黒点は定義点で、唇の境界
線は曲線近似してある)。唇領域に対しては、唇の色相
を口紅の色相に変える。さらに明度と彩度を2次元座標
で表したとき、唇の明度と彩度の相互関係が失われない
ように口紅のトーン(明度と彩度)に、唇のトーン(明
度と彩度)を変換してから口紅の描画を行う。The lipstick drawing process for the lips is handled in a hue, lightness, and saturation color space. First, define the area of the lip where the lipstick will be worn. However, in the case of the lips, a region where the boundary between the skin and the lips is ambiguous occurs, so that the lip region and the ambiguous region are separately processed as shown in FIG. 3 (the black dots in the figure are defined points, and the lip boundaries are Curve approximation). For the lip area, the lip hue is changed to the lipstick hue. In addition, when the lightness and saturation are represented by two-dimensional coordinates, the lipstick tone (lightness and saturation) and the lip tone (lightness and saturation) are used so that the correlation between the lightness and saturation of the lips is not lost. After the conversion, draw the lipstick.
【0018】図4はこの変換処理の概要を示した図であ
り、図中の白丸印が三角印に移動する。これによって、
唇の皺や輝きをそのまま表現できる。さらに艶度を指定
することによって、ツヤ出しまたはツヤ消しを行う。処
理としては、影でない画素(あらかじめ与えられた明度
より相対的に高い明度の画素)のトーンを口紅のトーン
点(図4の黒丸)と全反射点を結ぶ線上で移動する。こ
の口紅描画処理を対唇口紅描画方式とよぶことにする。FIG. 4 is a diagram showing an outline of this conversion processing, in which white circles are moved to triangles. by this,
Lip wrinkles and shine can be expressed as they are. Further, by specifying the glossiness, glossing or matting is performed. As the processing, the tone of a non-shadow pixel (a pixel having a relatively higher brightness than a predetermined brightness) is moved on a line connecting the lipstick tone point (black circle in FIG. 4) and the total reflection point. This lipstick drawing process is called a lipstick lipstick drawing method.
【0019】一方、曖昧領域に対してはファジィ制御を
用いる。すなわち、ファジィ制御を用いて対唇口紅描画
方式と対肌描画方式との影響度を計算し、ここで求めら
れた比率をもとに、口紅を描画する。ここで対肌口紅描
画方式とは、パウダー描画で用いた(1)式において、CQ
を口紅のトーン、COPを肌のトーンとして、肌と口紅を
ある比率rn(添え字nは意味なく、一定とする)で混
ぜ合わせる方法である。ファジィ制御は以下のように行
う。On the other hand, fuzzy control is used for an ambiguous area. That is, the degree of influence between the lip-lipstick drawing method and the skin-drawing method is calculated using fuzzy control, and lipstick is drawn based on the ratio obtained here. Here, the skin lipstick drawing method refers to C Q in the equation (1) used in the powder drawing.
Is a lipstick tone and C OP is a skin tone, and the skin and the lipstick are mixed at a certain ratio r n (the subscript n has no meaning and is constant). Fuzzy control is performed as follows.
【0020】境界線からの距離に関するメンバーシップ
関数、明度に関するメンバーシップ関数、彩度に関する
メンバーシップ関数からα値を求め、対唇口紅描画方式
に関するメンバーシップ関数および対肌口紅描画方式に
関するメンバーシップ関数をαカットする。次に、αカ
ットから求められる面積の重心(操作量)を求め、曖昧
領域の各画素に対して操作量を対唇口紅描画方式および
対肌口紅描画方式に施し、その結果得られる移動ベクト
ルを変換前のトーンベクトルに加えることによって、そ
れぞれの影響度に応じた口紅描画を行う。以上の操作に
より、肌と唇の境界付近での色の連続性が表現できる。The α value is obtained from the membership function relating to the distance from the boundary line, the membership function relating to the brightness, and the membership function relating to the saturation, and the membership function relating to the lipstick-lip drawing method and the membership function relating to the skin-lipstick drawing method are obtained. Α cut. Next, the center of gravity (operation amount) of the area obtained from the α-cut is obtained, and the operation amount is applied to each pixel of the ambiguous region in the lip-lipstick drawing method and the skin-lipstick drawing method, and the resulting movement vector is calculated. By adding to the tone vector before conversion, lipstick drawing corresponding to each degree of influence is performed. By the above operation, color continuity near the boundary between the skin and the lips can be expressed.
【0021】なお、図5に各メンバーシップ関数をグラ
フで示してある。すなわち図において、(1)は境界線か
らの距離に関するメンバーシップ関数、(2)は明度に関
するメンバーシップ関数、(3)は彩度に関するメンバー
シップ関数、(4)は対唇口紅描画方式に関するメンバー
シップ関数、(5)は対肌口紅描画方式に関するメンバー
シップ関数である。FIG. 5 is a graph showing each membership function. That is, in the figure, (1) is a membership function related to the distance from the boundary line, (2) is a membership function related to lightness, (3) is a membership function related to saturation, and (4) is a member related to the lip-lipstick drawing method. The ship function, (5), is a membership function for the skin lipstick drawing method.
【0022】図中の記号の意味を以下に示す。 A0 :輪郭付近でなく唇の内側 A1 :輪郭付近である A2 :輪郭付近でなく唇の外側 BV0:明度が肌っぽい BV1:明度が唇っぽい BC0:彩度が肌っぽい BC1:明度が唇っぽい CA0:対唇口紅描画の操作量多く CA1:対唇口紅描画の操作量やや多く CA2:対唇口紅描画の操作量少なく CB0:対肌口紅描画の操作量多く CB1:対肌口紅描画の操作量やや多く CB2:対肌口紅描画の操作量少なく W(0,0):全反射点 VR:全反射点と口紅のトーン点を結ぶベクトル VL:全反射点と唇画素のトーンの加重平均点を結ぶベ
クトルThe meanings of the symbols in the figure are as follows. A0: Inside the lips, not near the outline A1: Near the outline A2: Outside the lips, not near the outline Lip-like CA0: Lots of lipstick drawing operation CA1: Little lipstick drawing operation CA2: Little lipstick drawing operation CB0: Lot of lipstick drawing operation CB1: Lipstick drawing CB2: Less operation amount for drawing skin lipstick W (0,0): Total reflection point VR: Vector connecting total reflection point and lipstick tone point VL: Weighting of total reflection point and lip pixel tone Vector connecting the average points
【0023】カラーコンタクトに関しては、対唇口紅描
画方式に準じた操作を行い、虹彩の特性を活かした形で
表現する。すなわち、目の虹彩の範囲を指定するととも
に、虹彩のカラー値とカラーコンタクトのカラー値を色
相、明度、色彩で分解し、虹彩の色相をカラーコンタク
トの色相に変換したのち、虹彩の各画素のトーンの相対
関係を保ったまま、カラーコンタクトのトーンに変化す
る(図4参照、ただし丸印は虹彩のトーン分布、三角印
は変換後の虹彩のトーン分布とする)。艶出しは全反射
点Wとカラーコンタクトのトーン点を結ぶ線にそって虹
彩の影でない画素(与えられた明度より相対的に高い明
度の画素)のトーンを平行移動する。なお、トーン点と
は明度と彩度によって決まる点であり、明度を10段階
で扱う場合には全反射点WはW(10,0)で表される。With regard to the color contact, an operation in accordance with the lipstick lipstick drawing method is performed, and the color contact is expressed in a form utilizing the characteristics of the iris. That is, while specifying the range of the iris of the eye, the color value of the iris and the color value of the color contact are separated into hue, lightness, and color, and the hue of the iris is converted into the hue of the color contact. The tone changes to a color contact tone while maintaining the relative relationship of the tones (see FIG. 4, where the circles indicate the iris tone distribution and the triangles indicate the converted iris tone distribution). The glazing translates the tones of non-shadow pixels of the iris (pixels having a higher brightness than a given brightness) along the line connecting the total reflection point W and the tone point of the color contact. Note that a tone point is a point determined by lightness and chroma, and when lightness is handled in 10 levels, the total reflection point W is represented by W (10,0).
【0024】以上のようにしてメイキャップされたモデ
ルの化粧が、モデルを選択することによってユーザーの
顔画像に対して行えるように、まずモデルの顔画像を図
6に示すような形式で顔の特徴点を定義する。口紅、
眉、カラーコンタクトについては、そこに着ける化粧品
やアクセサリーの種類とメイクの特徴だけがわかれば、
ユーザーの顔画像にメイクを施すことができる。そこで
以下のようにメイキャップ属性を登録しておく。 ・眉……眉型、眉の色(カラー値)、顔に対応する相対
的な位置と大きさ ・口紅……口紅のカラー値、ツヤ出し度 ・カラーコンタクト……カラーコンタクトのカラー値First, the model face image is converted into a face image in a format as shown in FIG. 6 so that the makeup of the model made as described above can be applied to the user's face image by selecting the model. Define feature points. lipstick,
For eyebrows and color contacts, if you only know the types of cosmetics and accessories you can wear and the characteristics of makeup,
Makeup can be applied to the face image of the user. Therefore, the makeup attribute is registered as follows.・ Eyebrows …… Eyebrow type, eyebrow color (color value), relative position and size corresponding to the face • Lipstick …… Color value of lipstick, gloss level • Color contact …… Color value of color contact
【0025】しかしパウダーの場合には、場所場所によ
って化粧のされ方が異なるために、以下の内容を画素ご
とにメイキャップ属性として登録しておく。 ・パウダー……画素ごとのパウダーのカラー値と塗られ
た濃さ(累積混合比率rn)。However, in the case of powder, since the manner in which makeup is applied differs depending on the location, the following contents are registered as makeup attributes for each pixel. Powder ...... density was painted the color value of the powder for each pixel (cumulative mixing ratio r n).
【0026】ここで、種類の異なるパウダーを塗る順番
に従ってカラー値CPi、そのときの累積混合比rniを登
録する(iはパウダーCPiを塗る順番)。rniは、(2)
式で求められる最終的な結果のみを記録しておく。Here, a color value C Pi and a cumulative mixing ratio r ni at that time are registered in accordance with the order of applying powders of different types (i is the order of applying powder C Pi ). r ni is (2)
Record only the final result obtained by the formula.
【0027】次にユーザーの顔画像にモデルのメイキャ
ップと同じメイクを自動的に行う処理を説明する。デジ
タルカメラ等のイメージデータ入力装置でコンピュータ
に取り込んだユーザーの顔画像に対して、モデルで定義
したときと同様に顔画像の特徴点を定義する。この定義
点は、モデルのメイクをユーザーのメイクに施すときの
基準となるものであるから、出来るだけモデルの顔画像
の特徴点と対応する場所に指定する。Next, a process for automatically applying the same make-up as the model make-up to the user's face image will be described. The feature points of the face image are defined for the user's face image captured into the computer by an image data input device such as a digital camera in the same manner as when the model is defined. Since this definition point is a reference when applying the makeup of the model to the makeup of the user, it is specified as much as possible at a location corresponding to the feature point of the face image of the model.
【0028】画面に表示される複数のモデルの顔画像
(同じモデルでもメイクが異なるときは別メニューとし
て表示)を選ぶと、メイキャップ属性から眉、口紅、カ
ラーコンタクトについてはモデルのメイクで説明した方
法で自動的にメイクされる。しかし、パウダーについて
は画素ごとにメイクが異なるので、モーフィング技術を
利用してメイクを行う。以下、この点を説明する。When face images of a plurality of models displayed on the screen are selected (the same model is displayed as a separate menu when makeup is different), eyebrows, lipsticks, and color contacts are described in the makeup of the model based on the makeup attributes. Make up automatically by the method. However, since makeup differs for each pixel for powder, makeup is performed using morphing technology. Hereinafter, this point will be described.
【0029】モーフィングにはワープとディゾルブの2
種類がある。前者は、ある形態から別の形態に形状を変
えるときに、対応する点を求めて変形させるやり方であ
り、後者は、変形前の色と変形後の色をある比率で混ぜ
合わせることによって変形させる方法である。本発明の
パウダーの描画にはワープを利用する。The morphing includes warping and dissolve.
There are types. The former is a method of transforming from a certain form to another form by finding corresponding points and transforming the latter by mixing a color before transformation and a color after transformation at a certain ratio. Is the way. Warp is used for drawing the powder of the present invention.
【0030】ワープでは、元の画像(ソースイメージ)
の画素と変形後の画像(ターゲットイメージ)の画素と
の対応が取れれば、ソースイメージをターゲットイメー
ジに変形できる。モーフィングにはさまざまな方法があ
るが、ここではまず基準となる線分(これを以下では
“基準線”と記述)に対して、ある点(画素)から基準
線に垂線を下ろしたときの点が線分を分割したときの内
分比、およびある点から基準線までの距離が変わらない
として、ターゲットイメージの点からソースイメージの
点を求める。In the warp, the original image (source image)
The source image can be transformed into the target image by associating the pixels of the image with the pixels of the transformed image (target image). There are various methods for morphing. Here, first, a point when a perpendicular is dropped from a certain point (pixel) to the reference line with respect to a reference line segment (hereinafter referred to as “reference line”). Assuming that the internal division ratio when the line segment is divided and the distance from a certain point to the reference line do not change, the point of the source image is obtained from the point of the target image.
【0031】図7のターゲットイメージにおいて、ある
点Pから基準線ABに垂線を下ろした点Hとし、点Hが
線分ABをt:1−tで内分し、点Hから線分ABまで
の距離をhとする(ただし、点Hが線分ABから外れる
場合には、HはABの延長線上の点)。またこのターゲ
ットイメージに対応したソースイメージにおける対応点
に対しては記号にダッシュを付けてある。ただし、内分
比t:1−tと垂線の長さhは変わらないとする。この
条件の下で、 t=VPA・V/|V|2 h=VPA・per(V)/|V| VPA´=tV´+hper(V´)/|V´| または、 P´=A´+tV´+hper(V´)/|V´| ……… (3) の式が成り立つ。ここでベクトルA、Bとしたとき、A
・Bは内積であり、|A|はベクトルAの長さを表す。
座標の原点からの位置ベクトルを用いる場合には、各ベ
クトルは、 V=B−A VPA=P−A V´=B´−A´ VPA´=P´−A´ と表せる。また、per(V)はベクトルVに垂直で長さ
がVと同じベクトルである。すなわち、Vの成分を(x,
y)とすると、per(V)の成分は(y,-x)か(-y,x)であ
る。どちらを使用してもよいが、プログラムではどちら
かに統一して使用しなければならない。(3)式から点P
´の座標が求められるから、ターゲットイメージの点P
はソースイメージの点P´と対応できる。In the target image shown in FIG. 7, a point H is obtained by dropping a perpendicular line from a point P to the reference line AB. The point H divides the line segment AB at t: 1-t, and from the point H to the line segment AB. Is set to h (however, when the point H deviates from the line segment AB, H is a point on an extension line of AB). A dash is attached to a symbol for a corresponding point in the source image corresponding to the target image. However, it is assumed that the internal division ratio t: 1-t and the length h of the perpendicular line do not change. Under this condition, t = V PA · V / | V | 2 h = V PA · per (V) / | V | V PA '= tV' + hper (V') / | V'| or, P' = A ′ + tV ′ + hper (V ′) / | V ′ | (3) Here, when the vectors are A and B, A
B is an inner product, and | A | represents the length of vector A.
When a position vector from the coordinate origin is used, each vector can be expressed as follows: V = B−A V PA = P−A V ′ = B′−A ′ V PA ′ = P′−A ′ Further, per (V) is a vector perpendicular to the vector V and having the same length as V. That is, the component of V is (x,
If y), the component of per (V) is (y, -x) or (-y, x). Either one can be used, but the program must use one of them. From equation (3), point P
'Are obtained, the point P of the target image is obtained.
Can correspond to the point P 'of the source image.
【0032】しかし、基準となる線分(図7の線分A
B、A´B´またはベクトルV、V´)は必ずしも1本
でないから、ターゲットの点Pに対応するソースターゲ
ットの点は複数存在する。たとえば、図6における黒点
と黒点を結ぶ線分が基準線となる。いま図8に示すよう
に各基準線からの求められる点をP1´、P2´、…、
Pn´とすると、P´はそれぞれの変位(Pi´−P)
の加重平均として求める。すなわち、 P´=P+Σwi(Pi´−P)|/Σwi ……… (4) で求める。ここで、Σはiに関する総和記号である。ま
た、wiはi番目の重み係数であり、次式で定義する。 wi={|Vi|p/(a+dis)}b ……… (5) dis=|P−Ai| if t<0 =hi if 0≦t≦1 =|P−Bi| if t>1However, the reference line segment (line A in FIG. 7)
B, A′B ′ or the vectors V, V ′) are not necessarily one, so that there are a plurality of source target points corresponding to the target point P. For example, the line connecting the black points in FIG. 6 is the reference line. Now, as shown in FIG. 8, points obtained from each reference line are represented by P1 ', P2',.
When PN ', P'each displacement (P i'-P)
As a weighted average of That, P'= P + Σw i ( P i '-P) | obtained by / Σw i ......... (4). Here, Σ is a summation symbol for i. W i is the i-th weighting coefficient, and is defined by the following equation. w i = {| V i | p / (a + dis)} b ......... (5) dis = | P-A i | if t <0 = h i if 0 ≦ t ≦ 1 = | P-B i | if t> 1
【0033】上式のdisは点Pと線分AiBiとの距離を
表すが、内分点Hiが線分から外れる場合は線分PAiま
たは線分PBiの長さを距離とする。aはゼロディブ(分
母が0になること)を避けるためのパラメータであり、
0より大きい値を設定する。aが大きい値ほど制御がし
やすいが、感度が落ちる。bは0.5〜2の値が望ましい。
bの値が大きくなるほど、ターゲットイメージの基準線
に近い点Pほど、P´に与える影響が大きい。pは0〜1
の値で、p=1ならベクトルViの長いほど強い影響を
与え、p=0ならベクトルの長さに影響を受けない。Although dis in the above equation represents the distance between the point P and the line segment A i B i , when the internally divided point H i deviates from the line segment, the length of the line segment P Ai or the line segment P Bi is defined as the distance I do. a is a parameter for avoiding zero diving (the denominator becomes 0),
Set a value greater than 0. The larger the value of a, the easier the control is, but the lower the sensitivity. b is preferably a value of 0.5 to 2.
As the value of b increases, the effect on P 'increases at a point P closer to the reference line of the target image. p is 0-1
In the value, p = 1 if given longer strong influence of vector V i, not affected by the length of the if p = 0 vector.
【0034】(3)式は線分の内分比tおよびターゲット
イメージの点Pから基準線までの距離が、ソースイメー
ジのそれと同じとして求めたが、垂線の長さを一定とし
ないで、変換前の基準線(ベクトルV)と点Pと線分の
一端を結ぶベクトルの角度が変換前のそれと等しいとす
る方法もある。この場合、図9において、 cos(θ)=V・VPA/(|V|・|VPA|) =V´・VPA´/(|V´|・|VPA´|) の条件を満たす。すなわち、(3)式は h´=|tV´|tan(θ) P´=A´+tV´+h´per(V´)/|V´| ……… (6) と書き換えられる。また計算を簡単にするために、(5)
式の重み係数wiを wi=1/(1+dis) とすることもできる((5)式においてa=1、p=0、
b=1とした場合)。人間の顔画像から他の人間の顔画
像にワープさせる場合には、人間から他の動物にワープ
させる場合と違ってそれほど大きく変化することはない
から、(3)式、(6)式のどちらを用いても大差はない。全
画素単位の計算になるため、演算がすこしでも速く行え
る計算式が好ましい。Equation (3) is obtained by assuming that the internal division ratio t of the line segment and the distance from the point P of the target image to the reference line are the same as those of the source image. There is also a method in which the angle of a vector connecting the previous reference line (vector V), point P, and one end of the line segment is equal to that before conversion. In this case, in FIG. 9, cos (θ) = V · V PA / conditions (| V | · | V PA |) = V'· V PA '/ (| V'| · | | V PA') Fulfill. That is, equation (3) can be rewritten as h ′ = | tV ′ | tan (θ) P ′ = A ′ + tV ′ + h′per (V ′) / | V ′ | (6) Also, to simplify the calculation, (5)
The weighting coefficient w i in the equation can be set to w i = 1 / (1 + dis) (in equation (5), a = 1, p = 0,
b = 1). When a human face image is warped to another human face image, it does not change so much unlike the case where a human warps another animal, so either equation (3) or equation (6) is used. There is no big difference even if is used. Since the calculation is performed on a pixel-by-pixel basis, it is preferable to use a calculation formula that can be operated a little faster.
【0035】本発明の目指す最終目的は、モデルの顔画
像におけるパウダーのカラー値をどのようにユーザーの
顔画像に施すかである。そこで、本発明ではユーザーの
肌の点Pに対して(3)式または(6)式で求められたモデル
の肌の点P´のメイクを行う。すなわち、モデルの肌の
点P´のパウダーのカラー値C1とr1を得たとすれば、
ユーザーの点Pのメイク後のカラー値CnPは、 CnP=COP(1−r1)+C1r1 ……… (7) で求められる。ここで、COPは点Pにおけるユーザーの
肌のカラー値である。モデルの顔画像にパウダーC2、
r2が重ね塗りされているとすれば、さらにCOPを(7)式
の計算後のCnPに、r1をr2に、C1をC2に、それぞれ
置き換えたのち、(7)式で再計算すれば、新たなメイク
後のカラー値CnPが求められる。The final goal aimed at by the present invention is how to apply the powder color values in the model face image to the user's face image. Therefore, in the present invention, the skin point P 'of the model obtained by the equation (3) or (6) is applied to the skin point P of the user. That is, if the color values C 1 and r 1 of the powder at the point P ′ on the skin of the model are obtained,
The color value C nP of the user's point P after makeup is obtained as follows: C nP = C OP (1−r 1 ) + C 1 r 1 (7) Here, C OP is the color value of the skin of the user at point P. Powder C 2 on the face image of the model
Assuming that r 2 is overcoated, C OP is replaced with C nP after calculation of equation (7), r 1 is replaced with r 2 , and C 1 is replaced with C 2 , and then (7) By recalculating with the formula, a new color value C nP after makeup is obtained.
【0036】以上の処理をすべての肌の画素(目、眉、
唇領域は除いた画素)に対して行えば、モデルと同じパ
ウダーメイクが自動的に行える。The above processing is performed for all skin pixels (eye, eyebrow,
If this is performed on the pixels except for the lip region), the same powder makeup as that of the model can be automatically performed.
【0037】[0037]
【実施例】本発明の実施例としてインターネットを利用
してモデル画像を提供する場合を挙げる。この場合、イ
ンターネットユーザーに必要なハードウェア構成の一例
として以下の構成を挙げておく。 画像入力装置:デジタルカメラあるいはビデオカメラ 演算処理装置:パソコン 画像出力装置:ディスプレイ 画像印刷装置:カラープリンタ その他の入力装置:マウス また、ユーザー(一般会員)はインターネットのどこか
のプロバイダと会員契約が結ばれていることと、本発明
の自動メイキャップ用のソフトが導入されていることが
必要になる。DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described in which a model image is provided using the Internet. In this case, the following configuration is given as an example of the hardware configuration required for the Internet user. Image input device: Digital camera or video camera Arithmetic processing device: PC Image output device: Display Image printing device: Color printer Other input device: Mouse Also, users (general members) can sign a membership contract with a provider on the Internet. It is necessary that the software for automatic makeup of the present invention be introduced.
【0038】図10は、インターネットを通じてホーム
ページでモデルのメイキャップ画像を提供する場合の概
念図である。ユーザーはメイキャップされたモデルの顔
画像だけを取り寄せて観て楽しむこともできるが、自分
の顔画像にモデルと同じメイキャップを施したいときに
は、まず自分の顔画像をデジタルカメラ等でコンピュー
タに取り込んで顔領域を図6に示したような形態で定義
しておく。次にインターネットを通じてモデルの顔画像
を入手し、気に入ったモデルを選ぶと、そのモデルに施
されているメイキャップがそのままユーザーの顔画像に
施される。FIG. 10 is a conceptual diagram in a case where a makeup image of a model is provided on a homepage through the Internet. The user can obtain and enjoy only the face image of the model that has been made up, but if you want to apply the same make-up as the model to your own face image, first import your own face image to a computer with a digital camera etc. The face area is defined in the form as shown in FIG. Next, a face image of the model is obtained through the Internet, and a user selects a favorite model. Then, the makeup applied to the model is directly applied to the face image of the user.
【0039】ユーザーの顔画像に施されるメイキャップ
はモデルのメイキャップと同じであるが、顔の輪郭や肌
(素肌)の色が異なるために、メイクされた印象はモデ
ルのものと異なることがある。このような場合、さらに
その顔画像に手を加えて自分なりのメイクを追加するこ
とも可能である。The make-up applied to the face image of the user is the same as the make-up of the model, but the impression of the make-up differs from that of the model due to the different face outline and color of the skin (skin). There is. In such a case, it is possible to further modify the face image to add a personalized makeup.
【0040】[0040]
【発明の効果】化粧と一言でいって、どのような化粧を
すればよいか、なかなかわからないものである。このよ
うなときに、モデルのメイキャップが手助けとなる。本
発明ではモデルを選択するだけでモデルと同じメイキャ
ップがユーザーの顔画像に施されるから、自分の望むも
の、あるいは自分に似合いそうなモデルのメイキャップ
を選んで数多くのメイキャップを試みることができる。According to the present invention, it is difficult to know what kind of makeup should be applied. In such a case, the makeup of the model can help. In the present invention, just by selecting a model, the same make-up as the model is applied to the user's face image, so try many make-ups by choosing what you want or make-up of the model that seems to suit you Can be.
【0041】とくに本発明の特徴は、モデルの顔画像に
施されたメイキャップがユーザーの顔画像に単に移植さ
れるだけでなく、ユーザーの顔の輪郭や肌の特性をその
まま活かした状態でメイキャップされるために、同じメ
イキャップでも異なった印象を表現することができる。
たとえば、白い肌のモデルに施したパウダーと、日焼け
したユーザーの肌が施したパウダーでは、パウダーの映
え方が違う。したがって、自分に合ったメイキャップは
どれかを、実際に画面上でシミュレートして探すことが
できる。In particular, a feature of the present invention is that the makeup applied to the face image of the model is not only transplanted to the face image of the user, but also makes use of the face contour and skin characteristics of the user as they are. Because they are capped, different impressions can be expressed even with the same make-up.
For example, the appearance of powder differs between powder applied to a model with white skin and powder applied to the skin of a tanned user. Therefore, it is possible to actually simulate on the screen and find out which makeup suits the user.
【0042】本発明を効果的に活用するには、多くのメ
イキャップ、多くのモデルが提供できるシステムが好ま
しい。ユーザーは自分の輪郭に似たモデルや好みのメイ
キャップが選択でき、シミュレートできるからである。
したがって、実施例で挙げたインターネットのホームペ
ージでモデルの顔画像の提供や、雑誌の付録として多く
のモデルの顔画像が登録されたCDを提供するなどすれ
ば、ユーザーの選択の幅が広がる。In order to effectively utilize the present invention, a system that can provide many makeups and many models is preferable. This is because the user can select and simulate a model that resembles his own contour or his favorite makeup.
Therefore, if a model face image is provided on the Internet homepage described in the embodiment or a CD in which many model face images are registered as an appendix to a magazine is provided, the range of choices of the user is widened.
【0043】ユーザーの顔画像はイメージデータ入力装
置でコンピュータに取り込み、最初に一度だけ顔領域の
定義をしておけば、何度でもモデルを替えてシミュレー
トできる。また、夏に取り込んだ顔画像と冬に取り込ん
だ顔画像では、肌の色や唇の状態、あるいはその時々の
表情が異なる。このような違った状態での顔画像に対し
ても、本発明は元の顔画像の特性をそのまま活かした形
でメイキャップするために、同じ自分の顔画像に同じメ
イキャップ(同じモデルの選択)をしても、その時々の
状態でメイキャップの効果を確かめることができる。た
とえば本発明の唇に口紅を描画する方法は、唇の皺や影
などがそのまま口紅を着けたあとも表現されるので、冬
の唇の荒れた時期と夏の瑞々しい唇とでは、口紅の効果
が違うことが確かめられる。とくに肌の場合には、夏と
冬では肌の色に差があるために、パウダーの種類によっ
てその効果が異なる。このように、本発明の自動メイキ
ャップはユーザーの顔の状態で化粧の乗り具合が違うこ
とが、直接画面上で確かめることができる。したがっ
て、四季それぞれの、その時々の顔画像を用いることに
よって、場合に応じた化粧を、多くのモデルのメイキャ
ップを自分の顔画像に施すことによって短時間に見つけ
出すことができる。そこに本発明を用いることによって
得られる最大の効果がある。A user's face image is taken into a computer by an image data input device, and a face region can be simulated by changing the model any number of times if the face region is defined only once at first. Also, the face image captured in summer and the face image captured in winter have different skin colors, lip conditions, or different facial expressions. In order to make up the face image in the different state, the present invention makes use of the characteristics of the original face image as it is. ), You can check the effect of make-up in each situation. For example, in the method of drawing lipstick on the lips of the present invention, wrinkles and shadows of the lips are expressed even after the lipstick is applied as they are. Is different. In particular, in the case of skin, the effect differs depending on the type of powder due to the difference in skin color between summer and winter. As described above, it is possible to directly confirm on the screen that the automatic makeup of the present invention differs in the riding condition of the makeup depending on the state of the user's face. Therefore, by using the face image of each season in each season, it is possible to find makeup according to the case in a short time by applying makeup of many models to the own face image. There is a maximum effect obtained by using the present invention.
【0044】本発明の方法は、特殊メイクに対しても対
応することができる。たとえば、歌舞伎役者や俳優が行
う特殊メイクを自分の顔画像に描くこともできる。この
ような場合、通常厚化粧になるために肌や唇などの地肌
は出ないが、顔の輪郭はそのまま表現される。The method of the present invention can be applied to special makeup. For example, you can draw special makeup performed by kabuki actors and actors on your own face image. In such a case, since the makeup is usually thick, no skin such as skin or lips appears, but the contour of the face is expressed as it is.
【図1】発明の実施の形態において、眉毛を描画する位
置を決めるときに用いられる顔の定義点を説明するため
の図である。FIG. 1 is a diagram for describing a face definition point used when determining a position where an eyebrow is drawn in an embodiment of the present invention.
【図2】発明の実施の形態における眉型(眉テンプレー
トマスク画像)の描画座標を示した図である。FIG. 2 is a diagram showing drawing coordinates of an eyebrow type (eyebrow template mask image) according to the embodiment of the present invention.
【図3】発明の実施の形態における唇領域、肌領域、お
よび曖昧領域を説明するための図である。FIG. 3 is a diagram for explaining a lip region, a skin region, and an ambiguous region according to the embodiment of the present invention.
【図4】発明の実施の形態における唇のトーンを口紅の
トーンに変換する方法を説明するための図である。FIG. 4 is a diagram for explaining a method of converting a lip tone to a lipstick tone according to the embodiment of the present invention.
【図5】発明の実施の形態における各種メンバーシップ
関数を説明するための図である。FIG. 5 is a diagram for explaining various membership functions in the embodiment of the present invention.
【図6】発明の実施の形態における顔画像の定義点を示
した例である。FIG. 6 is an example showing definition points of a face image according to the embodiment of the present invention.
【図7】発明の実施の形態におけるターゲットイメージ
の基準線ABと点Pから、ソースイメージの点P´を求
める方法を説明するための図である(基準線の内分比と
基準線と点Pから直線ABまでの距離が等しいとした場
合の例)。FIG. 7 is a diagram for explaining a method of obtaining a point P ′ of a source image from a reference line AB and a point P of a target image according to the embodiment of the present invention (internal division ratio of reference line, reference line, and point An example in which the distance from P to the straight line AB is equal).
【図8】発明の実施の形態において、複数の基準線から
求められるソースイメージの点とターゲットイメージの
点との関係を示した図である。FIG. 8 is a diagram showing a relationship between points of a source image and points of a target image obtained from a plurality of reference lines in the embodiment of the present invention.
【図9】発明の実施の形態におけるターゲットイメージ
の基準線とある点Pから、ソースイメージの点P´を求
める方法を説明するための図である(基準線の内分比と
基準線と線分PAの角度がターゲットとソースで同じと
した場合の例)。FIG. 9 is a diagram for explaining a method of obtaining a point P ′ of a source image from a reference line of a target image and a certain point P according to the embodiment of the present invention (internal division ratio of reference line, reference line, and line); An example in which the angle of the minute PA is the same for the target and the source).
【図10】発明の実施例において、インターネット上で
モデルの顔画像を提供し、ユーザーがそれを受け取って
自分の顔画像にメイキャップをする場合の説明図であ
る。FIG. 10 is a diagram illustrating a case where a face image of a model is provided on the Internet and a user receives the model image and makes up the face image of the user in the embodiment of the present invention.
Claims (3)
シミュレーション描画方法において、(1)コンピュータ
グラフィックスを用いた化粧シミュレーションにより作
成した化粧後のモデル顔画像、および該モデル顔画像を
作成した化粧シミュレーションの手順を予め記憶し、
(2)化粧シミュレーション対象者に対し、前記予め準備
されたモデル顔画像を選択し、該選択されたモデル顔画
像の化粧シミュレーション手順を前記化粧シミュレーシ
ョン対象者の顔画像に適用することにより、選択したモ
デル化粧顔画像と同じ化粧を施した顔画像を作成するこ
とを特徴とする化粧シミュレーション自動描画方法。1. A makeup simulation drawing method using computer graphics, comprising: (1) a makeup model face image created by makeup simulation using computer graphics, and a makeup simulation procedure creating the model face image. Is stored in advance,
(2) For the makeup simulation subject, the prepared model face image is selected, and the makeup simulation procedure of the selected model face image is applied to the makeup simulation subject face image, thereby selecting the model face image. A makeup simulation automatic drawing method, wherein a face image with the same makeup as a model makeup face image is created.
シミュレーション描画装置において、(1)コンピュータ
グラフィックスを用いた化粧シミュレーションにより作
成した化粧後のモデル顔画像、および該モデル顔画像を
作成した化粧シミュレーションの手順を予め記憶する手
段、(2)化粧シミュレーション対象者に対し、前記予め
準備されたモデル顔画像を選択し、該選択されたモデル
顔画像の化粧シミュレーション手順を前記化粧シミュレ
ーション対象者の顔画像に適用する手段、を備えた、選
択したモデル化粧顔画像と同じ化粧を施した顔画像を作
成することを特徴とする化粧シミュレーション自動描画
装置。2. A makeup simulation drawing apparatus using computer graphics, wherein: (1) a makeup face model image created by makeup simulation using computer graphics; and makeup simulation procedure for creating the makeup face model image. (2) selecting a model face image prepared in advance for a makeup simulation subject, and applying a makeup simulation procedure of the selected model face image to the makeup simulation subject face image Means for creating a face image with the same makeup as the selected model makeup face image.
シミュレーション描画方法において、(1)コンピュータ
グラフィックスを用いた化粧シミュレーションにより作
成した化粧後のモデル顔画像、および該モデル顔画像を
作成した化粧シミュレーションの手順を予め記憶する手
順、(2)化粧シミュレーション対象者に対し、前記予め
準備されたモデル顔画像を選択し、該選択されたモデル
顔画像の化粧シミュレーション手順を前記化粧シミュレ
ーション対象者の顔画像に適用する手順により、選択し
たモデル化粧顔画像と同じ化粧を施した顔画像を作成す
るプログラムを記録したコンピュータ用記録媒体。3. A makeup simulation drawing method using computer graphics, wherein (1) a makeup model face image created by makeup simulation using computer graphics, and a makeup simulation procedure creating the model face image. (2) For the makeup simulation subject, select the model face image prepared in advance, and apply the makeup simulation procedure of the selected model face image to the face image of the makeup simulation subject. A computer-readable recording medium for recording a program for creating a face image with the same makeup as the selected model makeup face image by performing the following steps.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP32718897A JPH11143352A (en) | 1997-11-13 | 1997-11-13 | Method and device for automatically plotting makeup simulation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP32718897A JPH11143352A (en) | 1997-11-13 | 1997-11-13 | Method and device for automatically plotting makeup simulation |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11143352A true JPH11143352A (en) | 1999-05-28 |
Family
ID=18196303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP32718897A Pending JPH11143352A (en) | 1997-11-13 | 1997-11-13 | Method and device for automatically plotting makeup simulation |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11143352A (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001000421A (en) * | 1999-06-22 | 2001-01-09 | Pola Chem Ind Inc | Countenance simulation method |
WO2001004838A1 (en) * | 1999-07-07 | 2001-01-18 | Unilever Plc | A system for colour cosmetic selection |
JP2001051599A (en) * | 1999-08-05 | 2001-02-23 | Kanebo Ltd | Sheet for sales promotion |
FR2799022A1 (en) * | 1999-09-29 | 2001-03-30 | Oreal | MAKE-UP ASSISTANCE DEVICE AND ASSEMBLY CONSISTING OF SUCH A DEVICE AND A DEVICE FOR DELIVERING A PRODUCT HAVING A PREDETERMINED BRDF, SELECTED BY THE MAKE-UP ASSISTANCE DEVICE |
WO2001004839A3 (en) * | 1999-07-07 | 2001-05-25 | Unilever Plc | Virtual makeover |
JP2001346627A (en) * | 2000-06-07 | 2001-12-18 | Kao Corp | Make-up advice system |
JP2002189918A (en) * | 2000-12-20 | 2002-07-05 | Pola Chem Ind Inc | System and method for generating cosmetic information, and computer-readable recording medium |
JP2002304620A (en) * | 2000-12-21 | 2002-10-18 | L'oreal Sa | Measuring method for degree of expressive feature of body |
JP2003044837A (en) * | 2001-07-30 | 2003-02-14 | Digital Fashion Ltd | Device for simulating makeup, method for controlling makeup simulation and computer-readable recording medium having makeup simulation program recorded thereon |
JP2003149051A (en) * | 2001-11-08 | 2003-05-21 | Kanebo Ltd | Selection and recommendation method for foundation and apparatus used for the same |
JP2003263492A (en) * | 1999-10-29 | 2003-09-19 | Kao Corp | Hair color advice system |
JP2004005660A (en) * | 2002-05-31 | 2004-01-08 | Eastman Kodak Co | Method and system for enhancing portrait image |
JP2004030007A (en) * | 2002-06-24 | 2004-01-29 | Digital Fashion Ltd | Makeup simulation apparatus, makeup simulation method, makeup simulation program and recording medium with program recorded thereon |
JP2004503842A (en) * | 2000-06-26 | 2004-02-05 | シーテック・カンパニー・リミテッド | Synthetic modeling of human body based on internet, system and method of providing |
WO2005073909A1 (en) * | 2004-01-30 | 2005-08-11 | Digital Fashion Ltd. | Makeup simulation program, makeup simulation device, and makeup simulation method |
US6959119B2 (en) * | 2000-11-03 | 2005-10-25 | Unilever Home & Personal Care Usa | Method of evaluating cosmetic products on a consumer with future predictive transformation |
JP2007293649A (en) * | 2006-04-26 | 2007-11-08 | Megachips Lsi Solutions Inc | Makeup assist device and eyebrow drawing assist device |
CN109583263A (en) * | 2017-09-28 | 2019-04-05 | 丽宝大数据股份有限公司 | In conjunction with the biological information analytical equipment and its eyebrow type method for previewing of augmented reality |
-
1997
- 1997-11-13 JP JP32718897A patent/JPH11143352A/en active Pending
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001000421A (en) * | 1999-06-22 | 2001-01-09 | Pola Chem Ind Inc | Countenance simulation method |
US6293284B1 (en) | 1999-07-07 | 2001-09-25 | Division Of Conopco, Inc. | Virtual makeover |
WO2001004838A1 (en) * | 1999-07-07 | 2001-01-18 | Unilever Plc | A system for colour cosmetic selection |
US6437866B1 (en) | 1999-07-07 | 2002-08-20 | Fd Management, Inc. | System for assisting customers in selecting an optimum color cosmetic product |
WO2001004839A3 (en) * | 1999-07-07 | 2001-05-25 | Unilever Plc | Virtual makeover |
JP2001051599A (en) * | 1999-08-05 | 2001-02-23 | Kanebo Ltd | Sheet for sales promotion |
US6810130B1 (en) | 1999-09-29 | 2004-10-26 | L'oreal | Apparatus for assisting makeup and an assembly constituted by such apparatus and apparatus for delivering makeup having a predetermined BRDF as selected by the apparatus for assisting makeup |
EP1089191A1 (en) * | 1999-09-29 | 2001-04-04 | L'oreal | Make-up aid device |
JP2001186923A (en) * | 1999-09-29 | 2001-07-10 | L'oreal Sa | Makeup auxiliary device, system, and method |
FR2799022A1 (en) * | 1999-09-29 | 2001-03-30 | Oreal | MAKE-UP ASSISTANCE DEVICE AND ASSEMBLY CONSISTING OF SUCH A DEVICE AND A DEVICE FOR DELIVERING A PRODUCT HAVING A PREDETERMINED BRDF, SELECTED BY THE MAKE-UP ASSISTANCE DEVICE |
JP2003263492A (en) * | 1999-10-29 | 2003-09-19 | Kao Corp | Hair color advice system |
JP2001346627A (en) * | 2000-06-07 | 2001-12-18 | Kao Corp | Make-up advice system |
JP2004503842A (en) * | 2000-06-26 | 2004-02-05 | シーテック・カンパニー・リミテッド | Synthetic modeling of human body based on internet, system and method of providing |
US6959119B2 (en) * | 2000-11-03 | 2005-10-25 | Unilever Home & Personal Care Usa | Method of evaluating cosmetic products on a consumer with future predictive transformation |
JP2002189918A (en) * | 2000-12-20 | 2002-07-05 | Pola Chem Ind Inc | System and method for generating cosmetic information, and computer-readable recording medium |
JP2002304620A (en) * | 2000-12-21 | 2002-10-18 | L'oreal Sa | Measuring method for degree of expressive feature of body |
JP2006048729A (en) * | 2000-12-21 | 2006-02-16 | L'oreal Sa | Methods for evaluating degree of typological characteristics of body |
JP2003044837A (en) * | 2001-07-30 | 2003-02-14 | Digital Fashion Ltd | Device for simulating makeup, method for controlling makeup simulation and computer-readable recording medium having makeup simulation program recorded thereon |
JP2003149051A (en) * | 2001-11-08 | 2003-05-21 | Kanebo Ltd | Selection and recommendation method for foundation and apparatus used for the same |
JP2004005660A (en) * | 2002-05-31 | 2004-01-08 | Eastman Kodak Co | Method and system for enhancing portrait image |
JP2004030007A (en) * | 2002-06-24 | 2004-01-29 | Digital Fashion Ltd | Makeup simulation apparatus, makeup simulation method, makeup simulation program and recording medium with program recorded thereon |
WO2005073909A1 (en) * | 2004-01-30 | 2005-08-11 | Digital Fashion Ltd. | Makeup simulation program, makeup simulation device, and makeup simulation method |
JP2007293649A (en) * | 2006-04-26 | 2007-11-08 | Megachips Lsi Solutions Inc | Makeup assist device and eyebrow drawing assist device |
CN109583263A (en) * | 2017-09-28 | 2019-04-05 | 丽宝大数据股份有限公司 | In conjunction with the biological information analytical equipment and its eyebrow type method for previewing of augmented reality |
JP2019063480A (en) * | 2017-09-28 | 2019-04-25 | 麗寶大數據股▲フン▼有限公司 | Body information analysis apparatus combining with augmented reality and eyebrow shape preview method thereof |
US10528796B2 (en) | 2017-09-28 | 2020-01-07 | Cal-Comp Big Data, Inc. | Body information analysis apparatus with augmented reality and eyebrow shape preview method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH11143352A (en) | Method and device for automatically plotting makeup simulation | |
US10559111B2 (en) | Systems and methods for generating computer ready animation models of a human head from captured data images | |
JP3984191B2 (en) | Virtual makeup apparatus and method | |
US5995119A (en) | Method for generating photo-realistic animated characters | |
JP3030485B2 (en) | Three-dimensional shape extraction method and apparatus | |
US9978175B2 (en) | Real time concurrent design of shape, texture, and motion for 3D character animation | |
US5267154A (en) | Biological image formation aiding system and biological image forming method | |
US7020347B2 (en) | System and method for image-based surface detail transfer | |
US9058765B1 (en) | System and method for creating and sharing personalized virtual makeovers | |
JP4435809B2 (en) | Virtual makeup apparatus and method | |
US20100189357A1 (en) | Method and device for the virtual simulation of a sequence of video images | |
JP4404650B2 (en) | Makeup simulation device, makeup simulation method, makeup simulation program | |
JPH10255066A (en) | Face image correcting method, makeup simulating method, makeup method, makeup supporting device, and foundation transfer film | |
US20070019882A1 (en) | Makeup simulation program, makeup simulation device, and makeup simulation method | |
KR101794731B1 (en) | Method and device for deforming a template model to create animation of 3D character from a 2D character image | |
JPWO2008102440A1 (en) | Makeup face image generating apparatus and method | |
CN106447739A (en) | Method for generating makeup region dynamic image and beauty makeup assisting method and device | |
CN116648733A (en) | Method and system for extracting color from facial image | |
JP2000151985A (en) | Picture processing method and recording medium | |
JPH1125253A (en) | Method for drawing eyebrow | |
KR20010084996A (en) | Method for generating 3 dimension avatar using one face image and vending machine with the same | |
JPH06319613A (en) | Make-up support device for face | |
JP3362112B2 (en) | Face image drawing method and apparatus | |
Nishimura et al. | iMake: eye makeup design generator | |
JP7153280B2 (en) | MAKEUP SIMULATION SYSTEM, MAKEUP SIMULATION METHOD AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Effective date: 20040615 Free format text: JAPANESE INTERMEDIATE CODE: A02 |