JP2014199536A - Face model generating device, method for controlling face model generating device, and program - Google Patents
Face model generating device, method for controlling face model generating device, and program Download PDFInfo
- Publication number
- JP2014199536A JP2014199536A JP2013074312A JP2013074312A JP2014199536A JP 2014199536 A JP2014199536 A JP 2014199536A JP 2013074312 A JP2013074312 A JP 2013074312A JP 2013074312 A JP2013074312 A JP 2013074312A JP 2014199536 A JP2014199536 A JP 2014199536A
- Authority
- JP
- Japan
- Prior art keywords
- face model
- feature point
- face
- point corresponding
- model generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は顔モデル生成装置、顔モデル生成装置の制御方法、及びプログラムに関する。 The present invention relates to a face model generation device, a control method for a face model generation device, and a program.
撮影装置によって実在の人物の顔を撮影した顔画像に基づいて、顔の三次元モデルを作成することが行われている。例えば、上記のような顔画像に基づいてキャラクタオブジェクトの顔を作成する場合、作成者は、キャラクタオブジェクトの顔部分に顔画像を貼り付け、顔画像に合わせてキャラクタオブジェクトの顔部分を変形することによって、キャラクタオブジェクトの顔を作成していた。 A three-dimensional model of a face is created based on a face image obtained by photographing a real person's face with a photographing apparatus. For example, when creating the face of a character object based on the face image as described above, the creator pastes the face image on the face portion of the character object and deforms the face portion of the character object to match the face image. Thus, the face of the character object was created.
しかしながら、従来、キャラクタオブジェクトの顔部分に顔画像を貼り付けた後の変形作業に時間がかかっていた。 However, conventionally, it takes time to perform the deformation work after the face image is pasted on the face portion of the character object.
本発明は上記課題に鑑みてなされたものであって、その目的は、撮影された顔画像に基づいて顔の三次元モデルを作成するために必要な作業時間を軽減することが可能な顔モデル生成装置、顔モデル生成装置の制御方法、及びプログラムを提供することにある。 The present invention has been made in view of the above problems, and its purpose is a face model capable of reducing the work time required to create a three-dimensional model of a face based on a captured face image. A generation apparatus, a control method of a face model generation apparatus, and a program are provided.
上記課題を解決するために、本発明に係る顔モデル生成装置は、撮影された顔画像に基づいて、顔の三次元モデルである顔モデルを生成する顔モデル生成装置(10)において、前記顔画像内に設定された、前記顔内の所定部位に対応する複数の特徴点の位置を取得する特徴点取得手段(34)と、前記複数の特徴点の位置に基づいて前記顔モデルを生成する顔モデル生成手段(36)と、を含むことを特徴とする。 In order to solve the above-described problems, a face model generation device according to the present invention includes a face model generation device (10) that generates a face model that is a three-dimensional model of a face based on a captured face image. Feature point acquisition means (34) for acquiring the positions of a plurality of feature points corresponding to a predetermined part in the face set in the image, and generating the face model based on the positions of the plurality of feature points And a face model generation means (36).
また、本発明に係る顔モデル装置の制御方法は、撮影された顔画像に基づいて、顔の三次元モデルである顔モデルを生成する顔モデル生成装置(10)の制御方法において、前記顔画像内に設定された、前記顔内の所定部位に対応する複数の特徴点の位置を取得する特徴点取得ステップと、前記複数の特徴点の位置に基づいて前記顔モデルを生成する顔モデル生成ステップと、を含むことを特徴とする。 The face model device control method according to the present invention is the face model generation device (10) control method for generating a face model, which is a three-dimensional model of a face, based on a captured face image. A feature point acquiring step for acquiring the positions of a plurality of feature points corresponding to a predetermined part in the face, and a face model generating step for generating the face model based on the positions of the plurality of feature points It is characterized by including these.
また、本発明に係るプログラムは、撮影された顔画像に基づいて、顔の三次元モデルである顔モデルを生成する顔モデル生成装置(10)としてコンピュータを機能させるためのプログラムであって、前記顔画像内に設定された、前記顔内の所定部位に対応する複数の特徴点の位置を取得する特徴点取得手段(34)、及び、前記複数の特徴点の位置に基づいて前記顔モデルを生成する顔モデル生成手段(36)、として前記コンピュータを機能させるためのプログラムである。 A program according to the present invention is a program for causing a computer to function as a face model generation device (10) that generates a face model, which is a three-dimensional model of a face, based on a captured face image. Feature point acquisition means (34) for acquiring the positions of a plurality of feature points corresponding to a predetermined part in the face set in the face image, and the face model based on the positions of the plurality of feature points It is a program for causing the computer to function as a face model generation means (36) to be generated.
また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。 An information storage medium according to the present invention is a computer-readable information storage medium recording the above program.
また、本発明の一態様では、前記顔モデルには複数のボーンが設定され、前記顔モデル生成手段(36)は、前記複数の特徴点の位置関係に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含むようにしてもよい。 In the aspect of the invention, a plurality of bones may be set in the face model, and the face model generation unit (36) may determine the position of the plurality of bones based on the positional relationship between the plurality of feature points. A means for setting the size may be included.
また、本発明の一態様では、前記複数の特徴点は、額の中央部又は眉間に対応する特徴点と、顎に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記額の中央部又は眉間に対応する特徴点と、前記顎に対応する特徴点と、に基づいて得られる距離に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含むようにしてもよい。 Moreover, in one aspect of the present invention, the plurality of feature points include a feature point corresponding to the center of the forehead or the eyebrows and a feature point corresponding to the chin, and the face model generation means (36) includes: Means for setting the positions or sizes of the plurality of bones based on the distance obtained based on the feature point corresponding to the central part of the forehead or between the eyebrows and the feature point corresponding to the jaw. Good.
また、本発明の一態様では、前記複数の特徴点は、左頬骨に対応する特徴点と、右頬骨に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記左頬骨に対応する特徴点と、前記右頬骨に対応する特徴点と、に基づいて得られる距離に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含むようにしてもよい。 In the aspect of the invention, the plurality of feature points include a feature point corresponding to the left cheekbone and a feature point corresponding to the right cheekbone, and the face model generation means (36) includes the left cheekbone. Means for setting positions or sizes of the plurality of bones based on distances obtained based on the feature points corresponding to the right cheekbone and the feature points corresponding to the right cheekbone.
また、本発明の一態様では、前記複数の特徴点は、左頬骨に対応する特徴点と、右頬骨に対応する特徴点と、左えら骨に対応する特徴点と、右えら骨に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記左頬骨に対応する特徴点と前記右頬骨に対応する特徴点とに基づいて得られる距離と、前記左えら骨に対応する特徴点と前記右えら骨に対応する特徴点とに基づいて得られる距離と、の比に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含むようにしてもよい。 In the aspect of the invention, the plurality of feature points correspond to a feature point corresponding to the left cheekbone, a feature point corresponding to the right cheekbone, a feature point corresponding to the left gillbone, and a right gillbone. The face model generation means (36) includes a distance obtained based on a feature point corresponding to the left cheekbone and a feature point corresponding to the right cheekbone and the left gill bone. Means for setting the positions or sizes of the plurality of bones based on a ratio between a feature point and a distance obtained based on the feature point corresponding to the right gill bone may be included.
また、本発明の一態様では、前記顔モデルは、眼球を表す眼球オブジェクトを含み、前記複数の特徴点は、目頭に対応する特徴点と、目尻に対応する特徴点と、上瞼に対応する特徴点と、下瞼に対応する特徴点と、を含み、前記顔モデル生成手段(36)、前記目頭に対応する特徴点の位置と、前記目尻に対応する特徴点の位置と、前記上瞼に対応する特徴点の位置と、前記下瞼に対応する特徴点の位置と、に基づいて、前記眼球オブジェクトの位置又は大きさを設定する手段を含むようにしてもよい。 In the aspect of the invention, the face model includes an eyeball object representing an eyeball, and the plurality of feature points correspond to a feature point corresponding to the eye's head, a feature point corresponding to the corner of the eye, and an upper eyelid. Including the feature point and the feature point corresponding to the lower eyelid, the face model generation means (36), the position of the feature point corresponding to the eye corner, the position of the feature point corresponding to the outer corner of the eye, and the upper eyelid And a means for setting the position or size of the eyeball object based on the position of the feature point corresponding to and the position of the feature point corresponding to the lower eyelid.
また、本発明の一態様では、前記顔モデルには、瞼を開閉するためのボーンが設定され、当該ボーンが回転することによって前記瞼が開閉し、前記顔モデル生成手段(36)は、前記瞼を開閉するためのボーンの回転角度の上限を、前記上瞼に対応する特徴点の位置と、前記下瞼に対応する特徴点の位置と、前記眼球オブジェクトの位置と、に基づいて設定する手段を含むようにしてもよい。 In the aspect of the invention, a bone for opening and closing the eyelid is set in the face model, the eyelid is opened and closed by rotating the bone, and the face model generating means (36) An upper limit of the rotation angle of the bone for opening and closing the eyelid is set based on the position of the feature point corresponding to the upper eyelid, the position of the feature point corresponding to the lower eyelid, and the position of the eyeball object Means may be included.
また、本発明の一態様では、前記顔モデルには、頬骨に対応するボーンが設定され、前記複数の特徴点は、左口角に対応する特徴点と、右口角に対応する特徴点と、唇の中央部に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記左口角に対応する特徴点の位置と、前記右口角に対応する特徴点の位置と、前記唇の中央部に対応する特徴点の位置と、に基づいて、前記頬骨に対応するボーンの位置を設定する手段を含むようにしてもよい。 In one aspect of the present invention, a bone corresponding to a cheekbone is set in the face model, and the plurality of feature points include a feature point corresponding to a left mouth corner, a feature point corresponding to a right mouth corner, and a lip The face model generation means (36) includes a feature point position corresponding to the left mouth corner, a feature point position corresponding to the right mouth corner, Means for setting the position of the bone corresponding to the cheekbone based on the position of the feature point corresponding to the central portion may be included.
また、本発明の一態様では、前記顔モデルにマッピングする顔テクスチャ画像を前記顔画像に基づいて生成する顔テクスチャ画像生成手段(38)を含み、前記顔テクスチャ画像生成手段(38)は、前記複数の特徴点のうちのいずれかの特徴点の色と、所定の色と、の差に基づいて、前記顔テクスチャ画像の色を調整する手段を含むようにしてもよい。 Further, in one aspect of the present invention, the image processing apparatus includes a face texture image generation unit (38) that generates a face texture image to be mapped to the face model based on the face image, and the face texture image generation unit (38) Means for adjusting the color of the face texture image based on the difference between the color of any one of the plurality of feature points and a predetermined color may be included.
また、本発明の一態様では、前記顔モデル生成手段(36)は、前記複数の特徴点のうちの少なくとも二つが前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含むようにしてもよい。 In the aspect of the invention, the face model generation means (36) adjusts the face model so that at least two of the plurality of feature points are located on a median line of the face model. It may be included.
また、本発明の一態様では、前記複数の特徴点は、額の中央部又は眉間に対応する特徴点と、唇の中央部又は鼻頭に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記額の中央部又は眉間に対応する特徴点と、前記唇の中央部又は鼻頭に対応する特徴点と、が前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含むようにしてもよい。 In the aspect of the invention, the plurality of feature points include a feature point corresponding to a central part of the forehead or the eyebrows, and a feature point corresponding to a central part of the lips or the nasal head, and the face model generating unit (36) the face model is such that a feature point corresponding to the central part of the forehead or between the eyebrows and a feature point corresponding to the central part of the lip or the nasal head are located on the median line of the face model. A means for adjusting may be included.
また、本発明の一態様では、前記複数の特徴点は、前記複数の特徴点は、左口角に対応する特徴点と、右口角に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記左口角に対応する特徴点と、前記右口角に対応する特徴点と、の間の中間点が前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含むようにしてもよい。 In the aspect of the invention, the plurality of feature points include a feature point corresponding to a left mouth corner and a feature point corresponding to a right mouth corner, and the face model generating unit ( 36) means for adjusting the face model so that an intermediate point between the feature point corresponding to the left mouth corner and the feature point corresponding to the right mouth corner is located on the median line of the face model; It may be included.
また、本発明の一態様では、前記複数の特徴点は、左目に対応する特徴点と、右目に対応する特徴点と、を含み、前記顔モデル生成手段(36)は、前記左目に対応する特徴点と、前記右目に対応する特徴点と、の間の中間点が前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含むようにしてもよい。 In the aspect of the invention, the plurality of feature points include a feature point corresponding to the left eye and a feature point corresponding to the right eye, and the face model generation unit (36) corresponds to the left eye. A means for adjusting the face model may be included so that an intermediate point between the feature point and the feature point corresponding to the right eye is located on the median line of the face model.
また、本発明の一態様では、前記複数の特徴点の位置を前記ユーザが設定するための設定画面として、前記複数の特徴点が前記顔画像上に表された画面を表示手段に表示させる表示制御手段(30)と、前記ユーザの操作に基づいて、前記顔画像上に表された前記複数の特徴点のうちの少なくとも一つの位置を変更する変更手段(32)と、を含むようにしてもよい。前記設定画面では特徴点間が直線で連結されるようにしてもよい。 In one aspect of the present invention, as a setting screen for setting the positions of the plurality of feature points by the user, a display in which a screen in which the plurality of feature points are displayed on the face image is displayed on a display unit. Control means (30) and change means (32) for changing the position of at least one of the plurality of feature points represented on the face image based on the user's operation may be included. . On the setting screen, the feature points may be connected by a straight line.
なお、上記では、本発明の理解を容易にするために、図面に記載の符号を括弧書きで記載しているが、これにより本発明が図示の態様に限定されるものではない。 In addition, in the above, in order to make an understanding of this invention easy, the code | symbol described in drawing is described in the bracket | parenthesis, However, This invention is not limited to the aspect of illustration by this.
本発明によれば、撮影された顔画像に基づいて顔の三次元モデルを作成するために必要な作業時間を軽減することが可能になる。 According to the present invention, it is possible to reduce the work time required for creating a three-dimensional model of a face based on a photographed face image.
以下、本発明の実施形態の例について図面に基づき詳細に説明する。 Hereinafter, examples of embodiments of the present invention will be described in detail with reference to the drawings.
図1は本発明の実施形態に係る顔モデル生成装置のハードウェア構成を示す。本実施形態に係る顔モデル生成装置10は、例えばパーソナルコンピュータ等のコンピュータによって実現される。図1に示すように、本実施形態に係る顔モデル生成装置10は制御部11、記憶部12、通信部13、操作部14、及び表示部15を含む。
FIG. 1 shows a hardware configuration of a face model generation apparatus according to an embodiment of the present invention. The face
制御部11は例えば1又は複数のマイクロプロセッサ等を含み、オペレーティングシステムやその他のプログラムに従って処理を実行する。記憶部12は主記憶部(例えばRAM)及び補助記憶部(例えばハードディスクドライブ又はソリッドステートドライブ)を含む。
The control unit 11 includes, for example, one or a plurality of microprocessors, and executes processing according to an operating system and other programs. The
通信部13は通信ネットワークに接続するためのインタフェースである。プログラムやデータは通信ネットワークを介して顔モデル生成装置10に供給される。なお、顔モデル生成装置10は、光ディスク又はメモリカード等の情報記憶媒体に記憶されたプログラム又はデータを読み取るための構成要素を含むようにしてもよい。そして、光ディスク又はメモリカード等の情報記憶媒体を介して顔モデル生成装置10にプログラムやデータが供給されるようにしてもよい。
The
操作部14はユーザが操作を行うためのものである。例えば、顔モデル生成装置10がパーソナルコンピュータである場合、パーソナルコンピュータに備えられているマウス又はキーボードが操作部14に相当する。表示部15は例えば液晶表示パネル又は有機ELディスプレイ等であり、制御部11の指示に従って画面を表示する。
The
顔モデル生成装置10は、デジタルカメラ等の撮影装置によって撮影された顔画像に基づいて、顔の三次元モデルである顔モデルを生成する機能を備えている。すなわち、顔モデル生成装置10の記憶部12には、撮影装置によって撮影された顔画像に基づいて顔モデルを生成するためのプログラムが記憶されている。このプログラムが実行されることによって上記機能が実現される。
The face
図2は、顔モデルの生成に用いられる顔画像の一例を示す。図2に示すように、顔モデルの生成には、正方形(又は略正方形)の顔画像20が用いられる。また、顔モデルの生成には、顔を正面から撮影した画像であって、かつ、正中線が真っ直ぐ(又は略真っ直ぐ)になっている顔画像20が用いられる。なお、顔画像20は、顔を正面から撮影した画像でなくてもよい。例えば、顔を斜め前方から撮影した画像であっても、両目の輪郭が写っているのであれば、顔モデルの生成に使用することが可能である。
FIG. 2 shows an example of a face image used for generating a face model. As shown in FIG. 2, a square (or substantially square) face
図3は、顔モデル生成装置10で実現される機能ブロックの一例を示す機能ブロック図である。図3に示すように、顔モデル生成装置10は、設定画面表示制御部30、特徴点設定部32、特徴点取得部34、顔モデル生成部36、及び顔テクスチャ画像生成部38を含む。これらの機能ブロックは制御部11によって実現される。すなわち、制御部11がプログラムに従って処理を実行することによって、制御部11がこれらの機能ブロックとして機能する。
FIG. 3 is a functional block diagram illustrating an example of functional blocks realized by the face
設定画面表示制御部30は、ユーザが複数の特徴点を顔画像20上に設定するための設定画面を表示部15に表示する。
The setting screen
図4は設定画面の一例を示す。図4に示すように、設定画面40には顔画像20が表示される。なお、設定画面40に表示される顔画像20は所定のサイズ(例えば256×256ピクセル)に設定される。
FIG. 4 shows an example of the setting screen. As shown in FIG. 4, the
設定画面40では23個の特徴点42A〜42Wが顔画像20内に表示される。なお以下では、特徴点42A〜42Wのことを総称して「特徴点42」と記載する場合がある。
On the
特徴点42Aは眉間に設定されるべき特徴点である。なお、特徴点42Aは額の中央部に設定されるべき特徴点としてもよい。
The
また、特徴点42B〜42Fは左目に対応する特徴点であり、左目を囲むようにして設定されるべき特徴点である。このうち、特徴点42B,42Cは上瞼に対応する特徴点であり、上瞼を三つに分けるようにして設定されるべき特徴点である。また、特徴点42Dは目頭に設定されるべき特徴点であり、特徴点42Fは目尻に設定されるべき特徴点である。そして、特徴点42Eは下瞼に対応する特徴点であり、下瞼を二等分するようにして設定されるべき特徴点である。
Further, the feature points 42B to 42F are feature points corresponding to the left eye, and should be set so as to surround the left eye. Among these, the feature points 42B and 42C are feature points corresponding to the upper eyelid, and should be set so that the upper eyelid is divided into three. The
同様に、特徴点42G〜42Kは右目に対応する特徴点であり、右目を囲むようにして設定されるべき特徴点である。このうち、特徴点42G,42Hは上瞼に対応する特徴点であり、上瞼を三つに分けるようにして設定されるべき特徴点である。また、特徴点42Iは目頭に設定されるべき特徴点であり、特徴点42Kは目尻に設定されるべき特徴点である。そして、特徴点42Jは下瞼に対応する特徴点であり、下瞼を二等分するようにして設定されるべき特徴点である。
Similarly, the feature points 42G to 42K are feature points corresponding to the right eye, and should be set so as to surround the right eye. Among these, the feature points 42G and 42H are feature points corresponding to the upper eyelid, and should be set so that the upper eyelid is divided into three. The feature point 42I is a feature point to be set at the top of the eye, and the
特徴点42L〜42Nは鼻に対応する特徴点である。このうち、特徴点42Mは鼻頭(鼻尖)に設定されるべき特徴点である。特徴点42Lは左鼻翼に設定されるべき特徴点であり、特徴点42Nは右鼻翼に設定されるべき特徴点である。
The feature points 42L to 42N are feature points corresponding to the nose. Among these, the
特徴点42O〜42Qは唇に対応する特徴点である。このうち、特徴点42Pは唇の中央部に設定されるべき特徴点である。特徴点42Oは左口角(唇の左端)に設定されるべき特徴点であり、特徴点42Qは右口角(唇の右端)に設定されるべき特徴点である。
The feature points 42O to 42Q are feature points corresponding to the lips. Of these, the
特徴点42Rは左頬骨に対応する特徴点であり、左頬骨の突き出た位置に設定されるべき特徴点である。特徴点42Wは右頬骨に対応する特徴点であり、右頬骨の突き出た位置に設定されるべき特徴点である。特徴点42T,42Uは顎に設定されるべき特徴点である。特徴点42Sは左えら骨に対応する特徴点であり、左頬骨と顎骨との間に設定されるべき特徴点である。特徴点42Vは右えら骨に対応する特徴点であり、右頬骨と顎骨との間に設定されるべき特徴点である。
The
また設定画面40では、特徴点42間が連結線44(直線)によって連結されている。具体的には、同一部位ごと又は所定部位群ごとに、特徴点42間が連結線44によって連結されている。
In the
図4に示す設定画面40では、左目に対応する特徴点42B〜42Fが連結線44によって連結されている。また、右目に対応する特徴点42G〜42Kが連結線44によって連結されている。さらに、鼻に対応する特徴点42L〜42Nが連結線44によって連結されている。また、唇に対応する特徴点42O〜42Qが連結線44によって連結されている。さらに、頬骨、えら骨、及び顎に対応する特徴点42R〜42Wが連結線44によって連結されている。
In the
このような連結線44が表示されることによって、各特徴点42がどの部位に対応するものであるのかをユーザが直感的に理解できるようになっている。
By displaying such a
特徴点設定部32(変更手段)は、設定画面40が表示されている間にユーザが行った操作に基づいて、複数の特徴点42のうちの少なくとも一つの位置を変更する。
The feature point setting unit 32 (changing unit) changes the position of at least one of the plurality of feature points 42 based on an operation performed by the user while the
例えば、特徴点42Aの初期位置が眉間に設定されていない場合、ユーザはマウス等を用いて特徴点42Aをドラッグアンドドロップすることによって、特徴点42Aを顔画像20の眉間の位置まで移動させる。他の特徴点42B〜42Wに関しても同様である。
For example, when the initial position of the
特徴点設定部32は、ユーザによって行われた上記のような操作に基づいて、特徴点42A〜42Wのうちの少なくとも一つの位置を変更する。
The feature
特徴点取得部34は、顔画像20内に設定された複数の特徴点42の位置を取得する。
The feature
顔モデル生成部36は、特徴点取得部34によって取得された複数の特徴点42の位置に基づいて、顔モデルを生成する。例えば、顔モデル生成部36は、複数の特徴点42の位置関係に基づいて、顔モデルに設定される複数のボーンの位置又は大きさを設定する。顔モデル生成部36の機能の詳細については後述する(図7,8参照)。
The face
顔テクスチャ画像生成部38は、顔モデルにマッピングする顔テクスチャ画像を顔画像20に基づいて生成する。顔テクスチャ画像生成部38の機能の詳細については後述する(図8のステップS215参照)。
The face texture
次に、顔画像20に基づいて顔モデルを生成するために顔モデル生成装置10が実行する処理について説明する。図5は本処理の一例を示すフロー図である。制御部11がプログラムに従って図5に示す処理を実行することによって、制御部11が図3に示す機能ブロックとして機能するようになる。
Next, a process executed by the face
図5に示すように、まず、制御部11(設定画面表示制御部30)は設定画面40を表示部15に表示する(S101)。設定画面40が表示されている場合、制御部11(特徴点設定部32)はユーザによって行われた操作に基づいて特徴点42の位置を変更する。
As shown in FIG. 5, first, the control unit 11 (setting screen display control unit 30) displays the
特徴点42の設定が完了した場合、制御部11は設定画面40を閉じ、スキンカラー選択画面を表示部15に表示する(S102)。スキンカラー選択画面は肌の色を選択するための画面である。例えば、顔モデル生成装置10では、肌の色として複数種類の色が予め用意されており、ユーザはそれら複数種類の色のうちのいずれかを肌の色として選択することができる。
When the setting of the feature point 42 is completed, the control unit 11 closes the
肌の色の選択が完了した場合、制御部11(特徴点取得部34及び顔モデル生成部36)はスキンカラー選択画面を閉じ、顔モデルの生成処理を実行する(S103)。
When the selection of the skin color is completed, the control unit 11 (the feature
顔モデル生成装置10では基本の顔モデルが記憶されている。図6は基本の顔モデルの一例を示す。顔モデル50は顔の3次元モデルであり、多数のポリゴンを含んで構成される。
The face
なお、図6において、符号「52A」は眉間を示し、図4の特徴点42Aに対応する。符号「52B」及び「52C」は左目の上瞼を示し、図4の特徴点42B,42Cにそれぞれ対応する。符号「52E」は左目の下瞼を示し、図4の特徴点42Eに対応する。符号「52D」及び「52F」は左目の目頭及び目尻をそれぞれ示し、図4の特徴点42D,42Fにそれぞれ対応する。
In FIG. 6, reference numeral “52A” indicates the space between the eyebrows and corresponds to the
また、符号「52G」及び「52H」は右目の上瞼を示し、図4の特徴点42G,42Hにそれぞれ対応する。符号「52J」は右目の下瞼を示し、図4の特徴点42Jに対応する。符号「52I」及び「52K」は右目の目頭及び目尻をそれぞれ示し、図4の特徴点42I,42Kにそれぞれ対応する。
Reference numerals “52G” and “52H” indicate the upper eyelid of the right eye, and correspond to the feature points 42G and 42H in FIG. 4, respectively. Reference numeral “52J” indicates the lower eyelid of the right eye and corresponds to the
また、符号「52M」は鼻頭を示し、図4の特徴点42Mに対応する。符号「52L」は左鼻翼を示し、図4の特徴点42Lに対応する。なお、図6では示されていないが、顔モデル50は図4の特徴点42Nに対応する右鼻翼も含んでいる。
Reference numeral “52M” indicates the nasal head and corresponds to the
また、符号52Pは唇の中央部を示し、図4の特徴点42Pに対応する。符号52Oは左口角(唇の左端)を示し、図4の特徴点42Oに対応する。符号52Qは右口角(唇の右端)を示し、図4の特徴点42Qに対応する。
さらに、符号「52R」は左頬骨を示し、図4の特徴点42Rに対応する。符号「52S」は左えら骨を示し、図4の特徴点42Sに対応する。符号「52T」及び「52T」は顎を示し、図4の特徴点42T,42Uに対応する。なお、図6では示されていないが、顔モデル50は、図4の特徴点42Wに対応する右頬骨や、図4の特徴点42Vに対応する右えら骨も含んでいる。
Further, reference numeral “52R” indicates the left cheekbone and corresponds to the
また、符号「54L」は左目の眼球を示し、符号「54R」は右目の眼球を示す。符号「56」は鼻の中骨を示し、符号「58」は眼くつ骨を示す。 The symbol “54L” indicates the left eyeball, and the symbol “54R” indicates the right eyeball. Reference numeral “56” indicates the middle bone of the nose, and reference numeral “58” indicates the eyelid bone.
また、顔モデル50内には複数のボーンが設定される。各ボーンには顔モデル50を構成するポリゴンの頂点の少なくとも一部が関連づけられる。ボーンの状態(位置や回転角度)が変化した場合、そのボーンに関連づけられた頂点の位置がそのボーンの状態変化に基づいて変化する。すなわち、顔モデルの形状が変化する。
A plurality of bones are set in the
なお以下では、図6に示すようなX軸、Y軸、及びZ軸が設定されることとして説明する。X軸は横方向に対応する軸であり、Y軸は縦方向に対応する軸である。Z軸は奥行き方向(顔の前面から背面に向かう方向)に対応する軸である。また以下では、顔モデル50の眉間51のX座標が零であることとして説明する。
In the following description, it is assumed that the X axis, the Y axis, and the Z axis as shown in FIG. 6 are set. The X axis is an axis corresponding to the horizontal direction, and the Y axis is an axis corresponding to the vertical direction. The Z-axis is an axis corresponding to the depth direction (the direction from the front face to the back face). In the following description, it is assumed that the X coordinate of the eyebrow space 51 of the
顔モデルの生成処理(ステップS103)では、顔画像20内に設定された特徴点42A〜42Wに基づいて、基本の顔モデル50の部位やボーンの位置や大きさ等を変更していくことによって、顔画像20に対応する顔モデル50が生成される。
In the face model generation process (step S103), the position of the
図7及び図8は顔モデルの生成処理(ステップS103)の一例を示すフロー図である。図7に示すように、まず、制御部11は特徴点42のスケールを調整する(S201)。撮影装置によって撮影された顔画像20では、顔が大きく写っている場合もあれば、小さく写っている場合もある。この影響を取り除くためにステップS201の処理が実行される。
7 and 8 are flowcharts showing an example of face model generation processing (step S103). As shown in FIG. 7, first, the control unit 11 adjusts the scale of the feature point 42 (S201). In the
図9はステップS201の処理について説明するための図である。ステップS201において、制御部11は、基本の顔モデル50に合わせるようにして特徴点42のスケールを調整する。
FIG. 9 is a diagram for explaining the processing in step S201. In step S <b> 201, the control unit 11 adjusts the scale of the feature point 42 so as to match the
具体的には、制御部11は、眉間に対応する特徴点42Aと、顎に対応する特徴点42T,42Uとに基づいて得られる距離に基づいて、特徴点42のスケールを調整する。例えば、制御部11は、眉間に対応する特徴点42Aと、顎に対応する特徴点42T,42Uの中点60と、の間のY座標の差(H)が基本値(HB)となるように顔画像20を拡大又は縮小することによって、特徴点42のスケールを調整する。
Specifically, the control unit 11 adjusts the scale of the feature point 42 based on the distance obtained based on the
ここで、基本値(HB)は、基本の顔モデル50の顎52T,52Uから眉間52Aまでの長さに対応する値である。すなわち、基本の顔モデル50の顎52T,52Uの中点と眉間52Aとの間の長さに対応する値である。このため、ステップS201では、特徴点42Aと中点60との間の長さを基本の顔モデル50に合わせることによって、特徴点42のスケールが調整される。
Here, the basic value (HB) is a value corresponding to the length from the
ステップS201よりも後のステップでは、スケールが調整された特徴点42A〜42Wに基づいて、顔モデル50の部位やボーンの位置や大きさ等が設定される。なお、ステップS201よりも後のステップでは、特徴点42Aが顔モデル50の眉間52Aに対応しているとの前提の下で処理が実行される。顔画像20では顔が左側又は右側のいずれかに偏って写っている場合もあるが、特徴点42Aが顔モデル50の眉間52Aに対応するとの前提の下で処理を実行することによって、その影響が取り除かれるようになっている。
In a step after step S201, the position of the
ステップS201が実行された後、制御部11は、顔型に基づいて、顔モデル50に含まれるすべてのボーンの位置及び大きさを調整する(S202)。
After step S201 is executed, the control unit 11 adjusts the positions and sizes of all bones included in the
図10はステップS202について説明するための図である。ステップS202において、制御部11は、左頬骨に対応する特徴点42Rと、右頬骨に対応する特徴点42Wとに基づいて得られる距離に基づいて、顔モデル50に含まれるすべてのボーンの位置及び大きさを調整する。
FIG. 10 is a diagram for explaining step S202. In step S202, the control unit 11 determines the positions of all bones included in the
具体的には、制御部11は、左頬骨に対応する特徴点42Rと、右頬骨に対応する特徴点42Wとの間のX座標の差(W)を算出する。そして、制御部11は下記式(1)によって顔型パラメータの値(S)を算出する。
Specifically, the control unit 11 calculates the X coordinate difference (W) between the
S=W/WB ・・・ (1) S = W / WB (1)
なお、上記式(1)における「WB」は基本値を示す。この基本値(WB)は、基本の顔モデル50の横幅(左頬骨52Rから右頬骨までの長さ)に対応する値である。このため、顔型パラメータ(S)は、基本の顔モデル50と比較して横幅が広いか否かを示す。すなわち、顔型パラメータ(S)が1よりも大きい場合とは、基本の顔モデル50と比較して横幅が広い顔であることを示す。また、顔型パラメータ(S)が1よりも小さい場合とは、基本の顔モデル50と比較して横幅が狭い顔(言い換えれば、縦長の顔)であることを示す。
In the above formula (1), “WB” represents a basic value. This basic value (WB) is a value corresponding to the width of the basic face model 50 (the length from the
制御部11は、以上のようにして算出された顔型パラメータ(S)に基づいて、顔モデル50内に設定されたすべてのボーンの位置及び大きさを調整する。例えば、顔型パラメータ(S)が1よりも大きい場合には、顔モデル50を基本の顔モデル50よりも横幅が広い顔となるように調整すべく、すべてのボーンの位置及び大きさが調整される。一方、顔型パラメータ(S)が1よりも小さい場合には、顔モデル50を基本の顔モデル50よりも横幅が狭い顔(言い換えれば、縦長の顔)となるように調整すべく、すべてのボーンの位置及び大きさが調整される。
The control unit 11 adjusts the positions and sizes of all bones set in the
ステップS202が実行された後、制御部11は、顔モデル50のえら骨(左えら骨52S及び右えら骨)に対応するボーンの位置を設定する(S203)。
After step S202 is executed, the control unit 11 sets a bone position corresponding to the gill bone (the
図11はステップS203について説明するための図である。ステップS203において、制御部11は、左頬骨に対応する特徴点42Rと右頬骨に対応する特徴点42Wとに基づいて得られる距離と、左えら骨に対応する特徴点42Sと右えら骨に対応する特徴点42Vとに基づいて得られる距離との比に基づいて、えら骨(左えら骨52S及び右えら骨)に対応するボーンの位置を設定する。
FIG. 11 is a diagram for explaining step S203. In step S203, the control unit 11 corresponds to the distance obtained based on the
具体的には、まず制御部11は、左頬骨に対応する特徴点42Rと右頬骨に対応する特徴点42Wとの間のX座標の差(W1)を算出する。また、制御部11は、左えら骨に対応する特徴点42Sと右えら骨に対応する特徴点42Vとの間のX座標の差(W2)を算出する。さらに、制御部11は下記式(2)によってそれらの比率(r)を算出する。
Specifically, first, the control unit 11 calculates the difference (W1) in the X coordinate between the
その後、制御部11は、左えら骨52Sに対応するボーンのX座標(x1)を決定する。このX座標(x1)は下記式(3)によって算出される。なお、下記式(3)における「Xr」は左頬骨に対応する特徴点42RのX座標である。
Thereafter, the control unit 11 determines the X coordinate (x1) of the bone corresponding to the
また、制御部11は、右えら骨に対応するボーンのX座標(x2)を決定する。このX座標(x2)は下記式(4)によって算出される。なお、下記式(4)における「Xw」は右頬骨に対応する特徴点42WのX座標である。
Further, the control unit 11 determines the X coordinate (x2) of the bone corresponding to the right gill bone. The X coordinate (x2) is calculated by the following equation (4). In the following formula (4), “Xw” is the X coordinate of the
さらに、制御部11は、左えら骨52S及び右えら骨の各々に対応するボーンのY座標(y)を決定する。このY座標(y)は下記式(5)によって算出される。なお、下記式(5)において、「Ys」は左えら骨に対応する特徴点42SのY座標であり、「Yv」は右えら骨に対応する特徴点42VのY座標である。
Further, the control unit 11 determines the Y coordinate (y) of the bone corresponding to each of the
r=W2/W1 ・・・ (2)
x1=Xr*r ・・・ (3)
x2=Xw*r ・・・ (4)
y=(Ys+Yv)/2 ・・・ (5)
r = W2 / W1 (2)
x1 = Xr * r (3)
x2 = Xw * r (4)
y = (Ys + Yv) / 2 (5)
ステップS203が実行された後、制御部11は、顔モデル50の左目、右目、鼻、唇、及び顎の位置を設定する(S204)。これらの部位は顔の中央にある部位であるため、顔画像20において顔が多少傾いて写っていたとしても、あまり影響を受けない。このため、制御部11はこれらの部位に対応する特徴点42の位置をこれらの部位の位置として設定する。
After step S203 is executed, the control unit 11 sets the positions of the left eye, right eye, nose, lips, and chin of the face model 50 (S204). Since these parts are parts in the center of the face, even if the face appears in the
例えば、制御部11は、左目の目頭及び目尻に対応する特徴点42D,42Fの位置を左目の目頭52D及び目尻52Fの位置として決定する。また制御部11は、左目の上瞼に対応する特徴点42B,42Cの位置を左目の上瞼52B,52Cの位置として決定し、左目の下瞼に対応する特徴点42Eの位置を左目の下瞼52Eの位置として決定する。
For example, the control unit 11 determines the positions of the feature points 42D and 42F corresponding to the left eye corner and the corner of the eye as the positions of the
また制御部11は、右目の目頭及び目尻に対応する特徴点42I,42Kの位置を右目の目頭52I及び目尻52Kの位置として決定する。また制御部11は、右目の上瞼に対応する特徴点42G,42Hの位置を左目の上瞼52G,52Hの位置として決定し、右目の下瞼に対応する特徴点42Jの位置を右目の下瞼52Jの位置として決定する。
In addition, the control unit 11 determines the positions of the feature points 42I and 42K corresponding to the right eye corner and the corner of the eye as the positions of the right eye corner 52I and the
また制御部11は、鼻頭に対応する特徴点42Mの位置を鼻頭52Mの位置として決定する。また制御部11は、左鼻翼に対応する特徴点42Lの位置を左鼻翼52Lの位置として決定し、右鼻翼に対応する特徴点42Nの位置を右鼻翼の位置として決定する。
In addition, the control unit 11 determines the position of the
また制御部11は、唇の中央部に対応する特徴点42Pの位置を唇の中央部52Pの位置として決定する。また制御部11は、左口角に対応する特徴点42Oの位置を左口角52Oの位置として決定し、右口角に対応する特徴点42Qの位置を右口角52Qの位置として決定する。
The control unit 11 determines the position of the
さらに制御部11は、顎に対応する特徴点42T,42Uの位置を顎52T,52Uの位置として決定する。
Further, the control unit 11 determines the positions of the feature points 42T and 42U corresponding to the jaws as the positions of the
ステップS204が実行された後、制御部11は、顔モデル50の眼くつ骨58、頬骨(左頬骨52R及び右頬骨)、鼻の中骨56Aに対応するボーンの位置を設定する(S205)。
After step S204 is executed, the control unit 11 sets bone positions corresponding to the
まず、制御部11は眼くつ骨58に対応するボーンの位置を設定する。図12は、眼くつ骨58に対応するボーンの位置の決定方法について説明するための図である。図12に示すように、制御部11は、左の眼くつ骨58に対応するボーンの位置を、左目の目尻に対応する特徴点42Fと、左頬骨に対応する特徴点42Rとに基づいて算出する。
First, the control unit 11 sets a bone position corresponding to the
すなわち、左の眼くつ骨58に対応するボーンのX座標(x)は下記式(6)によって算出される。なお、下記式(6)において、「Xf」は左目の目尻に対応する特徴点42FのX座標であり、「Xr」は左頬骨に対応する特徴点42RのX座標である。下記式(6)によって、左の眼くつ骨58に対応するボーンの位置は、左目の目尻に対応する特徴点42Fと、左頬骨に対応する特徴点42Rとの間の位置であって、やや特徴点42R寄りの位置に設定される。
That is, the X coordinate (x) of the bone corresponding to the left
また、左の眼くつ骨58に対応するボーンのY座標(y)は下記式(7)によって算出される。なお、下記式(7)において、「Yf」は左目の目尻に対応する特徴点42FのY座標である。下記式(7)によって、左の眼くつ骨58に対応するボーンの位置は、左目の目尻に対応する特徴点42Fの少し下の位置に設定される。
Further, the Y coordinate (y) of the bone corresponding to the left
x=Xf+(Xr−Xf*0.6) ・・・ (6)
y=Yf−0.2 ・・・ (7)
x = Xf + (Xr−Xf * 0.6) (6)
y = Yf−0.2 (7)
なお、右の眼くつ骨58に対応するボーンの位置も左の眼くつ骨58に対応するボーンと同様にして算出される。
Note that the position of the bone corresponding to the right
またステップS205において、制御部11は頬骨(左頬骨52R及び右頬骨)に対応するボーンの位置を設定する。例えば、制御部11は、左頬骨に対応する特徴点42Rの位置を左頬骨52Rに対応するボーンの位置として設定し、右頬骨に対応する特徴点42Wの位置を右頬骨に対応するボーンの位置として設定する。
In step S205, the control unit 11 sets a bone position corresponding to the cheekbone (the
さらにステップS205において、制御部11は鼻の中骨56に対応するボーンの位置を設定する。図13は鼻の中骨56に対応するボーンの位置の設定方法について説明するための図である。図13に示すように、制御部11は、鼻の中骨56に対応するボーンの位置を、眉間に対応する特徴点42Aと、鼻頭に対応する特徴点42Mとに基づいて算出する。
Further, in step S205, the control unit 11 sets a bone position corresponding to the
すなわち、鼻の中骨56に対応するボーンのX座標は下記式(8)によって算出される。なお、下記式(8)において、「Xa」は特徴点42AのX座標であり、「Xm」は特徴点42MのX座標である。
That is, the X coordinate of the bone corresponding to the
また、鼻の中骨56に対応するボーンのY座標は下記式(9)によって算出される。なお、下記式(9)において、「Ya」は特徴点42AのY座標であり、「Ym」は特徴点42MのY座標である。下記式(9)によって、鼻の中骨56に対応するボーンの位置は、眉間に対応する特徴点42Aと、鼻頭に対応する特徴点42Mとの間の位置であって、やや特徴点42M寄りの位置に設定される。
Further, the Y coordinate of the bone corresponding to the
x=(Xa+Xm)/2 ・・・ (8)
y=((Ya+Ym)/2)−0.3 ・・・ (9)
x = (Xa + Xm) / 2 (8)
y = ((Ya + Ym) / 2) −0.3 (9)
ステップS205が実行された後、制御部11は顔モデル50の眼球54L,54R(眼球オブジェクト)の位置及び大きさを設定する(S206)。
After step S205 is executed, the control unit 11 sets the positions and sizes of the
例えば、制御部11は、左目に対応する特徴点42B〜42Fに基づいて左目の眼球54Lの位置を算出する。
For example, the control unit 11 calculates the position of the
すなわち、眼球54LのX座標(x)は下記式(10)によって算出される。なお、下記式(10)において、「Xd」は目頭に対応する特徴点42DのX座標であり、「Xf」は目尻に対応する特徴点42FのX座標である。
That is, the X coordinate (x) of the
また、眼球54LのY座標(y)は下記式(11)によって算出される。なお、下記式(11)において、「Yb」及び「Yc」は上瞼に対応する特徴点42B,42CのY座標であり、「Ye」は下瞼に対応する特徴点42EのY座標である。
Further, the Y coordinate (y) of the
x=((Xd+Xf)/2)−0.1 ・・・ (10)
y=(((Yb+Yc)/2)+Ye)/2+0.2 ・・・ (11)
x = ((Xd + Xf) / 2) −0.1 (10)
y = ((((Yb + Yc) / 2) + Ye) /2+0.2 (11)
同様に、制御部11は、右目に対応する特徴点42G〜42Kに基づいて右目の眼球54Rの位置を算出する。
Similarly, the control unit 11 calculates the position of the
例えば、眼球54RのX座標(x)は下記式(12)によって算出される。なお、下記式(12)において、「Xi」は目頭に対応する特徴点42IのX座標であり、「Xk」は目尻に対応する特徴点42KのX座標である。
For example, the X coordinate (x) of the
また例えば、眼球54RのY座標(y)は下記式(13)によって算出される。なお、下記式(13)において、「Yg」及び「Yh」は上瞼に対応する特徴点42G,42HのY座標であり、「Yj」は下瞼に対応する特徴点42JのY座標である。
For example, the Y coordinate (y) of the
x=((Xi+Xk)/2)+0.1 ・・・ (12)
y=(((Yg+Yh)/2)+Yj)/2+0.2 ・・・ (13)
x = ((Xi + Xk) / 2) +0.1 (12)
y = (((Yg + Yh) / 2) + Yj) /2+0.2 (13)
ステップS206が実行された後、制御部11は、顔モデル50の顎52T,52Uに対応するボーンの位置を補正する(S207)。具体的には、顎52T,52Uに対応するボーンのY座標(y)が下記式(14)のように設定される。なお、下記式(14)において、「Yt」及び「Yu」は顎に対応する特徴点42T,42UのY座標である。
After step S206 is executed, the control unit 11 corrects the positions of bones corresponding to the
y=(Yt+Yu)/2 ・・・ (14) y = (Yt + Yu) / 2 (14)
ステップS207が実行された後、図8に示すように、制御部11は顔モデル50の鼻の幅を設定する(S208)。例えば、制御部11は鼻の幅(w)を下記式(15)によって算出する。なお、下記式(15)において、「Xl」は左鼻翼に対応する特徴点42LのX座標であり、「Xn」は右鼻翼に対応する特徴点42NのX座標である。
After step S207 is executed, as shown in FIG. 8, the control unit 11 sets the width of the nose of the face model 50 (S208). For example, the control unit 11 calculates the width (w) of the nose according to the following formula (15). In the following equation (15), “Xl” is the X coordinate of the
w=(Xl−Xn)/3.3 ・・・ (15) w = (X1-Xn) /3.3 (15)
ステップS208が実行された後、制御部11は顔モデル50の唇の幅を設定する(S209)。例えば、制御部11は唇の幅(w)を下記式(16)によって算出する。なお、下記式(16)において、「Xo」は左口角に対応する特徴点42OのX座標であり、「Xq」は右口角に対応する特徴点42QのX座標である。
After step S208 is executed, the control unit 11 sets the lip width of the face model 50 (S209). For example, the control unit 11 calculates the lip width (w) by the following equation (16). In the following equation (16), “Xo” is the X coordinate of the feature point 42O corresponding to the left mouth corner, and “Xq” is the X coordinate of the
w=(Xo−Xq)/4.26 ・・・ (16) w = (Xo−Xq) /4.26 (16)
ステップS209が実行された後、制御部11は口角の高さを考慮して、顔モデル50の頬骨(左頬骨52R又は右頬骨)に対応するボーンの位置を調整する(S210)。ステップS210において、制御部11は、唇に対応する特徴点42O〜42Qの位置に基づいて、頬骨(左頬骨52R又は右頬骨)に対応するボーンの位置を調整する。
After step S209 is executed, the control unit 11 adjusts the position of the bone corresponding to the cheekbone (
まず、制御部11は頬骨に対応するボーンのY座標の補正値(Δy)を下記式(17)によって算出する。なお、下記式(17)において、「Yo」は左口角に対応する特徴点42OのY座標であり、「Yq」は右口角に対応する特徴点42QのY座標である。また、「Yp」は唇の中央部に対応する特徴点42PのY座標である。そして、下記式(18)のように、制御部11は頬骨に対応するボーンのY座標(y)に当該補正値(Δy)を加算することによって、頬骨に対応するボーンのY座標(y)を補正する。
First, the control unit 11 calculates the correction value (Δy) of the Y coordinate of the bone corresponding to the cheekbone by the following equation (17). In the following equation (17), “Yo” is the Y coordinate of the feature point 42O corresponding to the left mouth corner, and “Yq” is the Y coordinate of the
Δy=(((Yt+Yq)/2)−Yp)*2 ・・・ (17)
y=y+Δy ・・・ (18)
Δy = (((Yt + Yq) / 2) −Yp) * 2 (17)
y = y + Δy (18)
ステップS210が実行された後、制御部11は顔モデル50の瞼骨に対応するボーンの位置を設定する(S211)。すなわち、制御部11は左目側の瞼骨に対応するボーンの位置を左目の眼球54Lの位置及び大きさに基づいて設定し、右目側の瞼骨に対応するボーンの位置を右目の眼球54Rの位置及び大きさに基づいて設定する。なお、この場合、左目側の瞼骨に対応するボーンのZ座標は、眼球54Lの大きさに基づいて、瞼に沿うように調整される。同様に、右目側の瞼骨に対応するボーンのZ座標は、眼球54Rの大きさに基づいて、瞼に沿うように調整される。
After step S210 is executed, the control unit 11 sets the position of the bone corresponding to the rib of the face model 50 (S211). That is, the control unit 11 sets the position of the bone corresponding to the rib on the left eye side based on the position and size of the
ステップS211が実行された後、制御部11は顔モデル50の各部位又は各ボーンのZ座標を設定する(S212) After step S211 is executed, the control unit 11 sets the Z coordinate of each part or each bone of the face model 50 (S212).
顔画像20は二次元画像であるため、特徴点42A〜42Wに基づいて各部位又は各ボーンのZ座標を設定することはできない。この点、顔モデル生成装置10では、顔の凹凸や後頭部の形状が異なった複数種類の見本顔モデルが予め用意されている。ステップS212では、これら複数種類の見本顔モデルのうちのいずれかが選択され、当該選択された見本顔モデルの各部位又は各ボーンのZ座標が、顔モデル50の各部位又は各ボーンのZ座標として設定される。
Since the
ステップS212が実行された後、制御部11は、顔モデル50の瞼を開閉するためのボーンの位置及び回転角度を設定する(S213)。 After step S212 is executed, the control unit 11 sets the bone position and rotation angle for opening and closing the eyelid of the face model 50 (S213).
図14はステップS213の処理について説明するための図である。図14は瞼を開閉するためのボーン70を示している。図14に示すように、瞼を開閉するためのボーン70が顔モデル50内に設定されている。このボーン70が所定角度(θ)回転することによって、上瞼72が下瞼74にくっつくようになっている。
FIG. 14 is a diagram for explaining the processing in step S213. FIG. 14 shows a
制御部11は、左目の瞼を開閉するためのボーン70の位置及び回転角度(θ)を、顔モデル50の左目の眼球54L、上瞼52B,52C、及び下瞼52Eの位置に基づいて設定する。すなわち、制御部11は、このボーン70が所定の回転角度(θ)だけ回転した場合に上瞼72が下瞼74とくっつくことになるように、このボーン70の位置及び回転角度(θ)を設定する。
The control unit 11 sets the position and rotation angle (θ) of the
なお、右目の瞼を開閉するためのボーンも顔モデル50内に設定されており、このボーンの位置及び回転角度も左目の瞼を開閉するためのボーン70と同様にして設定される。
A bone for opening and closing the eyelid of the right eye is also set in the
ステップS213が実行された後、制御部11は、顔モデル50の顎52T,52Uに対応するボーンの位置を補正する(S214)。すなわち、制御部11は、唇の中央部に対応する特徴点42Pに合わせて顎52T,52Uに対応するボーンを移動させる。
After step S213 is executed, the control unit 11 corrects the bone positions corresponding to the
ステップS214が実行された後、制御部11(顔テクスチャ画像生成部38)は顔テクスチャ画像を生成する(S215)。図15及び図16は顔テクスチャ画像の生成について説明するための図である。 After step S214 is executed, the control unit 11 (face texture image generation unit 38) generates a face texture image (S215). 15 and 16 are diagrams for explaining generation of a face texture image.
まず制御部11は、顔画像20の特徴点42Aが顔モデル50の眉間52Aに一致するようにして顔画像20を顔モデル50上に配置する。そして、その状態で制御部11はUVマップを生成する。また、図15に示すように、制御部11は、顔モデル50上に配置された顔画像20を平行投影してなる画像80を生成する。
First, the control unit 11 arranges the
その後、図16に示すように、制御部11はスキンフレーム82を上記画像80に重ねることによって、顔テクスチャ画像84を生成する。なお、実際の上記画像80には歪んだ顔が描画されることになるが、図16では、説明の簡便のため、歪んでいない顔が上記画像80に描画されている。
Thereafter, as shown in FIG. 16, the control unit 11 generates a
スキンフレーム82は上記画像80に重ね合わせるマスクとしての役割を果たす。スキンフレーム82は肌領域90、透明領域92(斜線部分)、瞼領域94、鼻孔領域96、及び唇領域98を含む。肌領域90は肌を示す領域であり、肌領域90の色はスキンカラー選択画面で選択された色に設定される。透明領域92は透明に設定された領域である。透明領域92は顔部分に対応する形状を有する。
The
瞼領域94は肌領域90と同様に肌の色に設定される。瞼領域94が存在することによって、スキンフレーム82を上記画像80に重ね合わせてなる顔テクスチャ画像84において瞼部分に肌色が付されることになる。目を開けた顔が写っている顔画像20には瞼がほとんど写っていないが、この瞼領域94が存在することによって、瞼のある顔テクスチャ画像(言い換えれば、目が少し閉じた状態の顔テクスチャ画像)を生成することができる。
The
鼻孔領域96は肌領域90と同様に肌の色に設定される。鼻孔領域96が存在することによって、スキンフレーム82を上記画像80に重ね合わせてなる顔テクスチャ画像84において鼻孔部分に肌色が付されるようになる。
The
唇領域98は唇の色に設定される。顔画像20では口が少し開いている場合もあるが、唇領域98が存在することによって、スキンフレーム82を上記画像80に重ね合わせてなる顔テクスチャ画像84において、少し開いた口部分が唇領域98によって上書きされることになる。
The
なお、制御部11は画像80の色を調整する。すなわち、制御部11は、顔画像20の特徴点42A〜42Wのいずれかの色と、スキンフレーム82の肌領域90に設定された所定色との間の差に基づいて、画像80の色を調整する。例えば、制御部11は、特徴点42Aとその近辺の一又は複数の点との色の平均値を算出する。さらに、制御部11は、その色と、スキンフレーム82の肌領域90に設定された所定色との間の差分値を算出する。そして、制御部11は、その差分値を画像80に設定される色に加算する。
Note that the control unit 11 adjusts the color of the
顔画像20は撮影環境によって明るすぎたり、暗すぎたり、赤みが強すぎたり、緑がかっていたりするが、以上のような調整が行われることによって、画像80の色がスキンフレーム82の肌領域90の色に合わせて調整されるようになる。その結果、顔テクスチャ画像84の色がスキンフレーム82の肌領域90の色に合ったものとなる。
The
ステップS215が実行された後、制御部11は顔モデル50の正中線を調整する(S216)。ステップS216において、例えば、制御部11は、特徴点42A〜42Wのうちの少なくとも二つに基づいて、顔モデル50の正中線を調整する。具体的には、特徴点42A〜42Wのうちの少なくとも二つが顔モデル50の正中線に位置するようにして、顔モデル50が調整される。
After step S215 is executed, the control unit 11 adjusts the median line of the face model 50 (S216). In step S216, for example, the control unit 11 adjusts the median line of the
例えば、制御部11は、唇の中央部に対応する特徴点42Pと鼻頭に対応する特徴点42MとのX座標を眉間に対応する特徴点42AのX座標と一致させることによって、特徴点42A,42M,42Pが顔モデル50の正中線に位置するように顔モデル50を調整する。言い換えれば、制御部11は、鼻頭52M、鼻の中骨56、及び唇の中央部52PのX座標を眉間52AのX座標と一致させることによって、眉間52A、鼻頭52M、鼻の中骨56、及び唇の中央部52Pが顔モデル50の正中線に位置するように顔モデル50を調整する。
For example, the control unit 11 matches the X coordinates of the
また例えば、制御部11は、左口角に対応する特徴点42Oと右口角に対応する特徴点42Qとの間の中点のX座標を眉間に対応する特徴点42AのX座標と一致させることによって、特徴点42O,42Qの中点と特徴点42Aとが顔モデル50の正中線に位置するように顔モデル50を調整する。言い換えれば、制御部11は、唇の左口角52O及び右口角52Q(唇の両端にそれぞれ設定されるボーンの間の中点)のX座標を眉間52AのX座標と一致させることによって、唇の左口角52O及び右口角52Qの中点と眉間52Aとが顔モデル50の正中線に位置するように顔モデル50を調整する。
For example, the control unit 11 matches the X coordinate of the midpoint between the feature point 42O corresponding to the left mouth corner and the
さらに、制御部11は、左目の目頭に対応する特徴点42Dと右目の目頭に対応する特徴点42Iとの間の中点のX座標を眉間に対応する特徴点42AのX座標と一致させることによって、特徴点42D,42Iの中点と特徴点42Aとが顔モデル50の正中線に位置するように顔モデル50を調整する。言い換えれば、制御部11は、左目の目頭52Dと右目の目頭52Iとの中点(左目の目頭52Dに設定されるボーンと右目の目頭52Iに設定されるボーンとの間の中点)のX座標を眉間52AのX座標と一致させることによって、左目の目頭52Dと右目の目頭52Iとの中点と眉間52Aとが顔モデル50の正中線に位置するように顔モデル50を調整する。ステップS216が実行されることによって、顔モデル50の正中線が整えられるようになる。
Furthermore, the control unit 11 matches the X coordinate of the midpoint between the
以上で図7及び図8に示す処理は終了する。すなわち、図5のステップS103の処理は終了する。ステップS103(図7及び図8)が実行された後、制御部11は顔モデル50のデータ、顔テクスチャ画像84、及びUVマップを記憶部12に保存する(S104)。
Thus, the processing shown in FIGS. 7 and 8 ends. That is, the process of step S103 in FIG. After step S103 (FIGS. 7 and 8) is executed, the control unit 11 stores the data of the
以上に説明した顔モデル生成装置10によれば、撮影装置によって撮影された顔画像20に基づいて顔モデル50を作成することができる。特に、顔モデル生成装置10によれば、ユーザは顔画像20に複数の特徴点42を設定することによって、顔画像20に対応する顔モデル50を作成できるようになる。すなわち、顔モデル生成装置10によれば、顔画像20に対応する顔モデル50を作成するために必要な作業時間を軽減することが可能になる。
According to the face
なお、本発明は以上に説明した実施形態に限定されるものではない。 The present invention is not limited to the embodiment described above.
10 顔モデル生成装置、11 制御部、12 記憶部、13 通信部、14 操作部、15 表示部、20 顔画像、30 設定画面表示制御部、32 特徴点設定部。34 特徴点取得部、36 顔モデル生成部。38 顔テクスチャ画像生成部、40 設定画面、42A〜42W 特徴点、44 連結線、50 顔モデル、52A 眉間、52B,52C,52G,52H 上瞼、52D,52I 目頭、52E,52J 下瞼、52F,52K 目尻、52L 左鼻翼、52M 鼻頭、52O 左口角、52P 中央部、52Q 右口角、52R 左頬骨、52S 左えら骨、52T,52U 顎、54L,54R 眼球、56 鼻の中骨、58 眼くつ骨、70 ボーン、72 上瞼、74 下瞼、80 画像、82 スキンフレーム、84 顔テクスチャ画像、90 肌領域、92 透明領域、92 瞼領域、94 鼻孔領域、96 唇領域。
DESCRIPTION OF
Claims (16)
前記顔画像内に設定された、前記顔内の所定部位に対応する複数の特徴点の位置を取得する特徴点取得手段と、
前記複数の特徴点の位置に基づいて前記顔モデルを生成する顔モデル生成手段と、
を含むことを特徴とする顔モデル生成装置。 In a face model generation device that generates a face model that is a three-dimensional model of a face based on a photographed face image,
Feature point acquisition means for acquiring the positions of a plurality of feature points corresponding to a predetermined part in the face set in the face image;
Face model generation means for generating the face model based on the positions of the plurality of feature points;
A face model generation apparatus characterized by comprising:
前記顔モデルには複数のボーンが設定され、
前記顔モデル生成手段は、前記複数の特徴点の位置関係に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含む、
ことを特徴とする顔モデル生成装置。 The face model generation device according to claim 1,
A plurality of bones are set in the face model,
The face model generation means includes means for setting positions or sizes of the plurality of bones based on a positional relationship between the plurality of feature points.
A face model generation device characterized by that.
前記複数の特徴点は、額の中央部又は眉間に対応する特徴点と、顎に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記額の中央部又は眉間に対応する特徴点と、前記顎に対応する特徴点と、に基づいて得られる距離に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含む、
ことを特徴とする顔モデル生成装置。 The face model generation device according to claim 2,
The plurality of feature points include a feature point corresponding to the center of the forehead or the eyebrows, and a feature point corresponding to the chin,
The face model generation means determines the positions or sizes of the plurality of bones based on distances obtained based on a feature point corresponding to a central portion of the forehead or between the eyebrows and a feature point corresponding to the jaw. Including means for setting,
A face model generation device characterized by that.
前記複数の特徴点は、左頬骨に対応する特徴点と、右頬骨に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記左頬骨に対応する特徴点と、前記右頬骨に対応する特徴点と、に基づいて得られる距離に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含む、
ことを特徴とする顔モデル生成装置。 The face model generation device according to claim 2 or 3,
The plurality of feature points include a feature point corresponding to the left cheekbone and a feature point corresponding to the right cheekbone,
The face model generating means is means for setting positions or sizes of the plurality of bones based on a distance obtained based on a feature point corresponding to the left cheekbone and a feature point corresponding to the right cheekbone. including,
A face model generation device characterized by that.
前記複数の特徴点は、左頬骨に対応する特徴点と、右頬骨に対応する特徴点と、左えら骨に対応する特徴点と、右えら骨に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記左頬骨に対応する特徴点と前記右頬骨に対応する特徴点とに基づいて得られる距離と、前記左えら骨に対応する特徴点と前記右えら骨に対応する特徴点とに基づいて得られる距離と、の比に基づいて、前記複数のボーンの位置又は大きさを設定する手段を含む、
ことを特徴とする顔モデル生成装置。 The face model generation device according to claim 4,
The plurality of feature points include a feature point corresponding to the left cheekbone, a feature point corresponding to the right cheekbone, a feature point corresponding to the left gillbone, and a feature point corresponding to the right gillbone,
The face model generation means corresponds to the distance obtained based on the feature point corresponding to the left cheekbone and the feature point corresponding to the right cheekbone, the feature point corresponding to the left gillbone, and the right gillbone Means for setting the position or size of the plurality of bones based on a ratio of a distance obtained based on the feature points;
A face model generation device characterized by that.
前記顔モデルは、眼球を表す眼球オブジェクトを含み、
前記複数の特徴点は、目頭に対応する特徴点と、目尻に対応する特徴点と、上瞼に対応する特徴点と、下瞼に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記目頭に対応する特徴点の位置と、前記目尻に対応する特徴点の位置と、前記上瞼に対応する特徴点の位置と、前記下瞼に対応する特徴点の位置と、に基づいて、前記眼球オブジェクトの位置又は大きさを設定する手段を含む、
ことを特徴とする顔モデル生成装置。 The face model generation device according to any one of claims 1 to 5,
The face model includes an eyeball object representing an eyeball,
The plurality of feature points include a feature point corresponding to the eye corner, a feature point corresponding to the corner of the eye, a feature point corresponding to the upper eyelid, and a feature point corresponding to the lower eyelid,
The face model generation means includes a position of a feature point corresponding to the eye corner, a position of a feature point corresponding to the corner of the eye, a position of a feature point corresponding to the upper eyelid, and a feature point corresponding to the lower eyelid. And means for setting the position or size of the eyeball object based on the position,
A face model generation device characterized by that.
前記顔モデルには、瞼を開閉するためのボーンが設定され、当該ボーンが回転することによって前記瞼が開閉し、
前記顔モデル生成手段は、前記瞼を開閉するためのボーンの回転角度の上限を、前記上瞼に対応する特徴点の位置と、前記下瞼に対応する特徴点の位置と、前記眼球オブジェクトの位置と、に基づいて設定する手段を含む、
ことを特徴とする顔モデル生成装置。 The face model generation device according to claim 6,
In the face model, a bone for opening and closing the eyelid is set, and when the bone rotates, the eyelid opens and closes,
The face model generation means sets the upper limit of the rotation angle of the bone for opening and closing the eyelid, the position of the feature point corresponding to the upper eyelid, the position of the feature point corresponding to the lower eyelid, and the eyeball object And means for setting based on the position,
A face model generation device characterized by that.
前記顔モデルには、頬骨に対応するボーンが設定され、
前記複数の特徴点は、左口角に対応する特徴点と、右口角に対応する特徴点と、唇の中央部に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記左口角に対応する特徴点の位置と、前記右口角に対応する特徴点の位置と、前記唇の中央部に対応する特徴点の位置と、に基づいて、前記頬骨に対応するボーンの位置を設定する手段を含む、
ことを特徴とする顔モデル生成装置。 The face model generation device according to any one of claims 1 to 7,
In the face model, a bone corresponding to the cheekbone is set,
The plurality of feature points include a feature point corresponding to the left mouth corner, a feature point corresponding to the right mouth corner, and a feature point corresponding to the center of the lips,
The face model generation means, based on the position of the feature point corresponding to the left mouth corner, the position of the feature point corresponding to the right mouth corner, and the position of the feature point corresponding to the center of the lips, Including means for setting the position of the bone corresponding to the cheekbone,
A face model generation device characterized by that.
前記顔モデルにマッピングする顔テクスチャ画像を前記顔画像に基づいて生成する顔テクスチャ画像生成手段を含み、
前記顔テクスチャ画像生成手段は、前記複数の特徴点のうちのいずれかの特徴点の色と、所定の色と、の差に基づいて、前記顔テクスチャ画像の色を調整する手段を含む、
ことを特徴とする顔モデル生成装置。 The face model generation device according to any one of claims 1 to 8,
A face texture image generating means for generating a face texture image to be mapped to the face model based on the face image;
The face texture image generation means includes means for adjusting the color of the face texture image based on a difference between a color of any one of the plurality of feature points and a predetermined color.
A face model generation device characterized by that.
前記顔モデル生成手段は、前記複数の特徴点のうちの少なくとも二つが前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含む、
ことを特徴とする顔モデル生成装置。 The face model generation device according to any one of claims 1 to 9,
The face model generation means includes means for adjusting the face model so that at least two of the plurality of feature points are located on a median line of the face model.
A face model generation device characterized by that.
前記複数の特徴点は、額の中央部又は眉間に対応する特徴点と、唇の中央部又は鼻頭に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記額の中央部又は眉間に対応する特徴点と、前記唇の中央部又は鼻頭に対応する特徴点と、が前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含む、
ことを特徴とする顔モデル生成装置。 The face model generation device according to claim 10,
The plurality of feature points include a feature point corresponding to the center part of the forehead or the eyebrows, and a feature point corresponding to the center part of the lips or the nasal head,
The face model generation means is configured to make the face point such that a feature point corresponding to the center part of the forehead or the eyebrow and a feature point corresponding to the center part of the lip or the nasal head are located on the median line of the face model. Including means to adjust the model,
A face model generation device characterized by that.
前記複数の特徴点は、左口角に対応する特徴点と、右口角に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記左口角に対応する特徴点と、前記右口角に対応する特徴点と、の間の中間点が前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含む、
ことを特徴とする顔モデル生成装置。 The face model generation device according to claim 10,
The plurality of feature points include a feature point corresponding to a left mouth corner and a feature point corresponding to a right mouth corner,
The face model generation unit adjusts the face model so that an intermediate point between the feature point corresponding to the left mouth corner and the feature point corresponding to the right mouth corner is located on the median line of the face model. Including means to
A face model generation device characterized by that.
前記複数の特徴点は、左目に対応する特徴点と、右目に対応する特徴点と、を含み、
前記顔モデル生成手段は、前記左目に対応する特徴点と、前記右目に対応する特徴点と、の間の中間点が前記顔モデルの正中線上に位置するように、前記顔モデルを調整する手段を含む、
ことを特徴とする顔モデル生成装置。 The face model generation device according to claim 10,
The plurality of feature points include a feature point corresponding to the left eye and a feature point corresponding to the right eye,
The face model generation means adjusts the face model so that an intermediate point between the feature point corresponding to the left eye and the feature point corresponding to the right eye is located on the median line of the face model. including,
A face model generation device characterized by that.
前記複数の特徴点の位置を前記ユーザが設定するための設定画面として、前記複数の特徴点が前記顔画像上に表された画面を表示手段に表示させる表示制御手段と、
前記ユーザの操作に基づいて、前記顔画像上に表された前記複数の特徴点のうちの少なくとも一つの位置を変更する変更手段と、を含み、
前記設定画面では特徴点間が直線で連結されている、
ことを特徴とする顔モデル生成装置。 The face model generation device according to any one of claims 1 to 13,
Display control means for displaying on the display means a screen in which the plurality of feature points are displayed on the face image as a setting screen for the user to set the positions of the plurality of feature points;
Changing means for changing the position of at least one of the plurality of feature points represented on the face image based on the operation of the user,
In the setting screen, feature points are connected with a straight line,
A face model generation device characterized by that.
前記顔画像内に設定された、前記顔内の所定部位に対応する複数の特徴点の位置を取得する特徴点取得ステップと、
前記複数の特徴点の位置に基づいて前記顔モデルを生成する顔モデル生成ステップと、
を含むことを特徴とする顔モデル生成装置の制御方法。 In a control method of a face model generation device that generates a face model which is a three-dimensional face model based on a photographed face image
A feature point obtaining step for obtaining positions of a plurality of feature points corresponding to a predetermined part in the face set in the face image;
A face model generation step for generating the face model based on the positions of the plurality of feature points;
A control method for a face model generation device, comprising:
前記顔画像内に設定された、前記顔内の所定部位に対応する複数の特徴点の位置を取得する特徴点取得手段、及び、
前記複数の特徴点の位置に基づいて前記顔モデルを生成する顔モデル生成手段、
として前記コンピュータを機能させるためのプログラム。 A program for causing a computer to function as a face model generation device that generates a face model that is a three-dimensional model of a face based on a photographed face image,
Feature point acquisition means for acquiring the positions of a plurality of feature points corresponding to a predetermined part in the face set in the face image; and
Face model generation means for generating the face model based on the positions of the plurality of feature points;
A program for causing the computer to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013074312A JP2014199536A (en) | 2013-03-29 | 2013-03-29 | Face model generating device, method for controlling face model generating device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013074312A JP2014199536A (en) | 2013-03-29 | 2013-03-29 | Face model generating device, method for controlling face model generating device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014199536A true JP2014199536A (en) | 2014-10-23 |
Family
ID=52356403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013074312A Pending JP2014199536A (en) | 2013-03-29 | 2013-03-29 | Face model generating device, method for controlling face model generating device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014199536A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6490861B1 (en) * | 2018-08-17 | 2019-03-27 | 株式会社シャルマン | Method of setting reference front of three-dimensional face image, method of selecting glasses using the same, and method of creating medical record using the same |
WO2019117146A1 (en) * | 2017-12-15 | 2019-06-20 | 株式会社シャルマン | Reference-front-surface-setting device, measurement device, spectacles selection device, medical card creation device, measurement method, spectacles selection method, and medical card creation method |
JP2022500790A (en) * | 2019-05-15 | 2022-01-04 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co., Ltd. | Face model generation methods, devices, electronic devices and computer readable storage media |
JP7076861B1 (en) | 2021-09-17 | 2022-05-30 | 株式会社PocketRD | 3D avatar generator, 3D avatar generation method and 3D avatar generation program |
JP2022529757A (en) * | 2019-04-26 | 2022-06-24 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | How to display virtual character faces, devices, computer devices, and computer programs |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030099409A1 (en) * | 2001-11-23 | 2003-05-29 | Canon Kabushiki Kaisha | Method and apparatus for generating models of individuals |
JP2004094773A (en) * | 2002-09-03 | 2004-03-25 | Nec Corp | Head wearing object image synthesizing method and device, makeup image synthesizing method and device, and program |
US20060245639A1 (en) * | 2005-04-29 | 2006-11-02 | Microsoft Corporation | Method and system for constructing a 3D representation of a face from a 2D representation |
JP2009077384A (en) * | 2007-08-29 | 2009-04-09 | Nintendo Co Ltd | Portable imaging apparatus and program |
JP2009211148A (en) * | 2008-02-29 | 2009-09-17 | Secom Co Ltd | Face image processor |
JP2010532890A (en) * | 2007-07-06 | 2010-10-14 | ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド | Avatar customization apparatus and method |
JP2011097202A (en) * | 2009-10-28 | 2011-05-12 | Kyocera Mita Corp | Image processing apparatus, image forming apparatus, and image processing method |
JP2012038106A (en) * | 2010-08-06 | 2012-02-23 | Canon Inc | Information processor, information processing method and program |
-
2013
- 2013-03-29 JP JP2013074312A patent/JP2014199536A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030099409A1 (en) * | 2001-11-23 | 2003-05-29 | Canon Kabushiki Kaisha | Method and apparatus for generating models of individuals |
JP2004094773A (en) * | 2002-09-03 | 2004-03-25 | Nec Corp | Head wearing object image synthesizing method and device, makeup image synthesizing method and device, and program |
US20060245639A1 (en) * | 2005-04-29 | 2006-11-02 | Microsoft Corporation | Method and system for constructing a 3D representation of a face from a 2D representation |
JP2010532890A (en) * | 2007-07-06 | 2010-10-14 | ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド | Avatar customization apparatus and method |
JP2009077384A (en) * | 2007-08-29 | 2009-04-09 | Nintendo Co Ltd | Portable imaging apparatus and program |
JP2009211148A (en) * | 2008-02-29 | 2009-09-17 | Secom Co Ltd | Face image processor |
JP2011097202A (en) * | 2009-10-28 | 2011-05-12 | Kyocera Mita Corp | Image processing apparatus, image forming apparatus, and image processing method |
JP2012038106A (en) * | 2010-08-06 | 2012-02-23 | Canon Inc | Information processor, information processing method and program |
Non-Patent Citations (2)
Title |
---|
五十嵐 敏夫: "顔の3次元形状からの骨格推定", 電子情報通信学会2000年総合大会講演論文集予稿集, JPN6015003458, 7 March 2000 (2000-03-07), JP, pages 282, ISSN: 0002994895 * |
橋本 周司: "顔のモデリングと認識", 情報処理学会研究報告, vol. Vol.2003 No.66 IPSJ SIG, JPN6015003456, 4 July 2003 (2003-07-04), JP, pages 53 - 60, ISSN: 0002994894 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019117146A1 (en) * | 2017-12-15 | 2019-06-20 | 株式会社シャルマン | Reference-front-surface-setting device, measurement device, spectacles selection device, medical card creation device, measurement method, spectacles selection method, and medical card creation method |
JP6490861B1 (en) * | 2018-08-17 | 2019-03-27 | 株式会社シャルマン | Method of setting reference front of three-dimensional face image, method of selecting glasses using the same, and method of creating medical record using the same |
JP2019109491A (en) * | 2018-08-17 | 2019-07-04 | 株式会社シャルマン | Method of setting reference front of three-dimensional facial image, method of selecting spectacles using the same, and method of generating customer records using the same |
JP2022529757A (en) * | 2019-04-26 | 2022-06-24 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | How to display virtual character faces, devices, computer devices, and computer programs |
JP7206388B2 (en) | 2019-04-26 | 2023-01-17 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | Virtual character face display method, apparatus, computer device, and computer program |
JP2022500790A (en) * | 2019-05-15 | 2022-01-04 | 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co., Ltd. | Face model generation methods, devices, electronic devices and computer readable storage media |
JP7191213B2 (en) | 2019-05-15 | 2022-12-16 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | Face model generation method, device, electronic device, and computer-readable storage medium |
US11836943B2 (en) | 2019-05-15 | 2023-12-05 | Beijing Sensetime Technology Development Co., Ltd. | Virtual face model creation based on key point |
JP7076861B1 (en) | 2021-09-17 | 2022-05-30 | 株式会社PocketRD | 3D avatar generator, 3D avatar generation method and 3D avatar generation program |
JP2023044195A (en) * | 2021-09-17 | 2023-03-30 | 株式会社PocketRD | Three-dimensional avatar generation device, three-dimensional avatar generation method, and three-dimensional avatar generation program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11423556B2 (en) | Methods and systems to modify two dimensional facial images in a video to generate, in real-time, facial images that appear three dimensional | |
US10089522B2 (en) | Head-mounted display with facial expression detecting capability | |
US11645801B2 (en) | Method for synthesizing figure of virtual object, electronic device, and storage medium | |
US9563975B2 (en) | Makeup support apparatus and method for supporting makeup | |
EP3992919B1 (en) | Three-dimensional facial model generation method and apparatus, device, and medium | |
JP6375480B2 (en) | Makeup support device, makeup support system, makeup support method, and makeup support program | |
US20140254939A1 (en) | Apparatus and method for outputting information on facial expression | |
CN112669447A (en) | Model head portrait creating method and device, electronic equipment and storage medium | |
JP2019510297A (en) | Virtual try-on to the user's true human body model | |
CN107452049B (en) | Three-dimensional head modeling method and device | |
CN109961496B (en) | Expression driving method and expression driving device | |
BR102012033722A2 (en) | System and method for makeup simulation on handheld digital camera devices | |
JP2001109907A (en) | Three-dimensional model generation device, three- dimensional model generation method, and recording medium recording three-dimensional model generation program | |
JP2014199536A (en) | Face model generating device, method for controlling face model generating device, and program | |
KR20100026240A (en) | 3d hair style simulation system and method using augmented reality | |
JPWO2014128747A1 (en) | I / O device, I / O program, and I / O method | |
WO2015017687A2 (en) | Systems and methods for producing predictive images | |
CN111008927A (en) | Face replacement method, storage medium and terminal equipment | |
JPWO2014128748A1 (en) | Calibration apparatus, calibration program, and calibration method | |
JP2021144582A (en) | Makeup simulation device, makeup simulation method and program | |
JPWO2014128750A1 (en) | I / O device, I / O program, and I / O method | |
JPH09305798A (en) | Image display device | |
US10152827B2 (en) | Three-dimensional modeling method and electronic apparatus thereof | |
CN115424308A (en) | Intelligent cosmetic mirror and method for displaying auxiliary makeup | |
JP6547244B2 (en) | Operation processing apparatus, operation processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150203 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150602 |