JP2004506276A - Three-dimensional face modeling system and modeling method - Google Patents
Three-dimensional face modeling system and modeling method Download PDFInfo
- Publication number
- JP2004506276A JP2004506276A JP2002518427A JP2002518427A JP2004506276A JP 2004506276 A JP2004506276 A JP 2004506276A JP 2002518427 A JP2002518427 A JP 2002518427A JP 2002518427 A JP2002518427 A JP 2002518427A JP 2004506276 A JP2004506276 A JP 2004506276A
- Authority
- JP
- Japan
- Prior art keywords
- face
- standard model
- texture
- dimensional
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 230000005477 standard model Effects 0.000 claims abstract description 83
- 238000013507 mapping Methods 0.000 claims abstract description 19
- 230000037308 hair color Effects 0.000 claims abstract description 16
- 210000003128 head Anatomy 0.000 claims description 20
- 230000009466 transformation Effects 0.000 claims description 17
- 210000001508 eye Anatomy 0.000 claims description 11
- 210000001061 forehead Anatomy 0.000 claims 1
- 238000012986 modification Methods 0.000 claims 1
- 230000004048 modification Effects 0.000 claims 1
- 210000001331 nose Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/028—Multiple view windows (top-side-front-sagittal-orthogonal)
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
一枚の顔正面イメージを使用者が表示される画面上で顔の正面、側面及び後面を修正して正確な3次元の立体映像で再生できる3次元顔形状を製作する。
3次元顔モデリングシステムの運営方法は、ポリゴンメッシュの形態で表現される仮想3次元顔の標準モデルとモデリング対象の対象モデル正面イメージを、標準モデルが表示される画面上に重ね合わせるように提供する。重ね合わせる標準モデルと対象モデル正面イメージが一致するように標準モデルを変形する。変形された標準モデルを基に、対象モデルの正面イメージを修正した形態である顔正面テクスチャーを生成する。生成された顔の正面テクスチャーで顔色及び毛髪色と同じ画素を抽出して、抽出された画素を顔の側面及び後面テクスチャーに付与し頭型を編集する。顔の正面、側面及び後面テクスチャーを変形した標準モデルにテクスチャーマッピングして3次元の顔形状を復元する。A front face, a side face, and a back face of a face are corrected on a screen on which a user displays a single face front image to produce a three-dimensional face shape that can be reproduced as an accurate three-dimensional stereoscopic image.
The operation method of the three-dimensional face modeling system provides a standard model of a virtual three-dimensional face expressed in the form of a polygon mesh and a front image of a target model to be modeled so as to be superimposed on a screen on which the standard model is displayed. . The standard model is deformed so that the superimposed standard model and the target model front image match. Based on the deformed standard model, a face front texture in a form obtained by correcting the front image of the target model is generated. The same pixels as the face color and the hair color are extracted from the generated frontal texture of the face, and the extracted pixels are added to the side and rear face textures of the face to edit the head shape. A three-dimensional face shape is restored by performing texture mapping on a standard model in which the front, side, and rear face textures of the face have been deformed.
Description
【0001】
【発明の属する技術分野】
本発明は1枚の顔正面イメージを利用して顔全体を立体形状で製作する3次元顔モデリングに関し、詳しくは、使用者が表示される画面上で顔の正面、側面、後面を修正して正確な3次元の立体映像で再生できる3次元顔モデリングに関する。
【0002】
人体を3次元モデリングするために最も重要な部分は顔である。顔は人の同一性を形成するのに最も大きい比重を占めるだけでなく、小さな面積に多くの重要な構成要素を含んでいる。このような構成要素の小さな変化によって全体として顔が違うように見えることができる。
【0003】
また、3次元顔に3次元身体のような付加要素を追加してアニメーション効果を提供すれば、仮想現実世界(VR)における実際自身の同一性を持つアバター(avatar:具象)の登場が可能になる。換言すれば、真の自身のアバターで仮想現実社会をなすには、自身の3次元顔モデリングが具現されるべきである。
【0004】
一般的に、3次元で顔をモデリングする方法としては、3次元スキャニング装備を利用して顔を3次元モデリングする方法と、ステレオビジョン(stereo vision)等を利用して他の角度で取った写真から共通の領域に対応する2次元情報を組み合わせて3次元モデリングする方法とがある。
【0005】
【発明が解決しようとする課題】
スキャニング装備を利用して顔を3次元モデリングする方法は、幾何学的モデルだけでなく、顔色などのテクスチャー情報まで完壁に復元できるが、高価な装備を使用するため、一般人に商用化しにくいという問題点がある。
【0006】
また、ステレオビジョン等の2次元情報を3次元で復元する方法は、提供される写真の共通の部分が存在するように、多様な角度で取った写真を提供しなければならないという問題点がある。
【0007】
したがって、本発明は前記問題点を解決するためのもので、その目的は、正面で取った1枚の顔写真だけで3次元顔モデリングするシステムを提供することにある。
【0008】
本発明の他の目的は、正面で取った1枚の顔写真だけで3次元顔モデリングする方法を提供することにある。
【0009】
【課題を解決するための手段】
前記目的を達成するために、本発明の3次元顔モデリングシステムの運用方法は、ポリゴンメッシュ(polygon mesh)で表現する仮想3次元顔を標準モデルとして提供する段階;対象モデルの正面イメージを前記標準モデルが表示される画面上に重ね合わせるように提供する段階;重ね合わせた標準モデルと対象モデルの正面イメージが一致するように標準モデルを変形させる段階;変形された標準モデルを基に、対象モデルの正面イメージで正面と側面の境界線よりも少し内側で、対象モデルの正面イメージの顔色及び毛髪色と同じ画素を抽出して顔正面テクスチャーを生成する段階;生成された顔正面テクスチャーの顔色及び毛髪色と同じ顔色及び毛髪色を顔の側面及び後面テクスチャーに付与し、髪型を編集する段階;及び、顔の正面、側面及び後面テクスチャーをテクスチャーマッピングして、3次元の顔形状を復元する段階を含む。
【0010】
望ましくは、標準モデルの変形段階は、標準モデルの輪郭が対象モデル正面イメージと一致するように標準モデルの頭周り調整線及び横と縦の調整線を調節し、バーテックス全体の位置を線形的に補正するグローバル変形段階と、グローバル変形された標準モデルと対象モデル正面イメージの特定部位が一致するように標準モデルの特徴点及び非特徴点を変形し、特定部位を細部的に修正するローカル変形段階とを含む。
【0011】
【発明の実施の形態】
以下、添付図面に基づき、本発明の望ましい実施例を詳細に説明する。
図1は本発明による3次元顔モデリングシステムの概略ブロック図で、図2は本発明による3次元顔モデリングする順序図で、図3は本発明によって提供さるる仮想3次元の標準モデルを画面に示す一実施例で、図4は本発明によって提供される対象モデル正面イメージと標準モデルを重ね合わせた一実施例で、図5は本発明によって標準モデルの特徴点を調整して対象モデル正面イメージに一致させる一実施例で、図6は本発明によって顔正面テクスチャーを生成した一実施例で、図7は本発明によって顔後面テクスチャーを編集する一実施例である。
【0012】
本実施例を示す図3乃至図7は画面上で表示されるものであって、画面は左側及び右側の上・下段に分けられる4個の小さな画面からなり、画面の左側上段は標準モデルを正面で変形し、画面の右側上段は標準モデルを側面で変形し、画面の左側下段は顔の側面及び後面テクスチャーに対する編集を行い、右側下段は3次元で復元された3次元顔を立体的に回転して比較できる画面が提供される。
【0013】
また、本発明でのポリゴンメッシュは、顔全体に対して500〜1,000余個の複数の点を結んだ三角形の網形態であって、各顔全体の大きさ及び形状を表現する。
【0014】
本発明の3次元顔モデリングシステムは、3次元仮想顔をポリゴンメッシュの形態の標準モデルで提供する仮想3次元標準モデル提供モジュール102と、モデリング対象の顔正面イメージを提供する対象モデル正面イメージ提供モジュール104と、標準モデルに対象モデル正面イメージを重ね合わせた後、標準モデルを対象モデルに一致するように変形する標準モデル変形モジュール106と、対象モデル正面イメージを修正して顔正面テクスチャーを生成する顔正面テクスチャー生成モジュール112と、顔正面テクスチャーの顔色及び毛髪色と同様に顔の側面及び後面テクスチャーを製作する顔側面及び後面テクスチャー編集モジュール114、116と、製作された顔の正面、側面及び後面テクスチャーを変形の標準モデルにマッピングするテクスチャーマッピングモジュール118とを含む。
【0015】
望ましくは、仮想3次元標準モデル提供モジュール102では、図3のように、一般形の顔に基づいて3次元製作した仮想の標準モデルを提供する。標準モデルは顔全体が3角形のポリゴンメッシュ(polygon mesh)10の集まりである幾何学的な立体映像として提供される。また、画面上で提供される標準モデルは、対象モデルの正面イメージ1と一致させるために顔全体の横・縦の比率を合わせるための頭周り調整線2、顔の特定部位を合わせるための横調整線4、縦調整線6及び特徴点8を含む。
【0016】
対象モデル正面イメージ提供モジュール104では、図4のように、3次元製作するための対象モデルの顔正面写真をスキャニングした対象モデルの正面イメージ1を標準モデルが表示される画面上に重ね合わせるように提供する。よって、標準モデルの各種調整線2、4、6、8と実際対象モデルの正面イメージ1との全体的な大きさ及び主要部位の位置差が容易に分かる。
【0017】
標準モデルの変形モジュール106は、大きく、グローバル変形モジュール108及びローカル変形モジュール110を含み、標準モデルと対象モデルの正面イメージ1が一致するように標準モデルを変形する。
【0018】
このとき、グローバル変形モジュール108では、図5のように、画面上で重ね合わせられた対象モデルの正面イメージ1と標準モデルを比較して、標準モデルが正面イメージ1に一致するように標準モデルの頭周り調整線2、横調整線4及び縦調整線6などを調整する。
【0019】
また、ローカル変形モジュール110では、グローバル変形モジュール108により対象モデルの正面イメージ1と標準モデルの外形を全般的に一致させた後、標準モデルの眉、目、鼻、口及び耳等の顔の特定部位に既定の特徴点8を対象モデルの正面イメージ1に一致するように調整する。また、このような特徴点8は特徴点8の変化に連動され、顔全体の屈曲を表現する非特徴点の変化を伴う。
【0020】
顔正面テクスチャー生成モジュール112では、標準モデルと対象モデルの正面イメージ1を一致させた後、図6のように、グローバル変形モジュール108で調整された頭周り調整線の位置を基に、対象モデル正面イメージの正面と側面の境界線よりも少し内側で、対象モデル正面イメージの顔色及び毛髪色と同様な多数の画素を抽出し、対象モデル正面イメージを修正した形態である顔正面テクスチャーを生成する。
【0021】
また、顔の側面及び後面テクスチャー編集モジュール114、116は、生成された顔正面テクスチャーを利用して顔の側面及び後面テクスチャーを生成して編集する。初期生成時、顔の側面及び後面テクスチャーの大きさは顔正面テクスチャーの大きさと同様にし、構成は顔正面テクスチャーで目位置修正線を基準として、修正された右側四角領域が顔後面テクスチャーの左に入り、左側四角領域が顔後面テクスチャーの右に入る。また、中央部分は両側を線形的に補正して満たす。顔の側面及び後面テクスチャー生成後、これに対する編集は図7のように、頭型調整点12を利用して修正する。
【0022】
テクスチャーマッピングモジュール118では、生成された顔の正面、側面及び後面テクスチャーを変形の標準モデルにテクスチャーマッピングする。顔正面テクスチャーは顔正面から約120゜程度をテクスチャーマッピングするが、テクスチャー座標は形状の正面に該当する各バーテックスをx、y平面に投影して求める。側面及び後面テクスチャーの場合、顔正面テクスチャーによりマッピングされない領域に対してテクスチャーマッピングするが、顔正面テクスチャーとは異なり、円筒形マッピング(cylindric mapping)によりテクスチャー座標を求める。円筒形マッピングは幾何学的な形状を頭の上から見た時、その中心を軸として側面から後面まで側面及び後面テクスチャーを円筒形に立ててこれをテクスチャーマッピングする。
【0023】
以下、図2に示すように、本発明による3次元顔モデリングの処理過程によって詳細に説明する。
まず、3次元仮想標準モデルを画面上に表示するように提供する(段階S202)。標準モデルは、図3に示すように、正面及び側面に各々画面上に表示され、提供される標準モデルは顔全体が3角形のポリゴンメッシュ10で表現され、顔全体の幾何学的な形状を具現する。また、標準モデルは顔の横・縦の比率を合わせるための頭周り調整線2と、目、鼻、口の位置を合わせるための横調整線4と、両目及び鼻の位置を合わせるための縦調整線6と、顔の特定部位に対してその位置を概略的に表す特徴点8とを含む。
【0024】
標準モデルの提供後、対象モデルの顔正面写真をスキャニングして保存したカラー及び白黒の各種正面イメージ1を、図4のように標準モデルが表示される画面上に重ね合わせるように提供する(段階S204)。したがって、提供される正面顔写真はポリゴンメッシュ10で構成された標準モデルと比較されるように重ね合わせされる。
【0025】
対象モデルの正面イメージ1と標準モデルが画面上に表示されれば、使用者は標準モデルをグローバル変形させる(段階S206)。グローバル変形は正面イメージ1と標準モデルを比較して、標準モデルの頭周り調整線2、横調整線4及び縦調整線6を各々対応する正面イメージ1に一致する割合で調整する。正面イメージ1に対して頭周り調整線2は顔の横と縦の比率を合わせ、横の3線のうち、上の横調整線は目の位置に、中間の横調整線は鼻端に、下の横調整線は口の位置に一致するように調整して全体バーテックスをグループ化する。縦の3線は両目の位置と鼻の位置に一致するように調整する。また、変形された調整線の位置によって、変化量に合わせて標準モデルのバーテックス全体の位置を線形的に補正する。
【0026】
グローバル変形で標準モデルの顔全体の比率を調整した後、ローカル変形で特定部位を細部的に修正する(段階S208)。ローカル変形は標準モデルの各部位の既定の特徴点8を正面イメージ1に一致させる。特徴点8は顔輪郭、眉毛、目、鼻、口及び耳等の顔の特定部位に対してその大きさと位置を概略的に表すもので、特徴点8の変化によって周囲に影響を受ける非特徴点と連動するようにインデックスされる。このとき、特徴点8の変形において、正面の特徴点8はx、y、z座標中でx、yに対するもので、側面の場合はz座標に対する移動に関連する。
【0027】
グローバル変形とローカル変形において、使用者は対称モード(symmetry mode)及び非対称モードを選択的に使用することができる。対称モードは人の顔が左・右対称であることを利用したもので、左・右の何れか一つの調整線または特徴点が動けば、対応する他側の調整線または特徴点8も自動で対応するように動く。これとは別途に、非対称モードを使用して、それぞれの調整線2、6または特徴点8を調節できる。
【0028】
このようなグローバル変形及びローカル変形により変形された標準モデルを基に、対象モデルの顔イメージを修正した形態である顔正面テクスチャーを生成する。図6のように、対象モデルの正面イメージ1でグローバル変形の調整線の位置を利用して、イメージプロセッシング作業によって正面と側面の境界線よりも少し内側で、顔色及び毛髪色で外部領域を修正して顔正面テクスチャーを生成する(段階S210)。
【0029】
顔正面テクスチャーを生成後、顔の側面及び後面テクスチャーを生成し編集する(段階S212)。まず、生成時の初期構成は顔正面テクスチャーで目の位置の修正線を基準として、修正された右側四角領域の画素が側面及び後面テクスチャーの左に入り、左側四角領域の画素が右に入る。また、中央部分は両側を線形的に補正して満たす。そして、テクスチャーマッピング時、正面テクスチャーと側面及び後面テクスチャーの連結部分で、毛髪の不自由な領域は使用者が該当部分の側面及び後面テクスチャーを確認しながら編集する。
【0030】
また、顔の側面及び後面テクスチャーの頭型は、図7のように、頭型調整点12で修正する。頭型調整点12は顔の側面及び後面の頭型を決定後、調整点12を付けて形態を形成すれば、その点からなす線を中心として線の上部は毛髪色に、下部は顔色にイメージプロセッシングする。ここで、使用者はグローバル変形及びローカル変形と同様に対称モードを使用して、一側の側面及び後面テクスチャーの変化が他側に同様に適用されるようにすることができる。
【0031】
顔の正面、側面及び後面テクスチャーが完成すれば、3次元顔の幾何学的な形状で顔正面から約120゜程度を顔の正面テクスチャーとしてテクスチャーマッピングする(段階S214)。テクスチャー座標は幾何学的な形状の正面に該当する各バーテックスをx、y平面に投影して求める。顔の側面及び後面テクスチャーの場合、顔正面テクスチャーによりマッピングされない領域に対してテクスチャーマッピングするが、顔正面テクスチャーとは異なり、円筒形マッピングによりテクスチャー座標を求める。顔全体テクスチャーの幾何学的な形状を頭の上から見た時、その中心を軸として側面から後面まで顔後面テクスチャーを円筒形に立てて、これをテクスチャーマッピングする。
【0032】
以上、本発明の望ましい実施例として顔の3次元モデリングシステムに対して上述したが、本発明の属する技術分野における通常の知識を持った人が容易に変更できる程度の構成は、添付の請求範囲に記載された技術思想に含まれる。
【0033】
【発明の効果】
本発明の構成から見れば、本発明は一枚の正面顔写真だけで顔全体を3次元で容易に具現できる。
【0034】
また、本発明は全体的な顔の形状と共に顔色及び毛髪色を具現できることで、完壁な3次元立体映像を提供できる。
【0035】
また、本発明は一枚の正面顔写真で3次元の立体映像を具現できるため、自身のアバターを具現して仮想現実世界で適用できる。
【図面の簡単な説明】
【図1】
本発明による3次元顔モデリングシステムの概略ブロック図である。
【図2】
本発明による3次元顔モデリングする順序図である。
【図3】
本発明によって提供さるる仮想3次元の標準モデルを画面に示す一実施例である。
【図4】
本発明によって提供される対象モデル正面イメージと標準モデルを重ね合わせた一実施例である。
【図5】
本発明によって標準モデルの特徴点を調整して対象モデル正面イメージに一致させる一実施例である。
【図6】
本発明によって顔正面テクスチャーの顔色と毛髪色を再構成した一実施例である。
【図7】
本発明によって顔後面テクスチャーを編集する一実施例である。
【符号の説明】
1 対象モデルの正面イメージ
2 頭周り調整線
4 横調整線
6 縦調整線
8 特徴点
10 ポリゴンメッシュ
12 頭型調整点[0001]
TECHNICAL FIELD OF THE INVENTION
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to three-dimensional face modeling in which a whole face is formed in a three-dimensional shape using one face front image. More specifically, the front, side, and rear faces of a face are corrected on a screen displayed by a user. The present invention relates to a three-dimensional face modeling that can reproduce an accurate three-dimensional stereoscopic image.
[0002]
The most important part for three-dimensional modeling of the human body is the face. The face not only occupies the largest specific gravity in shaping a person's identity, but also contains many important components in a small area. Such small changes in the components can make the face look totally different.
[0003]
Also, if an animation effect is provided by adding an additional element such as a three-dimensional body to a three-dimensional face, an avatar (avatar) having the same identity as the actual one in the virtual reality world (VR) can appear. Become. In other words, in order to form a virtual reality society with a true avatar, one's own three-dimensional face modeling must be implemented.
[0004]
In general, three-dimensional modeling of a face includes three-dimensional modeling using a three-dimensional scanning device, and photographs taken at other angles using stereo vision or the like. And three-dimensional modeling by combining two-dimensional information corresponding to a common area.
[0005]
[Problems to be solved by the invention]
The method of 3D modeling a face using scanning equipment can completely restore not only geometric models but also texture information such as complexion, but it is difficult to commercialize it to ordinary people because it uses expensive equipment. There is a problem.
[0006]
In addition, the method of restoring two-dimensional information such as stereo vision in three dimensions has a problem that photographs taken at various angles must be provided so that a common part of the provided photograph exists. .
[0007]
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a system for modeling a three-dimensional face using only one face photograph taken in front.
[0008]
Another object of the present invention is to provide a method for three-dimensional face modeling using only one face photograph taken in front.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, a method of operating a three-dimensional face modeling system according to the present invention includes providing a virtual three-dimensional face represented by a polygon mesh as a standard model; Providing the model to be superimposed on the screen on which the model is displayed; deforming the standard model so that the front image of the superimposed standard model matches the front image of the target model; target model based on the deformed standard model Extracting the same pixels as the face color and hair color of the front image of the target model, slightly inside the boundary line between the front and side in the front image of FIG. Applying the same complexion and hair color to the side and back texture of the face and editing the hairstyle; and , And texture mapping the front, side, and rear textures of the face to restore a three-dimensional face shape.
[0010]
Preferably, the deformation step of the standard model adjusts the head circumference adjustment line and the horizontal and vertical adjustment lines of the standard model so that the contour of the standard model matches the front image of the target model, and linearly positions the entire vertex. A global transformation step for correcting and a local transformation step for modifying feature points and non-feature points of the standard model so that the global transformation of the standard model and the specific part of the target model front image coincide with each other, and correcting the specific part in detail. And
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a schematic block diagram of a three-dimensional face modeling system according to the present invention. FIG. 2 is a flowchart of three-dimensional face modeling according to the present invention. FIG. 3 shows a virtual three-dimensional standard model provided by the present invention on a screen. FIG. 4 is an embodiment in which a front image of a target model provided by the present invention is superimposed on a standard model. FIG. 5 is a front image of a target model obtained by adjusting feature points of the standard model according to the present invention. FIG. 6 is an example of generating a front face texture according to the present invention, and FIG. 7 is an example of editing a rear face texture according to the present invention.
[0012]
FIGS. 3 to 7 showing the present embodiment are displayed on a screen, and the screen is composed of four small screens which are divided into upper and lower rows on the left and right sides. The upper right part of the screen deforms the standard model on the side, the lower left part of the screen edits the side and rear texture of the face, and the lower right part displays the three-dimensional restored 3D face three-dimensionally. A screen that can be rotated and compared is provided.
[0013]
Further, the polygon mesh in the present invention is a triangular net shape connecting a plurality of points of 500 to 1,000 or more with respect to the entire face, and expresses the size and shape of each entire face.
[0014]
The three-dimensional face modeling system of the present invention provides a virtual three-dimensional standard
[0015]
Preferably, the virtual three-dimensional standard
[0016]
In the target model front
[0017]
The standard
[0018]
At this time, as shown in FIG. 5, the
[0019]
In the
[0020]
The face front
[0021]
The side and rear face
[0022]
The
[0023]
Hereinafter, referring to FIG. 2, a detailed description will be given of a process of three-dimensional face modeling according to the present invention.
First, a three-dimensional virtual standard model is provided to be displayed on a screen (step S202). As shown in FIG. 3, the standard model is displayed on the screen on the front and side surfaces, respectively, and the provided standard model represents the entire face by a
[0024]
After providing the standard model, various color and black-and-white front images 1 obtained by scanning and storing a frontal photograph of the face of the target model are provided so as to be superimposed on a screen on which the standard model is displayed as shown in FIG. S204). Therefore, the provided front face photograph is superimposed so as to be compared with the standard model constituted by the
[0025]
If the front image 1 of the target model and the standard model are displayed on the screen, the user globally deforms the standard model (step S206). The global deformation compares the front image 1 with the standard model, and adjusts the head
[0026]
After adjusting the ratio of the entire face of the standard model by the global transformation, the specific part is corrected in detail by the local transformation (step S208). The local deformation matches the
[0027]
In the global deformation and the local deformation, a user can selectively use a symmetry mode and an asymmetric mode. The symmetry mode utilizes the fact that a human face is left / right symmetric. If one of the left and right adjustment lines or feature points moves, the corresponding adjustment line or
[0028]
Based on the standard model deformed by such global deformation and local deformation, a face front texture in a form in which the face image of the target model is corrected is generated. As shown in FIG. 6, using the position of the adjustment line of the global deformation in the front image 1 of the target model, the image processing operation corrects the outer region with the face color and the hair color slightly inside the boundary line between the front and side by image processing work. To generate a face front texture (step S210).
[0029]
After generating the front face texture, the side and rear face textures are generated and edited (step S212). First, the initial configuration at the time of generation is such that the pixels in the corrected right-sided square region are on the left side of the side and rear-surface textures, and the pixels in the left-sided square region are on the right side, based on the correction line for the eye position in the front face texture. The center portion is filled with both sides linearly corrected. At the time of texture mapping, a user edits a region where the hair is inconvenient in a portion where the front texture is connected to the side and rear textures while checking the side and rear textures of the corresponding portion.
[0030]
The head shape of the side and rear textures of the face is corrected at the head shape adjustment point 12 as shown in FIG. If the head shape adjustment point 12 determines the head shape of the side and back of the face and forms a form with the adjustment point 12, the upper part of the line is the hair color and the lower part is the face color with the line formed from that point as the center. Perform image processing. Here, the user can use the symmetric mode as well as the global deformation and the local deformation, so that the change of the side and rear surface textures on one side is similarly applied to the other side.
[0031]
When the front, side, and rear textures of the face are completed, a texture mapping of about 120 ° from the front of the face is performed as a front texture of the face in the geometric shape of the three-dimensional face (step S214). The texture coordinates are obtained by projecting each vertex corresponding to the front of the geometric shape on the x, y plane. In the case of the face side and rear face textures, texture mapping is performed on an area that is not mapped by the face front texture. However, unlike the face front texture, texture coordinates are obtained by cylindrical mapping. When the geometric shape of the whole face texture is viewed from above the head, the face back surface texture is set up in a cylindrical shape from the side to the back with the center as an axis, and this is texture mapped.
[0032]
As described above, the preferred embodiment of the present invention has been described with respect to the three-dimensional facial modeling system. However, a configuration that can be easily changed by a person having ordinary knowledge in the technical field to which the present invention belongs is described in the appended claims. Are included in the technical idea described in the above.
[0033]
【The invention's effect】
According to the configuration of the present invention, the present invention can easily realize the entire face in three dimensions only with one frontal face photograph.
[0034]
In addition, the present invention can provide a complete three-dimensional stereoscopic image by embodying the complexion and hair color along with the overall facial shape.
[0035]
In addition, since the present invention can realize a three-dimensional stereoscopic image with one frontal face photograph, it can be applied to a virtual reality world by embodying its own avatar.
[Brief description of the drawings]
FIG.
1 is a schematic block diagram of a three-dimensional face modeling system according to the present invention.
FIG. 2
FIG. 4 is a flowchart illustrating a three-dimensional face modeling according to the present invention;
FIG. 3
5 is an example showing a virtual three-dimensional standard model provided by the present invention on a screen.
FIG. 4
It is an example in which a target model front image provided by the present invention is superimposed on a standard model.
FIG. 5
9 is an embodiment of adjusting the feature points of the standard model to match the target model front image according to the present invention.
FIG. 6
7 is an example in which the face color and hair color of the face front texture are reconstructed according to the present invention.
FIG. 7
9 is an example of editing a back face texture according to the present invention.
[Explanation of symbols]
1 Front image of
Claims (11)
モデリング対象の顔の正面イメージを提供する対象モデル正面イメージ提供モジュール;
前記標準モデルに前記対象モデルの正面イメージを重ね合わせた後、標準モデルを前記対象モデルの正面イメージと一致するように変形する標準モデル変形モジュール;
前記対象モデルの正面イメージに対する修正顔の正面テクスチャーを生成する顔正面テクスチャー生成モジュール;
前記正面テクスチャーの顔色及び毛髪色と同様に顔の側面及び後面テクスチャーを製作する顔の側面及び後面テクスチャー編集モジュール;及び、
前記製作された顔の正面、側面及び後面テクスチャーを変形の標準モデルにテクスチャーマッピングしたテクスチャーマッピングモジュールを含むことを特徴とする、3次元顔モデリングシステム。A virtual three-dimensional standard model providing module for providing a three-dimensional virtual face with a polygon mesh standard model;
A target model front image providing module for providing a front image of the face to be modeled;
A standard model transformation module that superimposes the front image of the target model on the standard model, and then deforms the standard model to match the front image of the target model;
A face front texture generation module for generating a front face texture of a corrected face for the front image of the target model;
A face side and back face texture editing module for producing face side and back face textures as well as the face color and hair color of the front texture; and
A three-dimensional face modeling system, comprising: a texture mapping module for performing texture mapping of front, side and rear textures of the manufactured face on a standard model of deformation.
前記対象モデルの正面イメージと比較して目、鼻及び口の横位置を一致させるための横調整線;
前記対象モデルの正面イメージと比較して両目及び鼻の縦位置を一致させるための縦調整線;及び、
前記対象モデルの正面イメージと比較して前記標準モデルの特定部位を一致させるための特徴点を含むことを特徴とする、請求項1に記載の3次元顔モデリングシステム。The virtual three-dimensional standard model has a head circumference adjustment line for matching the horizontal and vertical ratios of the entire face as compared with the front image of the target model;
A horizontal adjustment line for matching the horizontal positions of the eyes, nose and mouth as compared with the front image of the target model;
A vertical adjustment line for matching the vertical positions of both eyes and the nose as compared with the front image of the target model; and
The three-dimensional face modeling system according to claim 1, further comprising a feature point for matching a specific part of the standard model with a front image of the target model.
前記変形された標準モデルの特徴部位を前記対象モデルの正面イメージに対応させて前記標準モデルの特定部位を一致させるローカル変形モジュールからなることを特徴とする、請求項1に記載の3次元顔モデリングシステム。A global deformation module that matches the contour of the standard model by associating the head circumference adjustment line, the horizontal adjustment line, and the vertical adjustment line of the standard model with the front image of the target model; and
3. The three-dimensional face modeling according to claim 1, further comprising a local deformation module that matches a specific part of the standard model by matching a characteristic part of the deformed standard model with a front image of the target model. system.
対象モデルの正面イメージを前記標準モデルが表示される画面上に重ね合わせるように提供する段階;
前記重ね合わせた標準モデルと前記対象モデルの正面イメージが一致するように前記標準モデルを変形させる段階;
前記変形された標準モデルを基に、対象モデルの正面イメージで正面と側面の境界線よりも少し内側で、前記対象モデルの正面イメージの顔色及び毛髪色と同じ画素を抽出して顔正面テクスチャーを生成する段階;
前記生成された顔正面テクスチャーの顔色及び毛髪色と同じ顔色及び毛髪色を顔の側面及び後面テクスチャーに付与し、髪型を編集する段階;及び、
前記顔の正面、側面及び後面テクスチャーをテクスチャーマッピングして、3次元の顔形状を復元する段階を含むことを特徴とする、3次元顔モデリング方法。Providing a three-dimensional virtual face as a standard model of a geometrical form expressed by a polygon mesh;
Providing a front image of the target model to be superimposed on a screen on which the standard model is displayed;
Deforming the standard model so that the front image of the superimposed standard model matches the front image of the target model;
Based on the deformed standard model, in the front image of the target model, the same pixels as the face color and hair color of the front image of the target model are extracted slightly inside the boundary between the front and side surfaces, and the face front texture is extracted. Generating;
Applying the same complexion and hair color as the complexion and hair color of the generated frontal texture to the side and rear face textures, and editing the hairstyle;
A method for modeling a three-dimensional face, comprising the steps of texture mapping the front, side, and rear textures of the face to restore a three-dimensional face shape.
前記調節及び補正された標準モデルと前記対象モデルの正面イメージの特定部位が一致するように前記標準モデルの特徴点及び非特徴点を変形して、前記特定部位を細部的に修正するローカル変形段階を含むことを特徴とする、請求項6に記載の3次元顔モデリング方法。The step of deforming the standard model includes adjusting a head circumference adjustment line, a horizontal adjustment line, and a vertical adjustment line of the standard model so that a contour of the standard model matches a front image of the target model, and vertex (vertex). A) a global transformation step that linearly corrects the overall position;
A local modification step of modifying feature points and non-feature points of the standard model so that the adjusted and corrected standard model and a specific part of the front image of the target model coincide with each other, thereby correcting the specific part in detail. The method of claim 6, further comprising:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020000046448A KR100327541B1 (en) | 2000-08-10 | 2000-08-10 | 3D facial modeling system and modeling method |
PCT/KR2001/000440 WO2002013144A1 (en) | 2000-08-10 | 2001-03-20 | 3d facial modeling system and modeling method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004506276A true JP2004506276A (en) | 2004-02-26 |
JP2004506276A5 JP2004506276A5 (en) | 2005-02-17 |
Family
ID=19682716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002518427A Pending JP2004506276A (en) | 2000-08-10 | 2001-03-20 | Three-dimensional face modeling system and modeling method |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2004506276A (en) |
KR (1) | KR100327541B1 (en) |
AU (1) | AU2001244763A1 (en) |
WO (1) | WO2002013144A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010532890A (en) * | 2007-07-06 | 2010-10-14 | ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド | Avatar customization apparatus and method |
JP2013097588A (en) * | 2011-11-01 | 2013-05-20 | Dainippon Printing Co Ltd | Three-dimensional portrait creation device |
KR20190050352A (en) * | 2017-11-03 | 2019-05-13 | 울산대학교 산학협력단 | Method and apparatus for generating 3d model data for manufacturing of implant |
US10326972B2 (en) | 2014-12-31 | 2019-06-18 | Samsung Electronics Co., Ltd. | Three-dimensional image generation method and apparatus |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100422471B1 (en) * | 2001-02-08 | 2004-03-11 | 비쥬텍쓰리디(주) | Apparatus and method for creation personal photo avatar |
KR100422470B1 (en) * | 2001-02-15 | 2004-03-11 | 비쥬텍쓰리디(주) | Method and apparatus for replacing a model face of moving image |
KR20030082160A (en) * | 2002-04-17 | 2003-10-22 | 백수곤 | Real Time Sprite Modeling |
FR2838846A1 (en) * | 2002-04-22 | 2003-10-24 | Delphine Software Internat | Real time 3D image generation system uses detailed projected two dimensional image on solid model with moving parts having erased relief |
EP1754198A1 (en) * | 2004-05-26 | 2007-02-21 | Gameware Europe Limited | Animation systems |
CN100430963C (en) * | 2005-09-29 | 2008-11-05 | 中国科学院自动化研究所 | Method for modeling personalized human face basedon orthogonal image |
KR100722229B1 (en) | 2005-12-02 | 2007-05-29 | 한국전자통신연구원 | Apparatus and method for immediately creating and controlling virtual reality interaction human model for user centric interface |
GB2480173A (en) * | 2007-02-05 | 2011-11-09 | Amegoworld Ltd | A data structure for representing an animated model of a head/face wherein hair overlies a flat peripheral region of a partial 3D map |
GB0702150D0 (en) * | 2007-02-05 | 2007-03-14 | Amegoworld Ltd | A Communication Network and Devices |
EP2162864A1 (en) * | 2007-05-31 | 2010-03-17 | Depth Analysis Pty.Ltd. | Systems and methods for applying a 3d scan of a physical target object to a virtual environment |
KR100965622B1 (en) * | 2008-10-31 | 2010-06-23 | 김영자 | Method and Apparatus for making sensitive character and animation |
KR101216614B1 (en) * | 2010-09-14 | 2012-12-31 | 현대엠엔소프트 주식회사 | A navigation apparatus and method for displaying topography thereof |
US10155168B2 (en) | 2012-05-08 | 2018-12-18 | Snap Inc. | System and method for adaptable avatars |
US10339365B2 (en) | 2016-03-31 | 2019-07-02 | Snap Inc. | Automated avatar generation |
KR101829334B1 (en) | 2016-05-31 | 2018-02-19 | 주식회사 코어라인소프트 | System and method for displaying medical images providing user interface three dimensional volume based three dimensional mesh adaptation |
US10432559B2 (en) | 2016-10-24 | 2019-10-01 | Snap Inc. | Generating and displaying customized avatars in electronic messages |
KR102152078B1 (en) | 2016-12-07 | 2020-09-04 | 한국전자통신연구원 | Apparatus and method for generating 3d face model |
CN110223374A (en) * | 2019-05-05 | 2019-09-10 | 太平洋未来科技(深圳)有限公司 | A kind of pre-set criteria face and head 3D model method |
KR102104889B1 (en) * | 2019-09-30 | 2020-04-27 | 이명학 | Method of generating 3-dimensional model data based on vertual solid surface models and system thereof |
CN111179210B (en) * | 2019-12-27 | 2023-10-20 | 浙江工业大学之江学院 | Face texture map generation method and system and electronic equipment |
CN113327277A (en) * | 2020-02-29 | 2021-08-31 | 华为技术有限公司 | Three-dimensional reconstruction method and device for half-body image |
CN112669447B (en) * | 2020-12-30 | 2023-06-30 | 网易(杭州)网络有限公司 | Model head portrait creation method and device, electronic equipment and storage medium |
CN112884638B (en) * | 2021-02-02 | 2024-08-20 | 北京东方国信科技股份有限公司 | Virtual fitting method and device |
CN117058329B (en) * | 2023-10-11 | 2023-12-26 | 湖南马栏山视频先进技术研究院有限公司 | Face rapid three-dimensional modeling method and system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100281965B1 (en) * | 1998-04-24 | 2001-02-15 | 전주범 | Face Texture Mapping Method of Model-based Coding System |
JP3740865B2 (en) * | 1998-10-08 | 2006-02-01 | コニカミノルタホールディングス株式会社 | Multi-viewpoint three-dimensional data composition method and recording medium |
JP2000149060A (en) * | 1998-11-05 | 2000-05-30 | Ricoh Co Ltd | Method and device for preparing polygon mesh, method and device for presenting shape feature of polygonal mesh, preparation program for polygonal mesh and storage medium with shape feature presentation program stored therein |
KR100317138B1 (en) * | 1999-01-19 | 2001-12-22 | 윤덕용 | Three-dimensional face synthesis method using facial texture image from several views |
-
2000
- 2000-08-10 KR KR1020000046448A patent/KR100327541B1/en not_active IP Right Cessation
-
2001
- 2001-03-20 WO PCT/KR2001/000440 patent/WO2002013144A1/en active Application Filing
- 2001-03-20 AU AU2001244763A patent/AU2001244763A1/en not_active Abandoned
- 2001-03-20 JP JP2002518427A patent/JP2004506276A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010532890A (en) * | 2007-07-06 | 2010-10-14 | ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド | Avatar customization apparatus and method |
JP2013097588A (en) * | 2011-11-01 | 2013-05-20 | Dainippon Printing Co Ltd | Three-dimensional portrait creation device |
US10326972B2 (en) | 2014-12-31 | 2019-06-18 | Samsung Electronics Co., Ltd. | Three-dimensional image generation method and apparatus |
KR20190050352A (en) * | 2017-11-03 | 2019-05-13 | 울산대학교 산학협력단 | Method and apparatus for generating 3d model data for manufacturing of implant |
KR102024598B1 (en) | 2017-11-03 | 2019-09-24 | 울산대학교 산학협력단 | Method and apparatus for generating 3d model data for manufacturing of implant |
Also Published As
Publication number | Publication date |
---|---|
WO2002013144A1 (en) | 2002-02-14 |
KR100327541B1 (en) | 2002-03-08 |
AU2001244763A1 (en) | 2002-02-18 |
KR20000063919A (en) | 2000-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004506276A (en) | Three-dimensional face modeling system and modeling method | |
CN112150638B (en) | Virtual object image synthesis method, device, electronic equipment and storage medium | |
JP3288353B2 (en) | How to create a 3D face model starting from a face image | |
CN109410298B (en) | Virtual model manufacturing method and expression changing method | |
CN109377557B (en) | Real-time three-dimensional face reconstruction method based on single-frame face image | |
US20180253895A1 (en) | System and method for creating a full head 3d morphable model | |
KR101514327B1 (en) | Method and apparatus for generating face avatar | |
CN106952336B (en) | Feature-preserving human three-dimensional head portrait production method | |
CN107657664B (en) | Image optimization method and device after face expression synthesis, storage medium and computer equipment | |
CN103198508A (en) | Human face expression animation generation method | |
CN103208133A (en) | Method for adjusting face plumpness in image | |
CN106021550B (en) | Hair style design method and system | |
CN101968892A (en) | Method for automatically adjusting three-dimensional face model according to one face picture | |
CN104915981A (en) | Three-dimensional hairstyle design method based on somatosensory sensor | |
CN106652015B (en) | Virtual character head portrait generation method and device | |
JPH1011609A (en) | Device and method for generating animation character | |
CN106652037B (en) | Face mapping processing method and device | |
CN104091366B (en) | Three-dimensional intelligent digitalization generation method and system based on two-dimensional shadow information | |
CN113628327A (en) | Head three-dimensional reconstruction method and equipment | |
JP2009104570A (en) | Data structure for image formation and method of forming image | |
CN112116699B (en) | Real-time real-person virtual trial sending method based on 3D face tracking | |
JP2003090714A (en) | Image processor and image processing program | |
JPH06118349A (en) | Spectacles fitting simulation device | |
JP2012120080A (en) | Stereoscopic photography apparatus | |
CN115082640B (en) | 3D face model texture reconstruction method and device based on single image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060127 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060630 |