[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2004506276A - Three-dimensional face modeling system and modeling method - Google Patents

Three-dimensional face modeling system and modeling method Download PDF

Info

Publication number
JP2004506276A
JP2004506276A JP2002518427A JP2002518427A JP2004506276A JP 2004506276 A JP2004506276 A JP 2004506276A JP 2002518427 A JP2002518427 A JP 2002518427A JP 2002518427 A JP2002518427 A JP 2002518427A JP 2004506276 A JP2004506276 A JP 2004506276A
Authority
JP
Japan
Prior art keywords
face
standard model
texture
dimensional
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002518427A
Other languages
Japanese (ja)
Other versions
JP2004506276A5 (en
Inventor
リ ドゥ ウォン
カング ド イム
ソング スク ミン
Original Assignee
エンキュビク コーポレーション
キム ジェ ソン
リ ドゥ ウォン
カング ド イム
ソング スク ミン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エンキュビク コーポレーション, キム ジェ ソン, リ ドゥ ウォン, カング ド イム, ソング スク ミン filed Critical エンキュビク コーポレーション
Publication of JP2004506276A publication Critical patent/JP2004506276A/en
Publication of JP2004506276A5 publication Critical patent/JP2004506276A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

一枚の顔正面イメージを使用者が表示される画面上で顔の正面、側面及び後面を修正して正確な3次元の立体映像で再生できる3次元顔形状を製作する。
3次元顔モデリングシステムの運営方法は、ポリゴンメッシュの形態で表現される仮想3次元顔の標準モデルとモデリング対象の対象モデル正面イメージを、標準モデルが表示される画面上に重ね合わせるように提供する。重ね合わせる標準モデルと対象モデル正面イメージが一致するように標準モデルを変形する。変形された標準モデルを基に、対象モデルの正面イメージを修正した形態である顔正面テクスチャーを生成する。生成された顔の正面テクスチャーで顔色及び毛髪色と同じ画素を抽出して、抽出された画素を顔の側面及び後面テクスチャーに付与し頭型を編集する。顔の正面、側面及び後面テクスチャーを変形した標準モデルにテクスチャーマッピングして3次元の顔形状を復元する。
A front face, a side face, and a back face of a face are corrected on a screen on which a user displays a single face front image to produce a three-dimensional face shape that can be reproduced as an accurate three-dimensional stereoscopic image.
The operation method of the three-dimensional face modeling system provides a standard model of a virtual three-dimensional face expressed in the form of a polygon mesh and a front image of a target model to be modeled so as to be superimposed on a screen on which the standard model is displayed. . The standard model is deformed so that the superimposed standard model and the target model front image match. Based on the deformed standard model, a face front texture in a form obtained by correcting the front image of the target model is generated. The same pixels as the face color and the hair color are extracted from the generated frontal texture of the face, and the extracted pixels are added to the side and rear face textures of the face to edit the head shape. A three-dimensional face shape is restored by performing texture mapping on a standard model in which the front, side, and rear face textures of the face have been deformed.

Description

【0001】
【発明の属する技術分野】
本発明は1枚の顔正面イメージを利用して顔全体を立体形状で製作する3次元顔モデリングに関し、詳しくは、使用者が表示される画面上で顔の正面、側面、後面を修正して正確な3次元の立体映像で再生できる3次元顔モデリングに関する。
【0002】
人体を3次元モデリングするために最も重要な部分は顔である。顔は人の同一性を形成するのに最も大きい比重を占めるだけでなく、小さな面積に多くの重要な構成要素を含んでいる。このような構成要素の小さな変化によって全体として顔が違うように見えることができる。
【0003】
また、3次元顔に3次元身体のような付加要素を追加してアニメーション効果を提供すれば、仮想現実世界(VR)における実際自身の同一性を持つアバター(avatar:具象)の登場が可能になる。換言すれば、真の自身のアバターで仮想現実社会をなすには、自身の3次元顔モデリングが具現されるべきである。
【0004】
一般的に、3次元で顔をモデリングする方法としては、3次元スキャニング装備を利用して顔を3次元モデリングする方法と、ステレオビジョン(stereo vision)等を利用して他の角度で取った写真から共通の領域に対応する2次元情報を組み合わせて3次元モデリングする方法とがある。
【0005】
【発明が解決しようとする課題】
スキャニング装備を利用して顔を3次元モデリングする方法は、幾何学的モデルだけでなく、顔色などのテクスチャー情報まで完壁に復元できるが、高価な装備を使用するため、一般人に商用化しにくいという問題点がある。
【0006】
また、ステレオビジョン等の2次元情報を3次元で復元する方法は、提供される写真の共通の部分が存在するように、多様な角度で取った写真を提供しなければならないという問題点がある。
【0007】
したがって、本発明は前記問題点を解決するためのもので、その目的は、正面で取った1枚の顔写真だけで3次元顔モデリングするシステムを提供することにある。
【0008】
本発明の他の目的は、正面で取った1枚の顔写真だけで3次元顔モデリングする方法を提供することにある。
【0009】
【課題を解決するための手段】
前記目的を達成するために、本発明の3次元顔モデリングシステムの運用方法は、ポリゴンメッシュ(polygon mesh)で表現する仮想3次元顔を標準モデルとして提供する段階;対象モデルの正面イメージを前記標準モデルが表示される画面上に重ね合わせるように提供する段階;重ね合わせた標準モデルと対象モデルの正面イメージが一致するように標準モデルを変形させる段階;変形された標準モデルを基に、対象モデルの正面イメージで正面と側面の境界線よりも少し内側で、対象モデルの正面イメージの顔色及び毛髪色と同じ画素を抽出して顔正面テクスチャーを生成する段階;生成された顔正面テクスチャーの顔色及び毛髪色と同じ顔色及び毛髪色を顔の側面及び後面テクスチャーに付与し、髪型を編集する段階;及び、顔の正面、側面及び後面テクスチャーをテクスチャーマッピングして、3次元の顔形状を復元する段階を含む。
【0010】
望ましくは、標準モデルの変形段階は、標準モデルの輪郭が対象モデル正面イメージと一致するように標準モデルの頭周り調整線及び横と縦の調整線を調節し、バーテックス全体の位置を線形的に補正するグローバル変形段階と、グローバル変形された標準モデルと対象モデル正面イメージの特定部位が一致するように標準モデルの特徴点及び非特徴点を変形し、特定部位を細部的に修正するローカル変形段階とを含む。
【0011】
【発明の実施の形態】
以下、添付図面に基づき、本発明の望ましい実施例を詳細に説明する。
図1は本発明による3次元顔モデリングシステムの概略ブロック図で、図2は本発明による3次元顔モデリングする順序図で、図3は本発明によって提供さるる仮想3次元の標準モデルを画面に示す一実施例で、図4は本発明によって提供される対象モデル正面イメージと標準モデルを重ね合わせた一実施例で、図5は本発明によって標準モデルの特徴点を調整して対象モデル正面イメージに一致させる一実施例で、図6は本発明によって顔正面テクスチャーを生成した一実施例で、図7は本発明によって顔後面テクスチャーを編集する一実施例である。
【0012】
本実施例を示す図3乃至図7は画面上で表示されるものであって、画面は左側及び右側の上・下段に分けられる4個の小さな画面からなり、画面の左側上段は標準モデルを正面で変形し、画面の右側上段は標準モデルを側面で変形し、画面の左側下段は顔の側面及び後面テクスチャーに対する編集を行い、右側下段は3次元で復元された3次元顔を立体的に回転して比較できる画面が提供される。
【0013】
また、本発明でのポリゴンメッシュは、顔全体に対して500〜1,000余個の複数の点を結んだ三角形の網形態であって、各顔全体の大きさ及び形状を表現する。
【0014】
本発明の3次元顔モデリングシステムは、3次元仮想顔をポリゴンメッシュの形態の標準モデルで提供する仮想3次元標準モデル提供モジュール102と、モデリング対象の顔正面イメージを提供する対象モデル正面イメージ提供モジュール104と、標準モデルに対象モデル正面イメージを重ね合わせた後、標準モデルを対象モデルに一致するように変形する標準モデル変形モジュール106と、対象モデル正面イメージを修正して顔正面テクスチャーを生成する顔正面テクスチャー生成モジュール112と、顔正面テクスチャーの顔色及び毛髪色と同様に顔の側面及び後面テクスチャーを製作する顔側面及び後面テクスチャー編集モジュール114、116と、製作された顔の正面、側面及び後面テクスチャーを変形の標準モデルにマッピングするテクスチャーマッピングモジュール118とを含む。
【0015】
望ましくは、仮想3次元標準モデル提供モジュール102では、図3のように、一般形の顔に基づいて3次元製作した仮想の標準モデルを提供する。標準モデルは顔全体が3角形のポリゴンメッシュ(polygon mesh)10の集まりである幾何学的な立体映像として提供される。また、画面上で提供される標準モデルは、対象モデルの正面イメージ1と一致させるために顔全体の横・縦の比率を合わせるための頭周り調整線2、顔の特定部位を合わせるための横調整線4、縦調整線6及び特徴点8を含む。
【0016】
対象モデル正面イメージ提供モジュール104では、図4のように、3次元製作するための対象モデルの顔正面写真をスキャニングした対象モデルの正面イメージ1を標準モデルが表示される画面上に重ね合わせるように提供する。よって、標準モデルの各種調整線2、4、6、8と実際対象モデルの正面イメージ1との全体的な大きさ及び主要部位の位置差が容易に分かる。
【0017】
標準モデルの変形モジュール106は、大きく、グローバル変形モジュール108及びローカル変形モジュール110を含み、標準モデルと対象モデルの正面イメージ1が一致するように標準モデルを変形する。
【0018】
このとき、グローバル変形モジュール108では、図5のように、画面上で重ね合わせられた対象モデルの正面イメージ1と標準モデルを比較して、標準モデルが正面イメージ1に一致するように標準モデルの頭周り調整線2、横調整線4及び縦調整線6などを調整する。
【0019】
また、ローカル変形モジュール110では、グローバル変形モジュール108により対象モデルの正面イメージ1と標準モデルの外形を全般的に一致させた後、標準モデルの眉、目、鼻、口及び耳等の顔の特定部位に既定の特徴点8を対象モデルの正面イメージ1に一致するように調整する。また、このような特徴点8は特徴点8の変化に連動され、顔全体の屈曲を表現する非特徴点の変化を伴う。
【0020】
顔正面テクスチャー生成モジュール112では、標準モデルと対象モデルの正面イメージ1を一致させた後、図6のように、グローバル変形モジュール108で調整された頭周り調整線の位置を基に、対象モデル正面イメージの正面と側面の境界線よりも少し内側で、対象モデル正面イメージの顔色及び毛髪色と同様な多数の画素を抽出し、対象モデル正面イメージを修正した形態である顔正面テクスチャーを生成する。
【0021】
また、顔の側面及び後面テクスチャー編集モジュール114、116は、生成された顔正面テクスチャーを利用して顔の側面及び後面テクスチャーを生成して編集する。初期生成時、顔の側面及び後面テクスチャーの大きさは顔正面テクスチャーの大きさと同様にし、構成は顔正面テクスチャーで目位置修正線を基準として、修正された右側四角領域が顔後面テクスチャーの左に入り、左側四角領域が顔後面テクスチャーの右に入る。また、中央部分は両側を線形的に補正して満たす。顔の側面及び後面テクスチャー生成後、これに対する編集は図7のように、頭型調整点12を利用して修正する。
【0022】
テクスチャーマッピングモジュール118では、生成された顔の正面、側面及び後面テクスチャーを変形の標準モデルにテクスチャーマッピングする。顔正面テクスチャーは顔正面から約120゜程度をテクスチャーマッピングするが、テクスチャー座標は形状の正面に該当する各バーテックスをx、y平面に投影して求める。側面及び後面テクスチャーの場合、顔正面テクスチャーによりマッピングされない領域に対してテクスチャーマッピングするが、顔正面テクスチャーとは異なり、円筒形マッピング(cylindric mapping)によりテクスチャー座標を求める。円筒形マッピングは幾何学的な形状を頭の上から見た時、その中心を軸として側面から後面まで側面及び後面テクスチャーを円筒形に立ててこれをテクスチャーマッピングする。
【0023】
以下、図2に示すように、本発明による3次元顔モデリングの処理過程によって詳細に説明する。
まず、3次元仮想標準モデルを画面上に表示するように提供する(段階S202)。標準モデルは、図3に示すように、正面及び側面に各々画面上に表示され、提供される標準モデルは顔全体が3角形のポリゴンメッシュ10で表現され、顔全体の幾何学的な形状を具現する。また、標準モデルは顔の横・縦の比率を合わせるための頭周り調整線2と、目、鼻、口の位置を合わせるための横調整線4と、両目及び鼻の位置を合わせるための縦調整線6と、顔の特定部位に対してその位置を概略的に表す特徴点8とを含む。
【0024】
標準モデルの提供後、対象モデルの顔正面写真をスキャニングして保存したカラー及び白黒の各種正面イメージ1を、図4のように標準モデルが表示される画面上に重ね合わせるように提供する(段階S204)。したがって、提供される正面顔写真はポリゴンメッシュ10で構成された標準モデルと比較されるように重ね合わせされる。
【0025】
対象モデルの正面イメージ1と標準モデルが画面上に表示されれば、使用者は標準モデルをグローバル変形させる(段階S206)。グローバル変形は正面イメージ1と標準モデルを比較して、標準モデルの頭周り調整線2、横調整線4及び縦調整線6を各々対応する正面イメージ1に一致する割合で調整する。正面イメージ1に対して頭周り調整線2は顔の横と縦の比率を合わせ、横の3線のうち、上の横調整線は目の位置に、中間の横調整線は鼻端に、下の横調整線は口の位置に一致するように調整して全体バーテックスをグループ化する。縦の3線は両目の位置と鼻の位置に一致するように調整する。また、変形された調整線の位置によって、変化量に合わせて標準モデルのバーテックス全体の位置を線形的に補正する。
【0026】
グローバル変形で標準モデルの顔全体の比率を調整した後、ローカル変形で特定部位を細部的に修正する(段階S208)。ローカル変形は標準モデルの各部位の既定の特徴点8を正面イメージ1に一致させる。特徴点8は顔輪郭、眉毛、目、鼻、口及び耳等の顔の特定部位に対してその大きさと位置を概略的に表すもので、特徴点8の変化によって周囲に影響を受ける非特徴点と連動するようにインデックスされる。このとき、特徴点8の変形において、正面の特徴点8はx、y、z座標中でx、yに対するもので、側面の場合はz座標に対する移動に関連する。
【0027】
グローバル変形とローカル変形において、使用者は対称モード(symmetry mode)及び非対称モードを選択的に使用することができる。対称モードは人の顔が左・右対称であることを利用したもので、左・右の何れか一つの調整線または特徴点が動けば、対応する他側の調整線または特徴点8も自動で対応するように動く。これとは別途に、非対称モードを使用して、それぞれの調整線2、6または特徴点8を調節できる。
【0028】
このようなグローバル変形及びローカル変形により変形された標準モデルを基に、対象モデルの顔イメージを修正した形態である顔正面テクスチャーを生成する。図6のように、対象モデルの正面イメージ1でグローバル変形の調整線の位置を利用して、イメージプロセッシング作業によって正面と側面の境界線よりも少し内側で、顔色及び毛髪色で外部領域を修正して顔正面テクスチャーを生成する(段階S210)。
【0029】
顔正面テクスチャーを生成後、顔の側面及び後面テクスチャーを生成し編集する(段階S212)。まず、生成時の初期構成は顔正面テクスチャーで目の位置の修正線を基準として、修正された右側四角領域の画素が側面及び後面テクスチャーの左に入り、左側四角領域の画素が右に入る。また、中央部分は両側を線形的に補正して満たす。そして、テクスチャーマッピング時、正面テクスチャーと側面及び後面テクスチャーの連結部分で、毛髪の不自由な領域は使用者が該当部分の側面及び後面テクスチャーを確認しながら編集する。
【0030】
また、顔の側面及び後面テクスチャーの頭型は、図7のように、頭型調整点12で修正する。頭型調整点12は顔の側面及び後面の頭型を決定後、調整点12を付けて形態を形成すれば、その点からなす線を中心として線の上部は毛髪色に、下部は顔色にイメージプロセッシングする。ここで、使用者はグローバル変形及びローカル変形と同様に対称モードを使用して、一側の側面及び後面テクスチャーの変化が他側に同様に適用されるようにすることができる。
【0031】
顔の正面、側面及び後面テクスチャーが完成すれば、3次元顔の幾何学的な形状で顔正面から約120゜程度を顔の正面テクスチャーとしてテクスチャーマッピングする(段階S214)。テクスチャー座標は幾何学的な形状の正面に該当する各バーテックスをx、y平面に投影して求める。顔の側面及び後面テクスチャーの場合、顔正面テクスチャーによりマッピングされない領域に対してテクスチャーマッピングするが、顔正面テクスチャーとは異なり、円筒形マッピングによりテクスチャー座標を求める。顔全体テクスチャーの幾何学的な形状を頭の上から見た時、その中心を軸として側面から後面まで顔後面テクスチャーを円筒形に立てて、これをテクスチャーマッピングする。
【0032】
以上、本発明の望ましい実施例として顔の3次元モデリングシステムに対して上述したが、本発明の属する技術分野における通常の知識を持った人が容易に変更できる程度の構成は、添付の請求範囲に記載された技術思想に含まれる。
【0033】
【発明の効果】
本発明の構成から見れば、本発明は一枚の正面顔写真だけで顔全体を3次元で容易に具現できる。
【0034】
また、本発明は全体的な顔の形状と共に顔色及び毛髪色を具現できることで、完壁な3次元立体映像を提供できる。
【0035】
また、本発明は一枚の正面顔写真で3次元の立体映像を具現できるため、自身のアバターを具現して仮想現実世界で適用できる。
【図面の簡単な説明】
【図1】
本発明による3次元顔モデリングシステムの概略ブロック図である。
【図2】
本発明による3次元顔モデリングする順序図である。
【図3】
本発明によって提供さるる仮想3次元の標準モデルを画面に示す一実施例である。
【図4】
本発明によって提供される対象モデル正面イメージと標準モデルを重ね合わせた一実施例である。
【図5】
本発明によって標準モデルの特徴点を調整して対象モデル正面イメージに一致させる一実施例である。
【図6】
本発明によって顔正面テクスチャーの顔色と毛髪色を再構成した一実施例である。
【図7】
本発明によって顔後面テクスチャーを編集する一実施例である。
【符号の説明】
1 対象モデルの正面イメージ
2 頭周り調整線
4 横調整線
6 縦調整線
8 特徴点
10 ポリゴンメッシュ
12 頭型調整点
[0001]
TECHNICAL FIELD OF THE INVENTION
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to three-dimensional face modeling in which a whole face is formed in a three-dimensional shape using one face front image. More specifically, the front, side, and rear faces of a face are corrected on a screen displayed by a user. The present invention relates to a three-dimensional face modeling that can reproduce an accurate three-dimensional stereoscopic image.
[0002]
The most important part for three-dimensional modeling of the human body is the face. The face not only occupies the largest specific gravity in shaping a person's identity, but also contains many important components in a small area. Such small changes in the components can make the face look totally different.
[0003]
Also, if an animation effect is provided by adding an additional element such as a three-dimensional body to a three-dimensional face, an avatar (avatar) having the same identity as the actual one in the virtual reality world (VR) can appear. Become. In other words, in order to form a virtual reality society with a true avatar, one's own three-dimensional face modeling must be implemented.
[0004]
In general, three-dimensional modeling of a face includes three-dimensional modeling using a three-dimensional scanning device, and photographs taken at other angles using stereo vision or the like. And three-dimensional modeling by combining two-dimensional information corresponding to a common area.
[0005]
[Problems to be solved by the invention]
The method of 3D modeling a face using scanning equipment can completely restore not only geometric models but also texture information such as complexion, but it is difficult to commercialize it to ordinary people because it uses expensive equipment. There is a problem.
[0006]
In addition, the method of restoring two-dimensional information such as stereo vision in three dimensions has a problem that photographs taken at various angles must be provided so that a common part of the provided photograph exists. .
[0007]
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a system for modeling a three-dimensional face using only one face photograph taken in front.
[0008]
Another object of the present invention is to provide a method for three-dimensional face modeling using only one face photograph taken in front.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, a method of operating a three-dimensional face modeling system according to the present invention includes providing a virtual three-dimensional face represented by a polygon mesh as a standard model; Providing the model to be superimposed on the screen on which the model is displayed; deforming the standard model so that the front image of the superimposed standard model matches the front image of the target model; target model based on the deformed standard model Extracting the same pixels as the face color and hair color of the front image of the target model, slightly inside the boundary line between the front and side in the front image of FIG. Applying the same complexion and hair color to the side and back texture of the face and editing the hairstyle; and , And texture mapping the front, side, and rear textures of the face to restore a three-dimensional face shape.
[0010]
Preferably, the deformation step of the standard model adjusts the head circumference adjustment line and the horizontal and vertical adjustment lines of the standard model so that the contour of the standard model matches the front image of the target model, and linearly positions the entire vertex. A global transformation step for correcting and a local transformation step for modifying feature points and non-feature points of the standard model so that the global transformation of the standard model and the specific part of the target model front image coincide with each other, and correcting the specific part in detail. And
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a schematic block diagram of a three-dimensional face modeling system according to the present invention. FIG. 2 is a flowchart of three-dimensional face modeling according to the present invention. FIG. 3 shows a virtual three-dimensional standard model provided by the present invention on a screen. FIG. 4 is an embodiment in which a front image of a target model provided by the present invention is superimposed on a standard model. FIG. 5 is a front image of a target model obtained by adjusting feature points of the standard model according to the present invention. FIG. 6 is an example of generating a front face texture according to the present invention, and FIG. 7 is an example of editing a rear face texture according to the present invention.
[0012]
FIGS. 3 to 7 showing the present embodiment are displayed on a screen, and the screen is composed of four small screens which are divided into upper and lower rows on the left and right sides. The upper right part of the screen deforms the standard model on the side, the lower left part of the screen edits the side and rear texture of the face, and the lower right part displays the three-dimensional restored 3D face three-dimensionally. A screen that can be rotated and compared is provided.
[0013]
Further, the polygon mesh in the present invention is a triangular net shape connecting a plurality of points of 500 to 1,000 or more with respect to the entire face, and expresses the size and shape of each entire face.
[0014]
The three-dimensional face modeling system of the present invention provides a virtual three-dimensional standard model providing module 102 for providing a three-dimensional virtual face as a standard model in the form of a polygon mesh, and a target model front image providing module for providing a face front image to be modeled. 104, a standard model transformation module 106 that superimposes the target model front image on the standard model and then deforms the standard model so as to match the target model, and a face that modifies the target model front image to generate a face front texture A front side texture generation module 112, face side and back side texture editing modules 114 and 116 for producing face side and back side textures as well as the face color and hair color of the face front side texture, and a front, side and back side texture of the produced face To the standard model of deformation And a texture mapping module 118 to ring.
[0015]
Preferably, the virtual three-dimensional standard model providing module 102 provides a virtual standard model three-dimensionally manufactured based on a general face as shown in FIG. The standard model is provided as a geometric three-dimensional image in which the entire face is a collection of polygon meshes 10 having a triangular shape. In addition, the standard model provided on the screen includes a head circumference adjustment line 2 for adjusting the horizontal / vertical ratio of the entire face in order to match the front image 1 of the target model, and a horizontal adjustment line for matching a specific part of the face. An adjustment line 4, a vertical adjustment line 6 and a feature point 8 are included.
[0016]
In the target model front image providing module 104, as shown in FIG. 4, the front image 1 of the target model obtained by scanning the front face photograph of the target model for three-dimensional production is superimposed on the screen on which the standard model is displayed. provide. Therefore, the overall size and the position difference of the main part between the various adjustment lines 2, 4, 6, and 8 of the standard model and the front image 1 of the actual target model can be easily understood.
[0017]
The standard model transformation module 106 largely includes a global transformation module 108 and a local transformation module 110, and transforms the standard model so that the front image 1 of the standard model and the target model match.
[0018]
At this time, as shown in FIG. 5, the global transformation module 108 compares the front image 1 of the target model superimposed on the screen with the standard model, and sets the standard model so that the standard model matches the front image 1. The head adjustment line 2, the horizontal adjustment line 4, the vertical adjustment line 6, and the like are adjusted.
[0019]
In the local transformation module 110, the global transformation module 108 generally matches the front image 1 of the target model with the outer shape of the standard model, and then specifies the face of the standard model such as eyebrows, eyes, nose, mouth, and ears. Adjustment is made such that a predetermined feature point 8 for the part matches the front image 1 of the target model. Further, such a feature point 8 is linked to a change in the feature point 8 and is accompanied by a change in a non-feature point expressing the bending of the entire face.
[0020]
The face front texture generation module 112 matches the front image 1 of the standard model and the target model, and then, based on the position of the head circumference adjustment line adjusted by the global transformation module 108, as shown in FIG. A number of pixels similar to the face color and hair color of the target model front image are extracted slightly inside the boundary line between the front and side of the image, and a face front texture that is a modified version of the target model front image is generated.
[0021]
The side and rear face texture editing modules 114 and 116 generate and edit the side and rear face textures using the generated front face textures. At the time of initial generation, the size of the side and back face textures of the face are the same as the size of the front face texture, and the composition is the face front texture, with the corrected right square area on the left of the face back face texture based on the eye position correction line. The left square area is to the right of the back face texture. The center portion is filled with both sides linearly corrected. After the generation of the side and rear surface textures, the editing of the textures is corrected using the head-shaped adjustment point 12, as shown in FIG.
[0022]
The texture mapping module 118 texture maps the generated front, side, and back textures of the face to a standard model of deformation. The front face texture is texture mapped at about 120 ° from the front of the face, and the texture coordinates are obtained by projecting each vertex corresponding to the front of the shape on the x and y planes. In the case of the side surface and the back surface texture, texture mapping is performed on an area that is not mapped by the face front texture. However, unlike the face front texture, texture coordinates are obtained by cylindrical mapping. In the cylindrical mapping, when the geometric shape is viewed from above the head, the side and rear surface textures are cylindrically formed from the side to the rear with the center thereof as an axis, and texture mapping is performed.
[0023]
Hereinafter, referring to FIG. 2, a detailed description will be given of a process of three-dimensional face modeling according to the present invention.
First, a three-dimensional virtual standard model is provided to be displayed on a screen (step S202). As shown in FIG. 3, the standard model is displayed on the screen on the front and side surfaces, respectively, and the provided standard model represents the entire face by a triangular polygon mesh 10 and defines the geometric shape of the entire face. Embody. The standard model has a head adjustment line 2 for adjusting the horizontal / vertical ratio of the face, a horizontal adjustment line 4 for adjusting the positions of the eyes, the nose and the mouth, and a vertical line for adjusting the positions of the eyes and the nose. It includes an adjustment line 6 and a feature point 8 schematically representing the position of a specific part of the face.
[0024]
After providing the standard model, various color and black-and-white front images 1 obtained by scanning and storing a frontal photograph of the face of the target model are provided so as to be superimposed on a screen on which the standard model is displayed as shown in FIG. S204). Therefore, the provided front face photograph is superimposed so as to be compared with the standard model constituted by the polygon mesh 10.
[0025]
If the front image 1 of the target model and the standard model are displayed on the screen, the user globally deforms the standard model (step S206). The global deformation compares the front image 1 with the standard model, and adjusts the head circumference adjustment line 2, the horizontal adjustment line 4, and the vertical adjustment line 6 of the standard model at a rate corresponding to the corresponding front image 1 respectively. The head adjustment line 2 adjusts the horizontal and vertical ratio of the face with respect to the front image 1. Of the three horizontal lines, the upper horizontal adjustment line is at the eye position, the middle horizontal adjustment line is at the nose end, The lower horizontal adjustment line adjusts to match the mouth position and groups the overall vertex. The three vertical lines are adjusted to match the positions of both eyes and the nose. Further, the position of the entire vertex of the standard model is linearly corrected in accordance with the amount of change according to the position of the deformed adjustment line.
[0026]
After adjusting the ratio of the entire face of the standard model by the global transformation, the specific part is corrected in detail by the local transformation (step S208). The local deformation matches the predetermined feature point 8 of each part of the standard model with the front image 1. The feature point 8 schematically represents the size and position of a specific part of the face such as the face outline, eyebrows, eyes, nose, mouth, and ears. Indexes are linked to points. At this time, in the deformation of the feature point 8, the front feature point 8 is for x and y in the x, y, and z coordinates, and is related to the movement for the z coordinate in the case of the side face.
[0027]
In the global deformation and the local deformation, a user can selectively use a symmetry mode and an asymmetric mode. The symmetry mode utilizes the fact that a human face is left / right symmetric. If one of the left and right adjustment lines or feature points moves, the corresponding adjustment line or feature point 8 on the other side is automatically set. Move to correspond. Alternatively, the respective adjustment lines 2, 6 or feature points 8 can be adjusted using the asymmetric mode.
[0028]
Based on the standard model deformed by such global deformation and local deformation, a face front texture in a form in which the face image of the target model is corrected is generated. As shown in FIG. 6, using the position of the adjustment line of the global deformation in the front image 1 of the target model, the image processing operation corrects the outer region with the face color and the hair color slightly inside the boundary line between the front and side by image processing work. To generate a face front texture (step S210).
[0029]
After generating the front face texture, the side and rear face textures are generated and edited (step S212). First, the initial configuration at the time of generation is such that the pixels in the corrected right-sided square region are on the left side of the side and rear-surface textures, and the pixels in the left-sided square region are on the right side, based on the correction line for the eye position in the front face texture. The center portion is filled with both sides linearly corrected. At the time of texture mapping, a user edits a region where the hair is inconvenient in a portion where the front texture is connected to the side and rear textures while checking the side and rear textures of the corresponding portion.
[0030]
The head shape of the side and rear textures of the face is corrected at the head shape adjustment point 12 as shown in FIG. If the head shape adjustment point 12 determines the head shape of the side and back of the face and forms a form with the adjustment point 12, the upper part of the line is the hair color and the lower part is the face color with the line formed from that point as the center. Perform image processing. Here, the user can use the symmetric mode as well as the global deformation and the local deformation, so that the change of the side and rear surface textures on one side is similarly applied to the other side.
[0031]
When the front, side, and rear textures of the face are completed, a texture mapping of about 120 ° from the front of the face is performed as a front texture of the face in the geometric shape of the three-dimensional face (step S214). The texture coordinates are obtained by projecting each vertex corresponding to the front of the geometric shape on the x, y plane. In the case of the face side and rear face textures, texture mapping is performed on an area that is not mapped by the face front texture. However, unlike the face front texture, texture coordinates are obtained by cylindrical mapping. When the geometric shape of the whole face texture is viewed from above the head, the face back surface texture is set up in a cylindrical shape from the side to the back with the center as an axis, and this is texture mapped.
[0032]
As described above, the preferred embodiment of the present invention has been described with respect to the three-dimensional facial modeling system. However, a configuration that can be easily changed by a person having ordinary knowledge in the technical field to which the present invention belongs is described in the appended claims. Are included in the technical idea described in the above.
[0033]
【The invention's effect】
According to the configuration of the present invention, the present invention can easily realize the entire face in three dimensions only with one frontal face photograph.
[0034]
In addition, the present invention can provide a complete three-dimensional stereoscopic image by embodying the complexion and hair color along with the overall facial shape.
[0035]
In addition, since the present invention can realize a three-dimensional stereoscopic image with one frontal face photograph, it can be applied to a virtual reality world by embodying its own avatar.
[Brief description of the drawings]
FIG.
1 is a schematic block diagram of a three-dimensional face modeling system according to the present invention.
FIG. 2
FIG. 4 is a flowchart illustrating a three-dimensional face modeling according to the present invention;
FIG. 3
5 is an example showing a virtual three-dimensional standard model provided by the present invention on a screen.
FIG. 4
It is an example in which a target model front image provided by the present invention is superimposed on a standard model.
FIG. 5
9 is an embodiment of adjusting the feature points of the standard model to match the target model front image according to the present invention.
FIG. 6
7 is an example in which the face color and hair color of the face front texture are reconstructed according to the present invention.
FIG. 7
9 is an example of editing a back face texture according to the present invention.
[Explanation of symbols]
1 Front image of target model 2 Head adjustment line 4 Horizontal adjustment line 6 Vertical adjustment line 8 Feature point 10 Polygon mesh 12 Head adjustment point

Claims (11)

3次元仮想顔をポリゴンメッシュの形状の標準モデルで提供する仮想3次元標準モデル提供モジュール;
モデリング対象の顔の正面イメージを提供する対象モデル正面イメージ提供モジュール;
前記標準モデルに前記対象モデルの正面イメージを重ね合わせた後、標準モデルを前記対象モデルの正面イメージと一致するように変形する標準モデル変形モジュール;
前記対象モデルの正面イメージに対する修正顔の正面テクスチャーを生成する顔正面テクスチャー生成モジュール;
前記正面テクスチャーの顔色及び毛髪色と同様に顔の側面及び後面テクスチャーを製作する顔の側面及び後面テクスチャー編集モジュール;及び、
前記製作された顔の正面、側面及び後面テクスチャーを変形の標準モデルにテクスチャーマッピングしたテクスチャーマッピングモジュールを含むことを特徴とする、3次元顔モデリングシステム。
A virtual three-dimensional standard model providing module for providing a three-dimensional virtual face with a polygon mesh standard model;
A target model front image providing module for providing a front image of the face to be modeled;
A standard model transformation module that superimposes the front image of the target model on the standard model, and then deforms the standard model to match the front image of the target model;
A face front texture generation module for generating a front face texture of a corrected face for the front image of the target model;
A face side and back face texture editing module for producing face side and back face textures as well as the face color and hair color of the front texture; and
A three-dimensional face modeling system, comprising: a texture mapping module for performing texture mapping of front, side and rear textures of the manufactured face on a standard model of deformation.
前記顔の側面及び後面テクスチャー編集モジュールは、前記標準モデルの左側及び右側の何れか一側の頭型を変形すれば、それに対応する他側の頭型も自動変化する対称モード(symmetry mode)を行うことを特徴とする、請求項1に記載の3次元顔モデリングシステム。The face side and back side texture editing module may provide a symmetry mode in which, when a head shape on one of the left side and the right side of the standard model is deformed, the corresponding head shape on the other side is automatically changed. The three-dimensional face modeling system according to claim 1, wherein the three-dimensional face modeling system performs. 前記仮想3次元標準モデルには、前記対象モデルの正面イメージと比較して顔全体の横と縦の比率を一致させるための頭周り調整線;
前記対象モデルの正面イメージと比較して目、鼻及び口の横位置を一致させるための横調整線;
前記対象モデルの正面イメージと比較して両目及び鼻の縦位置を一致させるための縦調整線;及び、
前記対象モデルの正面イメージと比較して前記標準モデルの特定部位を一致させるための特徴点を含むことを特徴とする、請求項1に記載の3次元顔モデリングシステム。
The virtual three-dimensional standard model has a head circumference adjustment line for matching the horizontal and vertical ratios of the entire face as compared with the front image of the target model;
A horizontal adjustment line for matching the horizontal positions of the eyes, nose and mouth as compared with the front image of the target model;
A vertical adjustment line for matching the vertical positions of both eyes and the nose as compared with the front image of the target model; and
The three-dimensional face modeling system according to claim 1, further comprising a feature point for matching a specific part of the standard model with a front image of the target model.
前記標準モデル変形モジュールは、前記標準モデルの頭周り調整線、横調整線及び縦調整線を前記対象モデルの正面イメージに各々対応させて前記標準モデルの輪郭を一致させるグローバル変形モジュール;及び、
前記変形された標準モデルの特徴部位を前記対象モデルの正面イメージに対応させて前記標準モデルの特定部位を一致させるローカル変形モジュールからなることを特徴とする、請求項1に記載の3次元顔モデリングシステム。
A global deformation module that matches the contour of the standard model by associating the head circumference adjustment line, the horizontal adjustment line, and the vertical adjustment line of the standard model with the front image of the target model; and
3. The three-dimensional face modeling according to claim 1, further comprising a local deformation module that matches a specific part of the standard model by matching a characteristic part of the deformed standard model with a front image of the target model. system.
前記グローバル変形モジュール及びローカル変形モジュールは、前記標準モデルの左・右調整線と特徴点の何れか一つが動けば、対応する他側の調整線または特徴点が自動変化する対称モード(symmetry mode)を行うことを特徴とする、請求項4に記載の3次元顔モデリングシステム。The global transformation module and the local transformation module are configured such that, when one of the left and right adjustment lines and the feature point of the standard model moves, the corresponding adjustment line or the feature point on the other side automatically changes (symmetry mode). The three-dimensional face modeling system according to claim 4, wherein 3次元仮想顔をポリゴンメッシュ(polygon mesh)で表現する幾何学的な形態の標準モデルとして提供する段階;
対象モデルの正面イメージを前記標準モデルが表示される画面上に重ね合わせるように提供する段階;
前記重ね合わせた標準モデルと前記対象モデルの正面イメージが一致するように前記標準モデルを変形させる段階;
前記変形された標準モデルを基に、対象モデルの正面イメージで正面と側面の境界線よりも少し内側で、前記対象モデルの正面イメージの顔色及び毛髪色と同じ画素を抽出して顔正面テクスチャーを生成する段階;
前記生成された顔正面テクスチャーの顔色及び毛髪色と同じ顔色及び毛髪色を顔の側面及び後面テクスチャーに付与し、髪型を編集する段階;及び、
前記顔の正面、側面及び後面テクスチャーをテクスチャーマッピングして、3次元の顔形状を復元する段階を含むことを特徴とする、3次元顔モデリング方法。
Providing a three-dimensional virtual face as a standard model of a geometrical form expressed by a polygon mesh;
Providing a front image of the target model to be superimposed on a screen on which the standard model is displayed;
Deforming the standard model so that the front image of the superimposed standard model matches the front image of the target model;
Based on the deformed standard model, in the front image of the target model, the same pixels as the face color and hair color of the front image of the target model are extracted slightly inside the boundary between the front and side surfaces, and the face front texture is extracted. Generating;
Applying the same complexion and hair color as the complexion and hair color of the generated frontal texture to the side and rear face textures, and editing the hairstyle;
A method for modeling a three-dimensional face, comprising the steps of texture mapping the front, side, and rear textures of the face to restore a three-dimensional face shape.
前記標準モデルの変形段階は、前記標準モデルの輪郭が前記対象モデルの正面イメージと一致するように前記標準モデルの頭周り調整線、横調整線及び縦調整線を調節し、バーテックス(verte:頂点)全体の位置を線形的に補正するグローバル変形段階;及び、
前記調節及び補正された標準モデルと前記対象モデルの正面イメージの特定部位が一致するように前記標準モデルの特徴点及び非特徴点を変形して、前記特定部位を細部的に修正するローカル変形段階を含むことを特徴とする、請求項6に記載の3次元顔モデリング方法。
The step of deforming the standard model includes adjusting a head circumference adjustment line, a horizontal adjustment line, and a vertical adjustment line of the standard model so that a contour of the standard model matches a front image of the target model, and vertex (vertex). A) a global transformation step that linearly corrects the overall position;
A local modification step of modifying feature points and non-feature points of the standard model so that the adjusted and corrected standard model and a specific part of the front image of the target model coincide with each other, thereby correcting the specific part in detail. The method of claim 6, further comprising:
前記顔正面テクスチャーの生成段階において、抽出された顔色の画素は口の位置を中心として放射線方向に、前記毛髪色の画素は額を中心として放射線方向にイメージプロセッシングすることを特徴とする、請求項6に記載の3次元顔モデリング方法。The method according to claim 11, wherein in the step of generating the frontal face texture, the extracted pixels of the face color are image-processed in a radial direction about the position of the mouth, and the pixels of the hair color are processed in the radial direction about the forehead. 7. The three-dimensional face modeling method according to 6. 前記顔後面テクスチャーに顔色及び毛髪色を付与することは、前記顔正面テクスチャーで目の位置の修正線を基準として、修正された右側四角領域が顔後面テクスチャーの左に入り、左側四角領域が顔後面テクスチャーの右に入り、中央部分は両側を線形的に補正することを特徴とする、請求項6に記載の3次元顔モデリング方法。Giving a face color and a hair color to the back face texture is such that, based on the correction line for the eye position in the front face texture, the corrected right square area enters the left of the face back texture, and the left square area corresponds to the face. The three-dimensional face modeling method according to claim 6, wherein the right side of the back surface texture is corrected linearly on both sides of the center part. 前記テクスチャーマッピングは、前記顔正面テクスチャーの場合は顔正面の約120゜程度をテクスチャーマッピングし、前記顔の側面及び後面テクスチャーの場合は円筒形マッピングすることを特徴とする、請求項6に記載の3次元顔モデリング方法。7. The texture mapping method according to claim 6, wherein the texture mapping is to perform texture mapping of about 120 [deg.] Of the front of the face in the case of the front face texture, and to perform cylindrical mapping in the case of the side and rear face textures of the face. 3D face modeling method. 前記顔の側面及び後面の髪型の修正は、前記顔の側面及び後面の髪型によって髪型調整点をつけた後、前記髪型調整点がなす線を中心として、前記線の上部には毛髪色を付与し、前記線の下部には顔色を付与することを特徴とする、請求項6に記載の3次元顔モデリング方法。The correction of the hairstyle on the side and the back of the face is performed by adding a hairstyle adjustment point by the hairstyle on the side and the back of the face, and then giving a hair color above the line around the line formed by the hairstyle adjustment point. The three-dimensional face modeling method according to claim 6, wherein a complexion is provided below the line.
JP2002518427A 2000-08-10 2001-03-20 Three-dimensional face modeling system and modeling method Pending JP2004506276A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020000046448A KR100327541B1 (en) 2000-08-10 2000-08-10 3D facial modeling system and modeling method
PCT/KR2001/000440 WO2002013144A1 (en) 2000-08-10 2001-03-20 3d facial modeling system and modeling method

Publications (2)

Publication Number Publication Date
JP2004506276A true JP2004506276A (en) 2004-02-26
JP2004506276A5 JP2004506276A5 (en) 2005-02-17

Family

ID=19682716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002518427A Pending JP2004506276A (en) 2000-08-10 2001-03-20 Three-dimensional face modeling system and modeling method

Country Status (4)

Country Link
JP (1) JP2004506276A (en)
KR (1) KR100327541B1 (en)
AU (1) AU2001244763A1 (en)
WO (1) WO2002013144A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010532890A (en) * 2007-07-06 2010-10-14 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Avatar customization apparatus and method
JP2013097588A (en) * 2011-11-01 2013-05-20 Dainippon Printing Co Ltd Three-dimensional portrait creation device
KR20190050352A (en) * 2017-11-03 2019-05-13 울산대학교 산학협력단 Method and apparatus for generating 3d model data for manufacturing of implant
US10326972B2 (en) 2014-12-31 2019-06-18 Samsung Electronics Co., Ltd. Three-dimensional image generation method and apparatus

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100422471B1 (en) * 2001-02-08 2004-03-11 비쥬텍쓰리디(주) Apparatus and method for creation personal photo avatar
KR100422470B1 (en) * 2001-02-15 2004-03-11 비쥬텍쓰리디(주) Method and apparatus for replacing a model face of moving image
KR20030082160A (en) * 2002-04-17 2003-10-22 백수곤 Real Time Sprite Modeling
FR2838846A1 (en) * 2002-04-22 2003-10-24 Delphine Software Internat Real time 3D image generation system uses detailed projected two dimensional image on solid model with moving parts having erased relief
EP1754198A1 (en) * 2004-05-26 2007-02-21 Gameware Europe Limited Animation systems
CN100430963C (en) * 2005-09-29 2008-11-05 中国科学院自动化研究所 Method for modeling personalized human face basedon orthogonal image
KR100722229B1 (en) 2005-12-02 2007-05-29 한국전자통신연구원 Apparatus and method for immediately creating and controlling virtual reality interaction human model for user centric interface
GB2480173A (en) * 2007-02-05 2011-11-09 Amegoworld Ltd A data structure for representing an animated model of a head/face wherein hair overlies a flat peripheral region of a partial 3D map
GB0702150D0 (en) * 2007-02-05 2007-03-14 Amegoworld Ltd A Communication Network and Devices
EP2162864A1 (en) * 2007-05-31 2010-03-17 Depth Analysis Pty.Ltd. Systems and methods for applying a 3d scan of a physical target object to a virtual environment
KR100965622B1 (en) * 2008-10-31 2010-06-23 김영자 Method and Apparatus for making sensitive character and animation
KR101216614B1 (en) * 2010-09-14 2012-12-31 현대엠엔소프트 주식회사 A navigation apparatus and method for displaying topography thereof
US10155168B2 (en) 2012-05-08 2018-12-18 Snap Inc. System and method for adaptable avatars
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
KR101829334B1 (en) 2016-05-31 2018-02-19 주식회사 코어라인소프트 System and method for displaying medical images providing user interface three dimensional volume based three dimensional mesh adaptation
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
KR102152078B1 (en) 2016-12-07 2020-09-04 한국전자통신연구원 Apparatus and method for generating 3d face model
CN110223374A (en) * 2019-05-05 2019-09-10 太平洋未来科技(深圳)有限公司 A kind of pre-set criteria face and head 3D model method
KR102104889B1 (en) * 2019-09-30 2020-04-27 이명학 Method of generating 3-dimensional model data based on vertual solid surface models and system thereof
CN111179210B (en) * 2019-12-27 2023-10-20 浙江工业大学之江学院 Face texture map generation method and system and electronic equipment
CN113327277A (en) * 2020-02-29 2021-08-31 华为技术有限公司 Three-dimensional reconstruction method and device for half-body image
CN112669447B (en) * 2020-12-30 2023-06-30 网易(杭州)网络有限公司 Model head portrait creation method and device, electronic equipment and storage medium
CN112884638B (en) * 2021-02-02 2024-08-20 北京东方国信科技股份有限公司 Virtual fitting method and device
CN117058329B (en) * 2023-10-11 2023-12-26 湖南马栏山视频先进技术研究院有限公司 Face rapid three-dimensional modeling method and system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100281965B1 (en) * 1998-04-24 2001-02-15 전주범 Face Texture Mapping Method of Model-based Coding System
JP3740865B2 (en) * 1998-10-08 2006-02-01 コニカミノルタホールディングス株式会社 Multi-viewpoint three-dimensional data composition method and recording medium
JP2000149060A (en) * 1998-11-05 2000-05-30 Ricoh Co Ltd Method and device for preparing polygon mesh, method and device for presenting shape feature of polygonal mesh, preparation program for polygonal mesh and storage medium with shape feature presentation program stored therein
KR100317138B1 (en) * 1999-01-19 2001-12-22 윤덕용 Three-dimensional face synthesis method using facial texture image from several views

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010532890A (en) * 2007-07-06 2010-10-14 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Avatar customization apparatus and method
JP2013097588A (en) * 2011-11-01 2013-05-20 Dainippon Printing Co Ltd Three-dimensional portrait creation device
US10326972B2 (en) 2014-12-31 2019-06-18 Samsung Electronics Co., Ltd. Three-dimensional image generation method and apparatus
KR20190050352A (en) * 2017-11-03 2019-05-13 울산대학교 산학협력단 Method and apparatus for generating 3d model data for manufacturing of implant
KR102024598B1 (en) 2017-11-03 2019-09-24 울산대학교 산학협력단 Method and apparatus for generating 3d model data for manufacturing of implant

Also Published As

Publication number Publication date
WO2002013144A1 (en) 2002-02-14
KR100327541B1 (en) 2002-03-08
AU2001244763A1 (en) 2002-02-18
KR20000063919A (en) 2000-11-06

Similar Documents

Publication Publication Date Title
JP2004506276A (en) Three-dimensional face modeling system and modeling method
CN112150638B (en) Virtual object image synthesis method, device, electronic equipment and storage medium
JP3288353B2 (en) How to create a 3D face model starting from a face image
CN109410298B (en) Virtual model manufacturing method and expression changing method
CN109377557B (en) Real-time three-dimensional face reconstruction method based on single-frame face image
US20180253895A1 (en) System and method for creating a full head 3d morphable model
KR101514327B1 (en) Method and apparatus for generating face avatar
CN106952336B (en) Feature-preserving human three-dimensional head portrait production method
CN107657664B (en) Image optimization method and device after face expression synthesis, storage medium and computer equipment
CN103198508A (en) Human face expression animation generation method
CN103208133A (en) Method for adjusting face plumpness in image
CN106021550B (en) Hair style design method and system
CN101968892A (en) Method for automatically adjusting three-dimensional face model according to one face picture
CN104915981A (en) Three-dimensional hairstyle design method based on somatosensory sensor
CN106652015B (en) Virtual character head portrait generation method and device
JPH1011609A (en) Device and method for generating animation character
CN106652037B (en) Face mapping processing method and device
CN104091366B (en) Three-dimensional intelligent digitalization generation method and system based on two-dimensional shadow information
CN113628327A (en) Head three-dimensional reconstruction method and equipment
JP2009104570A (en) Data structure for image formation and method of forming image
CN112116699B (en) Real-time real-person virtual trial sending method based on 3D face tracking
JP2003090714A (en) Image processor and image processing program
JPH06118349A (en) Spectacles fitting simulation device
JP2012120080A (en) Stereoscopic photography apparatus
CN115082640B (en) 3D face model texture reconstruction method and device based on single image

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060630