[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7499362B2 - パーソナライズされた正確な仮想メイクアップトライオンのためのシステム及び方法 - Google Patents

パーソナライズされた正確な仮想メイクアップトライオンのためのシステム及び方法 Download PDF

Info

Publication number
JP7499362B2
JP7499362B2 JP2022581426A JP2022581426A JP7499362B2 JP 7499362 B2 JP7499362 B2 JP 7499362B2 JP 2022581426 A JP2022581426 A JP 2022581426A JP 2022581426 A JP2022581426 A JP 2022581426A JP 7499362 B2 JP7499362 B2 JP 7499362B2
Authority
JP
Japan
Prior art keywords
calibration
color
virtual try
processing circuitry
try
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022581426A
Other languages
English (en)
Other versions
JP2023532527A (ja
Inventor
グレゴワール シャーロー,
エルガ マラプラード,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR2010516A external-priority patent/FR3115146B1/fr
Application filed by LOreal SA filed Critical LOreal SA
Publication of JP2023532527A publication Critical patent/JP2023532527A/ja
Application granted granted Critical
Publication of JP7499362B2 publication Critical patent/JP7499362B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Mathematical Physics (AREA)
  • Development Economics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

背景
関連出願の相互参照
本出願は、2020年6月30日出願の仮出願第63/046,168号及び2020年10月14日出願のフランス出願第2010516号に対する優先権の利益を主張し、それらの内容全体が参照により本明細書に組み込まれる。
本開示は、メイクアップキャリブレーション、及びパーソナライズされた正確なメイクアップの仮想トライオンのための方法を対象とする。
本明細書に提供される「背景」の記載は、本開示の文脈を一般的に提示する目的のためのものである。この「背景」セクションに記載されている範囲での現在名前が挙げられている発明者らの研究、及び出願時に別様に従来技術と見なされていない可能性がある記載の態様は、明示的にも黙示的にも本発明に対する従来技術とは認められない。
前面カメラ付きのスマートフォン及びタブレットは、カメラを手元に持っている人が撮影対象の画像を見ることができる方法で写真及びビデオを撮影する機能を提供する。前面カメラを利用する、しばしばアプリと称される様々なモバイルアプリケーションが開発されている。一般的なアプリとは、「自撮り(セルフィー)」と称される自画像写真を撮影し、ソーシャルメディアのコンテキストに自撮り写真を挿入したり、電子メール又はテキストで他人と共有するために自撮り写真を転送したりすることを可能にするアプリである。
一部の化粧品会社では、化粧品の選択を支援するアプリの開発を開始している。一部のアプリでは、特定のタイプのメイクアップを検索したり、お気に入りの製品又は以前に使用した製品を検索したりするためのツールを提供しているものがある。一部のアプリでは、特定のタイプのメイクアップを適用する方法に関するチュートリアルを提供しているものがある。一部のアプリでは、アイシャドウ又は口紅の色のカラーパレットを表示することで、色の選択を支援するものがある。一部のアプリでは、衣服及びアクセサリーに一致する色、又は写真からの色の検索を支援するカラーマッチング機能を提供するものがある。
一部の化粧品会社では、スマートフォンの前面カメラを利用した製品トライオンアプリケーションの提供を開始している。これらのアプリケーションの一部はWebアプリケーションとして実装されており、オプションのアプリをスマートフォン又はタブレットにインストールできる。これらのアプリケーションの一部は、スマートフォンのカメラで自画像写真を撮影し、Webアプリケーションに写真をアップロードし、アップロードされた画像に仮想メイクアップ製品を適用することで機能する。
仮想メイクアップを使用するトライオンWebアプリケーション又はアプリには、制限がある。トライオンWebアプリケーション及びアプリは、仮想メイクアップの色と写真の色を重ね合わせようとする。色の重ね合わせは、唇又はまぶたなどの人の特定の顔の部分の色、テクスチャ、形状を正確にレンダリングしない。仮想トライオン処理は、現実の化粧品の透明度と、化粧品と人の生の肌の色及びテクスチャとの現実の交差効果と、を考慮することなく、直接化粧品の色に直接画素を重ね合わせて、置き換える。更に、同じ重ね合わせ処理が、同じ製品についての肌の色の偏位を考慮することなく、同じ方法で全ての消費者に適用される。
したがって、これらの制限はいくつかの問題領域を生み出す。化粧品の仮想トライオンは、人の肌の色及びテクスチャを考慮せずには、真にパーソナライズされない。仮想レンダリングは、現実の化粧品適用がどのように見えるのかと比較して、ほとんどの場合違ったものになっている。
調合の専用のパーソナライズマシンを流通させる代替手段は、少量の製品を配布して、消費者が製品をテストし、次いで消費者の肌上で測定されたバイアスに応じて、製品レシピを修正するために、サンプリングシステムをマシンに追加する必要があるため、時間がかかり、費用がかかる。
更に、各消費者の色の偏位が大きすぎるため、eコマースパーソナライズトライオンサービスは、スマートフォンを有する最終消費者にはスケーラブルではない。
本開示の1つの目的は、ユーザが正確に仮想的にトライオンメイクアップすることを可能にする方法を提供するシステム及び方法を説明することである。
一態様は、処理回路によって、キャリブレーション化粧品の適用時に撮影された1つ以上のデジタル画像を受信することに応答して、仮想トライオン表示調整情報を判定することと、処理回路によって、仮想トライオン表示調整情報に少なくとも部分的に基づいて、デジタルトライオン経験を修正するための仮想トライオン表示パラメータを生成することと、処理回路によって、仮想トライオン表示パラメータに基づいて、ユーザインターフェース上で、修正された仮想トライオン経験の1つ以上のインスタンスを生成することと、を含む方法である。
一態様は、キャリブレーション化粧品の適用時に撮影された1つ以上のデジタル画像を受信することに応答して、仮想トライオン表示調整情報を判定し、仮想トライオン表示調整情報に少なくとも部分的に基づいて、デジタルトライオン経験を修正するための仮想トライオン表示パラメータを生成し、仮想トライオン表示パラメータに基づいて、ユーザインターフェース上で、修正された仮想トライオン経験の1つ以上のインスタンスを生成するように、構成された処理回路を含む表示システムである。
例示的な実施形態の前述の概要の説明及び以下の詳細な説明は、本開示の教示の単なる例示的な態様であり、限定的ではない。
本開示及びその付随する利点の多くのより完全な理解は、添付の図面と関連して考慮されるとき、以下の詳細な説明を参照することによって、本開示及びその付随する利点がより良く理解されるにつれて、容易に得られるであろう。
本開示の例示的な態様による、人工ニューラルネットワークアーキテクチャの図である。 本開示の例示的な態様による、メイクアップキャリブレーションシステムの概略図である。 本開示の例示的な態様による、キャリブレーションの結果を使用した、メイクアップキャリブレーションパーソナライズされた仮想メイクアップトライオン方法のフローチャートである。 本開示の例示的な態様による、キャリブレーションの結果を使用した、メイクアップキャリブレーションパーソナライズされた仮想メイクアップトライオン方法のフローチャートである。 本開示の例示的な態様による、パーソナライズされた仮想メイクアップトライオン方法のフロー図である。 本開示の例示的な態様による、モバイルアプリケーションのための表示を示す。 本開示の例示的な態様による、モバイルアプリケーションのための表示を示す。
図面中、同様の参照番号は、複数の図を通じて、同一又は対応する部分を指定する。更に、本明細書で使用される場合、単語「a」、「an」などは、別様に示されない限り、概して、「1つ以上」の意味を有する。図面は、別段の指定がない限り、又は概略構造若しくはフローチャートを例示していない限り、概略的に縮尺で描かれている。
更に、「約」、「近似」、「おおよそ」、及び類似の用語は、概して、20%、10%、又は好ましくは5%のマージン内の識別された値、及びそれらの間の任意の値を含む範囲を指す。
本開示の態様は、パーソナライズされた正確な化粧品仮想トライオンシステム及び方法を対象とする。仮想トライオンシステムには、化粧品の色、偏位、透明度、光効果を完全に特徴付けるメイクアップキャリブレーションキットが含まれており、メイクアップキャリブレーション製品の制御された厚さの適用を確保する精密なアプリケータが含まれる。仮想トライオンは、ビデオ、自撮り、又はモデル写真、及び仮想メイクアップ選択を使用して、人の顔の拡張現実表示を生成する。拡張現実表示は、自動シェード補正のための色の調整を行う人工ニューラルネットワークによって実現される。
化粧で拡張された人の顔の正確なレンダリングを提供するために、本発明者らは、人の肌の色及びテクスチャを考慮に入れる必要があると判断した。発明者らは、色、分散、反射、透明度、及び光効果を含むメイクアップの特徴も考慮に入れる必要があると判断した。人工ニューラルネットワークモデルは、色、透明度、反射、及び照明条件の様々な偏位のために開発されている。
図1は、本開示の例示的な態様による人工ニューラルネットワークアーキテクチャの図である。人工ニューラルネットワークは、特徴ベクトルの入力に基づいて様々な照明条件の色値を出力することができる任意の教師あり学習型ニューラルネットワークであり得る。例示的な実施形態では、人工ニューラルネットワークは、少なくとも1つの隠れ層を有する多層ニューラルネットワークであり得、バックプロパゲーション学習アルゴリズムなどの教師あり学習アルゴリズムによって訓練され得る。人工ニューラルネットワーク内の各ノードは、伝達関数を有するMcCulloch-Pittsニューロンであり得る。人工ニューラルネットワークの訓練は、クラウドサービスにおいて実行され得、訓練は、数百人の消費者からのデータを使用してオフラインで実行され得る。例示的な実施形態では、深層学習人工ニューラルネットワークは、パブリッククラウドサービスにおいて実行される。
1つ以上の実施形態では、深層学習人工ニューラルネットワークは、畳み込みニューラルネットワークであり得る。畳み込みニューラルネットワークは、畳み込み演算を実行する隠れ層を含む。畳み込み演算は、特徴マップを生成する。他の層は、プーリング層、全結合層、及び正規化層を含む、隠れ層に従ってもよい。
図1に示される人工ニューラルネットワーク100のアーキテクチャは、N個のサブネットワーク101、103、105、107のシーケンスを含む。サブネットワーク103、105、107はそれぞれ、各々が少なくとも2つの隠れ層113、115、117を有する多層人工ニューラルネットワークであってもよい。出力層120は、人工ニューラルネットワークがどのように訓練されるかに依存する出力を提供する。
人工ニューラルネットワーク100は、入力としてのデジタル画像で訓練され得る。代替として、人工ニューラルネットワーク100は、以下を含む特徴ベクトルで訓練されてもよい。
●色値
●肌の色調の偏位
●透明度の相違
●分散の相違
●光反射値の相違
出力層120の出力値は、修正された色値及び照明条件であってもよい。
例えば、人工ニューラルネットワーク100は、出力値として、カテゴリ及び関連する補正された色値(例えば、色相値、ティント値、色調値、陰影値、及び色を表す他の値)及び照明条件を提供するように訓練され得る。色のカテゴリには、色相、ティント、色調、陰影が含まれる。ティントは色のより明るいバージョンであり、陰影はその色のより暗いバージョンである。色調とは、通常、色の明るさ(ティント)又は陰影(暗さ)を指す。
一実施形態では、人工ニューラルネットワーク100は、既知の色相、ティント、色調、陰影、又は同様のもの、及び既知の照明条件(例えば、既知の照明方向、既知の照明源、既知の照明強度など)のうちの1つ以上を有する、数百のデジタル画像のデータセットで訓練される。
一実施形態では、訓練された人工ニューラルネットワークは、少なくとも2つのサブネットワークを有す符号化器-復号化器構造化ニューラルネットワークである。一実施形態では、第1のサブネットワーク101は、未定義又は未知の照明条件を有するデジタル画像を入力とし、色情報や照明情報などの特徴マップ表現を作成する符号化を行う。一実施形態では、第2のサブネットワーク103は、符号化器101からの出力を入力とし、修正された色、修正された照明条件、又は他の色修正でデジタル画像を再生成する。
図2は、本開示の例示的な態様による、メイクアップキャリブレーションシステムの概略図である。仮想メイクアップトライオンシステムは、メイクアップキャリブレーションキット201からの結果を利用する。キャリブレーションキット201は、1つ以上の物理的化粧品を含み、化粧品を販売する小売店、又はオンラインストアから、又は化粧品メーカーから直接取得されてもよい。キャリブレーションキット201は、モバイルアプリ233を伴ってもよい。モバイルアプリ233は、アプリストアからダウンロードされ得る。モバイルアプリ233は、キャリブレーションキット201の使用を支援するとともに、キャリブレーションキット201と併せて使用される機能を提供することができる。モバイルアプリ233は、スマートフォン221又はタブレットコンピュータ上で実行されてもよい。スマートフォン221又はタブレットコンピュータは、好ましくは、正面視カメラ231を含む。アプリ233は、対象ユーザの顔の静止デジタル画像又はビデオをキャプチャするためにスマートフォン221又はタブレットコンピュータのカメラ機能を使用する機能を含み得る。アプリのWebバージョンは、Webブラウザを有する任意のラップトップ型又はデスクトップ型コンピュータからアクセスされ得る。アプリのWebバージョンは、対象ユーザの少なくとも1枚の写真を必要とし、これは、Webサーバーにアップロードされ得る。いくつかの実施形態では、アプリのWebバージョンは、クラウドサービスにおいて実行される。アプリ233のWebバージョンは、スマートフォン又はタブレットを必要とせず、デジタルカメラを用いて対象ユーザの顔のデジタル画像を取得することができる。あるいは、対象ユーザのプリントされた写真をスキャンして、対象ユーザのデジタル画像を取得することができる。
メイクアップキャリブレーションキット201に含まれる物理的製品は、キャリブレーション口紅221、キャリブレーションアイシャドウ213、並びに口紅及びアイシャドウのためのアプリケータを含んでもよい。キャリブレーション口紅211は、色、異なる肌の色調上の偏位、透明度、及び光効果に関して完全に特徴付けられた口紅であり得る。一実施形態において、キャリブレーション口紅211は、半透明の緑色の口紅であってもよい。キャリブレーションアイシャドウ213は、色、異なる肌の色調上の偏位、透明度、光効果に関して完全に特徴付けられたアイシャドウであり得る。一実施形態において、キャリブレーションアイシャドウ213は、不透明な緑色の粉末であってもよい。口紅とアイシャドウのためのキャリブレーションアプリケータは、好ましくは、肌上に制御された厚さで製品の精密な輪郭の適用を確保するリップ及びアイシャドウのための精密なアプリケータである。
図3A及び図3Bは、本開示の例示的な態様による、メイクアップ及びパーソナライズされた仮想メイクアップトライオンをキャリブレーションする方法のフローチャートである。S301において、スマートフォンアプリ233は、対象者のビデオ撮影を開始するか、又は静止画を撮影する。上述のように、ビデオ又は静止画は、デジタルカメラを使用して取得されてもよい。ビデオ又は静止画には、メイクアップが肌に適用されている身体領域全体が含まれている必要がある。例えば、身体領域は、対象ユーザがメイクアップの外観を判定することができるように、顔全体を含んでもよい。
コンピュータビジョンソフトウェアは、静止デジタル画像又はビデオ画像を解釈するために実行される。コンピュータビジョンソフトウェアは、スマートフォン又はタブレットコンピュータ221で実行されてもよい。いくつかの実施形態では、コンピュータビジョンアルゴリズムは、デスクトップコンピュータ、又はクラウドサービスにおいて実行される。スマートフォン又はタブレットコンピュータ221は、前面カメラからキャプチャされるビデオがキャプチャされ、表示されるにつれて、コンピュータビジョンソフトウェアをリアルタイムで実行し得る。S303、S305において、個々の肌とキャリブレーションメイクアップの色との色差のコントラスト分析を用いて、唇、まぶた、頬を含む注目領域を分割する。いくつかの実施形態では、キャリブレーションメイクアップを有する対象ユーザの顔のビデオ又は静止デジタル画像は、スマートフォン又はタブレットコンピュータ221の表示画面上に表示され得る。
S309において、人工ニューラルネットワーク100は、色補正のための周囲照明を評価し得る。上述したように、人工ニューラルネットワーク100は、異なる照明条件のために修正されたデジタル画像を提供するように事前に訓練されている。いくつかの実施形態では、修正されたデジタル画像は、各画素のRGB値を含む。人工ニューラルネットワーク100は、ビデオ画像又は静止デジタル画像の各ピクセルについて色補正を実行することができる。いくつかの実施形態では、数百の人工ニューラルネットワーク100が並列に動作して、ビデオ画像又は静止デジタル画像内のピクセルの各ピクセルを並列に補正する。
ステップS303及びS305のビデオ画像又は静止デジタル画像の更なるコンピュータビジョン分析が実行される。更なるコンピュータビジョン分析は、スマートフォン若しくはタブレットコンピュータ221によって実行され得るか、又はデスクトップコンピュータ若しくはクラウドサービスにおいて実行され得る。S311において、更なるコンピュータビジョン分析は、キャリブレーションメイクアップが肌に適用された対象ユーザの顔のビデオ画像又は静止デジタル画像内の各画素の色を測定することを含む。
キャリブレーション口紅及びキャリブレーションアイシャドウは、その色、光反射値、及び透明度値が基準行列に格納されている。S313において、ビデオ画像又は静止デジタル画像の各画素の色値を、基準行列の色基準値と比較する。同様に、S315において、ビデオ画像又は静止デジタル画像について、光反射値、分散、透明度、及び光効果を測定してもよい。S317において、キャリブレーション口紅及びキャリブレーションアイシャドウの色及びテクスチャの基準値に基づいて、コンピュータビジョン分析を行う。S319において、コンピュータビジョン分析は、基準行列のテクスチャ値及び色値と比較したテクスチャ及び色に関する偏位を評価し、対象ユーザに適用されるものとして、キャリブレーション口紅及びキャリブレーションアイシャドウの色及びテクスチャの変換係数を決定することを含む。
S321において、テクスチャ及び色の偏位を含むコンピュータビジョン分析の結果を用いて、対象ユーザの肌の色及び肌のテクスチャの変換色行列を計算する。変換色行列は、様々な色及びテクスチャの仮想化粧品のための、肌の色を変換するための数値係数値と、肌のテクスチャを変換するための数値とを含む。変換色行列は、パーソナライズされたメイクアップを対象ユーザの肌にレンダリングするために使用される。S323において、変換色行列は、パーソナル補正プロファイルを表すファイルに保存される。
上記のキャリブレーション処理は、数人の消費者に対して実行されて、各消費者についてパーソナライズされた補正ファイルを生成することができる。
次に、S325において、仮想メイクアップトライオン処理は、仮想/デジタル化粧品の色及びテクスチャを考慮し、パーソナライズされた補正プロファイルから推測される変換行列を適用することにより、対象ユーザの元のデジタル画像に対する効果を修正することができる。
図4は、本開示の例示的な態様による、パーソナライズされた仮想メイクアップトライオン方法のフロー図である。変換色行列は、色値、肌の色調の偏位、透明度の相違、分散の相違、及び光反射値の相違を含み得る。これらの相違は、特定のキャリブレーションメイクアップに対するものである。訓練された人工ニューラルネットワーク400は、選択されたメイクアップ製品405のための修正されたデジタル画像を出力することができ、これは、パーソナライズされた仮想プロファイル403に含まれる個人情報とともに、対象ユーザのビデオ画像又は静止デジタル画像の拡張現実画像407を生成するために使用される。修正された画像内の画素値は、画像内の画素の色値を修正された色値に置き換えることによって、拡張現実画像内の色を調節するために使用され得る。修正された色値は、肌の色及びテクスチャを考慮に入れ、顔画像にメイクアップの色を重ね合わせる従来のアプローチよりもより現実的な外観をもたらす。
拡張現実画像は、仮想メイクアップアプリ内に唇の分割図として表示されて、2つの異なる提案を同時に示し得る。アプリは、異なる照明条件下で口紅の色をシミュレートすることができる。アプリは、インターシェードをより明るく又はより暗くシミュレートして、消費者が好みのものを選ぶのを助け得る。アプリは、様々な提案を消費者に示して、正しい決定に役立ち得る。
図5は、本開示の例示的な態様による、モバイルアプリケーションの表示を示す。表示550は、好ましくは対象ユーザの顔全体501を示す、対象ユーザのビデオ画像又は静止デジタル画像を含む。対象ユーザは、選択可能なパレットからメイクアップ503を選択することができ、アプリは、仮想メイクアップ505を適用したユーザの顔の拡張現実画像を作成することができる。
図6は、本開示の例示的な態様による、モバイルアプリケーションの表示を示す。表示650は、好ましくは対象ユーザの顔全体601を示す、対象ユーザのビデオ画像又は静止デジタル画像を含む。対象ユーザは、選択可能なパレットから別のメイクアップ603を選択することができ、アプリは、仮想メイクアップ605を適用したユーザの顔の拡張現実画像を作成することができる。
上記の開示はまた、以下に列挙される実施形態を包含する。
(1)処理回路によって、キャリブレーション化粧品の適用時に撮影された1つ以上のデジタル画像を受信することに応答して、仮想トライオン表示調整情報を判定することと、処理回路によって、仮想トライオン表示調整情報に少なくとも部分的に基づいて、デジタルトライオン経験を修正するための仮想トライオン表示パラメータを生成することと、処理回路によって、仮想トライオン表示パラメータに基づいて、ユーザインターフェース上で、修正された仮想トライオン経験の1つ以上のインスタンスを生成することと、を含む方法。
(2)口紅を唇に適用することであって、口紅が、キャリブレーション化粧品としての色及び透明度を特徴付ける、適用することと、処理回路によって、口紅が適用されたユーザの顔の1つ以上のデジタル画像をキャプチャすることと、を更に含む、特徴(1)の方法。
(3)アイシャドウを眉に適用することであって、アイシャドウが、キャリブレーション化粧品としての色及び透明度を特徴付ける、適用することと、処理回路によって、アイシャドウが適用されたユーザの顔の1つ以上のデジタル画像をキャプチャすることと、を更に含む、特徴(1)又は(2)の方法。
(4)制御された厚さの口紅を唇に適用するアプリケータを使用して口紅を適用することを更に含む、特徴(1)~(3)のいずれかの方法。
(5)モバイルデバイスの前面カメラを使用して、ユーザの顔のビデオをキャプチャして、1つ以上のデジタル画像を取得することを更に含む、特徴(1)~(4)のいずれかの方法。
(6)仮想トライオン表示調整情報を判定することは、変換行列を判定することを含み、変換行列は、肌の色及び肌のテクスチャに関する補正情報を含む、特徴(1)~(5)のいずれかの方法。
(7)1つ以上のデジタル画像の色の補正のために、人工ニューラルネットワークを使用して周囲照明を評価することを更に含む、特徴(1)~(6)のいずれかの方法。
(8)仮想トライオン表示調整情報を判定することは、処理回路によって、キャリブレーション化粧品が適用された1つ以上のデジタル画像内の各ピクセルの色及びテクスチャを測定することと、処理回路によって、1つ以上のデジタル画像内の各ピクセルの測定された色値及びテクスチャ値を、色及びテクスチャ基準値と比較して、色及びテクスチャの偏位を判定することと、処理回路によって、色及びテクスチャの偏位を使用して変換行列を計算することと、を含む、特徴(1)~(7)のいずれかの方法。
(9)修正された仮想トライオン経験の1つ以上のインスタンスを生成することは、処理回路によって、仮想化粧品を選択することと、処理回路によって、選択された仮想化製品の色を調整するために使用される色補正値を生成することと、処理回路により、変換行列に含まれる色及びテクスチャに関する補正情報と色補正値とを用いて、キャプチャされたデジタル画像の拡張現実画像を作製することと、を含む、特徴(6)の方法。
(10)処理回路は、1つ以上の画像の画素値をそれぞれの補正された色値に置き換えることによって、選択された仮想化粧品の色を調整するために色補正値を使用する、特徴(9)の方法。
(11)キャリブレーション化粧品の適用時に撮影された1つ以上のデジタル画像を受信することに応答して、仮想トライオン表示調整情報を判定し、仮想トライオン表示調整情報に少なくとも部分的に基づいて、デジタルトライオン経験を修正するための仮想トライオン表示パラメータを生成し、仮想トライオン表示パラメータに基づいて、ユーザインターフェース上で、修正された仮想トライオン経験の1つ以上のインスタンスを生成するように、構成された処理回路を含む表示システム。
(12)カメラであって、口紅を唇に適用すると、口紅が、キャリブレーション化粧品としての色及び透明度を特徴付け、口紅が適用されたユーザの顔の1つ以上のデジタル画像をキャプチャする、カメラを更に備える、特徴(11)の表示システム。
(13)カメラであって、アイシャドウを眉に適用すると、アイシャドウが、キャリブレーション化粧品としての色及び透明度を特徴付け、アイシャドウが適用されたユーザの顔の1つ以上のデジタル画像をキャプチャする、カメラを更に含む、特徴(11)又は(12)の表示システム。
(14)口紅が、制御された厚さの口紅を唇に適用するアプリケータを使用して適用される、特徴(12)の表示システム。
(15)前面カメラであって、1つ以上のデジタル画像を取得するためにユーザの顔のビデオをキャプチャする、前面カメラを更に含む、特徴(11)~(14)のいずれかの表示システム。
(16)処理回路は、変換行列を判定することを含んで仮想トライオン表示調整情報を判定し、変換行列は、肌の色及び肌のテクスチャに関する補正情報を含む、特徴(11)~(15)のいずれかの表示システム。
(17)1つ以上のデジタル画像の色の補正のための周囲照明を評価するための人工ニューラルネットワークを更に含む、特徴(11)~(16)のいずれかの表示システム。
(18)処理回路が、キャリブレーション化粧品が適用された1つ以上のデジタル画像内の各ピクセルの色及びテクスチャを測定し、1つ以上のデジタル画像内の各ピクセルの測定された色値及びテクスチャ値を、色及びテクスチャ基準値と比較して、色及びテクスチャの偏位を判定し、色及びテクスチャの偏位を使用して変換行列を計算するように構成されることを含んで、仮想トライオン表示調整情報を判定する、特徴(11)~(17)のいずれかの表示システム。
(19)処理回路が、仮想化粧品を選択し、選択された仮想化粧品の色を調整するために使用される色補正値を生成し、変換行列に含まれる色及びテクスチャに関する補正情報と色補正値とを用いて、キャプチャされたデジタル画像の拡張現実画像を作製するように構成されることを含んで、修正された仮想トライオン経験の1つ以上のインスタンスを生成する、特徴(16)の表示システム。
(20)処理回路は、1つ以上のデジタル画像の画素値をそれぞれの補正された色値に置き換えることによって、選択された仮想化粧品の色を調整するために色補正値を使用するように構成される、特徴(19)の表示システム。
本発明の多数の修正及び変形は、上記の教示に照らして可能である。例えば、様々な消費者の肌の色調及びテクスチャから収集されるデータは、単一以上の消費者への人工ニューラルネットワークのスケーリングを可能にする。人工ニューラルネットワークは、製品の陰影ごとに、新しい化粧品の調合のレンダリングを予測することができるであろう。したがって、添付の特許請求の範囲内で、本発明は、本明細書に具体的に記載される以外の方法で実施され得ることを理解されたい。

Claims (20)

  1. 方法であって、
    処理回路によって、キャリブレーション化粧品の適用時に撮影された1つ以上のデジタル画像を受信することに応答して、化粧品の色、偏位、透明度、及び光効果を完全に特徴付けたメイクアップキャリブレーションキットを含む仮想トライオンシステムを用いて仮想トライオン表示調整情報を判定することと、
    前記処理回路によって、前記仮想トライオン表示調整情報に少なくとも部分的に基づいて、デジタルトライオン経験を修正するための仮想トライオン表示パラメータを生成することと、
    前記処理回路によって、前記仮想トライオン表示パラメータに基づいて、ユーザインターフェース上で、修正された仮想トライオン経験の1つ以上のインスタンスを生成することと、を含む、方法。
  2. 前記メイクアップキャリブレーションキットは、キャリブレーション口紅を含み、
    前記方法は、
    前記キャリブレーション口紅を唇に適用することであって、前記キャリブレーション口紅が、前記キャリブレーション化粧品としての色及び透明度を特徴付ける、適用することと、
    前記処理回路によって、前記キャリブレーション口紅が適用されたユーザの顔の前記1つ以上のデジタル画像をキャプチャすることと、を更に含む、請求項1に記載の方法。
  3. 前記メイクアップキャリブレーションキットは、キャリブレーションアイシャドウを含み、
    前記方法は、
    前記キャリブレーションアイシャドウをに適用することであって、前記キャリブレーションアイシャドウが、前記キャリブレーション化粧品としての色及び透明度を特徴付ける、適用することと、
    前記処理回路によって、前記キャリブレーションアイシャドウが適用されたユーザの顔の前記1つ以上のデジタル画像をキャプチャすることと、を更に含む、請求項1に記載の方法。
  4. 前記メイクアップキャリブレーションキットは、前記キャリブレーション口紅のためのキャリブレーションアプリケータを含み、
    前記方法は、制御された厚さの前記キャリブレーション口紅を唇に適用する前記キャリブレーションアプリケータを使用して前記キャリブレーション口紅を適用することを更に含む、請求項に記載の方法。
  5. モバイルデバイスの前面カメラを使用して、ユーザの顔のビデオをキャプチャして、前記1つ以上のデジタル画像を取得することを更に含む、請求項1に記載の方法。
  6. 方法であって、
    処理回路によって、キャリブレーション化粧品の適用時に撮影された1つ以上のデジタル画像を受信することに応答して、仮想トライオン表示調整情報を判定することと、
    前記処理回路によって、前記仮想トライオン表示調整情報に少なくとも部分的に基づいて、デジタルトライオン経験を修正するための仮想トライオン表示パラメータを生成することと、
    前記処理回路によって、前記仮想トライオン表示パラメータに基づいて、ユーザインターフェース上で、修正された仮想トライオン経験の1つ以上のインスタンスを生成することと、を含み、
    前記仮想トライオン表示調整情報を判定することは、変換行列を判定することを含み、
    前記変換行列は、肌の色及び肌のテクスチャに関する補正情報を含む、法。
  7. 前記1つ以上のデジタル画像の色の補正のために、人工ニューラルネットワークを使用して周囲照明を評価することを更に含む、請求項1または6に記載の方法。
  8. 前記仮想トライオン表示調整情報を判定することは、
    前記処理回路によって、前記キャリブレーション化粧品が適用された前記1つ以上のデジタル画像内の各ピクセルの色及びテクスチャを測定することと、
    前記処理回路によって、前記1つ以上のデジタル画像内の各ピクセルの定された色値及びテクスチャ値を、色及びテクスチャ基準値と比較して、色及びテクスチャの偏位を判定することと、
    前記処理回路によって、色及びテクスチャの前記偏位を使用して変換行列を計算することと、を含む請求項1または6に記載の方法。
  9. 方法であって、
    処理回路によって、キャリブレーション化粧品の適用時に撮影された1つ以上のデジタル画像を受信することに応答して、仮想トライオン表示調整情報を判定することと、
    前記処理回路によって、前記仮想トライオン表示調整情報に少なくとも部分的に基づいて、デジタルトライオン経験を修正するための仮想トライオン表示パラメータを生成することと、
    前記処理回路によって、前記仮想トライオン表示パラメータに基づいて、ユーザインターフェース上で、修正された仮想トライオン経験の1つ以上のインスタンスを生成することと、を含み、
    前記仮想トライオン表示調整情報を判定することは、変換行列を判定することを含み、
    前記変換行列は、肌の色及び肌のテクスチャに関する補正情報を含み、
    前記修正された仮想トライオン経験の1つ以上のインスタンスを生成することは、
    前記処理回路によって、仮想化粧品を選択することと、
    前記処理回路によって、前記選択された仮想化製品の色を調整するために使用される色補正値を生成することと、
    前記処理回路により、前記変換行列に含まれる色及びテクスチャに関する前記補正情報と前記色補正値とを用いて、キャプチャされたデジタル画像の拡張現実画像を作製することと、を含む方法。
  10. 前記処理回路は、前記1つ以上のデジタル画像の画素値をれぞれの補正された色値に置き換えることによって、前記選択された仮想化粧品の前記色を調整するために前記色補正値を使用する、請求項9に記載の方法。
  11. 表示システムであって、
    化粧品の色、偏位、透明度、及び光効果を完全に特徴付けたメイクアップキャリブレーションキットを含む仮想トライオンシステムと、
    前記メイクアップキャリブレーションキットを用いて、キャリブレーション化粧品の適用時に撮影された1つ以上のデジタル画像を受信することに応答して、仮想トライオン表示調整情報を判定し、
    前記仮想トライオン表示調整情報に少なくとも部分的に基づいて、デジタルトライオン経験を修正するための仮想トライオン表示パラメータを生成し、
    前記仮想トライオン表示パラメータに基づいて、ユーザインターフェース上で、修正された仮想トライオン経験の1つ以上のインスタンスを生成するように、構成された処理回路、を備える、表示システム。
  12. 前記メイクアップキャリブレーションキットは、キャリブレーション口紅を含み、
    前記表示システムは、
    カメラであって、
    前記キャリブレーション口紅を唇に適用すると、前記キャリブレーション口紅が、前記キャリブレーション化粧品としての色及び透明度を特徴付け、
    前記キャリブレーション口紅が適用されたユーザの顔の前記1つ以上のデジタル画像をキャプチャする、カメラを更に備える請求項11に記載の表示システム。
  13. 前記メイクアップキャリブレーションキットは、キャリブレーションアイシャドウを含み、
    前記表示システムは、
    カメラであって、
    前記キャリブレーションアイシャドウをに適用すると、前記キャリブレーションアイシャドウが、前記キャリブレーション化粧品としての色及び透明度を特徴付け、
    前記キャリブレーションアイシャドウが適用されたユーザの顔の前記1つ以上のデジタル画像をキャプチャする、カメラを更に備える請求項11に記載の表示システム。
  14. 前記メイクアップキャリブレーションキットは、前記キャリブレーション口紅のためのアプリケータを含み、
    前記キャリブレーション口紅が、制御された厚さの前記キャリブレーション口紅を唇に適用する前記アプリケータを使用して適用される、請求項12に記載の表示システム。
  15. 前面カメラであって、
    前記1つ以上のデジタル画像を取得するためにユーザの顔のビデオをキャプチャする、前面カメラを更に備える請求項11に記載の表示システム。
  16. 表示システムであって、
    キャリブレーション化粧品の適用時に撮影された1つ以上のデジタル画像を受信することに応答して、仮想トライオン表示調整情報を判定し、
    前記仮想トライオン表示調整情報に少なくとも部分的に基づいて、デジタルトライオン経験を修正するための仮想トライオン表示パラメータを生成し、
    前記仮想トライオン表示パラメータに基づいて、ユーザインターフェース上で、修正された仮想トライオン経験の1つ以上のインスタンスを生成するように、構成された処理回路、を備え、
    前記処理回路は、変換行列を判定することを含んで仮想トライオン表示調整情報を判定し、
    前記変換行列は、肌の色及び肌のテクスチャに関する補正情報を含む、示システム。
  17. 前記1つ以上のデジタル画像の色の補正のための周囲照明を評価するための人工ニューラルネットワークを更に備える、請求項11または16に記載の表示システム。
  18. 前記処理回路が、
    前記キャリブレーション化粧品が適用された前記1つ以上のデジタル画像内の各ピクセルの色及びテクスチャを測定し、
    前記1つ以上のデジタル画像内の各ピクセルの定された色値及びテクスチャ値を、色及びテクスチャ基準値と比較して、色及びテクスチャの偏位を判定し、
    色及びテクスチャの前記偏位を使用して変換行列を計算するように構成されることを含んで、仮想トライオン表示調整情報を判定する、請求項11または16に記載の表示システム。
  19. 前記処理回路が、
    仮想化粧品を選択し、
    前記選択された仮想化粧品の前記色を調整するために使用される色補正値を生成し、
    前記変換行列に含まれる色及びテクスチャに関する前記補正情報と前記色補正値とを用いて、キャプチャされたデジタル画像の拡張現実画像を作製するように構成されることを含んで、修正された仮想トライオン経験の1つ以上のインスタンスを生成する、請求項16に記載の表示システム。
  20. 前記処理回路は、前記1つ以上のデジタル画像の画素値をれぞれの補正された色値に置き換えることによって、前記選択された仮想化粧品の前記色を調整するために前記色補正値を使用するように構成される、請求項19に記載の表示システム。
JP2022581426A 2020-06-30 2021-06-23 パーソナライズされた正確な仮想メイクアップトライオンのためのシステム及び方法 Active JP7499362B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063046168P 2020-06-30 2020-06-30
US63/046,168 2020-06-30
FR2010516A FR3115146B1 (fr) 2020-10-14 2020-10-14 systeme et procédé d'essayage de maquillage virtuel précis et personnalisé
FR2010516 2020-10-14
PCT/IB2021/000436 WO2022003416A1 (en) 2020-06-30 2021-06-23 System and method for a personalized and accurate virtual make-up try-on

Publications (2)

Publication Number Publication Date
JP2023532527A JP2023532527A (ja) 2023-07-28
JP7499362B2 true JP7499362B2 (ja) 2024-06-13

Family

ID=77317185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022581426A Active JP7499362B2 (ja) 2020-06-30 2021-06-23 パーソナライズされた正確な仮想メイクアップトライオンのためのシステム及び方法

Country Status (6)

Country Link
US (1) US11682151B2 (ja)
EP (1) EP4172947A1 (ja)
JP (1) JP7499362B2 (ja)
KR (1) KR20230013115A (ja)
CN (1) CN115769263A (ja)
WO (1) WO2022003416A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3146753A1 (fr) * 2023-03-15 2024-09-20 L'oreal Méthodes et systèmes pour générer des composants d'essayage virtuel (vto) personnalisés offrant des expériences basées sur le modèle et basées sur l'utilisateur
US20240177225A1 (en) * 2022-11-30 2024-05-30 L'oréal Methods and systems to generate customized virtual try on (vto) components providing model-based and user-based experiences
FR3146752A1 (fr) * 2023-03-15 2024-09-20 L'oreal Méthodes et systèmes d’essai virtuel (vto) offrant une expérience de réalité augmentée
WO2024115209A1 (en) * 2022-11-30 2024-06-06 L'oréal Methods and systems for vto providing an augmented reality experience and to methods and systems to generate customized virtual try on (vto) components providing model-based and user-based experiences
CN118781266B (zh) * 2024-06-07 2024-12-20 山东博克时代科技开发有限公司 一种沉浸式场景试衣视频实时生成方法、介质及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213623A (ja) 2002-07-08 2007-08-23 Toshiba Corp 仮想化粧装置及びその方法
JP2010211308A (ja) 2009-03-06 2010-09-24 Fujifilm Corp メイクアップアドバイス装置、メイクアップアドバイス方法及びプログラム
JP2011259087A (ja) 2010-06-07 2011-12-22 Aisin Seiki Co Ltd カラーターゲット位置決定装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013036612A2 (en) * 2011-09-06 2013-03-14 The Procter & Gamble Company Systems, devices, and methods for providing products and consultations
US9449412B1 (en) * 2012-05-22 2016-09-20 Image Metrics Limited Adaptive, calibrated simulation of cosmetic products on consumer devices
US11741639B2 (en) * 2016-03-02 2023-08-29 Holition Limited Locating and augmenting object features in images
WO2019014646A1 (en) * 2017-07-13 2019-01-17 Shiseido Americas Corporation REMOVAL OF VIRTUAL FACIAL MAKE-UP, FAST FACIAL DETECTION AND TRACK POINT TRACKING
CN110414397A (zh) * 2019-07-19 2019-11-05 三星电子(中国)研发中心 卸妆方案推荐方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213623A (ja) 2002-07-08 2007-08-23 Toshiba Corp 仮想化粧装置及びその方法
JP2010211308A (ja) 2009-03-06 2010-09-24 Fujifilm Corp メイクアップアドバイス装置、メイクアップアドバイス方法及びプログラム
JP2011259087A (ja) 2010-06-07 2011-12-22 Aisin Seiki Co Ltd カラーターゲット位置決定装置

Also Published As

Publication number Publication date
US11682151B2 (en) 2023-06-20
US20210407162A1 (en) 2021-12-30
JP2023532527A (ja) 2023-07-28
WO2022003416A1 (en) 2022-01-06
EP4172947A1 (en) 2023-05-03
CN115769263A (zh) 2023-03-07
WO2022003416A8 (en) 2022-12-08
KR20230013115A (ko) 2023-01-26

Similar Documents

Publication Publication Date Title
JP7499362B2 (ja) パーソナライズされた正確な仮想メイクアップトライオンのためのシステム及び方法
US11854070B2 (en) Generating virtual makeup products
US11854072B2 (en) Applying virtual makeup products
JP7200139B2 (ja) 仮想顔化粧の除去、高速顔検出およびランドマーク追跡
US9449412B1 (en) Adaptive, calibrated simulation of cosmetic products on consumer devices
KR101800102B1 (ko) 피부 진단 및 화상 처리 방법
KR101799174B1 (ko) 피부 진단 및 화상 처리 시스템, 장치 및 물품
CN108694736B (zh) 图像处理方法、装置、服务器及计算机存储介质
KR20210032489A (ko) 신체 영역 상의 메이크업 제품의 렌더링의 시뮬레이션 방법
Li et al. Physically-based simulation of cosmetics via intrinsic image decomposition with facial priors
US10304125B1 (en) Method and system for color capture and presentation enhancement
Kips et al. Real‐time Virtual‐Try‐On from a Single Example Image through Deep Inverse Graphics and Learned Differentiable Renderers
JP2022058165A (ja) 肌の明るさを決定するシステム及び方法
Kumar et al. Unevenly illuminated image distortion correction using brightness perception and chromatic luminance
WO2023194466A1 (en) Method for recommending cosmetic products using a knn algorithm
Drago et al. Locally adaptive chromatic restoration of digitally acquired paintings
Parihar et al. Scene adaptive cosmetic makeup transfer
JP7606885B2 (ja) 化粧シミュレーションシステム、化粧シミュレーション方法、化粧シミュレーションプログラム、及び、化粧シミュレーション装置
Jang et al. Makeup color reproduction based on spectrum data
KR102200011B1 (ko) 메이크업 재료가 도포된 표면 색상 시뮬레이션 장치 및 방법
Bokaris et al. Hair tone estimation at roots via imaging device with embedded deep learning
JP7153280B2 (ja) メイクアップシミュレーションシステム、メイクアップシミュレーション方法及びプログラム
FR3115146A1 (fr) systeme et procédé d'essayage de maquillage virtuel précis et personnalisé
Kim et al. A Practical Approach to Physically‐Based Reproduction of Diffusive Cosmetics
Medina et al. Objective colorimetric validation of perceptually realistic rendering: a study of paint coating materials

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240603

R150 Certificate of patent or registration of utility model

Ref document number: 7499362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150