[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2023531264A - 改善された顔属性分類およびその使用のためのシステム及び方法 - Google Patents

改善された顔属性分類およびその使用のためのシステム及び方法 Download PDF

Info

Publication number
JP2023531264A
JP2023531264A JP2022580296A JP2022580296A JP2023531264A JP 2023531264 A JP2023531264 A JP 2023531264A JP 2022580296 A JP2022580296 A JP 2022580296A JP 2022580296 A JP2022580296 A JP 2022580296A JP 2023531264 A JP2023531264 A JP 2023531264A
Authority
JP
Japan
Prior art keywords
facial
attributes
attribute
product
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022580296A
Other languages
English (en)
Other versions
JPWO2022002961A5 (ja
Inventor
アーラビ・パラム
フラマン・フレデリック・アントニン・レイモンド・サージ
ホートン・ジェフリー
ジャン・ルオウェイ
チャン・ユゼ
ユ・チ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR2010128A external-priority patent/FR3114895B1/fr
Application filed by LOreal SA filed Critical LOreal SA
Publication of JP2023531264A publication Critical patent/JP2023531264A/ja
Publication of JPWO2022002961A5 publication Critical patent/JPWO2022002961A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)

Abstract

顔属性予測およびその使用のための方法およびシステムを含む、ディープラーニング教師付き回帰に基づくモデルが記載される。使用の例は、画像から決定された顔属性予測に応答して修正画像を提供するための拡張および/または仮想現実インターフェースである。顔属性に一致する顔効果は、インターフェースに適用されるように選択される。【選択図】図1

Description

相互参照
本出願は、2020年6月29日に出願され「改善された顔属性分類およびその使用のためのシステム及び方法」と題された米国仮出願第63/045,303号と、2020年10月5日に出願され「改善された顔属性分類およびその使用のためのシステム及び方法」と題されたフランス特許出願第2010128号と「改善された顔属性分類およびその使用のためのシステム及び方法」と題されたそれぞれの内容全体とが参照により本明細書に組み込まれる優先権を主張する。
本出願は機械学習を使用する画像処理に関し、より詳細には、顔属性分類のタスクに関する。顔画像が与えられると、顔属性分類は、所望の属性が顔のポートレートに存在するかどうかを推定することを目的とする。ダウンストリームアプリケーションは、様々な画像処理及び他のアプリケーションを含む。
顔属性分類(Facial attribute classification、FAC)は、被写体の顔画像が与えられると、与えられた被写体の顔属性を分類しようとするタスクである。FACは、画像検索、顔認識、人物再識別および推薦システムを含む、多くのダウンストリームアプリケーションにとって非常に重要である。顔の画像を分析して、唇の大きさ及び形状、目の色等のような複数の属性および毛髪の色、性別等のような顔自体に厳密に限定されない他の属性(一般に顔の属性として示される)を予測することができる。
最近、畳み込みニューラルネットワーク(CNN)の優れた性能のために、ほとんどの最先端のFAC手法は、顔属性を分類するためにCNNを利用する。概して、これらの手法は、以下のように分類することができる:(1)単一ラベル学習ベース(single-label learning based)のFAC手法および(2)複数ラベル学習ベース(multi-label learning based)のFAC手法。単一ラベル学習ベースのFAC手法は通常、顔画像のCNN特徴を抽出し、次いで、サポートベクトルマシン(Support Vector Machine、SVM)分類器によって顔属性を分類する。しかしながら、これらの手法は各属性を個々に予測し、従って、属性間の相関を無視する。対照的に、複数の属性を同時に予測することができる複数ラベル学習ベースのFAC手法は、CNNの下位のレイヤから共有特徴を抽出し、CNNの上位のレイヤ上の属性固有分類器を学習する。
実施形態によれば、顔属性予測およびその使用のための方法およびシステム及び/又はコンピュータデバイスを含む、ディープラーニング教師付き回帰ベースのモデルが説明される。使用の例は、画像から決定された顔属性予測に応答して修正された画像を提供するための拡張および/または仮想現実インターフェース(例えばコンピューティングデバイス又は方法を介して)である。一実施形態では、顔属性に一致する顔効果がインターフェースに適用されるように選択される。一実施形態では、顔効果がメイクアップ製品に関連するメイクアップ効果を含む。一実施形態では、電子商取引インターフェースが拡張および/または仮想現実インターフェースを提供し、顔属性に応答するメイクアップ製品を推奨するための推奨コンポーネントを含む。
また、実施形態によれば、コンピュータプログラム製品が提供され、その製品態様は命令を記憶する(例えば、非一時的である)記憶デバイスを備え、命令はコンピューティングデバイスのプロセッサによって実行されたときに、本明細書の任意のそれぞれの実施形態によるような方法を実行するようにコンピューティングデバイスを構成する。
23の顔属性について複数の(顔)属性について属性値決定を行う際の人間の一致度の評価と、顔属性分類タスクにおける人間のパフォーマンスとを示すグラフである。 23の顔属性について複数の(顔)属性について属性値決定を行う際の人間の一致度の評価と、顔属性分類タスクにおける人間のパフォーマンスとを示すグラフである。 一実施形態によるディープラーニングネットワークアーキテクチャを示すブロック図である。 一実施形態によるコンピューティングシステム、例えばネットワークを示すブロック図である。 一実施形態によるユーザアプリケーションのグラフィカルユーザインターフェースのための表示画面またはその一部の図である。 A,Bは、一実施形態によるユーザアプリケーションのグラフィカルユーザインターフェースのための表示画面またはその一部の図である。 A,Bは、一実施形態によるユーザアプリケーションのグラフィカルユーザインターフェースのための表示画面またはその一部の図である。 一実施形態によるユーザアプリケーションのグラフィカルユーザインターフェースのための表示画面またはその一部の図である。 A,Bは、一実施形態によるユーザアプリケーションのグラフィカルユーザインターフェースのための表示画面またはその一部の図である。 A~Dは、一実施形態によるユーザアプリケーションのグラフィカルユーザインターフェースのための表示画面またはその一部の図である。 A~Cは、一実施形態によるユーザアプリケーションのグラフィカルユーザインターフェースのための表示画面またはその一部の図である。 本明細書の実施形態によるそれぞれの動作のフローチャートである。 本明細書の実施形態によるそれぞれの動作のフローチャートである。 本明細書の実施形態によるそれぞれの動作のフローチャートである。 本明細書の実施形態によるそれぞれの動作のフローチャートである。 本明細書の実施形態によるそれぞれの動作のフローチャートである。 本明細書の実施形態によるシステムのブロック図である。
本概念は添付の図面を参照して本明細書に記載される、その特定の実施形態を通して最も良く説明され、ここで、同様の参照番号は全体を通して同様の特徴を指す。本発明という用語は本明細書で使用される場合、以下に記載される実施形態の基礎をなす発明の概念を意味することを意図しており、単に実施形態自体を意味するものではないことを理解されたい。さらに、一般的な発明概念は以下に記載される例示的な実施形態に限定されず、以下の説明はそのような観点から読まれるべきであることを理解されたい。
顔属性分類(Facial attribute classification、FAC)は、被写体の顔画像が与えられると、与えられた被写体の顔属性を分類しようとするタスクである。FACは画像検索、顔認識(例えば2つの写真が同じ顔を示すかどうかを決定する)、顔位置特定および推奨システムを含む、多くのダウンストリームアプリケーションにとり重要である。
本明細書の実施形態では、タスクが属性の所定のセットにわたる分類として定義される。各属性は各対象(subject)を分類することができる潜在的なクラス(例えば属性値)のセットで記述される。例えば、肌のトーンの属性は、フェア(Fair)、ライト(Light)、ミディアム(Medium)、タン(Tan)、ディープ(Deep)及び超ディープ(Very Deep)の合計6つのクラスを有する。従って、この特定の属性に関するタスクは、人物の画像が与えられ、6つのクラスのうちのどれが与えられた画像を最も良く表すかを予測する。
属性の所定のセットは、色属性または形状属性の2つの異なるタイプに大まかに分類することができる。色属性の例としては、髪の色、肌のトーン及びアンダートーン(undertone)が挙げられる。形状属性の例としては、目の形状、目のしわ及び唇の大きさが挙げられる。
最近、畳み込みニューラルネットワーク(CNN)の優れた性能のために、ほとんどの最先端のFAC手法は、顔属性を分類するためにCNNを利用する。概して、これらの手法は、以下のように分類することができる:(1)単一ラベル学習ベース(single-label learning based)のFAC手法および(2)複数ラベル学習ベース(multi-label learning based)のFAC手法。単一ラベル学習ベースのFAC手法は通常、顔画像のCNN特徴を抽出し、次いで、サポートベクトルマシン(Support Vector Machine、SVM)分類器によって顔属性を分類する。しかしながら、これらの手法は各属性を個々に予測し、したがって、属性間の相関を無視する。対照的に、複数の属性を同時に予測することができる複数ラベル学習ベースのFAC手法はCNNの下位レイヤから共有特徴(shared features)を抽出し、CNNの上位レイヤ上の属性固有分類器を学習する。
典型的な学術(academic)の環境とは異なり、本明細書で主に説明されるシステム及びそのダウンストリームのタスクは、ファッション及び美容産業に主に関連する。一般的な学術データセット(general academic dataset)における属性は、現在のタスクに最小限の価値を提供する、より広い範囲の顔の特徴をカバーする傾向がある。対照的に、新しいテーラーメイドデータセット(tailor-made dataset)は、良く設計された属性タイプのためのソフトラベル(soft labels)を有する画像を記憶することで定義される。新しいデータセットは、それぞれが異なる環境下で撮影された1~5つの画像を有する3790の被験者を含む。全部で23個の属性があり、各属性は複数(例えば6個)の個々のヒトアノテータ(human annotators)によってラベル付けされ、独立して作用し、更に記載されるようにソフトラベルを使用する。
ヒトアノテータは、顔属性のインスタンスのための特定の値に常に合意するとは限らない。1つのアノテータは、値が平均であると結論付けても良く、別のアノテータは例えば値が高いと結論付けても良い。従って、顔属性分類などの分類タスクに関する人間のパフォーマンスを変更することができる。即ち人間は、異なる意見を有するか、又は特定の属性値について異なる結論に達する可能性がある。一実施形態では、属性データセットがグラウンドトゥルース(ground truth)属性値に関するそれぞれの「意見」を集約するために、複数の人間からのアノテーション(annotations)を用いてコンパイルされる。
このアプローチは、ハード又はシングルグラウンドトゥルースを使用する従来のデータセットアノテーションアプローチとは対照的である。例として、1つの属性は、軽度、中等度または重度のしわ値を有するしわに関する。この例は、値間の線形関係を示す。対照的なものは、顎の形状が丸い、尖っている又は角ばっている、である。これらは数学的に関連しているが、現在のタスクのための新しいデータセットを作成する際に実行されたことはアルゴリズムが各画像に対して使用する属性のための別個のグループ又はバケット(bucket)を定義することである。極端に多様な顎形状が与えられると、分類器アルゴリズムは各バケットに対して信頼性をもたらし、即ち最終製品の推奨は顧客の頬をどのように輪郭づけるかを決定するときに、人間が行う可能性が最も高いバケットを使用することができることを意味する。このタスクに対する従来のアプローチは画像に対する「正しい」出力が何であるかを理解するために、全てのアノテータが言ったことを平均化することによって、「ハードラベル」を使用する。代わりに、それは「ソフトラベル」アプローチを使用して、「正しい」答えがない可能性があると認識される。この手段はアノテータが不一致であっても、アルゴリズムはたとえそれが最も高い信頼性を有すると信じられたものに確定するとしても、全てのアウトプットを推奨する柔軟性を有する。
図1,2は、23の顔属性に対する顔属性分類タスクにおける人間の一致および人間のパフォーマンスを示すグラフである。
人間の同意は、アノテータがどれだけ互いに同意するかを評価するために設定される。一実施形態では、6つのヒトアノテータがある。アノテーションを行う場合、全ての場合において、アノテータは互いに良く一致するわけではない。例えば髪の色アノテーションの場合、4人がブラウンと言うことができるが、2人が暗いブラウンと言うことも、黒と言うことさえある。第1のグラフは一致を示し、範囲の中点は平均値である。範囲は、一致の標準偏差(stddev)を示す。一致は多数決に基づいて計算されるので、4/2の上記の例では、一致がこの特定の属性(例では髪の色)に関するこの特定の対象について66%である。3/3を50%、2/2/2を33%としてカウント。次いで、平均およびstddevは、データセット全体にわたって各属性について決定される。
人間のパフォーマンスとは、人間自身がどれだけ良いかを評価することである。つまり、基本的には「どれだけの数が正しかったか」ということである。「正しい」の定義は、一実施形態について定義される要素である。実施形態では、それは多数決に従う。しかし、他の例は大多数が明確でない例(例えば写真のためのアノテーションのセット)である。例えば髪の色の写真は、2クラスで3/3の投票を得たのか、3クラスで2/2/2の投票を得たのか 多数決はない。そのような場合、本実施形態では、「同じ投票を含む」および「同じ投票を含まない」と名付けられた2つのメトリックのセットが定義される。「同じ投票を含む」は多数決を有さない場合を含み、「同じ投票を含まない」は、明確な多数決を有さない場合を単に無視する。無視すると、これらの事例は、計算の分子または分母のいずれにも含まれない。それらは無視される。一方、「同じ投票を含む」は、全てのトップクラスを正しくカウントする。3/3の場合、どちらも正しいので、人間のパフォーマンスは100%である。2/2/2の場合、まだ100%である。2/2/1/1の場合、66%。
表1に23の属性とその値を示す。
Figure 2023531264000002
顔の形状は、顔属性4a(顔の長さ)及び4b(顎の形)の予測からの信号を組み合わせることによって予測される二次属性である。例えば楕円形=長い(顔)+丸形(顎)、丸型= 短い(顔)+丸形(顎)である。
訓練目的のために、データは、それに応じて2274、758及び758の被験者を含む訓練、検証および試験サブセットに分割される。
見かけの顔アーキテクチャ予測問題は、ディープラーニングを用いたコンピュータ実装のための教師あり回帰問題として投げかけられる。属性は、同じ個体からの1~5個の画像から評価される。
顔属性の固有の関係および異質性を効果的に活用するために、属性を異なるグループに分割することができる。一実施形態によれば、属性は、2つの別個のグループに分けられた:色属性(髪の色、目の色およびアンダートーン等)および形状属性(唇の大きさ、目のしわ及び鼻の種類等)。属性の各グループ上で類似のアーキテクチャを共有する2つのサブモデルが訓練された。推論中に、(それぞれの属性ごとの)予測は最後に集約される。便宜上、2つのサブモデル(1つは色用、1つは形状用)を集約して、顔属性分類のためのスーパーモデルを形成する。しかしながら、サブモデルのいずれか1つは、それぞれの属性のみが分類のために望まれる場合に有用である。
2つのサブモデル(例えば形状サブモデル及び色サブモデル)は同じ構成を共有するが、様々な前処理されたデータ(ここでは訓練の始まり以前の任意のデータ増強の手段の前処理、顔検出および顔切り取り、サイズ変更等を含むが、これらに限定されない)上で訓練される。カラーサイン(color signs)の場合、髪の色および肌のトーンのような属性はカラー抽出を導くために背景も必要とするので(例えば陰影環境において、明るい肌のトーンの画像は背景が切り取られた場合、暗い肌のトーンとして誤って分類される可能性がある)、データセットは形状属性の背景よりも多くの背景を有するように前処理される。形状モデルは最小限の背景で切り抜かれた顔について訓練されるが、カラーモデルはより多くの背景情報を含んでいた。
一実施形態では、2つのサブモデルにおける前処理は:
1.オリジナルの画像をRBG空間に変換する;
2.画像内に存在する顔を検出する。(任意の標準的な顔検出アルゴリズムが動作するはずである。)これは色に対してはオプションであるが、精度を向上させる;
3.フェイスボックスのサイズ変更-カラーモデル:検出されたフェイスボックスを1.7倍に拡大する、シェイプモデル:検出されたフェイスボックスを1.2倍の幅と高さに拡大する、そして、
4.手順3. の画像をモデルの入力サイズにサイズ変更する。
従って、データセットは、カラー関連サイン(color related signs)及び形状関連サイン(shape related signs)をバケット化することにより、2つのアルゴリズムを訓練するために使用される。これは、関連するサインから学習されたアルゴリズムを意味する。例えば明るい毛髪を有する人々は青い目を有することが多く、暗い皮膚を有する人々は褐色の目を有することが多い。しかし、青い目を持つ人は、顔の形にほとんど相関関係がないかもしれない。各アルゴリズムの結果として得られるコードは、関連するサインの関連する計算を再利用し、関連するサイン間を接続することによって、非常に小さく、非常に高速である。2つのアルゴリズムは一緒になって、ユーザの顔特性の完全なピクチャを作り出すが、互いに過度に複雑にならない。
図3は、ディープラーニングネットワークアーキテクチャを示すブロック図である。300ネットワークは、入力レイヤ304においてソース画像を処理するための畳み込みニューラルネットワーク(CNN)302を備える。一実施形態では、CNN 302が複数の残差ブロック(residual blocks)306を有する残差ネットワークベースのバックボーンを使用して、共有特徴を抽出するように構成される。例として、残余ネットワークベースのバックボーンは、ResNet("Deep Residual Learning for Image Recognition"、He、Kaiming et al、2015-12-10、URL:arxiv.org/abs/1512.03385)を使用して構成される。一実施形態では、例えばImageNet(Stanford Vision Lab、Stanford University(URL image-net.org)から入手可能な組織化された画像のデータベース)上で事前訓練されたモデルが、バックボーンネットとして適合され、使用される。そのようなモデルの最後のいくつかの予測レイヤは手元の目的のために、例えば必要に応じて共有特徴データを生成するためのエンコーダとして、モデルを適応させるために除去される。
(例えば平均プーリング(average pooling)を使用して)平坦化された特徴ベクトル308が、バックボーンネット302から取得される。例えば一実施形態では、ResNet18ベースのバックボーン特徴ネットから、出力はサイズ224×224の画像に対する次元7×7×512のベクトルを有する。平均プーリングは、一実施形態では512個の位置の各々における7×7個の項の平均をとることによって、1×512の平坦化ベクトルを提供する。
特徴ベクトル308は、K個の顔属性の各々に対する複数(K個)の分類器310による処理のために(例えば並行して)複製される。各個々の分類器(例えば312、312、…312)は、1又は複数の完全に接続された線形レイヤ(314、314、…314)及び予測ブロック(316、316、…316)を備え、各属性の最終予測を出力する。形状モデルでは、各分類器ヘッド(classifier head)が整流線形ユニット(rectified linear unit、ReLU)活性化を有する2つの完全に接続された線形レイヤからなる。隠れレイヤ(hidden layer)サイズは50である(この手段、特徴サイズがNであると仮定すると、第1のFCレイヤは特徴を50のサイズに絞り込み、次いで、第2のFCレイヤはサイズ50の特徴に作用し、目標出力サイズに等しいサイズを有する特徴ベクトルを出力する)。カラーモデルでは、各分類器ヘッドが1つのFC線形レイヤのみからなる。(サイズNの特徴をターゲット出力サイズに直接変換する)。典型的には、モデルがより深い(即ちより多くのレイヤが存在する)ほど、モデルの容量はより大きくなる。形状属性は、完全に接続されたレイヤの数の差を説明する学習困難性の点で、色属性よりも比較的複雑である。
訓練時および/または推論時の使用中に、一実施形態では、モデルが一度にN個の画像のグループを処理するために使用される。出力は(N,K)の次元を有し、Nは入力画像の数であり、Kは属性の数である。出力行列の各要素は整数であり、Oi,jは、i番目の画像およびj番目の属性について、システムが画像を予測するクラスが属することを表す。一実施形態では、Nは学習レートのための訓練ハイパーパラメータ(training hyper-parameter)である。N個の画像の各々は、同じ又は異なる顔を含む。このモデルは、同一性に関するコンテキストを有しておらず、同じ顔の複数の画像にわたって矛盾する予測結果を解決するものでもない。
それぞれの属性についての分類器の各々の中で、最終出力レイヤの前のレイヤは、可能な属性値のセットにわたって(スコア値のよう)予測のセットを生成する。一実施形態では、各予測が属性値の「真」に関する相対的尤度である。3つの属性値のセットについて、予測のセットは20、20、60であり得るが、多くの場合、予測は異なるスケールにわたって正規化される。最終的な予測は予測値のセット(例えば60に関連付けられた属性)の最大値から決定される。
上述のように、教師あり学習に使用される注釈付きデータセットは、6人の人間のアノテータが独立して行動するアノテーションを有する。上述のように、特定の属性に対する注釈は、各注釈によって同一ではない。「真」解決ルールは、アノテーション値(ソフトラベル)の中から選択するために使用される。1つのルールは最も一般的な予測ルールであり、一連の予測から最も一般的に予測される属性を選択する。1つのルールは、上位2つの最も一般的な予測ルールである。
カラーモデルの場合、一実施形態では、「真」が「最も一般的な投票」として扱われる。これは、目の色に対する以下のアノテーションを有することを意味する:「青」、「青」、「青」、「灰色」、「灰色」、「茶色」:モデルが「青」を予測する場合、最も一般的な投票との整合が存在する。モデルが「青」または「灰色」を予測する場合、上位2つの最も一般的な投票との整合が存在する。アノテーションが「青」、「青」、「灰色」、「灰色」、「茶色」、「黒」である場合、「青」または「灰色」のいずれかが最も一般的な投票である(および上位2つの最も一般的な投票)。
表2は、訓練された色属性を予測するためのモデルの出力および評価を示す。「*」でアノテーション付けされた属性出力は、モデルによって予測されることがほとんどない出力を表す。一実施形態では、追加の訓練データを利用して、そのような予測を改善する。一実施形態では別のアプローチがこれらの粒度予測を、より一般的な(および関連する)予測と一緒に、又はバンドルすること、予測の粒度または細かさを低減することを含む。例えば一実施形態では「ストロベリー」、「レッド」及び「オーバーン」は共バンドルされる。
Figure 2023531264000003
形状モデルでは、最も一般的な投票もグラウンドトゥルースとして扱われた。2つの評価基準(予測解決ルール(prediction resolving rule))が使用された:「多数決に一致するパーセンテージのみ」及び「最も一般的な投票に一致するパーセンテージ」。
「最も一般的な投票に合致するパーセンテージ」は全ての最大投票クラスが「グラウンドトゥルース」として扱われるときに、試験セット内の全てのサンプルに対する精度を計算する。
「多数決のみに一致するパーセンテージ」は、1つの多数決クラスのみを有するサンプルについての精度を計算するだけである。
表3は、訓練された形状属性を予測するためのモデルの出力および評価を示す。
Figure 2023531264000004
図4は、一実施形態において、顔属性分類に応答する推奨アプリケーションを提供するコンピューティングシステム400を示す。アプリケーションは、電子商取引アプリケーションである。更にディープラーニングネットワークモデル(deep learning network model)を使用すること等による画像処理技法によって、アプリケーションは、顔効果シミュレーションを提供して、推奨をコンテキスト的に提示する。アプリケーションは、仮想および/または拡張現実体験をユーザに提供する。
システム400には、ユーザコンピューティングデバイス402が示される。ユーザコンピューティングデバイス402は、スマートフォンの形態で示される。タブレット端末、パーソナルコンピュータ等の他のフォームファクタが有用である。ユーザコンピューティングデバイス402は、アプリケーション404等の電子商取引アプリケーションに有用な、Apple Inc(登録商標)、Samsung Electronics Co,Ltd.(登録商標)等から入手可能なような消費者向けデバイスである。一実施形態では、デバイス402が販売員などによって操作される製品カウンターキオスクデバイスである。
一実施形態では、ユーザコンピューティングデバイス402がプロセッサ(CPU、GPUなど)、記憶デバイス、1又は複数の通信サブシステム又はデバイス、ディスプレイ、入力デバイス、出力デバイス等のうちの少なくともいくつかを含む、通信のために結合された様々な構成要素を有するコンピューティングデバイスを備える。一実施形態では、ディスプレイがタッチ又はジェスチャー可能なもの(gesture enabled)であり、入力デバイスはマウス、マイクロフォン、カメラ、キーボード、ボタン等のポインティングデバイスを含み、通信デバイスは有線または無線通信のいずれかを提供し、短距離および/または長距離の通信が可能である。一実施形態では、通信デバイスが衛星ベースのロケーションサービスを提供する等のためにロケーションデバイスに結合する。一実施形態では出力デバイスがスピーカ、ライト、振動/触覚デバイスなどを含み、様々な構成要素は1又は複数の通信バスまたは他の構造を介して結合される。
一実施形態では、記憶デバイスは、例えば実行されたときにコンピューティングデバイスの動作を構成する命令およびデータを記憶する。命令は、オペレーティングシステム、アプリケーション等を定義する。データは、顔の1つ以上のソース画像を含む。アプリケーション404に加えて、一実施形態では、電子メール、テキストメッセージ、インスタントメッセージ、ショートメッセージサービス(SMS)メッセージ等のメッセージ(データ)を通信するための1又は複数のアプリケーションがある。一実施形態では、通信が画像またはビデオなどの添付ファイルを含む。
一実施形態では、アプリケーション404がユーザコンピューティングデバイス402の一部として、又は、それに結合された、ディスプレイデバイス(例えば408)による表示のための1又は複数の画面(例えば406)を含むグラフィカルユーザインターフェースを提供する。一実施形態では、ユーザコンピューティングデバイス402及びアプリケーション404がジェスチャ及び/又は音声であるか又はその他が有効である。一実施形態では、アプリケーション404がネイティブアプリケーションであり、ユーザデバイス及びそのオペレーティングシステムのために特に構成され、ダウンロードされ、その上に記憶されるか、又は、ブラウザベースのアプリケーションの形態など、より多くのデバイスに不可知(agnostic)であり、及び/又は、ウェブサービスとして提供される。
一実施形態では、アプリケーション404が例えばインターネットプロトコル(IP)を使用して、ネットワーク410を介して、電子商取引サーバ412及び画像処理サーバ414等の1又は複数のサーバと通信する(デバイス402を使用して)。システム400は簡略化されており、支払い及び他のサービスは示されておらず、1つのユーザコンピューティングデバイスのみが示されている。
一実施形態では、サーバ412及び414が(1つのそのようなデバイスが使用され得るが)既知の適切なリソースを有するそれぞれのコンピューティングデバイスによって提供される。適切なコンピューティングデバイスは、プロセッサ(CPU、GPU等)、記憶デバイス、1又は複数の通信サブシステム又はデバイス、ディスプレイ、入力デバイス、出力デバイス等のうちの少なくともいくつかを含む、通信のために結合された様々な構成要素を有する。一実施形態では、ディスプレイがタッチ又はジェスチャ可能なものであり、入力デバイスはマウス、マイクロフォン、カメラ、キーボード、ボタンなどのポインティングデバイスを含み、通信デバイスは有線または無線通信のいずれかを提供し、短距離または長距離の通信が可能である。一実施形態では通信デバイスが衛星ベースのロケーションサービスを提供するなどのロケーションデバイスに結合し、出力デバイスはスピーカ、ライト、振動/触覚デバイス等のいずれかを含む。様々な構成要素は、1又は複数の通信バス又は他の構造を介して結合される。一実施形態では、記憶デバイスは、例えば実行されたときにコンピューティングデバイスの動作を構成する命令およびデータを記憶する。
本実施形態では、アプリケーション404がメイクアップ製品のための電子商取引アプリケーションである。アプリケーション404は顔属性分析を取得するためにソース画像を提供し、ソース画像から決定された顔属性に応答して製品推薦を受信するように構成される。サーバ414はソース画像を(サーバ412への通信なしにデバイス402から、又はサーバ412を介して)受信し、顔の特徴を決定するための方法を実行するように構成される。
サーバ414はディープラーニング及び教師付き回帰(supervised regression)を実行するネットワークモデルを使用して顔のソース画像を処理し、顔属性の各々について予測を出力する。
一実施形態では、ネットワークモデルがディープラーニングを実行して、顔属性を予測するためにそれぞれの分類器による分類のための共有特徴の特徴ベクトルを生成する残差ブロックを有する畳み込みニューラルネットワーク(CNN)モデルを備える。特徴ベクトルの複製は、顔属性のそれぞれの1つについてそれぞれの分類器によって処理されるようにされる。一実施形態ではネットワークモデルが複数のそれぞれの分類器を備え、それぞれの分類器の各々は、1又は複数の完全に接続された線形レイヤを備え、それぞれの分類器の各々は顔属性のそれぞれ1つの予測を出力として提供する。複数のそれぞれの分類器は、一実施形態では顔属性を提供するために並行して実行される。
一実施形態では、顔属性が顔属性の固有の関係および異質性(heterogeneity)(例えば色または形状など)に従って、複数(例えば2つ)のそれぞれの属性グループに関連付けられる。一実施形態では、サーバ414が、そのような手法がソース画像を処理するために、属性グループのそれぞれの1つのために構成されたそれぞれのネットワークモデルを使用するように構成される。
一実施形態では、それぞれの属性グループのうちの1つは、色ベースの顔属性のための色属性グループであり、ソース画像は色ベースのネットワークモデルによって処理される。一実施形態では、それぞれの属性グループのうちの1つは形状ベースの顔属性のための形状属性グループであり、ソース画像は形状ベースのネットワークモデルによって処理される。
一実施形態では、ネットワークモデルが予測レイヤのトリミングされた、適応され事前訓練されたResNetベースの画像処理ネットワークモデルを含む。
サーバ414は、本実施形態では製品推薦を提供するために使用される顔属性を提供するが、他の実施形態では、サーバが画像検索、顔認識、個人再識別ならびに製品および/またはサービス推薦などのうちのいずれか1つを実行するアプリケーションによって使用するための顔属性を提供する。
一実施形態では、サーバ414が残差ブロックを有する畳み込みニューラルネットワーク(CNN)ベースのバックボーンネットワークモデルを使用して顔のソース画像を処理し、共有特徴の特徴ベクトルを生成し、複数(K個)の分類器を使用して特徴ベクトルを処理し、K個のそれぞれの顔属性が決定され、それぞれの分類器は、K個のそれぞれの顔属性のうちの1つの予測を出力するために1又は複数の完全に接続された線形レイヤと予測ブロックとを備える。一実施形態では、第1のネットワークモデル(例えばサブモデル)は色ベースの顔属性についてソース画像を処理して、色ベースの顔属性を予測するように構成された複数の分類器のそれぞれによって処理するための色ベースの特徴ベクトルを生成し、第2のネットワークモデルは形状ベースの顔属性についてソース画像を処理し、形状ベースの顔属性を予測するように構成された複数の分類器のそれぞれによって処理するための形状ベースの特徴ベクトルを生成する。
ユーザコンピューティングデバイスがソース画像を(例えばカメラまたは他のアップロードから(例えば記憶デバイスから))提供するクライアント/サーバモデルとして示されているが、サーバ414は顔属性検出サービスを実行し、一実施形態ではユーザコンピューティングデバイスが十分にロバストである場合、分類を実行するためにディープラーニングモデルを用いて構成される。
一実施形態では、サーバ412が電子商取引サービスのための製品推奨を提供する。サーバ412は、製品推奨の少なくともいくつかを購入するための電子商取引ショッピングサービスを提供する。
一実施形態では、サーバ412が顔のソース画像から決定された複数の顔属性を受信することによって、複数の顔属性を生成するために顔属性分類ネットワークモデル(facial attribute classifying network model)を使用して処理されたソース画像を受信することと、少なくともいくつかの顔属性を使用して、製品に適した顔属性と関連付けて製品を記憶するデータストアから少なくとも1つの製品を選択することと、製品を購入するために電子商取引インターフェースにおいて提示するための推奨として少なくとも1つの製品を提供することと、などによって、電子商取引サービスのために製品を推奨するように構成される。
一実施形態では、顔属性がサーバ414及び/又はサーバ414について説明した方法を使用して決定される。
一実施形態では、製品がメイクアップ製品を含む。メイクアップ製品は所定のメイクアップルック(make-up looks)を定義するために、データストア(例えばサーバ412に結合されたデータベース416)内で様々に関連付けられる。ルックは、特定の効果を有するメイクアップから定義され、及び/又は特定の技術を使用して適用される。各ルックは異なるタイプのメイクアップから(例えば含むように)定義される。タイプは顔(頬、鼻、顎、額、顎の線など)の皮膚の領域(領域)または眉毛およびまつ毛などの毛を含む目、唇および眉毛などの領域に関連する。顔の領域(皮膚)、目の領域、眉の領域、唇の領域などは、説明されるように、形状、色を含む顔属性に関連付けられる。それぞれの領域のためのそれぞれのメイクアップ製品は、例えば属性のための適合性尺度(suitability measure)を使用することによって、それぞれの属性に関連付けられる。測定値は、2値、例えば「良い」又は「良くない」であっても良く、又は、適合性測定値はより粒状であっても良い(例えば1~10のスケール又は他のスケールでランク付けされる)。一実施形態では、外観が顔の複数の領域(例えば全ての領域)に対するそれぞれの製品を含む。ルックのための製品は顔の属性に関連する尺度を有する(例えば唇の形状および色の属性に対する唇の製品、眉の属性に対する眉の製品など)推奨機能はユーザ画像の画像分析から決定された顔の属性を、それぞれのルックにグループ化された製品に一致させるために、ルール又は他の方法を使用することができる。一実施形態では、顔属性へのマッチングが潜在的な外観を識別する。2つ以上のルックが、初期マッチングから識別され得る。識別されたルックは例えばそれぞれのルックについての顔属性マッチのカウント、及び/又は、マッチのスケールを評価する顔属性マッチの品質に基づいてランク付けされ得る。ランキングは、ルックの提示を順序付けるため、及び/又は、スコアを提供するために使用され得る。一実施形態では、外観を選択し、顔属性情報を使用して、外観を達成するために使用可能なマッチング製品を決定することができる(例えば顔に組み合わせたとき)。ランク付けは、外観を達成するために使用されるそれぞれの製品を順序付けまたはスコア付けするために使用され得る。
一実施形態では、サーバ414が所定のメイクアップルックのうちの1つの識別を受信する。顔属性のうちの少なくともいくつかを使用するとき、サーバ412は少なくとも1つの製品を選択するときに、所定のメイクアップルックのうちの1つに応答する。
一実施形態ではメイクアップ製品の各々が複数のメイクアップタイプのうちの1つに関連付けられるとき、サーバ412はメイクアップタイプの各々について、顔属性に応答して、推奨を定義するために少なくとも1つの製品を選択する。上述のように、メイクアップタイプは、顔製品タイプ、目製品タイプ、眉製品タイプ、及び唇製品タイプを含む。
一実施形態では、サーバ412が推奨製品を使用する技術を推奨する。
一実施形態では、サーバ412がアプリケーション404のために(ユーザ)コンピューティングデバイス402にその出力を提供する。出力は、電子商取引サービスのグラフィカルユーザインターフェースなどを介してディスプレイ408を介して提示される。
一実施形態ではユーザのルック又は個々のメイクアップ製品の知覚を向上させるために、ソース画像は顔効果を提示するために画像処理等によって修正される。ソース画像は、サーバ412によって、又はサーバ414によって、又は本明細書の実施形態で説明されるようなユーザコンピューティングデバイス402によって修正される。ディープラーニングネットワークモデルは、ソース画像を修正するか、又は他の画像処理技術が本明細書の実施形態で説明されるように使用される。ソース特徴を維持しながら、ある領域(domain)から別の領域に変換するように、ソース画像を修正するための1つのそのようなディープラーニングネットワークモデルは、敵対的生成ネットワーク(GAN)ベースのモデルである。
一実施形態では、アプリケーション404がユーザコンピューティングデバイス412が現実をシミュレートするための方法を実行することを可能にする。方法は、顔のソース画像から複数の顔属性を決定することと、顔属性分類ネットワークモデルを使用してソース画像を処理することと、顔属性のうちの少なくとも1つに応答して、顔への適用のための少なくとも1つの顔効果を決定することと、表示のために少なくとも1つの顔効果を顔に適用するためにソース画像を処理することとを含む。一実施形態では、アプリケーション404がサーバ412及び414の一方または両方と通信して、そのために実行される方法ステップを有する。ユーザコンピューティングデバイス402は一実施形態ではカメラ418を使用してソース画像(例えば420)を生成する。
一実施形態では、少なくとも1つの顔面効果が顔面に適用される少なくとも1つのメイクアップ製品および/または技法のシミュレーションである。一実施形態では、他の顔面効果がプロテーゼ、形成手術またはアイウェア等の適用を含む。
様々な実施形態では、少なくとも1つの顔効果を適用するためにソース画像を処理することは顔効果を適用するように構成されたディープラーニングネットワーク(例えばGANベース)を使用すること、又は、他のディープラーニングモデル若しくは他の画像処理技法が使用されることを含む。限定ではなく例として、(クライアント側)コンピューティングデバイスにおいて構成された拡張現実(AR)仮想的な試着のための方法が、ソース画像上の推奨製品またはサービスに関連する効果をシミュレートするために使用され、仮想的な試着のユーザエクスペリエンスを与える。要約すると、メイクアップ製品を表すレンダリング値(例えば赤、緑、青(RGB)色および色不透明度)と同様に、カメラフレーム又は写真(例えばソース画像として)が、方法への入力として受け取られる。ソース画像は、顔追跡を使用して、ソース画像内のユーザの顔の周りのキーランドマーク(key landmarks)を決定するために処理される。これらのランドマークを使用して、メイクアップ製品に対する顔の領域が、唇関連製品のためのユーザの唇のようにマスクアウト(masked out)される。次に、レンダリング値を使用して、マスクアウトされたエリア内のユーザの顔にメイクアップを描画する。一実施形態では、実際の製品がどのように見えるかを現実的にレンダリングするために、ソース画像から照明をサンプリングすること、ブレンディング(blending)することなどの他のステップが含まれる。最後に、メイクアップ又は顔効果を含む変更されたソース画像の結果が、表示可能な出力として返される。
本実施形態において、図5,6A,6B,7A,7B,8,9A,9B,10A,10B,10C,10D,11A,11B及び11Cは、アプリケーション404のグラフィカルユーザインターフェースのための画面またはその一部を示す。
本実施形態では、図5がアプリケーションの開始画面500を示し、このコンテンツはユーザコンピューティングデバイス402のディスプレイ画面408上に全てが適合する(全てが表示可能ではない)わけではない。部分は、アプリケーションの概要を提供する部分502等、知られているようにスクロール可能である。制御504はアプリケーションを進める(例えば開始する)ために提供される。
本実施形態では、図6Aがソース画像(例えば420)を取得するための初期画面600(例えば「写真撮影指示画面」)を示す。画像は、カメラ418を介した「自撮り」である。「撮影」制御が進み、撮影インターフェースを開始する(図7参照)。アップロード制御604は、デバイス402のローカル記憶デバイスから、又は別様にスクリーン610(例えば「画像取得のためのアップロード/オプション」)及び図6Bを介して画像を取得するように、アップロードインターフェースに進む。
本実施形態において、図7A及び図7Bは顔704の画像をキャプチャする(例えばカメラから受信する)ための撮影インターフェース(例えばそれぞれスクリーン700及び710)を示す。画像キャプチャ制御702は、カメラ418を呼び出して、ソース画像420を取得する。背面(反対向き)カメラモードに切り替えるためのものなど、他の制御は図示されていない。実施形態では、ユーザが顔を適切に位置決めするのを支援するため、メイクアップの摩耗を最小限にするため、髪または他の物体が顔を閉塞するのを最小限にするため及び適切な照明を使用するため等の命令が提示される。命令の例は「顔を位置付ける」706であり、これは、画像が撮影される前に顔のプレゼンテーションをオーバーレイすることができる。画像がキャプチャされると、顔の位置および照明を確認し、リテーク(図示せず)を要求するための初期処理が実行される。本実施形態では、ソース画像420が説明したように顔属性を決定するための処理のためにサーバ414などに通信される。
本実施形態において、図8がソース画像420から決定された顔属性を提示するための顔分析のためのインターフェース(例えばスクリーン800)を示す。本インターフェースでは、ソース画像が顔属性に関する情報802を提示する(例えばオーバーレイする)ように修正された(420A)ものとして提示される。顔属性情報803はコンテキスト的に、かつ属性に関連する顔420の領域に関連して提示される。本実施形態では、顔属性情報がソース画像420について決定された、表1からの属性および関連値を識別する。本明細書の画面における、オーバーレイスタイル及び制御位置は例示である。
本実施形態では、領域が例えば画像処理によって、例えば領域を特定するために特徴検出を実行することによって、ソース画像420上に配置される。ロケーションは例えばデバイス402又はサーバ414によって決定される。領域は例えば顔全体、眉、目および唇に関連する。これらの領域は、1つ以上の特定の顔属性に関連する。実施形態では、各領域がそれぞれの製品タイプに関連する。
本実施形態では、個々の情報(例えば802A)は関連する領域インターフェースに進むための制御(例えばタップ制御802B)に関連付けられる。各関連領域インターフェースは図示のように、領域の顔属性および関連製品などに関する追加情報を提供するように構成される。図9A(制御802Bに関連する)および図9B(制御802Cに関連する)を参照されたい。一実施形態では、各領域がそれぞれの領域界面を有する。
それぞれの(タップ)コントロール804はまた、顔属性および関連製品についての追加情報を提供する関連領域インターフェースに進むために提供される。この実施形態では、制御804がスワイプジェスチャ(例えば左/右)および/または前進制御(例えば804A)のタッチなどによって前進される(呼び出される)。
本実施形態では、スクロールがさらなる情報(例えば「私の結果概要」部分)をもたらし、インターフェース800の部分800Aを制御する。この実施形態では保存制御806(例えば「結果画像の保存」)はアノテーション付き画像420及び/又は顔属性分析の結果を装置402の記憶装置に保存するために提供される。制御808(例えば「私のメイクアップルックを続ける」)は推奨インターフェース(例えば図10A)に進む。コントロールなどの様々なインターフェース部分および要素は、インターフェースナビゲーション及びユーザインターフェース理解を支援するためにテキストラベルを有することができることが明らかである。
本実施形態において、図9Aが顔全体の顔属性に関連する領域902を視覚的に強調し、顔の形状、肌の色合い、アンダートーン(例えば「形、肌の色&アンダートーン情報メイクアップチップ」)などのさらなる情報(例えば部分904における)を提供するための領域インターフェース900を示す。部分904における追加情報は領域902の関連製品に関し、グラフィックス及び/又はテキスト、カラースウォッチ画像等を含む。この実施形態では、製品推奨インターフェース(例えば図10A)に進むために、制御906が提供される(例えば「私の推薦を見る」)。制御部908は別の領域インターフェース、例えば眉(例えば図9B)に進むために設けられる。
本実施形態において、図9Bが領域インターフェース910を示し、額の顔属性に関連する領域912を視覚的に強調し、額の形状、額の色(例えば「額の形&色情報メイクアップチップ」)などの更なる情報を部分914に提供する。部分914における追加情報は領域912の関連製品に関し、グラフィックス及び/又はテキスト、カラースウォッチ画像等を含む。製品推奨インターフェース(例えば図10A)に進むために、制御906が提供される(例えば「私の推薦を見る」)。コントロール918は、目のためなどの別の領域インターフェース(目のための領域インターフェースは図示せず)に進むために提供される。コントロール920は特定の領域インターフェースまたは「私の結果」インターフェース(例えば図8)に進むために提供される。特定の領域インターフェースに進むことは、例えばコントロール920のうちの1つをスワイプするか、又はテーピングすることによってナビゲートされ得る。
領域界面(例えば900及び910)について、関心領域(902,912)はソース画像420上に(例えばオーバーレイを介して)位置する。画像処理は例えば領域を特定するために特徴検出を実行する。本実施形態では、ソース画像420をオーバーレイしてそれぞれの修正画像420B,420Cを定義するように、それぞれのマスクが定義される。本実施形態では、マスクが例えばそれぞれの領域に焦点を合わせるために、関心領域(902、912)の外側の領域を暗くする。
図示されていないが、本実施形態では唇および目のための領域インターフェースが設けられている。唇領域インターフェースはリップサイズ情報を提示し、唇形状情報を示し、かつ/または記述する。目領域インターフェースは、目の形状、まぶた及び目の色情報を提示する。図示された領域インタフェースの全てと同様に、(例えば領域に関連付けられた適用可能な顔属性に関連する)製品チップも提供される。
本実施形態では、図10A~10Dが推奨インターフェースの初期画面1000、1010、1020及び1030を示す。画面1000、1010、1020および1030は様々な製品情報を提示し、前進制御(例えば「次へ」1002)を含む。スクリーン1000は領域またはアイテム情報に進むためのコントロール1004A及び1004Bを有する「パーソナルルック導入画面」を提供し、全体ルック情報をそれぞれ提供する。図10Bのルック選択インターフェース1010は「ルック1」、「ルック2」、「ルック3」及び「ルック4」(例えば全体的な顔の影響を達成するためにそれぞれの顔の影響を有する所定の又は選択されたメイクアップ製品グループ)などの所定の「ルック」に対する選択肢(例えば選択コントロール1012A、1012B、1012C及び1012Dに関連する)を提示する。図では一般的にラベル付けされているが、各ルックは描写的又は空想的なラベル(例えば「ドラマチック」、「エレガント」、「ビジネス」、「ランニング・レイト」など)を有することができ、メイクアップタイプは各(顔)領域に関連付けられ、インターフェースを操作し、追加の情報提示を要求するために選択可能(例えば呼び出し可能)である。情報は、例えばデータベース416に記憶される。この実施形態では、外観がそれを適用する製品または技法が1又は複数の特定の顔属性に関連付けられる(例えば推奨される)など、顔属性情報にキー付けされる(関連付けられて記憶される)。例えば楕円形の顔、アーモンドの目、厚い眉、ブラウンの眉、赤色のアンダートーン、ブロンドの髪等を有する顔の特定の外観を達成するために、顔、目、眉および唇に適用可能な製品が決定される。
本実施形態では、肌のタイプ選択インターフェース(例えば画面1020)は「タイプ1」、「タイプ2」、「タイプ3」及び「タイプ4」などのスキンタイプ選択のための選択肢(例えば選択コントロール1022A、1022B、1022C及び1022Dに関連する)を提示する。図では一般的にラベル付けされているが、各タイプは描写的または空想的なラベルを有することができる。本実施形態では、肌のタイプが正常、乾燥、油性、これらの組み合わせ等の属性値に関する。本実施形態では、肌のタイプが画像処理により自動的に決定されないユーザによって提供されるデータである。
本実施形態では、製品推奨が肌のタイプに応答する。次へ1002を選択することは、アプリケーション402を呼び出し、ルック及び肌のタイプ情報を要求するサーバ412へのメッセージ等により製品推奨を決定するために使用する、ルック及び肌のタイプ情報を提供する。本実施形態では、サービスへのメッセージがソース画像420について決定されたユーザの顔属性情報を提供する。一実施形態では、ソース画像420が効果の適用に使用するため等に提供される。ソース画像420を示す画面1030(図10D)は製品推奨を受信するのを待つ場合等に(例えばラベル「ルックマッチ」を用いて)提示される。画面1030は、図11Aの画面100においてシミュレートされた製品推奨と比較するためのベースライン(例えばメイクアップ基準なし)を提供する。
本実施形態において、図11A及び図11Bは現実がシミュレートされる製品推奨インターフェース(例えば1100A及び1100Bとして2つの部分に示される画面1100)を示す。顔属性に一致すると決定された製品推奨を含む選択されたルックは、ソース画像420上でシミュレートされ、画像420Dを提示する。
本実施形態では、画面1100が所望の(選択された)外観(例えば1102)を達成するための製品のマッチングに使用される顔属性情報(例えば1102)を提示する。この実施形態では、1002の情報がユーザのそれぞれの属性(例えばユーザ詳細1及びユーザ詳細2)のうちの2つにとって、ルックが理想的であることを示す。本実施形態では、特定のルックについての一般的な情報(例えば1104)が提供される。一般的な情報はこの実施形態ではルックの名前および特徴を含み、ルックの製品およびチュートリアル情報を含む。共有/保存コントロール1106は、シミュレートされた画像420Dを保存または共有するために提供される。
本実施形態では、画面1100が、部分1110、1112、1114及び1116における顔の領域(例えば全体的な顔、目、眉および唇)の各々についての推奨情報を提示するために分割される。目のための部分1112は簡潔にするために、部分的にのみ表されているが、他の部分1110、1114及び1116と同様に構成されていることに留意されたい。部分1110、1114及び1116は特定の製品推奨(例えば1110A、1114A及び1116Aにおける製品画像、色、名前、価格を含む)、ならびに1110B、1114B及び1116Bにおける特定の製品チュートリアルを示す。本実施形態では、各それぞれの製品が製品を商品としてショッピングカートに追加するために、それぞれの購入コントロール(例えば1110C、1114C及び1116Cで「カートに追加」)に関連付けられる。提示すべき情報の量に応答して、一例として、部分1110、1112、1114及び1116のいずれかは、(例えば左または右へのスワイプジェスチャを介して)スクロール可能であり、例えば領域のための2つ以上の製品、チュートリアル及び購入コントロールを提示する。ステップカウント及び/又はボタン表示(例えば1110D、1114D及び1116D)は、画面1100上に現在提示されているそのような情報内の位置を示すのに有用である。
本実施形態では、コントロール1118の操作により全ての製品がショッピングカートに追加される。例えば製品属性に応答して、個々の製品は選択可能な特徴を有する(例えばサイズ又は任意の他の選択可能な属性を選択するために)。部分1110、1112、114及び1116のいずれかにおける、それぞれの製品のための関連するコントロール(図示せず)を選択することにより、インターフェースは、製品選択インターフェース1120を提示する。例えば部分1110において、製品推奨1110Aに関連するコントロールを選択することで、製品詳細選択1122が推奨1110Aを置き換え、詳細選択1122を使用して選択を確認する選択コントロール1124がカートに追加コントロール1110Cを置き換える、その製品推奨のための1120に類似する適用可能な製品セレクタインターフェースを呼び出す。
コントロール1126(例えば「私のルックの選択」)は様々なルック間で、又は様々なルック特徴もしくはコンテキストのためのようなルック内で移動するように動作可能である。本実施形態では、コンテキストが時刻、イベント、場所などに関する。呼び出しコントロール1126は、それぞれ、関連する顔効果の新しい製品推奨および新しい現実シミュレーションをもたらす。検索コントロール(1128)(例えば「メイクアップファミリーの検索」)は、追加の製品(インターフェースは図示せず)を示す。
本実施形態では、画面1110が、ルック/変更の選択を変更する(例えばルックインターフェースをナビゲートする際に1つの段階に戻る)、最初からやり直す(例えば画面700で新しい画像キャプチャを開始する)、結果に戻る(例えば画面800)、終了する(インターフェースを閉じる、図示せず)などの推奨インターフェースのための様々なナビゲーション制御1130A、1130Bを提示する。
一実施形態ではプライバシーに関連する懸念のために、412又は414等のサーバはソース画像またはソース画像を処理した後等の任意の導出された画像を永続的に記憶しない。本実施形態では、アプリケーション404が顔属性処理および製品シミュレーションの要求に(関連付けて)ソース画像を送信する。
顔属性が決定されると、ユーザエクスペリエンスを支援し、適用可能なユーザインターフェースの動作を定義するために、電子商取引サービスにおけるいくつかの目的に有用である。例えばアプリケーション及びそのインターフェースは、1又は複数を実行するように構成可能である。1.ユーザがファンデーションの色合いを間違って見ている場合は、肌検出を使用して仮想な試着にヒントを追加する。2.髪の色検出を使用して、達成可能なカラーを推奨する。3.髪の色検出を使用して、トレンドイメージから髪の色を抽出し、関連するカラーを推奨する。4.より多くの目のパラメータを使用して「完全な目の外観」を行う。5.共有特性に基づいてユーザに適合する類似の外観を見つける。6.顔/髪の毛特徴を使用して、ライフスタイル、個人的ファッション嗜好または他のユーザ特徴を予測する。7.ユーザがルックを決定した後、彼らの顔/髪の特徴に基づいて達成するためのルーチン/アクションを提供する。8.魅力度の評価を計算する。
図12は、一実施形態による動作1200を示すフローチャートである。動作1200は、例えば本明細書で説明される実施形態に従って、訓練および訓練データセットに関連する方法を提供する。ステップ1202において、動作は推論時間画像(inference time image)から属性を予測する属性分類器を訓練するための属性データセットを記憶し、属性データセットは複数の属性を示す複数の画像を備え、属性の各々は複数のそれぞれの属性値を有する。ステップ1204において、動作は複数の画像の各画像のデータセットにソフトラベルを格納し、ソフトラベルは独立して動作する複数のそれぞれの人間画像アノテータ(human image annotators)によって決定されるように、属性ごとにそれぞれの属性値を含む。ステップ1206において、動作は、属性分類器を訓練するための属性データセットを提供する。記憶動作は一実施形態では限定はされないが、データベース等のデータ記憶装置に記憶する。
一実施形態では、動作1200が(例えばステップ1208において)属性データセットを使用して属性分類器(attribute classifier)を訓練することをさらに含むことができる。一実施形態では訓練するとき、方法はソフトラベルの中から真を選択するために「真」解決ルールを使用することを含む。
一実施形態では、属性が属性の固有の関係および異種性に従って複数のそれぞれの属性グループに関連付けられ、属性分類器は属性グループの各々について1つずつ、複数のサブモデルを備える。一実施形態では、それぞれの属性グループのうちの1つは色ベースの属性のための色属性グループである。一実施形態では、それぞれの属性グループのうちの1つは形状ベースの属性のための形状属性グループである。
一実施形態では、属性は顔属性である。一実施形態では、顔属性が表1の属性を含む。
動作1200の特徴および任意の関連する実施形態はそれに応じて構成されるとき、コンピューティングデバイスの態様およびコンピュータプログラム製品の態様に従って提供されることを理解されたい。
図13は、一実施形態による動作1300を示すフローチャートである。動作1300は、例えば顔属性を決定するための方法を提供する。動作1300はステップ1302において、ディープラーニング及び教師付き回帰を実行するネットワークモデルを使用して顔のソース画像を処理し、顔属性の各々について予測を出力する。一実施形態では、ネットワークモデルがディープラーニングを実行して、顔属性を予測するためにそれぞれの分類器による分類のための共有特徴の特徴ベクトルを生成する残差ブロックを備える畳み込みニューラルネットワーク(CNN)モデルを備える。
一実施形態では、顔属性が顔属性の固有の関係および異質性に従って複数のそれぞれの属性グループに関連付けられ、ソース画像は属性グループのそれぞれの1つのために構成されたそれぞれのネットワークモデルによって処理される。一実施形態ではそれぞれの属性グループのうちの1つは色ベースの顔属性のための色属性グループであり、ソース画像は色ベースのネットワークモデルによって処理される。一実施形態ではそれぞれの属性グループのうちの1つは形状ベースの顔属性のための形状属性グループであり、ソース画像は形状ベースのネットワークモデルによって処理される。
一実施形態では、動作1300がステップ1304において、顔属性のそれぞれの1つについて、それぞれの分類器によって処理されるべき特徴ベクトルを複製する。
一実施形態では、ネットワークモデルが複数のそれぞれの分類器を備え、それぞれの分類器の各々は1又は複数の完全に接続された線形レイヤを備え、それぞれの分類器の各々は顔属性のそれぞれ1つの予測を出力として提供する。一実施形態では、複数のそれぞれの分類器が顔属性を提供するために並行して実行する。
一実施形態では、モデルが予測レイヤのトリミングされた、適応され事前訓練されたResNetベースの画像処理ネットワークモデルを含む。
一実施形態では、ステップ1306において、動作は画像検索、顔認識ならびに製品および/またはサービス推奨のうちのいずれか1つを実行するための(例えばアプリケーションによる使用のための)顔属性を提供する。
一実施形態では、ステップ1308において、動作は画像検索、顔認識ならびに製品および/またはサービス推奨のうちのいずれか1つを実行する。
一実施形態では、アプリケーションが顔属性に応答して製品および/またはサービス推奨を実行し、アプリケーションは推奨される製品またはサービスに関連する効果をシミュレートするようにソース画像を修正し、ユーザエクスペリエンスに仮想的な試着を提供する。
動作1300の特徴および任意の関連する実施形態は、それに応じて構成されるとき、コンピューティングデバイスの態様およびコンピュータプログラム製品の態様に従って提供されることを理解されたい。
図14は、一実施形態による動作1400を示すフローチャートである。動作1400は、顔画像の顔属性を決定する方法を提供する。ステップ1402において、動作は、残差ブロックを有する畳み込みニューラルネットワーク(CNN)ベースのバックボーンネットワークモデルを使用して顔のソース画像を処理して、共有特徴の特徴ベクトルを生成する。ステップ1402では、動作が、複数(K個)の分類器を使用して特徴ベクトルを処理し、K個のそれぞれの顔属性が決定され、それぞれの分類器は、K個のそれぞれの顔属性のうちの1つの予測を出力するために1又は複数の完全に接続された線形レイヤと予測ブロックとを備える。
一実施形態によれば、処理ステップ(1402,1404)は、顔のN個のソース画像に対して実行され、予測解決ルールを使用して、各顔属性のN個の予測からK個のそれぞれの顔属性の最終予測を決定する。
一実施形態によれば、CNNベースのバックボーンネットワークモデルは、第1のネットワークモデルと第2のネットワークモデルとを含む。一実施形態によれば、第1のネットワークモデルは、色ベースの顔属性についてソース画像を処理して、色ベースの顔属性を予測するように構成された複数の分類器のそれぞれによる処理のための色ベースの特徴ベクトルを生成する。
一実施形態によれば、第2のネットワークモデルは、形状ベースの顔属性についてソース画像を処理して、形状ベースの顔属性を予測するように構成された複数の分類器のそれぞれによる処理のための形状ベースの特徴ベクトルを生成する。
一実施形態によれば、特徴ベクトルは、K個の分類器による並列処理のために複製される。
一実施形態では、ステップ1406において、動作は画像検索、顔認識、ならびに製品および/またはサービス推奨のうちのいずれか1つを実行するための(例えばアプリケーションによる使用のための)顔属性を提供する。
一実施形態では、ステップ1408において、動作は画像検索、顔認識ならびに製品および/またはサービス推奨のうちのいずれか1つを実行する。
一実施形態では、アプリケーションが顔属性に応答して製品および/またはサービス推奨を実行し、アプリケーションは推奨される製品またはサービスに関連する効果をシミュレートするようにソース画像を修正し、ユーザエクスペリエンスに仮想的な試着を提供する。
動作1400の特徴および任意の関連する実施形態はそれに応じて構成されるとき、コンピューティングデバイスの態様およびコンピュータプログラム製品の態様に従って提供されることを理解されたい。
図15は、一実施形態による動作1500を示すフローチャートである。動作1500は、現実をシミュレートするための方法を提供する。1502において、動作は、顔のソース画像から複数の顔属性を決定し、顔属性分類ネットワークモデルを使用してソース画像を処理する。1504において、動作は、顔属性のうちの少なくとも1つに応答して、顔に適用するための少なくとも1つの顔効果を決定する。動作(1506)は、ソース画像を処理して、少なくとも1つの顔効果を表示のために顔に適用する。
一実施形態では、動作1500の顔属性が、そのようなそれぞれの動作1200又は1300の任意の関連する実施形態を含む、それぞれの動作1200又は1300を使用して決定される。動作1500は、従って、任意の関連する実施形態を含むそのような動作1200又は1300を実行することを含み得る。
一実施形態では、少なくとも1つの顔効果が顔面に適用される少なくとも1つのメイクアップ製品および/または技法のシミュレーションである。
一実施形態では、少なくとも1つの顔効果を適用するためにソース画像を処理することは、顔効果を適用するように構成されたディープラーニングネットワークを使用することを含む。
一実施形態では、動作1500のステップ1508が、顔属性に関連するメイクアップ製品および/または技法を記憶するデータストアから、1又は複数のメイクアップ製品および/または技法を選択するために、顔属性のうちの少なくとも1つを使用する。
動作1500の特徴および任意の関連する実施形態は、それに応じて構成されるとき、コンピューティングデバイスの態様およびコンピュータプログラム製品の態様に従って提供されることを理解されたい。
図16は、一実施形態による動作1600を示すフローチャートである。動作1600は、電子商取引サービスのために製品を推奨する方法を提供する。ステップ1602において動作は、顔のソース画像から決定された複数の顔属性を受信し、ソース画像は、複数の顔属性を生成するために顔属性分類ネットワークモデルを使用して処理される。1604において動作は、製品に適した顔属性に関連した製品を記憶するデータストアから、少なくとも1つの製品を選択するために、少なくともいくつかの顔属性を使用する。1606において動作は、少なくとも1つの製品を、製品を購入するための電子商取引インターフェースにおける提示のための推奨として提供する。
一実施形態では、動作1600の顔属性がそのようなそれぞれの動作1200又は1300の任意の関連する実施形態を含むそれぞれの動作1200又は1300を使用して決定される。動作1600は、従って、任意の関連する実施形態を含むそのような動作1200又は1300を実行することを含み得る。
一実施形態では、製品がメイクアップ製品を含む。
一実施形態では、メイクアップ製品が所定のメイクアップルックを定義するためにデータストア内で様々に関連付けられ、動作(図示せず)は所定のメイクアップルックのうちの1つの識別を受信し、顔属性のうちの少なくともいくつかを使用するステップは、少なくとも1つの製品を選択するときに、所定のメイクアップルックのうちの1つに応答する。一実施形態では、メイクアップ製品の各々が複数のメイクアップタイプのうちの1つに関連付けられ、方法は推奨を定義するために、メイクアップタイプの各々について、顔属性に応答して少なくとも1つの製品を選択することを含む。一実施形態では、メイクアップタイプが、顔製品タイプ、目製品タイプ、眉製品タイプ及び唇製品タイプを含む。
一実施形態では、動作(図示せず)が推奨製品を使用する技術を更に推奨する。
一実施形態では例えば電子商取引インターフェースを含むことができるインターフェースを介して、動作(図示せず)は、ソース画像を処理することによって顔に適用される少なくとも1つの製品のシミュレーションを提供する。
一実施形態では、動作(図示せず)は、推奨製品の少なくともいくつかを購入するための電子商取引ショッピングサービスを提供する。
動作1600の特徴および任意の関連する実施形態はそれに応じて構成されるとき、コンピューティングデバイスの態様およびコンピュータプログラム製品の態様に従って提供されることを理解されたい。
本明細書に示され、説明されるコンピューティングデバイス及びインターフェースは、複数の異なる態様を提供する。例えば一実施形態ではコンピューティングデバイスがシステムの構成要素など、構成可能であり、システムはそれぞれの機能を実行するように構成された処理回路を含む1又は複数の特定の機能ユニットを備える。
1つのそのような態様では、図17に示すように、顔のソース画像から複数の顔属性を抽出し、抽出した複数の顔属性に基づいて1又は複数の顔効果を生成するように構成された処理回路を含む顔属性ユニット1702と、少なくとも1つの顔効果をソース画像に適用し、効果が適用されたソース画像の1又は複数の仮想インスタンスを電子商取引インターフェース上で生成するように構成された処理回路を含む顔効果ユニット1704とを含むシステム1700が提供される。
一実施形態では、システムが複数の顔属性のうちの1又は複数に関連して製品を記憶するデータストアから少なくとも1つの製品を決定し、製品を購入するために電子商取引インターフェース上で製品推奨の1又は複数の仮想インスタンスを生成するように構成された処理回路を含むユーザエクスペリエンスユニット1706をさらに備える。
一実施形態では、顔属性ユニットがディープラーニング及び教師付き回帰を実行して、顔のソース画像から複数の顔属性の各々についての予測を出力するように構成されたネットワークモデルを実行するように構成された処理回路を含む。
一実施形態では、顔効果ユニットは、効果が適用されたソース画像の少なくとも一部と、メイクアップ製品またはメイクアップ適用技術のうちの少なくとも1つとを含む仮想表現(virtual representation)を生成するように構成された処理回路を含む。
一実施形態では、顔効果が顔属性のうちの1つに応答するアノテーションを含む。一実施形態ではアノテーションが顔属性の顔属性値を含み、及び/又はアノテーションが顔属性が決定されるソース画像の領域に位置する(例えばソース画像上に(例えばオーバーレイとして)位置する)。
一実施形態では、顔属性ユニット1702によって決定される顔属性が、動作1200又は1300それぞれの任意の関連する実施形態を含む、動作1200又は1300それぞれを使用して決定される。従って、顔属性ユニットは、任意の関連する実施形態を含む動作1200又は1300を実行するように構成され得る。
他の実施形態では、他の実用的な用途が本明細書に記載の顔属性分類器を使用する。他の実施形態は、画像検索、顔認識などを含む。画像検索の主なタスクは、非常に大きなデータベースから画像を検索することである(この大きなサイズでは、順次検索は通常機能しない)。一実施形態では、顔属性が画像データベースに記憶された画像について計算され、それに応じてキー入力される。検索のための候補画像もまた、計算された属性を有し、これらは検索基準を狭くするため、又は、信頼度一致データ(confidence match data)を定義するため、又は、検索結果を順序付けるために使用される(例えば候補画像は1つの特定の記憶された画像の7つの顔属性のうちの5つと、第2の特定の記憶された画像の7つのうちの6つと一致し、その結果は検索結果を順序付けるため、又は(部分的に)一致する記憶された画像のうちの1つを選択するために使用される。
例えばResNetのようなCNNモデルは画像を「特徴」として表すことができ、これは、元の画像の圧縮された表現であり、従って、通常、はるかに小さく、検索がより容易である。
顔認識では、そのようなタスクが主に、同じアイデンティティ(人物)の異なる画像を見つけること、分類すること、又は、グループ化することに関する。同様の技法は、顔属性を使用して実行可能である。
本開示は、以前の著作物またはデータセットにおいて以前にカバーされなかった(顔の)属性の特別なセットを予測する方法を可能にする、包括的なデータセットのコレクションを説明する。以前の研究(例えば「CelebFaces Attributes dataset」(CelebA)データセット(URL:mmlab.ie.cuhk.edu.hk/projects/CelebA.htmlで入手可能な香港の中国大学のマルチメディア研究所からの顔属性データセット)は畳み込みニューラルネットワーク(CNN)を以前に探索したが、そのようなものは各属性に対して異なるブランチを設定しなかった。即ち異なる属性ごとに別個の分類器ヘッドは使用されなかった。色および形状などの固有の関係を有する異なる属性に対して、異なるサブモデルを使用しなかった。
本明細書に示され、説明されるようなデータセットの収集の実施形態では、訓練ワークフローがモデル精度を改善するためにソフトラベルを使用した。訓練から得られる属性分類子は、人間のアノテーションと同等である。
実用的な実装は、本明細書に記載される特徴のいずれかまたは全てを含むことができる。これらおよび他の態様、特徴および様々な組合せは、機能を実行するための方法、機器、系、手段および本明細書で説明する特徴を組み合わせる他の方法として表され得る。いくつかの実施形態について説明した。それにもかかわらず、本明細書に記載されるプロセスおよび技法の趣旨および範囲から逸脱することなく、様々な修正がなされ得ることが理解されよう。加えて、他のステップを提供することができ、又はステップを記載されたプロセスから排除でき、他の構成要素を記載されたシステムに追加するか、又は、そこから除去できる。従って、他の態様は特許請求の範囲の範囲内にある。
本明細書の説明および特許請求の範囲を通して、単語「含む(comprise)」及び「含む(contain)」及びそれらの変形は「含むが、限定されない(including but not limited to)」を意味し、他の構成要素、整数またはステップを排除することを意図しない(。本明細書全体を通して、単数形は文脈が他のことを必要としない限り、複数形を包含する。特に、不定冠詞が使用される場合は本明細書がその状況が他のことを要求していない限り、単数だけでなく複数も意図していると理解されたい。
本発明の特定の態様、実施形態または実施例に関連して説明される特徴、整数、特性または群はそれらと互換性がない場合を除き、任意の他の態様、実施形態または実施例に適用可能であると理解されるべきである。本明細書に開示される特徴の全て(任意の添付の特許請求の範囲、要約および図面を含む)および/またはそのように開示される任意の方法またはプロセスのステップの全ては、そのような特徴および/またはステップの少なくともいくつかが相互に排他的である組合せを除いて、任意の組合せで組み合わせることができる。本発明は、前述の任意の例または実施形態の詳細に限定されない。本発明は、本明細書(添付の特許請求の範囲、要約および図面を含む)に開示される特徴の任意の新規な1つまたは任意の新規な組み合わせ又は開示される任意の方法またはプロセスのステップの任意の新規な1つまたは任意の新規な組み合わせに及ぶ。
参考文献
1.Deep Residual Learning for Image Recognition", He, Kaiming et. al, 2015-12-10, available at URL arxiv.org/abs/1512.03385.

2. A Survey of Deep Facial Attribute Analysis, Xin Zheng, Xin et. al, Submitted on 26 Dec 2018 (v1), last revised 27 Oct 2019 (this version, v3) URL arxiv.org/abs/1812.10265.

3.Deep Learning Face Attributes in the Wild, Liu, Ziwei et. al, Submitted on 28 Nov 2014 (v1), last revised 24 Sep 2015 (this version, v3), URL: arxiv.org/abs/1411.7766.

Claims (46)

  1. 顔の属性を決定する方法であって、
    ディープラーニング及び教師付き回帰を実行するネットワークモデルを使用して顔のソース画像を処理し、顔属性の各々について予測を出力することと、
    前記ネットワークモデルは、ディープラーニングを実行する残差ブロックを含む畳み込みニューラルネットワーク(CNN)モデルを含み、前記顔属性を予測するために、それぞれの分類器による分類のための共有特徴の特徴ベクトルを生成することとを含むことを特徴とする方法。
  2. 前記顔属性は、前記顔属性の固有の関係および異質性に従って複数のそれぞれの属性グループに関連付けられ、前記ソース画像は、前記属性グループのうちのそれぞれの1つのために構成されたそれぞれのネットワークモデルによって処理されることを特徴とする請求項1記載の方法。
  3. 前記それぞれの属性グループのうちの1つは、色ベースの顔属性のための色属性グループであり、前記ソース画像は、色ベースのネットワークモデルによって処理されることを特徴とする請求項2記載の方法。
  4. 前記それぞれの属性グループのうちの1つは、形状ベースの顔属性のための形状属性グループであり、前記ソース画像は、形状ベースのネットワークモデルによって処理されることを特徴とする請求項2又は3に記載の方法。
  5. 前記顔属性のそれぞれについて、それぞれの分類器によって処理されるべき前記特徴ベクトルを複製することを含むことを特徴とする請求項1から4のいずれかに記載の方法。
  6. 前記ネットワークモデルが複数のそれぞれの分類器を備え、前記それぞれの分類器の各々が、1又は複数の完全に接続された線形レイヤを備え、前記それぞれの分類器の各々が前記顔属性のそれぞれの1つの予測を出力として提供することを特徴とする請求項1から5のいずれかに記載の方法。
  7. 前記複数のそれぞれの分類器は、前記顔属性を提供するために並行して実行することを特徴とする請求項6記載の方法。
  8. 前記モデルは、予測レイヤのトリミングされた、適応され事前訓練されたResNetベースの画像処理ネットワークモデルを含むことを特徴とする請求項1から7のいずれかに記載の方法。
  9. 画像検索、顔認識ならびに製品および/またはサービス推薦のうちのいずれか1つを実行するための前記顔属性を提供することを含むことを特徴とする請求項1から8のいずれかに記載の方法。
  10. アプリケーションが前記顔属性に応答して前記製品および/またはサービス推奨を実行し、前記アプリケーションが、推奨される製品またはサービスに関連する効果をシミュレートするように前記ソース画像を修正して、ユーザエクスペリエンスに仮想的な試着を提供することを特徴とする請求項9記載の方法。
  11. 顔画像の顔の属性を決定する方法であって、
    残差ブロックを有する畳み込みニューラルネットワーク(CNN)ベースのバックボーンネットワークモデルを使用して顔のソース画像を処理して、共有特徴の特徴ベクトルを生成することと、
    複数(K個)の分類器を使用して特徴ベクトルを処理し、K個のそれぞれの顔属性が決定され、それぞれの分類器は、K個のそれぞれの顔属性のうちの1つの予測を出力するために1又は複数の完全に接続された線形レイヤと予測ブロックとを備えることとを含むことを特徴とする方法。
  12. 前記顔のN個のソース画像に対して前記処理ステップを実行するステップと、各顔属性の前記N個の予測から前記K個のそれぞれの顔属性の最終予測を決定するために予測解決ルールを使用することとを含むことを特徴とする請求項11記載の方法。
  13. 第1のネットワークモデルが、色ベースの顔属性について前記ソース画像を処理して、色ベースの顔属性を予測するように構成された前記複数の分類器のそれぞれによって処理するための色ベースの特徴ベクトルを生成することを特徴とする請求項11又は12に記載の方法。
  14. 第2のネットワークモデルが、形状ベースの顔属性について前記ソース画像を処理して、形状ベースの顔属性を予測するように構成された前記複数の分類器のそれぞれによって処理するための形状ベースの特徴ベクトルを生成することを特徴とする請求項11から13のいずれかに記載の方法。
  15. 前記K個の分類器による並列処理のために前記特徴ベクトルを複製することを特徴とする請求項11から14のいずれかに記載の方法。
  16. 現実をシミュレートする方法であって、
    顔のソース画像から複数の顔属性を決定し、顔属性分類ネットワークモデルを使用してソース画像を処理することと、
    前記顔属性のうちの少なくとも1つに応答して前記顔に適用するための少なくとも1つの顔効果を決定することと、
    表示のために、少なくとも1つの顔効果を顔に適用するために、ソース画像を処理することとを含むことを特徴とする方法。
  17. 前記顔属性が、請求項1から15のいずれかに記載の方法を使用して決定されることを特徴とする請求項16記載の方法。
  18. 前記少なくとも1つの顔効果は、前記顔に適用される少なくとも1つのメイクアップ製品および/または技法のシミュレーションであることを特徴とする請求項16又は17に記載の方法。
  19. 前記少なくとも1つの顔効果を適用するために前記ソース画像を処理することは、前記顔効果を適用するように構成されたディープラーニングネットワークを使用することであることを特徴とする請求項16から18のいずれかに記載の方法。
  20. 前記顔属性のうちの少なくとも1つを使用して、前記顔属性に関連してメイクアップ製品および/または技法を記憶するデータストアから1又は複数のメイクアップ製品および/または技法を選択することを含むことを特徴とする請求項18又は19に記載の方法。
  21. 電子商取引サービスのための製品を推奨する方法であって、
    顔のソース画像から決定された複数の顔属性を受信し、前記ソース画像は、前記複数の顔属性を生成するために、顔属性分類ネットワークモデルを使用して処理されることと、
    製品に適した顔属性と関連して製品を記憶するデータストアから少なくとも1つの製品を選択するために、少なくともいくつかの前記顔属性を使用することと、
    少なくとも1つの製品を、製品を購入するための電子商取引インターフェースにおける提示のための推奨として提供することとを含むことを特徴とする方法。
  22. 前記顔属性が、請求項1から15のいずれかに記載の方法を使用して決定されることを特徴とする請求項21記載の方法。
  23. 前記製品が、メイクアップ製品を含むことを特徴とする請求項21又は22に記載の方法。
  24. 前記メイクアップ製品は、所定のメイクアップルックを定義するために、データストア内で様々に関連付けられ、
    当該方法は、所定のメイクアップルックのうちの1つの識別を受信することを含み、
    前記顔属性のうちの少なくともいくつかを使用するステップは、少なくとも1つの製品を選択するときに、前記所定のメイクアップルックのうちの1つに応答するものであることを特徴とする請求項23記載の方法。
  25. 前記メイクアップ製品の各々が、複数のメイクアップタイプのうちの1つに関連付けられ、当該方法が前記推奨を定義するために、前記メイクアップタイプの各々について、前記顔属性に応答して、少なくとも1つの製品を選択することを含むことを特徴とする請求項24記載の方法。
  26. 前記メイクアップタイプが、顔製品タイプ、目製品タイプ、眉製品タイプ及び唇製品タイプを含むことを特徴とする請求項24記載の方法。
  27. 推奨製品を使用するための技術を更に推奨することを特徴とする請求項21から26のいずれかに記載の方法。
  28. 前記電子商取引インターフェースが、前記ソース画像を処理することによって前記顔に適用される前記少なくとも1つの製品のシミュレーションを提供することを特徴とする請求項21から27のいずれかに記載の方法。
  29. 前記推奨製品のうちの少なくともいくつかを購入するための電子商取引ショッピングサービスを提供することを特徴とする請求項21から28のいずれかに記載の方法。
  30. 請求項1から28のいずれかの方法を実行するように構成されたコンピューティングデバイスを備えることを特徴とするシステム。
  31. システムであって、
    顔のソース画像から複数の顔属性を抽出し、抽出された複数の顔属性に基づいて1又は
    複数の顔効果を生成するように構成された処理回路を含む顔属性ユニットと、
    少なくとも1つの顔効果を前記ソース画像に適用し、効果が適用されたソース画像の1又は複数の仮想インスタンスを電子商取引インターフェース上で生成するように構成された処理回路を含む顔効果ユニットとを含むことを特徴とするシステム。
  32. 複数の顔属性のうちの1又は複数に関連して製品を記憶するデータストアから少なくとも1つの製品を決定し、製品を購入するために電子商取引インターフェース上で製品推奨の1又は複数の仮想インスタンスを生成するように構成された処理回路を含むユーザエクスペリエンスユニットを更に含むことを特徴とする請求項31記載のシステム。
  33. 前記顔属性ユニットは、ディープラーニング及び教師付き回帰を実行するネットワークモデルを実行して、顔の前記ソース画像から前記複数の顔属性の各々についての予測を出力するように構成された処理回路を含むことを特徴とする請求項31又は32に記載のシステム。
  34. 前記顔効果ユニットは、前記効果が適用されたソース画像の少なくとも一部と、メイクアップ製品またはメイクアップ適用技術のうちの少なくとも1つとを含む仮想表現を生成するように構成された処理回路を含むことを特徴とする請求項31から33のいずれかに記載のシステム。
  35. 前記顔効果は、前記顔属性のうちの1つに応答するアノテーションを含むことを特徴とする請求項31から33のいずれかに記載のシステム。
  36. 前記アノテーションは、前記顔属性の顔属性値を含み、前記アノテーションは、前記顔属性が決定される前記ソース画像の領域に位置することを特徴とする請求項35記載のシステム。
  37. 方法であって、
    推論時間画像から属性を予測する属性分類器を訓練するための属性データセットを記憶すること、前記属性データセットは複数の属性を示す複数の画像を含み、前記属性の各々は複数のそれぞれの属性値を有するものであり、
    前記複数の画像の各々の画像に対する前記データセットにソフトラベルを記憶すること、前記ソフトラベルは独立して動作する複数のそれぞれの人間画像アノテータによって決定される、属性ごとのそれぞれの属性値を含むものであり、
    前記属性分類器を訓練するための前記属性データセットを提供することとを含むことを特徴とする方法。
  38. 前記属性データセットを使用して前記属性分類器を訓練することを更に含むことを特徴とする請求項37記載の方法。
  39. 訓練時に、前記ソフトラベルの中から真を選択するために「真」解決ルールを使用することを含むことを特徴とする請求項38記載の方法。
  40. 前記属性は前記属性の固有の関係および異質性に従って複数のそれぞれの属性グループに関連付けられ、前記属性分類器は前記属性グループの各々について1つずつ、サブモデルを備えることを特徴とする請求項37から39のいずれかに記載の方法。
  41. 前記それぞれの属性グループのうちの1つは、色ベースの属性のための色属性グループであることを特徴とする請求項40記載の方法。
  42. 前記それぞれの属性グループのうちの1つは、形状ベースの属性のための形状属性グループであることを特徴とする請求項40又は41に記載の方法。
  43. 前記属性が顔属性であることを特徴とする請求項37から42のいずれかに記載の方法。
  44. 前記顔属性は、表1の属性を含むことを特徴とする請求項43記載の方法。
  45. 請求項37から43のいずれかに記載の方法を実行するように構成されたコンピューティングデバイスを備えることを特徴とするシステム。
  46. 請求項37から43のいずれかに記載の方法に従って定義された属性分類器を用いて構成されたコンピューティングデバイスを備えることを特徴とするシステム。
JP2022580296A 2020-06-29 2021-06-29 改善された顔属性分類およびその使用のためのシステム及び方法 Pending JP2023531264A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063045303P 2020-06-29 2020-06-29
US63/045,303 2020-06-29
FR2010128 2020-10-05
FR2010128A FR3114895B1 (fr) 2020-10-05 2020-10-05 Systèmes et procédés pour une classification améliorée des attributs faciaux et leurs applications
PCT/EP2021/067883 WO2022002961A1 (en) 2020-06-29 2021-06-29 Systems and methods for improved facial attribute classification and use thereof

Publications (2)

Publication Number Publication Date
JP2023531264A true JP2023531264A (ja) 2023-07-21
JPWO2022002961A5 JPWO2022002961A5 (ja) 2024-06-27

Family

ID=76765172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022580296A Pending JP2023531264A (ja) 2020-06-29 2021-06-29 改善された顔属性分類およびその使用のためのシステム及び方法

Country Status (6)

Country Link
US (2) US11978242B2 (ja)
EP (1) EP4150513A1 (ja)
JP (1) JP2023531264A (ja)
KR (1) KR20230025906A (ja)
CN (1) CN116097320A (ja)
WO (1) WO2022002961A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200626A (zh) * 2020-09-30 2021-01-08 京东方科技集团股份有限公司 确定推荐产品的方法和装置、电子设备、计算机可读介质
CN114663552B (zh) * 2022-05-25 2022-08-16 武汉纺织大学 一种基于2d图像的虚拟试衣方法
FR3145226A1 (fr) * 2023-01-19 2024-07-26 L'oreal Systèmes, dispositif et procédés collaboratifs pour la caractérisation des cheveux bouclés
WO2024073041A1 (en) * 2022-09-30 2024-04-04 L'oreal Curl diagnosis system, apparatus, and method
FR3145228A1 (fr) * 2023-01-19 2024-07-26 L'oreal Système, appareil et procédé d’appréciation et de personnalisation de cheveux bouclés
FR3145227A1 (fr) * 2023-01-19 2024-07-26 L'oreal SYSTÈME, APPAREIL ET PROCÉDÉ DE diagnostic de boucle
JP2024069041A (ja) * 2022-11-09 2024-05-21 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
CN115909470B (zh) * 2022-11-24 2023-07-07 浙江大学 基于深度学习的全自动眼睑疾病术后外观预测系统和方法
FR3147890A1 (fr) * 2023-04-17 2024-10-18 L'oreal Capture vidéo multi-caméras pour une mesure précise de carnation
WO2024151984A1 (en) * 2023-01-13 2024-07-18 L'oreal Multi-camera video capture for accurate skin tone measurement
KR102602659B1 (ko) * 2023-05-26 2023-11-15 주식회사 손손컴퍼니 증강현실에 기초한 핏팅 시스템

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013501292A (ja) * 2009-08-04 2013-01-10 ヴェサリス 基準画像に対して対象画像を補正する画像処理方法及びその画像処理装置
US8638993B2 (en) * 2010-04-05 2014-01-28 Flashfoto, Inc. Segmenting human hairs and faces
US9349178B1 (en) * 2014-11-24 2016-05-24 Siemens Aktiengesellschaft Synthetic data-driven hemodynamic determination in medical imaging
US11106896B2 (en) * 2018-03-26 2021-08-31 Intel Corporation Methods and apparatus for multi-task recognition using neural networks

Also Published As

Publication number Publication date
EP4150513A1 (en) 2023-03-22
US11978242B2 (en) 2024-05-07
CN116097320A (zh) 2023-05-09
US20240249504A1 (en) 2024-07-25
KR20230025906A (ko) 2023-02-23
WO2022002961A1 (en) 2022-01-06
US20210406996A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
JP2023531264A (ja) 改善された顔属性分類およびその使用のためのシステム及び方法
US10489683B1 (en) Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
US11497267B2 (en) Systems and methods for full body measurements extraction
US8208694B2 (en) Method and system for image and video analysis, enhancement and display for communication
KR102668172B1 (ko) 메시징 시스템에서의 증강 현실 경험을 위한 물리적 제품들의 식별
US11922661B2 (en) Augmented reality experiences of color palettes in a messaging system
CN108846792B (zh) 图像处理方法、装置、电子设备及计算机可读介质
US11915305B2 (en) Identification of physical products for augmented reality experiences in a messaging system
US20210312678A1 (en) Generating augmented reality experiences with physical products using profile information
US11507781B2 (en) Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
EP4158598A1 (en) Augmented reality content from third-party content
US11461630B1 (en) Machine learning systems and methods for extracting user body shape from behavioral data
WO2022002964A1 (en) High-resolution controllable face aging with spatially-aware conditional gans
Borza et al. A deep learning approach to hair segmentation and color extraction from facial images
JPWO2022002961A5 (ja)
US20230401632A1 (en) Methods and Systems for Initiating a Virtual Try-On Application Running on a Computer System and Providing Interactive Augmented Reality (AR) Graphics
Kutt et al. Evaluation of selected APIs for emotion recognition from facial expressions
JP6320844B2 (ja) パーツの影響度に基づいて感情を推定する装置、プログラム及び方法
Purps et al. Reconstructing facial expressions of hmd users for avatars in vr
Liu et al. Design and implementation of hair recommendation system based on face recognition
CN113298593A (zh) 商品推荐及图像检测方法、装置、设备和存储介质
FR3114895A1 (fr) Systèmes et procédés pour une classification améliorée des attributs faciaux et leurs applications
Curbelo et al. A methodology for realistic human shape reconstruction from 2D images
Patil et al. Automatic Suggestion of Outfits using Image Processing

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240619

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240619