[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2024537064A - Augmented reality makeup design filters - Google Patents

Augmented reality makeup design filters Download PDF

Info

Publication number
JP2024537064A
JP2024537064A JP2024519514A JP2024519514A JP2024537064A JP 2024537064 A JP2024537064 A JP 2024537064A JP 2024519514 A JP2024519514 A JP 2024519514A JP 2024519514 A JP2024519514 A JP 2024519514A JP 2024537064 A JP2024537064 A JP 2024537064A
Authority
JP
Japan
Prior art keywords
transitory computer
memory devices
cosmetic
computer memory
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024519514A
Other languages
Japanese (ja)
Inventor
デビッド ビー. コセコフ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/491,061 external-priority patent/US12342923B2/en
Priority claimed from FR2113547A external-priority patent/FR3130423B1/en
Application filed by LOreal SA filed Critical LOreal SA
Publication of JP2024537064A publication Critical patent/JP2024537064A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Figure 2024537064000001

拡張現実化粧デザインフィルタを生成、共有、及び提示するためのシステム、デバイス、及び方法。1つ又は複数の非一時的なコンピュータメモリデバイスは、コンピューティング回路機構によって実行されると、拡張現実化粧デザインフィルタを生成するための動作をコンピューティング回路機構に実施させる、コンピュータ可読命令を記憶することができる。動作は、1つ又は複数の放射線センサを使用して生体表面のベースライン記述を定義する工程を含むことができ、放射線センサは、コンピューティング回路機構と電子的に結合される。動作は、1つ又は複数の放射線センサを使用して、生体表面への化粧品製剤のアプリケーションを識別する工程を含むことができる。動作は、ベースライン記述を参照して、アプリケーションを記述するトレースを生成する工程を含むことができる。動作は、トレースを出力する工程を含むこともできる。
【選択図】図1

Figure 2024537064000001

Systems, devices, and methods for generating, sharing, and presenting an augmented reality cosmetic design filter. One or more non-transitory computer memory devices can store computer-readable instructions that, when executed by a computing circuitry, cause the computing circuitry to perform operations for generating an augmented reality cosmetic design filter. The operations can include defining a baseline description of a biological surface using one or more radiation sensors, the radiation sensors being electronically coupled to the computing circuitry. The operations can include identifying an application of a cosmetic formulation to the biological surface using the one or more radiation sensors. The operations can include generating a trace describing the application with reference to the baseline description. The operations can also include outputting the trace.
[Selected Figure] Figure 1

Description

関連出願の相互参照 Cross-reference to related applications

本出願は、2021年9月30日に出願された米国特許出願第17/491,061号及び2021年12月15日に出願された仏国特許出願第2113547号の利益を主張するものであり、これらの内容は該出願を参照することよりこの全体が本明細書に援用される。 This application claims the benefit of U.S. Patent Application No. 17/491,061, filed September 30, 2021, and French Patent Application No. 2113547, filed December 15, 2021, the contents of which are incorporated herein by reference in their entireties.

拡張現実化粧デザインフィルタを生成、共有、及び提示するためのシステム、デバイス、及び方法。1つ又は複数の非一時的なコンピュータメモリデバイスは、コンピューティング回路機構によって実行されると、拡張現実化粧デザインフィルタを生成するための動作をコンピューティング回路機構に実施させる、コンピュータ可読命令を記憶することができる。動作は、1つ又は複数の放射線センサを使用して生体表面のベースライン記述を定義する工程を含むことができる。放射線センサは、コンピューティング回路と電子的に結合される。動作は、1つ又は複数の放射線センサを使用して、生体表面への化粧品製剤のアプリケーションを識別する工程を含むことができる。動作は、ベースライン記述を参照して、アプリケーションを記述するトレースを生成する工程を含むことができる。動作は、トレースを出力する工程を含むこともできる。 Systems, devices, and methods for generating, sharing, and presenting an augmented reality cosmetic design filter. One or more non-transitory computer memory devices can store computer-readable instructions that, when executed by the computing circuitry, cause the computing circuitry to perform operations for generating an augmented reality cosmetic design filter. The operations can include defining a baseline description of a biological surface using one or more radiation sensors. The radiation sensors are electronically coupled to the computing circuitry. The operations can include identifying an application of a cosmetic formulation to the biological surface using the one or more radiation sensors. The operations can include generating a trace describing the application with reference to the baseline description. The operations can also include outputting the trace.

いくつかの実施形態では、化粧品製剤のアプリケーションを識別する工程は、放射線センサのうちの1つ又は複数及びベースライン記述を使用して、生体表面に対する化粧品製剤を検出する工程を含む。トレースを生成する工程は、複数の形状タイプを記述する情報を受信する工程と、ベースライン記述を使用して、形状タイプの第1形状タイプを生体表面の少なくとも一部に帰属させる工程と、化粧品製剤のアプリケーションの数値表現を生成する工程(数値表現はベースライン記述に対する位置情報を記述する)と、数値表現を第1形状タイプから形状タイプのうちの第2形状タイプに変換する工程とを含むことができる。生体表面は顔とできる。第1形状タイプ及び第2形状タイプは、顔の特徴を記述することができる。生体表面のベースライン記述を定義する工程は、コンピューティング回路機構と電子的に結合された放射線源を使用して、生体表面に不可視電磁放射線を投影する工程を含むことができる。1つ又は複数の放射線センサは、紫外線、可視光線若しくは赤外線のスペクトル範囲、又はこれらの組み合わせから電磁放射線を検出するように構成されたカメラを含むことができる。 In some embodiments, identifying the application of the cosmetic formulation includes detecting the cosmetic formulation relative to the biological surface using one or more of the radiation sensors and the baseline description. Generating the trace can include receiving information describing a plurality of shape types, attributing a first shape type of the shape types to at least a portion of the biological surface using the baseline description, generating a numerical representation of the application of the cosmetic formulation, the numerical representation describing location information relative to the baseline description, and converting the numerical representation from the first shape type to a second shape type of the shape types. The biological surface can be a face. The first shape type and the second shape type can describe facial features. Defining the baseline description of the biological surface can include projecting invisible electromagnetic radiation onto the biological surface using a radiation source electronically coupled to the computing circuitry. The one or more radiation sensors can include a camera configured to detect electromagnetic radiation from the ultraviolet, visible, or infrared spectral ranges, or a combination thereof.

いくつかの実施形態において、トレースを生成する工程は、生体表面に対するアプリケーションの動きを追跡する工程と、ベースライン記述に対する動きの数値表現を生成する工程とを含む。動作は、化粧品製剤を識別する工程と、化粧品製剤の識別子情報を使用して化粧品製剤の色を定義する工程とを更に含むことができる。動作は、生体表面の表面トーンを推定する工程と、表面トーンを用いて化粧品製剤の製剤トーンを推定する工程と、表面トーンと製剤トーンを使用して化粧品製剤の色を決定する工程とを更に含むことができる。 In some embodiments, generating a trace includes tracking a movement of the application relative to the biological surface and generating a numerical representation of the movement relative to a baseline description. The operations may further include identifying a cosmetic formulation and defining a color of the cosmetic formulation using the identifier information of the cosmetic formulation. The operations may further include estimating a surface tone of the biological surface, estimating a formulation tone of the cosmetic formulation using the surface tone, and determining a color of the cosmetic formulation using the surface tone and the formulation tone.

いくつかの実施形態では、1つ又は複数の非一時的なコンピュータメモリデバイスは、スマートフォンと電子的に結合される。トレースを出力する工程は、トレースをリモートコンピューティングシステムに通信する工程を含むことができる。 In some embodiments, the one or more non-transitory computer memory devices are electronically coupled to the smartphone. Outputting the trace may include communicating the trace to a remote computing system.

拡張現実化粧デザインフィルタを生成する方法は、1つ又は複数の放射線源及び1つ又は複数の放射線センサを用いて生体表面のベースライン記述を定義する工程を含むことができる。本方法は、放射線センサを用いて、生体表面への化粧品製剤のアプリケーションを識別する工程を含むことができる。本方法は、ベースライン記述を参照して、アプリケーションを記述するトレースを生成する工程を含むことができる。本方法は、トレースを出力する工程を含むこともできる。 A method for generating an augmented reality cosmetic design filter can include defining a baseline description of a biological surface using one or more radiation sources and one or more radiation sensors. The method can include identifying an application of a cosmetic formulation to the biological surface using the radiation sensors. The method can include generating a trace describing the application with reference to the baseline description. The method can also include outputting the trace.

いくつかの実施形態において、トレースを生成する工程は、複数の形状タイプを記述する形状情報を受信する工程、形状情報を使用して、形状タイプのうちの第1形状タイプを生体表面の少なくとも一部に帰属させる工程、化粧品製剤のアプリケーションの数値表現を生成する工程(数値表現はベースライン記述に対する位置情報を記述する)、及び数値表現を第1形状タイプから形状タイプのうちの第2形状タイプに変換する工程を含む。いくつかの実施形態において、化粧品製剤のアプリケーションを識別する工程は、化粧品製剤のアプリケータを検出する工程、生体表面に対する化粧品製剤のアプリケータの位置を推定する工程、生体表面に対するアプリケータの動きを追跡する工程、及びベースライン記述に対する動きの数値表現を生成する工程を含む。本方法は更に、生体表面の表面トーンを推定する工程、化粧品製剤の製剤トーンを推定する工程、及び表面トーンと製剤トーンとを用いて化粧品製剤の色を決定する工程を含むことができる。 In some embodiments, generating the trace includes receiving shape information describing a plurality of shape types, using the shape information to attribute a first one of the shape types to at least a portion of the biological surface, generating a numerical representation of the application of the cosmetic formulation, the numerical representation describing the position information relative to a baseline description, and converting the numerical representation from the first shape type to a second one of the shape types. In some embodiments, identifying the application of the cosmetic formulation includes detecting an applicator of the cosmetic formulation, estimating a position of the applicator of the cosmetic formulation relative to the biological surface, tracking a movement of the applicator relative to the biological surface, and generating a numerical representation of the movement relative to the baseline description. The method may further include estimating a surface tone of the biological surface, estimating a formulation tone of the cosmetic formulation, and using the surface tone and the formulation tone to determine a color of the cosmetic formulation.

本概要は、以下の「発明を実施するための形態」で更に記載される概念の選択を簡略化して紹介するために提供される。本概要は、クレームされた主題の主要な特徴を特定することを意図したものではなく、また、クレームされた主題の範囲を決定する際の補助として使用することを意図したものでもない。 This Summary is provided to introduce a selection of concepts in a simplified form that are further described below in the Detailed Description. This Summary is not intended to identify key features of the claimed subject matter, nor is it intended to be used as an aid in determining the scope of the claimed subject matter.

図1は、様々な実施形態に係る、化粧デザインを外挿するシステムの一実施形態を示す概略図である。FIG. 1 is a schematic diagram illustrating one embodiment of a system for extrapolating a cosmetic design, according to various embodiments.

図2は、様々な実施形態に係る、拡張現実化粧デザインフィルタを準備するための例示的な技術を示す概略図である。FIG. 2 is a schematic diagram illustrating an exemplary technique for preparing an augmented reality cosmetic design filter, according to various embodiments.

図3は、様々な実施形態に係る、拡張現実化粧デザインフィルタを展開するための例示的な技術を示す概略図である。FIG. 3 is a schematic diagram illustrating an example technique for deploying an augmented reality cosmetic design filter, according to various embodiments.

図4は、様々な実施形態に係る、拡張現実化粧デザインフィルタをある形状タイプから別の形状タイプに変換するための例示的な技術を示す概略図である。FIG. 4 is a diagram illustrating an example technique for converting an augmented reality cosmetic design filter from one shape type to another, according to various embodiments.

図5は、様々な実施形態に係る、複数のレイヤで拡張現実化粧デザインフィルタを生成するための例示的な技術を示す概略図である。FIG. 5 is a schematic diagram illustrating an example technique for generating an augmented reality cosmetic design filter with multiple layers, according to various embodiments.

図6は、様々な実施形態に係る、表面トーン及び製剤トーンを用いて製剤色を決定するための例示的な技術を示す概略図である。FIG. 6 is a schematic diagram illustrating an exemplary technique for determining formulation color using surface tone and formulation tone, according to various embodiments.

図7は、様々な実施形態に係る、図1のシステムの部品を含む例示的なシステムを示すブロック図である。FIG. 7 is a block diagram illustrating an example system including components of the system of FIG. 1, according to various embodiments.

図8は、様々な実施形態に係る、例示的なコンピューティングデバイスの態様を示すブロック図である。FIG. 8 is a block diagram illustrating aspects of an exemplary computing device, according to various embodiments.

上記図面において、特に断りのない限り、同様の参照数字は様々な図を通して同様の部品を指す。必要に応じて図面を簡略化するため、必ずしも全ての要素の例にラベルを付していない。図面は必ずしも縮尺通りではなく、それよりも説明される原理を説明することに重点が置かれている。本発明の上述の態様及び付随する利点の多くは、添付の図面と併せ、以下の発明を実施するための形態を参照することにより、同様のことがよりよく理解できるようになるにつれて、より容易に理解されるであろう。 In the above drawings, unless otherwise noted, like reference numerals refer to like parts throughout the various views. To simplify the drawings as necessary, not all of the example elements have been labeled. The drawings are not necessarily to scale, emphasis instead being placed upon illustrating the principles being described. The above-described aspects and many of the attendant advantages of the present invention will be more readily appreciated as the same becomes better understood by reference to the following detailed description of the invention in conjunction with the accompanying drawings.

化粧品やメイクを適用して模様や形にするのは手作業では難しい。例えば、複雑なデザインや演劇のメイクは、通常、資格を持ったメイクの専門家によって適用される。加えて、一般的に、運動能力や視力に制限のある人々にとって、自分で適用するのは困難である。比較的簡単な化粧デザインであっても、複数の化粧品のレイヤリング、ブレンディング、顔や顔の特徴の形状タイプに特化した化粧品のアプリケーションを含むことがある。例えば、メイクやこの他の化粧品は、典型的に、卵形の顔では、長方形や楕円形の顔へのアプリケーションとは異なる構成で適用される。このように、テクスチャマスクのような静的なテクスチャオブジェクトを単に表面にマッピングするだけでは、表面に適用される化粧デザインの美的効果を再現することができない。更に、化粧ルーチンを構成する動作の正確な順序及び範囲は、通常、最終的なデザインの画像から決定することはできない。このため、メイクのチュートリアルは通常、最終的な効果につながる複数の中間状態でのデザインを示す画像付きの段階的なガイド又はビデオとして与えられる。それでも、顔の形に特化したチュートリアルや肌のトーンに特化したチュートリアルは、特定の化粧デザインを示す上で、一般的なチュートリアルよりも効果的である。しかし、このようなアプローチは、見るのに時間がかかり、適切なツールや使用される具体的な技術や化粧品製剤のそれぞれの(使用)経験がなければ再現するのは難しい。 Applying cosmetics and makeup into patterns and shapes is difficult by hand. For example, intricate designs and theatrical makeup are typically applied by licensed makeup professionals. In addition, it is generally difficult for people with limited mobility or vision to apply it themselves. Even relatively simple makeup designs may involve layering, blending, and application of cosmetics specific to the shape type of face and facial features. For example, makeup and other cosmetics are typically applied in a different configuration to an oval-shaped face than to a rectangular or oval-shaped face. Thus, the aesthetic effect of a makeup design applied to a surface cannot be replicated by simply mapping a static texture object, such as a texture mask, onto the surface. Furthermore, the exact sequence and extent of the actions that make up a makeup routine cannot usually be determined from an image of the final design. For this reason, makeup tutorials are usually given as step-by-step guides or videos with images showing the design in multiple intermediate states that lead to the final effect. Nevertheless, face shape-specific and skin tone-specific tutorials are more effective than general tutorials in illustrating specific makeup designs. However, such an approach takes time to implement and is difficult to replicate without the right tools and experience with the specific techniques and cosmetic formulations used.

対象者の顔や他の関心領域などの生物学的対象者のターゲット体表面に適用される化粧ルーチンから拡張現実化粧デザインフィルタを生成するための技術を記載する。記載する実施形態は、ターゲット体表面の1つ又は複数の3Dコンターマッピングを定義するために画像センサを採用する。このようなアプリケーションの文脈において、記載する実施形態は、複雑な手動ルーチンに比べて、改善された精度とより優れた使いやすさを与える。したがって、本技術は、形状タイプ及び肌色に自動的に(例えば、人間の介入なしに)適合させることができる動的拡張現実化粧デザインフィルタの配布を通じて、化粧の手動アプリケーションを改善する。このフィルタは、拡張現実フィルタのエンドユーザの形状タイプや肌色に感度のよい方法で、アプリケーショントレース、仕上がり効果、及び特定のツールの拡張現実レンダリングを含む、段階的な化粧ルーチンを再現することができる。 Techniques are described for generating an augmented reality makeup design filter from a makeup routine to be applied to a target body surface of a biological subject, such as the subject's face or other region of interest. The described embodiments employ an image sensor to define one or more 3D contour mappings of the target body surface. In the context of such applications, the described embodiments provide improved accuracy and greater ease of use compared to complex manual routines. Thus, the present technology improves the manual application of makeup through the distribution of dynamic augmented reality makeup design filters that can be adapted automatically (e.g., without human intervention) to shape type and skin tone. The filters can recreate a step-by-step makeup routine, including application traces, finish effects, and augmented reality renderings of specific tools, in a manner that is sensitive to the shape type and skin tone of the end user of the augmented reality filter.

例示的な一例では、スマートフォンのユーザが、特定の美的効果を生み出すメイクルーチンのビデオを作製する。ビデオ作製の一環として、スマートフォンはユーザの顔の画像と表面マッピングをキャプチャする。最初の画像は、ファンデーション、ハイライト、フィラー、アイシャドウ、チーク、マスカラなどの化粧品のこの後のアプリケーションを検出できるベースラインを生成するために使用される。ビデオが作製されている間、スマートフォンは、化粧デザインの新しいレイヤとして各新しいアプリケーションを定義する工程の一部として、ベースラインを反復的に再定義する。また、動画が作製されている間、スマートフォンは、ユーザの手の動きを検出する工程、新しいツール若しくは製剤を識別する工程、及び/又は更新されたベースラインを基準としてユーザの顔の色シフトを検出する工程によって、新しいアプリケーションを認識する。ルーチンの過程にわたって、動き、テクスチャ、及び/又は透明度情報を含むマルチレイヤ動的フィルタが生成される。動的フィルタは、メイクビデオのクリエイタの顔形状を参照し、分散ストレージネットワークに記憶される。このフィルタは、拡張現実インターフェースを介した仮想投影のために、さまざまなユーザが利用できる。このフィルタを使用して、レイヤ効果を再現し、化粧デザインを種々の顔形状にリアルにマッピングし、及び、以下の段落で説明するように、ビューアーの顔形状及び肌色に特有の方法で化粧ルーチンを通じてビューアーにガイドすることができる。 In one illustrative example, a smartphone user creates a video of a makeup routine that creates a particular aesthetic effect. As part of the video creation, the smartphone captures images and surface mapping of the user's face. An initial image is used to generate a baseline against which subsequent applications of cosmetics such as foundation, highlighter, filler, eye shadow, blush, mascara, etc. can be detected. As the video is being created, the smartphone iteratively redefines the baseline as part of defining each new application as a new layer of the makeup design. Also, as the video is being created, the smartphone recognizes new applications by detecting the user's hand movements, identifying new tools or formulations, and/or detecting color shifts in the user's face relative to the updated baseline. Over the course of the routine, a multi-layer dynamic filter is generated that includes motion, texture, and/or transparency information. The dynamic filter references the face shape of the creator of the makeup video and is stored in a distributed storage network. The filter is available to various users for virtual projection via an augmented reality interface. This filter can be used to recreate layering effects, realistically map makeup designs to various face shapes, and guide the viewer through a makeup routine in a manner specific to the viewer's face shape and skin tone, as described in the following paragraphs.

図1は、様々な実施形態に係る、拡張現実化粧デザインフィルタ110を生成するための例示的なシステム100の一実施形態を示す概略図である。例示的なシステム100は、1つ又は複数のクライアントコンピューティングデバイス130、カメラ140、1つ又は複数のリモートコンピュータシステム160(サーバ(複数可)とも呼ばれる)、及び1つ又は複数のユーザデバイス190を含む。例示的なシステム100の一部として、構成システムの部品は、無線通信を介して及び/又は有線通信を介して動作可能に結合され得る。いくつかの実施形態では、構成部品は、無線ペアリング(例えば、Bluetooth(登録商標))を介して、及び/又はローカル無線ネットワーク(例えば、無線ルータ)を介して直接通信することができる。いくつかの実施形態では、構成部品は、1つ又は複数のネットワーク170を介して通信することができる。1つ又は複数のネットワーク170は、公衆ネットワーク(例えば、インターネット)又はプライベートネットワーク(例えば、イントラネット)であるか、これらを含むことができる。このようにして、例示的なシステム100は、無線接続を介して電子情報を通信するように構成された複数の別個のデバイスを含むことができる。更に、又は代替的に、構成部品の一部を単一のデバイスに統合することができる。 FIG. 1 is a schematic diagram illustrating one embodiment of an exemplary system 100 for generating an augmented reality cosmetic design filter 110, according to various embodiments. The exemplary system 100 includes one or more client computing devices 130, a camera 140, one or more remote computer systems 160 (also referred to as server(s)), and one or more user devices 190. As part of the exemplary system 100, the components of the configuration system may be operatively coupled via wireless communication and/or via wired communication. In some embodiments, the components may communicate directly via wireless pairing (e.g., Bluetooth) and/or via a local wireless network (e.g., a wireless router). In some embodiments, the components may communicate via one or more networks 170. The one or more networks 170 may be or include a public network (e.g., the Internet) or a private network (e.g., an intranet). In this manner, the exemplary system 100 may include multiple separate devices configured to communicate electronic information via wireless connections. Additionally or alternatively, some of the components may be integrated into a single device.

説明を明瞭にするために、拡張現実化粧デザインフィルタ110は、化粧デザイン110とも呼ぶ。化粧デザイン110は、クライアントコンピューティングデバイス130(複数可)、サーバ160(複数可)、及び/又はユーザデバイス190(複数可)のメモリに記憶される、テクスチャ、マッピングデータ、表面情報、及びメタ情報のセットを含む化粧ルーチンの数値表現である。平面に投影され、この後テクスチャマスクとして使用される、特定の顔におけるメイクルーチンの最終結果を再現する単一のテクスチャではなく、化粧デザイン110は、関連する顔の特徴120のコンターマップ及び/又はターゲット領域のベースライン特徴125を参照する1つ又は複数のトレース115を含む。化粧デザイン110は、トレース115の動的要素117を記述するデータを含むこともできる。このようにして、化粧デザイン110は、化粧デザイン110のレイヤ別のアプリケーションを段階的に再現するアニメーション化された拡張現実フィルタとして、ユーザデバイス190に展開することができる。 For clarity of explanation, the augmented reality cosmetic design filter 110 is also referred to as a cosmetic design 110. The cosmetic design 110 is a numerical representation of a cosmetic routine, including a set of textures, mapping data, surface information, and meta information, stored in memory of the client computing device(s) 130, server(s) 160, and/or user device(s) 190. Rather than a single texture that reproduces the final result of the cosmetic routine on a particular face, which is projected onto a plane and then used as a texture mask, the cosmetic design 110 includes one or more traces 115 that reference a contour map of the associated facial features 120 and/or baseline features 125 of the target area. The cosmetic design 110 may also include data describing the dynamic elements 117 of the traces 115. In this manner, the cosmetic design 110 can be deployed on the user device 190 as an animated augmented reality filter that reproduces the layered application of the cosmetic design 110 step by step.

例示的な一例として、クライアントコンピューティングデバイス130は、カメラ140を組み込むことができる。同様に、例示的なシステム100は、複数のクライアントコンピューティングデバイス130を含むことができる。第1クライアントコンピューティングデバイス130は、ユーザインターフェース要素をホストし、ネットワーク170(複数可)を介してサーバ160(複数可)に接続するように構成されたモバイル電子デバイス(例えば、タブレット、スマートフォン、又はラップトップ)である。第2クライアントコンピューティングデバイス130は、カメラ140と一体化され、カメラ140の動作を第1クライアントコンピューティングデバイス130と連携するように構成される。例示的なシステム100の構成部品には、例示的なシステム100の1つ又は複数の機能の動作を実装及び連携するためのコンピュータ実行可能命令(例えば、ソフトウェア、ファームウェアなど)を提供することができる。このようにして、ユーザインターフェースは、1つ又は複数の構成部品を介してアクセスされ、例示的なシステム100の動作を、インターフェースを介して連携することができる。 As an illustrative example, the client computing device 130 may incorporate a camera 140. Similarly, the exemplary system 100 may include multiple client computing devices 130. The first client computing device 130 is a mobile electronic device (e.g., tablet, smartphone, or laptop) configured to host user interface elements and connect to the server(s) 160 via the network(s) 170. The second client computing device 130 is integrated with the camera 140 and configured to coordinate the operation of the camera 140 with the first client computing device 130. The components of the exemplary system 100 may be provided with computer-executable instructions (e.g., software, firmware, etc.) for implementing and coordinating the operation of one or more features of the exemplary system 100. In this manner, a user interface may be accessed via one or more components, and the operation of the exemplary system 100 may be coordinated via the interface.

クライアントコンピューティングデバイス130(複数可)は、カメラ140、(カメラ140の一部として図示される)1つ又は複数の電磁(EM)放射線源、並びに視覚的及び/又は聴覚的プロンプトで生体表面180を促すための1つ又は複数のユーザインターフェース要素131を含む、専用に構築されたモバイルコンピューティングデバイスであるか、これを含むことができる。例えば、インターフェース要素131は、化粧デザイン110の視覚的表現を生成するためのディスプレイ133であるか、又はこれを含むことができる。インターフェース要素131はまた、タッチスクリーン、キーボード、トラックパッド、又はマウスを含むがこれらに限定されないユーザ入力部品を含むことができる。この例では、クライアントコンピューティングデバイス130の部品は、例えば浴室や洗面台の鏡のような消費者向け化粧製品に似たハウジングに統合することができる。この例では、ハウジングは、電源、熱管理システム、及び他の部品を隠すことができる。 The client computing device(s) 130 may be or may include a purpose-built mobile computing device including a camera 140, one or more electromagnetic (EM) radiation sources (illustrated as part of the camera 140), and one or more user interface elements 131 for prompting the biological surface 180 with visual and/or audio prompts. For example, the interface element 131 may be or may include a display 133 for generating a visual representation of the cosmetic design 110. The interface element 131 may also include user input components including, but not limited to, a touch screen, keyboard, trackpad, or mouse. In this example, the components of the client computing device 130 may be integrated into a housing resembling a consumer cosmetic product, such as a bathroom or vanity mirror. In this example, the housing may hide a power source, a thermal management system, and other components.

クライアントコンピューティングデバイス130及びカメラ140は、特定の構成で図示されているが、付加的及び/又は代替的なフォームファクタも考えられる。例えば、システム100は、クライアントコンピューティングデバイス130と通信するスマートフォン又はタブレットコンピュータを含むことができ、スマートフォン又はタブレットコンピュータによって1つ又は複数のコンピュータ実行可能な動作が実行されるようにする。このようにして、画像生成動作は、カメラ140を組み込んだスマートフォンによって実行されることができ、画像処理動作は、サーバ160(複数可)などの別個のデバイスで少なくとも部分的に実行されることができる。 Although the client computing device 130 and the camera 140 are illustrated in a particular configuration, additional and/or alternative form factors are contemplated. For example, the system 100 may include a smartphone or tablet computer in communication with the client computing device 130, such that one or more computer-executable operations are performed by the smartphone or tablet computer. In this manner, image generation operations may be performed by a smartphone incorporating the camera 140, and image processing operations may be performed, at least in part, on a separate device, such as the server(s) 160.

いくつかの実施形態では、カメラ140は、可視光画像センサ141、深度センサ143、及び/又は赤外線若しくは近赤外線を含む(これらに限定されない)不可視のEM放射線源145を含む(これらに限定されない)複数のセンサ及び/又はソースであるか、又はこれらを含むことができる。クライアントコンピューティングデバイス130(複数可)と同様に、カメラ140は、例示的なシステム100の他の構成部品との無線通信及び/又はペアリングを可能にするための通信回路機構147を含むことができる。カメラ140は、例示的なシステム100の別個の部品として図示されているが、カメラ140は、例示的なシステム100の他の構成部品の1つに統合することもできる。例えば、クライアントコンピューティングデバイス130は、(例えば、スマートフォン又はタブレットとして)カメラ140を組み込むことができる。 In some embodiments, the camera 140 may be or include multiple sensors and/or sources, including, but not limited to, a visible light image sensor 141, a depth sensor 143, and/or a source of invisible EM radiation 145, including, but not limited to, infrared or near infrared. Like the client computing device(s) 130, the camera 140 may include communication circuitry 147 to enable wireless communication and/or pairing with other components of the exemplary system 100. Although the camera 140 is illustrated as a separate component of the exemplary system 100, the camera 140 may also be integrated into one of the other components of the exemplary system 100. For example, the client computing device 130 may incorporate the camera 140 (e.g., as a smartphone or tablet).

深度センサ143は、生体表面180のターゲット体表面181の画像を含む(これに限定されない)生体表面180の1つ又は複数の画像をキャプチャすることができる。図1に与えられる図では、生体表面180は、化粧デザイン110を作製するために例示的なシステム100を使用する人間であり、ターゲット体表面181は、目及び眉の周りの領域における人間の顔である。深度センサ143は、ターゲット体表面181の表面マッピング183を生成することができる。ターゲット体表面181のコンター及び深度情報は、経時的に又はユーザ間で変化し得る。カメラは、クライアントコンピューティングデバイス130(複数可)による化粧デザイン110の外挿、修正及び/又は生成のための動作の一部として、表面マッピング183を生成することができる。 The depth sensor 143 can capture one or more images of the biological surface 180, including but not limited to an image of a target body surface 181 of the biological surface 180. In the illustration provided in FIG. 1, the biological surface 180 is a human using the exemplary system 100 to create a cosmetic design 110, and the target body surface 181 is the human face in the area around the eyes and eyebrows. The depth sensor 143 can generate a surface mapping 183 of the target body surface 181. The contour and depth information of the target body surface 181 can change over time or between users. The camera can generate the surface mapping 183 as part of an operation for extrapolation, modification, and/or generation of the cosmetic design 110 by the client computing device(s) 130.

深度センサ143は、画像センサとすることができ、ターゲット体表面181を含む視野185内の画像をキャプチャすることができる。深度センサ143は、カメラ140が表面マッピング183を生成することができるように、レーザベースのセンサ(例えば、LiDAR)、ToF(time-of-flight)カメラ、構造化光発生器、モーションセンサ及び可視画像カメラを含むvSLAM(visual simultaneous localization and mapping)センサアセンブリ、又は超音波ベースのセンサアセンブリとすることができるか、又はこれらを含むことができる(これらに限定されない)。 The depth sensor 143 may be an image sensor and may capture an image within a field of view 185 that includes the target body surface 181. The depth sensor 143 may be or may include, but is not limited to, a laser-based sensor (e.g., LiDAR), a time-of-flight (ToF) camera, a structured light generator, a visual simultaneous localization and mapping (vSLAM) sensor assembly including a motion sensor and a visible image camera, or an ultrasonic-based sensor assembly, such that the camera 140 can generate a surface mapping 183.

例えば、深度センサ143が赤外線深度検知カメラである場合、不可視EM放射線源145は、ターゲット体表面181を含む生体表面180を構造化された不可視赤外線放射に曝す赤外線源であるか、又はこれを含むことができる。別の例では、深度センサがLiDARシステム又はToFカメラである場合、不可視EM放射線源145は、赤外ダイオードレーザであるか、又はこれを含むことができる。このようにして、不可視EM放射線源145によって生成されたEM放射は、ターゲット体表面181が曝されるように、角度広がり187にわたってターゲット体表面181に向かってスキャンされるか、又は他の方法で向けられ得る。いくつかの実施形態では、ターゲット体表面181の検出は、可視光センサ141によって(例えば、vSLAM技術によって)キャプチャされた可視スペクトル(例えば、RGB)画像に適用される特徴及び/又はエッジ検出によって容易になる及び/又は可能になる。 For example, if the depth sensor 143 is an infrared depth sensing camera, the invisible EM radiation source 145 can be or include an infrared source that exposes the biological surface 180, including the target body surface 181, to structured invisible infrared radiation. In another example, if the depth sensor is a LiDAR system or a ToF camera, the invisible EM radiation source 145 can be or include an infrared diode laser. In this manner, the EM radiation generated by the invisible EM radiation source 145 can be scanned or otherwise directed toward the target body surface 181 over an angular spread 187 such that the target body surface 181 is exposed. In some embodiments, detection of the target body surface 181 is facilitated and/or enabled by feature and/or edge detection applied to a visible spectrum (e.g., RGB) image captured by the visible light sensor 141 (e.g., by vSLAM technology).

表面マッピング183は、ターゲット体表面181の特徴に関するコンター情報及び/又は位置情報を提供することができる。これらの情報は、例えば、眉の隆起(eyebrow ridge)と鼻梁の相対位置、眉毛が目に対してどこで始まり、どこで終わるかなどに関する正確な情報である。このようにして、表面マッピング183を使用して、ソーシャルメディアプラットフォーム又は他のサービスに展開するための化粧デザイン110を生成及び/又は外挿し、化粧デザイン110を、ユーザデバイス190(複数可)を介してユーザに配布することができる。このようにして、化粧デザイン110を、例えば、化粧デザインのオンラインプラットフォーム及び/又はデータベースの一部として、サーバ(複数可)160に通信されるデータファイルとして表すことができる。 The surface mapping 183 can provide contour and/or position information regarding features of the target body surface 181, such as the relative positions of the eyebrow ridge and the bridge of the nose, precise information regarding where the eyebrows begin and end in relation to the eyes, etc. In this manner, the surface mapping 183 can be used to generate and/or extrapolate the cosmetic design 110 for deployment on social media platforms or other services, and the cosmetic design 110 can be distributed to users via user device(s) 190. In this manner, the cosmetic design 110 can be represented as a data file communicated to the server(s) 160, for example, as part of an online platform and/or database of cosmetic designs.

表面マッピング183を使用して、生体表面180の特徴の形状タイプを決定し、化粧デザイン110を別の異なる形状タイプに変換することによって、化粧デザイン110を修正することができる。いくつかの実施形態では、化粧デザイン110を生成又は修正する工程の一部として、複数のレイヤが定義される。例示的なシステム100は、図2~図6を参照して説明する例示的な技術を実装して、ターゲット体表面181への複数の化粧品製剤のアプリケーションを検出することができ、化粧デザイン110を共に規定する、アプリケーションを空間的及び時間的に記述する1つ又は複数のトレース115を生成することができる。 The cosmetic design 110 can be modified by using surface mapping 183 to determine the shape type of features of the biological surface 180 and converting the cosmetic design 110 to another, different shape type. In some embodiments, multiple layers are defined as part of the process of creating or modifying the cosmetic design 110. The exemplary system 100 can implement the exemplary techniques described with reference to Figures 2-6 to detect the application of multiple cosmetic formulations to the target body surface 181 and generate one or more traces 115 that spatially and temporally describe the application, which together define the cosmetic design 110.

有利には、化粧デザイン110は、ターゲット体表面181と、ユーザデバイス190のユーザの対応する領域との両方をマッピングし、化粧デザイン110、又は化粧デザイン110の各構成レイヤを、対応する領域に適合するように外挿することによって、正確さ及び精度を向上させて、例えば、ソーシャルメディアとの統合を通じて、拡張現実フィルタとしてユーザデバイス190(複数可)に配布することができる。更に、化粧デザイン110を、チュートリアル視覚化の形態で、動的に提示することができる。これにより、レイヤとトレースの両方が、化粧デザイン110のレイヤ、動き、色、及び他の化粧的態様を示すためにアニメーション化される。このようにして、化粧デザイン110は、化粧デザイン110をクリエイタからユーザに適合させることによって、ユーザ体験の改善を表し、また、完全な化粧デザイン110を画像データとしてではなく、マスクデータとして転送することができるので、システム性能の改善を表す。このため、ネットワーク170(複数可)を介して化粧デザイン110を配布する工程、及びサーバ160(複数可)に記憶する工程に関与するデータ量や計算リソースが削減される。 Advantageously, the cosmetic design 110 can be distributed to the user device 190(s) as an augmented reality filter, for example through integration with social media, with improved accuracy and precision by mapping both the target body surface 181 and the corresponding area of the user of the user device 190 and extrapolating the cosmetic design 110, or each constituent layer of the cosmetic design 110, to fit the corresponding area. Furthermore, the cosmetic design 110 can be dynamically presented in the form of a tutorial visualization, whereby both layers and traces are animated to show the layers, movement, colors, and other cosmetic aspects of the cosmetic design 110. In this way, the cosmetic design 110 represents an improved user experience by adapting the cosmetic design 110 from the creator to the user, and also represents an improved system performance, since the complete cosmetic design 110 can be transferred as mask data rather than as image data. This reduces the amount of data and computational resources involved in distributing the cosmetic design 110 over the network(s) 170 and storing it on the server(s) 160.

図2は、様々な実施形態に係る、拡張現実化粧デザインフィルタ110を準備するための例示的なプロセス200を示す概略図である。例示的なプロセス200は、図1の例示的なシステム100の構成部品によって実行されるか、そうでなければ実施される多数の動作として実装され得る。このように、動作は、コンピュータシステムの非一時的なメモリ上に記憶されたコンピュータ可読命令の実行に応答して、図1のクライアントコンピューティングデバイス130(複数可)などのコンピュータシステムの1つ又は複数のプロセッサによって実施される動作であるか、又はそれを含むことができる。動作は特定の順序で図示されているが、例示的なプロセス200は、より多い動作又はより少ない動作を含むことができ、動作の順序は変化し得る。いくつかの実施形態では、図1を参照してより詳細に説明するように、いくつかの動作は、異なる物理コンピュータによって実施される。例えば、いくつかの動作は、異なる部品によって交換可能に実施されることができ、又は2つ以上の部品の連携動作によって実施されることができる。 2 is a schematic diagram illustrating an exemplary process 200 for preparing an augmented reality cosmetic design filter 110, according to various embodiments. The exemplary process 200 may be implemented as a number of operations performed or otherwise performed by components of the exemplary system 100 of FIG. 1. As such, the operations may be or may include operations performed by one or more processors of a computer system, such as the client computing device(s) 130 of FIG. 1, in response to execution of computer-readable instructions stored on a non-transitory memory of the computer system. Although the operations are illustrated in a particular order, the exemplary process 200 may include more or fewer operations, and the order of operations may vary. In some embodiments, some operations are performed by different physical computers, as described in more detail with reference to FIG. 1. For example, some operations may be performed interchangeably by different components, or may be performed by the coordinated operation of two or more components.

動作201において、コンピュータシステムは、生体表面180のベースライン記述210を定義する。いくつかの実施形態では、ベースライン記述210は、例えば、生体表面180を記述する表面コンターマッピング情報に対して可視色情報を参照することによって、表面マッピング183を生成する工程の一部として定義される。このようにして、ベースライン記述210は、表面マッピング183及び色情報の両方を含む生体表面180の数値表現(例えば、デジタルデータ)を含むことができる。例示的なプロセス200は、図1のターゲット体表面181の文脈で図示されているが、生体表面180は、顔、手、顔の一部、又は化粧品製剤が適用される他の表面とできるか、又はこれらを含むことが理解されよう。 In operation 201, the computer system defines a baseline description 210 of the biological surface 180. In some embodiments, the baseline description 210 is defined as part of the process of generating the surface mapping 183, for example, by referencing visible color information to surface contour mapping information describing the biological surface 180. In this manner, the baseline description 210 can include a numerical representation (e.g., digital data) of the biological surface 180 that includes both the surface mapping 183 and color information. Although the exemplary process 200 is illustrated in the context of the target body surface 181 of FIG. 1, it will be understood that the biological surface 180 can be or include a face, a hand, a portion of a face, or other surface to which a cosmetic formulation is applied.

いくつかの実施形態では、ベースライン記述210を定義する工程は、可視光又は不可視EM放射を検出するように構成されたカメラ140又は他の放射線センサを用いて、生体表面180の1つ又は複数の画像を生成する工程を含む。不可視EM放射を、構造化光発生器、LiDAR光源、又はToFカメラ光源などのカメラ140の放射線源を使用して、生体表面180上に投影することができる。例えば、画像は、生体表面180の顔の特徴120及びベースライン特徴125を描写することができる。ベースライン特徴125は、生体表面180の少なくとも一部がカメラ140によって検出可能な顔料、化粧品製剤、又は他の特徴を含むように、例示的なプロセス200の前に生体表面180に適用される材料であるか、又はこれらを含むことができる。例えば、ベースライン特徴125は、まつげ及びアイライナーとして図示されている。同様に、ベースライン特徴125は、しみ、しわ、傷、又は顔の特徴120以外の生体表面180の他の美的外観を含み得るが、これらに限定されない。対照的に、顔の特徴120は、表面マッピング183を定義し、影、遠近(perspective)などを含む(これらに限定されない)物理的効果を通じてベースライン記述210に影響を与える、生体表面180の器官、毛髪、及び他のトポグラフィカル特徴を指す。 In some embodiments, defining the baseline description 210 includes generating one or more images of the biological surface 180 using a camera 140 or other radiation sensor configured to detect visible light or invisible EM radiation. The invisible EM radiation can be projected onto the biological surface 180 using a radiation source of the camera 140, such as a structured light generator, a LiDAR light source, or a ToF camera light source. For example, the image can depict the facial features 120 and the baseline features 125 of the biological surface 180. The baseline features 125 can be or include materials applied to the biological surface 180 prior to the exemplary process 200 such that at least a portion of the biological surface 180 includes a pigment, cosmetic formulation, or other feature detectable by the camera 140. For example, the baseline features 125 are illustrated as eyelashes and eyeliner. Similarly, the baseline features 125 can include, but are not limited to, blemishes, wrinkles, blemishes, or other aesthetic appearances of the biological surface 180 other than the facial features 120. In contrast, facial features 120 refer to the organs, hair, and other topographical features of the biological surface 180 that define the surface mapping 183 and affect the baseline description 210 through physical effects including, but not limited to, shadows, perspective, etc.

動作203において、コンピュータシステムは、生体表面180への化粧品製剤220(複数可)の1つ又は複数のアプリケーション215を識別する。化粧品製剤220(複数可)は、メイク、マスカラ、リップスティック、リップライナー、アイライナー、グリッター、美容クリーム、軟膏、又は生体表面180に局所的に適用され得る他の材料を含み得るが、これらに限定されない。化粧品製剤220(複数可)のアプリケーション215(複数可)は、可視光センサ、不可視EM放射線センサなどの放射線センサを使用して、カメラ140によって検出されることができる。このようにして、アプリケーション215(複数可)は、例えば、着色、表面反射率、又は不可視EM放射線の吸光度/反射率の観点から、ベースライン記述に対する生体表面のシフトとして検出されることができる。例示的な例では、グロッシーなリップコーティングは、無視できる鏡面反射を含むベースライン記述に対する生体表面180の鏡面反射の増加を通じて検出することができる。同様に、マットなファンデーションは、ベースライン記述に対する鏡面反射の減少と拡散反射の増加を通じて検出することができる。非限定的な例では、鏡面反射は、可視光画像において輝度チャネルを定義し、輝度チャネルを閾値処理することによって検出することができる。鏡面反射は、画素単位で、閾値を超える輝度値として定義される。 In operation 203, the computer system identifies one or more applications 215 of cosmetic formulations 220(s) to the biological surface 180. The cosmetic formulations 220(s) may include, but are not limited to, makeup, mascara, lipstick, lip liner, eyeliner, glitter, beauty creams, ointments, or other materials that may be topically applied to the biological surface 180. The application 215(s) of the cosmetic formulations 220(s) may be detected by the camera 140 using a radiation sensor, such as a visible light sensor, an invisible EM radiation sensor, or the like. In this manner, the application 215(s) may be detected as a shift of the biological surface relative to a baseline description, for example, in terms of coloration, surface reflectance, or absorbance/reflectance of invisible EM radiation. In an illustrative example, a glossy lip coating may be detected through an increase in specular reflectance of the biological surface 180 relative to a baseline description that includes negligible specular reflectance. Similarly, a matte foundation may be detected through a decrease in specular reflectance and an increase in diffuse reflectance relative to the baseline description. In a non-limiting example, specular reflection can be detected by defining a luminance channel in the visible light image and thresholding the luminance channel. Specular reflection is defined, on a pixel-by-pixel basis, as a luminance value that exceeds a threshold.

いくつかの実施形態において、コンピュータシステムは、生体表面180に近接するアプリケータ225(ブラシ、スポンジ、ペンシル、指、又は他のアプリケータ225など)を検出する。いくつかの実施形態において、コンピュータシステムは、例えば、アプリケータ225がレジストレーションマーク(バーコード、QRコード(登録商標)、RFIDタグ、又は識別子情報の他の表現など)を含む場合、アプリケータ225の識別子を認識する。このようにして、コンピュータシステムは、空間的及び時間的にアプリケーション215を識別することができ、化粧品製剤220(複数可)を識別することができる。このために、動作203は、化粧品製剤220を識別する工程と、化粧品製剤220の識別子情報を用いて化粧品製剤220の色を定義する工程とを任意選択で含むことができる。例えば、未確認の化粧品製剤220の色は、図6を参照してより詳細に説明するように、カメラ140を使用して推定され得る。アプリケータ225を識別する工程により、コンピュータシステムが、アプリケータ225が多目的アプリケータ225であるのではなく、特定の化粧品製剤220が装填されている化粧品製剤220の色を直接決定することが可能になり得る。化粧品製剤220をこのような方法で識別することができるアプリケータ225の例は、ペンシル、リップスティック、ゲルアプリケータ、又は準備された化粧品製剤220で利用可能な他のアプリケータ225を含むが、これらに限定されない。化粧品製剤220のアプリケーション215は、生体表面180に対するアプリケータ225の動き230を含むことができる。動き230は、ブレンディング及びぼかしの動きのような、全体的な化粧デザイン110の美的効果に関して意味のある情報を含むことができる。このように、アプリケータ225の動き230は、トレースを生成するための動作の間に検出され使用され得る。 In some embodiments, the computer system detects an applicator 225 (such as a brush, sponge, pencil, finger, or other applicator 225) in proximity to the biological surface 180. In some embodiments, the computer system recognizes the identifier of the applicator 225, for example, if the applicator 225 includes a registration mark (such as a barcode, QR code, RFID tag, or other representation of identifier information). In this manner, the computer system can spatially and temporally identify the application 215 and can identify the cosmetic formulation(s) 220. To this end, operation 203 can optionally include identifying the cosmetic formulation 220 and using the identifier information of the cosmetic formulation 220 to define the color of the cosmetic formulation 220. For example, the color of the unidentified cosmetic formulation 220 can be estimated using the camera 140, as described in more detail with reference to FIG. 6. The process of identifying the applicator 225 may allow the computer system to directly determine the color of the cosmetic formulation 220 that the particular cosmetic formulation 220 is loaded with, rather than the applicator 225 being a multi-purpose applicator 225. Examples of applicators 225 that may identify the cosmetic formulation 220 in this manner include, but are not limited to, pencils, lipsticks, gel applicators, or other applicators 225 available with the prepared cosmetic formulation 220. The application 215 of the cosmetic formulation 220 may include a movement 230 of the applicator 225 relative to the biological surface 180. The movement 230 may include meaningful information regarding the aesthetic effect of the overall cosmetic design 110, such as blending and smudge movements. In this manner, the movement 230 of the applicator 225 may be detected and used during the operation to generate a trace.

アプリケーション215はまた、生体表面180上に既に配置された製剤220の修正又は編集(manipulation)を含むことができる。例えば、化粧品製剤220の範囲、着色、及び反射率は、スムージング、ぼかし、ブレンディング、塗り広げ、又は他の技術によって修正され得る。生体表面180に新たな製剤220を加えるのではなく、既に配置された製剤220を修正する、このようなアプリケーション215は、道具又は指を検出し、ベースライン記述210に対する生体表面180の変化を検出することによって識別され得る。図1を参照して説明したように、ベースライン記述210は、それぞれのアプリケーション215に関連することができ、ここでアプリケーション215は、レイヤード及び/又はブレンドされる。例えば、製剤220が既に適用されている生体表面180の特定の領域に対するベースライン記述210は、製剤220を含むように再定義されることができる。このようにして、後続のアプリケーション215をより正確かつ精密に検出することができる。 The application 215 may also include a modification or manipulation of the formulation 220 already placed on the biological surface 180. For example, the coverage, coloration, and reflectance of the cosmetic formulation 220 may be modified by smoothing, blurring, blending, spreading, or other techniques. Such applications 215 that modify an already placed formulation 220 rather than adding a new formulation 220 to the biological surface 180 may be identified by detecting the tool or finger and detecting changes to the biological surface 180 relative to the baseline description 210. As described with reference to FIG. 1, a baseline description 210 may be associated with each application 215, where the applications 215 are layered and/or blended. For example, the baseline description 210 for a particular area of the biological surface 180 where the formulation 220 has already been applied may be redefined to include the formulation 220. In this manner, subsequent applications 215 may be detected more accurately and precisely.

動作205において、コンピュータシステムは、動作203で識別されたアプリケーション215を記述する1つ又は複数のトレース115を生成する。トレース115を生成する工程は、化粧デザイン110がアプリケーション215の美的効果をリアルに再現することができ、アプリケーション215の順序も再現することができるように、アプリケーション215の範囲217、レイヤ順序(図5参照)、及び着色(図6参照)を決定する工程を含むことができる。範囲217、着色、及びレイヤ順序情報、並びにユーザデバイス190(複数可)上でトレース115をリアルに再現することに関連する他の情報は、ベースライン記述210に参照される強度データセットなどの数値表現として符号化され得る。例えば、図2において破線として図示されているアプリケーション215の範囲217を、ベースライン記述と比較した着色のシフト、EM放射線の吸光度及び/又は反射率のシフトとして検出することができる。このようにして、トレース115は、個々のアプリケーション215の美的効果を再現することができる。 In operation 205, the computer system generates one or more traces 115 describing the applications 215 identified in operation 203. Generating the traces 115 may include determining the extent 217, layer order (see FIG. 5), and coloring (see FIG. 6) of the applications 215 such that the cosmetic design 110 can realistically reproduce the aesthetic effects of the applications 215 and also reproduce the order of the applications 215. The extent 217, coloring, and layer order information, as well as other information related to realistically reproducing the traces 115 on the user device(s) 190, may be encoded as a numerical representation, such as an intensity data set referenced to the baseline description 210. For example, the extent 217 of the applications 215, illustrated as dashed lines in FIG. 2, may be detected as a shift in coloring, absorbance and/or reflectance of EM radiation compared to the baseline description. In this manner, the traces 115 may reproduce the aesthetic effects of the individual applications 215.

いくつかの実施形態では、コンピュータシステムは、カメラ140によって生成された画像及び/又はコンターデータを使用して、アプリケータの動き230を追跡する。したがって、トレース115を生成する工程は、ベースライン記述で記載したように、生体表面180に対する様々な動き230の数値表現を生成する工程、及びアプリケーション215で使用される化粧品製剤220を記述する色情報を生成する工程を含むことができる。トレース115は、一旦生成されると、図3を参照してより詳細に説明するように、ユーザデバイス190(複数可)を通して見たとき、種々の形状の生体表面180上で化粧デザイン110の美的効果を再現するために変換されることができる。 In some embodiments, the computer system tracks the applicator movement 230 using image and/or contour data generated by the camera 140. Thus, generating the trace 115 may include generating a numerical representation of the various movements 230 relative to the biological surface 180, as described in the baseline description, and generating color information describing the cosmetic formulation 220 used in the application 215. Once generated, the trace 115 can be transformed to reproduce the aesthetic effect of the cosmetic design 110 on various shapes of biological surfaces 180 when viewed through user device(s) 190, as described in more detail with reference to FIG. 3.

トレース115は、複数のトレース115の組み合わせがトレース115間の相互作用を再現できるように、レイヤブレンディング及びレイヤリング情報を符号化することができる。例えば、目と眉との間の複数のアイシャドウの色の生体表面180の領域へのアプリケーション215のセットをブレンドして、アイシャドウ領域に色のグラデーションを付与することができる。この例では、例示的なプロセス200は、眉と目との間の領域が複数のトレース115によって記述され、また複数のトレースがどのように関連するかを記述する相互作用項によっても記述されるように、動作201~205の複数の反復を含む。いくつかの実施形態では、トレース115は、アプリケーション215の着色又は他の美的効果の局所的な透明度を記述する動的要素117に参照される、アルファチャンネル情報などの透明度情報を含む。このようにして、トレース115は、化粧品製剤220の編集、例えば、ブレンディング、ぼかし、スムージング、又は化粧デザインの典型的な他の技法を再現することができる。例示的な一例では、トレース115及び/又は動的要素117は、トレース115が動き230に基づいて製剤220のスムージング又はブレンドを再現するように、動き230及び製剤220を参照する透明度の値のベクトルを含むことができる。 The traces 115 may encode layer blending and layering information such that a combination of multiple traces 115 may reproduce interactions between the traces 115. For example, a set of applications 215 of multiple eyeshadow colors to a region of the biological surface 180 between the eye and eyebrows may be blended to impart a color gradient to the eyeshadow region. In this example, the exemplary process 200 includes multiple iterations of operations 201-205 such that the region between the eyebrow and the eye is described by multiple traces 115 and also by interaction terms that describe how the multiple traces relate. In some embodiments, the traces 115 include transparency information, such as alpha channel information, referenced to dynamic elements 117 that describe the local transparency of the coloration or other aesthetic effects of the applications 215. In this manner, the traces 115 may reproduce edits of the cosmetic formulation 220, such as blending, blurring, smoothing, or other techniques typical of cosmetic design. In one illustrative example, the trace 115 and/or the dynamic element 117 can include a vector of transparency values that reference the movement 230 and the formulation 220 such that the trace 115 replicates the smoothing or blending of the formulation 220 based on the movement 230.

動作207において、コンピュータシステムは、動作201~205の一部として検出されたトレース115(複数可)を出力する。トレース115(複数可)を出力する工程は、トレース115(複数可)をクライアントコンピューティングデバイス130のローカルデータストアに記憶する工程、トレース115(複数可)を、ネットワーク170を介してサーバ160(複数可)に転送する工程、及び又はトレース115(複数可)をユーザデバイス190(複数可)と直接(例えば、電子ペアリングを介して)又はネットワーク170を介して共有する工程を含むが、これらに限定されない電子動作を含むことができる。 In operation 207, the computer system outputs the trace(s) 115 detected as part of operations 201-205. Outputting the trace(s) 115 may include electronic operations including, but not limited to, storing the trace(s) 115 in a local data store of the client computing device 130, transferring the trace(s) 115 over the network 170 to the server(s) 160, and/or sharing the trace(s) 115 with the user device(s) 190 directly (e.g., via electronic pairing) or over the network 170.

例示的なプロセス200の説明では、眉/目の領域に対する化粧デザインに焦点を当てたが、動作は他の表面にも同様に適用できる。例えば、化粧デザイン110は、唇、鼻、頬、額、又は手を含むがこれらに限定されない付加的/代替的な表面への化粧品製剤220のアプリケーション215を記述することができる。同様に、化粧デザイン110は、眉、目、唇、頬骨、顎ライン、又は手を含むがこれらに限定されない顔の特徴120の外観を修正することができる。別の例示的な例では、化粧デザイン110は、1つ又は複数の化粧品製剤220のアプリケーションを通じて頬骨の外観を強調するための一連のトレース115を含むことができる。 While the description of the exemplary process 200 has focused on cosmetic design for the brow/eye area, the operations may be applied to other surfaces as well. For example, the cosmetic design 110 may describe the application 215 of a cosmetic formulation 220 to additional/alternative surfaces, including but not limited to the lips, nose, cheeks, forehead, or hands. Similarly, the cosmetic design 110 may modify the appearance of facial features 120, including but not limited to the brows, eyes, lips, cheekbones, jawline, or hands. In another illustrative example, the cosmetic design 110 may include a series of traces 115 to enhance the appearance of the cheekbones through the application of one or more cosmetic formulations 220.

図3は、様々な実施形態に係る、拡張現実化粧デザインフィルタ110を展開するための例示的なプロセス300を示す概略図である。図2の例示的なプロセス200と同様に、例示的なプロセス300は、図1の例示的なシステム100の構成部品によって実行されるか、実施される多数の動作として実装され得る。このように、動作は、コンピュータシステムの非一時的なメモリ上に記憶されたコンピュータ可読命令の実行に応答して、図1のユーザデバイス190(複数可)などのコンピュータシステムの1つ又は複数のプロセッサによって実施される動作であるか、又はこれを含むことができる。動作は特定の順序で図示されているが、例示的なプロセス300は、より多い動作又はより少ない動作を含むことができ、動作の順序は変化してもよい。いくつかの実施形態では、図1を参照してより詳細に説明するように、いくつかの動作は、異なる物理コンピュータによって実施される。例えば、いくつかの動作は、異なる部品によって交換可能に実施され得るか、又はユーザデバイス190(複数可)及びサーバ160(複数可)などの2つ以上の部品の連携動作によって実施され得る。 3 is a schematic diagram illustrating an example process 300 for deploying an augmented reality cosmetic design filter 110, according to various embodiments. Similar to the example process 200 of FIG. 2, the example process 300 may be implemented as a number of operations performed or carried out by components of the example system 100 of FIG. 1. As such, the operations may be or may include operations performed by one or more processors of a computer system, such as the user device 190(s) of FIG. 1, in response to execution of computer-readable instructions stored on a non-transitory memory of the computer system. Although the operations are illustrated in a particular order, the example process 300 may include more or fewer operations, and the order of operations may vary. In some embodiments, some operations are performed by different physical computers, as described in more detail with reference to FIG. 1. For example, some operations may be performed interchangeably by different components, or may be performed by the coordinated operation of two or more components, such as the user device 190(s) and the server 160(s).

動作301において、ユーザデバイス190は、化粧デザイン110を記述するデータ310を受信する。データ310を受信する工程は、ネットワーク170(例えば、インターネット、セルラーネットワークなど)を介した電子通信を含むことができるが、ペアリング又は他のアプローチを介した直接通信を含むこともできる。図3では、ユーザデバイス190がサーバ160(複数可)からデータ310を受信する工程が図示されているが、データ310はクライアントコンピューティングデバイス130(複数可)から受信できることが理解されよう。データ310は、図2を参照してより詳細に説明するように、例示的なプロセス200の1回又は複数回の反復中に生成されたトレース115を含むことができる。また、データ310は、図4を参照してより詳細に説明するように、生体表面180の形状タイプなど、生体表面180を記述するメタ情報を含むこともできる。 In operation 301, the user device 190 receives data 310 describing the cosmetic design 110. Receiving the data 310 may include electronic communication over the network 170 (e.g., the Internet, a cellular network, etc.), but may also include direct communication via pairing or other approaches. While FIG. 3 illustrates the user device 190 receiving the data 310 from the server(s) 160, it will be understood that the data 310 may be received from the client computing device(s) 130. The data 310 may include traces 115 generated during one or more iterations of the exemplary process 200, as described in more detail with reference to FIG. 2. The data 310 may also include meta-information describing the biological surface 180, such as a shape type of the biological surface 180, as described in more detail with reference to FIG. 4.

データ310を受信するための動作は、無線通信又は有線通信を含むがこれらに限定されない、1つ又は複数のデータ転送技術を含むことができる。例えば、ユーザデバイス190は、クライアントコンピューティングデバイス130と無線通信して、データ310を無線伝送として受信することができる。 The operation for receiving the data 310 may include one or more data transfer techniques, including, but not limited to, wireless communication or wired communication. For example, the user device 190 may wirelessly communicate with the client computing device 130 to receive the data 310 as a wireless transmission.

いくつかの実施形態では、データ310を受信する工程は、推奨エンジンなどのブラウザ環境を含むことができる。これによって、ユーザデバイス190のユーザは、デザインを要求するためにクリエイタと直接通信するのではなく、1人又は複数人のクリエイタによって生成された化粧デザイン110のセットを見ることができる。付加的又は代替的に、データ310は、例えば、ユーザデバイス190のユーザが登録、フォロー、及び/又はサブスクライブすることができるソーシャルメディアサービスの一部として、ユーザデバイス190にプッシュすることができる。いくつかの実施形態では、データ310は、ユーザデバイス190のユーザを記述する識別子情報に少なくとも部分的に基づいて推奨される。過去のトラフィックデータを通じてユーザデバイス190のユーザが美的嗜好を示す場合、この嗜好を反映した化粧デザイン110を優先的に推奨することができる。人口統計学的データ、社会経済学的データ、又は生体測定データも、化粧デザイン110を推奨するために使用することができる。例えば、ユーザデバイス190のユーザがある地理的地域に居住している場合、この地理的地域の傾向を反映した化粧デザイン110を推奨することができる。同様に、ユーザデバイス190のユーザが所与の年齢範囲内にある場合、所与の分野又は部門で雇用されている場合、又は所与のソーシャルネットワークの一部である場合、それぞれのカテゴリーに対応する傾向を反映する化粧デザインを識別し、推奨することができる。 In some embodiments, receiving the data 310 may include a browser environment, such as a recommendation engine, whereby a user of the user device 190 may view a set of cosmetic designs 110 generated by one or more creators, rather than directly communicating with the creators to request designs. Additionally or alternatively, the data 310 may be pushed to the user device 190, for example, as part of a social media service to which the user of the user device 190 may register, follow, and/or subscribe. In some embodiments, the data 310 is recommended based at least in part on identifier information describing the user of the user device 190. If the user of the user device 190 indicates aesthetic preferences through historical traffic data, cosmetic designs 110 that reflect these preferences may be preferentially recommended. Demographic, socioeconomic, or biometric data may also be used to recommend cosmetic designs 110. For example, if the user of the user device 190 resides in a certain geographic region, cosmetic designs 110 that reflect the trends of this geographic region may be recommended. Similarly, if a user of the user device 190 is within a given age range, employed in a given field or sector, or part of a given social network, cosmetic designs that reflect trends corresponding to the respective categories can be identified and recommended.

動作303において、ユーザデバイス190は、化粧デザイン110が仮想的に適用される生体表面180に対応するユーザ表面315をマッピングする。ユーザ表面315のマッピングは、構造化光方式(structured light methods)、LiDAR又はToF法、vSLAM法、超音波法などを含むがこれらに限定されない、図1の表面マッピング183の生成に関して説明したものと同様の動作を含むことができる。表面315は、トーン、反射率、温度などを含むがこれらに限定されない、表面315の対応する領域についての複数の特性をそれぞれ定義することができるポリゴン317のメッシュによって記述することができる。 In operation 303, the user device 190 maps a user surface 315 corresponding to the biological surface 180 to which the cosmetic design 110 is virtually applied. The mapping of the user surface 315 may include operations similar to those described with respect to generating the surface mapping 183 of FIG. 1, including but not limited to structured light methods, LiDAR or ToF methods, vSLAM methods, ultrasound methods, etc. The surface 315 may be described by a mesh of polygons 317, each of which may define multiple properties for a corresponding region of the surface 315, including but not limited to tone, reflectance, temperature, etc.

ユーザデバイス190が深度センサ319を組み込んだスマートフォンである場合、動作303は、深度センサを使用して表面をマッピングするために、ユーザデバイス190のメモリに記憶された1つ又は複数のアプリケーションを実行する工程を含むことができる。このようにして、ユーザ表面315を、ユーザ表面315の表面コンター及び顔の特徴320を記述する、データにおける数値表現として表すことができる。いくつかの実施形態では、例示的なプロセス300は、化粧デザイン110をユーザ表面315の既存の美的外観と統合する工程を含む。このために、メイク、マスカラ、まつげなどの美的特徴321が表面マッピング中に含まれる。 If the user device 190 is a smartphone incorporating a depth sensor 319, operation 303 may include executing one or more applications stored in memory of the user device 190 to map the surface using the depth sensor. In this manner, the user surface 315 may be represented as a numerical representation in data describing the surface contours and facial features 320 of the user surface 315. In some embodiments, the exemplary process 300 includes integrating the cosmetic design 110 with the existing aesthetic appearance of the user surface 315. To this end, aesthetic features 321 such as makeup, mascara, eyelashes, etc. are included in the surface mapping.

ユーザ表面315をマッピングする工程は、図6を参照してより詳細に説明するように、局所的な表面トーンであり得る表面トーンを推定する工程も含むことができる。このようにして、例示的なプロセス300は、生体表面180とユーザ表面315との間の肌色の違いを考慮することができる。例えば、データ310の一部として提供されるメタデータ、又は代替的にサーバ160(複数可)及び/又はユーザデバイス190のメモリに記憶されるメタデータは、化粧デザイン110が、正確な色の文字通りの転置ではなく、化粧デザイン110の美的効果が再現されるように適合できるように、色を肌色に相互参照する参照テーブル又はルックアップテーブルを含むことができる。 Mapping the user surface 315 may also include estimating a surface tone, which may be a local surface tone, as described in more detail with reference to FIG. 6. In this manner, the exemplary process 300 may take into account differences in skin tones between the biological surface 180 and the user surface 315. For example, the metadata provided as part of the data 310, or alternatively stored in memory of the server(s) 160 and/or the user device 190, may include a reference or look-up table that cross-references colors to skin tones so that the cosmetic design 110 may be adapted to reproduce the aesthetic effect of the cosmetic design 110, rather than a literal transposition of the exact colors.

動作305において、データ310の一部として受信したトレース115を使用して、動作303で生成されたユーザ表面315のマッピングで参照するフィルタ325を生成する。フィルタ325は、ユーザ表面315のマッピングと組み合わされるようにフォーマットされた、テクスチャオブジェクトなどの数値表現であるか、又はこれを含むことができる。例示的な例では、ユーザ表面315はポリゴン317のメッシュによって記述され、フィルタ325は、各ポリゴン317がフィルタ325の外観を記述する値のベクトルを定義するように、ポリゴン317を参照する。 In act 305, the traces 115 received as part of the data 310 are used to generate filters 325 that reference the mapping of the user surface 315 generated in act 303. The filters 325 may be or include a numerical representation, such as a texture object, formatted to be combined with the mapping of the user surface 315. In an illustrative example, the user surface 315 is described by a mesh of polygons 317, and the filters 325 reference the polygons 317 such that each polygon 317 defines a vector of values that describes the appearance of the filter 325.

いくつかの実施形態では、フィルタ325は、化粧デザイン110を作製するために使用されるアプリケーション215の順序を示すために使用することができるアニメーション効果又はレイヤ間効果などの動的要素330を含む。動的要素330は、図1~2のトレース115を参照して説明した動的要素117の少なくとも一部を再現することができる。 In some embodiments, the filter 325 includes dynamic elements 330, such as animation effects or inter-layer effects, that can be used to indicate the sequence of applications 215 used to create the cosmetic design 110. The dynamic elements 330 can replicate at least a portion of the dynamic elements 117 described with reference to the traces 115 of FIGS. 1-2.

動作307において、コンピュータシステムは、ユーザ表面315の画像335と統合されたフィルタ325を提示する。フィルタ325を提示する工程は、スクリーン337を通してフィルタ325を表示する工程を含むことができる。例えば、ユーザデバイス190は、タッチスクリーンディスプレイを含むスマートフォン又はタブレットとできる。フィルタ325を、特徴追跡又は他の拡張現実技術を使用して、リアルタイム又はほぼリアルタイムでユーザ表面315にマッピングすることができる。ここで「ほぼリアルタイム」は、ユーザデバイス190のユーザによる定性的な経験を表す。これにより、例示的なプロセス300の動作によって導入される待ち時間は実質的に知覚されない。 In operation 307, the computer system presents the filter 325 integrated with the image 335 of the user surface 315. Presenting the filter 325 may include displaying the filter 325 through a screen 337. For example, the user device 190 may be a smartphone or tablet that includes a touch screen display. The filter 325 may be mapped to the user surface 315 in real time or near real time using feature tracking or other augmented reality techniques, where "near real time" represents a qualitative experience by a user of the user device 190. This makes the latency introduced by the operation of the exemplary process 300 substantially imperceptible.

フィルタ325を、ユーザデバイス190のユーザが、例えば、選択又はハイライトによって、画面337を通して操作することができるインタラクティブなグラフィカル要素として提示することができる。いくつかの実施形態では、フィルタ325を選択することによって、任意選択の動作309において動的要素330のアニメーションを開始することができる。付加的に、又は代替的に、フィルタ325をアニメーション化する工程は、仮想チュートリアルを開始する工程を含むことができる。これによって、アプリケーション215の順序がユーザ表面315上で再現されるように、フィルタ325がレイヤ順によって順番に提示される。順序は、ユーザデバイス190を介して一時停止、反転、前進、又は他の方法で操作することができる。特定の動的要素は、例えば、画面337上のユーザアクション340でフィルタ325を選択することによってアクティブにすることができる。 The filters 325 can be presented as interactive graphical elements that a user of the user device 190 can manipulate through the screen 337, for example, by selecting or highlighting. In some embodiments, selecting the filter 325 can initiate animation of the dynamic elements 330 in an optional action 309. Additionally or alternatively, animating the filter 325 can include initiating a virtual tutorial, whereby the filters 325 are presented in order by layer order such that the order of the application 215 is reproduced on the user surface 315. The order can be paused, reversed, advanced, or otherwise manipulated via the user device 190. A particular dynamic element can be activated, for example, by selecting the filter 325 with a user action 340 on the screen 337.

いくつかの実施形態では、フィルタ325が提示されている間の画面337とのインタラクションにより、ユーザデバイス190のユーザは、1つ又は複数のフィルタ325を編集、追加、又は削除することができる。異なるユーザアクション340は、動的要素をアクティブにする代わりに、1つ又は複数の代替プロセスを開始することができる。例えば、ダブルフィンガータップにより、ユーザデバイス190のユーザが、アプリケータ225、化粧品製剤220、又はフィルタ325を記述する他の情報を見ることができるメニュー341を開くことが可能となる。同様に、フィルタ325上で長押しすることによって、ユーザデバイス190は、オンライン市場にアクセスすることができ、ユーザが化粧品製剤220、アプリケータ225、又は他の消費者製品を購入することが可能となる。いくつかの実施形態では、ユーザデバイスのユーザがフィルタ325を用いて画像335を共有することができ、他のユーザと通信することができ、又は化粧デザイン110のクリエイタにフィードバックを提供するか若しくは他の方法で通信することができるような、ソーシャルメディア制御343のメニューを生成することができる。説明されたユーザアクションのタイプは例示的なものであることが理解されよう。メニュー341及び/又はソーシャルメディアメニュー343などのユーザインターフェース要素を、代替的及び/又は追加的なインタラクションによって呼び出すことができる。いくつかの実施形態では、メニュー要素はデフォルトでディスプレイ337上に提示される。 In some embodiments, interaction with the screen 337 while the filters 325 are presented allows the user of the user device 190 to edit, add, or remove one or more filters 325. Different user actions 340 can initiate one or more alternative processes instead of activating a dynamic element. For example, a double finger tap can open a menu 341 where the user of the user device 190 can view the applicator 225, the cosmetic preparation 220, or other information describing the filter 325. Similarly, a long press on the filter 325 can allow the user device 190 to access an online marketplace where the user can purchase the cosmetic preparation 220, the applicator 225, or other consumer products. In some embodiments, a menu of social media controls 343 can be generated such that the user of the user device can use the filter 325 to share the image 335, communicate with other users, or provide feedback or otherwise communicate with the creator of the cosmetic design 110. It will be understood that the types of user actions described are exemplary. User interface elements, such as menu 341 and/or social media menu 343, can be invoked by alternative and/or additional interactions. In some embodiments, menu elements are presented by default on display 337.

図4は、様々な実施形態に係る、拡張現実化粧デザインフィルタ110をある形状タイプから別の形状タイプに変換するための例示的なプロセス400を示す概略図である。例示的なプロセス200及び300と同様に、例示的なプロセス400は、図1の例示的なシステム100の構成部品によって実行されるか、又は他の方法で実施される多数の動作として実装され得る。このように、動作は、コンピュータシステムの非一時的メモリ上に記憶されたコンピュータ可読命令の実行に応答して、図1のクライアントコンピューティングデバイス130(複数可)、サーバ160(複数可)、及び/又はユーザデバイス190(複数可)などのコンピュータシステムの1つ又は複数のプロセッサによって実施される動作であるか、又はこのような動作を含むことができる。動作は特定の順番で図示されているが、例示的なプロセス400は、より多い動作又はより少ない動作を含むことができ、動作の順番は変化し得る。いくつかの実施形態では、図1を参照してより詳細に説明したように、いくつかの動作は、異なる物理コンピュータによって実施される。例えば、いくつかの動作は、異なる部品によって交換可能に実施されることができ、又は2つ以上の部品の連携動作によって実施されることができる。 4 is a schematic diagram illustrating an exemplary process 400 for converting an augmented reality cosmetic design filter 110 from one shape type to another shape type, according to various embodiments. As with the exemplary processes 200 and 300, the exemplary process 400 may be implemented as a number of operations performed or otherwise performed by components of the exemplary system 100 of FIG. 1. As such, the operations may be or include operations performed by one or more processors of a computer system, such as the client computing device(s) 130, server(s) 160, and/or user device(s) 190 of FIG. 1, in response to execution of computer-readable instructions stored on a non-transitory memory of the computer system. Although the operations are illustrated in a particular order, the exemplary process 400 may include more or fewer operations, and the order of the operations may vary. In some embodiments, some operations are performed by different physical computers, as described in more detail with reference to FIG. 1. For example, some operations may be performed interchangeably by different components, or may be performed by the coordinated operation of two or more components.

トレース115は、図2を参照してより詳細に説明するように、ベースライン記述210を参照して生成され、それ自体生体表面180に固有である。したがって、例示的なプロセス400は、トレース115及び/又はフィルタ325を生成する工程の一部として、フィルタ325を第1顔形状から第2顔形状に外挿するための動作を記述する。図4を参照した説明では、顔の形状に焦点を当てているが、単にトレース115をテクスチャとしてユーザ表面315に適用するのではなく、トレース115の美的効果をリアルに再現するようにトレース115を変換するように、目の形状、口の形状、又は他の特徴形状など、個々の顔の特徴の形状に動作を同様に適用できることが理解されよう。 The trace 115 is generated with reference to the baseline description 210, as described in more detail with reference to FIG. 2, and is itself specific to the biological surface 180. Thus, the exemplary process 400 describes operations for extrapolating the filter 325 from a first facial shape to a second facial shape as part of generating the trace 115 and/or the filter 325. While the description with reference to FIG. 4 focuses on the shape of the face, it will be appreciated that operations can be similarly applied to the shapes of individual facial features, such as the shape of the eyes, mouth, or other features, to transform the trace 115 to realistically reproduce the aesthetic effect of the trace 115, rather than simply applying the trace 115 as a texture to the user surface 315.

動作401において、コンピュータシステムは1つ又は複数のトレース115を用いてマスクデータ410を生成する。トレース115が生体表面を記述するトポグラフィカルデータと相対的である場合、マスクデータ410を生成する工程は、アプリケーション215を記述するデータを、生体表面180を記述するトポグラフィカルデータ上に投影する工程を含む。これによってトレース115をある形状タイプ420から別の形状タイプ420に修正することが可能となる。 In operation 401, the computer system generates mask data 410 using one or more traces 115. If the traces 115 are relative to topographical data describing the biological surface, generating the mask data 410 includes projecting data describing the application 215 onto the topographical data describing the biological surface 180. This allows the traces 115 to be modified from one shape type 420 to another shape type 420.

動作403において、コンピュータシステムは、生体表面180の少なくとも一部に第1形状タイプ420を帰属させる。例えば、コンピュータシステムは、複数の形状タイプ420を記述する形状情報を参照することができる。形状情報は、サーバ160(複数可)又はクライアントコンピューティングデバイス130(複数可)に記憶され、アクセスされ、又はクライアントコンピューティングデバイス130(複数可)から他の方法で受信することができる。このようにして、例示的なプロセス400は、複数の形状タイプ420を記述する情報を受信する工程を含むことができる。 In operation 403, the computer system attributes a first shape type 420 to at least a portion of the biological surface 180. For example, the computer system may reference shape information describing the plurality of shape types 420. The shape information may be stored on, accessed by, or otherwise received from the server(s) 160 or the client computing device(s) 130. In this manner, the exemplary process 400 may include receiving information describing the plurality of shape types 420.

形状タイプ420を生体表面180に帰属させる工程は、形状タイプ420を示す生体表面180の特徴的な寸法、間隔、又は他の態様を決定するために、ベースライン記述210を参照する工程を含むことができる。顔の形状の例示的な例では、特徴的な態様は、ベースライン記述210の輪郭423を定義することによって、ベースライン記述210の1つ又は複数の点における特徴的な曲率425を識別することによって、又は特徴間の特徴的な間隔427を識別することによって、形状タイプ420を識別することができるように、ベースライン記述210にグリッド又は他の形態のガイド421を投影することによって定義することができる。形状タイプ420を帰属させるために、コンピュータ画像処理技術を使用したエッジ検出及び特徴検出を含むアプローチを採用できることが理解されよう。 Assigning a shape type 420 to the biological surface 180 may include referencing the baseline description 210 to determine characteristic dimensions, spacing, or other aspects of the biological surface 180 that are indicative of the shape type 420. In the illustrative example of a face shape, the characteristic aspects may be defined by projecting a grid or other form of guide 421 onto the baseline description 210 such that the shape type 420 may be identified by defining a contour 423 of the baseline description 210, by identifying a characteristic curvature 425 at one or more points of the baseline description 210, or by identifying a characteristic spacing 427 between features. It will be appreciated that approaches including edge detection and feature detection using computer image processing techniques may be employed to assign the shape type 420.

動作405において、コンピュータシステムは、種々の形状タイプ420のための1つ又は複数の形状フィルタ430を生成する。形状フィルタ430を生成する工程の一部として、動作401で生成されたマスクデータ410は、第1形状タイプ420-1から、第2形状タイプ420-2、第3形状タイプ420-3、又は付加的若しくは代替的な形状タイプ420に変換される。マスクデータ410の変換は、第1形状タイプ420-1のマスクデータ410を第2形状タイプ420-2のトポグラフィカルデータに投影する工程と、対応する変換をトレース115に適用する工程を含むことができるが、これに限定されない。このようにして、形状フィルタ430は、トレース115の美的形状及び着色を、第1形状タイプ420-1とは異なる形状タイプ420上に再現する。 In operation 405, the computer system generates one or more shape filters 430 for the different shape types 420. As part of generating the shape filters 430, the mask data 410 generated in operation 401 is transformed from the first shape type 420-1 to the second shape type 420-2, the third shape type 420-3, or an additional or alternative shape type 420. The transformation of the mask data 410 may include, but is not limited to, projecting the mask data 410 of the first shape type 420-1 onto topographical data of the second shape type 420-2 and applying a corresponding transformation to the trace 115. In this manner, the shape filter 430 reproduces the aesthetic shape and coloring of the trace 115 onto a shape type 420 different from the first shape type 420-1.

いくつかの実施形態では、種々の形状タイプ420に対して形状フィルタ430を生成する工程は、種々の物理的形状を考慮するために、空間投影を超えて、マスクデータ410に対する付加的な修正を含むことができる。例えば、いくつかの形状タイプ420は、眉の隆起、額の湾曲、顎の形状、頬骨、顎の形状など、より顕著な顔の特徴又は薄い顔の特徴によって特徴付けられる。このため、形状フィルタ430は、形状フィルタ430を生成する工程の一部として、マスクデータ410を再配置、分割、省略、複製、ミラーリング、又はこの他の方法で変換することができる。例示的な一例では、ハート形の顔形状に対応する第1形状タイプ420-1から、長方形の顔形状に対応する第2形状タイプ420-2のための形状フィルタ430を生成する工程は、額のトレースを髪の生え際に向かって上方に再配置する工程、額のトレースを額の両端まで広げる工程、及び、顎のトレースを顎のラインに沿って分割しミラーリングする工程を含む。対応する変換は、各形状タイプ420の形状フィルタ430を生成する工程の一部として、各トレース115用のマスクデータ410に適用することができる。 In some embodiments, generating shape filters 430 for different shape types 420 can include additional modifications to the mask data 410 beyond spatial projection to account for different physical shapes. For example, some shape types 420 are characterized by more pronounced or thinner facial features, such as brow ridges, forehead curvature, jaw shape, cheekbones, chin shape, etc. Thus, the shape filter 430 can rearrange, split, omit, duplicate, mirror, or otherwise transform the mask data 410 as part of generating the shape filter 430. In one illustrative example, generating a shape filter 430 for a first shape type 420-1 corresponding to a heart-shaped face shape to a second shape type 420-2 corresponding to a rectangular face shape includes rearranging the forehead trace upward toward the hairline, extending the forehead trace to both ends of the forehead, and splitting and mirroring the chin trace along the jaw line. A corresponding transformation can be applied to the mask data 410 for each trace 115 as part of the process of generating a shape filter 430 for each shape type 420.

顔の特徴の文脈では、化粧デザイン110が特定の顔の特徴(例えば、眉と目の間のアイシャドウデザイン)に対処する場合、例示的なプロセス400の構成動作を同様の原理に基づいて適用することができる。例えば、化粧デザイン110が丸い目の形状タイプ420を参照して作製される場合、動作405で形状フィルタ430を生成する工程は、マスクデータ410を丸い目からアーモンド目の形状タイプ420又は他の目の固有の形状タイプ420に変換する工程を含むことができる。対応する動作を、唇、手、耳、又は他の生体表面の形状に適用できることが理解されよう。 In the context of facial features, where the cosmetic design 110 addresses a particular facial feature (e.g., eyeshadow design between the eyebrows and the eyes), the composition operations of the exemplary process 400 can be applied based on similar principles. For example, where the cosmetic design 110 is created with reference to a round eye shape type 420, generating a shape filter 430 in operation 405 can include converting the mask data 410 from round eyes to an almond eye shape type 420 or other eye specific shape type 420. It will be appreciated that corresponding operations can be applied to the shape of lips, hands, ears, or other biological surfaces.

図5は、様々な実施形態に係る、拡張現実化粧デザインフィルタ510を複数のレイヤで生成するための例示的なプロセス500を示す概略図である。例示的なプロセス200、300、及び400と同様に、例示的なプロセス500は、図1の例示的なシステム100の構成部品によって実行されるか、又は他の方法で実施される多数の動作として実装され得る。このように、動作は、コンピュータシステムの非一時的なメモリ上に記憶されたコンピュータ可読命令の実行に応答して、図1のクライアントコンピューティングデバイス130(複数可)、サーバ160(複数可)、及び/又はユーザデバイス190(複数可)などのコンピュータシステムの1つ又は複数のプロセッサによって実施される動作であるか、又はこのような動作を含むことができる。動作は特定の順序で図示されているが、例示的なプロセス500は、より多い動作又はより少ない動作を含むことができ、動作の順序は変化し得る。いくつかの実施形態では、図1を参照してより詳細に説明したように、いくつかの動作は、異なる物理コンピュータによって実施される。例えば、いくつかの動作を、異なる部品によって交換可能に実施することができ、又は2つ以上の部品の連携動作によって実施することができる。 5 is a schematic diagram illustrating an exemplary process 500 for generating an augmented reality cosmetic design filter 510 in multiple layers, according to various embodiments. As with the exemplary processes 200, 300, and 400, the exemplary process 500 may be implemented as a number of operations performed or otherwise performed by components of the exemplary system 100 of FIG. 1. As such, the operations may be or include operations performed by one or more processors of a computer system, such as the client computing device(s) 130, server(s) 160, and/or user device(s) 190 of FIG. 1, in response to execution of computer-readable instructions stored on a non-transitory memory of the computer system. Although the operations are illustrated in a particular order, the exemplary process 500 may include more or fewer operations, and the order of operations may vary. In some embodiments, some operations are performed by different physical computers, as described in more detail with reference to FIG. 1. For example, some operations may be performed interchangeably by different components, or may be performed by the coordinated operation of two or more components.

図1~3を参照してより詳細に説明するように、拡張現実化粧デザインフィルタ510を分離したレイヤに区分できるように、生体表面180への複数の化粧品製剤220の順序的なアプリケーションを記録することによって、トレース115を生成することができる。図3を参照してより詳細に説明したように、フィルタ510の提示によって、アプリケーションのレイヤ別の順序を再現することができる。同様に、例示的なプロセス400は、例示的なプロセス500のレイヤ別の態様も組み込むことができる。ここでは、種々の形状タイプ420が、種々のレイヤリングプロセス、レイヤ間ブレンディング、並びに形状タイプ420の相違から生じるより複雑な光及び影効果を意味する。 As described in more detail with reference to FIGS. 1-3, the trace 115 can be generated by recording the sequential application of multiple cosmetic formulations 220 to the biological surface 180 such that the augmented reality cosmetic design filter 510 can be partitioned into separate layers. As described in more detail with reference to FIG. 3, the presentation of the filter 510 can recreate the layered order of application. Similarly, the exemplary process 400 can also incorporate the layered aspects of the exemplary process 500, where the different shape types 420 refer to different layering processes, inter-layer blending, and more complex light and shadow effects resulting from the differences in the shape types 420.

動作501~507では、一連のレイヤが定義され、各レイヤは1つ又は複数のトレース115を含む。例えば、動作501では、額のトレース515及び頬骨のトレース517を含む第1レイヤが定義される。動作503では、額のトレース520(複数可)、頬のトレース521、及び顎のトレース523(複数可)を含む第2レイヤが定義される。動作505では、第1及び第2レイヤの上に置かれる、1つ又は複数の顔の特徴を目立たせ又は強調するためのハイライトトレース(複数可)525を含むハイライトレイヤ(複数可)が定義される。動作507で、ハイライトレイヤ、第1レイヤ、第2レイヤの上に置かれる、アイシャドウトレース530と目の下のトレース531を含む目のレイヤ(複数可)が定義される。 In operations 501-507, a series of layers are defined, each layer including one or more traces 115. For example, in operation 501, a first layer is defined including a forehead trace 515 and a cheekbone trace 517. In operation 503, a second layer is defined including a forehead trace 520(s), a cheek trace 521, and a chin trace 523(s). In operation 505, a highlight layer(s) is defined that includes a highlight trace(s) 525 for highlighting or highlighting one or more facial features, overlaid on the first and second layers. In operation 507, an eye layer(s) is defined that includes an eyeshadow trace 530 and an under-eye trace 531, overlaid on the highlight layer, the first layer, and the second layer.

このようにして、拡張現実化粧デザインフィルタ510は、ユーザデバイス190上での提示中に動的にレイヤを追加又は削除することができる。同様に、クライアントコンピューティングデバイス130は、1つ又は複数のトレース115を多数のレイヤのそれぞれに関連付けることができる。例示的なプロセス500において説明されるようにレイヤを定義する工程によって、レイヤ間のブレンディングルールを定義することが可能になる。例えば、高次のレイヤは低次のレイヤの上に配置する(overly)ことができる。高次のレイヤは低次のレイヤを完全に覆い隠すことができる。例えばマスクデータ410のアルファチャンネルを通して定義される透明度又は部分的な透明度によって、複数のレイヤからの共局在化したコントリビューションを含む正味の美的効果を作り出すために、画像335において複数のレイヤを重ねることが可能となる。 In this manner, the augmented reality cosmetic design filter 510 can dynamically add or remove layers during presentation on the user device 190. Similarly, the client computing device 130 can associate one or more traces 115 with each of the multiple layers. Defining the layers as described in the exemplary process 500 allows for blending rules to be defined between the layers. For example, a higher order layer can overlay a lower order layer. A higher order layer can completely obscure a lower order layer. Transparency or partial transparency, defined, for example, through the alpha channel of the mask data 410, allows for multiple layers to be overlaid in the image 335 to create a net aesthetic effect that includes co-localized contributions from multiple layers.

図6は、様々な実施形態に係る、表面トーン及び製剤トーンを用いて製剤色を決定するための例示的なプロセス600を示す概略図である。 Figure 6 is a schematic diagram illustrating an exemplary process 600 for determining formulation color using surface tone and formulation tone, according to various embodiments.

図2を参照してより詳細に説明するように、化粧品製剤220のアプリケーション215を検出する工程は、色若しくは化粧品製剤220を決定する工程、及び/又は化粧品製剤220を識別する工程を含むことができる。色を決定するための技術が、カメラ140によって生成された画像に基づく画像処理動作を含む場合、様々な化粧品製剤220の色は、アプリケーション215に近接する生体表面180のトーンによって影響される可能性がある。このように、画像画素値の直接読み取りは、フィルタ325において使用される場合、不正確な演色性を生み出す可能性がある。 As will be described in more detail with reference to FIG. 2, detecting the application 215 of the cosmetic formulation 220 may include determining the color or the cosmetic formulation 220 and/or identifying the cosmetic formulation 220. If the technique for determining the color includes image processing operations based on the image generated by the camera 140, the color of the various cosmetic formulations 220 may be affected by the tone of the biological surface 180 in proximity to the application 215. Thus, a direct reading of the image pixel values may produce inaccurate color rendition when used in the filter 325.

動作601において、コンピュータシステムは、アプリケーション215に対応する多数の領域610を測定し、領域610のそれぞれについて生体表面180の表面トーン615を推定する。いくつかの実施形態では、例示的なプロセス600の動作は、例示的なプロセス200と並行して実行されるが、ベースライン記述210、トレース115の生成中に記録された画像、又は例示的なプロセス200を開始する前に生成された画像の較正セットを使用して、異なる時間に実行することもできる。表面トーン615は、例えば、顔の特徴が影を落とす場所や、表面が1つ又は複数のコンターを画定する場所など、領域610間で局所的に異なる場合があることが予想される。このため、動作601は、単一のアプリケーション215に対して複数の表面トーン610を定義する工程を含むことができる。 In operation 601, the computer system measures a number of regions 610 corresponding to the application 215 and estimates a surface tone 615 of the biological surface 180 for each of the regions 610. In some embodiments, the operations of the exemplary process 600 are performed in parallel with the exemplary process 200, but may also be performed at different times using the baseline description 210, images recorded during generation of the trace 115, or a calibration set of images generated prior to beginning the exemplary process 200. It is expected that the surface tone 615 may vary locally between regions 610, for example, where facial features cast shadows or where the surface defines one or more contours. Thus, operation 601 may include defining multiple surface tones 610 for a single application 215.

動作603において、コンピュータシステムは、アプリケーション215を含む画像中の領域610を測定し、化粧品製剤220の1つ又は複数の局所的な製剤トーン625を推定する。表面トーン615及び製剤トーン625を推定する工程は、各領域610における1つ又は複数の画素をサンプリングする工程、及び各領域610の平均着色を決定する工程を含むことができる。表面トーン615が、肌色に敏感な方法で製剤トーンを推定するための基準ベースライン値として機能することができるように、製剤トーン625は、基礎となる表面トーン615の影響を受けることが理解されよう。有利には、このように表面トーン615を推定する工程を含むコンピュータ画像処理アプローチを実装することにより、化粧デザイン110は、静的な拡張現実マスクを提示するのではなく、ユーザの肌色にレスポンシブであることができる。 In operation 603, the computer system measures the regions 610 in the image containing the application 215 and estimates one or more local formulation tones 625 of the cosmetic formulation 220. Estimating the surface tone 615 and formulation tone 625 may include sampling one or more pixels in each region 610 and determining an average coloration of each region 610. It will be appreciated that the formulation tone 625 is influenced by the underlying surface tone 615 such that the surface tone 615 can serve as a reference baseline value for estimating the formulation tone in a skin-tone sensitive manner. Advantageously, by implementing a computer image processing approach that includes estimating the surface tone 615 in this manner, the cosmetic design 110 can be responsive to the skin tone of the user, rather than presenting a static augmented reality mask.

動作605において、コンピュータシステムは、表面トーン615及び製剤トーン625を用いて化粧品製剤の色630を決定する。表面トーン615及び製剤トーン625とは対照的に、各化粧品製剤220は、製剤が、例えば、可視光の拡散反射を通して、単一の可視色を表現するように、均一に分散又は分布された1つ又は複数の顔料を含むことが企図される。このために、製剤色630は、RGB3色又は別の色表現アプローチのような色成分のベクトルであるか、又はこれを含むことができる。 In operation 605, the computer system determines the color 630 of the cosmetic formulation using the surface tone 615 and the formulation tone 625. In contrast to the surface tone 615 and the formulation tone 625, it is contemplated that each cosmetic formulation 220 includes one or more pigments that are uniformly dispersed or distributed such that the formulation appears to be a single visible color, for example, through diffuse reflection of visible light. To this end, the formulation color 630 can be or include a vector of color components, such as an RGB triad or another color representation approach.

動作605の一部として、対応する表面トーン615及び製剤トーン625を比較することができ、化粧品製剤220の色630を決定する工程の一部として、製剤トーン625に対する表面トーン615の全体的な影響を考慮することができる。例示的な例では、異なる領域610が異なって照明される場合、表面トーン615と製剤トーン625とを比較することにより、例えば、表面トーン615を使用して製剤トーン625の輝度変動を補正することにより、演色性に対する照明の影響を制御することができる。 As part of operation 605, corresponding surface tones 615 and formulation tones 625 can be compared, and the overall impact of the surface tone 615 on the formulation tone 625 can be considered as part of the process of determining the color 630 of the cosmetic formulation 220. In an illustrative example, when different regions 610 are illuminated differently, comparing the surface tone 615 and the formulation tone 625 can control the impact of lighting on color rendition, for example, by using the surface tone 615 to compensate for luminance variations in the formulation tone 625.

製剤色630を決定する工程により、種々の生体表面上で、種々の周囲条件下で、種々の製剤で、化粧デザイン110の美的効果の再現性を向上させることができることが理解されよう。図2を参照してより詳細に説明するように、製剤色630を、クリエイタとユーザとの間の肌色の差異を考慮するように修正することができる。同様に、製剤色630を、周囲条件に基づいてリアルな色の忠実度が向上するように修正することができる。例えば、明るい条件下では、色の強度を増加させることができ、一方、薄暗い条件下では、色の強度を減少させることができる。場合によっては、光や形状を考慮して色合いを動的に修正することもできる。例えば、例示的なプロセス300の一部として、対応するトレース115が陰になっていることを反映するために、より大きな青色成分を含むように製剤色630を修正することができる。逆に、対応するトレース115が明るい照明の中に移動したときに青色成分を減少させることができる。 It will be appreciated that the process of determining formulation color 630 can improve the reproducibility of the aesthetic effect of the cosmetic design 110 on various biological surfaces, under various ambient conditions, and with various formulations. As described in more detail with reference to FIG. 2, formulation color 630 can be modified to account for skin color differences between creators and users. Similarly, formulation color 630 can be modified to improve the fidelity of realistic colors based on ambient conditions. For example, under bright conditions, the intensity of the color can be increased, while under dim conditions, the intensity of the color can be decreased. In some cases, the color shade can also be dynamically modified to account for light and shape. For example, as part of the exemplary process 300, formulation color 630 can be modified to include a greater blue component to reflect that the corresponding trace 115 is in shade. Conversely, the blue component can be decreased when the corresponding trace 115 is moved into bright lighting.

前述の説明を通じて説明したように、トレース115及びフィルタ325を生成、修正、及び/又は提示するための動作は、コンピュータ回路機構、通信モジュール、及びメモリに記憶されたコンピュータ可読命令を含む1つ又は複数の電子デバイスによって実行されることが企図される。図1の例示的なシステム100の構成要素の連携動作を通じて、拡張現実フィルタを、ソーシャルメディアプラットフォームに統合されたユーザデバイス190のユーザにほぼリアルタイムで生成及び提示することができる。拡張現実フィルタは、顔の形状、肌色、及び周囲条件の違いを考慮して、化粧デザインの美的効果をリアルに再現することができる。拡張現実フィルタを、拡張現実又は従来のソーシャルメディアで現在可能であるものを超えて、化粧ルーチン順序の共有を向上するために動的に提示することができる。 As described throughout the foregoing description, it is contemplated that the operations for generating, modifying, and/or presenting the trace 115 and the filter 325 are performed by one or more electronic devices including computer circuitry, communication modules, and computer-readable instructions stored in memory. Through the coordinated operation of the components of the exemplary system 100 of FIG. 1, an augmented reality filter can be generated and presented in near real-time to a user of a user device 190 integrated with a social media platform. The augmented reality filter can realistically reproduce the aesthetic effects of a makeup design, taking into account differences in face shape, skin tone, and ambient conditions. The augmented reality filter can be dynamically presented to enhance sharing of makeup routine sequences beyond what is currently possible with augmented reality or traditional social media.

図7は、様々な実施形態に係る、図1のシステムの部品を含む例示的なシステム700を示すブロック図である。例示的なシステム700は、リモートコンピュータシステム160と(例えば、ネットワーク170を介して)電子通信するクライアントコンピューティングデバイス130を含む。例示的なシステム700は、関連するシステム要素の文脈において、図1のシステム100の一例を示し、このようなものとして、図2~図6を参照して説明したような動作を実行する電子機器及びソフトウェアを説明する。図7は、システム要素、特徴及び構成の非限定的な例を示しており、他の多くの特徴及び構成が企図される。図7に示す実施例では、図1のクライアントコンピューティングデバイス130は、コンピュータシステム710、生体表面180と相互作用するための複数の部品720、コンピュータ可読媒体730、及び、クライアントアプリケーション740を含み、コンピュータ可読媒体730上にコンピュータ実行可能命令として記憶されることができ、コンピュータシステム710によって実行されると、図1のシステム100を参照して説明した動作、及び図2~3の例示的な技術の動作を実装することができるものである。 7 is a block diagram illustrating an exemplary system 700 including components of the system of FIG. 1, according to various embodiments. The exemplary system 700 includes a client computing device 130 in electronic communication (e.g., via a network 170) with a remote computer system 160. The exemplary system 700 illustrates an example of the system 100 of FIG. 1 in the context of related system elements, and as such illustrates electronics and software for performing operations as described with reference to FIGS. 2-6. FIG. 7 illustrates non-limiting examples of system elements, features, and configurations, and many other features and configurations are contemplated. In the example illustrated in FIG. 7, the client computing device 130 of FIG. 1 includes a computer system 710, a number of components 720 for interacting with a biological surface 180, a computer-readable medium 730, and a client application 740, which may be stored as computer-executable instructions on the computer-readable medium 730 and which, when executed by the computer system 710, may implement operations described with reference to the system 100 of FIG. 1 and the exemplary techniques of FIGS. 2-3.

クライアントコンピューティングデバイス130は、電源711、ヒューマンマシンインターフェース713、1つ又は複数のプロセッサ715、ネットワークインターフェース717を含むがこれらに限定されない補助部品を組み込み、コンピュータ可読媒体730を含むことができる。電源711は、直流電源であり、例えば、充電式電池又はライン電源(例えば、AC110V、AC220Vなど)に接続するように構成された整流電源である。ヒューマンマシンインターフェース(HMI)713は、ユーザ入力を受信するか、又はユーザに提示するための出力を生成することができる任意のタイプのデバイスを含むことができる。任意のタイプのデバイスは、音声出力用のスピーカ、音声コマンドを受信するためのマイクロフォン、押しボタンスイッチ、トグルスイッチ、静電スイッチ、ロータリースイッチ、スライドスイッチ、ロッカースイッチ、又はタッチスクリーンなどである。 The client computing device 130 may incorporate auxiliary components, including but not limited to a power source 711, a human machine interface 713, one or more processors 715, a network interface 717, and may include a computer-readable medium 730. The power source 711 may be a direct current power source, such as a rechargeable battery or a rectified power source configured to connect to a line power source (e.g., 110V AC, 220V AC, etc.). The human machine interface (HMI) 713 may include any type of device capable of receiving user input or generating output for presentation to a user. The any type of device may be a speaker for audio output, a microphone for receiving voice commands, a push button switch, a toggle switch, a capacitive switch, a rotary switch, a slide switch, a rocker switch, or a touch screen.

1つ又は複数のプロセッサ715は、コンピュータ可読媒体730に記憶されたコンピュータ実行可能命令を実行するように構成される。一実施形態において、プロセッサ715(複数可)は、例えば、クライアントアプリケーション740の実行の一部として、通信バス又は他の回路機構を介して信号を部品720へ送信し、及び/又は部品720から信号を受信するように構成される。ネットワークインターフェース717は、プロセッサ715に代わって、クライアントコンピューティングデバイス130(又は他のコンピューティングデバイス)へ信号を送信し、及びクライアントコンピューティングデバイス130(又は他のコンピューティングデバイス)から信号を受信するように構成される。ネットワークインターフェース717は、Bluetooth(登録商標)、赤外線、近距離無線通信、及びWi-Fi(登録商標)などの近距離無線技術、WiMAX(登録商標)、2G、3G、4G、LTE(登録商標)、及び10Gなどの長距離無線技術、並びにUSB、FireWire(登録商標)、Thunderbolt(登録商標)、及び/又はイーサネット(登録商標)などの有線技術を含むがこれらに限定されない、任意の適切な通信技術を実装することができる。コンピュータ可読媒体730は、フラッシュメモリ(SSD)、ROM、EPROM、EEPROM、及びFPGAを含むがこれらに限定されない、コンピュータ実行可能命令を記憶することができる任意のタイプのコンピュータ可読媒体である。コンピュータ可読媒体730及びプロセッサ715(複数可)は、ASICなどの単一のデバイスに組み合わせることができる。又は、コンピュータ可読媒体730は、キャッシュメモリ、レジスタ、又はプロセッサ715の別の部品を含むことができる。 One or more processors 715 are configured to execute computer-executable instructions stored on computer-readable medium 730. In one embodiment, processor(s) 715 are configured to send signals to and/or receive signals from component 720 via a communications bus or other circuitry, for example as part of the execution of client application 740. Network interface 717 is configured to send signals to and receive signals from client computing device 130 (or other computing device) on behalf of processor 715. The network interface 717 may implement any suitable communication technology, including, but not limited to, short-range wireless technologies such as Bluetooth, infrared, near field communication, and Wi-Fi, long-range wireless technologies such as WiMAX, 2G, 3G, 4G, LTE, and 10G, and wired technologies such as USB, FireWire, Thunderbolt, and/or Ethernet. The computer-readable medium 730 is any type of computer-readable medium capable of storing computer-executable instructions, including, but not limited to, flash memory (SSD), ROM, EPROM, EEPROM, and FPGA. The computer-readable medium 730 and the processor(s) 715 may be combined into a single device, such as an ASIC. Alternatively, the computer-readable medium 730 may include cache memory, registers, or other parts of the processor 715.

図示された実施形態では、コンピュータ可読媒体730は、1つ又は複数のプロセッサ715による実行に応答して、クライアントコンピューティングデバイス130に制御エンジン731を実装させるコンピュータ実行可能命令を記憶する。制御エンジン731は、上述のように、クライアントコンピューティングデバイス130の1つ又は複数の態様を制御する。いくつかの実施形態において、コンピュータ実行可能命令は、クライアントコンピューティングデバイス130に、ターゲット表面の表面マッピングを生成する工程、トレースを生成する工程、又はトレースをサーバ160(複数可)に出力する工程などの1つ又は複数の動作を実行させるように構成される。いくつかの実施形態において、制御エンジン731は、クライアントアプリケーション740にしたがって、コンピュータシステム710と部品720との間の相互作用を促進することによって、基本機能を制御する。いくつかの実施形態では、制御エンジン731は、化粧ルーチンが開始されることを示すHMI713からの入力を検出するか(例えば、電源スイッチ若しくは「開始」ボタンのアクティベーションに応答して、又は図1のカメラ140の前の顔の検出に応答して)、又は(例えば、Bluetooth(登録商標)ペア接続を介して)クライアントコンピューティングデバイス130(複数可)、リモートコンピュータシステム160、又はユーザデバイス190(複数可)から信号を受信する。 In the illustrated embodiment, the computer-readable medium 730 stores computer-executable instructions that, in response to execution by one or more processors 715, cause the client computing device 130 to implement a control engine 731. The control engine 731 controls one or more aspects of the client computing device 130, as described above. In some embodiments, the computer-executable instructions are configured to cause the client computing device 130 to perform one or more operations, such as generating a surface mapping of a target surface, generating a trace, or outputting the trace to a server(s) 160. In some embodiments, the control engine 731 controls basic functions by facilitating interaction between the computer system 710 and the components 720 according to the client application 740. In some embodiments, the control engine 731 detects an input from the HMI 713 indicating that a makeup routine is to be initiated (e.g., in response to activation of a power switch or a "start" button, or in response to detection of a face in front of the camera 140 of FIG. 1), or receives a signal from the client computing device 130(s), the remote computer system 160, or the user device 190(s) (e.g., via a Bluetooth® paired connection).

クライアントコンピューティングデバイス130の部品は、アプリケーションに適合させることができ、又はアプリケーション(例えば、ASIC)に固有とできる。例えば、部品720は、図1を参照してより詳細に説明するように、1つ若しくは複数のカメラ721、ディスプレイ723、1つ若しくは複数の放射線源725、及び/又は1つ若しくは複数の放射線センサ727を含むことができる。いくつかの実施形態では、部品720は、単一のデバイスに統合される。このようにして、クライアントコンピューティングデバイス130は、部品720と連携してクライアントアプリケーション740を実行するように構成される、特殊用途のコンピューティングデバイスとできる。いくつかの実施形態では、クライアントコンピューティングデバイス130は、クライアントアプリケーション740を記憶する、タブレット又はスマートフォンなどの汎用モバイル電子デバイスである。 The components of the client computing device 130 can be adapted to the application or can be application (e.g., ASIC) specific. For example, the components 720 can include one or more cameras 721, a display 723, one or more radiation sources 725, and/or one or more radiation sensors 727, as described in more detail with reference to FIG. 1. In some embodiments, the components 720 are integrated into a single device. In this manner, the client computing device 130 can be a special-purpose computing device configured to execute the client application 740 in conjunction with the components 720. In some embodiments, the client computing device 130 is a general-purpose mobile electronic device, such as a tablet or smartphone, that stores the client application 740.

いくつかの実施形態では、クライアントアプリケーション740は、画像キャプチャ/3Dスキャニングエンジン741も含む。画像キャプチャ/3Dスキャニングエンジン741は、立体画像、LiDARデータ、又は他の形態の表面/深度センシング情報を含むがこれらに限定されない、部品720のうちの1つ又は複数から得られるデジタル画像(例えば、カラー画像、赤外線画像、深度画像など)をキャプチャして処理するように構成される。いくつかの実施形態では、このようなデータを使用して、ターゲット体表面(例えば、図1のターゲット表面181)のきれいで正確な3Dコンターマッピングを得る。いくつかの実施形態では、デジタル画像又はスキャンは、クライアントコンピューティングデバイス130によって処理され、及び/又は3Dモデルエンジン781で処理するためにリモートコンピュータシステム160に送信される。一実施形態では、キャプチャされた画像データを位置追跡エンジン743で使用して、ターゲット体表面上の、キーポイント、エッジ、又は特徴の位置を決定する。いくつかの実施形態では、位置追跡エンジン743は、例えば、v-SLAM技術を実装することによって、3D空間内のターゲット体表面のコンターを追跡する。いくつかの実施形態では、位置追跡エンジン743からの位置情報を使用して、制御エンジン731に送信される信号を生成する。この信号を使用して、本明細書に記載される技術にしたがって、例えば、ソース725又はHMI713を含むコンピュータシステム710の1つ又は複数の部品720又は要素を制御する。 In some embodiments, the client application 740 also includes an image capture/3D scanning engine 741. The image capture/3D scanning engine 741 is configured to capture and process digital images (e.g., color images, infrared images, depth images, etc.) obtained from one or more of the parts 720, including but not limited to stereoscopic images, LiDAR data, or other forms of surface/depth sensing information. In some embodiments, such data is used to obtain a clean and accurate 3D contour mapping of the target body surface (e.g., target surface 181 of FIG. 1). In some embodiments, the digital images or scans are processed by the client computing device 130 and/or transmitted to the remote computer system 160 for processing by the 3D model engine 781. In one embodiment, the captured image data is used by a position tracking engine 743 to determine the location of key points, edges, or features on the target body surface. In some embodiments, the position tracking engine 743 tracks the contours of the target body surface in 3D space, for example, by implementing v-SLAM technology. In some embodiments, the position information from the position tracking engine 743 is used to generate a signal that is sent to the control engine 731. This signal is used to control one or more parts 720 or elements of the computer system 710, including, for example, the source 725 or the HMI 713, in accordance with the techniques described herein.

いくつかの実施形態では、本明細書で説明するデジタル3Dモデルは、クライアントコンピューティングデバイス130が取得したセンサデータに基づいて生成される。このように、デジタル3Dモデルは、クライアントコンピューティングデバイス130、クラウドコンピューティングシステムなどの他のコンピューティングデバイス、又はこれらの組み合わせによって生成される。いくつかの実施形態では、デジタル3Dモデルは、3Dトポロジー及びテクスチャ情報を含む。これらは、図1~6を参照してより詳細に説明するように、顔の構造及び皮膚の特徴などの体表面の正確な表現を再現するために使用することができる。 In some embodiments, the digital 3D models described herein are generated based on sensor data acquired by the client computing device 130. As such, the digital 3D models are generated by the client computing device 130, other computing devices such as cloud computing systems, or a combination thereof. In some embodiments, the digital 3D models include 3D topology and texture information, which can be used to recreate accurate representations of body surfaces, such as facial structure and skin features, as described in more detail with reference to Figures 1-6.

いくつかの実施形態では、クライアントアプリケーション740は、ユーザインターフェース745を含む。一実施形態では、ユーザインターフェース745は、ユーザが化粧デザイン、チュートリアルビデオ、又はアニメーションを選択するのをガイドするためにディスプレイを介して提示されるグラフィカルガイド又はプロンプトを含むが、これらに限定されないインタラクティブ機能を含む。いくつかの実施形態では、ユーザインターフェース745は、マッピング及び投影エンジンによる使用のために確実に十分なデータを収集するために、特定の照明条件、角度などの下でユーザを誘導するためのガイダンス(例えば、矢印やターゲットなどの視覚的ガイド、進捗インジケータ、音声/触覚フィードバック、合成音声など)を提供する。 In some embodiments, the client application 740 includes a user interface 745. In one embodiment, the user interface 745 includes interactive features including, but not limited to, graphical guides or prompts presented via a display to guide the user in selecting a cosmetic design, tutorial video, or animation. In some embodiments, the user interface 745 provides guidance (e.g., visual guides such as arrows and targets, progress indicators, audio/haptic feedback, synthesized speech, etc.) to direct the user under particular lighting conditions, angles, etc. to ensure sufficient data is collected for use by the mapping and projection engine.

クライアントアプリケーション740は、マッピングモジュール747を含むことができる。マッピングモジュール747は、化粧デザインの数値表現を拡張現実化粧デザインフィルタに変換するためのコンピュータ可読命令(例えば、ソフトウェア、ドライバなど)であるか、又はこれを含むことができる。マッピングモジュール747の動作の一部として、クライアントアプリケーション740は、カメラ721(複数可)及びセンサ727からリアルタイムのデータを受信することができる。このデータは、3Dスキャニングエンジン741、位置追跡エンジン743によって処理されることができる。このデータを使用して、ターゲット体表面への一連のアプリケーション中に開発されるマッピング及び化粧デザインを漸進的に更新することができる。このようにして、マッピングモジュール747は、ターゲット体表面の動きに応答することができる。それにより、化粧デザインフィルタに対する忠実度を失うことなく、ユーザ側の動きに対するクライアントコンピューティングデバイス130の許容度を増加させることができる。いくつかの実施形態では、このようなリアルタイムのスキャン/追跡のための計算リソース需要は、並列化又は分散ルーチンを介して、リモートコンピュータシステム160のような複数のデバイスにまたがって分散させることができる。 The client application 740 may include a mapping module 747. The mapping module 747 may be or may include computer readable instructions (e.g., software, drivers, etc.) for converting a numerical representation of a cosmetic design into an augmented reality cosmetic design filter. As part of the operation of the mapping module 747, the client application 740 may receive real-time data from the camera(s) 721 and the sensor 727. This data may be processed by the 3D scanning engine 741, the position tracking engine 743. This data may be used to progressively update the mapping and cosmetic design developed during a series of applications to the target body surface. In this manner, the mapping module 747 may respond to movements of the target body surface, thereby increasing the tolerance of the client computing device 130 to movements on the part of the user without losing fidelity to the cosmetic design filter. In some embodiments, the computational resource demands for such real-time scanning/tracking may be distributed across multiple devices, such as the remote computer system 160, via parallelization or distribution routines.

クライアントアプリケーション740の通信モジュール749は、図1を参照してより詳細に説明するように、リモートコンピュータシステム160若しくはユーザデバイス190(複数可)などの他のデバイス若しくはシステムへの送信のための情報を準備するため、又は他のデバイス若しくはシステムから情報を受信して解釈するために使用することができる。このような情報は、キャプチャしたデジタル画像、スキャン、又はビデオ、パーソナルケアデバイスの設定、カスタムケアルーチン、ユーザ嗜好、ユーザ識別子、デバイス識別子などを含むことができる。一実施形態では、クライアントコンピューティングデバイス130は、ケアルーチンの実行を記述するデータ、体表面の画像データ、又は他のデータを収集する。一実施形態では、このようなデータは、(例えば、製品データストア783又はユーザプロファイルデータストア785内の)さらなる処理又は記憶のために、ネットワークインターフェース717を介してリモートコンピュータシステム160に送信される。クライアントコンピューティングデバイス130は、リモートコンピュータシステム160又はユーザデバイス190(複数可)などのシステム700の他の構成要素と相互作用するために、消費者、パーソナルケア専門家、又は何らかの他のエンティティによって使用され得る。一実施形態では、クライアントコンピューティングデバイス130は、部品720及びクライアントアプリケーション740を備えるか、周辺デバイスとの電子的結合を介して部品を備えるスマートフォン又はタブレットコンピューティングデバイスなどのモバイルコンピューティングデバイスである。 The communication module 749 of the client application 740 can be used to prepare information for transmission to, or receive and interpret information from, other devices or systems, such as the remote computer system 160 or user device(s) 190, as described in more detail with reference to FIG. 1. Such information can include captured digital images, scans, or videos, personal care device settings, custom care routines, user preferences, user identifiers, device identifiers, and the like. In one embodiment, the client computing device 130 collects data describing the performance of a care routine, body surface image data, or other data. In one embodiment, such data is transmitted to the remote computer system 160 via the network interface 717 for further processing or storage (e.g., in the product data store 783 or the user profile data store 785). The client computing device 130 can be used by a consumer, a personal care professional, or some other entity to interact with other components of the system 700, such as the remote computer system 160 or the user device(s) 190. In one embodiment, the client computing device 130 is a mobile computing device, such as a smartphone or tablet computing device, that includes the components 720 and the client application 740, or that includes the components through electronic coupling with peripheral devices.

次に、リモートコンピュータシステム160の例示的な部品及び機能について説明する。リモートコンピュータシステム160は、例えばクラウドコンピューティング配置において、図示された部品の1つ又は複数を実装する1つ又は複数のサーバコンピュータを含む。リモートコンピュータシステム160は、投影エンジン787、3Dモデルエンジン781、製品データストア783、及びユーザプロファイルデータストア785を含む。一実施形態では、3Dモデルエンジン781は、画像データ(例えば、カラー画像データ、赤外線画像データ)及び深度データを使用して、ターゲット体表面の3Dモデルを生成する。画像データは、クライアントコンピューティングデバイス130から、例えば、クライアントコンピューティングデバイス130と一体化されているか、そうでなければクライアントコンピューティングデバイス130と電子的に結合されているカメラ721(複数可)又はセンサ727(複数可)から取得される。一実施形態において、ユーザに関連付けられた画像データ及び深度データは、ユーザプロファイルデータストア785に記憶される。一実施形態では、ユーザの個人情報であるか、又はユーザを識別するために使用され得る任意の情報を記憶する前に、ユーザの同意が得られる。 Next, exemplary components and functions of the remote computer system 160 are described. The remote computer system 160 includes one or more server computers implementing one or more of the illustrated components, for example in a cloud computing arrangement. The remote computer system 160 includes a projection engine 787, a 3D model engine 781, a product data store 783, and a user profile data store 785. In one embodiment, the 3D model engine 781 uses image data (e.g., color image data, infrared image data) and depth data to generate a 3D model of the target body surface. The image data is obtained from the client computing device 130, for example from a camera(s) 721 or a sensor(s) 727 integrated with or otherwise electronically coupled to the client computing device 130. In one embodiment, the image data and depth data associated with the user are stored in the user profile data store 785. In one embodiment, the user's consent is obtained before storing any information that is personal information about the user or that can be used to identify the user.

一実施形態では、マッピング/投影エンジン787は、画像/センサデータを使用してターゲット表面のマッピングを生成する工程、及び/又は拡張現実フィルタとして化粧品ルーチンの投影を生成する工程など、化粧ルーチンに関連するデータの処理を実施する。次いで、化粧ルーチンに関連するデータをユーザデバイス190(複数可)に送信することができる。いくつかの実施形態では、投影エンジン787は、ユーザプロファイルデータストア785、製品データストア783、3Dモデルエンジン781、又は他のソース若しくはソースの組み合わせからのユーザ情報を使用して、化粧デザインデータを生成する。 In one embodiment, the mapping/projection engine 787 performs processing of data related to the makeup routine, such as using image/sensor data to generate a mapping of the target surface and/or generate a projection of the makeup routine as an augmented reality filter. The data related to the makeup routine can then be transmitted to the user device(s) 190. In some embodiments, the projection engine 787 generates makeup design data using user information from the user profile data store 785, the product data store 783, the 3D model engine 781, or other sources or combinations of sources.

3Dモデルエンジン781は、機械学習又は人工知能技術(例えば、テンプレートマッチング、特徴抽出及びマッチング、分類、人工ニューラルネットワーク、ディープラーニングアーキテクチャ、遺伝的アルゴリズムなど)を採用することができる。例えば、顔の表面マッピングに係る化粧デザインを生成するために、3Dモデルエンジン781は、3Dモデルエンジン781によって生成された顔マッピングを解析して、ターゲット体表面のコンター、しわ、皮膚テクスチャなどを測定又はマッピングすることができる。3Dモデルエンジン781は、ユーザデバイス190(複数可)を通じてユーザによって提供された識別子コードに基づいて、化粧デザインを記述するデータを受信することができる。このようなシナリオでは、3Dモデルエンジン781は、このような情報を使用して、拡張現実化粧デザインフィルタをユーザの対応する体表面の画像上に化粧デザイン(例えば、図1の化粧デザイン110)の投影を生成することができる。 The 3D model engine 781 may employ machine learning or artificial intelligence techniques (e.g., template matching, feature extraction and matching, classification, artificial neural networks, deep learning architectures, genetic algorithms, etc.). For example, to generate a cosmetic design for a facial surface mapping, the 3D model engine 781 may analyze the facial mapping generated by the 3D model engine 781 to measure or map the contours, wrinkles, skin texture, etc. of the target body surface. The 3D model engine 781 may receive data describing the cosmetic design based on an identifier code provided by a user through the user device(s) 190. In such a scenario, the 3D model engine 781 may use such information to generate an augmented reality cosmetic design filter projection of the cosmetic design (e.g., cosmetic design 110 of FIG. 1) onto the image of the user's corresponding body surface.

図7に示されるデバイスは、ネットワーク170を介して互いに通信することができる。ネットワーク170は、DSL、イーサネット(登録商標)、光ファイバ、USB、Firewire(登録商標)、Thunderbolt(登録商標)などの有線技術、WiFi(登録商標)、WiMAX(登録商標)、3G、4G、LTE(登録商標)、5G、10G、Bluetooth(登録商標)などの無線技術、及びプライベートネットワーク(例えば、イントラネット)又はパブリックネットワーク(例えば、インターネット)を含むがこれらに限定されない任意の適切な通信技術を含むことができる。一般に、図7のコンピューティングデバイス若しくは部品、又は記載された実施形態にしたがって使用される他の部品又はコンピューティングデバイス間の通信は、直接又は中間部品若しくは中間デバイスを介して生じる。 The devices shown in FIG. 7 can communicate with each other via a network 170. The network 170 can include any suitable communication technology, including, but not limited to, wired technologies such as DSL, Ethernet, fiber optics, USB, Firewire, Thunderbolt, wireless technologies such as WiFi, WiMAX, 3G, 4G, LTE, 5G, 10G, Bluetooth, and private networks (e.g., intranets) or public networks (e.g., the Internet). In general, communication between the computing devices or components of FIG. 7, or other components or computing devices used in accordance with the described embodiments, occurs directly or through intermediate components or devices.

図1及び図7を参照して開示・説明した配置の代替が可能である。例えば、複数の部品に実装されるとして説明した機能を、代わりに単一の部品に統合したり、単一の部品に実装されるとして説明した機能を、複数の図示した部品、又は図1若しくは図7に示されていない他の部品に実装したりすることができる。別の例として、特定の部品を含むものとして図示されている図1及び図7のデバイスは、説明した実施形態の範囲から逸脱することなく、より多くの部品、より少ない部品、又は異なる部品を代わりに含むことができる。別の例として、特定のデバイス又は補助部品によって実施されるものとして説明した機能を、代わりに、システム内の1つ又は複数の他のデバイスによって実施することができる。一例として、3Dモデルエンジン714は、クライアントコンピューティングデバイス130、又は他のデバイス若しくはデバイスの組み合わせに実装することができる。 Alternatives to the arrangements disclosed and described with reference to Figures 1 and 7 are possible. For example, functionality described as being implemented in multiple components can instead be integrated into a single component, and functionality described as being implemented in a single component can instead be implemented in multiple illustrated components, or in other components not shown in Figures 1 or 7. As another example, devices in Figures 1 and 7 illustrated as including certain components can instead include more, fewer, or different components without departing from the scope of the described embodiments. As another example, functionality described as being performed by a particular device or subcomponent can instead be performed by one or more other devices in the system. As an example, the 3D model engine 714 can be implemented in the client computing device 130, or in other devices or combinations of devices.

本明細書の他の箇所に記載した実施形態の技術的利点に加えて、いくつかの実施形態では多数の他の技術的利点が達成される。例えば、システム700によって、プロセスのいくつかの態様が、パーソナルケアデバイス又はクライアントコンピューティングデバイスによって独立して実施することが可能となる一方で、他の処理の負担をリモートコンピュータシステム160(これは、比較的高出力で信頼性の高いコンピューティングシステムであり得る)に移動させる。したがって、パーソナルケアデバイス又はクライアントコンピューティングデバイスによって提供される機能の性能が向上し、バッテリ寿命を維持する。 In addition to the technical advantages of the embodiments described elsewhere herein, some embodiments achieve a number of other technical advantages. For example, the system 700 allows some aspects of the process to be performed independently by the personal care device or client computing device, while shifting other processing burdens to the remote computer system 160 (which may be a relatively powerful and reliable computing system). Thus, performance of the functionality provided by the personal care device or client computing device is improved and battery life is preserved.

一般に、本明細書で使用する「エンジン」という語は、C、C++、COBOL(登録商標)、JAVA(登録商標)、PHP(登録商標)、Perl(登録商標)、HTML、CSS、JavaScript(登録商標)、VBScript(登録商標)、ASPX、Microsoft .NET(登録商標)などのプログラミング言語で記述されたハードウェア命令又はソフトウェア命令に具現化されたロジックを指す。エンジンは、実行可能プログラムにコンパイルすることも、インタプリタ型プログラミング言語で記述することもできる。ソフトウェアエンジンは、他のエンジンから呼び出すことも、エンジン自身から呼び出すこともできる。一般に、本明細書で説明するエンジンは、他のエンジンと統合したり、サブエンジンに分割したりできる論理モジュールを指す。エンジンは、任意のタイプのコンピュータ可読媒体又はコンピュータ記憶デバイスに記憶することができ、1つ又は複数の汎用コンピュータに記憶されて実行される。したがって、エンジン又はこの機能を提供するように構成された専用コンピュータが作製される。 In general, the term "engine" as used herein refers to logic embodied in hardware or software instructions written in a programming language such as C, C++, COBOL, JAVA, PHP, Perl, HTML, CSS, JavaScript, VBScript, ASPX, Microsoft.NET, etc. An engine can be compiled into an executable program or written in an interpreted programming language. Software engines can be called by other engines or by themselves. In general, engines as described herein refer to logical modules that can be integrated with other engines or divided into sub-engines. Engines can be stored on any type of computer-readable medium or computer storage device and are stored and executed on one or more general-purpose computers. Thus, engines or special-purpose computers configured to provide this functionality are created.

当業者に理解されるように、本明細書で説明する「データストア」は、コンピューティングデバイスによるアクセスのためにデータを記憶するように構成された任意の適切なデバイスとできる。データストアの一例は、1つ又は複数のコンピューティングデバイス上で実行され、高速ネットワークを介してアクセス可能な、信頼性の高い高速リレーショナルデータベース管理システム(DBMS)である。データストアの別の例は、キーバリューストアである。しかしながら、クエリに応答して記憶されたデータを迅速かつ確実に提供することができる他の任意の適切なストレージ技術及び/又はデバイスを使用することができる。コンピューティングデバイスは、ネットワークを介してではなくローカルにアクセス可能であり、又はクラウドベースのサービスとして提供されることができる。また、データストアは、以下に更に説明するように、コンピュータ可読記憶媒体に組織的に記憶されたデータを含むこともできる。当業者であれば、本開示の範囲から逸脱することなく、本明細書で説明する別個のデータストアを単一のデータストアに組み合わせること、及び/又は本明細書で説明する単一のデータストアを複数のデータストアに分離することができることを認識するであろう。 As will be appreciated by those skilled in the art, a "data store" as described herein can be any suitable device configured to store data for access by a computing device. One example of a data store is a reliable, high-speed relational database management system (DBMS) running on one or more computing devices and accessible over a high-speed network. Another example of a data store is a key-value store. However, any other suitable storage technology and/or device capable of quickly and reliably providing stored data in response to a query can be used. The computing devices can be accessible locally rather than over a network, or can be provided as a cloud-based service. A data store can also include data systematically stored on a computer-readable storage medium, as further described below. Those skilled in the art will recognize that the separate data stores described herein can be combined into a single data store and/or the single data store described herein can be separated into multiple data stores without departing from the scope of the present disclosure.

図8は、様々な実施形態に係る、例示的なコンピューティングデバイス800の態様を示すブロック図である。複数の異なるタイプのコンピューティングデバイスを、様々な実施形態を参照して説明するが、例示的なコンピューティングデバイス800は、多くの異なるタイプのコンピューティングデバイスに共通する様々な要素を説明する。図8は、ネットワーク上のデバイスとして実装されるコンピューティングデバイスを参照して説明するが、以下の説明は、サーバ、パーソナルコンピュータ、携帯電話、スマートフォン、タブレットコンピュータ、組み込みコンピューティングデバイス、及び本開示の実施形態の一部を実装するために使用することができる他のデバイスに適用可能である。更に、当業者などは、コンピューティングデバイス800が、現在利用可能な、又は今後開発される任意の数のデバイスのうちの任意の1つとできることを認識するであろう。 Figure 8 is a block diagram illustrating aspects of an exemplary computing device 800, according to various embodiments. Although several different types of computing devices are described with reference to various embodiments, the exemplary computing device 800 illustrates various elements common to many different types of computing devices. Although Figure 8 is described with reference to a computing device implemented as a device on a network, the following description is applicable to servers, personal computers, mobile phones, smartphones, tablet computers, embedded computing devices, and other devices that can be used to implement some of the embodiments of the present disclosure. Moreover, those skilled in the art and others will recognize that the computing device 800 can be any one of any number of devices currently available or later developed.

最も基本的な構成では、例示的なコンピューティングデバイス800は、少なくとも1つのプロセッサ802と、通信バス806によって接続されたシステムメモリ804とを含む。デバイスの正確な構成及びタイプに応じて、システムメモリ804は、読み取り専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、EEPROM、フラッシュメモリ、又は同様のメモリ技術などの揮発性メモリ又は不揮発性メモリとできる。当業者などは、システムメモリ804が、典型的には、プロセッサ802に直ちにアクセス可能であり、及び/又はプロセッサ802によって現在操作されているデータ及び/又はプログラムモジュールを記憶することを認識するであろう。この点に関して、プロセッサ802は、命令の実行をサポートすることによって、コンピューティングデバイス800の計算センターとして機能することができる。 In its most basic configuration, the exemplary computing device 800 includes at least one processor 802 and a system memory 804 connected by a communications bus 806. Depending on the exact configuration and type of device, the system memory 804 can be volatile or non-volatile memory, such as read-only memory ("ROM"), random access memory ("RAM"), EEPROM, flash memory, or similar memory technologies. Those skilled in the art and others will recognize that the system memory 804 typically stores data and/or program modules that are immediately accessible to and/or currently being operated on by the processor 802. In this regard, the processor 802 can function as the computational center of the computing device 800 by supporting the execution of instructions.

図8に更に示すように、コンピューティングデバイス800は、ネットワークを介して他のデバイスと通信するための1つ又は複数の部品を備えるネットワークインターフェース810を含むことができる。本開示の実施形態は、一般的なネットワークプロトコルを使用して通信を実施するためにネットワークインターフェース810を利用する基本サービスにアクセスすることができる。ネットワークインターフェース810は、WiFi(登録商標)、2G、3G、LTE(登録商標)、WiMAX(登録商標)、Bluetooth(登録商標)、Bluetooth low energy(登録商標)などの1つ又は複数の無線通信プロトコルを介して通信するように構成された無線ネットワークインターフェースを含むこともできる。当業者には理解されるように、図8に図示したネットワークインターフェース810は、図1のシステム100の特定の部品に関して上記で説明し図示した1つ又は複数の無線インターフェース又は物理通信インターフェースを表すことができる。 As further shown in FIG. 8, the computing device 800 may include a network interface 810 that comprises one or more components for communicating with other devices over a network. An embodiment of the present disclosure may access basic services that utilize the network interface 810 to implement communications using a common network protocol. The network interface 810 may also include a wireless network interface configured to communicate via one or more wireless communication protocols, such as WiFi, 2G, 3G, LTE, WiMAX, Bluetooth, Bluetooth low energy, etc. As will be appreciated by those skilled in the art, the network interface 810 illustrated in FIG. 8 may represent one or more wireless or physical communication interfaces described and illustrated above with respect to certain components of the system 100 of FIG. 1.

図8に描かれた例示的実施形態では、コンピューティングデバイス800は記憶媒体808も含む。しかし、ローカル記憶媒体にデータを永続化する手段を含まないコンピューティングデバイスを使用して、サービスにアクセスすることができる。したがって、図8に描かれている記憶媒体808は、記憶媒体808が任意選択であることを示すために破線で表されている。いずれにせよ、記憶媒体808は、揮発性又は不揮発性、取り外し可能又は取り外し不可能であり、ハードディスクドライブ、ソリッドステートドライブ、CDROM、DVD、又は他のディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ及び/又はこのようなものを含むがこれらに限定されない、情報を記憶することができる任意の技術を使用して実装される。 In the exemplary embodiment depicted in FIG. 8, the computing device 800 also includes a storage medium 808. However, the service may be accessed using a computing device that does not include a means for persisting data on a local storage medium. Thus, the storage medium 808 depicted in FIG. 8 is represented by a dashed line to indicate that the storage medium 808 is optional. In any case, the storage medium 808 may be volatile or non-volatile, removable or non-removable, and implemented using any technology capable of storing information, including, but not limited to, a hard disk drive, a solid state drive, a CD-ROM, a DVD, or other disk storage, a magnetic cassette, a magnetic tape, a magnetic disk storage, and/or the like.

本明細書で使用する場合、「コンピュータ可読媒体」という用語は、コンピュータ可読命令、データ構造、プログラムモジュール、又は他のデータなどの情報を記憶することができる任意の方法又は技術において、揮発性及び不揮発性、並びに、取り外し可能及び実装されないものを含む。これに関して、図8に描かれているシステムメモリ804及び記憶媒体808は、コンピュータ可読媒体の単なる例に過ぎない。 As used herein, the term "computer-readable medium" includes any method or technology capable of storing information, such as computer-readable instructions, data structures, program modules, or other data, both volatile and non-volatile, as well as removable and non-implemented. In this regard, system memory 804 and storage media 808 depicted in FIG. 8 are merely examples of computer-readable media.

プロセッサ802、システムメモリ804、通信バス806、記憶媒体808、及びネットワークインターフェース810を含むコンピューティングデバイスの適切な実装は、既知であり、市販されている。図示を容易にするため、及びクレームされる主題の理解にとって重要でないため、図8は、多くのコンピューティングデバイスの典型的な部品のいくつかを示していない。この点、例示的なコンピューティングデバイス800は、キーボード、キーパッド、マウス、マイクロフォン、タッチ入力デバイス、タッチスクリーン、及び/又はこのようなもののような入力デバイスを含むことができる。このような入力デバイスは、RF、赤外線、シリアル、パラレル、Bluetooth(登録商標)、Bluetooth low energy(登録商標)、USB、又は無線接続若しくは物理接続を使用する他の適切な接続プロトコルを含む有線接続又は無線接続によって、例示的なコンピューティングデバイス800に結合され得る。同様に、例示的なコンピューティングデバイス800は、ディスプレイ、スピーカ、プリンタなどの出力デバイスを含むこともできる。これらのデバイスは当技術分野で周知であるため、本明細書ではこれ以上図示又は説明しない。 Suitable implementations of a computing device including a processor 802, a system memory 804, a communication bus 806, a storage medium 808, and a network interface 810 are known and commercially available. For ease of illustration and as not important to an understanding of the claimed subject matter, FIG. 8 does not show some of the typical components of many computing devices. In this regard, the exemplary computing device 800 may include input devices such as a keyboard, a keypad, a mouse, a microphone, a touch input device, a touch screen, and/or the like. Such input devices may be coupled to the exemplary computing device 800 by wired or wireless connections, including RF, infrared, serial, parallel, Bluetooth, Bluetooth low energy, USB, or other suitable connection protocols using wireless or physical connections. Similarly, the exemplary computing device 800 may also include output devices such as a display, a speaker, a printer, and the like. These devices are well known in the art and therefore will not be further illustrated or described herein.

例示的実施形態を図示して説明してきたが、本発明の趣旨及び範囲から逸脱することなく、例示的実施形態に様々な変更が可能であることを理解されたい。本明細書に記載の方法及びシステムは、特定の方法、特定の部品、又は特定の実装に限定されないことを理解されたい。また、本明細書で使用する専門用語は、実施形態を説明するためだけのものであり、限定することを意図するものではないことを理解されたい。 While exemplary embodiments have been shown and described, it should be understood that various changes to the exemplary embodiments can be made without departing from the spirit and scope of the present invention. It should be understood that the methods and systems described herein are not limited to specific methods, components, or implementations. It should also be understood that the terminology used herein is for the purpose of describing the embodiments only and is not intended to be limiting.

本明細書及び添付の特許請求の範囲において使用される場合、単数形「a」、「an」及び「the」は、文脈上明らかにそうでないことが指示されない限り、複数の参照対象を含む。本明細書において、範囲は、「約」ある特定の値から、及び/又は「約」別の特定の値までとして表すことができる。このような範囲が表現される場合、別の実施形態は、当該ある特定の値から、及び/又は当該他の特定の値までを含む。同様に、値が近似値として表現される場合、先行詞「約」の使用により、特定の値が別の実施形態を形成することが理解されるであろう。更に、各範囲の端点(endpoints)は、他の端点と関係していても、他の端点と無関係でも重要であることが理解されよう。 As used in this specification and the appended claims, the singular forms "a," "an," and "the" include plural referents unless the context clearly dictates otherwise. As used herein, ranges can be expressed as from "about" one particular value and/or to "about" another particular value. When such a range is expressed, another embodiment includes from the one particular value and/or to the other particular value. Similarly, when values are expressed as approximations, it will be understood that the particular value forms another embodiment by use of the antecedent "about." It will further be understood that the endpoints of each range are significant both in relation to the other endpoint, and independently of the other endpoint.

「任意選択の」又は「任意選択で」とは、この後に記述される事象又は状況が発生する可能性も発生しない可能性もあることを意味する。この記述には当該事象又は状況が発生する例と発生しない例が含まれることを意味する。 "Optional" or "optionally" means that the subsequently described event or circumstance may or may not occur. The description is intended to include instances in which the event or circumstance occurs and instances in which the event or circumstance does not occur.

本明細書の説明及び特許請求の範囲全体を通じて、「備える(comprise)」という語及び、「備えている(comprising)」及び「備える(comprises)」などの語の変形は、「含むが、これに限定されない」を意味する。例えば、他の部品、整数又は工程を除外することを意図するものではない。「例示的な」は、「~の一例」を意味し、好ましい又は理想的な実施形態の示唆を伝えることを意図していない。「のような」は、制限的な意味で使用されているのではなく、説明の目的で使用されている。 Throughout the description and claims of this specification, the word "comprise" and variations of words such as "comprising" and "comprises" mean "including, but not limited to." For example, other components, integers, or steps are not intended to be excluded. "Exemplary" means "one example of" and is not intended to convey an indication of a preferred or ideal embodiment. "Such as" is used in a descriptive, not limiting sense.

Claims (15)

コンピューティング回路機構によって実行されると、拡張現実化粧デザインフィルタを生成するための動作を前記コンピューティング回路機構に実施させる、コンピュータ可読命令を記憶する1つ又は複数の非一時的なコンピュータメモリデバイスであって、
前記動作は、
生体表面のベースライン記述を定義する工程、
化粧品製剤のアプリケーションを識別する工程、
トレースを生成する工程、及び
前記トレースを出力する工程を備え、
前記生体表面のベースライン記述を定義する工程は、1つ又は複数の放射線センサを使用して前記生体表面の前記ベースライン記述を定義し、
前記放射線センサは、前記コンピューティング回路機構と電子的に結合されており、
前記化粧品製剤のアプリケーションを識別する工程は、1つ又は複数の前記放射線センサを使用して、前記生体表面への前記化粧品製剤の前記アプリケーションを識別し、
前記トレースを生成する工程は、前記ベースライン記述を参照して、前記アプリケーションを記述する前記トレースを生成する、1つ又は複数の非一時的なコンピュータメモリデバイス。
one or more non-transitory computer memory devices storing computer-readable instructions that, when executed by computing circuitry, cause the computing circuitry to perform operations for generating an augmented reality cosmetic design filter;
The operation includes:
defining a baseline description of the biological surface;
Identifying an application for the cosmetic formulation;
generating a trace; and outputting the trace,
The step of defining a baseline description of the biological surface includes defining the baseline description of the biological surface using one or more radiation sensors;
the radiation sensor is electronically coupled to the computing circuitry;
The step of identifying the application of the cosmetic formulation includes identifying the application of the cosmetic formulation to the biological surface using one or more of the radiation sensors;
The step of generating the trace comprises generating the trace describing the application with reference to the baseline description in one or more non-transitory computer memory devices.
請求項1に記載の1つ又は複数の非一時的なコンピュータメモリデバイスであって、
前記化粧品製剤の前記アプリケーションを識別する工程は、
前記放射線センサのうちの1つ又は複数及び前記ベースライン記述を使用して、前記生体表面に対する前記化粧品製剤を検出する工程を備える、1つ又は複数の非一時的なコンピュータメモリデバイス。
10. The one or more non-transitory computer memory devices of claim 1,
The step of identifying the application of the cosmetic formulation comprises:
one or more non-transitory computer memory devices, comprising detecting the cosmetic formulation relative to the biological surface using one or more of the radiation sensors and the baseline description.
請求項1に記載の1つ又は複数の非一時的なコンピュータメモリデバイスであって、
前記トレースを生成する工程は、
複数の形状タイプを記述する情報を受信する工程、
前記ベースライン記述を使用して、前記形状タイプのうちの第1形状タイプを前記生体表面の少なくとも一部に帰属させる工程、
前記化粧品製剤の前記アプリケーションの数値表現を生成する工程、及び
前記数値表現を前記第1形状タイプから前記形状タイプのうちの第2形状タイプに変換する工程を備え、
前記数値表現は、前記ベースライン記述に対する位置情報を記述する、1つ又は複数の非一時的なコンピュータメモリデバイス。
10. The one or more non-transitory computer memory devices of claim 1,
The step of generating the trace comprises:
receiving information describing a plurality of shape types;
using the baseline description to attribute a first one of the shape types to at least a portion of the biological surface;
generating a numerical representation of the application of the cosmetic formulation; and converting the numerical representation from the first shape type to a second one of the shape types;
One or more non-transitory computer memory devices, wherein the numerical representation describes position information relative to the baseline description.
請求項3に記載の1つ又は複数の非一時的なコンピュータメモリデバイスであって、
前記生体表面は顔であり、
前記第1形状タイプ及び前記第2形状タイプは顔の特徴を記述する、1つ又は複数の非一時的なコンピュータメモリデバイス。
4. One or more non-transitory computer memory devices according to claim 3,
the biological surface is a face,
One or more non-transitory computer memory devices, wherein the first shape type and the second shape type describe facial features.
請求項1に記載の1つ又は複数の非一時的なコンピュータメモリデバイスであって、
前記生体表面の前記ベースライン記述を定義する工程は、前記コンピューティング回路機構と電子的に結合された放射線源を用いて前記生体表面に不可視電磁放射線を投影する工程を備える、1つ又は複数の非一時的なコンピュータメモリデバイス。
10. The one or more non-transitory computer memory devices of claim 1,
one or more non-transitory computer memory devices, wherein defining the baseline description of the biological surface comprises projecting invisible electromagnetic radiation onto the biological surface with a radiation source electronically coupled to the computing circuitry.
請求項1に記載の1つ又は複数の非一時的なコンピュータメモリデバイスであって、
前記1つ又は複数の放射線センサは、紫外線、可視光線若しくは赤外線のスペクトル範囲、又はこれらの組み合わせから電磁放射線を検出するように構成されたカメラを備える、1つ又は複数の非一時的なコンピュータメモリデバイス。
10. The one or more non-transitory computer memory devices of claim 1,
One or more non-transitory computer memory devices, wherein the one or more radiation sensors comprise a camera configured to detect electromagnetic radiation from the ultraviolet, visible or infrared spectral ranges, or a combination thereof.
請求項1に記載の1つ又は複数の非一時的なコンピュータメモリデバイスであって、
前記トレースを生成する工程は、
前記生体表面に対する前記アプリケーションの動きを追跡する工程、及び
前記ベースライン記述に対する前記動きの数値表現を生成する工程を備える、1つ又は複数の非一時的なコンピュータメモリデバイス。
10. The one or more non-transitory computer memory devices of claim 1,
The step of generating the trace comprises:
tracking a movement of the application relative to the biological surface; and generating a numerical representation of the movement relative to the baseline description.
請求項1に記載の1つ又は複数の非一時的なコンピュータメモリデバイスであって、
前記命令は、前記コンピューティング回路機構によって実行されると、前記コンピューティング回路機構に、更なる動作を実施させ、前記動作は、
前記化粧品製剤を識別する工程、及び
前記化粧品製剤の識別子情報を使用して、前記化粧品製剤の色を定義する工程を備える、1つ又は複数の非一時的なコンピュータメモリデバイス。
10. The one or more non-transitory computer memory devices of claim 1,
The instructions, when executed by the computing circuitry, cause the computing circuitry to perform further operations, the operations including:
one or more non-transitory computer memory devices, comprising: identifying the cosmetic formulation; and defining a color of the cosmetic formulation using the cosmetic formulation identifier information.
請求項1に記載の1つ又は複数の非一時的なコンピュータメモリデバイスであって、
前記命令が、前記コンピューティング回路機構によって実行されると、前記コンピューティング回路機構に、更なる動作を実施させ、前記動作は、
前記生体表面の表面トーンを推定する工程、
前記表面トーンを用いて、前記化粧品製剤の製剤トーンを推定する工程、及び
前記表面トーンと前記製剤トーンとを用いて、前記化粧品製剤の色を決定する工程を備える、1つ又は複数の非一時的なコンピュータメモリデバイス。
10. The one or more non-transitory computer memory devices of claim 1,
The instructions, when executed by the computing circuitry, cause the computing circuitry to perform further operations, the operations including:
estimating a surface tone of the biological surface;
one or more non-transitory computer memory devices, comprising: estimating a formulation tone of the cosmetic formulation using the surface tone; and determining a color of the cosmetic formulation using the surface tone and the formulation tone.
請求項1に記載の1つ又は複数の非一時的なコンピュータメモリデバイスであって、
前記1つ又は複数の非一時的なコンピュータメモリデバイスは、スマートフォンと電子的に結合される、1つ又は複数の非一時的なコンピュータメモリデバイス。
10. The one or more non-transitory computer memory devices of claim 1,
The one or more non-transitory computer memory devices are electronically coupled to a smartphone.
請求項1に記載の1つ又は複数の非一時的なコンピュータメモリデバイスであって、
前記トレースを出力する工程は、前記トレースをリモートコンピューティングシステムに通信する工程を備える、1つ又は複数の非一時的なコンピュータメモリデバイス。
10. The one or more non-transitory computer memory devices of claim 1,
One or more non-transitory computer memory devices, wherein outputting the trace comprises communicating the trace to a remote computing system.
拡張現実化粧デザインフィルタを生成する方法であって、
1つ又は複数の放射線源及び1つ又は複数の放射線センサを使用して、生体表面のベースライン記述を定義する工程、
前記放射線センサを用いて、前記生体表面への化粧品製剤のアプリケーションを識別する工程、
前記ベースライン記述を参照して、前記アプリケーションを記述するトレースを生成する工程、及び
前記トレースを出力する工程を備える、方法。
1. A method for generating an augmented reality cosmetic design filter, comprising:
defining a baseline description of the biological surface using one or more radiation sources and one or more radiation sensors;
using the radiation sensor to identify application of a cosmetic formulation to the biological surface;
generating a trace describing the application with reference to the baseline description; and outputting the trace.
請求項12に記載の方法であって、
前記トレースを生成する工程は、
複数の形状タイプを記述する形状情報を受信する工程、
前記形状情報を用いて、前記形状タイプのうちの第1形状タイプを前記生体表面の少なくとも一部に帰属させる工程、
前記化粧品製剤の前記アプリケーションの数値表現を生成する工程、
前記数値表現を前記第1形状タイプから第2形状タイプに変換する工程を備え、
前記数値表現は、前記ベースライン記述に対する位置情報を記述する、方法。
13. The method of claim 12,
The step of generating the trace comprises:
receiving shape information describing a plurality of shape types;
using the shape information to attribute a first shape type among the shape types to at least a portion of the biological surface;
generating a numerical representation of the application of the cosmetic formulation;
converting the numerical representation from the first shape type to a second shape type;
The method of claim 1, wherein the numerical representation describes position information relative to the baseline description.
請求項12に記載の方法であって、
前記化粧品製剤の前記アプリケーションを識別する工程は、
前記化粧品製剤のアプリケータを検出する工程、
前記生体表面に対する前記化粧品製剤の前記アプリケータの位置を推定する工程、
前記生体表面に対する前記アプリケータの動きを追跡する工程、及び
前記ベースライン記述に対する前記動きの数値表現を生成する工程を備える、方法。
13. The method of claim 12,
The step of identifying the application of the cosmetic formulation comprises:
detecting an applicator of the cosmetic preparation;
estimating the position of the applicator of the cosmetic formulation relative to the biological surface;
tracking a movement of the applicator relative to the biological surface; and generating a numerical representation of the movement relative to the baseline description.
請求項12に記載の方法であって、
前記生体表面の表面トーンを推定する工程、
前記化粧品製剤の製剤トーンを推定する工程、及び
前記表面トーンと前記製剤トーンとを用いて、前記化粧品製剤の色を決定する工程を更に備える、方法。
13. The method of claim 12,
estimating a surface tone of the biological surface;
estimating a formulation tone of the cosmetic formulation; and determining a color of the cosmetic formulation using the surface tone and the formulation tone.
JP2024519514A 2021-09-30 2022-09-28 Augmented reality makeup design filters Pending JP2024537064A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US17/491,061 2021-09-30
US17/491,061 US12342923B2 (en) 2021-09-30 2021-09-30 Augmented reality cosmetic design filters
FR2113547 2021-12-15
FR2113547A FR3130423B1 (en) 2021-12-15 2021-12-15 COSMETIC DRAWING FILTERS IN AUGMENTED REALITY
PCT/US2022/077230 WO2023056333A1 (en) 2021-09-30 2022-09-28 Augmented reality cosmetic design filters

Publications (1)

Publication Number Publication Date
JP2024537064A true JP2024537064A (en) 2024-10-10

Family

ID=83693152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024519514A Pending JP2024537064A (en) 2021-09-30 2022-09-28 Augmented reality makeup design filters

Country Status (4)

Country Link
EP (1) EP4388503A1 (en)
JP (1) JP2024537064A (en)
KR (1) KR20240037304A (en)
WO (1) WO2023056333A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2907569B1 (en) * 2006-10-24 2009-05-29 Jean Marc Robin METHOD AND DEVICE FOR VIRTUAL SIMULATION OF A VIDEO IMAGE SEQUENCE
EP4138389B1 (en) * 2019-03-13 2024-01-03 L'oreal Projection of hair color and hair color tutorials directly on people's faces, and associated systems and methods
JP7463774B2 (en) * 2020-03-13 2024-04-09 カシオ計算機株式会社 MAKEUP SIMULATION DEVICE, MAKEUP SIMULATION METHOD, AND PROGRAM

Also Published As

Publication number Publication date
WO2023056333A4 (en) 2023-05-19
EP4388503A1 (en) 2024-06-26
WO2023056333A1 (en) 2023-04-06
KR20240037304A (en) 2024-03-21

Similar Documents

Publication Publication Date Title
JP6778877B2 (en) Makeup parts creation device, makeup parts utilization device, makeup parts creation method, makeup parts usage method, makeup parts creation program, and makeup parts utilization program
JP3984191B2 (en) Virtual makeup apparatus and method
JP4435809B2 (en) Virtual makeup apparatus and method
CN101755288B (en) Method and apparatus for realistic simulation of wrinkle aging and de-aging
US8550818B2 (en) System and method for providing and modifying a personalized face chart
CN113628327B (en) Head three-dimensional reconstruction method and device
BR102012033722A2 (en) System and method for makeup simulation on handheld digital camera devices
CN109272579B (en) Three-dimensional model-based makeup method and device, electronic equipment and storage medium
US12136173B2 (en) Digital makeup palette
TW201743282A (en) Method of establishing virtual makeup data, electronic device having method of establishing virtual makeup data and non-transitory computer readable storage medium thereof
JP7499362B2 (en) SYSTEM AND METHOD FOR PERSONALIZED, PRECISE VIRTUAL MAKEUP TRY-ON - Patent application
JP7695472B2 (en) System for generating presentations of eyebrow designs
KR20190043925A (en) Method, system and non-transitory computer-readable recording medium for providing hair styling simulation service
Borges et al. A virtual makeup augmented reality system
JP2009039523A (en) Terminal device to be applied for makeup simulation
CN111861632A (en) Virtual makeup test method, device, electronic device and readable storage medium
Rosin et al. Non-photorealistic rendering of portraits
US11544876B2 (en) Integrated cosmetic design applicator
Ren et al. Make-a-character: High quality text-to-3d character generation within minutes
KR101719927B1 (en) Real-time make up mirror simulation apparatus using leap motion
US11321882B1 (en) Digital makeup palette
US12342923B2 (en) Augmented reality cosmetic design filters
JP2024537064A (en) Augmented reality makeup design filters
JP5973823B2 (en) Texture quantification device, texture quantification method, and texture quantification program
KR102721691B1 (en) A system that recommends and provides nail makeup using a customized style virtual experience device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250603