JP2011150595A - Apparatus, method and program for evaluating face shape - Google Patents
Apparatus, method and program for evaluating face shape Download PDFInfo
- Publication number
- JP2011150595A JP2011150595A JP2010012265A JP2010012265A JP2011150595A JP 2011150595 A JP2011150595 A JP 2011150595A JP 2010012265 A JP2010012265 A JP 2010012265A JP 2010012265 A JP2010012265 A JP 2010012265A JP 2011150595 A JP2011150595 A JP 2011150595A
- Authority
- JP
- Japan
- Prior art keywords
- data
- face
- face shape
- evaluation
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
本発明は、顔形状評価装置、顔形状評価方法、及び顔形状評価プログラムに係り、特に顔を立体的に捉えて、二つの顔画像の変化量に基づき顔の評価を高精度に行うための顔形状評価装置、顔形状評価方法、及び顔形状評価プログラムに関する。 The present invention relates to a face shape evaluation device, a face shape evaluation method, and a face shape evaluation program, and in particular for capturing a face three-dimensionally and performing face evaluation with high accuracy based on the amount of change between two face images. The present invention relates to a face shape evaluation device, a face shape evaluation method, and a face shape evaluation program.
近年では、人の顔画像から顔の弛み等による老化度やアンチエイチング度等を評価したり、顔の美形度等を評価することで、スキンケア、化粧に対するカウンセリングや美容外科等の立場から診断したり、顔を識別したりする技術が存在する(例えば、特許文献1,2等参照)。 In recent years, it has been diagnosed from the viewpoint of skin care, makeup counseling, cosmetic surgery, etc. by evaluating the degree of aging and anti-aging due to facial slack, etc. from the human face image, and evaluating the beauty of the face. Or a technique for identifying a face (see, for example, Patent Documents 1 and 2).
例えば、特許文献1に示されている技術では、判定対象の顔を撮像して得た顔画像に画像強調処理を施すことにより、明るさに関して区別した複数の領域で表される判定用顔画像を作成し、この判定用顔画像における領域の輪郭の形状に基づいて顔を判定する手法が開示されている。 For example, in the technique disclosed in Patent Document 1, a face image for determination represented by a plurality of regions distinguished with respect to brightness by performing image enhancement processing on a face image obtained by imaging a face to be determined. Is created, and a face is determined based on the shape of the contour of the region in the determination face image.
また、特許文献2に示されている技術では、対象者の顔画像を撮像して得られた顔画像に画像強調処理を施すことにより、顔画像を撮像された者の顔の老化度を判定する手法が開示されている。 Further, in the technique disclosed in Patent Document 2, the aging degree of the face of the person whose face image is captured is determined by performing image enhancement processing on the face image obtained by capturing the face image of the target person. A technique is disclosed.
ところで、上述した従来技術においては、撮影した対象者の顔の二次元画像に基づく評価を行っているが、顔の形状は、顔の輪郭や目、鼻、口等の特徴部分等による凹凸があるため、二次元画像を基準に評価すると、その凹凸による三次元的な明暗が画像に反映されず高精度な評価ができない。 By the way, in the above-described conventional technology, evaluation is performed based on a two-dimensional image of the face of the photographed subject, but the shape of the face is uneven due to the contours of the face and features such as eyes, nose and mouth. For this reason, when the evaluation is performed based on the two-dimensional image, the three-dimensional brightness and darkness due to the unevenness is not reflected in the image, and high-precision evaluation cannot be performed.
また、顔の評価においては、例えば老化度を評価するための一つの指標である顔面の弛み等においては、明暗だけでは判断しにくい。更に、顔の弛みは、視覚的に捉えることが可能な現象であるにもかかわらず、形状を具体的に捉え、数値化等の定量化して評価することができなかった。 Further, in the face evaluation, for example, in the case of facial sag, which is one index for evaluating the degree of aging, it is difficult to judge only by contrast. Furthermore, despite the fact that the looseness of the face is a phenomenon that can be grasped visually, it has not been possible to grasp the shape specifically and quantify and evaluate it.
また、弛みの改善についての評価には、撮影された二次元画像(写真)による比較手法が用いられることがあるが、これも写真撮影時の照明・アングル等の影響を受け易く、客観的な評価を行うには、非常に高い撮影技術が必要となるため、顔の評価を高精度に行うのは困難であった。 In addition, a comparison method based on a photographed two-dimensional image (photograph) may be used to evaluate the improvement of slackness, but this is also easily influenced by lighting, angle, etc. at the time of photography, and is objective. In order to perform the evaluation, since a very high imaging technique is required, it is difficult to evaluate the face with high accuracy.
本発明は、上述した課題に鑑みてなされたものであって、顔を立体的に捉えて、二つの顔画像の変化量に基づき顔の評価を高精度に行うための顔形状評価装置、顔形状評価方法、及び顔形状評価プログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and is a face shape evaluation device and a face for capturing a face three-dimensionally and performing face evaluation with high accuracy based on a change amount of two face images. An object is to provide a shape evaluation method and a face shape evaluation program.
上述した課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。 In order to solve the above-described problems, the present invention employs means for solving the problems having the following characteristics.
請求項1に記載された発明は、評価対象者の顔形状の三次元データを取得して前記顔形状の評価を行う顔形状評価装置において、前記顔形状の三次元データを多点で取得する三次元顔形状データ取得手段と、前記三次元顔形状データ取得手段により得られる三次元顔形状データと、予め設定された条件に基づいて抽出された三次元平均顔データとに基づいて前記評価対象者の顔形状の評価を行う顔形状評価手段と、前記顔形状評価手段により得られる前記三次元顔形状データと前記三次元平均顔データとの差分データに基づいて前記顔形状にカラー領域を生成する差分カラー領域生成手段と、前記差分カラー領域生成手段により生成されたカラー領域を表示する画面を生成する表示画面生成手段と、前記表示画面生成手段により得られる画面を出力する出力手段とを有することを特徴とする。 According to the first aspect of the present invention, in the face shape evaluation apparatus that acquires the three-dimensional data of the face shape of the person to be evaluated and evaluates the face shape, the three-dimensional data of the face shape is acquired at multiple points. The evaluation object based on three-dimensional face shape data acquisition means, three-dimensional face shape data obtained by the three-dimensional face shape data acquisition means, and three-dimensional average face data extracted based on preset conditions Generating a color region in the face shape based on difference data between the three-dimensional face shape data and the three-dimensional average face data obtained by the face shape evaluation means Difference color area generation means, display screen generation means for generating a screen for displaying the color area generated by the difference color area generation means, and a screen obtained by the display screen generation means And an outputting means for outputting.
請求項1記載の発明によれば、顔を立体的に捉えて、二つの顔形状データの変化量に基づき顔の評価を高精度に行うことができる。 According to the first aspect of the present invention, it is possible to grasp the face three-dimensionally and perform the face evaluation with high accuracy based on the amount of change of the two face shape data.
請求項2に記載された発明は、複数の前記評価対象者に対する顔形状の三次元データから、予め設定された条件に基づいて抽出された複数の三次元顔形状データにより前記三次元平均顔データを生成する三次元平均顔データ生成手段を有することを特徴とする。 The invention described in claim 2 is characterized in that the three-dimensional average face data is obtained from a plurality of three-dimensional face shape data extracted based on preset conditions from three-dimensional face shape data for the plurality of evaluation subjects. 3D average face data generating means for generating
請求項2記載の発明によれば、個人の代表例データではなく、平均顔で評価することで客観性の高い評価が可能となり、また三次元平均顔データを他の評価等に用いるために情報提供する場合、平均顔は個人情報ではないため、データそのものの取り扱いが容易になる。 According to the invention described in claim 2, it is possible to perform evaluation with high objectivity by evaluating with the average face instead of the representative example data of the individual, and information for using the three-dimensional average face data for other evaluations and the like. When provided, since the average face is not personal information, the data itself can be handled easily.
請求項3に記載された発明は、前記三次元平均顔データ生成手段は、前記複数の三次元顔形状データから選択された二つの三次元顔形状データを所定の比率を用いてモーフィング処理により合成することを特徴とする。 According to a third aspect of the present invention, the three-dimensional average face data generating unit synthesizes two three-dimensional face shape data selected from the plurality of three-dimensional face shape data by a morphing process using a predetermined ratio. It is characterized by doing.
請求項3記載の発明によれば、モーフィング処理により多種の三次元平均顔データを容易に生成することができる。 According to the third aspect of the present invention, various types of three-dimensional average face data can be easily generated by morphing processing.
請求項4に記載された発明は、前記顔形状評価手段は、前記評価対象者の顔における予め設定された部位に対しての評価を行うことを特徴とする。 The invention described in claim 4 is characterized in that the face shape evaluating means evaluates a predetermined part of the face of the person to be evaluated.
請求項4記載の発明によれば、顔全体だけでなく、例えば顎の部分や口元の部分、目元の部分やフェイスライン等の各部位を対象にした評価を行うことができる。 According to the fourth aspect of the present invention, it is possible to perform evaluation not only for the entire face but also for each part such as the jaw part, the mouth part, the eye part, and the face line.
請求項5に記載された発明は、前記顔形状評価手段は、複数の前記三次元顔形状データ若しくは前記三次元平均顔データを同じ画面上に三次元表示させ、そのうち一つのデータを基準データとし、鼻、額、耳儒部位、及び軟組織部分の厚みが薄く変化が起こりにくい領域のうち、少なくとも一箇所において三次元座標上での差がないように、その他のデータを重ねて位置を合わせた位置合わせデータを生成し、生成された前記位置合わせデータに基づいて評価を行うことを特徴とする。 According to a fifth aspect of the present invention, the face shape evaluation means displays a plurality of the three-dimensional face shape data or the three-dimensional average face data on the same screen in three dimensions, and uses one of the data as reference data. In other areas where the thickness of the nose, forehead, earlobe region, and soft tissue is thin and difficult to change, at least one location was overlaid with other data so that there was no difference on the 3D coordinates. Alignment data is generated, and evaluation is performed based on the generated alignment data.
請求項5記載の発明によれば、顔の変化が起こりにくい部分を基準に位置合わせすることで、二つの顔形状データの比較を高精度に行うことができる。 According to the fifth aspect of the present invention, the two face shape data can be compared with high accuracy by aligning with reference to the portion where the face hardly changes.
請求項6に記載された発明は、前記顔形状評価手段は、前記位置合わせデータに基づいて、前記基準データに対し、評価する前記三次元顔形状データ若しくは前記三次元平均顔データの各点において三次元座標上での差分データを生成することを特徴とする。 In the invention described in claim 6, the face shape evaluation unit may perform evaluation at each point of the 3D face shape data or the 3D average face data to be evaluated with respect to the reference data based on the alignment data. Difference data on three-dimensional coordinates is generated.
請求項6記載の発明によれば、三次元座標を用いて顔の立体的な変化を高精度に取得することができる。 According to invention of Claim 6, the three-dimensional change of a face can be acquired with high precision using a three-dimensional coordinate.
請求項7に記載された発明は、前記顔形状評価手段は、評価する前記三次元顔形状データ若しくは前記三次元平均顔データの評価箇所が、前記基準データの顔の外側に相当する場所にあった場合に、前記評価箇所が膨張していると評価することを特徴とする。 In the seventh aspect of the present invention, the face shape evaluating means may be configured such that the evaluation portion of the three-dimensional face shape data to be evaluated or the three-dimensional average face data is located outside the face of the reference data. In this case, it is evaluated that the evaluation portion is expanded.
請求項7記載の発明によれば、二つの顔形状データの変化量に基づき顔形状の評価を高精度に行うことができる。 According to the seventh aspect of the present invention, the face shape can be evaluated with high accuracy based on the amount of change between the two face shape data.
請求項8に記載された発明は、前記顔形状評価手段は、評価する前記三次元顔形状データ若しくは前記三次元平均顔データの評価箇所が、前記基準データの顔の内側に相当する場所にあった場合に、前記評価箇所が引き締まっていると評価することを特徴とする。 According to an eighth aspect of the present invention, the face shape evaluating means has the evaluation portion of the three-dimensional face shape data or the three-dimensional average face data to be evaluated at a place corresponding to the inside of the face of the reference data. The evaluation location is evaluated as being tightened.
請求項8記載の発明によれば、二つの顔形状データの変化量に基づき顔形状の評価を高精度に行うことができる。 According to the eighth aspect of the present invention, the face shape can be evaluated with high accuracy based on the amount of change between the two face shape data.
請求項9に記載された発明は、評価対象者の顔形状の三次元データを取得して前記顔形状の評価を行うための顔形状評価方法において、前記顔形状の三次元データを多点で取得する三次元顔形状データ取得ステップと、前記三次元顔形状データ取得ステップにより得られる三次元顔形状データと、予め設定された条件に基づいて抽出された三次元平均顔データとに基づいて前記評価対象者の顔形状の評価を行う顔形状評価ステップと、前記顔形状評価ステップにより得られる前記三次元顔形状データと前記三次元平均顔データとの差分データに基づいて前記顔形状にカラー領域を生成する差分カラー領域生成ステップと、前記差分カラー領域生成ステップにより生成されたカラー領域を表示する画面を生成する表示画面生成ステップと、前記表示画面生成ステップにより得られる画面を出力手段により出力する出力ステップとを有することを特徴とする。 The invention described in claim 9 is a face shape evaluation method for evaluating the face shape by acquiring the three-dimensional data of the face shape of the person to be evaluated. Based on the three-dimensional face shape data acquisition step to be acquired, the three-dimensional face shape data obtained by the three-dimensional face shape data acquisition step, and the three-dimensional average face data extracted based on preset conditions A face shape evaluation step for evaluating the face shape of the evaluation subject, and a color region in the face shape based on difference data between the three-dimensional face shape data and the three-dimensional average face data obtained by the face shape evaluation step A difference color area generation step for generating a display screen, a display screen generation step for generating a screen for displaying the color area generated by the difference color area generation step, And an outputting step of outputting by the output device a screen obtained by 示画 plane generation step.
請求項9記載の発明によれば、顔を立体的に捉えて、二つの顔形状データの変化量に基づき顔の評価を高精度に行うことができる。 According to the ninth aspect of the present invention, it is possible to grasp the face three-dimensionally and perform the face evaluation with high accuracy based on the amount of change of the two face shape data.
請求項10に記載された発明は、複数の前記評価対象者に対する顔形状の三次元データから、予め設定された条件に基づいて抽出された複数の三次元顔形状データにより前記三次元平均顔データを生成する三次元平均顔データ生成ステップを有することを特徴とする。 The invention described in claim 10 is characterized in that the three-dimensional average face data is obtained from a plurality of three-dimensional face shape data extracted based on preset conditions from three-dimensional face shape data for the plurality of evaluation subjects. And a three-dimensional average face data generation step for generating.
請求項10記載の発明によれば、個人の代表例データではなく、平均顔で評価することで客観性の高い評価が可能となり、また三次元平均顔データを他の評価等に用いるために情報提供する場合、平均顔は個人情報ではないため、データそのものの取り扱いが容易になる。 According to the invention described in claim 10, it is possible to perform evaluation with high objectivity by evaluating with an average face instead of individual representative example data, and information for using the three-dimensional average face data for other evaluations and the like. When provided, since the average face is not personal information, the data itself can be handled easily.
請求項11に記載された発明は、前記三次元平均顔データ生成ステップは、前記複数の三次元顔形状データから選択された二つの三次元顔形状データを所定の比率を用いてモーフィング処理により合成することを特徴とする。 In the invention described in claim 11, in the three-dimensional average face data generation step, two three-dimensional face shape data selected from the plurality of three-dimensional face shape data are synthesized by morphing processing using a predetermined ratio. It is characterized by doing.
請求項11記載の発明によれば、モーフィング処理により多種の三次元平均顔データを容易に生成することができる。 According to the eleventh aspect of the present invention, various types of three-dimensional average face data can be easily generated by morphing processing.
請求項12に記載された発明は、前記顔形状評価ステップ手段は、前記評価対象者の顔における予め設定された部位に対しての評価を行うことを特徴とする。 The invention described in claim 12 is characterized in that the face shape evaluation step means evaluates a predetermined part of the face of the person to be evaluated.
請求項12記載の発明によれば、顔全体だけでなく、例えば顎の部分や口元の部分、目元の部分やフェイスライン等の各部位を対象にした評価を行うことができる。 According to the twelfth aspect of the present invention, it is possible to perform evaluation not only for the entire face but also for each part such as a chin part, a mouth part, an eye part, and a face line.
請求項13に記載された発明は、前記顔形状評価ステップは、複数の前記三次元顔形状データ若しくは前記三次元平均顔データを同じ画面上に三次元表示させ、そのうち一つのデータを基準データとし、鼻、額、耳儒部位、及び軟組織部分の厚みが薄く変化が起こりにくい領域のうち、少なくとも一箇所において前記基準データに対し三次元座標上での差がないように、その他のデータを重ねて位置を合わせた位置合わせデータを生成し、生成された前記位置合わせデータに基づいて評価を行うことを特徴とする。 In the invention described in claim 13, in the face shape evaluation step, a plurality of the three-dimensional face shape data or the three-dimensional average face data are displayed three-dimensionally on the same screen, and one of the data is used as reference data. In other areas where the thickness of the nose, forehead, earlobe region, and soft tissue is thin and difficult to change, superimpose other data so that there is no difference in three-dimensional coordinates with respect to the reference data in at least one location. Then, alignment data is generated by aligning the positions, and evaluation is performed based on the generated alignment data.
請求項13記載の発明によれば、顔の変化が起こりにくい部分を基準に位置合わせすることで、二つの顔形状データの評価を高精度に行うことができる。 According to the thirteenth aspect of the present invention, the two face shape data can be evaluated with high accuracy by aligning with reference to the portion where the face hardly changes.
請求項14に記載された発明は、前記顔形状評価ステップは、前記位置合わせデータに基づいて、前記基準データに対し、評価する前記三次元顔形状データ若しくは前記三次元平均顔データの各点において三次元座標上での差分データを生成することを特徴とする。 In the invention described in claim 14, in the face shape evaluation step, at each point of the 3D face shape data or the 3D average face data to be evaluated with respect to the reference data based on the alignment data. Difference data on three-dimensional coordinates is generated.
請求項14記載の発明によれば、三次元座標を用いて顔の立体的な変化を高精度に取得することができる。 According to invention of Claim 14, the three-dimensional change of a face can be acquired with high precision using a three-dimensional coordinate.
請求項15に記載された発明は、前記顔形状評価ステップは、評価する前記三次元顔形状データ若しくは前記三次元平均顔データの評価箇所が、前記基準データとした顔形状データの顔の外側に相当する場所にあった場合に、前記評価箇所が膨張していると評価することを特徴とする。 In the invention described in claim 15, in the face shape evaluation step, the evaluation portion of the 3D face shape data to be evaluated or the 3D average face data is outside the face of the face shape data as the reference data. When it exists in a corresponding place, it is evaluated that the said evaluation part is expanding.
請求項15記載の発明によれば、二つの顔形状データの変化量に基づき顔形状の評価を高精度に行うことができる。 According to the fifteenth aspect of the present invention, the face shape can be evaluated with high accuracy based on the amount of change between the two face shape data.
請求項16に記載された発明は、前記顔形状評価ステップは、評価する前記三次元顔形状データ若しくは前記三次元平均顔データの評価箇所が、前記基準データとした顔形状データの顔の内側に相当する場所にあった場合に、前記評価箇所が引き締まっていると評価することを特徴とする。 In the invention described in claim 16, in the face shape evaluation step, the evaluation portion of the three-dimensional face shape data to be evaluated or the three-dimensional average face data is inside the face of the face shape data as the reference data. It is characterized by evaluating that the evaluation part is tightened when it is in a corresponding place.
請求項16記載の発明によれば、二つの顔形状データの変化量に基づき顔形状の評価を高精度に行うことができる。 According to the sixteenth aspect of the present invention, the face shape can be evaluated with high accuracy based on the change amount of the two face shape data.
請求項17に記載された発明は、請求項9乃至16の何れか1項に記載の顔形状評価方法を実行させるようにコンピュータを動作させることを特徴とする。 The invention described in claim 17 is characterized in that the computer is operated so as to execute the face shape evaluation method according to any one of claims 9 to 16.
請求項17記載の発明によれば、顔を立体的に捉えて、二つの顔形状データの変化量に基づき顔の評価を高精度に行うことができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における顔形状評価処理を容易に実現することができる。 According to the seventeenth aspect of the present invention, it is possible to grasp the face three-dimensionally and perform the face evaluation with high accuracy based on the amount of change of the two face shape data. Further, by installing the program, the face shape evaluation process in the present invention can be easily realized by a general-purpose personal computer or the like.
本発明によれば、顔を立体的に捉えて、二つの顔画像の変化量に基づき顔の評価を高精度に行うことができる。 According to the present invention, it is possible to grasp a face in three dimensions and perform face evaluation with high accuracy based on the amount of change between two face images.
<本発明について>
本発明は、撮影された評価対象者の顔を立体的に捉えて、二つの顔画像の変化量に基づき顔の評価を高精度に行う。具体的には、本発明は、三次元平均顔を作成し、例えば、皮膚外用剤や化粧品、健康食品、医薬品、マッサージ等の連用前後での三次元平均顔を比較することで、平均的な効果が、どの部位に、どれだけ発生しているのかを評価する。
<About the present invention>
The present invention captures a photographed face of an evaluation subject in a three-dimensional manner, and performs face evaluation with high accuracy based on the amount of change between two face images. Specifically, the present invention creates a three-dimensional average face, for example, by comparing the three-dimensional average face before and after continuous use of skin external preparations, cosmetics, health foods, pharmaceuticals, massage, etc. Evaluate how much the effect is occurring in which part.
また、本発明は、三次元顔形状データを比較して、その変化量に応じて色付け等を行い、変化量が視覚的に区別できるように表示することで、スキンケア製品や化粧品等を使用した結果、どのような効果があったのかを正確に把握することができ、その結果内容に応じて化粧品等を評価することもできる。 In addition, the present invention compares the three-dimensional face shape data, performs coloring according to the amount of change, and displays the change amount so as to be visually distinguishable, thereby using skin care products, cosmetics, etc. As a result, it is possible to accurately grasp what effect has been achieved, and it is also possible to evaluate cosmetics and the like according to the content of the result.
以下に、本発明における顔形状評価装置、顔形状評価方法、及び顔形状評価プログラムを好適に実施した形態について、図面を用いて説明する。 Hereinafter, embodiments in which a face shape evaluation apparatus, a face shape evaluation method, and a face shape evaluation program according to the present invention are suitably implemented will be described with reference to the drawings.
<顔形状評価システム:システム構成例>
まず、本実施形態における顔形状評価を行う顔形状評価システムのシステム構成例について図を用いて説明する。図1は、本実施形態における顔形状評価システムの一例を示す図である。図1に示す顔形状評価システム10は、三次元顔形状計測装置11と、顔形状評価装置12とを有するよう構成されている。なお、三次元顔形状計測装置11及び顔形状評価装置12とは、有線又は無線等からなる通信ネットワーク13によりデータの送受信が可能な状態で接続されている。
<Facial shape evaluation system: system configuration example>
First, a system configuration example of a face shape evaluation system that performs face shape evaluation in the present embodiment will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of a face shape evaluation system in the present embodiment. The face shape evaluation system 10 shown in FIG. 1 is configured to include a three-dimensional face shape measurement device 11 and a face shape evaluation device 12. Note that the three-dimensional face shape measuring device 11 and the face shape evaluating device 12 are connected in a state where data can be transmitted and received by a communication network 13 formed by wire or wireless.
三次元顔形状計測装置11は、評価対象者又は三次元平均画像を生成するためのサンプラー(被験者)の顔画像を撮影するための装置である。なお、三次元顔形状計測装置11としては、例えば、格子パターン投影方式による撮影手法(例えば、danae(NECエンジニアリング社製)等)や、レーザによる光切断方式による撮影手法(例えば、vivid910(コニカミノルタ社製)等)、ステレオ方式による撮影手法(例えば、QM−3000(トプコンテクノハウス社製)等)等の従来ある撮影手法により得られる三次元画像を用いることができる。 The three-dimensional face shape measuring apparatus 11 is an apparatus for photographing a face image of an evaluation subject or a sampler (subject) for generating a three-dimensional average image. As the three-dimensional face shape measuring apparatus 11, for example, a photographing method using a lattice pattern projection method (for example, Danae (manufactured by NEC Engineering)) or a photographing method using a laser light cutting method (for example, vivid 910 (Konica Minolta)). 3D image obtained by a conventional photographing method such as a stereo photographing method (for example, QM-3000 (manufactured by Topcon Techno House Co., Ltd.)).
ここで、三次元顔形状計測装置11により撮影される画像は、皮膚外用剤等の顔への塗布前、塗布後のそれぞれの画像や、例えば6時間後や1日後、1週間後や1月後等、異なる時間や期間に撮影した画像を取得する。また、三次元顔形状計測装置11は、計測により得られた撮影対象者の顔の三次元画像を、通信ネットワーク13を介して顔形状評価装置12に出力する。 Here, the images photographed by the three-dimensional face shape measuring apparatus 11 are images before and after application of a skin external preparation or the like, for example, 6 hours, 1 day, 1 week, or 1 month. Acquire images taken at different times and periods later. In addition, the three-dimensional face shape measurement apparatus 11 outputs a three-dimensional image of the face of the subject to be photographed obtained by measurement to the face shape evaluation apparatus 12 via the communication network 13.
なお、三次元顔形状計測装置11により撮影される画像が三次元平均顔の生成に使用される場合には、撮影対象者の年齢や肌の色やキメ、そばかすの有無、肌が荒れている場所、その他、肌に関する情報の対象者プロファイル情報、撮影したときの時間情報(季節、湿度、温度、気候等)や照明の当て方等の撮影情報等が一緒に送信され、顔形状評価装置12で蓄積して管理される。 In addition, when the image image | photographed by the three-dimensional face shape measuring device 11 is used for the production | generation of a three-dimensional average face, the age of a photographing subject, the color and texture of skin, the presence or absence of freckles, and the skin are rough. The target person profile information of the location and other information about the skin, time information (season, humidity, temperature, climate, etc.) at the time of shooting, shooting information such as how to illuminate, etc. are transmitted together, and the face shape evaluation device 12 Are stored and managed.
顔形状評価装置12は、通信ネットワークを介して三次元顔形状計測装置11から取得した三次元顔形状データを取得し、予め蓄積された三次元平均顔データと比較して顔形状の評価を行う。具体的には、顔形状評価装置12は、比較する二つの三次元平均顔データを重ねて各点の三次元座標を比較し、各点の差分データから凹凸の量を測定する。また、顔形状評価装置12は、測定した結果から、その凹凸の差分値(変化量)に応じて三次元顔形状データ上に色付け等を行い、顔形状評価装置12に予め設けられているディスプレイ等に表示する。 The face shape evaluation device 12 acquires the 3D face shape data acquired from the 3D face shape measurement device 11 via the communication network, and evaluates the face shape by comparing with the previously stored 3D average face data. . Specifically, the face shape evaluation apparatus 12 compares two three-dimensional average face data to be compared, compares the three-dimensional coordinates of each point, and measures the amount of unevenness from the difference data of each point. Further, the face shape evaluation device 12 performs coloring or the like on the three-dimensional face shape data according to the difference value (change amount) of the unevenness from the measurement result, and a display provided in advance in the face shape evaluation device 12 Etc.
また、顔形状評価装置12は、三次元顔形状計測装置11からの三次元画像を予め蓄積しておき、その蓄積された顔画像をある所定のタイミングで纏めて評価処理を実施することもできる。 Further, the face shape evaluation device 12 can store the three-dimensional image from the three-dimensional face shape measurement device 11 in advance, and collectively perform the evaluation process on the stored face image at a predetermined timing. .
なお、図1においては、顔形状評価システム10は、三次元顔形状計測装置11と顔形状評価装置12との構成を1対1としたが、本発明においてはこの限りではなく、例えば1:N,N:1,N:N(N:任意の複数値)として構成されてもよく、三次元顔形状計測装置11と顔形状評価装置12とが一体となるように構成されていてもよい。 In FIG. 1, the face shape evaluation system 10 has a one-to-one configuration of the three-dimensional face shape measurement device 11 and the face shape evaluation device 12. However, the present invention is not limited to this. N, N: 1, N: N (N: arbitrary multiple values) may be configured, and the three-dimensional face shape measurement device 11 and the face shape evaluation device 12 may be configured to be integrated. .
<顔形状評価装置12:機能構成例>
ここで、本実施形態における顔形状評価装置12の機能構成例について説明する。図1に示すように顔形状評価装置12は、入力手段21と、出力手段22と、蓄積手段23と、三次元顔形状データ取得手段24と、三次元平均顔データ生成手段25と、顔形状評価手段26と、差分カラー領域生成手段27と、表示画面生成手段28と、送受信手段29と、制御手段30とを有するよう構成されている。
<Face shape evaluation device 12: functional configuration example>
Here, a functional configuration example of the face shape evaluation apparatus 12 in the present embodiment will be described. As shown in FIG. 1, the face shape evaluation apparatus 12 includes an input means 21, an output means 22, a storage means 23, a 3D face shape data acquisition means 24, a 3D average face data generation means 25, a face shape. The evaluation unit 26, the difference color area generation unit 27, the display screen generation unit 28, the transmission / reception unit 29, and the control unit 30 are configured.
入力手段21は、本実施形態における顔形状の評価を行うためのユーザ等からの各指示情報等を入力する。具体的には、入力手段21は、ユーザ等からの三次元顔形状取得指示や三次元平均顔生成指示、顔形状評価指示、差分カラー領域生成指示、表示画面生成指示等の各種指示の入力を受け付ける。なお、入力手段21は、例えばキーボードや、マウス等のポインティングデバイス等からなる。 The input means 21 inputs each instruction information from a user or the like for evaluating the face shape in the present embodiment. Specifically, the input unit 21 inputs various instructions such as a 3D face shape acquisition instruction, a 3D average face generation instruction, a face shape evaluation instruction, a difference color area generation instruction, and a display screen generation instruction from a user or the like. Accept. Note that the input unit 21 includes, for example, a keyboard and a pointing device such as a mouse.
また、入力手段21は、通信ネットワーク13に接続された三次元顔形状計測装置11やその他の外部装置等により既に撮影された三次元顔形状データを送受信手段29等により取得するための指示入力や、撮影画像に対する評価対象者のユーザ情報等の各種データを入力する機能も有している。 Also, the input means 21 is an instruction input for acquiring the 3D face shape data already photographed by the 3D face shape measuring device 11 connected to the communication network 13 or other external devices by the transmission / reception means 29 or the like. Also, it has a function of inputting various data such as user information of the person to be evaluated for the photographed image.
出力手段22は、入力手段21により入力された内容や、入力内容に基づいて実行された内容等の表示・出力を行う。なお、出力手段22は、ディスプレイやスピーカ等からなる。更に、出力手段22は、プリンタ等の機能を有していてもよく、その場合には顔形状評価結果等を、紙等の印刷媒体に印刷してユーザ等に提示することもできる。 The output unit 22 displays / outputs the content input by the input unit 21 and the content executed based on the input content. Note that the output means 22 includes a display, a speaker, and the like. Furthermore, the output unit 22 may have a function of a printer or the like. In this case, the face shape evaluation result or the like can be printed on a print medium such as paper and presented to the user or the like.
蓄積手段23は、三次元顔形状データ取得手段24により得られる三次元顔形状データや、三次元平均顔データ生成手段25により得られる平均顔画像、顔形状評価手段26により得られる評価結果、差分カラー領域生成手段27により設定される差分カラー割り当て情報、表示画面生成手段28により生成された表示画面の各種情報、送受信手段29により得られる情報等、本発明における顔形状評価を実行するために必要な各種データを蓄積する。また、蓄積手段23は、必要に応じて蓄積されている各種データを読み出すことができる。 The accumulating unit 23 includes 3D face shape data obtained by the 3D face shape data obtaining unit 24, an average face image obtained by the 3D average face data generating unit 25, an evaluation result obtained by the face shape evaluating unit 26, and a difference. Necessary for executing the face shape evaluation in the present invention, such as difference color allocation information set by the color area generation means 27, various information of the display screen generated by the display screen generation means 28, information obtained by the transmission / reception means 29, etc. Various kinds of data. Further, the storage means 23 can read out various data stored as required.
三次元顔形状データ取得手段24は、入力手段21からのユーザ等による画像取得指示により、通信ネットワーク13を介して三次元顔形状計測装置11から評価対象者や平均顔を生成するための被験者等の三次元顔形状データを取得する。なお、三次元顔形状データ取得手段24は、送受信手段29によって得られた三次元顔形状データを、蓄積手段23により蓄積させてもよく、また三次元平均顔データ生成手段25により三次元平均顔を生成させたり、顔形状評価手段26により顔形状評価を行わせることができる。 The three-dimensional face shape data acquisition means 24 is an evaluation subject or a subject for generating an average face from the three-dimensional face shape measurement device 11 via the communication network 13 in response to an image acquisition instruction from the input means 21 by a user or the like. 3D face shape data is acquired. The three-dimensional face shape data acquisition unit 24 may store the three-dimensional face shape data obtained by the transmission / reception unit 29 using the storage unit 23, and the three-dimensional average face data generation unit 25 may store the three-dimensional average face data. Can be generated, or face shape evaluation means 26 can perform face shape evaluation.
三次元平均顔データ生成手段25は、蓄積手段23等から取得した複数のユーザから得られる三次元顔形状データを用いて三次元平均顔データを生成する。なお、三次元平均顔データ生成手段25は、三次元平均顔データを生成する際、10代、20代、30代、・・・、70代等のように各年代別の三次元平均顔データを生成してもよく、笑った顔、怒った顔、泣いた顔等の顔の表情別、性別、国別、地域別、皮膚外用剤の顔への塗布前、塗布後等における各三次元平均顔データを生成してもよい。更に、三次元平均顔データ生成手段25は、上述した内容を組み合わせた三次元平均顔データを生成することもできる。なお、具体的な生成手法については、後述する。また、三次元平均顔データ生成手段25は、生成した1又は複数の三次元平均顔データを蓄積手段23等に蓄積する。 The three-dimensional average face data generating unit 25 generates three-dimensional average face data using three-dimensional face shape data obtained from a plurality of users acquired from the storage unit 23 and the like. The three-dimensional average face data generating means 25 generates three-dimensional average face data for each age, such as teens, twentieth, thirties,. 3D before and after application of facial preparations such as laughing face, angry face, crying face, etc. by facial expression, gender, country, region, face application Average face data may be generated. Furthermore, the three-dimensional average face data generation means 25 can also generate three-dimensional average face data that combines the above-described contents. A specific generation method will be described later. The three-dimensional average face data generating unit 25 stores the generated one or more three-dimensional average face data in the storage unit 23 and the like.
顔形状評価手段26は、三次元平均顔データ生成手段25により生成された各種の三次元平均顔データのうち、予め設定された条件により抽出された三次元平均顔データと、評価対象者の三次元顔形状データとを比較し、その比較結果により、顔形状を評価する。なお、予め設定された条件とは、例えば評価対象者等に対応した年代別や国別、皮膚外用剤の顔への塗布前、塗布後等における平均顔データ等、三次元平均顔データ生成手段25により生成される各種類の平均顔画像から、特定の平均顔画像を抽出するために、ユーザ等により設定される条件である。 The face shape evaluation means 26 includes the three-dimensional average face data extracted by the preset condition among the various three-dimensional average face data generated by the three-dimensional average face data generation means 25, and the third order of the evaluation target person. The original face shape data is compared, and the face shape is evaluated based on the comparison result. The preset conditions are, for example, three-dimensional average face data generation means such as average face data before and after application of the skin external preparation on the face, by age, country, etc. corresponding to the evaluation subject, etc. This is a condition set by the user or the like in order to extract a specific average face image from the various types of average face images generated in Step 25.
また、顔形状評価手段26は、上述した二つの画像の比較結果を数値化する。数値化される値は、三次元平均顔データと、評価対象者の三次元顔形状データとを重ね合わせて得られた凹凸の関係を数値化された値である。更に、数値化される際には、三次元空間上に予め設定された座標(x,y,z)に基づいて、一方を基準とした相対的な位置関係により数値化を行う。また、顔形状評価手段26は、数値化した情報を差分カラー領域生成手段27に出力する。 Further, the face shape evaluation means 26 digitizes the comparison result between the two images described above. The value to be quantified is a value obtained by quantifying the relationship between the unevenness obtained by superimposing the three-dimensional average face data and the three-dimensional face shape data of the evaluation subject. Further, when digitizing, the digitization is performed based on the relative positional relationship based on one of the coordinates based on coordinates (x, y, z) set in advance in the three-dimensional space. The face shape evaluation unit 26 outputs the digitized information to the difference color area generation unit 27.
更に、顔形状評価手段26は、同一の評価対象者に対する三次元顔形状データが経時的に複数蓄積されている場合には、その時間の異なる同一評価対象者の三次元顔形状データを用いて、上述したような評価を行うこともできる。 Furthermore, when a plurality of three-dimensional face shape data for the same evaluation subject is accumulated over time, the face shape evaluation means 26 uses the three-dimensional face shape data of the same evaluation subject having different times. The evaluation as described above can also be performed.
差分カラー領域生成手段27は、顔形状評価手段26により数値化された情報に基づいて、その変化量を差分値として生成する。また、差分カラー領域生成手段27は、差分値に対応するカラー領域を生成する。具体的には、差分カラー領域生成手段27は、予め差分値に基づくカラー情報を割り当てておき、割り当てられた差分カラー割り当て情報を顔形状評価手段26により数値化された情報に基づいて、画面表示されるカラー情報を生成する。また、差分カラー領域生成手段27は、三次元平均顔データと評価対象者の三次元画像との凹凸比較により、どちらが表面に出ているかを判断し、その判断結果に基づいてカラー情報も設定される。つまり、二つの画像のうち、表面に出ている方の画像と、その差分値により異なるカラー情報が生成される
なお、差分カラー領域生成手段27によって生成される画面表示用のカラー情報は、その色に関する情報と三次元空間における三次元顔形状データの位置座標となる。これにより、三次元顔形状データ上にカラー情報を表示することができる。
The difference color area generation unit 27 generates the change amount as a difference value based on the information digitized by the face shape evaluation unit 26. Further, the difference color area generation unit 27 generates a color area corresponding to the difference value. Specifically, the difference color area generation means 27 assigns color information based on the difference value in advance, and displays the assigned difference color assignment information on the screen based on the information digitized by the face shape evaluation means 26. Color information to be generated. Further, the difference color area generation means 27 determines which is appearing on the surface by comparing the unevenness between the three-dimensional average face data and the three-dimensional image of the evaluation subject, and color information is also set based on the determination result. The That is, of the two images, different color information is generated depending on the difference between the image on the surface and the color information for the screen display generated by the difference color area generation means 27 This is information about the color and the position coordinates of the 3D face shape data in the 3D space. Thereby, color information can be displayed on the three-dimensional face shape data.
表示画面生成手段28は、顔形状評価手段26により評価された結果をディスプレイ等の出力手段22に表示するための表示画面を生成する。なお、表示画面生成手段28は、表示される内容に基づいてスピーカ等の出力手段22により出力させる音声データを予め蓄積手段23に蓄積されている複数の音声データから抽出する処理を行うこともできる。 The display screen generation unit 28 generates a display screen for displaying the result evaluated by the face shape evaluation unit 26 on the output unit 22 such as a display. Note that the display screen generation means 28 can also perform processing for extracting audio data to be output by the output means 22 such as a speaker from a plurality of audio data stored in advance in the storage means 23 based on the displayed contents. .
送受信手段29、上述した三次元顔形状計測装置11に対して、評価対象者の三次元顔形状データを撮影させ、また撮影させた画像やその関連情報を取得するための各種制御信号を送信する。また、送受信手段29は、三次元顔形状計測装置11から、評価対象者を撮影した三次元顔形状データや時間情報、位置情報、更には通信ネットワーク13により接続された外部装置等で取得された画像等を受信することができる。また、送受信手段29は、三次元平均顔データや三次元画像、顔形状評価結果等を、通信ネットワーク13を介して外部装置等に出力することができる。 The transmission / reception unit 29 and the above-described three-dimensional face shape measurement apparatus 11 are caused to photograph the three-dimensional face shape data of the evaluation subject, and various control signals for acquiring the photographed image and related information are transmitted. . The transmission / reception means 29 is acquired from the three-dimensional face shape measurement device 11 by three-dimensional face shape data, time information, position information obtained by photographing the evaluation subject, and an external device connected by the communication network 13. Images and the like can be received. The transmission / reception means 29 can output the three-dimensional average face data, the three-dimensional image, the face shape evaluation result, and the like to an external device or the like via the communication network 13.
制御手段30は、顔形状評価装置12の各構成部全体の制御を行う。具体的には、制御手段30は、例えばユーザ等による入力手段21からの各種指示情報等に基づいて、三次元顔形状取得処理、三次元平均顔生成処理、顔形状評価処理、差分カラー領域生成処理、表示画面生成処理等の各制御を行う。 The control means 30 controls the entire components of the face shape evaluation apparatus 12. Specifically, the control unit 30 is configured to generate a 3D face shape acquisition process, a 3D average face generation process, a face shape evaluation process, a difference color area generation, based on various instruction information from the input unit 21 by a user, for example. Each control such as processing and display screen generation processing is performed.
本実施形態では、上述したような構成を有することにより、顔を立体的に捉えて、二つの顔画像の変化量に基づき顔の評価を高精度に行うことができる。 In the present embodiment, by having the configuration as described above, the face can be captured in three dimensions and the face can be evaluated with high accuracy based on the amount of change between the two face images.
<顔形状評価装置12:ハードウェア構成>
ここで、上述した顔形状評価装置12においては、各機能をコンピュータに実行させることができる実行プログラム(顔形状評価プログラム)を生成し、例えば汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における顔形状評価処理等を実現することができる。ここで、本実施形態における顔形状評価処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。
<Face shape evaluation device 12: hardware configuration>
Here, in the face shape evaluation apparatus 12 described above, an execution program (face shape evaluation program) capable of causing a computer to execute each function is generated, and the execution program is installed in, for example, a general-purpose personal computer or server. Thus, the face shape evaluation process and the like in the present invention can be realized. Here, a hardware configuration example of a computer capable of realizing the face shape evaluation process in the present embodiment will be described with reference to the drawings.
図2は、本実施形態における顔形状評価処理が実現可能なハードウェア構成の一例を示す図である。図2におけるコンピュータ本体には、入力装置31と、出力装置32と、ドライブ装置33と、補助記憶装置34と、メモリ装置35と、各種制御を行うCPU(Central Processing Unit)36と、ネットワーク接続装置37とを有するよう構成されており、これらはシステムバスBで相互に接続されている。 FIG. 2 is a diagram illustrating an example of a hardware configuration capable of realizing the face shape evaluation process according to the present embodiment. 2 includes an input device 31, an output device 32, a drive device 33, an auxiliary storage device 34, a memory device 35, a CPU (Central Processing Unit) 36 that performs various controls, and a network connection device. 37, and these are connected to each other by a system bus B.
入力装置31は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザ等からのプログラムの実行等、各種操作信号を入力する。また、入力装置31は、ネットワーク接続装置37等に通信ネットワーク13を介して接続された三次元顔形状計測装置11から計測された評価対象者や平均顔画像を生成するためのサンプラー(被験者)等の三次元顔形状データの取得指示や、取得した画像に対する画像の関連情報等の各種データを入力することもできる。 The input device 31 has a pointing device such as a keyboard and a mouse operated by a user or the like, and inputs various operation signals such as execution of a program from the user or the like. The input device 31 is a sampler (subject) for generating an evaluation target person or an average face image measured from the three-dimensional face shape measurement device 11 connected to the network connection device 37 or the like via the communication network 13. It is also possible to input various data such as an instruction for acquiring the three-dimensional face shape data and image related information for the acquired image.
出力装置32は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU36が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。また、出力装置32は、上述の処理結果等を紙等の印刷媒体に印刷して、ユーザ等に提示することができる。 The output device 32 has a display for displaying various windows and data necessary for operating the computer main body for performing the processing according to the present invention, and displays the program execution progress and results by the control program of the CPU 36. can do. Further, the output device 32 can print the above processing result or the like on a print medium such as paper and present it to the user or the like.
ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えば、USB(Universal Serial Bus)メモリやCD−ROM、DVD等の可搬型の記録媒体38等により提供される。プログラムを記録した記録媒体38は、ドライブ装置33にセット可能であり、記録媒体38に含まれる実行プログラムが、記録媒体38からドライブ装置33を介して補助記憶装置34にインストールされる。 Here, the execution program installed in the computer main body in the present invention is provided by, for example, a portable recording medium 38 such as a USB (Universal Serial Bus) memory, a CD-ROM, or a DVD. The recording medium 38 on which the program is recorded can be set in the drive device 33, and the execution program included in the recording medium 38 is installed in the auxiliary storage device 34 from the recording medium 38 via the drive device 33.
補助記憶装置34は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。 The auxiliary storage device 34 is a storage means such as a hard disk, and can store an execution program in the present invention, a control program provided in a computer, and the like, and can perform input / output as necessary.
メモリ装置35は、CPU36により補助記憶装置34から読み出された実行プログラム等を格納する。なお、メモリ装置35は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。 The memory device 35 stores an execution program read from the auxiliary storage device 34 by the CPU 36. The memory device 35 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
CPU36は、OS(Operating System)等の制御プログラム、及びメモリ装置35に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。なお、プログラムの実行中に必要な各種情報等は、補助記憶装置34から取得することができ、また実行結果等を格納することもできる。 The CPU 36 controls processing of the entire computer, such as various operations and input / output of data with each hardware component, based on a control program such as an OS (Operating System) and an execution program stored in the memory device 35. Thus, each processing can be realized. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 34, and the execution result and the like can also be stored.
ネットワーク接続装置37は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。 The network connection device 37 acquires an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or an execution result obtained by executing the program or an execution in the present invention The program itself can be provided to other terminals.
また、ネットワーク接続装置37は、通信ネットワークに接続された三次元顔形状計測装置11等の外部装置により評価対象者の三次元顔形状データ等の各種データを取得することもできる。 The network connection device 37 can also acquire various types of data such as the three-dimensional face shape data of the evaluation subject using an external device such as the three-dimensional face shape measurement device 11 connected to the communication network.
上述したようなハードウェア構成により、本発明における顔形状評価処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における顔形状評価処理を容易に実現することができる。 With the above-described hardware configuration, the face shape evaluation process according to the present invention can be executed. Further, by installing the program, the face shape evaluation process in the present invention can be easily realized by a general-purpose personal computer or the like.
<顔形状評価処理手順>
次に、本実施形態における顔形状評価処理手順について説明する。図3は、本実施形態における顔形状評価処理手順の一例を示すフローチャートである。なお、以下の説明では、事前に三次元平均顔データが生成され蓄積手段23等に蓄積されているものとする。
<Face shape evaluation processing procedure>
Next, the face shape evaluation processing procedure in this embodiment will be described. FIG. 3 is a flowchart showing an example of a face shape evaluation processing procedure in the present embodiment. In the following description, it is assumed that three-dimensional average face data is generated in advance and stored in the storage unit 23 and the like.
図3に示す顔形状評価処理は、まず、評価対象者の三次元顔形状データを取得し(S01)、取得した三次元顔形状データと予め設定された条件の三次元平均顔データとの比較による顔形状評価を行う(S02)。 In the face shape evaluation process shown in FIG. 3, first, the three-dimensional face shape data of the evaluation subject is acquired (S01), and the acquired three-dimensional face shape data is compared with the three-dimensional average face data under preset conditions. The face shape is evaluated by (S02).
次に、顔形状評価の結果、両方の顔画像を形成する各点群データの各点の座標値に基づいてその差分値があるか否かを判断する(S03)。なお、差分値があるか否かは予め設定された領域における差分値が、予め設定された閾値以上あるか否かで判断する。 Next, as a result of the face shape evaluation, it is determined whether there is a difference value based on the coordinate value of each point of each point cloud data forming both face images (S03). Whether or not there is a difference value is determined based on whether or not the difference value in a preset region is equal to or greater than a preset threshold value.
差分値がある場合(S03において、YES)、差分カラー領域の生成を行う(S04)。また、S04の処理が終了後又はS03の処理において差分値がない場合(S03において、NO)、表示画面を生成し(S05)、生成された画面をディスプレイ等に出力する(S06)。 If there is a difference value (YES in S03), a difference color area is generated (S04). Further, after the process of S04 is completed or when there is no difference value in the process of S03 (NO in S03), a display screen is generated (S05), and the generated screen is output to a display or the like (S06).
次に、例えば他の条件により抽出される三次元平均顔データ等を用いて、他の条件による顔形状評価を行うか否かを判断し(S07)、顔形状評価を行う場合(S07において、YES)、他の条件によりS02以降の処理を行う。また、顔形状評価を行わない場合(S07において、NO)、処理を終了する。 Next, for example, using three-dimensional average face data extracted under other conditions, it is determined whether or not to perform face shape evaluation under other conditions (S07), and when face shape evaluation is performed (in S07, YES), the processing after S02 is performed under other conditions. If face shape evaluation is not performed (NO in S07), the process ends.
<実施例1>
次に、上述した構成を用いた本実施形態における顔形状評価手法の具体例について説明する。なお、以下の実施例の説明においては、顔形状評価の一例として顔の弛みに関する改善効果評価を行う例について説明するが、本発明において評価できる内容はこれに限定されるものではなく、例えば他の指標に基づく、老化度評価やアンチエイチング度評価、美形度評価等に適宜適用することができる。
<Example 1>
Next, a specific example of the face shape evaluation method in the present embodiment using the above-described configuration will be described. In the following description of the embodiment, an example of performing an improvement effect evaluation on the looseness of the face will be described as an example of the face shape evaluation. However, the content that can be evaluated in the present invention is not limited to this, for example, other It can be suitably applied to aging degree evaluation, anti-achieving degree evaluation, beauty degree evaluation, and the like based on the above index.
また、顔の弛みの変化を高精度に評価するための基準としては、その「部位」における「厚みの変化(色差)」、「体積」、「面積」等が重要となる。そこで、以下に示す実施例では、上記内容を取得して高精度に評価を行う手法を説明する。 In addition, as a reference for evaluating the change in looseness of the face with high accuracy, “change in thickness (color difference)”, “volume”, “area”, and the like in the “part” are important. Therefore, in the following embodiment, a method for obtaining the above contents and performing evaluation with high accuracy will be described.
<三次元顔形状計測装置11における計測手法の具体例>
まず、三次元顔形状計測装置11における計測手法の具体例について説明する。図4は、三次元顔形状計測装置を用いた撮影の概要を説明するための図である。なお、図4の例では、格子パターン投影方式による撮影手法について説明するが、本発明に適用される三次元顔形状データの生成例はこれに限定されるものではなく、上述したレーザによる光切断方式による撮影手法やステレオ方式による撮影手法等により得られる三次元画像を用いることができる。
<Specific Example of Measuring Method in Three-dimensional Face Shape Measuring Device 11>
First, a specific example of the measurement method in the three-dimensional face shape measurement apparatus 11 will be described. FIG. 4 is a diagram for explaining an outline of photographing using the three-dimensional face shape measuring apparatus. In the example of FIG. 4, an imaging method based on the lattice pattern projection method will be described. However, the example of generating the three-dimensional face shape data applied to the present invention is not limited to this, and the above-described laser light cutting is performed. A three-dimensional image obtained by a photographing method using a method, a photographing method using a stereo method, or the like can be used.
図4に示す例では、計測時において評価対象者Pは、外形がボックス状に形成された三次元顔形状計測装置11のカメラの位置に対応させて、開口部41から顔が撮影されるようにする。このとき、三次元顔形状計測装置11には、内部に評価対象者Pの左右それぞれからの画像を撮影するための撮影ユニット42−1,42−2が設置されている。撮影ユニット42−1,42−2は、図4の上部ボックスを外した状態に示すように、開口部41からそれぞれ評価対象者Pの左右何れかの顔を撮影するための撮像手段としてのカメラ43と、格子パターンを投影するプロジェクターとしての光源44及びパターン格子45とが設けられている。 In the example shown in FIG. 4, at the time of measurement, the evaluation target person P seems to photograph a face from the opening 41 in correspondence with the position of the camera of the three-dimensional face shape measuring apparatus 11 whose outer shape is formed in a box shape. To. At this time, the three-dimensional face shape measuring apparatus 11 is provided with photographing units 42-1 and 42-2 for photographing images from the left and right of the evaluation subject P, respectively. The photographing units 42-1 and 42-2 are cameras as imaging means for photographing either the left or right face of the evaluation subject P from the opening 41, as shown in the state where the upper box in FIG. 4 is removed. 43, and a light source 44 and a pattern grid 45 as a projector for projecting a grid pattern are provided.
また、評価対象者Pの三次元顔形状データを取得する際には、図4に示すように格子パターン投影プロジェクターの光源44を用いて評価対象者Pの顔にパターン格子45による格子模様を投影し、この格子模様をシフトさせ、カメラ43により撮影する。この撮影画像から、位相シフト法により解析することで、短時間での三次元顔形状データ計測が可能となる。 Further, when acquiring the three-dimensional face shape data of the evaluation target person P, a grid pattern by the pattern grid 45 is projected onto the face of the evaluation target person P using the light source 44 of the grid pattern projection projector as shown in FIG. Then, this lattice pattern is shifted and photographed by the camera 43. By analyzing this captured image by the phase shift method, three-dimensional face shape data can be measured in a short time.
なお、本実施例において、評価対象者Pは、三次元顔形状計測装置11から約400mm程度離れており、計測する範囲は、例えば約400×300[mm]とし、装置精度をサンプリング間隔(x−y面内):0.33mm、z方向ノイズ(2σ):0.046mmとする。 In the present embodiment, the evaluation target person P is about 400 mm away from the three-dimensional face shape measurement apparatus 11, the measurement range is, for example, about 400 × 300 [mm], and the apparatus accuracy is the sampling interval (x −in-plane): 0.33 mm, z-direction noise (2σ): 0.046 mm.
また、計測では、化粧品等の連用前後の僅かな表情の違いが顔形状に影響を持つために、予め設定された音声ガイドにより、所定の表情にさせた上で複数回計測したデータを取得し、その中から連用前後で位置合わせを行い、最も表情の差の小さいデータの組み合わせを選択する等の所定の条件に基づいて、連用前後の表情の一致度が高いデータを取得する。 Also, in measurement, because slight differences in facial expressions before and after continuous use of cosmetics, etc. have an effect on the face shape, data obtained by measuring multiple times after obtaining a predetermined facial expression with a preset voice guide is acquired. Then, data having a high degree of coincidence between facial expressions before and after continuous use is acquired based on a predetermined condition such as performing alignment before and after continuous use and selecting a combination of data having the smallest difference in facial expressions.
また、図4に示す格子パターン投影法を用いた三次元顔形状計測装置11は、2眼式の装置となっており、左右それぞれの半顔を計測し、その後データを接合して顔全体のデータを取得している。計測範囲は、上下方向は首から頭まで、左右方向は、左右の耳が入る程度であり、計測時間は約1秒である。データを取得している間隔は、0.33mm程度,奥行き方向のノイズ量は、0.046mm(2σ)程度である。 Also, the three-dimensional face shape measuring apparatus 11 using the grid pattern projection method shown in FIG. 4 is a twin-lens apparatus, which measures the left and right half faces, and then joins the data to the entire face. Data is being acquired. The measurement range is such that the vertical direction is from the neck to the head, the horizontal direction is such that the left and right ears enter, and the measurement time is about 1 second. The interval at which data is acquired is about 0.33 mm, and the amount of noise in the depth direction is about 0.046 mm (2σ).
また、本実施形態における三次元顔形状計測装置11で取得される三次元顔形状データは、xyz座標を持つ点群データであり、図4では、その座標をCG(Computer Graphics)のシェーディングにて表示しているが、stl、dxf等の一般的な三次元形状のフォーマット、若しくは装置独自のファイルフォーマットにより出力することもできる。 Further, the 3D face shape data acquired by the 3D face shape measuring apparatus 11 in the present embodiment is point cloud data having xyz coordinates. In FIG. 4, the coordinates are converted by CG (Computer Graphics) shading. Although it is displayed, it can also be output in a general three-dimensional shape format such as stl or dxf, or a file format unique to the apparatus.
<三次元平均顔データの生成例>
次に、上述した本実施形態における三次元平均顔画像の生成例について図を用いて説明する。図5は、三次元平均顔データの生成例を示す図である。本実施形態においては、複数の三次元顔画像のうち、二つの顔画像をモーフィング機能により組み合わせて一つの合成画像を生成し、その合成画像を更に他の三次元顔画像にも施すことで三次元平均顔データを生成する。なお、図5の例では、8個の三次元顔画像46−1〜46−8から三次元平均顔データ47を生成している。
<Generation example of 3D average face data>
Next, a generation example of the three-dimensional average face image in the above-described embodiment will be described with reference to the drawings. FIG. 5 is a diagram illustrating an example of generating the three-dimensional average face data. In this embodiment, among the plurality of three-dimensional face images, two face images are combined by a morphing function to generate one composite image, and the composite image is further applied to another three-dimensional face image to obtain a tertiary image. Generate original average face data. In the example of FIG. 5, three-dimensional average face data 47 is generated from eight three-dimensional face images 46-1 to 46-8.
ここで、本実施形態において、平均顔を用いて評価することの利点としては、例えば、個人の代表例データではなく、平均顔で評価することで客観性の高い評価が可能となり、また三次元平均顔画像を他の評価等に用いるために情報提供する場合、平均顔は個人情報ではないため、データそのものの取り扱いが容易になる。 Here, in this embodiment, as an advantage of evaluation using an average face, for example, evaluation with an average face rather than individual representative example data enables evaluation with high objectivity, and three-dimensional When the average face image is provided for use in other evaluations, the average face is not personal information, so that the data itself can be handled easily.
また、本実施形態におけるモーフィングでは、例えば既存の解析ソフト(例えば、DTwin2等)を用いた三次元モーフィング機能により、二つのデータから設定した混合割合に応じた中間データ一つを作成し、同様に作成した中間データのうち、二つを合成して更に平均画像を生成する。なお、各個人データの寄与が均等となるように、混合割合を適切に設定しモーフィングを何度も実施することで、三次元平均顔が作成可能となる。 Further, in the morphing in the present embodiment, for example, one intermediate data corresponding to the mixing ratio set from two data is created by a three-dimensional morphing function using existing analysis software (for example, DTwin2 etc.), and similarly Of the created intermediate data, two are combined to further generate an average image. A three-dimensional average face can be created by setting the mixing ratio appropriately and performing morphing many times so that the contribution of each personal data is equal.
ここで、モーフィングを行うための準備として、各データ間で、同一箇所(位置としての対応関係)の情報が必要となる。ここで、図6は、モーフィング実施のためのメッシュ領域を示す図である。本実施形態では、評価対象者Pに対して図6に示すような所定の点数と所定の三角メッシュ数からなるメッシュ領域48(図6の例では、点数44、三角メッシュ数74等)を手動や顔の特徴点等により設定する。 Here, as preparation for performing morphing, information on the same location (correspondence as a position) is required between data. Here, FIG. 6 is a diagram illustrating a mesh region for performing morphing. In the present embodiment, a mesh region 48 having a predetermined number of points and a predetermined number of triangular meshes as shown in FIG. And the facial feature points.
なお、メッシュの各三角形は、各顔データ上で同じ部位上に設置する。なお、基本的にはメッシュを細かくする程、精度の高い平均顔が取得できるが、設定時の手間等が多くなるため、処理速度や目的とする精度等に応じて任意に設定することができる。 Note that each triangle of the mesh is placed on the same part on each face data. Basically, the finer the mesh, the more accurate the average face can be acquired. However, since the effort and time required for setting increases, it can be arbitrarily set according to the processing speed, the target accuracy, etc. .
<三次元平均顔作成手順>
ここで、三次元平均顔作成手順について説明する。なお、以下の処理は、例えばDTwin2等の解析ソフトにより各処理を実施することができる。まず、顔三次元形状データをインポートし、各三次元顔形状データにおいて、三角メッシュ数74,点数44のメッシュの各点を図6と同じ位置と判断する場所に設置する。なお、モーフィングにより作成されたデータには、自動的にメッシュデータが設定されるため、上述の作業は不要となる。
<3D average face creation procedure>
Here, the 3D average face creation procedure will be described. The following processing can be performed by analysis software such as DTwin2, for example. First, the face three-dimensional shape data is imported, and in each three-dimensional face shape data, each point of the mesh having the triangular mesh number of 74 and the point number of 44 is set at a position where it is determined as the same position as in FIG. Note that mesh data is automatically set in the data created by morphing, so the above-described operation is not necessary.
次に、例えば、化粧品使用群、化粧品+食品使用群の各群毎の所定のグループ(分類)毎に、所定の期間(例えば、連用前、連用4週間後、連用6週間後等)の三次元平均顔を生成する。 Next, for example, tertiary for a predetermined period (for example, before continuous use, after 4 weeks of continuous use, after 6 weeks of continuous use, etc.) for each predetermined group (classification) of each group of cosmetic use group and cosmetic + food use group Generate original average face.
なお、本実施形態では、モーフィングする二つのデータの混合比率を設定することで、異なるモーフィングデータを生成することができる。図7は、混合比率の設定によるモーフィング結果の変化の様子を説明するための図である。 In the present embodiment, different morphing data can be generated by setting a mixing ratio of two data to be morphed. FIG. 7 is a diagram for explaining how the morphing result is changed by setting the mixing ratio.
図7の例では、20代女性と60代女性の元データを用いて、所定の混合比率で作成したモーフィングの計算結果を示している。予め設定される評価内容等に基づいて、所定の条件(例えば年代別や性別等)に基づく複数のモーフィングデータを容易に生成することができる。 In the example of FIG. 7, the calculation result of the morphing created with the predetermined | prescribed mixing ratio is shown using the original data of the 20's woman and the 60's woman. A plurality of morphing data based on a predetermined condition (for example, age group or sex) can be easily generated based on the evaluation contents set in advance.
ここで、モーフィング処理では、二つのデータから一つのデータしか得られない。そのため、三次元平均顔の作成は、各個人データの残存率が均等になるように混合割合を最適に設定し、モーフィングを繰返し実施する。例えば、2人の平均顔であれば混合割合50:50を1回実施で完了する。また、A、B、Cの三人の平均顔を作成するのであれば、1回目の処理で、AとBを50:50の混合割合でモーフィング処理を実施し、次に、そのデータを取得する。AとBのデータのモーフィング結果をABとすると、2回目の処理でABとCを、66.7:33.3の混合割合でモーフィング処理することで、この3名の平均顔を取得することができる。つまり、上述した処理等によって平均顔の中の個人毎の割合が均等になるように処理を行うのが好ましい。なお、必要に応じて比率を変更することで、同一の元画像から多種の平均顔を取得することができる。 Here, in the morphing process, only one data is obtained from two data. Therefore, the creation of the three-dimensional average face is performed by repeatedly setting the mixing ratio so that the remaining ratio of each personal data becomes equal and morphing is repeated. For example, for an average face of two people, the mixing ratio of 50:50 is completed once. If an average face of three people A, B, and C is to be created, morph processing is performed at a 50:50 mixing ratio of A and B in the first processing, and then the data is acquired. To do. Assuming that the morphing result of the data of A and B is AB, the average face of these three people is obtained by morphing AB and C at a mixing ratio of 66.7: 33.3 in the second processing. Can do. That is, it is preferable to perform the processing so that the ratio of each individual in the average face is equalized by the processing described above. In addition, various average faces can be acquired from the same original image by changing the ratio as necessary.
<三次元平均顔の生成結果>
ここで、図8は、三次元平均顔データの生成結果の一例を示す図である。図8の例では、国籍が日本人、ドイツ人、それぞれの国籍で年代が20代、50代の女性8名ずつの三次元顔形状データを用いて生成した平均顔の例が示されている。このように、上述した混合比率等の条件を適宜設定することで、多種の三次元平均顔データを生成することができる。
<3D average face generation result>
Here, FIG. 8 is a diagram illustrating an example of a generation result of the three-dimensional average face data. The example of FIG. 8 shows an example of an average face generated using three-dimensional face shape data of eight women of Japanese nationality, German nationality, and each nationality in their 20s and 50s. . In this way, various kinds of three-dimensional average face data can be generated by appropriately setting the above-described conditions such as the mixing ratio.
<顔形状評価手法>
次に、本実施形態における顔形状評価手法について図を用いて説明する。図9は、本実施形態における顔形状評価手法の一例を示す図である。図9(a)は、三次元平均顔データとの各点群データにおける比較の様子を示し、図9(b)は、差分値を算出する流れを示している。
<Facial shape evaluation method>
Next, the face shape evaluation method in this embodiment will be described with reference to the drawings. FIG. 9 is a diagram illustrating an example of a face shape evaluation method according to the present embodiment. FIG. 9A shows a state of comparison in each point cloud data with the three-dimensional average face data, and FIG. 9B shows a flow of calculating a difference value.
図9(a)の例では、化粧品やマッサージ等の使用前の三次元顔形状データ51と使用後の三次元顔形状データ52とを用いて、連用前の三次元顔形状データと連用後の三次元顔形状データの形状の差を求めることで、改善を評価する。例えば、使用前(緑色)のデータに対し、使用後(桃色)のデータの位置を予め設定された顔の特徴点に基づいて合わせる。また、位置合わせ後、その位置合わせしたプレデータは点群データ(csv形式)で出力され、更に連用後のデータはstl形式で出力される。 In the example of FIG. 9A, the 3D face shape data 51 before use such as cosmetics and massage and the 3D face shape data 52 after use are used, and the 3D face shape data before use and after use. The improvement is evaluated by obtaining the difference in the shape of the 3D face shape data. For example, the position of the data after use (pink) is matched with the data before use (green) based on preset facial feature points. Further, after the alignment, the aligned pre-data is output as point cloud data (csv format), and the data after continuous use is output in stl format.
ここで、本実施形態における形状変化を評価するためには、化粧品やマッサージ等の使用前の形状データに対して、使用後の形状データの位置をきっちりと合わせる必要がある。そのため、図9(a)に示す位置合わせ機能では、使用前のデータを基準として、使用後のデータに対して並進若しくは回転を与えて使用前のデータの位置、向きと合致させる。合致していることの確認は、位置を合わせようとする二つのデータを同じ画面上に三次元表示させ、予め設定された特徴点である鼻、額、耳儒部位等、軟組織部分の厚みが薄く変化が起こりにくい領域で二つのデータ間に差がなく重なるような状態にして位置を合わせた位置合わせデータ53を生成する。 Here, in order to evaluate the shape change in the present embodiment, it is necessary to exactly match the position of the shape data after use with the shape data before use such as cosmetics and massage. Therefore, in the alignment function shown in FIG. 9A, translation or rotation is applied to the data after use with reference to the data before use to match the position and orientation of the data before use. To confirm that they match, the two data to be aligned are displayed three-dimensionally on the same screen, and the thickness of the soft tissue part such as the nose, forehead, and earlobe parts that are preset feature points The alignment data 53 is generated by aligning the two data so that there is no difference between the two data in a thin region where the change hardly occurs.
次に、図9(b)に示すように、出力されたデータをVX(CADソフト)等に読込み、使用前点群データから曲面を作成する。また、使用後のstlデータから、連用後点群データを取得し、各点から使用前の曲面までの距離を求めて差分値を取得する。 Next, as shown in FIG. 9B, the output data is read into VX (CAD software) or the like, and a curved surface is created from the pre-use point group data. Further, the post-use point cloud data is obtained from the used stl data, and the distance from each point to the curved surface before use is obtained to obtain the difference value.
従来では、計測した顔形状データから、使用前後の顔形状変化を評価する場合、これまで等高線や断面形状の差を用いて判断していた例があるが、その場合だと使用前後で等高線形状が異なっていれば、形状に変化があったことは認識できるが、具体的な変化量を評価できない。また、断面形状の比較では、断面内での変化量は評価できるが、一つの断面により評価可能な領域は線状の範囲でしかない。しかしながら、弛みやむくみによる改善変化は、広い範囲で形状変化が発生し、その位置と変化量の分布情報は重要であるため、断面による評価は不十分である。 Conventionally, when evaluating the facial shape change before and after use from the measured face shape data, there have been examples using the contour lines and the difference in cross-sectional shape so far, but in that case the contour shape before and after use If they are different, it can be recognized that the shape has changed, but a specific amount of change cannot be evaluated. In comparison of cross-sectional shapes, the amount of change in a cross-section can be evaluated, but the region that can be evaluated by one cross-section is only a linear range. However, the improvement change due to loosening or swelling causes a shape change in a wide range, and the distribution information of the position and the change amount is important, so the evaluation by the cross section is insufficient.
したがって、図9(b)に示す誤差評価機能は、広い領域の形状変化を評価する手法として、比較する二つの三次元形状を同じ位置に合わせた後、場所ごとに二つのデータ間の差を評価し、差の量に応じてカラー表示する。ここで、形状の差を評価する方向としては、顔は卵状の曲面形状をしており、弛みやむくみ(引締り若しくは膨張)等の形状変化の方向は、曲面の法線方向に近いため、顔の場所毎に変化する方向が異なっており、評価する領域がある程度広く、顔形状の法線方向が場所毎に異なる場合には、顔形状の曲面の法線方向への変化を評価するのがよい。 Therefore, the error evaluation function shown in FIG. 9B is a method for evaluating the shape change of a wide area, and after matching two three-dimensional shapes to be compared at the same position, the difference between the two data for each place is calculated. Evaluate and color display according to the amount of difference. Here, as the direction for evaluating the difference in shape, the face has an egg-shaped curved shape, and the direction of shape change such as loosening or swelling (tightening or expansion) is close to the normal direction of the curved surface. If the direction of change for each location of the face is different, the area to be evaluated is somewhat wide, and the normal direction of the face shape is different for each location, the change in the normal direction of the curved surface of the face shape is evaluated It is good.
なお、この機能は、例えば、三次元CADソフトのVX(マシンウェア社製)等を用いて解析を行うことができる。手順としては、まず基準とするデータ(例えば、化粧品やマッサージの使用前のデータ)の点群データを曲面のデータに変換する。その後、この曲面データと使用後の点群データを比較するために、誤差評価機能を用い、使用後の点群データの各点に対して、使用前曲面データからの法線方向の差(距離)に応じた色付けを行う。 This function can be analyzed using, for example, VX (manufactured by Machineware) of 3D CAD software. As a procedure, first, point cloud data of reference data (for example, data before using cosmetics or massage) is converted into curved surface data. Then, in order to compare this curved surface data with the point cloud data after use, using the error evaluation function, the normal direction difference (distance) from the curved surface data before use for each point of the point cloud data after use. Coloring according to).
なお、図9に示す色付けは、一例であり、本実施形態によれば、予め設定された色付けや点滅、輝度等に変化をつけることにより、その凹凸箇所の凹凸度に対応させて任意に強調表示することができる。 Note that the coloring shown in FIG. 9 is an example, and according to the present embodiment, by arbitrarily changing the coloring, blinking, brightness, etc. set in advance, it is arbitrarily emphasized corresponding to the degree of unevenness of the uneven portions. Can be displayed.
<差分カラー領域生成手法>
次に、本実施形態における差分カラー領域生成手法について図を用いて説明する。図10は、差分カラー領域の生成例を示す図である。図10に示すように、予め設定された色付けの条件に基づいてビジュアルデータを取得する。具体的には、図10に示すように例えばカラーバー等により画面設定が可能となっている。なお、本実施形態においてはこれに限定されず、RGBの数値や、赤、青、緑といった名称を直接入力することもできる。
<Difference color area generation method>
Next, the difference color area generation method in the present embodiment will be described with reference to the drawings. FIG. 10 is a diagram illustrating a generation example of the difference color area. As shown in FIG. 10, visual data is acquired based on preset coloring conditions. Specifically, as shown in FIG. 10, for example, the screen can be set using a color bar or the like. In the present embodiment, the present invention is not limited to this, and RGB numerical values and names such as red, blue, and green can be directly input.
本実施形態における差分カラー領域生成では、連用後データの各点は、連用前の曲面からの距離に応じて、色付けが行われる。具体的な手順としては、まず基準とするデータ(例えば、化粧品やマッサージの使用前のデータ)の点群データを曲面のデータに変換する。その後、この曲面データと使用後の点群データを比較するために、誤差評価機能を用い、使用後の点群データの各点に対して、使用前曲面データからの法線方向の差(距離)に応じた色付けを行い、ビジュアルデータを取得する。次に、図10に示すように、画像処理で、予め設定された差分値(変化量)の閾値に基づいて、変化がない緑色のエリアを削除して差分カラーを生成する。なお、色の設定内容については、図10に示す色付け方法に限定されず本実施形態において任意に設定することができる。 In the difference color area generation in the present embodiment, each point of the continuous data is colored according to the distance from the curved surface before continuous use. As a specific procedure, first, point cloud data of reference data (for example, data before using cosmetics or massage) is converted into curved surface data. Then, in order to compare this curved surface data with the point cloud data after use, using the error evaluation function, the normal direction difference (distance) from the curved surface data before use for each point of the point cloud data after use. ) To obtain visual data. Next, as shown in FIG. 10, in the image processing, based on a preset difference value (change amount) threshold, a green area that does not change is deleted to generate a difference color. Note that the color setting content is not limited to the coloring method shown in FIG. 10 and can be arbitrarily set in the present embodiment.
<差分ベクトル表示による評価について>
ここで、差分ベクトル表示による評価について説明する。二つの顔形状データ間の変化を差分カラー表示により評価する場合、二つの顔形状データの面と面の間の距離を評価しているため、頬が引き上がったとか、垂れ下がる等、顔の面内方向の変化は評価できない。これらの変化を評価するためには、比較する顔形状データ間で同じ位置(対応点)を特定し、その差を差分ベクトルとしてx,y,zのそれぞれの方向別に求めることが必要となる。
<Evaluation by difference vector display>
Here, the evaluation based on the difference vector display will be described. When evaluating the change between two face shape data using differential color display, the distance between the faces of the two face shape data is evaluated, so the face surface such as a cheek being pulled up or hanging down Inward changes cannot be assessed. In order to evaluate these changes, it is necessary to identify the same position (corresponding point) between the face shape data to be compared, and obtain the difference as a difference vector for each direction of x, y, z.
ここで、重要なのは対応点を特定する手法である。顔形状計測に用いている三次元顔形状計測装置11の多くはカメラを搭載しており、レーザ光を走査した画像や、パターンを顔に投影した画像を取得し、この画像の各画素毎、若しくはデータ量を少なくするため数画素間隔で三次元座標データ(x,y,z)を取得する。よって、三次元顔形状計測装置11では、点群で構成される顔形状データと顔画像が取得可能であるが、顔形状データの各点が顔画像のどの画素に対応してるかは既知である。 Here, what is important is a method for identifying corresponding points. Many of the three-dimensional face shape measurement apparatuses 11 used for face shape measurement are equipped with a camera, acquire an image obtained by scanning a laser beam or an image obtained by projecting a pattern on the face, and each pixel of this image Alternatively, three-dimensional coordinate data (x, y, z) is acquired at intervals of several pixels in order to reduce the data amount. Therefore, the 3D face shape measurement apparatus 11 can acquire face shape data and a face image composed of point clouds, but it is known which pixel of the face image corresponds to each point of the face shape data. is there.
本実施形態では、例えば二つの顔形状データ間で対応点を探索する場合、顔形状データから直接対応点を求めることが困難な場合、顔画像データを用いてどの画素が対応点なのかを探索し、その画素から顔形状データのどの点が対応点なのかを知ることができる。 In this embodiment, for example, when searching for a corresponding point between two face shape data, when it is difficult to obtain a corresponding point directly from the face shape data, it is searched which pixel is the corresponding point using the face image data. Then, it is possible to know which point of the face shape data is the corresponding point from the pixel.
ここで、顔画像を用いた対応点の探索手法は、例えば従来から様々な画像マッチング手法があるため、それらから任意に選択して用いればよく、例えば顔の特徴点に基づく画像マッチング手法等を用いることができる。画像マッチング手法を用いることで、評価エリア内の多くの点を一度に評価することが可能となる。 Here, since there are various image matching methods for searching for corresponding points using a face image, for example, any one of them may be selected and used. For example, an image matching method based on feature points of a face is used. Can be used. By using the image matching method, it is possible to evaluate many points in the evaluation area at once.
このようにして、本実施形態では、顔形状データ上で、どの点とどの点が対応しているのかを得ることができ、その差を差分ベクトルとしてx,y,zのそれぞれの方向別に求めることで変化の方向を加味した評価を行い、変化を矢印で表示することで、ビジュアル的にも分かり易い表示を行うことができる。 In this way, in the present embodiment, it is possible to obtain which point corresponds to which point on the face shape data, and obtain the difference as a difference vector for each direction of x, y, z. In this way, an evaluation that considers the direction of the change is performed, and the change is displayed with an arrow, so that the display can be easily understood visually.
<他の手法との違い>
変化量を矢印で表示する手法として、表情解析等を行うために、画像(二次元)においてオプティカルフローを用い、変化の方向と向きを矢印により評価するものがあるが、画像の奥行き方向の変化を評価することができないため、変化を正確に評価することはできない。
<Differences from other methods>
As a method of displaying the amount of change with an arrow, there is one that uses an optical flow in an image (two-dimensional) to perform facial expression analysis, etc., and evaluates the direction and direction of the change with an arrow, but the change in the depth direction of the image Cannot be assessed accurately, so changes cannot be assessed accurately.
また、変化量を三次元的に評価する手法としては、運動解析等でマーカーを付けてその位置の変化を三次元的に評価する手法があるが、マーカー設置点しか評価しない。また、マーカーを多く付けることで評価点を増やすことは可能であるが、商品情報(パンフレット)等に活用する場合を考えると、不自然なマーカーが顔に何点、何十点と付いているビジュアルデータは、見た目上よくない。 In addition, as a method for evaluating the amount of change three-dimensionally, there is a method for attaching a marker by motion analysis or the like and evaluating the change in the position three-dimensionally, but only the marker installation point is evaluated. In addition, it is possible to increase the evaluation score by adding a lot of markers, but when using it for product information (pamphlets) etc., how many or tens of unnatural markers are attached to the face Visual data does not look good.
ここで、上述した内容を実施するための手順と具体的な実施例について説明する。実施例として、昼と夕方に顔形状を三次元顔形状計測装置により計測し、その変化を評価したものを例示する。 Here, a procedure for implementing the above-described contents and a specific example will be described. As an example, a face shape is measured by a three-dimensional face shape measuring device in the daytime and evening and the change is evaluated.
まず、計測は、三次元顔形状計測装置を用いて顔形状を計測する。このとき、装置のカメラにて取得した画像と、顔形状データの二つを取得しておく。また、上述した位置合わせは、例えばDTwin2等の解析ソフトの位置合わせ機能を用いて、昼の顔形状データに対して、夕方の顔形状データの位置を合わせる。なお、計測と位置合わせに関しては、上述して説明したものと同じとする。 First, the measurement measures the face shape using a three-dimensional face shape measuring device. At this time, the image acquired by the camera of the apparatus and the face shape data are acquired in advance. In the above-described alignment, for example, the alignment function of analysis software such as DTwin2 is used to align the position of the evening face shape data with the daytime face shape data. Note that the measurement and alignment are the same as those described above.
また、移動量解析領域の設定は、例えば顔画像上で評価を行うエリアを指定する。なお、エリアは、例えば四角形や円形等の所定の領域が指定される。また、計算条件の設定では、
評価する間隔(矢印を表示する間隔)を何画素毎に行うのかを、予め設定される計算間隔により設定する。また、画像フィッティング実行時の設定として、窓サイズを設定する。
Also, the setting of the movement amount analysis area designates an area to be evaluated on the face image, for example. For the area, a predetermined area such as a square or a circle is designated. Also, in setting the calculation conditions,
The number of pixels at which the evaluation interval (interval for displaying the arrow) is set is set by a preset calculation interval. Also, the window size is set as a setting at the time of image fitting execution.
次に、計算の実施とその結果について説明する。図11は、表示結果の一例を示す図である。なお、図11(a)は、評価対象者と移動量解析領域を示し、図11(b)は、評価対象者を真横方向から見た図を示し、図11(c)は、評価対象者を前斜め方向から見た図を示している。 Next, the execution of the calculation and the result will be described. FIG. 11 is a diagram illustrating an example of the display result. 11A shows the evaluation subject and the movement amount analysis region, FIG. 11B shows a view of the evaluation subject viewed from the side, and FIG. 11C shows the evaluation subject. The figure which looked at from the front diagonal direction is shown.
図11(b),(c)に示すように、図11(a)に示す移動量解析領域に対する窓サイズの設定において、計算間隔を15画素毎、画像フィッティングの窓サイズを128画素で解析を実行した結果を、矢印等により明確に表示させることができる。なお、図11(b),(c)に示す矢印の大きさは、倍率を変更することで変更することができる。なお、変化量に応じて矢印の大きさや長さを変化させることで、その変化量を容易にユーザ等に示すことができる。 As shown in FIGS. 11B and 11C, in setting the window size for the movement amount analysis region shown in FIG. 11A, the calculation interval is analyzed every 15 pixels and the window size of the image fitting is 128 pixels. The execution result can be clearly displayed by an arrow or the like. In addition, the magnitude | size of the arrow shown to FIG.11 (b), (c) can be changed by changing a magnification. Note that the amount of change can be easily shown to the user or the like by changing the size or length of the arrow according to the amount of change.
<体積、表面積評価機能>
次に、本実施形態における体積、表面積評価機能について図を用いて説明する。図12は、体積、表面積評価機能の評価手法の一例を示す図である。
<Volume and surface area evaluation function>
Next, the volume and surface area evaluation function in the present embodiment will be described with reference to the drawings. FIG. 12 is a diagram illustrating an example of an evaluation method for the volume and surface area evaluation function.
本実施形態における機能は、例えば、マッサージや化粧品の使用前後の指定した領域の体積変化量の評価、及び表面積を、例えばVX(CADソフト)を用いて評価することができる。まず、体積変化量の評価の手順は、図12(a)に示すように、評価対象の領域や部位を直線や曲線等で囲んで領域49を指定する。次に、図12(b)に示すように、この囲んだ領域に対しておおまかに平行平面を設定し、この面に対して指定した領域に対する投影図を作成し、この面の法線方向に厚みを持たせた立体形状を作成する。この立体を顔データ数だけコピーを作成し(位置も全く同じもの)、各顔データの曲面と交差する箇所で切断し、顔の内側の立体(図12(c))の体積を計算する。更に、求めた使用後の体積値から、使用前の体積値を引いた値が、指定した領域での体積変化量となる。 The function in this embodiment can evaluate the volume change amount of the designated area | region before and behind use of a massage or cosmetics, for example, and can evaluate a surface area, for example using VX (CAD software). First, as shown in FIG. 12A, the procedure for evaluating the volume change amount designates a region 49 by surrounding a region or part to be evaluated with a straight line or a curve. Next, as shown in FIG. 12B, a roughly parallel plane is set for the enclosed region, a projection view for the specified region is created for this surface, and the normal direction of this surface is set. Create a three-dimensional shape with thickness. A copy of this solid is created for the number of face data (the positions are exactly the same), and the volume of the solid inside the face (FIG. 12 (c)) is calculated by cutting at a location that intersects the curved surface of each face data. Further, a value obtained by subtracting the volume value before use from the obtained volume value after use is the volume change amount in the designated region.
また、指定部位の表面積の評価についても、同様の手順で処理を行うことができる。具体的には、まず図12(a)に示すように、評価したい領域を直線や曲線等で囲んで領域を指定する。次に、図12(b)に示すように、この囲んだ領域に対して、おおまかに平行平面を設定し、この面に対して指定した領域の投影図を作成し、この面の法線法に厚みを持たせた立体形状を作成する。 The same procedure can be used for the evaluation of the surface area of the designated site. Specifically, first, as shown in FIG. 12A, an area to be evaluated is specified by surrounding it with a straight line, a curve or the like. Next, as shown in FIG. 12 (b), a roughly parallel plane is set for the enclosed region, a projection view of the specified region is created for this surface, and the normal method of this surface is created. Create a three-dimensional shape with thickness.
その後、この立体を顔データの曲面と交差する箇所で切断し、顔の内側の立体(図12(c))を取得する。更に、取得した立体の顔形状曲面がある曲面だけを残して、その他の面(底面、側面等)を全て削除し、その表面積を計算する。 Thereafter, this solid is cut at a location where it intersects the curved surface of the face data, and a solid inside the face (FIG. 12C) is obtained. Further, only the curved surface having the acquired three-dimensional face shape curved surface is left, all other surfaces (bottom surface, side surface, etc.) are deleted, and the surface area is calculated.
<実施例2:弛みグレード別平均顔画像の生成例>
ここで、本発明における他の実施例として弛みグレード別平均顔画像の生成例について説明する。例えば、顔の弛みに関する評価を行うための平均顔画像を生成する場合、予め複数の三次元顔形状データに対して目視等により、ユーザ等が弛みグレードを設定し、その設定された弛みグレードに基づいて三次元平均顔データを生成する。
<Example 2: Example of generation of average face image by slack grade>
Here, an example of generating an average face image by slack grade will be described as another embodiment of the present invention. For example, when generating an average face image for evaluation related to facial slackness, a user or the like sets a slack grade by visual inspection or the like for a plurality of three-dimensional face shape data in advance, and sets the slack grade to the set slack grade. Based on this, three-dimensional average face data is generated.
本実施例では、20代〜60代の女性128名を対照にし、三次元顔形状データを取得し、同時に採取される左右斜め側面の二次元テクスチャ画像について、6名の判定者が顔面全体の弛みの印象を、「感じない」を「0」、「はっきりと感じる」を「6」として弛み度を得点化した。 In this embodiment, 128 females in their 20s to 60s are contrasted, three-dimensional face shape data is obtained, and six determiners of the two-dimensional texture image of the left and right oblique sides collected at the same time The degree of slackness was scored with “not feeling” as “0” and “feeling clearly” as “6”.
また、その弛み得点から、5段階のグレードを設定し、各グレードから8名を選定し、三次元平均顔データを生成する。このようにすることで、グレード別弛み平均顔を作成することができる。 Also, five grades are set from the slack scores, eight persons are selected from each grade, and three-dimensional average face data is generated. By doing so, it is possible to create a grade-specific slack average face.
なお、本実施例を適用して、三次元顔形状データを用いて作成した弛みグレート別平均顔画像の等高線変化を、加齢による弛みが顕在し易い部位である頬中央部、フェイスライン、鼻唇溝、口角部、上下眼瞼に着目して確認したところ、平均化する前の個々の三次元形状で確認できた頬中央部の弛み、フェイスラインの下垂、鼻唇溝、衡各部のシワ形状に起因する等高線形状の変化を確認することができた。 It should be noted that the contour line change of the average facial image by slack grate created using the three-dimensional face shape data by applying this example, the central part of the cheek, face line, nose which is a part where slack due to aging is likely to appear Checked by focusing on the lip groove, corner of the mouth, and upper and lower eyelids, it was confirmed by the individual three-dimensional shape before averaging, sagging of the cheek center, face line droop, nose lip groove, wrinkle shape of each part It was possible to confirm the change in the contour line shape caused by.
<評価結果>
次に、上述した本実施形態を適用した具体的な評価結果について説明する。ここで、評価結果に用いた三次元平均顔データの作成内容について説明する。図13は、三次元平均顔データの生成におけるモーフィング実施手順の一例を示す図である。
<Evaluation results>
Next, specific evaluation results to which the above-described embodiment is applied will be described. Here, the creation content of the three-dimensional average face data used for the evaluation result will be described. FIG. 13 is a diagram illustrating an example of a morphing execution procedure in generating the three-dimensional average face data.
ここで、三次元平均顔作成手順としては、上述したように、顔三次元形状データをインポートし、各三次元顔形状データにおいて、三角メッシュ数74,点数44のメッシュの各点を上述した図6に示す位置と同じ位置と判断する場所に設置する。また、化粧品使用群、化粧品+食品使用群の各群毎に、連用前、連用4週間後、連用6週間後の三次元平均顔を作成する。 Here, as the three-dimensional average face creation procedure, as described above, the face three-dimensional shape data is imported, and in each three-dimensional face shape data, the points of the meshes having the triangular mesh number of 74 and the score of 44 are described above. It is installed in a place where it is determined that it is the same position as shown in FIG. For each group of cosmetic use group and cosmetic + food use group, a three-dimensional average face is created before continuous use, after 4 weeks of continuous use, and after 6 weeks of continuous use.
<モニター(被験者)について>
モニターは、フェイスラインや顎下の弛みが気になる30代後半〜40代女性で、普段洗顔後のお手入れが化粧水・乳液等1〜3品程度の比較的シンプルな対象者33名を以下のように群分けした。また、「化粧品使用群(以下、必要に応じて化粧品群と略称する。)」は、10名を対象に「エッセンス塗布+マスク貼付け」を行い、「化粧品+食品使用群(以下、必要に応じて化粧品+食品群と略称する。)」は、23名を対象に「エッセンス塗布+マスク貼付け+ドリンク摂取」を行った。
<Monitor (subject)>
The monitor is a woman in their late 30s to 40s who is worried about slackness in the face line and submandibular, and has 33 relatively simple subjects who usually have 1 to 3 items such as lotions and emulsions to clean after washing their face. They were grouped as follows. In addition, the “cosmetics use group (hereinafter abbreviated as a cosmetics group as required)” performs “essence application + mask application” for 10 persons, and the “cosmetics + food use group (hereinafter referred to as necessary). "Abbreviated as cosmetics + food group.)" Was performed "essence application + mask application + drink intake" for 23 persons.
また、エッセンスは毎日使用し、またマスクとドリンクは、テスト開始から3日目までは毎日、その後テスト開始から1週間目の日に使用した。 The essence was used every day, and the mask and drink were used every day from the start of the test to the third day, and then the first week after the start of the test.
次に、三次元平均顔作成時使用データについて説明する。三次元平均顔作成時使用データは、「化粧品群」については、計10名のうち、連用4週間後計測欠席者1名、連用前後の表情の違いが大きかった人1名を不使用とし、計8名のデータを用い平均顔を作成する。また、「化粧品+食品群」については、計23名のうち、連用4週間後計測欠席者1名、連用前後の表情の違いが大きかった人2名を不使用とし、計20名のデータを用い平均顔を作成する。 Next, data used when creating a three-dimensional average face will be described. As for the use data at the time of creating the 3D average face, out of a total of 10 “cosmetics group”, 1 person who was absent after 4 weeks of continuous use and 1 person who had a large difference in facial expressions before and after continuous use were not used. An average face is created using data from a total of eight people. For “Cosmetics + Food Group”, out of a total of 23 people, 1 person absent from the measurement after 4 weeks of continuous use and 2 people who had a large difference in facial expressions before and after continuous use were not used. Use average face to create.
また、三次元平均顔作成時のモーフィング混合割合と割り付けについては、図13に示すように、「化粧品群」、「化粧品+食品群」をそれぞれトーナメントのように所定の二枚の画像を選択してモーフィングを繰返し、平均顔を作成した。このとき、各個人データの寄与が均等となるように、各モーフィング処理時の混合割合を設定する。また、平均顔は、各群において連用前、連用4週間後、連用6週間後の3つの平均顔を作成する。 As for the morphing mixture ratio and allocation at the time of creating the 3D average face, as shown in FIG. 13, select “Cosmetic Group” and “Cosmetic + Food Group” as two predetermined images like a tournament. Repeated morphing to create an average face. At this time, the mixing ratio at the time of each morphing process is set so that the contribution of each personal data becomes equal. As the average face, three average faces are created in each group before continuous use, after 4 weeks of continuous use, and after 6 weeks of continuous use.
<計測について>
計測は、テスト品の使用前、使用4週間後、使用6週間後に実施し、また朝はむくみの影響が残っている等、日内の顔の変動を考慮して、被験者には毎回同じ時間帯に計測を行った。また、データの解析に関しては、装置から取得したデータのうち、右半顔側のデータのみを用いて解析を実施した。
<About measurement>
Measurements were taken before using the test product, 4 weeks after use, 6 weeks after use, and subject to daily fluctuations such as swelling in the morning. Measurement was performed. Regarding data analysis, analysis was performed using only data on the right half face side among data acquired from the apparatus.
<解析・評価について>
上述した本実施形態における評価手順の順序で評価を実施した。ただし、解析の詳細については、まず、顔形状変化を評価する場合、比較するデータ間で表情の違いが大きなデータは、表情の違いにより発生した形状差が含まれ、誤差の大きなデータとなってしまうため、各群の平均顔作成時に、テスト品の使用前と使用後の顔形状データの間で、表情の違いが大きなものは不採用とした。
<About analysis and evaluation>
The evaluation was performed in the order of the evaluation procedure in the present embodiment described above. However, with regard to the details of the analysis, first, when evaluating facial shape changes, the data with a large difference in facial expression between the data to be compared includes the shape difference caused by the difference in facial expressions, resulting in data with a large error. For this reason, when creating an average face for each group, those with a large difference in facial expression between the face shape data before and after using the test product were not adopted.
また、実測では、「化粧品群」計10名のうち、使用4週間後、計測欠席者1名、使用前後の計測時の表情の違いが大きな1名を不採用とし、計8名のデータを用い平均顔を作成した。また、「化粧品+食品群」計23名のうち、使用4週間後計測欠席者1名、使用前後の表情の違いが大きかった人2名を不使用とし、計20名のデータを用い平均顔を作成した。 Also, in the actual measurement, out of a total of 10 “cosmetics group”, 1 person who was absent after 4 weeks of use, and 1 person who had a large difference in facial expressions at the time of measurement before and after use were rejected, and data for a total of 8 people The average face used was created. Also, out of a total of 23 "cosmetics + food group", 1 person who was absent after 4 weeks of use and 2 persons who had a large difference in facial expression before and after use were not used. It was created.
上述した条件で作成した三次元平均顔データを、各群において使用前のデータを基準として、使用後のデータの位置を合わせた後に、上述したVXにおける誤差評価機能を使って、使用4週間後、使用6週間後の解析を実施した。 After the three-dimensional average face data created under the above-mentioned conditions are used in each group with reference to the data before use, the position of the data after use is adjusted, and then the error evaluation function in VX described above is used, and 4 weeks after use The analysis was conducted 6 weeks after use.
この後、ビジュアル的により分かり易いデータとするためにphotoshopを用いて画像処理を実施した。ここで、図14は、本実施形態における画像処理の様子を説明するための図である。 After this, image processing was performed using a photoshop to make the data easier to understand visually. Here, FIG. 14 is a diagram for explaining a state of image processing in the present embodiment.
まず、差分カラーの解析結果と解析を実施した顔三次元形状を表示させた画像を取得する(図14(a))。この画像上で、色が付いている領域のみ誤差評価解析を実施した。次に、形状変化が殆どなかった「緑色」のエリアを削除した。更に、図14(a)の「赤色」の箇所は、単純な差の量を意味しているだけで、使用後に引締った方向なのか、膨張した方向に変化したのかの方向は反映していない。そこで、図14(b)に示すように、使用前のデータを「緑色」、使用後のデータを「桃色」とし、それらの位置合わせを実施し、重ね合わせた結果を画面に表示させるが、ここで、使用後の「桃色」が見えている領域は膨張した変化があったことを意味し、使用前の「緑色」が見えている場所は、引締った変化があったことを意味している。 First, an image displaying the difference color analysis result and the analyzed three-dimensional face shape is acquired (FIG. 14A). On this image, error evaluation analysis was performed only on the colored area. Next, the “green” area where there was little shape change was deleted. Furthermore, the “red” portion in FIG. 14 (a) only means a simple difference amount, and reflects the direction of whether the direction has been tightened after use or has changed to the expanded direction. Absent. Therefore, as shown in FIG. 14B, the data before use is “green”, the data after use is “pink”, the alignment is performed, and the superimposed result is displayed on the screen. Here, the area where “pink” is visible after use means that there is an expanded change, and the place where “green” before use means that there is a tightened change. ing.
この引締った方向の変化があったエリアの「黄色〜赤色」を「水色〜青色」に変更することで、図14(c)に示すような、引締りと膨張方向を識別した結果を取得できる。なお、上述した「黄色〜赤色」を「水色〜青色」に変更する方法は、例えばphotoshop等の画像処理ソフトウェアを用いて、色を変更するエリアを選択して、諧調の反転を実施後、トーンカーブで緑色の成分を反転させると実施可能である。また、代表的なソフトのrapidformでは、画像処理を実施しなくても方向性を考慮した結果が取得できる。 The result of identifying the tightening and expansion directions as shown in FIG. 14C is obtained by changing “yellow to red” to “light blue to blue” in the area where the tightening direction has changed. it can. Note that the above-described method of changing “yellow to red” to “light blue to blue” is performed by selecting an area to be changed using image processing software such as photoshop, and performing tone inversion after performing tone inversion. This can be done by inverting the green component in the curve. In addition, with a typical software rapidform, it is possible to obtain a result in consideration of directionality without performing image processing.
ここで、図15は、上述したそれぞれの条件に対応して評価された結果を示す図である。図15に示すように、上述の処理によって、「化粧品群」、「化粧品+食品群」のそれぞれで、使用前の三次元平均顔を基準として、使用4週間後、6週間後の平均顔にどのような変化があったのかが分かるビジュアルデータを取得した。 Here, FIG. 15 is a figure which shows the result evaluated corresponding to each above-mentioned conditions. As shown in FIG. 15, by the above-described processing, the average face after 4 weeks of use and 6 weeks after use in each of the “cosmetics group” and “cosmetics + food group” based on the three-dimensional average face before use. We acquired visual data that shows what kind of changes have occurred.
図15に示すように、「化粧品群」の平均顔による差分カラー表示においては、フェイスライン部位にて引締り効果があることがわかる。また、「化粧品+食品群」の平均顔による差分カラー表示においては、フェイスライン部位だけでなく、頬の広い範囲で引締り効果があることがわかる。 As shown in FIG. 15, in the difference color display by the average face of the “cosmetics group”, it can be seen that there is a tightening effect at the face line part. In addition, in the difference color display by the average face of “cosmetics + food group”, it can be seen that there is a tightening effect not only in the face line part but also in a wide area of the cheek.
次に、体積、表面積評価結果の一例について図を用いて説明する。図16は、体積、表面積評価結果の一例を示す図である。図16(a)に示すように、白色の領域内(鼻際からもみ上げ付近への水平線と、そこから下ろした垂線とフェイスラインが交わる点と、その点からフェイスラインに沿ってフェイスラインとマリオネットラインの延長線の交点付近までと、そこからマリオネットラインの耳側の凸部、並びに鼻唇溝の外側の凸部の稜線を沿って鼻際までを囲む領域)の体積変化量を、例えば上述したVXの体積計算機能を用いて評価した。また、変化のあった領域を図16(b)に示すように指定し、その表面積を求めた。最後に、最も大きな変化量を求めた。 Next, an example of the volume and surface area evaluation results will be described with reference to the drawings. FIG. 16 is a diagram illustrating an example of a volume and surface area evaluation result. As shown in FIG. 16 (a), in the white region (the horizontal line from the nose to the vicinity of the rising line, the point where the perpendicular line and the face line intersect, and the face line and Mario from the point along the face line) The volume change of the area around the intersection of the extension line of the net line and the area surrounding the ridge line of the convex part on the ear side of the marionette line and the convex part on the outer side of the nasal lip groove) For example, it evaluated using the volume calculation function of VX mentioned above. Moreover, the area | region which changed was designated as shown in FIG.16 (b), and the surface area was calculated | required. Finally, the largest amount of change was determined.
ここで、図17は、解析・評価結果及びアンケート結果の一例を示す図である。図17(a)に示す評価結果では、「化粧品群」では、フェイスライン部位に引締り効果があった。また、「化粧品+食品群」では、「化粧品群」で効果のあったフェイスラインだけでなく、頬の広い範囲において引締り効果があり、食品の併用により効果が広範囲に出現した。更に、連用6週間後の効果は、「化粧品群」、「化粧品+食品群」共に、連用4週間後と同様の傾向で、より大きくなっていた
また、図17(b)に示すアンケート結果は、被験者に対して使用6週間後にインタビューを行い、そのコメントから改善のあった部位毎に改善率を算出したが、何れか改善されたことを認識している率が高いことがわかり、この評価が意味のあるものであると認識できる。
Here, FIG. 17 is a diagram illustrating an example of analysis / evaluation results and questionnaire results. In the evaluation result shown in FIG. 17A, the “cosmetics group” had a tightening effect on the face line part. In addition, the “cosmetics + food group” had a tightening effect not only on the face line that was effective in the “cosmetic group” but also in a wide area of the cheeks, and the effect appeared in a wide range by the combined use of food. Furthermore, the effect after 6 weeks of continuous use was greater for both the “cosmetics group” and “cosmetics + food group” with the same trend as after 4 weeks of continuous use. Also, the questionnaire results shown in FIG. The subject was interviewed after 6 weeks of use, and the improvement rate was calculated for each site that had improved from the comments, but it was found that the rate of recognition of any improvement was high. Can be recognized as meaningful.
上述したように、本発明によれば、顔を立体的に捉えて、二つの顔画像の変化量に基づき顔の評価を高精度に行うことができる。具体的には、本発明によれば、連用前後の顔三次元形状データを比較し、引締り若しくは膨張変化のあった場所を色付けする解析を行い、一目で弛みの改善効果が分かるビジュアルデータを生成し、表示することができる。 As described above, according to the present invention, it is possible to capture a face in three dimensions and perform face evaluation with high accuracy based on the amount of change between two face images. Specifically, according to the present invention, the three-dimensional facial shape data before and after continuous use is compared, and analysis is performed to color a place where there has been tightening or expansion change. Can be generated and displayed.
また、本発明によれば、モーフィング技術により、複数人のデータを重ね合わせて三次元平均顔を作成し、連用前後の比較を行うことで、平均的な効果がどの部位に、どの程度発生したのかを評価することができる。 In addition, according to the present invention, a morphing technique is used to create a three-dimensional average face by superimposing data of a plurality of persons, and by comparing before and after continuous use, an average effect is generated in which part and how much. Can be evaluated.
また、本発明によれば、三次元平均顔を用いた評価が可能になったことにより、個人の顕著例ではなく客観性が高いビジュアルデータを取得可能となった。また、このデータは個人情報ではないため、個人の顕著例よりも情報の取り扱いが楽になる利点もある。 In addition, according to the present invention, since evaluation using a three-dimensional average face is possible, it is possible to acquire visual data with high objectivity, not a remarkable example of an individual. Further, since this data is not personal information, there is an advantage that handling of information is easier than a remarkable example of an individual.
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.
10 顔形状評価システム
11 三次元顔形状計測装置
12 顔形状評価装置
21 入力手段
22 出力手段
23 蓄積手段
24 三次元顔形状データ取得手段
25 三次元平均顔データ生成手段
26 顔形状評価手段
27 差分カラー領域生成手段
28 表示画面生成手段
29 送受信手段
30 制御手段
31 入力装置
32 出力装置
33 ドライブ装置
34 補助記憶装置
35 メモリ装置
36 CPU
37 ネットワーク接続装置
38 記録媒体
41 開口部
42 撮影ユニット
43 カメラ
44 光源
45 パターン格子
46 三次元顔画像
47 三次元平均顔データ
48 メッシュ領域
49 領域
51 三次元顔形状データ(使用前画像)
52 三次元平均顔データ(使用後画像)
53 位置合わせデータ
DESCRIPTION OF SYMBOLS 10 Face shape evaluation system 11 3D face shape measuring device 12 Face shape evaluation device 21 Input means 22 Output means 23 Accumulation means 24 3D face shape data acquisition means 25 3D average face data generation means 26 Face shape evaluation means 27 Difference color Area generation means 28 Display screen generation means 29 Transmission / reception means 30 Control means 31 Input device 32 Output device 33 Drive device 34 Auxiliary storage device 35 Memory device 36 CPU
37 Network connection device 38 Recording medium 41 Opening portion 42 Imaging unit 43 Camera 44 Light source 45 Pattern grid 46 Three-dimensional face image 47 Three-dimensional average face data 48 Mesh region 49 region 51 Three-dimensional face shape data (pre-use image)
52 3D average face data (image after use)
53 Alignment data
Claims (17)
前記顔形状の三次元データを多点で取得する三次元顔形状データ取得手段と、
前記三次元顔形状データ取得手段により得られる三次元顔形状データと、予め設定された条件に基づいて抽出された三次元平均顔データとに基づいて前記評価対象者の顔形状の評価を行う顔形状評価手段と、
前記顔形状評価手段により得られる前記三次元顔形状データと前記三次元平均顔データとの差分データに基づいて前記顔形状にカラー領域を生成する差分カラー領域生成手段と、
前記差分カラー領域生成手段により生成されたカラー領域を表示する画面を生成する表示画面生成手段と、
前記表示画面生成手段により得られる画面を出力する出力手段とを有することを特徴とする顔形状評価装置。 In the face shape evaluation apparatus that acquires the three-dimensional data of the face shape of the person to be evaluated and evaluates the face shape,
3D face shape data acquisition means for acquiring the 3D data of the face shape at multiple points;
A face for evaluating the face shape of the evaluation subject based on the three-dimensional face shape data obtained by the three-dimensional face shape data acquisition means and the three-dimensional average face data extracted based on preset conditions. Shape evaluation means;
Difference color area generation means for generating a color area in the face shape based on difference data between the 3D face shape data obtained by the face shape evaluation means and the 3D average face data;
Display screen generating means for generating a screen for displaying the color area generated by the difference color area generating means;
An output means for outputting a screen obtained by the display screen generating means.
前記複数の三次元顔形状データから選択された二つの三次元顔形状データを所定の比率を用いてモーフィング処理により合成することを特徴とする請求項2に記載の顔形状評価装置。 The three-dimensional average face data generating means
The face shape evaluation apparatus according to claim 2, wherein two 3D face shape data selected from the plurality of 3D face shape data are synthesized by morphing processing using a predetermined ratio.
前記評価対象者の顔における予め設定された部位に対しての評価を行うことを特徴とする請求項1乃至3の何れか1項に記載の顔形状評価装置。 The face shape evaluation means includes
The face shape evaluation apparatus according to claim 1, wherein an evaluation is performed on a predetermined part of the face of the evaluation target person.
複数の前記三次元顔形状データ若しくは前記三次元平均顔データを同じ画面上に三次元表示させ、そのうち一つのデータを基準データとし、鼻、額、耳儒部位、及び軟組織部分の厚みが薄く変化が起こりにくい領域のうち、少なくとも一箇所において三次元座標上での差がないように、その他のデータを重ねて位置を合わせた位置合わせデータを生成し、生成された前記位置合わせデータに基づいて評価を行うことを特徴とする請求項1乃至4の何れか1項に記載の顔形状評価装置。 The face shape evaluation means includes
The three-dimensional face shape data or the three-dimensional average face data is displayed three-dimensionally on the same screen, and one of the data is used as reference data, and the thickness of the nose, forehead, earlobe region, and soft tissue portion changes thinly. Among the regions that are unlikely to occur, at least one position is generated so that there is no difference on the three-dimensional coordinate, and alignment data is generated by aligning the other data, and based on the generated alignment data 5. The face shape evaluation apparatus according to claim 1, wherein the evaluation is performed.
前記位置合わせデータに基づいて、前記基準データに対し、評価する前記三次元顔形状データ若しくは前記三次元平均顔データの各点において三次元座標上での差分データを生成することを特徴とする請求項5に記載の顔形状評価装置。 The face shape evaluation means includes
The difference data on three-dimensional coordinates is generated at each point of the three-dimensional face shape data or the three-dimensional average face data to be evaluated with respect to the reference data based on the alignment data. Item 6. The face shape evaluation apparatus according to Item 5.
評価する前記三次元顔形状データ若しくは前記三次元平均顔データの評価箇所が、前記基準データの顔の外側に相当する場所にあった場合に、前記評価箇所が膨張していると評価することを特徴とする請求項6に記載の顔形状評価装置。 The face shape evaluation means includes
When the evaluation part of the three-dimensional face shape data to be evaluated or the three-dimensional average face data is in a place corresponding to the outside of the face of the reference data, it is evaluated that the evaluation part is expanded. The face shape evaluation apparatus according to claim 6.
評価する前記三次元顔形状データ若しくは前記三次元平均顔データの評価箇所が、前記基準データの顔の内側に相当する場所にあった場合に、前記評価箇所が引き締まっていると評価することを特徴とする請求項6に記載の顔形状評価装置。 The face shape evaluation means includes
When the evaluation part of the three-dimensional face shape data or the three-dimensional average face data to be evaluated is in a place corresponding to the inside of the face of the reference data, it is evaluated that the evaluation part is tightened The face shape evaluation apparatus according to claim 6.
前記顔形状の三次元データを多点で取得する三次元顔形状データ取得ステップと、
前記三次元顔形状データ取得ステップにより得られる三次元顔形状データと、予め設定された条件に基づいて抽出された三次元平均顔データとに基づいて前記評価対象者の顔形状の評価を行う顔形状評価ステップと、
前記顔形状評価ステップにより得られる前記三次元顔形状データと前記三次元平均顔データとの差分データに基づいて前記顔形状にカラー領域を生成する差分カラー領域生成ステップと、
前記差分カラー領域生成ステップにより生成されたカラー領域を表示する画面を生成する表示画面生成ステップと、
前記表示画面生成ステップにより得られる画面を出力手段に出力する出力ステップとを有することを特徴とする顔形状評価方法。 In the face shape evaluation method for acquiring the three-dimensional data of the face shape of the person to be evaluated and evaluating the face shape,
3D face shape data acquisition step for acquiring the face shape 3D data at multiple points;
The face that evaluates the face shape of the evaluation subject based on the three-dimensional face shape data obtained by the three-dimensional face shape data acquisition step and the three-dimensional average face data extracted based on preset conditions A shape evaluation step;
A difference color area generation step for generating a color area in the face shape based on difference data between the three-dimensional face shape data and the three-dimensional average face data obtained by the face shape evaluation step;
A display screen generation step for generating a screen for displaying the color area generated by the difference color area generation step;
An output step of outputting the screen obtained by the display screen generation step to an output means.
前記複数の三次元顔形状データから選択された二つの三次元顔形状データを所定の比率を用いてモーフィング処理により合成することを特徴とする請求項10に記載の顔形状評価方法。 The three-dimensional average face data generation step includes
The face shape evaluation method according to claim 10, wherein two 3D face shape data selected from the plurality of 3D face shape data are synthesized by morphing processing using a predetermined ratio.
前記評価対象者の顔における予め設定された部位に対しての評価を行うことを特徴とする請求項9乃至11の何れか1項に記載の顔形状評価方法。 The face shape evaluation step means includes
The face shape evaluation method according to any one of claims 9 to 11, wherein an evaluation is performed on a predetermined portion of the face of the evaluation subject.
複数の前記三次元顔形状データ若しくは前記三次元平均顔データを同じ画面上に三次元表示させ、そのうち一つのデータを基準データとし、鼻、額、耳儒部位、及び軟組織部分の厚みが薄く変化が起こりにくい領域のうち、少なくとも一箇所において前記基準データに対し三次元座標上での差がないように、その他のデータを重ねて位置を合わせた位置合わせデータを生成し、生成された前記位置合わせデータに基づいて評価を行うことを特徴とする請求項9乃至12の何れか1項に記載の顔形状評価方法。 The face shape evaluation step includes
The three-dimensional face shape data or the three-dimensional average face data is displayed three-dimensionally on the same screen, and one of the data is used as reference data, and the thickness of the nose, forehead, earlobe region, and soft tissue portion changes thinly. In the region where the occurrence of the occurrence is difficult to occur, at least one position is generated by aligning other data so that there is no difference on the three-dimensional coordinate with respect to the reference data, and the generated position is generated. The face shape evaluation method according to claim 9, wherein the evaluation is performed based on the alignment data.
前記位置合わせデータに基づいて、前記基準データに対し、評価する前記三次元顔形状データ若しくは前記三次元平均顔データの各点において三次元座標上での差分データを生成することを特徴とする請求項13に記載の顔形状評価方法。 The face shape evaluation step includes
The difference data on three-dimensional coordinates is generated at each point of the three-dimensional face shape data or the three-dimensional average face data to be evaluated with respect to the reference data based on the alignment data. Item 14. The face shape evaluation method according to Item 13.
評価する前記三次元顔形状データ若しくは前記三次元平均顔データの評価箇所が、前記基準データとした顔形状データの顔の外側に相当する場所にあった場合に、前記評価箇所が膨張していると評価することを特徴とする請求項14に記載の顔形状評価方法。 The face shape evaluation step includes
When the evaluation part of the three-dimensional face shape data or the three-dimensional average face data to be evaluated is in a place corresponding to the outside of the face of the face shape data as the reference data, the evaluation part is expanded. The face shape evaluation method according to claim 14, wherein:
評価する前記三次元顔形状データ若しくは前記三次元平均顔データの評価箇所が、前記基準データとした顔形状データの顔の内側に相当する場所にあった場合に、前記評価箇所が引き締まっていると評価することを特徴とする請求項14に記載の顔形状評価方法。 The face shape evaluation step includes
When the evaluation part of the three-dimensional face shape data to be evaluated or the three-dimensional average face data is in a place corresponding to the inside of the face of the face shape data as the reference data, the evaluation part is tightened The face shape evaluation method according to claim 14, wherein evaluation is performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010012265A JP2011150595A (en) | 2010-01-22 | 2010-01-22 | Apparatus, method and program for evaluating face shape |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010012265A JP2011150595A (en) | 2010-01-22 | 2010-01-22 | Apparatus, method and program for evaluating face shape |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011150595A true JP2011150595A (en) | 2011-08-04 |
Family
ID=44537498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010012265A Withdrawn JP2011150595A (en) | 2010-01-22 | 2010-01-22 | Apparatus, method and program for evaluating face shape |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011150595A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018181056A (en) * | 2017-04-17 | 2018-11-15 | 富士通株式会社 | Difference detection program, difference detection device, and difference detection method |
CN110072433A (en) * | 2016-09-19 | 2019-07-30 | 莱雅公司 | The systems, devices and methods of three dimensional analysis for eye pouch |
JP2019160053A (en) * | 2018-03-15 | 2019-09-19 | サンスター株式会社 | Facial esthetic providing system and facial esthetic providing method |
JP2020156690A (en) * | 2019-03-26 | 2020-10-01 | 富士フイルム株式会社 | Looseness evaluation method, looseness evaluation device, and looseness evaluation program |
CN112348877A (en) * | 2019-08-09 | 2021-02-09 | 马骥 | PCL point cloud base-based method and device for automatically searching Fengchi points and massaging |
JP2021108059A (en) * | 2019-12-27 | 2021-07-29 | B−by−C株式会社 | Image processing system, image processing method, and image processing program |
JP2021108060A (en) * | 2019-12-27 | 2021-07-29 | B−by−C株式会社 | Image processing system, image processing method, and image processing program |
JP2021535787A (en) * | 2018-08-31 | 2021-12-23 | ハートフェルト テクノロジーズ リミテッドHeartfelt Technologies Limited | Systems and methods for identifying fluid retention in body parts |
KR20220000432A (en) * | 2020-06-25 | 2022-01-04 | 조현주 | Guide device for fascia massage |
WO2023276767A1 (en) * | 2021-06-28 | 2023-01-05 | 株式会社資生堂 | Method for determining reason for change in under-eye sagging, device for determining reason for change in under-eye sagging, program, method for evaluating under-eye sagging, device for evaluating under-eye sagging, and program |
US12008970B2 (en) | 2020-01-21 | 2024-06-11 | Samsung Electronics Co., Ltd. | Display device and control method thereof |
EP4160525A4 (en) * | 2020-05-27 | 2024-07-03 | Shiseido Co Ltd | Sagging evaluation method, device, program, and system |
-
2010
- 2010-01-22 JP JP2010012265A patent/JP2011150595A/en not_active Withdrawn
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110072433A (en) * | 2016-09-19 | 2019-07-30 | 莱雅公司 | The systems, devices and methods of three dimensional analysis for eye pouch |
JP2019536496A (en) * | 2016-09-19 | 2019-12-19 | ロレアルL′Oreal | Systems, devices and methods for three-dimensional analysis of eye bags |
CN110072433B (en) * | 2016-09-19 | 2022-04-05 | 莱雅公司 | System, device and method for three-dimensional analysis of bags under the eyes |
JP2018181056A (en) * | 2017-04-17 | 2018-11-15 | 富士通株式会社 | Difference detection program, difference detection device, and difference detection method |
JP2019160053A (en) * | 2018-03-15 | 2019-09-19 | サンスター株式会社 | Facial esthetic providing system and facial esthetic providing method |
JP7099836B2 (en) | 2018-03-15 | 2022-07-12 | サンスター株式会社 | Facial beauty treatment system and facial beauty treatment method |
JP2021535787A (en) * | 2018-08-31 | 2021-12-23 | ハートフェルト テクノロジーズ リミテッドHeartfelt Technologies Limited | Systems and methods for identifying fluid retention in body parts |
JP7182318B2 (en) | 2018-08-31 | 2022-12-02 | ハートフェルト テクノロジーズ リミテッド | Systems and methods for identifying fluid retention in body parts |
JP2020156690A (en) * | 2019-03-26 | 2020-10-01 | 富士フイルム株式会社 | Looseness evaluation method, looseness evaluation device, and looseness evaluation program |
CN112348877A (en) * | 2019-08-09 | 2021-02-09 | 马骥 | PCL point cloud base-based method and device for automatically searching Fengchi points and massaging |
JP2021108060A (en) * | 2019-12-27 | 2021-07-29 | B−by−C株式会社 | Image processing system, image processing method, and image processing program |
JP2021108059A (en) * | 2019-12-27 | 2021-07-29 | B−by−C株式会社 | Image processing system, image processing method, and image processing program |
JP7442172B2 (en) | 2019-12-27 | 2024-03-04 | B-by-C株式会社 | Image processing system, image processing method, and image processing program |
JP7442171B2 (en) | 2019-12-27 | 2024-03-04 | B-by-C株式会社 | Image processing system, image processing method, and image processing program |
US12008970B2 (en) | 2020-01-21 | 2024-06-11 | Samsung Electronics Co., Ltd. | Display device and control method thereof |
EP4160525A4 (en) * | 2020-05-27 | 2024-07-03 | Shiseido Co Ltd | Sagging evaluation method, device, program, and system |
KR20220000432A (en) * | 2020-06-25 | 2022-01-04 | 조현주 | Guide device for fascia massage |
KR102379240B1 (en) | 2020-06-25 | 2022-03-25 | 조현주 | Guide device for fascia massage |
WO2023276767A1 (en) * | 2021-06-28 | 2023-01-05 | 株式会社資生堂 | Method for determining reason for change in under-eye sagging, device for determining reason for change in under-eye sagging, program, method for evaluating under-eye sagging, device for evaluating under-eye sagging, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011150595A (en) | Apparatus, method and program for evaluating face shape | |
CN101779218B (en) | Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program | |
JP5261586B2 (en) | Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program | |
Lee et al. | A 3D anthropometric sizing analysis system based on North American CAESAR 3D scan data for design of head wearable products | |
JP5432532B2 (en) | Makeup method, makeup simulation apparatus, and makeup simulation program | |
US11315298B2 (en) | Personalized stylized avatars | |
WO2007063878A1 (en) | Face classifying method, face classifying device, classification map, face classifying program, recording medium where this program is recorded | |
CN107735016A (en) | System and method for scan anatomical structure and for showing scanning result | |
US20100271368A1 (en) | Systems and methods for applying a 3d scan of a physical target object to a virtual environment | |
JP6651366B2 (en) | Extraction method of determinants of facial appearance impression | |
Park et al. | A three-dimensional parametric adult head model with representation of scalp shape variability under hair | |
FR3061979A1 (en) | METHOD FOR CREATING A VIRTUAL THREE-DIMENSIONAL REPRESENTATION OF A PERSON | |
JP2009082338A (en) | Skin discrimination method using entropy | |
JP5035524B2 (en) | Facial image composition method and composition apparatus | |
US9330300B1 (en) | Systems and methods of analyzing images | |
JP2009000410A (en) | Image processor and image processing method | |
JP5095182B2 (en) | Face classification device, face classification program, and recording medium on which the program is recorded | |
JP4893968B2 (en) | How to compose face images | |
JP5419777B2 (en) | Face image synthesizer | |
JP2007252892A (en) | Estimation method of evaluation value by visual recognition of three-dimensional shape of skin surface | |
de Farias Macedo et al. | Improving on-patient medical data visualization in a markerless augmented reality environment by volume clipping | |
JP6886773B2 (en) | How to extract the part that determines the appearance of the face, how to extract the determinants of the appearance of the face, how to distinguish the appearance of the face | |
Berueco et al. | Age Estimation Using Support Vector Machine–Sequential Minimal Optimization | |
JP6028188B1 (en) | Information providing apparatus and information providing method | |
JP2003030684A (en) | Face three-dimensional computer graphic generation method and device, face three-dimensional computer graphic generation program and storage medium storing face three-dimensional computer graphic generation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130402 |