JP7356927B2 - Skin analysis method, skin analysis system and skin analysis program - Google Patents
Skin analysis method, skin analysis system and skin analysis program Download PDFInfo
- Publication number
- JP7356927B2 JP7356927B2 JP2020021669A JP2020021669A JP7356927B2 JP 7356927 B2 JP7356927 B2 JP 7356927B2 JP 2020021669 A JP2020021669 A JP 2020021669A JP 2020021669 A JP2020021669 A JP 2020021669A JP 7356927 B2 JP7356927 B2 JP 7356927B2
- Authority
- JP
- Japan
- Prior art keywords
- skin
- viscoelasticity
- subject
- physical quantity
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Description
本発明は、肌解析方法、肌解析システム及び肌解析プログラムに関するものである。 The present invention relates to a skin analysis method, a skin analysis system, and a skin analysis program.
近年、動画を利用して人の肌を解析する技術について研究が行われている。例えば、特許文献1には、被験者の目尻のような解析領域に予め複数の追跡点を配置して動画を撮影し、表情の変化に伴う追跡点の変化量を追跡して肌の圧縮率を取得することによって、被験者の肌状態を解析する技術が公開されている。 In recent years, research has been conducted on technology that uses videos to analyze human skin. For example, in Patent Document 1, a plurality of tracking points are placed in advance in an analysis area such as the outer corner of the subject's eyes, a video is shot, and the amount of change in the tracking points due to changes in facial expression is tracked to calculate the compression ratio of the skin. A technique for analyzing a subject's skin condition by acquiring the information has been disclosed.
特許文献2には、音を発出する間に撮影された人の顔の画像のシーケンスから、しわ、小じわ等の臨床徴候を評価するプロセスに関する技術が公開されている。 Patent Document 2 discloses a technique related to a process of evaluating clinical signs such as wrinkles and fine lines from a sequence of images of a person's face taken while emitting sound.
また、特許文献3には、動的情報を用いて顔の見た目印象と相関関係が高い因子を抽出する方法と、その因子に基づいて顔の見た目印象を鑑別する方法についての技術が公開されている。特許文献3により、年齢印象の決定部位が頬及び目の周辺部であることが公開されている。 Additionally, Patent Document 3 discloses a method for extracting factors that have a high correlation with facial appearance impressions using dynamic information, and a technique for discriminating facial appearance impressions based on the factors. There is. Patent Document 3 discloses that the areas where age impression is determined are the cheeks and the areas around the eyes.
先述の通り、人物の顔を含む動画を解析して非侵襲的に肌を評価する技術について広く研究されてきた。しかし、従来の技術は、シワ等の肌表面に現れる徴候を評価するものに過ぎず、非侵襲的に肌の粘弾性やコラーゲン構造等の物性の解析を行うための具体的な方法は開示されていない。そのため、肌の物性を評価するためには、肌の組織を採取したり、肌に接触して力を加え、力学的特性を測定したりする等の方法が必要だった。そこで、本発明では、非侵襲的に肌の物性を解析する新規な方法を提供することを課題とする。 As mentioned earlier, technology for non-invasively evaluating skin by analyzing videos containing people's faces has been widely researched. However, conventional techniques only evaluate signs that appear on the skin surface, such as wrinkles, and no specific method has been disclosed for non-invasively analyzing physical properties such as skin viscoelasticity and collagen structure. Not yet. Therefore, in order to evaluate the physical properties of the skin, methods such as collecting skin tissue, applying force to the skin, and measuring its mechanical properties have been necessary. Therefore, an object of the present invention is to provide a novel method for non-invasively analyzing the physical properties of the skin.
上記課題を解決するために、本発明に係る肌解析方法は、顔の表情変化によって生じる皮膚変化の物理量と皮膚の粘弾性との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出することを特徴とする。 In order to solve the above problems, the skin analysis method according to the present invention is based on the correlation between the physical quantities of skin changes caused by changes in facial expressions and the viscoelasticity of the skin. It is characterized by calculating the viscoelasticity of the skin.
このように、顔の表情変化によって生じる皮膚変化の物理量と皮膚の粘弾性との相関関係に基づいて、皮膚変化の物理量の測定値から皮膚の粘弾性を算出することで、皮膚の粘弾性の算出を含む肌の解析を非侵襲的に行うことができる。 In this way, by calculating the skin viscoelasticity from the measured value of the physical amount of skin change based on the correlation between the physical amount of skin change caused by changes in facial expressions and the skin viscoelasticity, it is possible to calculate the skin viscoelasticity. Skin analysis including calculations can be performed non-invasively.
本発明の好ましい形態では、前記粘弾性は、真皮の粘弾性及び皮下の粘弾性の内、少なくとも何れかを含むことを特徴とする。 In a preferred embodiment of the present invention, the viscoelasticity includes at least one of dermal viscoelasticity and subcutaneous viscoelasticity.
本発明の好ましい形態では、前記物理量及び粘弾性の測定値の組を複数入力することによって作成された粘弾性算出モデルを用いて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出することを特徴とする。
このように、物理量及び粘弾性の測定データの組を用いて作成された粘弾性算出モデルを用いて粘弾性の算出を行うことで、実例に基づいてより正確に粘弾性の算出を行うことができる。
In a preferred embodiment of the present invention, a viscoelasticity calculation model created by inputting a plurality of sets of measured values of the physical quantity and viscoelasticity is used to calculate the viscoelasticity of the subject's skin from the measured values of the physical quantity about the subject. It is characterized by calculating.
In this way, by calculating viscoelasticity using a viscoelasticity calculation model created using a set of physical quantities and viscoelasticity measurement data, it is possible to calculate viscoelasticity more accurately based on actual examples. can.
本発明の好ましい形態では、前記粘弾性と肌のコラーゲン構造との相関関係に基づいて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定することを特徴とする。
このように、顔の表情変化によって生じる皮膚変化の物理量の測定値から算出される皮膚の粘弾性に基づいて、皮下のコラーゲン構造を推定することにより、皮下のコラーゲン構造の推定を含む肌の解析を非侵襲的に行うことができる。
A preferred embodiment of the present invention is characterized in that the collagen structure of the subject's skin is estimated from the viscoelasticity calculated for the subject based on the correlation between the viscoelasticity and the collagen structure of the skin.
In this way, by estimating the subcutaneous collagen structure based on skin viscoelasticity calculated from the measured values of physical quantities of skin changes caused by changes in facial expressions, skin analysis including estimation of the subcutaneous collagen structure can be performed. can be performed non-invasively.
本発明の好ましい形態では、前記粘弾性及び肌のコラーゲン構造の測定値の組を複数入力することによって作成されたコラーゲン構造推定モデルを用いて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定することを特徴とする。 In a preferred embodiment of the present invention, a collagen structure estimation model created by inputting a plurality of sets of measured values of the viscoelasticity and collagen structure of the skin is used to estimate the skin of the subject based on the viscoelasticity calculated for the subject. It is characterized by estimating collagen structure.
本発明の好ましい形態では、前記粘弾性に基づいて、肌の評価値を1又は複数算出することを特徴とする。
このように、皮膚の粘弾性に基づいて肌の評価値を算出することにより、被験者にとってわかりやすい結果を示すことができる。
A preferred embodiment of the present invention is characterized in that one or more skin evaluation values are calculated based on the viscoelasticity.
In this way, by calculating the skin evaluation value based on the viscoelasticity of the skin, it is possible to show results that are easy for the test subject to understand.
本発明の好ましい形態では、前記粘弾性の算出結果に基づく情報を含む解析結果を出力することを特徴とする。 A preferred embodiment of the present invention is characterized in that an analysis result including information based on the viscoelasticity calculation result is output.
本発明の好ましい形態では、前記粘弾性の算出結果に基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力することを特徴とする。
このように、算出された粘弾性及び測定された物理量に基づく情報をあわせて出力することにより、測定した量と解析結果との対応をユーザが理解しやすくなる。
A preferred embodiment of the present invention is characterized in that an analysis result including information based on the measured value of the physical quantity is output together with information based on the calculated result of the viscoelasticity.
In this way, by outputting information based on the calculated viscoelasticity and the measured physical quantity together, it becomes easier for the user to understand the correspondence between the measured quantity and the analysis result.
本発明は、顔の表情変化によって生じる皮膚変化の物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚のコラーゲン構造を推定することを特徴とする。
このように、顔の表情変化によって生じる皮膚変化の物理量と皮膚のコラーゲン構造との相関関係に基づいて、皮膚変化の物理量の測定値から皮膚のコラーゲン構造を推定することで、皮膚のコラーゲン構造の推定を含む肌の解析を非侵襲的に行うことができる。
The present invention is characterized in that, based on the correlation between the physical quantities of skin changes caused by changes in facial expressions and the collagen structure of the skin, the collagen structure of the subject's skin is estimated from the measured values of the physical quantities for the subject. .
In this way, the collagen structure of the skin can be estimated by estimating the collagen structure of the skin from the measured value of the physical amount of skin change based on the correlation between the physical amount of skin change caused by changes in facial expressions and the collagen structure of the skin. Skin analysis including estimation can be performed non-invasively.
本発明の好ましい形態では、前記コラーゲン構造の推定結果に基づく情報を含む解析結果を出力することを特徴とする。 A preferred embodiment of the present invention is characterized in that an analysis result including information based on the estimation result of the collagen structure is output.
本発明の好ましい形態では、前記コラーゲン構造の推定結果に基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力することを特徴とする。 A preferred embodiment of the present invention is characterized in that an analysis result including information based on the estimated result of the collagen structure as well as information based on the measured value of the physical quantity is output.
本発明の好ましい形態では、前記物理量は、前記表情変化の過程を含む動画に基づいて測定されることを特徴とする。
このように、動画を用いて物理量を測定することにより、被験者の皮膚に接触せず、より簡単に皮膚の粘弾性を算出することができる。これにより、被験者及び解析を行う者の双方にとっての負担を小さくすることができる。
In a preferred embodiment of the present invention, the physical quantity is measured based on a moving image that includes the process of facial expression change.
In this way, by measuring a physical quantity using a moving image, it is possible to more easily calculate the viscoelasticity of the skin without contacting the subject's skin. This can reduce the burden on both the subject and the person performing the analysis.
本発明の好ましい形態では、前記動画を撮影するための画面において、被験者の顔における顔部品の位置を合わせるためのガイドを表示することを特徴とする。
このように、動画を撮影するための画面において、顔部品の位置を合わせるためのガイドを表示し、このガイドに従って撮影を行うことで、被験者を適切な距離から適切な位置に収めての画像撮影を行うことができる。
A preferred embodiment of the present invention is characterized in that a guide for aligning facial parts on the subject's face is displayed on the screen for photographing the moving image.
In this way, by displaying a guide for aligning facial parts on the video shooting screen and shooting according to this guide, images can be taken with the subject at the appropriate distance and in the appropriate position. It can be performed.
本発明の好ましい形態では、前記動画は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20~30度の範囲で回転させた方向から撮影されることを特徴とする。
このように、正面から20~30度の範囲で回転させた角度から顔を撮影した画像を用いることで、正面から撮影した画像を用いる場合に比べて頬部分や目尻等、顔の印象を左右しやすい部分の肌を広く含む画像を取得して、顔の印象を左右しやすい部分の肌についてより正確に肌解析を行うことができる。
In a preferred embodiment of the present invention, the video is shot from a direction rotated within a range of 20 to 30 degrees with the front as 0 degrees around a vertical axis passing through the subject's face.
In this way, by using an image of the face taken from an angle rotated within a range of 20 to 30 degrees from the front, the impression of the face, such as the cheeks and the corners of the eyes, can be improved from side to side, compared to when using an image taken from the front. By acquiring an image that includes a wide range of skin areas that are easily affected, it is possible to perform more accurate skin analysis of the skin areas that tend to affect the impression of the face.
本発明の好ましい形態では、前記動画として、被験者の顔を通る鉛直方向の軸まわりに正面を0度として時計回りに20~30度の範囲で回転させた方向から撮影された動画と、被験者の顔を通る鉛直方向の軸まわりに正面を0度として反時計回りに20~30度の範囲で回転させた方向から撮影された動画と、の両方を用いることを特徴とする。
このように、異なる方向から撮影した動画を用いることで、左右の表情変化から得られる皮膚変化を総合的に考慮した物理量から、皮膚の物性を解析することができる。
In a preferred embodiment of the present invention, the video is a video shot from a direction rotated clockwise in a range of 20 to 30 degrees with the front as 0 degrees around a vertical axis passing through the subject's face; It is characterized by using both a moving image taken from a direction rotated counterclockwise around a vertical axis passing through the face within a range of 20 to 30 degrees with the front as 0 degrees.
In this way, by using videos taken from different directions, it is possible to analyze the physical properties of the skin from physical quantities that comprehensively consider changes in the skin obtained from changes in left and right facial expressions.
本発明の好ましい形態では、前記動画は、
前記被験者を正面から捉えた状態を初期位置とし、前記初期位置からの撮影装置の回転角度を取得し、
前記回転角度が所定の範囲内である場合に前記動画の撮影を許可し、
前記許可に基づいて撮影されることを特徴とする。
In a preferred form of the present invention, the video is:
An initial position is a state in which the subject is captured from the front, and a rotation angle of the imaging device from the initial position is obtained;
permitting recording of the video when the rotation angle is within a predetermined range;
It is characterized in that the photograph is taken based on the permission.
本発明の好ましい形態では、前記物理量は、前記顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つに基づいて測定されることを特徴とする。 In a preferred embodiment of the present invention, the physical quantity is measured based on at least one of the following: speed, direction, acceleration, and direction of movement of the feature points included in the face. It is characterized by
本発明の好ましい形態では、前記物理量は、肌の追従性、伸縮性及び変形性から選ばれることを特徴とする。 In a preferred embodiment of the present invention, the physical quantity is selected from skin followability, elasticity, and deformability.
本発明の好ましい形態では、前記物理量と、表皮の水分量との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の表皮の水分量を算出することを特徴とする。
このように、顔の表情変化によって生じる皮膚変化の物理量と表皮の水分量との相関関係に基づいて、物理量の測定値から表皮の水分量を算出することで、表皮の水分量の算出を含む肌の解析を非侵襲的に行うことができる。
A preferred embodiment of the present invention is characterized in that the moisture content of the epidermis of the subject is calculated from the measured value of the physical quantity for the subject, based on the correlation between the physical quantity and the moisture content of the epidermis.
In this way, by calculating the moisture content of the epidermis from the measured value of the physical quantity based on the correlation between the physical quantity of skin changes caused by changes in facial expressions and the moisture content of the epidermis, it is possible to calculate the moisture content of the epidermis. Skin analysis can be performed non-invasively.
本発明の好ましい形態では、前記物理量及び水分量の測定値の組を複数入力することによって作成された水分量算出モデルを用いて、被験者についての前記物理量の測定値から被験者の前記水分量を算出することを特徴とする。 In a preferred embodiment of the present invention, the water content of the subject is calculated from the measured values of the physical quantity for the subject using a water content calculation model created by inputting a plurality of sets of measured values of the physical quantity and water content. It is characterized by
本発明は、顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析する、肌解析システムであって、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚の粘弾性との相関関係を記憶する記憶手段と、
前記物理量と皮膚の粘弾性との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出する粘弾性算出手段と、を備えることを特徴とする。
The present invention is a skin analysis system that analyzes a subject's skin based on skin movements when facial expressions change,
a physical quantity measuring means for measuring a physical quantity of skin change caused by the facial expression change;
Storage means for storing the correlation between the physical quantity and the viscoelasticity of the skin;
The present invention is characterized by comprising a viscoelasticity calculation means for calculating the viscoelasticity of the subject's skin from the measured value of the physical quantity for the subject based on the correlation between the physical quantity and the viscoelasticity of the skin.
本発明の好ましい形態では、前記粘弾性算出手段は、真皮の粘弾性及び皮下の粘弾性の内、少なくとも何れかを算出することを特徴とする。 In a preferred embodiment of the present invention, the viscoelasticity calculation means calculates at least one of dermal viscoelasticity and subcutaneous viscoelasticity.
本発明の好ましい形態では、前記記憶手段は、前記物理量及び粘弾性の測定値の組を複数入力することによって作成された粘弾性算出モデルを記憶し、
前記粘弾性算出手段は、前記粘弾性算出モデルを用いて、被験者について測定された前記物理量から前記粘弾性を算出することを特徴とする。
In a preferred embodiment of the present invention, the storage means stores a viscoelasticity calculation model created by inputting a plurality of sets of measured values of the physical quantity and viscoelasticity,
The viscoelasticity calculation means is characterized in that the viscoelasticity is calculated from the physical quantity measured for the subject using the viscoelasticity calculation model.
本発明の好ましい形態では、前記記憶手段が、前記粘弾性と肌のコラーゲン構造との相関関係を記憶し、
前記粘弾性と肌のコラーゲン構造との相関関係に基づいて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定するコラーゲン構造推定手段を更に備えることを特徴とする。
In a preferred form of the present invention, the storage means stores a correlation between the viscoelasticity and the collagen structure of the skin,
The method further comprises collagen structure estimating means for estimating the collagen structure of the subject's skin from the viscoelasticity calculated for the subject based on the correlation between the viscoelasticity and the collagen structure of the skin.
本発明の好ましい形態では、前記記憶手段は、前記粘弾性及びコラーゲン構造の測定値の組を複数入力することによって作成されたコラーゲン構造推定モデルを記憶し、
前記コラーゲン構造推定手段は、前記コラーゲン構造推定モデルを用いて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定することを特徴とする。
In a preferred form of the present invention, the storage means stores a collagen structure estimation model created by inputting a plurality of sets of measured values of the viscoelasticity and collagen structure,
The collagen structure estimating means is characterized in that, using the collagen structure estimation model, the collagen structure of the subject's skin is estimated from the viscoelasticity calculated for the subject.
本発明の好ましい形態では、前記被験者の皮膚の粘弾性に基づいて、肌の評価値を1又は複数算出する評価手段を更に備えることを特徴とする。 A preferred embodiment of the present invention is characterized by further comprising an evaluation means for calculating one or more skin evaluation values based on the viscoelasticity of the skin of the subject.
本発明の好ましい形態では、前記粘弾性の算出結果に基づく情報を含む解析結果を出力する出力手段を更に備えることを特徴とする。 A preferred embodiment of the present invention is characterized by further comprising an output means for outputting an analysis result including information based on the viscoelasticity calculation result.
本発明の好ましい形態では、前記出力手段は、前記粘弾性の算出結果に基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力することを特徴とする。 In a preferred embodiment of the present invention, the output means outputs an analysis result including information based on the measured value of the physical quantity as well as information based on the calculated result of the viscoelasticity.
本発明は、顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析する、肌解析システムであって、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚のコラーゲン構造との相関関係を記憶する記憶手段と、
前記物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚のコラーゲン構造を推定するコラーゲン構造推定手段と、を備えることを特徴とする。
The present invention is a skin analysis system that analyzes a subject's skin based on skin movements when facial expressions change,
a physical quantity measuring means for measuring a physical quantity of skin change caused by the facial expression change;
storage means for storing the correlation between the physical quantity and the collagen structure of the skin;
The present invention is characterized by comprising a collagen structure estimating means for estimating the collagen structure of the subject's skin from the measured value of the physical quantity for the subject based on the correlation between the physical quantity and the collagen structure of the skin.
本発明の好ましい形態では、前記コラーゲン構造の推定結果に基づく情報を出力する出力手段を更に備えることを特徴とする。 A preferred embodiment of the present invention is characterized by further comprising an output means for outputting information based on the estimation result of the collagen structure.
前記出力手段は、前記コラーゲン構造の推定結果に基づく情報とともに、前記物理量の測定値に基づく情報を含む解析結果を出力することを特徴とする。 The output means is characterized in that it outputs an analysis result including information based on the estimated result of the collagen structure as well as information based on the measured value of the physical quantity.
本発明の好ましい形態では、前記表情変化の過程を含む動画を取得する動画取得手段を更に備え、
前記物理量測定手段は、前記動画に基づいて前記物理量を測定することを特徴とする。
In a preferred embodiment of the present invention, the invention further includes a video acquisition means for acquiring a video including the process of facial expression change,
The physical quantity measuring means is characterized in that it measures the physical quantity based on the moving image.
本発明の好ましい形態では、前記動画を撮影するための画面において、被験者の顔における顔部品の位置を合わせるためのガイドを表示処理する手段を更に備えることを特徴とする。 A preferred embodiment of the present invention is characterized by further comprising means for displaying a guide for aligning the positions of facial parts on the subject's face on the screen for photographing the moving image.
本発明の好ましい形態では、前記動画取得手段は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20~30度の範囲で回転させた方向から、被験者の顔を撮影した動画を取得することを特徴とする。 In a preferred embodiment of the present invention, the video acquisition means captures a video of the subject's face from a direction rotated within a range of 20 to 30 degrees with the front as 0 degrees around a vertical axis passing through the subject's face. It is characterized by obtaining.
本発明の好ましい形態では、前記動画として、被験者の顔を通る鉛直方向の軸まわりに正面を0度として時計回りに20~30度の範囲で回転させた方向から撮影された動画と、被験者の顔を通る鉛直方向の軸まわりに正面を0度として反時計回りに20~30度の範囲で回転させた方向から撮影された動画と、の両方を用いることを特徴とする。 In a preferred embodiment of the present invention, the video is a video shot from a direction rotated clockwise in a range of 20 to 30 degrees with the front as 0 degrees around a vertical axis passing through the subject's face; It is characterized by using both a moving image taken from a direction rotated counterclockwise around a vertical axis passing through the face within a range of 20 to 30 degrees with the front as 0 degrees.
本発明の好ましい形態では、前記動画取得手段は、被験者を所定の条件で撮影するための端末装置によって撮影された前記動画を取得し、
前記端末装置は、
前記被験者を正面から捉えた状態を初期位置とし、前記初期位置からの前記端末装置の回転角度を取得する手段と、
前記回転角度が20~30度の範囲内である場合に前記動画の撮影を許可する手段と、
前記許可に基づいて前記動画を撮影する手段と、を備えることを特徴とする。
In a preferred form of the present invention, the video acquisition means acquires the video taken by a terminal device for photographing the subject under predetermined conditions;
The terminal device is
means for obtaining a rotation angle of the terminal device from the initial position, with an initial position taken as the subject is viewed from the front;
means for permitting recording of the video when the rotation angle is within a range of 20 to 30 degrees;
and means for photographing the moving image based on the permission.
本発明の好ましい形態では、前記物理量測定手段は、前記顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つに基づいて前記物理量を測定することを特徴とする。 In a preferred embodiment of the present invention, the physical quantity measuring means determines the physical quantity based on at least one of the magnitude of the velocity, the direction of velocity, the magnitude of acceleration, and the direction of acceleration of the movement of the feature points included in the face. It is characterized by measuring physical quantities.
本発明の好ましい形態では、前記物理量測定手段は、前記物理量として、肌の追従性、伸縮性及び変形性のうち何れかを測定することを特徴とする。 In a preferred embodiment of the present invention, the physical quantity measuring means measures any one of skin followability, elasticity, and deformability as the physical quantity.
本発明の好ましい形態では、前記記憶手段が、前記物理量と表皮の水分量との相関関係を記憶し、
前記物理量と表皮の水分量との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の表皮の水分量を算出する水分量算出手段を更に備えることを特徴とする。
In a preferred embodiment of the present invention, the storage means stores a correlation between the physical quantity and the moisture content of the epidermis,
The present invention is characterized by further comprising a moisture content calculation means for calculating the moisture content of the epidermis of the subject from the measured value of the physical quantity for the subject, based on the correlation between the physical quantity and the moisture content of the epidermis.
本発明の好ましい形態では、前記記憶手段は、前記物理量及び水分量の測定値の組を複数入力することによって作成された水分量算出モデルを記憶し、
前記水分量算出手段は、前記水分量算出モデルを用いて、被験者について測定された前記物理量から前記水分量を算出することを特徴とする。
In a preferred embodiment of the present invention, the storage means stores a moisture content calculation model created by inputting a plurality of sets of measured values of the physical quantity and moisture content;
The water content calculating means is characterized in that the water content calculation means calculates the water content from the physical quantity measured for the subject using the water content calculation model.
本発明は、顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析するための肌解析プログラムであって、コンピュータを、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚の粘弾性との相関関係を記憶する記憶手段と、
前記物理量と皮膚の粘弾性との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出する粘弾性算出手段と、として機能させることを特徴とする。
The present invention is a skin analysis program for analyzing the skin of a subject based on skin movements when facial expressions change,
a physical quantity measuring means for measuring a physical quantity of skin change caused by the facial expression change;
Storage means for storing the correlation between the physical quantity and the viscoelasticity of the skin;
The present invention is characterized in that it functions as a viscoelasticity calculating means for calculating the viscoelasticity of the subject's skin from the measured value of the physical quantity for the subject based on the correlation between the physical quantity and the viscoelasticity of the skin.
本発明は、顔の表情変化時の皮膚の動きに基づいて被験者の肌を解析するための肌解析プログラムであって、コンピュータを、
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚のコラーゲン構造との相関関係を記憶する記憶手段と、
前記物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚のコラーゲン構造を推定するコラーゲン構造推定手段と、として機能させることを特徴とする。
The present invention is a skin analysis program for analyzing the skin of a subject based on skin movements when facial expressions change,
a physical quantity measuring means for measuring a physical quantity of skin change caused by the facial expression change;
storage means for storing the correlation between the physical quantity and the collagen structure of the skin;
The present invention is characterized in that it functions as a collagen structure estimating means for estimating the collagen structure of the skin of a subject from the measured values of the physical quantities for the subject, based on the correlation between the physical quantities and the collagen structure of the skin.
顔の表情変化の際の皮膚の変化に基づいて、非侵襲的に皮膚の物性を解析することができる。 The physical properties of the skin can be non-invasively analyzed based on changes in the skin when facial expressions change.
以下、本発明の一実施形態について、図面を参照して詳細に説明する。本実施形態においては、顔の表情変化の過程を表す動画を取得して、表情変化が開始するフレーム及び表情変化が終了するフレームを特定し、両者の間に撮影されたフレームを対象に解析を行う。 Hereinafter, one embodiment of the present invention will be described in detail with reference to the drawings. In this embodiment, a video showing the process of facial expression change is acquired, the frame where the facial expression change starts and the frame where the facial expression change ends are identified, and the frames captured between the two are analyzed. conduct.
本発明において「粘弾性を算出する」とは、粘性と弾性を定量的に評価する値を算出することを指す。本実施形態において、皮膚の粘弾性とは、真皮の粘弾性及び皮下の粘弾性を指す。このような皮膚の粘弾性は、皺やたるみ等の外見上の変化の原因になることから、加齢に伴う肌の老化現象を確認する上での指標となる。 In the present invention, "calculating viscoelasticity" refers to calculating values for quantitatively evaluating viscosity and elasticity. In this embodiment, the viscoelasticity of the skin refers to the viscoelasticity of the dermis and the viscoelasticity of the subcutaneous layer. Such viscoelasticity of the skin causes changes in appearance such as wrinkles and sagging, and therefore serves as an index for confirming skin aging phenomena associated with aging.
また、肌のコラーゲン構造とは、皮下脂肪細胞を包む線維構造の線維化レベルや、真皮のコラーゲン線維の結束の度合いを含む、皮下又は真皮のコラーゲン構造を指す。 Furthermore, the collagen structure of the skin refers to the collagen structure of the subcutaneous or dermal skin, including the fibrosis level of the fibrous structure surrounding subcutaneous fat cells and the degree of cohesion of collagen fibers in the dermis.
皮膚は、表皮、真皮及び皮下組織の3層で形成される。表皮や真皮を支える皮下組織の大部分は脂肪細胞が集塊を形成した脂肪小葉から構成される皮下脂肪であり、保温や外力に対する緩衝作用などを有する。脂肪小葉はコラーゲン線維やエラスチン線維などの結合組織等によって周囲が網目状に取り囲まれることで、脂肪細胞を包む線維構造を形成する。 The skin is made up of three layers: the epidermis, dermis, and subcutaneous tissue. Most of the subcutaneous tissue that supports the epidermis and dermis is subcutaneous fat, which is composed of adipose lobules in which fat cells form clusters, and has functions such as heat retention and buffering against external forces. Fat lobules are surrounded by connective tissues such as collagen fibers and elastin fibers in a mesh pattern, forming a fibrous structure that envelops fat cells.
本発明者らの鋭意研究の結果、皮下脂肪細胞を包むコラーゲン線維が、加齢と共に線維化することが明らかとなった。このような皮下の線維構造の線維化レベルを表す指標を、本発明では「皮下コラーゲン構造」として推定する。 As a result of intensive research by the present inventors, it has become clear that collagen fibers surrounding subcutaneous fat cells become fibrotic with age. In the present invention, an index representing the fibrosis level of such a subcutaneous fibrous structure is estimated as a "subcutaneous collagen structure."
また、加齢に伴い真皮の結合組織が次第に柔軟性、弾力性を失い硬くなっていくことが知られている。これは、結合組織の主成分であるコラーゲン線維が加齢と共に架橋し、結束してしまうことに起因していると考えられている。したがって本発明では、このような真皮のコラーゲン線維の結束の度合いを表す指標を「真皮コラーゲン構造」として推定する。なお、この他にも、コラーゲンの構造を評価する為の任意の指標を用いてよい。 Furthermore, it is known that the connective tissue of the dermis gradually loses flexibility and elasticity and becomes hard with age. This is thought to be due to the fact that collagen fibers, which are the main component of connective tissue, become crosslinked and bundled with age. Therefore, in the present invention, an index representing the degree of cohesion of collagen fibers in the dermis is estimated as "dermal collagen structure." In addition, any other index for evaluating the structure of collagen may be used.
本実施形態においては、表情変化の過程における、顔に含まれる特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向の内、少なくとも1つを示す値(以下、移動量)を測定する。移動量は、各フレームにおける値として求めてもよいし、また、ひとつの表情変化を通しての平均値として求めてもよい。あるいは、頬部、顎部といったように領域を設定し、その領域内における値の積算値や平均値等を求めてもよい。また、本実施形態において、表情変化によって生じる皮膚変化の物理量とは、移動量に基づいて測定される値を指す。 In the present embodiment, a value (hereinafter referred to as (travel amount). The amount of movement may be determined as a value for each frame, or may be determined as an average value over one facial expression change. Alternatively, areas such as cheeks and jaws may be set, and the integrated value, average value, etc. of the values within the area may be determined. Furthermore, in the present embodiment, the physical amount of skin change caused by a change in facial expression refers to a value measured based on the amount of movement.
なお、以下において顔部品座標とは、顔の動きを追跡して表情の変化を評価する為の、顔上の部品の位置を示す座標である。顔上の部品とは、目、鼻、顔の輪郭、等のような任意の特徴を示す。例えば、唇輪郭の上下端の点や左右端の点等を顔部品座標として検出し、用いることができる。 Note that in the following, facial parts coordinates are coordinates indicating the positions of parts on the face for tracking facial movements and evaluating changes in facial expressions. Facial parts refer to any features such as eyes, nose, facial contours, etc. For example, points at the upper and lower ends, points at the left and right ends of the lip contour, etc. can be detected and used as facial parts coordinates.
また、解析対象とは、肌解析の対象とする画像の集合である。本実施形態においては、表情変化が開始するフレームと表情変化が終了するフレームを特定し、その間に含まれる表情変化の最中の画像を用いて動きを解析することにより肌解析を行う。 Furthermore, the analysis target is a set of images that are targeted for skin analysis. In this embodiment, skin analysis is performed by specifying a frame where a facial expression change starts and a frame where a facial expression change ends, and analyzing movement using an image during the facial expression change included between them.
なお、本実施形態においては、表情変化として頬部分の肌を縦方向に伸縮させる縦方向表情変化の過程を表す動画と、頬部分の肌を横方向に伸縮させる横方向表情変化の過程を表す動画と、をそれぞれ取得し、その各々の表情変化によって生じる皮膚変化の物理量を動画に基づいて測定して肌解析を行う。このように、肌を特定の方向に伸縮させる表情変化の過程を表す動画を用いることにより、肌を特定の方向に伸縮させた際の皮膚の運動特性を解析することが可能になる。特に、縦方向表情変化及び横方向表情変化の両方について解析を行うことで、より幅広い皮膚の運動特性を調べることができる。 In this embodiment, a video showing the process of vertical facial expression change in which the skin of the cheek area is expanded and contracted in the vertical direction and a process of horizontal facial expression change in which the skin of the cheek area is expanded and contracted in the horizontal direction are used. A skin analysis is performed by acquiring a video and measuring the physical amount of skin change caused by each facial expression change based on the video. In this way, by using a moving image showing the process of facial expression change in which the skin is stretched or contracted in a specific direction, it becomes possible to analyze the movement characteristics of the skin when the skin is stretched or contracted in a specific direction. In particular, by analyzing both vertical and horizontal facial expression changes, a wider range of skin movement characteristics can be investigated.
図1は本実施形態において被験者が再現する表情を示す図である。本実施形態においては、被験者はここに示すように、無表情(図1(a))と、口を縦に開く表情(以下「あ」の表情、図1(b))と、口を横に開く表情(以下「い」の表情、図1(c))と、口をすぼめる表情(以下「う」の表情、図1(d))と、の4つの表情をとる。 FIG. 1 is a diagram showing facial expressions reproduced by a subject in this embodiment. In this embodiment, as shown here, the subjects showed a neutral expression (Figure 1(a)), an expression with the mouth open vertically (hereinafter referred to as an "a" expression, Figure 1(b)), and an expression with the mouth open horizontally (Figure 1(b)). There are four facial expressions: a facial expression that opens in response (hereinafter referred to as the expression ``I'', Fig. 1(c)), and an expression in which the mouth is pursed (hereinafter referred to as the expression ``u''; Figure 1(d)).
本実施形態においては、縦方向表情変化として、無表情、「あ」の表情、「う」の表情、「あ」の表情、「う」の表情、無表情、の順に被験者が表情を再現する。即ち、無表情から「あ」の表情への縦方向表情変化と、「あ」の表情から「う」の表情への縦方向表情変化と、「う」の表情から「あ」の表情への縦方向表情変化と、「う」の表情から無表情への縦方向表情変化と、の4種類の縦方向表情変化を含む動画を取得して肌解析を行う。肌解析を行う表情の種類としては、4種類のうち、無表情から「あ」の表情への縦方向表情変化と「う」の表情から無表情への縦方向表情変化の2種類のみを用いてもよい。 In this embodiment, the subject reproduces facial expressions in the order of vertical facial expression changes: no expression, "a" expression, "u" expression, "a" expression, "u" expression, and no expression. . In other words, vertical facial expression changes from a neutral expression to an “a” expression, vertical facial expression changes from an “a” expression to an “u” expression, and vertical facial expression changes from an “u” expression to an “a” expression. Skin analysis is performed by acquiring videos containing four types of vertical facial expression changes: a vertical facial expression change, and a vertical facial expression change from a "U" expression to a neutral expression. Of the four types of facial expressions used for skin analysis, only two are used: a vertical facial change from a neutral expression to an ``a'' expression, and a vertical facial change from a ``u'' expression to a neutral expression. It's okay.
また、横方向表情変化として、無表情、「い」の表情、「う」の表情、「い」の表情、「う」の表情、無表情、の順に被験者が表情を再現する。即ち、無表情から「い」の表情への横方向表情変化と、「い」の表情から「う」の表情への横方向表情変化と、「う」の表情から「い」の表情への横方向表情変化と、「う」の表情から無表情への横方向表情変化と、の4種類の横方向表情変化を含む動画を取得して肌解析を行う。肌解析を行う表情の種類としては、4種類のうち、無表情から「い」の表情への横方向表情変化と「う」の表情から無表情への横方向表情変化の2種類のみを用いてもよい。ここで、無表情から「う」の表情への表情変化においては、頬部分の肌は縦にも横にも伸縮するため、縦方向表情変化及び横方向表情変化の両方として扱う。 In addition, as for lateral facial expression changes, the subject reproduces facial expressions in the following order: no expression, "I" expression, "U" expression, "I" expression, "U" expression, and no expression. In other words, the lateral facial expression change from a neutral expression to an ``i'' expression, the lateral facial expression change from an ``i'' expression to an ``u'' expression, and the lateral facial expression change from an ``u'' expression to an ``i'' expression. Skin analysis is performed by acquiring videos containing four types of lateral facial expression changes: a lateral facial expression change, and a lateral facial expression change from a "U" expression to a neutral expression. Of the four types of facial expressions used for skin analysis, only two types are used: lateral facial expression change from neutral expression to ``I'' expression and lateral facial expression change from ``U'' expression to neutral expression. It's okay. Here, when the facial expression changes from a neutral expression to a "U" expression, the skin in the cheek area expands and contracts both vertically and horizontally, so it is treated as both a vertical facial expression change and a horizontal facial facial change.
このように、本実施形態においては、頬部分の肌を同じ方向に伸縮させる表情変化を複数種類含む動画を取得し、各種の表情変化が開始するフレーム及び終了するフレームを特定して、各種の表情変化が開始するフレームから終了するフレームまでの間の画像を解析対象とする。このように、肌を同じ方向に伸縮させる複数種類の表情変化についてそれぞれ解析対象を特定して解析を行うことで、特定の方向の肌の伸縮に伴う皮膚の運動特性をより詳細に解析することができる。 In this way, in this embodiment, a video containing multiple types of facial expression changes that expand and contract the skin of the cheek area in the same direction is acquired, the frames where each type of facial expression change starts and ends are identified, and various types of facial expression changes are determined. The images from the frame where the facial expression change starts to the frame where it ends are targeted for analysis. In this way, by specifying and analyzing multiple types of facial expression changes that cause the skin to expand and contract in the same direction, it is possible to analyze in more detail the movement characteristics of the skin as the skin expands and contracts in a specific direction. I can do it.
本実施形態においては、このように4種類の縦方向表情変化と4種類の横方向表情変化についてそれぞれ解析対象を抽出し、各解析対象について移動量が測定される。物理量としては、解析対象ごとに測定された複数の移動量の平均値、合計値、各移動量に重みづけして算出された値等、移動量から導かれる任意の値を用いることができる。 In this embodiment, analysis targets are extracted for each of the four types of vertical facial expression changes and four types of horizontal facial expression changes, and the amount of movement is measured for each analysis target. As the physical quantity, any value derived from the amount of movement can be used, such as an average value of a plurality of amounts of movement measured for each analysis target, a total value, a value calculated by weighting each amount of movement, etc.
図2は、本実施形態に係る肌解析システムの機能ブロック図である。ここに示すように、本実施形態に係る肌解析システムは、肌解析装置10と端末装置20とが通信可能に構成される。肌解析装置10としては、CPU(Central Processing Unit)等の演算装置、RAM(Random Access Memory)等の主記憶装置、HDD(Hard Disk Drive)やSSD(Solid State Drive)、フラッシュメモリ等の補助記憶装置、端末装置20との通信手段を含む種々の入出力装置等を備えた、サーバ機器等の一般的なコンピュータ装置を利用することができる。より詳細には、補助記憶装置に予め、あるいは記録媒体からの複製等によって、後述する各手段としてコンピュータを動作させるためのプログラムを格納しておき、それらのプログラムを主記憶装置上に展開して演算装置による演算を行い、入出力手段の制御等を行うことで、コンピュータ装置を本実施形態における肌解析装置10として利用することができる。 FIG. 2 is a functional block diagram of the skin analysis system according to this embodiment. As shown here, the skin analysis system according to the present embodiment is configured such that the skin analysis device 10 and the terminal device 20 can communicate with each other. The skin analysis device 10 includes an arithmetic unit such as a CPU (Central Processing Unit), a main storage device such as a RAM (Random Access Memory), an auxiliary device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), and a flash memory. memory A general computer device such as a server device, which is equipped with various input/output devices including communication means with the terminal device 20, can be used. More specifically, programs for operating the computer are stored in the auxiliary storage device in advance or by copying from a recording medium, etc., and these programs are expanded onto the main storage device. The computer device can be used as the skin analysis device 10 in this embodiment by performing calculations using the calculation device and controlling the input/output means.
端末装置20は、撮影手段201と、表示部202と、を備えている。端末装置20としては、演算装置、主記憶装置、補助記憶装置、肌解析装置10との通信手段、デジタルカメラ等の撮影手段や、種々の入出力装置等を備えた、一般的なコンピュータ装置を利用することができる。例えば、カメラ機能を備えるタブレット端末等を用いてもよい。具体的には、例えば、後述する各手段としてコンピュータ装置を動作させるための専用のアプリケーションソフトをインストールすることにより、コンピュータ装置を本実施形態に係る肌解析システムにおける端末装置20として利用することができる。 The terminal device 20 includes a photographing means 201 and a display section 202. The terminal device 20 is a general computer device equipped with an arithmetic unit, a main storage device, an auxiliary storage device, a communication means with the skin analysis device 10, a photographing means such as a digital camera, various input/output devices, etc. can be used. For example, a tablet terminal or the like having a camera function may be used. Specifically, for example, by installing dedicated application software for operating the computer device as each means described below, the computer device can be used as the terminal device 20 in the skin analysis system according to the present embodiment. .
本実施形態における肌解析装置10は、顔の表情変化の過程を撮影した動画を取得する動画取得手段1と、動画取得手段1が取得した動画から表情変化のタイミングを特定して解析対象を抽出する解析対象抽出手段2と、解析対象抽出手段2によって抽出された解析対象における移動量を測定し、移動量に基づいて皮膚変化の物理量を測定する物理量測定手段3と、相関関係データを記憶する記憶手段4と、皮膚の粘弾性の算出、表皮の水分量の算出、皮下のコラーゲン構造の推定を行う解析部5と、解析部5の解析結果に基づいて被験者の肌の評価値を算出する評価手段6と、を備える。 The skin analysis device 10 in this embodiment includes a video acquisition unit 1 that acquires a video of the process of facial expression change, and a video acquisition unit 1 that identifies the timing of the facial expression change and extracts an analysis target from the video acquired by the video acquisition unit 1. an analysis target extraction means 2 that measures the amount of movement in the analysis object extracted by the analysis object extraction means 2, and a physical quantity measurement means 3 that measures the physical amount of skin change based on the amount of movement, and stores correlation data. A storage means 4, an analysis section 5 that calculates the viscoelasticity of the skin, the moisture content of the epidermis, and estimates the subcutaneous collagen structure, and calculates the evaluation value of the subject's skin based on the analysis results of the analysis section 5. Evaluation means 6.
本実施形態において、物理量測定手段3は、動画から顔の特徴点を抽出する特徴点抽出手段31と、特徴点の移動の速度の大きさ、速度の方向、加速度の大きさ、加速度の方向、等を示す動きベクトルを特定し、動きベクトルから移動量を測定する移動量測定手段32と、移動量に基づいて物理量を測定する移動量解析手段33と、を備える。 In this embodiment, the physical quantity measuring means 3 includes a feature point extracting means 31 that extracts feature points of a face from a video, the magnitude of the speed of movement of the feature points, the direction of the velocity, the magnitude of the acceleration, the direction of the acceleration, The moving amount measuring means 32 includes a moving amount measuring means 32 that identifies a motion vector indicating a motion vector, and measures a moving amount from the motion vector, and a moving amount analyzing means 33 that measures a physical quantity based on the moving amount.
記憶手段4は、物理量と粘弾性の相関関係を記憶する。本実施形態において、記憶手段4が記憶する物理量と粘弾性の相関関係は、物理量と皮下の粘弾性の相関関係と、物理量と真皮の粘弾性の相関関係と、を含む。本実施形態においては、記憶手段4はこの他に、物理量と表皮の水分量の相関関係、真皮の粘弾性と真皮コラーゲン構造との相関関係、皮下の粘弾性と皮下コラーゲン構造の相関関係等のデータや、動画取得手段1が取得した動画の情報、解析対象抽出手段2が抽出した解析対象に関する情報、解析結果、等を記憶する。 The storage means 4 stores the correlation between physical quantities and viscoelasticity. In this embodiment, the correlation between the physical quantity and viscoelasticity stored in the storage means 4 includes the correlation between the physical quantity and the viscoelasticity of the subcutaneous skin, and the correlation between the physical quantity and the viscoelasticity of the dermis. In this embodiment, the storage means 4 also stores information such as the correlation between physical quantities and epidermal water content, the correlation between dermal viscoelasticity and dermal collagen structure, and the correlation between subcutaneous viscoelasticity and subcutaneous collagen structure. Data, information on the video acquired by the video acquisition means 1, information on the analysis target extracted by the analysis target extraction means 2, analysis results, etc. are stored.
ここで、本実施形態における各種の相関関係データとしては、例えば、各種の値の相互の関係を表す関数や、各種のデータを組として与えることで学習させたモデル等を、算出モデルとして記憶させておくことができる。この他にも、任意の方法で相関関係を表す情報を記憶し、算出に用いてよい。 Here, various types of correlation data in this embodiment include, for example, a function representing the mutual relationship between various values, a model learned by giving various data as a set, etc., which is stored as a calculation model. You can keep it. In addition to this, information representing the correlation may be stored using any method and used for calculation.
本実施形態において、解析部5は、物理量と粘弾性の相関関係に基づいて、物理量の測定値から粘弾性を算出する粘弾性算出手段51と、粘弾性と皮下のコラーゲン構造の相関関係に基づいて、算出した粘弾性から肌のコラーゲン構造を推定するコラーゲン構造推定手段52と、物理量と表皮の水分量の相関関係に基づいて、物理量の測定値から表皮の水分量を算出する水分量算出手段53と、を備える。粘弾性算出手段51は、皮下の粘弾性を算出する皮下粘弾性算出手段511と、真皮の粘弾性を算出する真皮粘弾性算出手段512と、を備える。また、コラーゲン構造推定手段52は、皮下コラーゲン構造を推定する皮下コラーゲン構造推定手段521と、真皮コラーゲン構造を推定する真皮コラーゲン構造推定手段522と、を備える。 In this embodiment, the analysis unit 5 includes a viscoelasticity calculation means 51 that calculates viscoelasticity from measured values of physical quantities based on the correlation between physical quantities and viscoelasticity, and a viscoelasticity calculation means 51 that calculates viscoelasticity from measured values of physical quantities based on the correlation between viscoelasticity and subcutaneous collagen structure. Collagen structure estimating means 52 estimates the collagen structure of the skin from the calculated viscoelasticity, and moisture content calculating means calculates the moisture content of the epidermis from the measured value of the physical quantity based on the correlation between the physical quantity and the moisture content of the epidermis. 53. The viscoelasticity calculation means 51 includes a subcutaneous viscoelasticity calculation means 511 that calculates subcutaneous viscoelasticity, and a dermal viscoelasticity calculation means 512 that calculates the viscoelasticity of the dermis. Further, the collagen structure estimating means 52 includes a subcutaneous collagen structure estimating means 521 for estimating a subcutaneous collagen structure, and a dermal collagen structure estimating means 522 for estimating a dermal collagen structure.
本実施形態において、評価手段6は、真皮粘弾性算出手段512が算出した真皮の粘弾性に関する評価値を算出する真皮粘弾性評価手段61と、皮下粘弾性算出手段511が算出した皮下の粘弾性に関する評価値を算出する皮下粘弾性評価手段62と、真皮コラーゲン構造推定手段522が推定した真皮コラーゲン構造に関する評価値を算出する真皮コラーゲン構造評価手段63と、皮下コラーゲン構造推定手段521が推定した皮下コラーゲン構造に関する評価値を算出する皮下コラーゲン構造評価手段64と、水分量算出手段53が算出した表皮の水分量に関する評価値を算出する水分量評価手段65と、を備える。 In the present embodiment, the evaluation means 6 includes a dermal viscoelasticity evaluation means 61 that calculates an evaluation value regarding the viscoelasticity of the dermis calculated by the dermal viscoelasticity calculation means 512, and a subcutaneous viscoelasticity calculated by the subcutaneous viscoelasticity calculation means 511. subcutaneous viscoelasticity evaluation means 62 that calculates an evaluation value regarding the dermal collagen structure estimated by the dermal collagen structure estimation means 522; The subcutaneous collagen structure evaluation means 64 calculates an evaluation value regarding the collagen structure, and the moisture content evaluation means 65 calculates an evaluation value regarding the moisture content of the epidermis calculated by the moisture content calculation means 53.
図3は、本実施形態における肌解析方法を示すフローチャートである。なお、本実施形態において、図3におけるステップS11及びステップS12は、縦方向表情変化を含む動画及び横方向表情変化を含む動画のそれぞれに対して行われ、ステップS13からステップS16においては、2種類の動画から測定された複数の移動量に基づいて各工程の処理を行う。このように、肌を異なる方向に伸縮させる複数の表情変化について移動量を測定し、複数の移動量から測定された物理量に基づいて肌の粘弾性を算出することで、より詳細に肌の解析を行うことができる。 FIG. 3 is a flowchart showing the skin analysis method in this embodiment. In this embodiment, steps S11 and S12 in FIG. 3 are performed for each of the videos including a vertical facial expression change and the horizontal facial expression change, and in steps S13 to S16, two types of videos are performed. Each step is processed based on multiple movement amounts measured from the video. In this way, we can analyze the skin in more detail by measuring the amount of movement for multiple expression changes that cause the skin to expand and contract in different directions, and by calculating the viscoelasticity of the skin based on the physical quantities measured from the multiple amounts of movement. It can be performed.
<解析対象の抽出>
まず、ステップS11の動画取得工程において、動画の取得と解析対象の抽出を行う。図4に、動画取得工程における、処理のフローチャートを示す。本実施形態においては、縦方向表情変化を含む動画と、横方向表情変化を含む動画と、を取得し、それぞれに含まれる表情変化の各々について図4に示す処理を実行し、解析対象を抽出する。即ち、図4に示す処理は2種類の動画それぞれについて実行される。ここで、図4に示す各々の工程は全て、ひとつの動画全体への処理が完了してから次の工程に移る。即ち、例えば、ステップS24の表情動作評価工程は、ステップS23の距離算出工程において動画を構成する全てのフレームについて顔部品座標間の距離の算出が完了してから開始する。
<Extraction of analysis target>
First, in the video acquisition step of step S11, a video is acquired and an analysis target is extracted. FIG. 4 shows a flowchart of processing in the moving image acquisition step. In this embodiment, a video including a vertical facial expression change and a video including a horizontal facial expression change are acquired, and the processing shown in FIG. 4 is executed for each facial expression change included in each to extract the analysis target. do. That is, the processing shown in FIG. 4 is executed for each of the two types of moving images. Here, in each of the steps shown in FIG. 4, the process moves to the next step after the processing of one entire video is completed. That is, for example, the facial expression motion evaluation step in step S24 is started after the calculation of distances between facial part coordinates for all frames constituting the moving image is completed in the distance calculation step in step S23.
ステップS21においては、動画取得手段1が、動画の撮影を促す情報を端末装置20の表示部202に表示させ、撮影手段201が動画の撮影を行う。動画取得手段1は、撮影手段201によって撮影された動画の情報を取得し、記憶手段4に記録する。 In step S21, the video acquisition means 1 causes the display unit 202 of the terminal device 20 to display information prompting video shooting, and the photographing means 201 shoots the video. The moving image acquisition means 1 acquires information on the moving image photographed by the photographing means 201 and records it in the storage means 4.
図5は、本実施形態における被験者の撮影方向を示す図である。本実施形態においては、動画取得手段1は、被験者の顔を通る鉛直方向の軸まわりに、正面を0度として25度回転した方向から撮影した顔の表情変化の過程を表す動画の情報を取得する。この時、撮影手段201が正面からの回転角度を取得し、回転角度が所定の範囲内である場合に撮影を許可する構成としてもよい。回転方向は被験者に向かって右回りでも左回りでもよく、またその両方について解析を行ってもよい。 FIG. 5 is a diagram showing the photographing direction of the subject in this embodiment. In this embodiment, the video acquisition means 1 acquires information on a video showing the process of facial expression change, which is photographed from a direction rotated 25 degrees with the front as 0 degrees around a vertical axis passing through the subject's face. do. At this time, a configuration may be adopted in which the photographing means 201 obtains the rotation angle from the front and permits photographing when the rotation angle is within a predetermined range. The direction of rotation may be clockwise or counterclockwise toward the subject, or both may be analyzed.
このように、被験者の顔を通る鉛直方向の軸まわりに回転した方向から撮影することが望ましい。より詳細には、この時の回転角度は、正面を0度として20~30度の範囲とすることがより好ましい。これにより、顔の印象を左右しやすい頬及び目の周辺部分の肌をより広く含む画像を取得することができるため、このような部分の肌について、肌の解析をより正確に行うことができる。 In this way, it is desirable to take the image from a direction rotated around the vertical axis passing through the subject's face. More specifically, the rotation angle at this time is preferably in the range of 20 to 30 degrees with the front as 0 degrees. This makes it possible to obtain images that include more of the skin around the cheeks and eyes, which tend to affect the impression of the face, making it possible to more accurately analyze the skin in these areas. .
このとき、撮影画面において、目や輪郭等の顔部品の位置を合わせる為のガイドを表示してもよい。例えば、まず顔の位置を合わせる為のガイドを表示し、顔の位置合わせが完了すると、撮影手段201の角度に基づいて撮影角度を20~30度とするようにガイド表示を行う構成としてもよい。 At this time, a guide for aligning facial parts such as eyes and contours may be displayed on the photographing screen. For example, a configuration may be adopted in which a guide for adjusting the position of the face is displayed first, and when the alignment of the face is completed, a guide is displayed to set the photographing angle to 20 to 30 degrees based on the angle of the photographing means 201. .
また、本実施形態では、肌解析装置10は、取得した動画における顔の位置のずれを補正する処理を実行する。具体的には、例えば鼻等の顔部品を基準として、表情動作による顔位置の移動や撮影時の手振れを補正することができる。この時、基準とする顔部品は、解析領域との相対的な位置変化が少ない部位であることが好ましい。 Furthermore, in the present embodiment, the skin analysis device 10 executes a process of correcting a shift in the position of the face in the acquired video. Specifically, it is possible to correct movement of the face position due to facial movements and camera shake during photographing, using facial parts such as the nose as a reference. At this time, it is preferable that the facial part used as a reference is a part whose position changes little relative to the analysis area.
なお、動画の撮影を促す情報及びガイドの表示のための処理や、顔の位置のずれの補正等は、肌解析装置10と端末装置20のいずれにおいて実行されてもよい。例えば、動画の撮影処理については端末装置20において完結し、動画取得手段1は、端末装置20において撮影及び一時保存された動画を単に受信する手段として機能してもよい。 Note that processing for displaying information and guides that prompt video shooting, correction of face position deviation, etc. may be performed in either the skin analysis device 10 or the terminal device 20. For example, the video capturing process may be completed in the terminal device 20, and the video acquiring means 1 may function as a means for simply receiving the video captured and temporarily stored in the terminal device 20.
次に、ステップS22の顔部品座標検出工程において、解析対象抽出手段2が、ステップS21で取得した動画に含まれる顔における顔部品座標を、フレームごとに複数検出する。ここで、動画に含まれる表情変化に連動して距離が変化する2点の組を少なくとも1組検出する。このように、表情変化に連動して距離が変化する2点を組として検出することにより、その2点間の距離の変化に基づいて表情変化が開始する画像及び表情変化が終了する画像をより正確に特定することができる。 Next, in the facial part coordinate detection step of step S22, the analysis target extraction means 2 detects a plurality of facial part coordinates of the face included in the video acquired in step S21 for each frame. Here, at least one set of two points whose distance changes in conjunction with a change in facial expression included in the video is detected. In this way, by detecting two points whose distance changes in conjunction with a change in facial expression as a pair, it is possible to better identify images where a facial expression change starts and images where a facial expression change ends based on changes in the distance between the two points. can be accurately identified.
ステップS22の顔部品座標検出工程において動画全体について顔部品座標の検出が終了すると、ステップS23において、解析対象抽出手段2が、顔部品座標間の距離を算出する。距離の算出は動画全体の各フレームについて行われ、その算出結果が記憶手段4に記憶される。 When the detection of facial parts coordinates for the entire video is completed in the facial parts coordinate detection step of step S22, the analysis target extraction means 2 calculates the distance between the facial parts coordinates in step S23. The distance calculation is performed for each frame of the entire moving image, and the calculation result is stored in the storage means 4.
図6は、本実施形態において用いる、顔部品座標を示す図である。図6(a)は縦方向表情変化における解析対象を抽出する際に用いられる顔部品座標を、図6(b)は横方向表情変化における解析対象を抽出する際に用いられる顔部品座標をそれぞれ示す。ここに示すように、本実施形態においては、縦方向表情変化における解析対象を抽出する際には唇の上下端の2点間に加え、左右の頬のそれぞれ複数の点及び顎部の点の座標を顔部品座標として検出する。そして、距離算出手段13が、唇輪郭の上下端の2点の距離及び左右の頬の各点と顎部の点との間の距離をそれぞれ算出して、その算出結果に基づいて解析対象が抽出される。 FIG. 6 is a diagram showing facial parts coordinates used in this embodiment. Figure 6(a) shows the facial parts coordinates used when extracting the analysis target for vertical facial expression changes, and Figure 6(b) shows the facial parts coordinates used when extracting the analytical target for horizontal facial expression changes. show. As shown here, in this embodiment, when extracting the analysis target for vertical facial expression changes, in addition to the two points between the upper and lower ends of the lips, multiple points on each of the left and right cheeks and the point on the chin are extracted. Detect the coordinates as facial parts coordinates. Then, the distance calculation means 13 calculates the distance between the two points at the upper and lower ends of the lip contour and the distance between each point on the left and right cheeks and the point on the chin, and based on the calculation results, the analysis target is determined. Extracted.
また、横方向表情変化における解析対象を抽出する際には唇輪郭の上下端の2点及び唇輪郭の左右端の2点を顔部品座標として検出し、距離算出手段13がそれぞれを組として唇輪郭の上下端の2点の距離及び唇輪郭の左右端の2点間の距離をそれぞれ算出する。このように、解析したい一連の表情変化に応じて、用いる顔部品座標を設定することにより、少ない情報で正確に表情変化の開始及び終了を特定することができる。 In addition, when extracting an analysis target in lateral facial expression changes, two points at the top and bottom edges of the lip contour and two points at the left and right edges of the lip contour are detected as facial parts coordinates, and the distance calculation means 13 uses these as a pair of lips. The distance between two points at the upper and lower ends of the contour and the distance between two points at the left and right ends of the lip contour are calculated. In this way, by setting the facial part coordinates to be used according to a series of facial expression changes to be analyzed, it is possible to accurately specify the start and end of a facial expression change with a small amount of information.
ここで、唇の上下端の2点と、頬部及びあごの2点と、は、いずれも頬部分の肌を縦方向に伸ばした時に距離が大きくなり、頬部分の肌を縦方向に縮めた時に距離が小さくなる。これにより、各種の縦方向表情変化のタイミングを特定できる。また、唇輪郭の左右端の2点は、頬部分の肌を横方向に伸ばした時に距離が小さくなり、頬部分の肌を横方向に縮めた時に距離が大きくなる。更に、唇輪郭の上下端の2点の距離を用いることで、例えば横方向表情変化の際に、唇輪郭の左右端の2点の距離変化が小さい「う」の表情から無表情への表情変化等についても、表情変化の開始する画像及び表情変化の終了する画像を特定することができ、各種の横方向表情変化のタイミングを特定できる。 Here, the distance between the two points on the upper and lower edges of the lips and the two points on the cheek and chin increases when the skin of the cheek area is stretched vertically, and when the skin of the cheek area is shortened vertically, The distance becomes smaller when This makes it possible to specify the timing of various vertical facial expression changes. Furthermore, the distance between the two points at the left and right ends of the lip contour becomes smaller when the cheek skin is stretched laterally, and the distance becomes larger when the cheek skin is shrunk laterally. Furthermore, by using the distance between the two points at the top and bottom edges of the lip contour, for example, when changing the facial expression in the lateral direction, the change in distance between the two points at the left and right edges of the lip contour is small. Regarding changes, etc., it is possible to specify the image where the facial expression change starts and the image where the facial expression change ends, and the timing of various lateral facial expression changes can be specified.
このように、顔部品座標検出工程においては、頬部分の肌の伸縮に連動して距離が変化する2点の組を複数検出することが好ましい。これにより、複数種類の表情変化を含む動画に対して、種類ごとに解析対象抽出処理を行わずとも、その各種の表情変化の開始するフレーム及び表情変化の終了するフレームを一連の処理によって特定することができる。 In this way, in the facial parts coordinate detection step, it is preferable to detect a plurality of sets of two points whose distances change in conjunction with the expansion and contraction of the skin of the cheek area. As a result, for videos containing multiple types of facial expression changes, the frame where each type of facial expression change starts and the frame where the facial expression change ends can be identified through a series of processes, without having to perform analysis target extraction processing for each type. be able to.
なお、顔部品座標の検出には、一般に知られている任意の方法を用いることができる。例えば、一般に販売されている開発キットを利用して開発したアプリケーションソフトを用いてもよい。開発キットとしては、例えば、Face Sensing Engine(登録商標)(https://www.oki.com/jp/fse/function/#fp,最終閲覧日:平成30年12月19日)等を利用することができる。 Note that any generally known method can be used to detect facial parts coordinates. For example, application software developed using a commonly available development kit may be used. As a development kit, for example, use Face Sensing Engine (registered trademark) (https://www.oki.com/jp/fse/function/#fp, last accessed: December 19, 2018), etc. be able to.
また、本実施形態では、距離算出工程S23において、顔部品座標間の距離を標準化する為の基準距離を算出する基準距離算出工程が実行される。そして、後述する表情動作評価工程S24~解析対象抽出工程S26においては、顔部品座標間の距離を基準距離によって標準化した値を用いて、解析対象の抽出が行われる。このようにすることで、顔の個人差や撮影時の倍率等の影響を低減してより精度よく解析対象を抽出することができる。 Further, in the present embodiment, in the distance calculation step S23, a reference distance calculation step is executed to calculate a reference distance for standardizing the distance between facial parts coordinates. Then, in facial motion evaluation step S24 to analysis target extraction step S26, which will be described later, an analysis target is extracted using a value obtained by standardizing the distance between the facial part coordinates by a reference distance. By doing so, it is possible to reduce the effects of individual differences in faces, magnification at the time of photographing, etc., and to extract the analysis target with higher accuracy.
図7は、本実施形態において用いることができる、基準距離の例を示す図である。本実施形態では、左右の目の距離(図示例における「A」の距離)を基準距離として用いて、顔部品座標間の距離を標準化する。具体的には、例えば、Aの距離を算出し、顔部品座標間の距離を全てAで除算する等の方法で、顔部品座標間の距離を標準化することができる。 FIG. 7 is a diagram showing an example of a reference distance that can be used in this embodiment. In this embodiment, the distance between the left and right eyes (distance "A" in the illustrated example) is used as a reference distance to standardize the distance between facial part coordinates. Specifically, for example, the distance between the facial part coordinates can be standardized by calculating the distance of A and dividing all the distances between the facial part coordinates by A.
この他、左右の目を結ぶ線分から顎先に降ろした垂線の長さ(図示例における「B」の距離)等、個人差や撮影時の倍率等による影響を是正できると考えられる任意の距離を、基準距離として用いることが好ましい。また、基準距離を複数組み合わせて、顔部品座標間の距離を標準化する構成としてもよい。なお、基準距離としては、顔上の任意の特徴を示す点に関する距離を用いればよく、特に制限はない。 In addition, any distance that is considered to be able to correct the effects of individual differences, magnification at the time of photography, etc., such as the length of a perpendicular line drawn from the line connecting the left and right eyes to the chin (distance "B" in the illustrated example) It is preferable to use as the reference distance. Alternatively, a configuration may be adopted in which a plurality of reference distances are combined to standardize distances between facial part coordinates. Note that the reference distance may be a distance related to a point indicating an arbitrary feature on the face, and is not particularly limited.
ステップS24の表情動作評価工程においては、ステップS23において算出された顔部品座標間の距離の変化に基づいて表情変化の大きさを評価する。具体的には、例えば、被験者が無表情を再現した時の顔部品座標間の距離と、無表情以外の表情(「あ」の表情、「い」の表情、「う」の表情)を再現した時の顔部品座標間の距離と、の比を表情変化の評価値として算出することができる。このように比を用いることで、顔の大きさ等の個人差や撮影時の倍率等の影響を小さくすることができる。 In the facial expression motion evaluation step of step S24, the magnitude of the facial expression change is evaluated based on the change in the distance between the facial component coordinates calculated in step S23. Specifically, for example, the distance between the coordinates of facial parts when the subject reproduces a neutral expression, and the reproduction of facial expressions other than neutral expression (``a'' expression, ``i'' expression, and ``u'' expression). The ratio between the distance between the coordinates of facial parts when By using the ratio in this way, it is possible to reduce the influence of individual differences such as face size and magnification during photographing.
次に、ステップS25において、ステップS24で算出した評価値を基準値と比較し、基準値を上回った場合にはステップS26の解析対象抽出工程に進む。基準値に満たない場合には、ステップS27に進み、動画取得手段1が、再度動画の撮影を促す為の情報を端末装置20に送信する。ステップS27が終了するとステップS21に戻り、再度動画の取得を行う。再度取得した動画については、ステップS22~ステップS25において、顔部品座標検出工程と、距離算出工程と、表情動作評価工程と、のそれぞれの処理が行われる。 Next, in step S25, the evaluation value calculated in step S24 is compared with a reference value, and if it exceeds the reference value, the process proceeds to step S26, an analysis target extraction step. If the reference value is not met, the process proceeds to step S27, and the video acquisition means 1 transmits information to the terminal device 20 for prompting the user to shoot a video again. When step S27 ends, the process returns to step S21 and the moving image is acquired again. Regarding the re-acquired video, in steps S22 to S25, a facial parts coordinate detection step, a distance calculation step, and a facial motion evaluation step are performed.
なお、本実施形態においては、取得する動画には複数の表情変化が含まれるため、表情動作評価工程においては、動画に含まれる全ての表情変化について基準値との比較を行い、全ての表情変化の評価値が基準値を上回った場合に解析対象抽出工程に進む。 In this embodiment, since the video to be acquired includes multiple changes in facial expressions, in the facial motion evaluation process, all facial changes included in the video are compared with reference values, and all facial changes are If the evaluation value exceeds the reference value, proceed to the analysis target extraction step.
このように、表情変化の大きさを評価し、所定の基準に満たない場合には再撮影を行わせて再度動画を取得することで、表情変化の大きさが肌解析を行う為に十分な動画に対して肌解析を実行することができる。これにより、肌の粘弾性の算出の精度を向上させることができる。 In this way, by evaluating the magnitude of facial expression changes and re-shooting and re-acquiring the video if it does not meet the predetermined criteria, we can ensure that the magnitude of facial expression changes is sufficient for skin analysis. Skin analysis can be performed on videos. Thereby, the accuracy of calculating the viscoelasticity of the skin can be improved.
ステップS26においては、解析対象抽出手段2が解析対象の抽出を行う。図8は、解析対象抽出工程における処理の一例を示すフローチャートである。ここで、ステップS26においては、動画に含まれる各種の表情変化における解析対象のそれぞれについて図8に示す処理を実行し、解析対象を抽出する。本実施形態においては、縦方向表情変化を含む動画の4種類の縦方向表情変化、及び横方向表情変化を含む動画の4種類の横方向表情変化の、合計8種類の表情変化についてそれぞれ解析対象を抽出する。 In step S26, the analysis target extraction means 2 extracts the analysis target. FIG. 8 is a flowchart showing an example of processing in the analysis target extraction step. Here, in step S26, the processing shown in FIG. 8 is executed for each of the analysis targets for various facial expression changes included in the video, and the analysis targets are extracted. In this embodiment, a total of eight types of facial expression changes are analyzed: four types of vertical facial expression changes in videos that include vertical facial expression changes, and four types of horizontal facial expression changes in videos that include horizontal facial expression changes. Extract.
なお、図8に示す処理は、組として検出された2点の顔部品座標間の距離それぞれについて行われる処理である。本実施形態においては、顔部品座標間の距離を複数用いて解析対象の抽出を行うため、組として検出された2点の顔部品座標間の距離それぞれについてこの処理を行い、その結果の組み合わせによって解析対象を抽出する。具体的には、組として検出されたある2点の顔部品座標間の距離を用いて解析対象を抽出し、その際に抽出できなかった表情変化に対して他の2点の顔部品座標間の距離を用いて図8に示す処理を行うことで解析対象を抽出することができる。 Note that the process shown in FIG. 8 is a process performed for each distance between the facial part coordinates of two points detected as a set. In this embodiment, in order to extract the analysis target using a plurality of distances between the facial part coordinates, this process is performed for each distance between the facial part coordinates of two points detected as a set, and the combination of the results Extract the analysis target. Specifically, the analysis target is extracted using the distance between the facial part coordinates of two points detected as a pair, and the distance between the facial part coordinates of the other two points is calculated for facial expression changes that could not be extracted at that time. An analysis target can be extracted by performing the process shown in FIG. 8 using the distance.
解析対象抽出手段2は、まず、ステップS31において、連続するフレーム間の顔部品座標間の距離の差分(変化量)の絶対値を算出する。次に、ステップS32において、顔部品座標間の距離の差分が基準値より大きい頂点(極大点)を検出する。すなわち、動画に含まれる複数の表情変化の各々の過程において、最も大きく顔部品座標間の距離が変化した点を検出する。 First, in step S31, the analysis target extraction means 2 calculates the absolute value of the difference (amount of change) in the distance between facial part coordinates between consecutive frames. Next, in step S32, a vertex (maximum point) where the difference in distance between the facial parts coordinates is larger than a reference value is detected. That is, in each process of a plurality of facial expression changes included in the moving image, the point where the distance between facial parts coordinates changes the most is detected.
ステップS33においては、ステップS32で検出した頂点の前後で顔部品座標間の距離の差分が基準値を下回るフレームを特定する。これにより、ステップS32で検出した頂点の直前に顔部品座標間の距離の差分が基準値を下回ったフレームを表情変化が開始したフレームとして特定し、同様にして頂点の直後に顔部品座標間の距離の差分が基準値を下回ったフレームを表情変化が終了したフレームとして特定し、記憶手段4に記録する。これにより、解析対象抽出手段2は、表情変化の開始したフレームと、終了したフレームと、の間に含まれるフレームを解析対象として抽出する。 In step S33, frames in which the difference in distance between facial parts coordinates before and after the vertex detected in step S32 are less than a reference value are identified. As a result, a frame in which the difference in distance between the facial parts coordinates is less than the reference value immediately before the vertex detected in step S32 is identified as a frame in which a facial expression change has started, and similarly, immediately after the vertex, the frame between the facial parts coordinates is A frame in which the difference in distance is less than a reference value is identified as a frame in which the facial expression change has been completed, and is recorded in the storage means 4. Thereby, the analysis target extracting means 2 extracts frames included between the frame where the facial expression change starts and the frame where it ends as the analysis target.
なお、図8に示した処理を行う際には、適宜フィルタリング等を行ってもよい。例えば、ステップS31において、顔部品座標間の距離の時間変化(各フレーム間における顔部品座標間の距離の変化)に対して低域通過フィルタ(LPF:Low Pass Filter)を適用してノイズ除去を行った上で、フレーム間の差分を算出してもよい。この他には、ノイズ除去のために、ステップS31において算出されたフレーム間の顔部品座標間の距離の差分の絶対値について、所定の値に満たない部分を0とする処理等を行うことができる。 Note that when performing the processing shown in FIG. 8, filtering or the like may be performed as appropriate. For example, in step S31, a low pass filter (LPF) is applied to the temporal change in the distance between the facial part coordinates (change in the distance between the facial part coordinates between each frame) to remove noise. After that, the difference between frames may be calculated. In addition, in order to remove noise, it is possible to perform processing such as setting the absolute value of the difference in the distance between facial part coordinates between frames calculated in step S31 to 0 for a portion that is less than a predetermined value. can.
以上のように、複数の画像から顔部品座標を検出し、顔部品座標間の距離に基づいて表情変化が開始する画像及び表情変化が終了する画像を特定して、その間に含まれる画像を解析対象として抽出することにより、所定の表情変化を含むフレームを精度よく特定できる。これにより、所定の表情変化の際の肌の運動特性をより正確に解析することができ、肌解析の精度を上げることができる。 As described above, facial part coordinates are detected from multiple images, images where facial expression changes start and images where facial expression changes end are identified based on the distance between facial part coordinates, and images included in between are analyzed. By extracting the frame as a target, a frame including a predetermined facial expression change can be specified with high accuracy. Thereby, the movement characteristics of the skin during a predetermined change in facial expression can be analyzed more accurately, and the accuracy of skin analysis can be improved.
<物理量の測定>
上記のようにして図3におけるステップS11が終了すると、ステップS12の移動量測定工程が開始する。図9は、移動量測定工程における処理の流れを示すフローチャートである。ここで、ステップS12においては、ステップS11において抽出された各種の表情変化における解析対象のそれぞれについて図9に示す処理を実行し、移動量を測定する。本実施形態においては、4種類の縦方向表情変化と4種類の横方向表情変化、即ち8種類の表情変化における解析対象についてそれぞれ移動量を測定する。
<Measurement of physical quantities>
When step S11 in FIG. 3 ends as described above, the movement amount measuring process of step S12 starts. FIG. 9 is a flowchart showing the flow of processing in the movement amount measuring step. Here, in step S12, the process shown in FIG. 9 is executed for each of the analysis targets in the various facial expression changes extracted in step S11, and the amount of movement is measured. In this embodiment, the amount of movement is measured for each of the analysis targets for four types of vertical facial expression changes and four types of horizontal facial expression changes, that is, eight types of facial expression changes.
まず、ステップS41では、解析対象の中の各フレームより、特徴点の抽出を行う。ここでは、フレーム中の各画素の輝度値などから皮膚の凹凸を判別して特徴点を設定する方法や、動画中にグリッド状に特徴点を設定する方法、すなわち、格子状に特徴点を配置する方法など、任意の方法を用いてよい。 First, in step S41, feature points are extracted from each frame in the analysis target. Here, we will introduce a method of setting feature points by determining the unevenness of the skin from the brightness value of each pixel in a frame, and a method of setting feature points in a grid pattern in a video. Any method may be used, such as the method of
本実施形態では、オプティカルフロー法により移動量の測定を行う。具体的には、頬部の解析領域の1辺を所定の数に分割して、分割された正方形の領域を基本解析単位として、各基本解析単位における中心点を特徴点とみなし、移動量を測定する。図10は、本実施形態における解析領域の分画パターンの一例を示す図である。図10における斜線の領域が各分画パターンにおける1つの基本解析単位である。本実施形態では、まず1辺を12に分割し、各種の大きさの解析単位における動きベクトルの特定を行う(ステップS42)。動きベクトルは、フレーム間における輝度の変化等によって求めることができる。 In this embodiment, the amount of movement is measured using an optical flow method. Specifically, one side of the analysis area of the cheek is divided into a predetermined number of areas, the divided square areas are used as the basic analysis unit, the center point of each basic analysis unit is regarded as the feature point, and the amount of movement is calculated. Measure. FIG. 10 is a diagram showing an example of a fractionation pattern of an analysis region in this embodiment. The shaded area in FIG. 10 is one basic analysis unit in each fractionation pattern. In this embodiment, one side is first divided into 12 parts, and motion vectors in analysis units of various sizes are identified (step S42). The motion vector can be determined based on changes in brightness between frames.
その後、ステップS43で、動きベクトルの解析を行い、移動量の測定を行う。ここでの移動量の例としては、先述した特徴点の座標の変位量、移動速度、加速度、移動方向などや、平面の運動の波動性パラメータ、例えば周期、周長など、顔の皮膚の運動に関する量が挙げられる。 Thereafter, in step S43, the motion vector is analyzed and the amount of movement is measured. Examples of the amount of movement here include the amount of displacement of the coordinates of the feature points mentioned earlier, movement speed, acceleration, movement direction, etc., wave parameters of plane movement, such as period, circumference, and movement of facial skin. Examples include quantities related to.
なお、このようなそれぞれの移動量は、各フレームにおける値として求めてもよいし、また、ひとつの表情変化を通しての平均値として求めてもよい。あるいは、頬部、顎部といったように領域を設定し、その領域内における値の積算値や平均値などを求めてもよい。 Note that each of these movement amounts may be obtained as a value for each frame, or may be obtained as an average value over one facial expression change. Alternatively, a region may be set, such as a cheek region or a jaw region, and the integrated value or average value of the values within the region may be determined.
ステップS43において、本実施形態では、まず解析領域を12×12の144の基本解析単位に分ける。次に、各基本解析単位の移動量を測定し、隣り合う基本解析単位同士の平均値をとることで、6×6、4×4、3×3、2×2、1×1、のそれぞれの分画パターンにおける各基本解析単位の移動量を特定できる。これにより、本実施形態では、フレームごとに合計210個のベクトルデータを移動量として用いることができる。 In step S43, in this embodiment, the analysis area is first divided into 144 basic analysis units of 12×12. Next, by measuring the amount of movement of each basic analysis unit and taking the average value of adjacent basic analysis units, each of 6 x 6, 4 x 4, 3 x 3, 2 x 2, 1 x 1, etc. The amount of movement of each basic analysis unit in the fractionation pattern can be determined. As a result, in this embodiment, a total of 210 pieces of vector data can be used as the movement amount for each frame.
また、本実施形態では、更に、各分画パターン内における基本解析単位間の移動量の比較に基づく値と、異なる分画パターン間の同一の領域における移動量の比較(大きさの異なる基本解析単位同士の比較)に基づく値と、を各フレームについて算出して、上記のベクトルデータに加えてこれらを移動量として用いる。より具体的には、各分画パターン内の基本解析単位間の移動量の差を総当たりで算術し、また、異なる分画パターン間の対応する領域(同じ位置を示す基本解析単位)の移動量の差を総当たりで算術して、これらを各フレームの移動量として用いることができる。 Furthermore, in this embodiment, a value based on a comparison of the amount of movement between basic analysis units within each fractionation pattern, and a comparison of the amount of movement in the same region between different fractionation patterns (basic analysis of different sizes) A value based on a comparison between units) is calculated for each frame, and these are used as the movement amount in addition to the above vector data. More specifically, the difference in the amount of movement between basic analysis units within each fractionation pattern is calculated by brute force, and the movement of the corresponding region (basic analysis unit indicating the same position) between different fractionation patterns is calculated using brute force. It is possible to perform brute force arithmetic on the difference in amounts and use these as the amount of movement for each frame.
このように、解析領域内の位置(基本解析単位)ごとに様々な観点で移動量を解析することで、領域ごとの運動特性の変化の観測や、個人差の低減等の効果が期待できる。 In this way, by analyzing the amount of movement from various viewpoints for each position within the analysis region (basic analysis unit), effects such as observing changes in motion characteristics for each region and reducing individual differences can be expected.
以上のように、ステップS11において抽出された各種の表情変化における解析対象のそれぞれについて、ステップS12で図9に示す処理を実行することで、4種類の縦方向表情変化と4種類の横方向表情変化、即ち8種類の表情変化における解析対象についてそれぞれ移動量を得ることができる。 As described above, by executing the process shown in FIG. 9 in step S12 for each of the analysis targets for the various facial expression changes extracted in step S11, four types of vertical facial expression changes and four types of horizontal facial expressions can be analyzed. It is possible to obtain the amount of movement for each change, that is, the analysis target for eight types of facial changes.
ステップS13の物理量測定工程においては、これら8つの表情変化に対応した移動量に基づいて物理量を測定する。本実施形態では、上記のような「フレームごと」の移動方向及び速さ等を含む種々の移動量、即ち時間の次元を持つ2次元の波形を、任意の方法でスカラー量に変換する。例えば、周波数解析や自己回帰モデル解析、ウェーブレット解析等の解析方法を用いることで変換が可能である。これにより、変換されたスカラー量を物理量として用いることができる。なお、この時、莫大な物理量が得られることが予想されるが、主成分分析等の任意の方法で、物理量の縮約を行ってもよい。 In the physical quantity measuring step of step S13, physical quantities are measured based on the movement amounts corresponding to these eight facial expression changes. In this embodiment, various amounts of movement including the direction and speed of movement "for each frame" as described above, that is, a two-dimensional waveform having a time dimension, are converted into scalar amounts using an arbitrary method. For example, conversion is possible by using analysis methods such as frequency analysis, autoregressive model analysis, and wavelet analysis. Thereby, the converted scalar quantity can be used as a physical quantity. Although it is expected that a huge amount of physical quantities will be obtained at this time, the physical quantities may be reduced by any method such as principal component analysis.
また、各表情変化における移動量や物理量の平均値、合計、各移動量に重みづけして算出された値等、移動量から導かれる任意の値を物理量として用いてもよい。 Further, any value derived from the amount of movement may be used as the physical amount, such as an average value, a total, or a value calculated by weighting each amount of movement for each facial expression change.
<粘弾性の算出>
ステップS14の粘弾性算出工程においては、物理量と皮膚の粘弾性との相関関係に基づいて、ステップS13で測定された被験者についての物理量から被験者の皮膚の粘弾性を算出する。
<Calculation of viscoelasticity>
In the viscoelasticity calculation step of step S14, the viscoelasticity of the subject's skin is calculated from the physical quantity about the subject measured in step S13, based on the correlation between the physical quantity and the viscoelasticity of the skin.
図11は、粘弾性算出工程における処理の流れを示すフローチャートである。なお、本実施形態においては、ステップS14において、真皮の粘弾性及び評価値と、皮下の粘弾性及び評価値と、をそれぞれ算出する。 FIG. 11 is a flowchart showing the flow of processing in the viscoelasticity calculation step. In this embodiment, in step S14, the viscoelasticity and evaluation value of the dermis and the viscoelasticity and evaluation value of the subcutaneous skin are calculated, respectively.
まず、ステップS51において、記憶手段4が記憶する物理量―粘弾性相関関係データを取得する。本実施形態において、物理量―粘弾性相関関係データは、物理量と皮下の粘弾性の相関関係及び物理量と真皮の粘弾性の相関関係を含む。 First, in step S51, the physical quantity-viscoelasticity correlation data stored in the storage means 4 is acquired. In this embodiment, the physical quantity-viscoelasticity correlation data includes a correlation between a physical quantity and subcutaneous viscoelasticity, and a correlation between a physical quantity and dermal viscoelasticity.
次に、ステップS52において、ステップS51で取得した相関関係と、物理量測定手段3が測定した物理量と、に基づいて、皮膚の粘弾性を算出する。具体的には、例えば、物理量と皮膚の粘弾性との間の関係を表す関数を、粘弾性算出モデルとして記憶手段4に予め登録しておき、その関数に物理量測定手段3が測定した物理量を代入することによって皮膚の粘弾性を算出する等の方法がある。 Next, in step S52, the viscoelasticity of the skin is calculated based on the correlation obtained in step S51 and the physical quantity measured by the physical quantity measuring means 3. Specifically, for example, a function representing the relationship between a physical quantity and the viscoelasticity of the skin is registered in advance in the storage means 4 as a viscoelasticity calculation model, and the physical quantity measured by the physical quantity measuring means 3 is added to the function. There are methods such as calculating the viscoelasticity of the skin by substitution.
物理量と皮膚の粘弾性との間の関係を表す関数は、物理量及び粘弾性の測定値の組のデータから、統計的手法により求めることができる。より具体的には、上述の方法で被験者について測定された物理量と、同一の被験者について測定された皮膚の粘弾性と、の測定値の組をコンピュータに複数入力し、例えば線形回帰や決定木回帰、サポートベクター回帰、ガウス過程回帰等の回帰分析によって関数(回帰モデル)を得ることができる。また、後述の、物理量と水分量の関係を表す関数や、粘弾性とコラーゲン構造の関係を表す関数についても、同様にして求めることができる。本実施形態では、このような粘弾性算出モデルを、真皮の粘弾性及び皮下の粘弾性のそれぞれについて作成しておき、ステップS52でそれぞれの粘弾性を算出する。 A function representing the relationship between the physical quantity and the viscoelasticity of the skin can be obtained by a statistical method from data of a set of measured values of the physical quantity and the viscoelasticity. More specifically, multiple sets of physical quantities measured on a subject using the method described above and skin viscoelasticity measured on the same subject are input into a computer, and the results are processed using, for example, linear regression or decision tree regression. A function (regression model) can be obtained by regression analysis such as support vector regression, Gaussian process regression, etc. Furthermore, functions representing the relationship between physical quantities and water content, and functions representing the relationship between viscoelasticity and collagen structure, which will be described later, can also be determined in the same manner. In this embodiment, such a viscoelasticity calculation model is created for each of the viscoelasticity of the dermis and the viscoelasticity of the subcutaneous layer, and the viscoelasticity of each is calculated in step S52.
粘弾性の算出が完了すると、ステップS53において粘弾性の評価値を算出する。評価値の算出においては、ステップS52で算出した粘弾性を用いて、真皮及び皮下のそれぞれの粘弾性の評価値を算出する。例えば、算出された粘弾性に所定の処理を施して、被験者が感覚的に理解しやすいよう標準化した値等を評価値として用いることができる。 When the calculation of viscoelasticity is completed, an evaluation value of viscoelasticity is calculated in step S53. In calculating the evaluation value, the evaluation value of the viscoelasticity of each of the dermis and the subcutaneous layer is calculated using the viscoelasticity calculated in step S52. For example, the calculated viscoelasticity can be subjected to predetermined processing and a standardized value that can be easily understood intuitively by the subject can be used as the evaluation value.
ここで、ステップS51及びステップS52は、皮下の粘弾性の算出の際には皮下粘弾性算出手段511が、真皮の粘弾性の算出の際には真皮粘弾性算出手段512がそれぞれ行う。また、ステップS53は、皮下の粘弾性の評価値を算出するときは皮下粘弾性評価手段62が、真皮の粘弾性の評価値を算出するときは真皮粘弾性評価手段61がそれぞれ行う。 Here, step S51 and step S52 are performed by the subcutaneous viscoelasticity calculating means 511 when calculating the viscoelasticity of the subcutaneous layer, and by the dermal viscoelasticity calculating means 512 when calculating the viscoelasticity of the dermis. Further, step S53 is performed by the subcutaneous viscoelasticity evaluation means 62 when calculating the evaluation value of subcutaneous viscoelasticity, and by the dermal viscoelasticity evaluation means 61 when calculating the evaluation value of the viscoelasticity of the dermis.
<水分量の算出>
ステップS14が終了すると、ステップS15において水分量算出工程が開始する。ステップS15においては、物理量と表皮の水分量との相関関係に基づいて、ステップS13で測定した被験者についての物理量から被験者の表皮の水分量を算出する。
<Calculation of water content>
When step S14 ends, a moisture content calculation process starts in step S15. In step S15, the moisture content of the epidermis of the subject is calculated from the physical quantity about the subject measured in step S13, based on the correlation between the physical quantity and the moisture content of the epidermis.
図12は、水分量算出工程における処理の流れを示すフローチャートである。まず、ステップS61において、水分量算出手段53は、記憶手段4が記憶する物理量―水分量相関関係データを取得する。次に、ステップS62において、ステップS61で取得した相関関係と、ステップS13で測定した物理量と、に基づいて、水分量算出手段53が表皮の水分量を算出する。具体的には、例えば、物理量と表皮の水分量との間の関係を表す関数を、水分量算出モデルとして記憶手段4に登録しておき、その関数に物理量測定手段3が測定した物理量を代入することによって表皮の水分量を算出する等の方法がある。物理量と表皮の水分量との間の関係を表す関数は、物理量と粘弾性との間の関係を表す関数と同様に、物理量及び水分量の測定値の組のデータから、統計的手法により求めることができる。 FIG. 12 is a flowchart showing the flow of processing in the moisture content calculation step. First, in step S61, the moisture content calculation means 53 acquires the physical quantity-moisture content correlation data stored in the storage means 4. Next, in step S62, the moisture content calculating means 53 calculates the moisture content of the epidermis based on the correlation acquired in step S61 and the physical quantity measured in step S13. Specifically, for example, a function representing the relationship between a physical quantity and the moisture content of the epidermis is registered in the storage means 4 as a moisture content calculation model, and the physical quantity measured by the physical quantity measuring means 3 is substituted into the function. There are methods such as calculating the moisture content of the epidermis. Similar to the function representing the relationship between physical quantities and viscoelasticity, the function expressing the relationship between the physical quantity and the moisture content of the epidermis is obtained from the data of the set of measured values of the physical quantity and moisture content using a statistical method. be able to.
水分量の算出が完了すると、ステップS63において、ステップS62で算出した水分量を用いて、水分量評価手段65が表皮の水分量の評価値を算出する。評価値としては、例えば、ステップS62で算出した水分量に所定の処理を施して標準化した値等を用いることができる。 When the calculation of the moisture content is completed, in step S63, the moisture content evaluation means 65 calculates an evaluation value of the moisture content of the epidermis using the moisture content calculated in step S62. As the evaluation value, for example, a value obtained by subjecting the moisture content calculated in step S62 to a predetermined process and standardizing it can be used.
<コラーゲン構造の推定>
ステップS16のコラーゲン構造推定工程においては、粘弾性と肌のコラーゲン構造との相関関係に基づいて、被験者について算出された粘弾性から被験者の肌のコラーゲン構造を推定する。なお、本実施形態においては、ステップS16において、真皮コラーゲン構造及び評価値と、皮下コラーゲン構造及び評価値と、をそれぞれ算出する。図13は、コラーゲン構造推定工程における処理の流れを示すフローチャートである。
<Estimation of collagen structure>
In the collagen structure estimation step of step S16, the collagen structure of the subject's skin is estimated from the viscoelasticity calculated for the subject based on the correlation between the viscoelasticity and the collagen structure of the skin. In this embodiment, in step S16, the dermal collagen structure and evaluation value and the subcutaneous collagen structure and evaluation value are calculated, respectively. FIG. 13 is a flowchart showing the process flow in the collagen structure estimation step.
なお、本実施形態において、コラーゲン構造推定工程では、皮下コラーゲン構造については、皮下コラーゲン構造推定手段521が皮下脂肪細胞の超音波画像を解析して導かれるヒストグラムの歪度を皮下コラーゲン構造として推定し、皮下コラーゲン構造評価手段64が歪度を複数段階に分けて評価値を決定することでコラーゲン構造を推定する。即ち、コラーゲン構造として、歪度の評価値が推定される。 In the present embodiment, in the collagen structure estimation step, the subcutaneous collagen structure estimating means 521 estimates the skewness of the histogram derived by analyzing the ultrasound image of subcutaneous fat cells as the subcutaneous collagen structure. , the subcutaneous collagen structure evaluation means 64 estimates the collagen structure by dividing the degree of distortion into a plurality of stages and determining evaluation values. That is, the evaluation value of the degree of distortion is estimated as the collagen structure.
ここで用いられるヒストグラムは、被験者の超音波画像から皮下脂肪部分を切り出し、これを解析用画像として画像解析ソフトを使用した結果得られるものである。このヒストグラムについて解析を行い、歪度を算出すると、線維化の程度が低いほど歪度が大きく、線維化の程度が高いほど歪度が小さくなり、歪度によって皮下脂肪を包むコラーゲン線維構造の線維化レベルを評価できる。従って本実施形態では、上記のようにして得られるヒストグラムの歪度を、皮下のコラーゲン構造の指標として用いる。 The histogram used here is obtained by cutting out the subcutaneous fat part from the ultrasound image of the subject and using image analysis software to use this as an analysis image. When we analyze this histogram and calculate the skewness, we find that the lower the degree of fibrosis, the higher the skewness, and the higher the degree of fibrosis, the lower the skewness. Able to evaluate the level of improvement. Therefore, in this embodiment, the skewness of the histogram obtained as described above is used as an index of the subcutaneous collagen structure.
また、真皮コラーゲン構造については、真皮コラーゲン線維の顕微鏡撮影画像に対して画像処理を施し、コラーゲン線維の結束度を定量化した値を「真皮コラーゲン構造」として推定する。 Regarding the dermal collagen structure, image processing is performed on microscopic images of dermal collagen fibers, and a value obtained by quantifying the degree of cohesion of collagen fibers is estimated as the "dermal collagen structure."
まず、ステップS71において、皮下粘弾性算出手段511が算出した皮下の粘弾性を取得する。次に、ステップS72において、記憶手段4が記憶する粘弾性―コラーゲン構造相関関係データを取得する。本実施形態において、粘弾性―コラーゲン構造相関関係データは、真皮粘弾性と真皮コラーゲン構造との相関関係及び皮下粘弾性と皮下コラーゲン構造との相関関係を含む。 First, in step S71, the subcutaneous viscoelasticity calculated by the subcutaneous viscoelasticity calculating means 511 is acquired. Next, in step S72, viscoelasticity-collagen structure correlation data stored in the storage means 4 is acquired. In this embodiment, the viscoelasticity-collagen structure correlation data includes the correlation between dermal viscoelasticity and dermal collagen structure, and the correlation between subcutaneous viscoelasticity and subcutaneous collagen structure.
本実施形態では、皮下の粘弾性と、皮下脂肪層の超音波画像を解析して得られるヒストグラムの歪度と、の間の関係を表す関数を、皮下コラーゲン構造推定モデルとして記憶手段4に登録しておき、その関数に皮下粘弾性算出手段511が算出した粘弾性を代入することによって、歪度を求める。皮下粘弾性と歪度の関係を表す関数は、粘弾性及び歪度の測定値の組のデータから、統計的手法により求めることができる。 In this embodiment, a function representing the relationship between subcutaneous viscoelasticity and the skewness of a histogram obtained by analyzing an ultrasound image of a subcutaneous fat layer is registered in the storage means 4 as a subcutaneous collagen structure estimation model. Then, the skewness is determined by substituting the viscoelasticity calculated by the subcutaneous viscoelasticity calculating means 511 into the function. A function representing the relationship between subcutaneous viscoelasticity and skewness can be determined by a statistical method from data of a set of measured values of viscoelasticity and skewness.
また、真皮の粘弾性と、真皮コラーゲン線維の顕微鏡撮影画像に対して画像処理を施すことで得られるコラーゲン線維の結束度を定量化した値と、の間の関係を表す関数を、真皮コラーゲン構造推定モデルとして記憶手段4に登録しておき、その関数に真皮粘弾性算出手段512が算出した粘弾性を代入することによって真皮コラーゲン線維の結束度を求める。真皮粘弾性と結束度の関係を表す関数は、粘弾性及び結束度の測定値の組のデータから、統計的手法により求めることができる。 In addition, the function representing the relationship between the viscoelasticity of the dermis and the value quantifying the degree of cohesion of collagen fibers obtained by performing image processing on microscopic images of dermal collagen fibers was calculated as follows: It is registered in the storage means 4 as an estimated model, and the degree of cohesion of the dermal collagen fibers is determined by substituting the viscoelasticity calculated by the dermal viscoelasticity calculation means 512 into the function. A function representing the relationship between dermal viscoelasticity and cohesion can be determined by a statistical method from data of a set of measured values of viscoelasticity and cohesion.
なお、ステップS71及びステップS72の順序は任意に変更してよい。また、相関関係データとしては、粘弾性とコラーゲン構造(歪度又は結束度)の測定値との組によって学習させた算出モデルを用いてもよい。 Note that the order of steps S71 and S72 may be changed arbitrarily. Further, as the correlation data, a calculation model trained by a set of measured values of viscoelasticity and collagen structure (strainness or degree of cohesion) may be used.
ステップS73においては、ステップS71及びステップS72で取得した皮膚の粘弾性及び粘弾性―コラーゲン構造相関関係データに基づいて、コラーゲン構造推定手段52が、被験者の真皮コラーゲン構造及び皮下コラーゲン構造を推定する。この時、記憶手段4が解析結果を記憶してもよい。 In step S73, the collagen structure estimating means 52 estimates the dermal collagen structure and subcutaneous collagen structure of the subject based on the skin viscoelasticity and viscoelasticity-collagen structure correlation data acquired in steps S71 and S72. At this time, the storage means 4 may store the analysis results.
コラーゲン構造の推定が完了すると、ステップS74においてコラーゲン構造の評価値を算出する。評価値の算出においては、ステップS73で算出したコラーゲン構造を用いて、真皮及び皮下のそれぞれのコラーゲン構造の評価値を算出する。例えば、算出されたコラーゲン構造(歪度又は結束度)に所定の処理を施して標準化した値や、コラーゲン構造の値を複数段階に分けて評価する値等を、評価値として用いることができる。 When the estimation of the collagen structure is completed, an evaluation value of the collagen structure is calculated in step S74. In calculating the evaluation value, the collagen structure calculated in step S73 is used to calculate the evaluation value of each of the collagen structures in the dermis and subcutaneous tissue. For example, a value obtained by subjecting the calculated collagen structure (distortion degree or cohesion degree) to a standardized value by subjecting it to a predetermined process, a value obtained by dividing the collagen structure value into multiple stages and evaluating it, etc. can be used as the evaluation value.
以上のように、本実施形態によれば、被験者に特定の表情を順番に再現させ、その様子を撮影した動画を解析することで、簡易的に非侵襲な肌の解析を行うことができる。具体的には、表情変化によって生じる皮膚変化の物理量を動画から測定し、物理量と皮膚の粘弾性との相関関係に基づいて、被験者についての物理量の測定値から被験者の皮膚の粘弾性を算出することができる。 As described above, according to the present embodiment, skin can be easily and non-invasively analyzed by having a subject reproduce specific facial expressions in sequence and analyzing a video of the facial expressions captured. Specifically, the physical quantities of skin changes caused by changes in facial expressions are measured from videos, and the viscoelasticity of the subject's skin is calculated from the measured values of the physical quantities for the subject, based on the correlation between the physical quantities and the viscoelasticity of the skin. be able to.
また、皮膚の粘弾性として、真皮の粘弾性及び皮下の粘弾性をそれぞれ算出し、その評価値を算出することができる。更に表皮の水分量及びその評価値を算出することができる。また、皮膚の粘弾性に基づいて肌のコラーゲン構造を推定し、その評価値を算出することができる。これにより、これらの評価値の組み合わせによって詳細な結果を提示することができる。 Furthermore, as the viscoelasticity of the skin, the viscoelasticity of the dermis and the viscoelasticity of the subcutaneous layer can be calculated, and their evaluation values can be calculated. Furthermore, the moisture content of the epidermis and its evaluation value can be calculated. Furthermore, the collagen structure of the skin can be estimated based on the viscoelasticity of the skin, and its evaluation value can be calculated. Thereby, detailed results can be presented by combining these evaluation values.
なお、本実施形態では、記憶手段4が、各種の測定値の組のデータから統計的手法によって得られる、それぞれの関係を表す関数を記憶し、この関数に従って、皮膚の粘弾性や水分量、コラーゲン構造を推定する形態を示した。ただしこの他にも、例えば物理量と粘弾性(又は水分量)の測定値の組を教師データとして与え、ニューラルネットワークに学習させることで、粘弾性算出モデルや水分量算出モデル、コラーゲン構造推定モデルを作成する構成としてもよい。また、各種処理の順序を変更する等、この他にも、本発明の趣旨を逸脱しない範囲で、任意に構成を変更してよい。 In the present embodiment, the storage means 4 stores functions representing the relationships obtained from data of various sets of measured values by statistical methods, and according to this function, the viscoelasticity, moisture content, etc. of the skin are determined. The morphology of the estimated collagen structure is shown. However, in addition to this, for example, by giving a set of measured values of physical quantity and viscoelasticity (or water content) as training data and letting the neural network learn, you can create a viscoelasticity calculation model, a water content calculation model, and a collagen structure estimation model. It is also possible to create a configuration. In addition, the configuration may be arbitrarily changed without departing from the spirit of the present invention, such as changing the order of various processes.
以下、本発明者らによって行われた、物理量の測定値に基づく皮膚の粘弾性等の算出実験結果、及び粘弾性に基づくコラーゲン構造の推定結果について説明する。なお、本発明は以下のような実験結果に基づいてなされたものであるが、本発明において用いられる値や相関関係は、以下の内容に限られない。 Hereinafter, the results of an experiment conducted by the present inventors to calculate skin viscoelasticity and the like based on measured values of physical quantities, and the results of estimating collagen structure based on viscoelasticity will be described. Although the present invention was made based on the following experimental results, the values and correlations used in the present invention are not limited to the following.
<実験結果1>
(1)物理量測定
上記の実施形態と同様の手法で、20~60代の100名を対象に、表情変化の過程を表す動画像を取得して、物理量を測定した。具体的には、頬部の解析領域を複数の分画パターンによって基本解析単位に分け、各領域の移動量を測定した。そして、このような移動量を更に各分画パターン内の基本解析単位の移動量の比較、及び分画パターン間の対応する領域の移動量の比較によってフレームごとに解析し、時間の次元を持つ移動量をスカラー量に変換することで物理量を測定した。このような物理量の測定は、各表情変化に対してそれぞれ行われた。
<Experiment results 1>
(1) Measurement of physical quantities Using the same method as in the above embodiment, moving images showing the process of changes in facial expressions were obtained for 100 people in their 20s to 60s, and physical quantities were measured. Specifically, the cheek analysis region was divided into basic analysis units using multiple fractionation patterns, and the amount of movement of each region was measured. Then, this amount of movement is further analyzed frame by frame by comparing the amount of movement of the basic analysis unit within each fractionation pattern and the amount of movement of the corresponding region between the fractionation patterns. The physical quantity was measured by converting the amount of movement into a scalar quantity. Measurements of such physical quantities were performed for each facial expression change.
(2)粘弾性及び水分量の測定
(1)と同一の対象者について、粘弾性及び水分量を測定した。真皮の粘弾性については、陰圧によって皮膚表面を吸引し、開放した時の皮膚の変位をモニタリングすることにより粘弾性を測定可能な装置を用いて測定した。また、皮下の粘弾性については、エラストグラフィを用いて皮膚内部のエラストグラフィ画像を取得して測定した。表皮の水分量については、高周波正弦電流によって皮表の角層の水分を測定する機器を用いて測定した。
(2) Measurement of viscoelasticity and water content The viscoelasticity and water content were measured for the same subjects as in (1). The viscoelasticity of the dermis was measured using a device capable of measuring viscoelasticity by suctioning the skin surface with negative pressure and monitoring the displacement of the skin when released. Furthermore, subcutaneous viscoelasticity was measured by acquiring an elastography image of the inside of the skin using elastography. The moisture content of the epidermis was measured using a device that measures the moisture content of the stratum corneum on the skin surface using a high-frequency sinusoidal current.
(3)各種モデルの構築
対象者ごとに(1)及び(2)の結果を組として統計解析を行い、真皮及び皮下それぞれの粘弾性算出モデルと、表皮の水分量算出モデルと、を作成した。具体的には、任意の手法で回帰分析を行い、物理量と、粘弾性及び水分量と、の間の関係を記述する関数を求め、粘弾性算出モデル及び水分量算出モデルとして用いた。
(3) Construction of various models A statistical analysis was performed on the results of (1) and (2) for each subject, and a viscoelasticity calculation model for the dermis and subcutaneous skin, and a model for calculating the moisture content of the epidermis were created. . Specifically, regression analysis was performed using an arbitrary method to obtain a function that describes the relationship between a physical quantity, viscoelasticity, and water content, and used as a viscoelasticity calculation model and a water content calculation model.
(4)精度の検証
(1)~(3)とは別の対象者について、同様に物理量、粘弾性及び水分量を測定し、モデルの精度を検証した。具体的には、(3)のモデルを用いて、物理量から粘弾性及び水分量を算出し、実際の測定結果と比較を行った。なお、粘弾性及び水分量は、その値に基づいてそれぞれ複数段階の評価値を決定し、評価値が一致するか否かを確認した。その結果、評価値の1段階のずれを許容した場合の推定精度は以下の通りになった。
表皮水分量:95%
真皮粘弾性:90%
皮下粘弾性:90%
(4) Verification of accuracy Physical quantities, viscoelasticity, and water content were similarly measured for a different subject than in (1) to (3), and the accuracy of the model was verified. Specifically, using the model (3), viscoelasticity and water content were calculated from physical quantities and compared with actual measurement results. For viscoelasticity and water content, evaluation values were determined in multiple stages based on the values, and it was confirmed whether the evaluation values matched. As a result, the estimation accuracy when allowing a one-step deviation in the evaluation value was as follows.
Epidermal moisture content: 95%
Dermal viscoelasticity: 90%
Subcutaneous viscoelasticity: 90%
(4)の結果から、表情変化の過程を表す動画に基づいて取得される皮膚変化の物理量の測定値により、粘弾性及び水分量を高い精度で推定できることが示された。 The results of (4) indicate that viscoelasticity and water content can be estimated with high accuracy using the measured values of physical quantities of skin changes obtained based on videos showing the process of facial expression changes.
<実験結果2>
(1)粘弾性の測定及びコラーゲン構造の評価
<実験結果1>における(2)と同様の方法で、皮下の粘弾性を測定した。そして、同一被験者の超音波画像から皮下脂肪部分を切り出し、これを解析用画像として画像解析ソフトを使用してヒストグラムを作成した。このヒストグラムについて解析を行い、歪度を算出すると、線維化の程度が低いほど歪度が大きく、線維化の程度が高いほど歪度が小さくなった。即ち、歪度によって皮下脂肪を包むコラーゲン線維構造の線維化レベルを評価できる。
<Experiment results 2>
(1) Measurement of viscoelasticity and evaluation of collagen structure Subcutaneous viscoelasticity was measured in the same manner as (2) in <Experimental Results 1>. Then, the subcutaneous fat portion was cut out from the ultrasound image of the same subject, and this was used as an analysis image to create a histogram using image analysis software. When this histogram was analyzed and the skewness was calculated, the lower the degree of fibrosis, the higher the skewness, and the higher the degree of fibrosis, the lower the skewness. That is, the fibrosis level of the collagen fiber structure surrounding subcutaneous fat can be evaluated based on the degree of skewness.
(2)回帰分析
(1)の粘弾性の測定結果及び皮下脂肪細胞の線維化レベルを表す歪度について回帰分析を行った。すると、皮下の粘弾性と、皮下脂肪層の超音波画像のヒストグラムの歪度の間に、正の相関関係が成立することが見出された。
(2) Regression analysis Regression analysis was performed on the viscoelasticity measurement results in (1) and the skewness representing the fibrosis level of subcutaneous fat cells. As a result, it was found that a positive correlation exists between the viscoelasticity of the subcutaneous tissue and the skewness of the histogram of the ultrasound image of the subcutaneous fat layer.
(2)の結果から、皮下の粘弾性により、皮下脂肪細胞の線維化レベル(皮下のコラーゲン構造)を推定できることが示された。更に、皮下の粘弾性は、表情変化の過程を表す動画に基づいて取得される皮膚変化の物理量の測定値によって推定可能であることから、物理量の測定値に基づいて間接的に皮下のコラーゲン構造を推定できる可能性が示された。 The results of (2) showed that the fibrosis level of subcutaneous fat cells (subcutaneous collagen structure) can be estimated from the subcutaneous viscoelasticity. Furthermore, since the subcutaneous viscoelasticity can be estimated by the measured values of physical quantities of skin changes obtained based on videos showing the process of facial expression change, the subcutaneous collagen structure can be estimated indirectly based on the measured values of physical quantities. It was shown that it is possible to estimate the
以下、動画の撮影や解析結果の出力に係る詳細な実施形態の一例を示す。 An example of a detailed embodiment related to video shooting and output of analysis results will be described below.
<動画の撮影>
上述の通り、動画の撮影に際しては、撮影画面において、目や輪郭等の顔部品の位置を合わせるためのガイドを表示することができる。即ち、肌解析装置10又は端末装置20が、被験者の顔における顔部品の位置を合わせるためのガイドを表示処理する手段を備える。ここでは、端末装置20を撮影装置として用いた、より好適な動画の撮影方法について詳細に説明する。なお、以下ではタブレット端末を端末装置20として用いる場合について説明するが、他にも、カメラやジャイロセンサ、加速度センサ等を備えた任意のコンピュータ装置を端末装置として利用できる。
<Video shooting>
As described above, when shooting a video, a guide for aligning facial parts such as eyes and contours can be displayed on the shooting screen. That is, the skin analysis device 10 or the terminal device 20 includes means for displaying a guide for aligning facial parts on the subject's face. Here, a more suitable method of photographing a moving image using the terminal device 20 as a photographing device will be described in detail. Note that although a case will be described below in which a tablet terminal is used as the terminal device 20, any other computer device equipped with a camera, a gyro sensor, an acceleration sensor, etc. can be used as the terminal device.
図14は、端末装置20の外観を示す図である。図14(a)は、端末装置20の背面側を示す図である。ここに示すように、端末装置20の背面側には、カメラCが設けられており、撮影手段201はこれを利用して動画像を撮影する。図14(b)は、端末装置20の正面側を示す図である。ここに示すように、端末装置20の正面側には、撮影者に対する各種の表示や、操作者からの操作の受付等を行うタッチパネルTなどが設けられている。 FIG. 14 is a diagram showing the external appearance of the terminal device 20. As shown in FIG. FIG. 14(a) is a diagram showing the back side of the terminal device 20. As shown here, a camera C is provided on the back side of the terminal device 20, and the photographing means 201 uses this to photograph a moving image. FIG. 14(b) is a diagram showing the front side of the terminal device 20. As shown here, the front side of the terminal device 20 is provided with a touch panel T, etc. that displays various displays for the photographer, receives operations from the operator, and the like.
本実施形態においては、図14に示すように、正面側、あるいは背面側から見た際に略長方形であるタブレット型端末の、長辺方向にx軸を、短辺方向にy軸を、そして正面側から背面側に向かう方向にz軸をそれぞれとり、端末装置20の保持される角度や回転した角度を表現する。ただし、本発明はこれに限るものではなく、他の態様で軸をとるような構成や、端末装置20ではなく被験者を基準として軸をとるような構成としてもよい。 In this embodiment, as shown in FIG. 14, the x-axis is along the long side, the y-axis is along the short side, and The z-axis is taken in the direction from the front side to the back side, and represents the angle at which the terminal device 20 is held and the angle at which it is rotated. However, the present invention is not limited to this, and may have a configuration in which the axis is taken in another manner, or a configuration in which the axis is taken based on the subject instead of the terminal device 20.
図15は、本実施形態における動画の撮影の流れを示すフローチャートである。これは、撮影者が端末装置20を使用し、被験者の顔の表情変化を含む動画を撮影する場合の例を示すものである。被験者には、ここに示す各処理を行う前に、予め、撮影中にどのような表情変化をするかの説明をしておくことが好ましい。なお、この説明は、端末装置20がタッチパネルTに撮影内容を説明するための動画を表示する手段を備えるような構成とし、それを撮影者又は被験者に見せる、といった方法で行ってもよい。 FIG. 15 is a flowchart showing the flow of video shooting in this embodiment. This shows an example in which a photographer uses the terminal device 20 to photograph a moving image that includes changes in facial expressions of a subject. It is preferable to explain to the subject in advance how his/her facial expression will change during imaging before performing each of the processes shown here. Note that this explanation may be performed by a method in which the terminal device 20 is configured to have a means for displaying a moving image for explaining the photographed content on the touch panel T, and this is shown to the photographer or the subject.
まず、ステップS81では、角度のリセットを行う。これは、端末装置20の初期位置を決定するための処理である。本実施形態においては、y軸が鉛直方向と平行になり、x軸が被験者の顔面と略平行状態に、z軸が被験者の顔面に対して略垂直状態となる状態を、端末装置20の初期位置とする。これはすなわち、上から見た場合に、図16(a)に示すような状態となるものである。より具体的には、図17に示すような画面で、端末装置20のタッチパネルTに位置合わせのためのガイドとして被験者の目の高さ、あごの高さ、鼻の位置を合わせるためのガイドラインを、カメラCによって撮影された被験者の顔に重畳表示することで、撮影者に端末装置20の位置合わせを促す。更にz軸の傾きに応じて移動するポインターPを表示することにより、より位置合わせがしやすくなる。そして、タッチパネルTによる操作の受付等(図17における「基準値セット」ボタンの選択)によっての角度のリセットを行い、端末装置20の初期位置を決定する。 First, in step S81, the angle is reset. This is a process for determining the initial position of the terminal device 20. In this embodiment, the initial state of the terminal device 20 is such that the y-axis is parallel to the vertical direction, the x-axis is substantially parallel to the subject's face, and the z-axis is substantially perpendicular to the subject's face. position. That is, when viewed from above, the state is as shown in FIG. 16(a). More specifically, on a screen as shown in FIG. 17, guidelines for aligning the subject's eye height, chin height, and nose position are displayed on the touch panel T of the terminal device 20 as alignment guides. , is displayed superimposed on the subject's face photographed by camera C, thereby prompting the photographer to align the terminal device 20. Furthermore, by displaying a pointer P that moves according to the inclination of the z-axis, alignment becomes easier. Then, the initial position of the terminal device 20 is determined by resetting the angle by accepting an operation using the touch panel T (selecting the "reference value set" button in FIG. 17).
なお、ここで、端末装置20のx軸まわりの回転、すなわち、前後方向の傾きや、z軸まわりの回転、すなわち、左右方向の傾きについても、小さくすることができるよう構成されることが好ましい。このためには、例えば、端末装置20が備えるジャイロセンサや加速度センサ等によって重力加速度等から鉛直方向、及びそれに直交する水平方向を特定し、x軸とz軸のそれぞれについて水平方向との角度の差をそれぞれの軸まわりの傾きとして表示し、これらを0に近づけ、所定の許容範囲に収まるように端末装置20の角度の調整を撮影者へ促す、といったようにすればよい。 Note that it is preferable that the terminal device 20 be configured to be configured so that its rotation around the x-axis, that is, the tilt in the front-back direction, and the rotation around the z-axis, that is, the tilt in the left-right direction, can also be reduced. . For this purpose, for example, the gyro sensor, acceleration sensor, etc. included in the terminal device 20 identify the vertical direction and the horizontal direction perpendicular to the vertical direction based on gravitational acceleration, etc., and calculate the angles of the x-axis and the z-axis with respect to the horizontal direction. The differences may be displayed as inclinations around the respective axes, and the photographer may be prompted to adjust the angle of the terminal device 20 so that they approach 0 and fall within a predetermined allowable range.
このようにして角度のリセットを行い、端末装置20の初期位置を確定した後、ステップS82で、端末装置20の移動を行う。本実施形態においては、端末装置20を25度回転し、左斜め前方25度の角度より被験者の顔を撮影する。ここでは、上から見た場合に図16(b)に示すような状態となるように、端末装置20を被験者に向かって右側に移動することで、被験者の顔を左斜め前方から撮影するよう、位置調整を行う。これはすなわち、被験者に端末装置20のカメラCを向けた状態を保ちながら、被験者を中心として中心角を25度とする円弧を描くように端末装置20を移動させればよい。このような移動を行った場合、図16(b)に示すように、端末装置20はy軸を中心として、反時計回りに25度回転することになる。なお、撮影方向は左右どちらであってもよく、また左右両方からそれぞれ撮影してもよい。 After resetting the angle in this way and determining the initial position of the terminal device 20, the terminal device 20 is moved in step S82. In this embodiment, the terminal device 20 is rotated 25 degrees and the subject's face is photographed from an angle of 25 degrees diagonally forward to the left. Here, the terminal device 20 is moved to the right side toward the subject so that the subject's face is photographed diagonally from the front left, so that the state shown in FIG. , adjust the position. In other words, while keeping the camera C of the terminal device 20 facing the subject, the terminal device 20 may be moved so as to draw an arc with the center angle of 25 degrees centered on the subject. When such a movement is performed, the terminal device 20 is rotated 25 degrees counterclockwise around the y-axis, as shown in FIG. 16(b). Note that the shooting direction may be either left or right, or may be shot from both left and right.
ここでのより具体的な調整方法は、図18(a)に示すように、被験者の目の高さ、あごの高さ、左目の位置を合わせるためのガイドラインをタッチパネルTに表示し、撮影者に位置合わせを促すものである。この際、タッチパネルTに端末装置20のy軸まわりの回転に併せて移動し、25度回転すると中心のガイドラインと重なるポインターPを更に表示し、これが中心のガイドラインと重なり、端末装置20によって回転角度が適切であると判定された場合に、ガイドライン及びポインターの色等、表示形態を変化させる。 A more specific adjustment method here is to display guidelines for adjusting the subject's eye height, chin height, and left eye position on the touch panel T, as shown in Figure 18(a), and then This is to encourage alignment. At this time, a pointer P that moves along with the rotation of the terminal device 20 around the y-axis and overlaps the center guideline when rotated 25 degrees is further displayed on the touch panel T. If it is determined that the guideline and pointer are appropriate, the display format, such as the color of the guideline and pointer, is changed.
なお、端末装置20は撮影者によって保持された状態であるため、ここでは正確に25度である場合のみを許容するような構成でなく、例えば25度±5度、といったように、予め許容する角度範囲を定めておくような構成とすることが好ましい。 Note that since the terminal device 20 is held by the photographer, the configuration here does not allow only the case where the angle is exactly 25 degrees, but allows it in advance, for example, 25 degrees ± 5 degrees. It is preferable to adopt a configuration in which an angular range is determined.
このように、ガイドラインを表示し、それに従って端末装置20の位置合わせを行うことにより、端末装置20が上述した円弧を描くような移動を正確にしない場合でも、被験者が向きを変えていない限りは、所定の角度からの撮影を確実に行うことができる。これにより、端末装置20(あるいは被験者)を器具によって固定し、移動させる、といった構成とせず、端末装置20を保持した撮影者が移動するという構成でも、撮影角度を簡単かつ確実に合わせることができる。 In this way, by displaying the guideline and aligning the terminal device 20 according to the guideline, even if the terminal device 20 does not move accurately in the circular arc described above, as long as the subject does not change direction, , it is possible to reliably take pictures from a predetermined angle. This makes it possible to easily and reliably adjust the shooting angle even in a configuration in which the photographer holding the terminal device 20 moves, rather than in a configuration in which the terminal device 20 (or the subject) is fixed and moved using an instrument. .
なお、本実施形態では、上述したように被験者の目の高さ、あごの高さ、左目の位置に合わせるための3本のガイドラインを表示する構成を示したが、本発明はこれに限るものではない。被験者の顔部品の位置を合わせるための点や線をガイドとして表示し、それに合わせて端末装置20の位置を調整することで、適切な距離から、被験者を適切な位置に収めての画像撮影が可能となる。 Note that in this embodiment, as described above, a configuration is shown in which three guidelines are displayed to match the subject's eye level, chin height, and left eye position, but the present invention is not limited to this. isn't it. By displaying points and lines as guides for aligning the positions of the subject's facial parts and adjusting the position of the terminal device 20 accordingly, images can be taken from an appropriate distance with the subject in an appropriate position. It becomes possible.
なお、この時点においては、回転角度が許容範囲に含まれ、適切であると判定された場合にも、焦点、露出の調整が完了していない状態であるため、録画は開始できない状態である。そのため、録画の開始のためのボタンを押下不可能な状態で表示する、あるいは、表示しないといったように、まだ録画が開始できる状態でないことを撮影者に示すことが好ましい。 Note that at this point, even if the rotation angle is determined to be within the allowable range and appropriate, recording cannot be started because the focus and exposure adjustments have not been completed. Therefore, it is preferable to indicate to the photographer that recording cannot be started yet, such as by displaying a button that cannot be pressed or not displaying the button for starting recording.
ステップS82における端末装置20の移動の結果、ステップS83において端末装置20の回転角度が所定範囲内であると判定された場合、ステップS84へと進み、焦点及び露出の自動調整が行われる。これらの調整は任意の方法で行われればよく、特に本実施形態に係る端末装置20のようにタブレット型端末を用いる場合には、端末上で動作するOS(Operating System)のベンダ等から提供される、カメラの制御に関するAPI(Application Programming Interface)を利用して行うような構成とすればよい。また、自動調整のみでなく、手動での調整が可能な構成としてもよい。ここで、焦点、露出のみでなくISO感度などの画像撮影に関連する他のパラメータについても自動調整する手段を備える構成や、撮影環境の照度を検出し、照度が低い場合にLED(Light Emitting Diode)等によって被験者を照らすような手段を備えるような構成としてもよい。 As a result of the movement of the terminal device 20 in step S82, if it is determined in step S83 that the rotation angle of the terminal device 20 is within the predetermined range, the process proceeds to step S84, where automatic focus and exposure adjustment is performed. These adjustments may be made using any method, and especially when using a tablet terminal like the terminal device 20 according to the present embodiment, adjustments may be made using any method provided by the vendor of the OS (Operating System) running on the terminal. The configuration may be such that it is performed using an API (Application Programming Interface) related to camera control. Further, a configuration may be adopted in which not only automatic adjustment but also manual adjustment is possible. Here, the configuration includes a means to automatically adjust not only the focus and exposure but also other parameters related to image shooting such as ISO sensitivity, and the illuminance of the shooting environment is detected and when the illuminance is low, an LED (Light Emitting Diode) is installed. ) or the like may be provided with a means for illuminating the subject.
ステップS84において焦点及び露出の自動調整が完了した後には、焦点、露出のロック(AFAEロック)が行われる。そして、ステップS85で、焦点、露出の調整が完了したと判定された場合には、ステップS86へ進み、撮影者による録画開始ボタンの押下を受け付ける状態とする。 After the automatic focus and exposure adjustment is completed in step S84, the focus and exposure are locked (AFAE lock). If it is determined in step S85 that the focus and exposure adjustments have been completed, the process advances to step S86, and a state is set in which the press of the recording start button by the photographer is accepted.
そして、録画を開始する指示を撮影者から受けた後、ステップS87でカメラCによる録画を開始する。なお、録画の開始後にも、端末装置20の回転角度の測定を続け、図18(c)に示すように、撮影者へと表示することが好ましい。録画中に回転角度がステップS86で調整した許容範囲から外れた場合には、直ちに録画を中止するような構成としてもよいし、撮影者に回転角度の調整を促し、録画を続行するような構成としてもよい。 After receiving an instruction to start recording from the photographer, recording by camera C is started in step S87. Note that even after the start of recording, it is preferable to continue measuring the rotation angle of the terminal device 20 and display it to the photographer as shown in FIG. 18(c). If the rotation angle falls outside the allowable range adjusted in step S86 during recording, the recording may be stopped immediately, or the recording may be continued after prompting the photographer to adjust the rotation angle. You can also use it as
なお、本実施形態においては、被験者の顔の表情変化を含む動画像を撮影するため、例えば図18(c)に示すように、動画像の録画中に被験者が口を大きく開いた場合にあごの位置がガイドラインよりも下になる、といったように、ステップS82において位置合わせを行った状態からずれるような場合がある。このような場合においても、AFAEロックを行っている状態であるため、被験者の位置と端末装置20の位置が動いていなければ問題ない。あるいは、左目の位置についてはガイドラインに合った状態を維持するように、撮影者が端末装置20の位置を調整する、といったように、表情変化による移動が少ないと考えられる点について、録画中にも合わせ続けるような方法をとってもよい。 In addition, in this embodiment, in order to capture a moving image that includes changes in the subject's facial expression, for example, as shown in FIG. There may be a case where the position is deviated from the state aligned in step S82, such as the position being below the guideline. Even in such a case, there is no problem as long as the subject's position and the position of the terminal device 20 do not move because the AFAE lock is being performed. Alternatively, the photographer may adjust the position of the terminal device 20 so as to maintain the position of the left eye in accordance with the guidelines, which is considered to be less likely to occur due to changes in facial expressions, even during recording. You may also use a method that continues to match.
また、録画中の端末装置20の回転角度の測定は、y軸まわりの回転のみでなく、x軸まわり、z軸まわりの回転、すなわち、端末装置20の前後方向、左右方向の傾きについても行うことが好ましい。ここでも、端末装置20の傾きが所定の許容範囲を超えた場合に、直ちに録画を中止するような構成としてもよいし、撮影者に回転角度の調整を促し、録画を続行するような構成としてもよい。あるいは、端末装置20において、端末装置20の傾きに合わせた補正を行う構成や、録画中の各時点における端末装置20の傾きを記録しておき、後の肌解析装置10での解析時に補正を行うことができるような構成としてもよい。ここでの補正の方法としては、例えば、左右方向の傾きに対するものであれば録画した動画中の各フレーム画像の回転を行えばよいし、前後方向の傾きに対するものであれば、各フレーム画像に台形補正を適用する、といった方法が挙げられる。 Furthermore, the rotation angle of the terminal device 20 during recording is measured not only for the rotation around the y-axis, but also for the rotation around the x-axis and the z-axis, that is, the tilt of the terminal device 20 in the front-rear direction and left-right direction. It is preferable. Here, too, the configuration may be such that recording is immediately stopped when the tilt of the terminal device 20 exceeds a predetermined allowable range, or the configuration may be configured to prompt the photographer to adjust the rotation angle and continue recording. Good too. Alternatively, the terminal device 20 may be configured to perform correction according to the inclination of the terminal device 20, or the inclination of the terminal device 20 at each point in time during recording may be recorded, and the correction may be made during subsequent analysis by the skin analysis device 10. The configuration may be such that it can be performed. For example, if the correction is for horizontal tilt, it is sufficient to rotate each frame image in the recorded video, or if the correction is for longitudinal tilt, it is necessary to rotate each frame image. One method is to apply keystone correction.
そして、ステップS88において、録画を終了すると判定された場合、録画を終了し、ステップS89で動画ファイルとして記録する。ここで、録画の終了の判定は、撮影者の操作に基づくものであってもよいし、所定時間の経過後に録画を終了するような構成としてもよい。このようにして保存された動画ファイルは、肌解析装置10に送信される。 If it is determined in step S88 that the recording should be ended, the recording is ended and recorded as a moving image file in step S89. Here, the determination of the end of recording may be based on the operation of the photographer, or the recording may be ended after a predetermined period of time has elapsed. The video file saved in this way is sent to the skin analysis device 10.
以上のように、本実施形態に係る端末装置20は、特殊な設備や器具を用意せずとも、ジャイロセンサや加速度センサといったセンサ、カメラCを備えるような汎用的なタブレット型端末に専用のプログラムの配備を行うことによって、実現できる。これにより、解析のために、撮影角度などの条件を特定しての動画の撮影を手軽に行うことができる。 As described above, the terminal device 20 according to the present embodiment can be programmed with a dedicated program for a general-purpose tablet terminal equipped with sensors such as a gyro sensor and an acceleration sensor, and a camera C, without the need for special equipment or equipment. This can be achieved by deploying. Thereby, for analysis, it is possible to easily shoot a moving image while specifying conditions such as the shooting angle.
なお、上記の形態においては、被験者の左斜め前方から撮影する例について説明したが、例えば、左右両方の同じ回転角度からそれぞれ動画を撮影し、それらの動画を合成した結果により、物理量を算出してもよい。左右両方向から被験者を撮影する場合、本実施形態では左右両方においてそれぞれ8種類の表情変化、即ち合計16種類の表情変化における解析対象について、移動量を得ることができる。図3のステップS13において、これら16種類の表情変化における解析対象から得られた移動量を用いて、物理量を算出することにより、左右の表情変化から得られる皮膚変化を総合的に考慮した物理量から、皮膚の物性を解析することができる。 In the above embodiment, an example was explained in which the subject was photographed from diagonally in front of the left, but for example, the physical quantity could be calculated by recording videos from the same rotation angle on both the left and right sides and combining the videos. It's okay. When photographing a subject from both the left and right directions, in this embodiment, the amount of movement can be obtained for the analysis target for eight types of facial expression changes in both left and right directions, that is, a total of 16 types of facial expression changes. In step S13 of FIG. 3, by calculating the physical quantity using the movement amount obtained from the analysis target in these 16 types of facial expression changes, the physical quantity is calculated by comprehensively considering the skin changes obtained from the left and right facial expression changes. , the physical properties of the skin can be analyzed.
<物理量の具体例>
解析に用いる物理量としては、例えば、肌の追従性、伸縮性、変形性等が挙げられる。ここで「表情変化における顔の肌の追従性」とは、表情変化に追従して変化する顔の肌の動きの遅れの程度のことである。表情変化が起こる際に、顔の肌はその動きに遅れて変化することになるが、その遅れの程度が小さいほど「追従性に優れる」という。
<Specific examples of physical quantities>
Examples of physical quantities used in the analysis include skin followability, elasticity, deformability, and the like. Here, "followability of the facial skin to a change in facial expression" refers to the degree of delay in the movement of the facial skin following a change in facial expression. When facial expressions change, the skin on the face changes with a delay in response to the movement, and the smaller the degree of delay, the better the followability.
追従性は、表情変化の際の顔の任意の2つの点を観察し、この2つの点の運動のタイミングのズレの程度を測定することにより定量的に評価することができる。例えば、移動量に基づいて、特定の解析領域における運動速度を特定し、解析領域間で運動速度が最大となる時間の差分として定量的に測定する等の方法が考えられる。このとき、表情変化において最も顕著に動く顔の位置に対応した解析領域と、それ以外の顔の位置に対応した解析領域と、を用いて、それらの間で運動速度が最大となる時間の差分を測定することが好ましい。 The followability can be quantitatively evaluated by observing two arbitrary points on the face when the facial expression changes and measuring the degree of timing difference between the movements of these two points. For example, a method can be considered in which the speed of movement in a specific analysis region is specified based on the amount of movement, and quantitatively measured as the difference in time at which the speed of movement reaches its maximum between the analysis regions. At this time, an analysis area corresponding to the position of the face that moves most noticeably during a change in facial expression and an analysis area corresponding to other face positions are used to calculate the difference in the time at which the movement speed reaches its maximum between them. It is preferable to measure.
また、「表情変化における顔の肌の伸縮性」とは、表情変化が起こったときの肌の伸縮のしやすさのことをいう。例えば、顔の肌が伸びる表情変化があったときに、その伸長方向全体の距離の増加分に対する、ある任意の領域における伸長方向の距離の増加分の割合が高いほど「伸縮性に優れる」と評価することができる。例えば、表情変化時の肌の伸長方向に沿った特徴点の座標の変位量等の移動量から、特定の解析領域における、伸長方向の距離の増加分の割合を、伸縮性として評価することができる。 Furthermore, "stretchability of facial skin when facial expression changes" refers to the ease with which the skin stretches and contracts when facial expression changes. For example, when there is an expression change in which the facial skin stretches, the higher the ratio of the increase in the distance in the stretching direction in a given region to the increase in the overall distance in the stretching direction, the better the stretchability. can be evaluated. For example, from the amount of movement such as the displacement of the coordinates of feature points along the direction of skin extension when facial expressions change, it is possible to evaluate the rate of increase in distance in the extension direction in a specific analysis region as elasticity. can.
また変形性としては、顔の任意の位置に対応する解析領域の変形の仕方(歪み方)を測定することが考えられる。変形性の測定方法は限定されないが、例えば、特徴点の変位量、移動方向等の移動量を用いて算出してもよい。 As for deformability, it is possible to measure how an analysis region corresponding to an arbitrary position on the face is deformed (distorted). Although the method for measuring deformability is not limited, it may be calculated using, for example, the amount of displacement of the feature point, the amount of movement such as the direction of movement.
特に、追従性及び伸縮性は、それぞれ年齢と負の相関関係を有し、いずれも加齢によって低下する傾向があることが知られている。また、追従性と皮下の粘弾性との間にも正の相関関係が成立することが知られており、追従性と粘弾性との相関関係に基づいて、粘弾性の算出が可能であると考えられる。 In particular, it is known that trackability and elasticity each have a negative correlation with age, and both tend to decrease with age. It is also known that there is a positive correlation between conformability and subcutaneous viscoelasticity, and it is possible to calculate viscoelasticity based on the correlation between conformability and viscoelasticity. Conceivable.
<解析結果の出力>
肌解析装置10は、解析結果を出力する出力手段を更に備えていてもよい。出力手段は、解析結果として、真皮及び皮下の粘弾性、表皮の水分量、真皮及び皮下のコラーゲン構造の算出結果、またそれらの評価値等に基づく情報を出力する。出力の形態は限定されず、端末装置20において静的又は動的画像として表示してもよいし、音や振動、文字として出力してもよい。
<Output of analysis results>
The skin analysis device 10 may further include an output means for outputting the analysis results. The output means outputs, as analysis results, information based on calculation results of dermal and subcutaneous viscoelasticity, epidermal moisture content, dermal and subcutaneous collagen structures, evaluation values thereof, and the like. The form of output is not limited, and may be displayed as a static or dynamic image on the terminal device 20, or may be output as sound, vibration, or text.
更に、粘弾性及び水分量の算出結果やコラーゲン構造の推定結果だけでなく、解析に用いられる物理量、即ち、粘弾性、水分量及びコラーゲン構造の何れかと相関関係を有する物理量に基づく情報を、出力してもよい。これにより、測定した値や撮影された動画により得られた値がどのように解析結果に影響するのかをわかりやすく示すことができる。 Furthermore, in addition to the calculation results of viscoelasticity and water content and the estimation results of collagen structure, it also outputs information based on physical quantities used in analysis, that is, physical quantities that have a correlation with any of viscoelasticity, water content, and collagen structure. You may. This makes it possible to clearly show how measured values and values obtained from captured videos affect the analysis results.
<コラーゲン構造の推定に係る変形例>
上記の実施形態においては、コラーゲン構造推定手段52が、粘弾性算出手段51による算出結果及び粘弾性―コラーゲン構造相関関係データを用いてコラーゲン構造を推定する形態を示したが、本発明はこれに限られない。上述の通り、物理量及び粘弾性の間の相関関係が認められ、更に粘弾性及びコラーゲン構造の間の相関関係が認められることから、物理量及びコラーゲン構造の間にも、直接の相関関係が存在する蓋然性が高い。
<Modifications related to estimation of collagen structure>
In the above embodiment, the collagen structure estimating means 52 estimates the collagen structure using the calculation result by the viscoelasticity calculating means 51 and the viscoelasticity-collagen structure correlation data. Not limited. As mentioned above, a correlation is observed between physical quantities and viscoelasticity, and a correlation is also observed between viscoelasticity and collagen structure, so there is also a direct correlation between physical quantities and collagen structure. High probability.
従って、例えば、コラーゲン構造推定手段52が、物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての物理量の測定値から被験者の皮膚のコラーゲン構造を直接推定してもよい。 Therefore, for example, the collagen structure estimating means 52 may directly estimate the collagen structure of the subject's skin from the measured value of the physical quantity for the subject, based on the correlation between the physical quantity and the collagen structure of the skin.
この場合には、記憶手段4は、物理量―コラーゲン構造相関関係データとして、物理量とコラーゲン構造に関する指標との間の関係を表す関数を記憶しており、この関数に物理量測定手段3が測定した物理量を代入することで、コラーゲン構造の指標を算出できる。 In this case, the storage means 4 stores a function representing the relationship between the physical quantity and an index related to the collagen structure as physical quantity-collagen structure correlation data, and the physical quantity measured by the physical quantity measuring means 3 is added to this function. By substituting , an index of collagen structure can be calculated.
なお、粘弾性の算出を介さずに、物理量から直接コラーゲン構造を推定する場合にも、既述した実施形態と同様に、皮下のコラーゲン構造及び真皮のコラーゲン構造、並びにその評価値を推定することが好ましい。即ち、記憶手段4は、物理量と皮下のコラーゲン構造(例えば皮下脂肪層の超音波画像を解析して得られるヒストグラムの歪度)との相関関係、及び、物理量と真皮のコラーゲン構造(例えば真皮コラーゲン線維の顕微鏡撮影画像から得られるコラーゲン線維の結束度を定量化した値)との相関関係を、それぞれ記憶する。 Note that even when estimating the collagen structure directly from physical quantities without calculating viscoelasticity, the subcutaneous collagen structure, the dermal collagen structure, and their evaluation values can be estimated in the same manner as in the previously described embodiments. is preferred. That is, the storage means 4 stores the correlation between the physical quantity and the subcutaneous collagen structure (for example, the skewness of a histogram obtained by analyzing an ultrasound image of the subcutaneous fat layer), and the correlation between the physical quantity and the dermal collagen structure (for example, the dermal collagen structure). The correlation with the value obtained by quantifying the degree of cohesion of collagen fibers obtained from microscopic images of the fibers is memorized.
このように、物理量とコラーゲン構造との相関関係に基づいてコラーゲン構造を推定することにより、粘弾性を介してコラーゲン構造を推定する場合に比べて、推定精度の向上効果が期待できる。 In this way, by estimating the collagen structure based on the correlation between the physical quantity and the collagen structure, an improvement in estimation accuracy can be expected compared to the case where the collagen structure is estimated via viscoelasticity.
10 肌解析装置
1 動画取得手段
2 解析対象抽出手段
3 物理量測定手段
31 特徴点抽出手段
32 移動量測定手段
33 移動量解析手段
4 記憶手段
5 解析部
51 粘弾性算出手段
511 皮下粘弾性算出手段
512 真皮粘弾性算出手段
52 コラーゲン構造推定手段
521 皮下コラーゲン構造推定手段
522 真皮コラーゲン構造推定手段
53 水分量算出手段
6 評価手段
61 真皮粘弾性評価手段
62 皮下粘弾性評価手段
63 真皮コラーゲン構造評価手段
64 皮下コラーゲン構造評価手段
65 水分量評価手段
20 端末装置
201 撮影手段
202 表示部
C カメラ
T タッチパネル
P ポインター
10 Skin analysis device 1 Video acquisition means 2 Analysis target extraction means 3 Physical quantity measurement means 31 Feature point extraction means 32 Movement amount measurement means 33 Movement amount analysis means 4 Storage means 5 Analysis section 51 Viscoelasticity calculation means 511 Subcutaneous viscoelasticity calculation means 512 Dermal viscoelasticity calculation means 52 Collagen structure estimation means 521 Subcutaneous collagen structure estimation means 522 Dermal collagen structure estimation means 53 Water content calculation means 6 Evaluation means 61 Dermal viscoelasticity evaluation means 62 Subcutaneous viscoelasticity evaluation means 63 Dermal collagen structure evaluation means 64 Subcutaneous Collagen structure evaluation means 65 Water content evaluation means 20 Terminal device 201 Photographing means 202 Display section C Camera T Touch panel P Pointer
Claims (34)
前記物理量は、前記表情変化の過程を含む動画に基づいて測定されることを特徴とし、
前記動画は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20~30度の範囲で回転させた方向から撮影されることを特徴とし、
前記動画は、被験者を正面から捉えた状態を初期位置とし、前記初期位置からの撮影装置の回転角度を取得し、前記回転角度が20~30度の範囲内である場合に前記動画の撮影を許可し、前記許可に基づいて撮影されることを特徴とする、肌解析方法。 A skin analysis method, comprising calculating the viscoelasticity of the subject's skin from the measured values of the physical quantity for the subject, based on the correlation between the physical quantity of skin changes caused by changes in facial expression and the viscoelasticity of the skin. And,
The physical quantity is measured based on a video including the process of facial expression change,
The video is characterized in that it is shot from a direction rotated within a range of 20 to 30 degrees with the front as 0 degrees around a vertical axis passing through the subject's face,
The video is captured with the subject viewed from the front as an initial position, the rotation angle of the imaging device from the initial position is obtained, and the video is captured when the rotation angle is within a range of 20 to 30 degrees. A skin analysis method, characterized in that the skin analysis method is characterized in that the skin is photographed based on the permission.
前記物理量は、前記表情変化の過程を含む動画に基づいて測定されることを特徴とし、
前記動画は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20~30度の範囲で回転させた方向から撮影されることを特徴とし、
前記動画は、被験者を正面から捉えた状態を初期位置とし、前記初期位置からの撮影装置の回転角度を取得し、前記回転角度が20~30度の範囲内である場合に前記動画の撮影を許可し、前記許可に基づいて撮影されることを特徴とする、肌解析方法。 A skin analysis method, comprising estimating the collagen structure of the skin of a subject from the measured values of the physical quantity for the subject, based on the correlation between the physical quantity of skin changes caused by changes in facial expression and the collagen structure of the skin. And,
The physical quantity is measured based on a video including the process of facial expression change,
The video is characterized in that it is shot from a direction rotated within a range of 20 to 30 degrees with the front as 0 degrees around a vertical axis passing through the subject's face,
The video is captured with the subject viewed from the front as an initial position, the rotation angle of the imaging device from the initial position is obtained, and the video is captured when the rotation angle is within a range of 20 to 30 degrees. A skin analysis method, characterized in that the skin analysis method is characterized in that the skin is photographed based on the permission.
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚の粘弾性との相関関係を記憶する記憶手段と、
前記物理量と皮膚の粘弾性との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚の粘弾性を算出する粘弾性算出手段と、を備え、
前記表情変化の過程を含む動画を取得する動画取得手段を更に備え、
前記物理量測定手段は、前記動画に基づいて前記物理量を測定することを特徴とし、
前記動画取得手段は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20~30度の範囲で回転させた方向から、被験者の顔を撮影した動画を取得することを特徴とし、
前記動画取得手段は、被験者を所定の条件で撮影するための端末装置によって撮影された前記動画を取得し、
前記端末装置は、
被験者を正面から捉えた状態を初期位置とし、前記初期位置からの前記端末装置の回転角度を取得する手段と、
前記回転角度が20~30度の範囲内である場合に前記動画の撮影を許可する手段と、
前記許可に基づいて前記動画を撮影する手段と、を備えることを特徴とする、肌解析システム。 A skin analysis system that analyzes a subject's skin based on skin movements when facial expressions change,
a physical quantity measuring means for measuring a physical quantity of skin change caused by the facial expression change;
Storage means for storing the correlation between the physical quantity and the viscoelasticity of the skin;
a viscoelasticity calculation means for calculating the viscoelasticity of the subject's skin from the measured value of the physical quantity for the subject based on the correlation between the physical quantity and the viscoelasticity of the skin ,
Further comprising a video acquisition means for acquiring a video including the process of facial expression change,
The physical quantity measuring means measures the physical quantity based on the moving image,
The video acquisition means is characterized in that it acquires a video of the subject's face from a direction rotated in a range of 20 to 30 degrees with the front as 0 degrees around a vertical axis passing through the subject's face,
The video acquisition means acquires the video taken by a terminal device for photographing the subject under predetermined conditions,
The terminal device is
means for obtaining a rotation angle of the terminal device from the initial position, with a state in which the subject is viewed from the front as an initial position;
means for permitting recording of the video when the rotation angle is within a range of 20 to 30 degrees;
A skin analysis system comprising: means for photographing the video based on the permission.
前記粘弾性算出手段は、前記粘弾性算出モデルを用いて、被験者について測定された前記物理量から前記粘弾性を算出することを特徴とする、請求項18又は19に記載の肌解析システム。 The storage means stores a viscoelasticity calculation model created by inputting a plurality of sets of measured values of the physical quantity and viscoelasticity,
20. The skin analysis system according to claim 18, wherein the viscoelasticity calculation means uses the viscoelasticity calculation model to calculate the viscoelasticity from the physical quantity measured for the subject.
前記粘弾性と肌のコラーゲン構造との相関関係に基づいて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定するコラーゲン構造推定手段を更に備えることを特徴とする、請求項18~20の何れかに記載の肌解析システム。 the storage means stores a correlation between the viscoelasticity and the collagen structure of the skin;
18. The method further comprises collagen structure estimating means for estimating the collagen structure of the subject's skin from the viscoelasticity calculated for the subject based on the correlation between the viscoelasticity and the collagen structure of the skin. ~20 . The skin analysis system according to any one of 20.
によって作成されたコラーゲン構造推定モデルを記憶し、
前記コラーゲン構造推定手段は、前記コラーゲン構造推定モデルを用いて、被験者について算出された前記粘弾性から被験者の肌のコラーゲン構造を推定することを特徴とする、請求項21に記載の肌解析システム。 The storage means stores a collagen structure estimation model created by inputting a plurality of sets of measured values of the viscoelasticity and collagen structure of the skin,
22. The skin analysis system according to claim 21 , wherein the collagen structure estimating means estimates the collagen structure of the subject's skin from the viscoelasticity calculated for the subject using the collagen structure estimation model.
前記表情変化によって生じる皮膚変化の物理量を測定する物理量測定手段と、
前記物理量と皮膚のコラーゲン構造との相関関係を記憶する記憶手段と、
前記物理量と皮膚のコラーゲン構造との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の皮膚のコラーゲン構造を推定するコラーゲン構造推定手段と、を備え、
前記表情変化の過程を含む動画を取得する動画取得手段を更に備え、
前記物理量測定手段は、前記動画に基づいて前記物理量を測定することを特徴とし、
前記動画取得手段は、被験者の顔を通る鉛直方向の軸まわりに正面を0度として20~30度の範囲で回転させた方向から、被験者の顔を撮影した動画を取得することを特徴とし、
前記動画取得手段は、被験者を所定の条件で撮影するための端末装置によって撮影された前記動画を取得し、
前記端末装置は、
被験者を正面から捉えた状態を初期位置とし、前記初期位置からの前記端末装置の回転角度を取得する手段と、
前記回転角度が20~30度の範囲内である場合に前記動画の撮影を許可する手段と、
前記許可に基づいて前記動画を撮影する手段と、を備えることを特徴とする、肌解析システム。 A skin analysis system that analyzes a subject's skin based on skin movements when facial expressions change,
a physical quantity measuring means for measuring a physical quantity of skin change caused by the facial expression change;
storage means for storing the correlation between the physical quantity and the collagen structure of the skin;
Collagen structure estimating means for estimating the collagen structure of the subject's skin from the measured value of the physical quantity for the subject based on the correlation between the physical quantity and the collagen structure of the skin ,
Further comprising a video acquisition means for acquiring a video including the process of facial expression change,
The physical quantity measuring means measures the physical quantity based on the moving image,
The video acquisition means is characterized in that it acquires a video of the subject's face from a direction rotated in a range of 20 to 30 degrees with the front as 0 degrees around a vertical axis passing through the subject's face,
The video acquisition means acquires the video taken by a terminal device for photographing the subject under predetermined conditions,
The terminal device is
means for obtaining a rotation angle of the terminal device from the initial position, with a state in which the subject is viewed from the front as an initial position;
means for permitting recording of the video when the rotation angle is within a range of 20 to 30 degrees;
A skin analysis system comprising: means for photographing the video based on the permission.
前記物理量と表皮の水分量との相関関係に基づいて、被験者についての前記物理量の測定値から被験者の表皮の水分量を算出する水分量算出手段を更に備えることを特徴とする、請求項18~32の何れかに記載の肌解析システム。 the storage means stores a correlation between the physical quantity and the moisture content of the epidermis;
18. The method further comprises a moisture content calculation means for calculating the moisture content of the epidermis of the subject from the measured value of the physical quantity for the subject based on the correlation between the physical quantity and the moisture content of the epidermis. 32. The skin analysis system according to any one of 32 .
前記水分量算出手段は、前記水分量算出モデルを用いて、被験者について測定された前記物理量から前記水分量を算出することを特徴とする、請求項33に記載の肌解析システム。 The storage means stores a moisture content calculation model created by inputting a plurality of sets of measured values of the physical quantity and moisture content,
34. The skin analysis system according to claim 33 , wherein the moisture content calculation means uses the moisture content calculation model to calculate the moisture content from the physical quantity measured for the subject.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019022986 | 2019-02-12 | ||
JP2019022986 | 2019-02-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020131026A JP2020131026A (en) | 2020-08-31 |
JP7356927B2 true JP7356927B2 (en) | 2023-10-05 |
Family
ID=72277209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020021669A Active JP7356927B2 (en) | 2019-02-12 | 2020-02-12 | Skin analysis method, skin analysis system and skin analysis program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7356927B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115946150B (en) * | 2022-12-13 | 2023-11-14 | 深圳无芯科技有限公司 | Head structure with facial expression and robot with same |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001052724A1 (en) | 2000-01-19 | 2001-07-26 | Pola Chemical Industries Inc. | Device for measuring physical properties of elastic bodies |
JP2002034930A (en) | 2000-06-21 | 2002-02-05 | Koraaji & Hazaka Elektronik Gmbh | Measuring device for measuring elastic characteristic of surface structure |
JP2009518125A (en) | 2005-12-07 | 2009-05-07 | イーエルシー マネージメント エルエルシー | Method for evaluating the effects of exogenous and intrinsic factors on the skin |
US20160174878A1 (en) | 2014-12-22 | 2016-06-23 | Avon Products, Inc. | System and Method for Measuring Skin Firmness |
WO2017221798A1 (en) | 2016-06-20 | 2017-12-28 | 公立大学法人大阪市立大学 | Skin diagnosing device, skin condition output method, program and recording medium |
CN108056759A (en) | 2018-01-12 | 2018-05-22 | 苏州玺氏贸易有限公司 | A kind of facial-care system |
JP2018115913A (en) | 2017-01-17 | 2018-07-26 | 花王株式会社 | Skin distortion measuring method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6788439B2 (en) * | 2016-08-31 | 2020-11-25 | 本田技研工業株式会社 | Delivery support device |
JP2018108038A (en) * | 2016-12-28 | 2018-07-12 | クアーズテック株式会社 | Cell culture carrier |
-
2020
- 2020-02-12 JP JP2020021669A patent/JP7356927B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001052724A1 (en) | 2000-01-19 | 2001-07-26 | Pola Chemical Industries Inc. | Device for measuring physical properties of elastic bodies |
JP2002034930A (en) | 2000-06-21 | 2002-02-05 | Koraaji & Hazaka Elektronik Gmbh | Measuring device for measuring elastic characteristic of surface structure |
JP2009518125A (en) | 2005-12-07 | 2009-05-07 | イーエルシー マネージメント エルエルシー | Method for evaluating the effects of exogenous and intrinsic factors on the skin |
US20160174878A1 (en) | 2014-12-22 | 2016-06-23 | Avon Products, Inc. | System and Method for Measuring Skin Firmness |
WO2017221798A1 (en) | 2016-06-20 | 2017-12-28 | 公立大学法人大阪市立大学 | Skin diagnosing device, skin condition output method, program and recording medium |
JP2018115913A (en) | 2017-01-17 | 2018-07-26 | 花王株式会社 | Skin distortion measuring method |
CN108056759A (en) | 2018-01-12 | 2018-05-22 | 苏州玺氏贸易有限公司 | A kind of facial-care system |
Also Published As
Publication number | Publication date |
---|---|
JP2020131026A (en) | 2020-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10297076B2 (en) | Apparatus and method for generating 3D face model using mobile device | |
CN101243471B (en) | System and method of analyzing the movement of a user | |
WO2021052208A1 (en) | Auxiliary photographing device for movement disorder disease analysis, control method and apparatus | |
CN108875485A (en) | A kind of base map input method, apparatus and system | |
Zhu et al. | A computer vision-based system for stride length estimation using a mobile phone camera | |
JP2021128807A (en) | Evaluation method, evaluation device, and evaluation program | |
CN113569793A (en) | Fall identification method and device | |
JP7356927B2 (en) | Skin analysis method, skin analysis system and skin analysis program | |
US11779260B2 (en) | Cognitive function evaluation method, cognitive function evaluation device, and non-transitory computer-readable recording medium in which cognitive function evaluation program is recorded | |
JP7321951B2 (en) | SKIN ANALYSIS METHOD, SKIN ANALYSIS SYSTEM AND SKIN ANALYSIS PROGRAM | |
KR101610951B1 (en) | Method for measuring ocular version and apparatus thereof | |
WO2021192906A1 (en) | Calculation method | |
CN104331705B (en) | Automatic detection method for gait cycle through fusion of spatiotemporal information | |
KR20160035497A (en) | Body analysis system based on motion analysis using skeleton information | |
JP2022185838A5 (en) | ||
WO2021192908A1 (en) | Tracking method | |
JP7370840B2 (en) | Image processing device, image processing method, computer program and storage medium | |
JP7183005B2 (en) | Skin analysis method and skin analysis system | |
JP2010166939A (en) | Expression measuring method, expression measuring program, and expression measuring apparatus | |
JP2002373340A (en) | Method for extracting motion characteristic, and device and program for recognizing motion | |
WO2021192905A1 (en) | Guide method | |
KR102502420B1 (en) | Method and apparatus for measuring eye movement | |
WO2021192907A1 (en) | Output method | |
JP6661882B2 (en) | Information processing apparatus, tremor information display method, information processing system, and program | |
KR101269175B1 (en) | Method for detecting an area and area detecting apparatus applying the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230627 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230810 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20230810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230925 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7356927 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |