[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6650819B2 - 色ムラ部位の評価方法、色ムラ部位評価装置及び色ムラ部位評価プログラム - Google Patents

色ムラ部位の評価方法、色ムラ部位評価装置及び色ムラ部位評価プログラム Download PDF

Info

Publication number
JP6650819B2
JP6650819B2 JP2016082380A JP2016082380A JP6650819B2 JP 6650819 B2 JP6650819 B2 JP 6650819B2 JP 2016082380 A JP2016082380 A JP 2016082380A JP 2016082380 A JP2016082380 A JP 2016082380A JP 6650819 B2 JP6650819 B2 JP 6650819B2
Authority
JP
Japan
Prior art keywords
skin image
color unevenness
color
image
skin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016082380A
Other languages
English (en)
Other versions
JP2017189536A (ja
Inventor
久美子 菊地
久美子 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2016082380A priority Critical patent/JP6650819B2/ja
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Priority to EP17782122.0A priority patent/EP3443899A4/en
Priority to CN201780022594.8A priority patent/CN109069065B/zh
Priority to KR1020187031765A priority patent/KR20180130553A/ko
Priority to US16/090,666 priority patent/US10786197B2/en
Priority to PCT/JP2017/006522 priority patent/WO2017179304A1/ja
Priority to TW106111985A priority patent/TW201738842A/zh
Publication of JP2017189536A publication Critical patent/JP2017189536A/ja
Application granted granted Critical
Publication of JP6650819B2 publication Critical patent/JP6650819B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/444Evaluating skin marks, e.g. mole, nevi, tumour, scar
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/443Evaluating skin constituents, e.g. elastin, melanin, water
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dermatology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本願は、色ムラ部位の評価方法、色ムラ部位評価装置及び色ムラ部位評価装置評価プログラムに関する。
例えば顔全体や、目のまわりや頬等の部位において視感等により特定したシミやそばかすに対し、分光測色計等の機器を用いて色情報又は皮膚の色素成分情報を定量化し、定量化した色情報又は皮膚の色素成分情報に基づいて、シミやそばかすを評価する方法が知られている。色情報の定量化は、例えば複数の波長の分光反射率データを用いて主成分分析を行って得られるメラニンに関する主成分得点の測定領域における平均値に基づいている(例えば、特許文献1参照)。
特開2003−144393号公報 特開2001−325584号公報
ところで、シミ等の色ムラ部位の状態は、加齢とともに変化したり、季節の影響により変化することがある。また、ある色ムラ部位の状態は、例えば美白剤等の薬剤の効果により変化することもある。しかし、従来、このような色ムラ部位それぞれの変化を捕らえて評価することができていなかった。
なお、特許文献2には、2以上の画像を位置合わせする画像の位置合わせ方法が記載されており、特定の構造物を重視した特定構造物重視画像を取得し、該取得された特定構造物重視画像間で構造的対応位置関係を求め、該求められた構造的対応位置関係に基づいて、前記2以上の画像を位置合わせすることが記載されている。しかし、このような方法では2以上の画像の色ムラ部位同士を対応付けることはできない。
一つの側面では、本発明は、肌画像に含まれる各色ムラ部位の変化を捕らえて評価することを目的とする。
一つの形態によれば、第1の肌画像及び当該第1の肌画像とは異なる第2の肌画像それぞれから、複数の色ムラ部位を検出する色ムラ部位検出ステップと、前記第1の肌画像及び前記第2の肌画像それぞれの各前記色ムラ部位の重心位置座標を算出する重心位置算出ステップと、前記重心位置算出ステップで算出された各前記色ムラ部位の前記重心位置座標に基づき、前記第1の肌画像に含まれる前記複数の色ムラ部位と前記第2の肌画像に含まれる前記複数の色ムラ部位とを対応付けるマッチング処理ステップと、を含む色ムラ部位の評価方法が提供される。
肌画像に含まれる各色ムラ部位の変化を捕らえて評価することができる。
本実施形態のシミ評価装置の機能構成の一例を示す図である。 シミ評価処理が実現可能なハードウェア構成の一例を示す図である。 シミ評価処理の一例を示すフローチャートである。 シミ検出処理の一例を示すフローチャートである。 第1の肌画像と第2の肌画像との位置合わせを行い、座標の基準点を決定する処理の一例を示す模式図である。 各シミの重心位置座標を算出する処理の一例を示す模式図である。 シミ同士の対応付けを行う処理を示す模式図である。 図7の処理を行った場合の第1の肌画像及び第2の肌画像の複数のシミの対応関係の一例を模式的に示す図である。 シミの変化パターンを示す図である。 各シミに関する情報の一例を示す図である。 本実施形態のシミ評価装置により対応付けられるシミの具体例を示す図である。
以下、本発明を実施するための形態について図面を参照して説明するが、本発明は、下記の実施形態に制限されることはなく、本発明の範囲を逸脱することなく、下記の実施形態に種々の変形および置換を加えることができる。
本実施形態において、色ムラ部位の一例としてシミを対象とし、色ムラ部位の評価方法としてシミ評価処理を例として説明する。ここで、シミとは、肌にメラニン色素等の色素が沈着した状態であって、肌の色素が沈着した部位と沈着していない部位との境界が明瞭である程度に色素が沈着した状態をいう。具体的には、シミは、例えば老人性色素斑又は日光性黒子、炎症後色素沈着、そばかす、肝斑等を含む。
図1は、本実施形態のシミ評価装置10の機能構成の一例を示す図である。
シミ評価装置10は、入力部11と、出力部12と、記憶部13と、画像取得部14と、シミ検出部15と、重心位置算出部16と、マッチング処理部17と、シミ評価部18と、制御部19とを有する。
入力部11は、例えばシミ評価装置10を使用するユーザ等から、シミ評価処理に関する各種指示の開始、終了、設定等の入力を受け付ける。出力部12は、入力部11により入力された内容や、入力内容に基づいて実行された内容等の出力を行う。出力部12は、例えば画像取得部14、シミ検出部15、重心位置算出部16、マッチング処理部17、シミ評価部18等による処理による結果を後述するディスプレイ等に表示する処理を行う。
本実施形態において、画像取得部14は、第1の肌画像及び当該第1の肌画像とは異なる第2の肌画像を取得する。ここで、第1の肌画像及び第2の肌画像は、同一被験者の異なる時期における同一対象箇所を撮影して得られた肌画像とすることができる。
また、第1の肌画像及び第2の肌画像は、例えば被験者の頬全体が撮影された肌画像とすることができる。また、第1の肌画像及び第2の肌画像は、例えば拡散照明ボックスとデジタルカメラとから構成されるSIA(Skin Image Analyzer)システム等により撮影された被験者の顔画像から、特定される部位(例えば、目の周りや頬等)を抽出した肌画像とすることができる。
シミ検出部15は、第1の肌画像及び第2の肌画像それぞれから、複数のシミを検出する。重心位置算出部16は、第1の肌画像及び第2の肌画像それぞれの各シミの重心位置座標を算出する。マッチング処理部17は、重心位置算出部16が算出した各シミの重心位置座標に基づき、第1の肌画像に含まれる複数のシミと第2の肌画像に含まれる複数のシミとを対応付ける。
シミ評価部18は、マッチング処理部17が対応付けたシミの対応関係に基づき、シミの変化を評価する。
制御部19は、シミ評価装置10の各構成部全体の制御を行う。制御部19は、例えば肌画像に対するシミ検出、重心位置算出、マッチング処理、シミ評価等のうち少なくとも1つを制御するが、制御部19が制御する内容はこれに限定されるものではない。
記憶部13は、本実施形態において必要な各種情報を記憶する。具体的には、記憶部13は、本実施形態のシミ評価処理を実行するための各種プログラムや、各種設定情報等を記憶する。記憶部13は、第1の肌画像及び第2の肌画像や、各肌画像に含まれるシミに関する情報(シミの数、各シミの面積、各シミの濃さ、各シミの重心位置座標、シミの対応関係等)、評価結果等を記憶する。
ここで、記憶部13は、上述したような多種の情報の集合物であり、例えばキーワード等を用いて検索し、抽出可能に体系的に構成されているデータベースとしての機能を有していてもよい。更に、記憶部13に記憶される情報は、例えばインターネットやLAN(Local Area Network)等に代表される通信ネットワークを介して外部装置から取得したものであってもよい。
シミ評価装置10は、例えばPC(Personal Computer)等の汎用のコンピュータ、スマートフォンやタブレット端末等に、図1に示すシミ評価装置10の各機能をコンピュータに実行させる実行プログラム(シミ評価プログラム)をインストールすることにより実現することができる。
(ハードウェア構成)
図2は、シミ評価処理が実現可能なハードウェア構成の一例を示す図である。シミ評価装置10は、入力装置21と、出力装置22と、ドライブ装置23と、補助記憶装置24と、メモリ装置25と、各種制御を行うCPU(Central Processing Unit)26と、ネットワーク接続装置27とを有し、これらはシステムバスBで相互に接続されている。
入力装置21は、ユーザ等が操作するキーボード、マウス等のポインティングデバイスとすることができる。また、入力装置21は、例えば音声等により入力が可能なマイク等の音声入力デバイスであってもよい。
出力装置22は、ディスプレイやスピーカ等とすることができる。また、出力装置22は、プリンタ等の印刷デバイスとすることもできる。
なお、上述した入力装置21と出力装置22とは、例えばシミ評価装置10がスマートフォンやタブレット端末等のような場合には、例えばタッチパネルのように入出力一体型の構成であってもよい。
ここで、本実施形態においてシミ評価装置10にインストールされる実行プログラムは、例えば、USB(Universal Serial Bus)メモリやCD−ROM等の可搬型の記録媒体28等により提供される。記録媒体28は、ドライブ装置23にセット可能であり、記録媒体28に含まれる実行プログラムが、記録媒体28からドライブ装置23を介して補助記憶装置24にインストールされる。
補助記憶装置24は、ハードディスク等のストレージ手段であり、本実施形態の実行プログラムや、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行うことができる。
メモリ装置25は、CPU26により補助記憶装置24から読み出された実行プログラム等を格納する。なお、メモリ装置25は、ROM(Read Only Memory)やRAM(Random Access Memory)等である。なお、上述した補助記憶装置24やメモリ装置25は、1つの記憶装置として一体型に構成されていてもよい。
CPU26は、OS(Operating System)等の制御プログラム、及びメモリ装置25に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、本実施形態のシミ評価処理を実現する。なお、プログラム実行中に必要な各種情報等は、補助記憶装置24から取得し、実行結果等を格納してもよい。
ネットワーク接続装置27は、インターネットやLAN等に代表される通信ネットワーク等と接続することにより、例えば実行プログラムや各種データを通信ネットワークに接続されている他の装置等から取得する。また、ネットワーク接続装置27は、プログラムを実行することで得られた実行結果等を他の装置等に提供することも可能である。
上述したハードウェア構成により、本実施形態のシミ評価処理を実行することが可能となる。また、実行プログラムをインストールすることにより、汎用のPC等で本実施形態のシミ評価処理を容易に実現することが可能である。
(シミ評価処理)
図3は、シミ評価処理の一例を示すフローチャートである。
本実施の形態において、画像取得部14は、第1の肌画像及び第2の肌画像の2つの肌画像を取得する(ステップS102)。第1の肌画像及び第2の肌画像は、例えば、同一被験者の美白薬剤等の薬剤の適用前と所定期間適用後の画像、同一被験者の加齢変化画像、同一被験者の異なる季節の画像等の、同一被験者の異なる時期における同一対象箇所を撮影して得られた肌画像とすることができる。なお、本実施形態の以下の説明では、第2の肌画像は、第1の肌画像と同一被験者の同一対象箇所を第1の肌画像よりも後に撮影して得られた肌画像とする。
画像取得部14は、第1の肌画像及び第2の肌画像として、例えば被験者の頬の所定の領域が撮影された肌画像(500×500画素の画素領域等)を解析領域として取得することができる。また、画像取得部14は、被験者の顔画像を取得し、顔画像輪郭等に基づき、例えば頬の所定の領域(500×500画素の画素領域等)を解析領域として抽出して第1の肌画像及び第2の肌画像とすることもできる。ただし、例えば、後に例えばステップS106の処理で第1の肌画像と第2の肌画像との位置合わせを行う際に、ずれが生じた場合でも充分な解析領域を確保するため、第1の肌画像100及び第2の肌画像102は、このように定めた解析領域よりも広めの範囲の領域を含む構成とすることができる。
シミ検出部15は、画像取得部14により取得された第1の肌画像及び第2の肌画像に対して画像処理を実行し、第1の肌画像及び第2の肌画像それぞれからシミを検出する(ステップS104)。シミ検出部15の処理について、図4を参照して詳細に説明する。
(シミ検出処理)
図4は、ステップS104のシミ検出処理を詳細に示すフローチャートである。以下の処理は、第1の肌画像及び第2の肌画像それぞれに対して行われる。
シミ検出部15は、解析領域である肌画像のメラニン成分やヘモグロビン成分等の色素成分を算出し、色素成分の濃さ及びその分布状態を示す画像(色素成分の分布画像)に変換する(ステップS11)。具体的には、シミ検出部15は、解析領域のRGB表色系RGB値、RGB表色系から変換されたCIE国際基準値であるCIE−XYZ値、色彩データLab値等を取得する。
なお、RGB表色系RGB値は、例えば以下の式を用いて、CIE−XYZ値へと変換することができる。
X=0.001645×R+0.001116×G+0.000314×B+2.585143
Y=0.001110×R+0.002080×G+0.000065×B+2.359088
Z=0.000439×R+0.000610×G+0.002439×B+2.757769 (式1)
また、(式1)から得られたXYZ値は、本出願人による特許第3727807号公報等に記載された手法により、以下の(式2)を用いてメラニン成分やヘモグロビン成分等の色素成分へと変換することができる。
メラニン量=−4.861×log10(1/X)+1.268×log10(1/Y)+4.669×log10(1/Z)+0.063
ヘモグロビン量=−32.218×log10(1/X)+37.499×log10(1/Y)−4.495×log10(1/Z)+0.444 (式2)
次に、シミ検出部15は、ステップS11で得られた色素成分の分布画像から低周波数成分を除去する。これにより、例えば顔の形状による影に相当する大きなうねりの影響を除外することができる。シミ検出部15は、例えば半値幅約40.0mm以上の帯域を影による影響として除去する。具体的には、シミ検出部15は、まず、例えばガウシアン関数等のバンドパスフィルタを用いて、低周波数成分の画像を生成する(ステップS12)。次いで、シミ検出部15は、ステップS11の処理で得られた色素成分の分布画像からステップS12で得られた低周波数成分の画像を減算する(ステップS13)。
次に、シミ検出部15は、ステップS13で得られた画像の2値化処理を行う(ステップS14)。2値化処理は、例えばメラニン成分の濃さに対して、例えば平均値+0.01〜0.30等を閾値として、閾値以上のメラニン値(高メラニン値)を有する画素を高メラニン部分とする。これにより、正常な肌部分と高メラニン部分とを識別することができる。
次に、シミ検出部15は、ステップS14で得られた画像のノイズ処理を行う(ステップS15)。ノイズ処理は、例えばメディアンフィルタ(5×5画素等)を用いて行うことができるが、これに限定されるものではない。
次に、シミ検出部15は、ステップS15で得られた画像中で、高メラニン値を有する画素が連続している領域を1つの色素沈着部位としてラベル付けするラベリング処理を行う(ステップS16)。シミ検出部15は、例えば高メラニン値の画素として識別された画素が隣接する部分を連結していき、連結された画素群を1つの色素沈着部位として抽出する。
次に、シミ検出部15は、ステップS16でラベル付けされた色素沈着部位のうち、所定の面積(例えば、実サイズで1.0mm)以下の領域を除去して残った色素沈着部位をシミとして検出する(S17)。これにより、例えば毛穴のような小さな抽出物を除去して、シミを精度良く検出することができる。
以上のシミ検出部15の処理は、本出願人による特願2014−234938に記載されており、特願2014−234938の内容を適宜援用することができる。
図3に戻り、重心位置算出部16は、第1の肌画像から検出された複数のシミと、第2の肌画像から検出された複数のシミとに基づき、第1の肌画像と第2の肌画像との位置合わせを行い、座標の基準点を決定する(ステップS106)。ここで、位置合わせは、第1の肌画像及び第2の肌画像それぞれから検出されたシミの分布に基づくパターン認識により行うことができる。
図5は、この処理の一例を示す模式図である。図5中、(a)は第1の肌画像100、(b)は第2の肌画像102を示す。図5中、(c)は第1の肌画像100と第2の肌画像102を重ねて位置合わせした図である。重心位置算出部16は、第1の肌画像100と第2の肌画像102に含まれる複数のシミ106の分布に基づき、第1の肌画像100と第2の肌画像102とを位置合わせし、第1の肌画像100と第2の肌画像102の座標を揃える。例えば、左下の所定の位置をXY座標系の基準点(原点(0,0))と決定することができる。これにより、後の工程において、第1の肌画像100に含まれるシミ106と第2の肌画像102に含まれるシミとの対応付けを精度良く行うことができる。
図3に戻り、次に、重心位置算出部16は、ステップS106で決定した基準点に対する第1の肌画像100及び第2の肌画像102それぞれの各シミ106の重心位置座標を算出する(ステップS108)。
図6は、この処理の一例を示す模式図である。重心位置算出部16は、第1の肌画像100(及び第2の肌画像102)中の各シミ106a〜106dの重心108の位置座標を算出する。
重心108の位置座標は、例えば、そのシミ領域を構成するすべての画素の位置座標から算出することができる。具体的には、重心108の位置座標は、そのシミ領域を構成するすべての画素のX座標及びY座標の平均を算出して得ることができる。
また、他の例として、重心108の位置座標は、以下の手順で算出してもよい。
(1)各シミの輪郭を構成するすべての画素から算出する方法
各シミの輪郭を構成するすべての画素の数をn個とすると、重心108のX座標はすべての点のX座標を足し合わせ、nで除することにより得られる。重心108のY座標も同様に算出する。
(2)各シミ領域を構成するすべての画素にメラニン濃度の重み付けをし、算出する方法
そのシミ領域を構成するすべての画素に、メラニン濃度で重み付け(座標に対する掛け合わせ)をした後に、X座標及びY座標それぞれの平均を算出して得られる。
(3)楕円フィッティングを行って楕円の中心を求める方法
以上は一例であり、その他の方法を適宜選択することができる。
図3に戻り、次に、マッチング処理部17は、第1の肌画像100及び第2の肌画像102の各シミ106の重心位置座標に基づき、シミ106同士の対応付けを行う(ステップS110)。マッチング処理部17は、第1の肌画像100の各シミ106について、第2の肌画像102から対応するシミ106を検出する第1の探索ステップと、第2の肌画像102の各シミ106について、第1の肌画像100から対応するシミ106を検出する第2の探索ステップとを行う。
図7は、この処理の一例を示す模式図である。図7は、各肌画像の座標軸とメラニン量との関係の一例を模式的に示す図である。図7中、(a)は第1の肌画像100、(b)は第2の肌画像102に対応する。
まず、第1の探索ステップについて説明する。マッチング処理部17は、第1の肌画像100のシミ106aについて、シミ106aの重心位置座標109aに対応する第2の肌画像102の対象座標(図7(b)中の「a」)を中心とした所定の範囲を探索範囲110として第2の肌画像102を探索する。
ここで、第2の肌画像102の探索範囲110内に重心位置座標が存在するシミのうち、シミ106gの重心位置座標109gが対象座標aに最も近接するものと仮定する。この場合、マッチング処理部17は、第2の肌画像102の探索範囲110内に重心位置座標が存在するシミのうち、重心位置座標109gが対象座標aに最も近接するシミ106gを第1の肌画像100のシミ106aと対応付ける(図中破線の矢印で表示する対応付け)。マッチング処理部17は、この処理を第1の肌画像100の各シミについて行う。
また、マッチング処理部17は、第2の肌画像102の探索領域内に重心位置座標が存在するシミがない場合は、第1の肌画像100の当該シミに対応するシミが第2の肌画像102に存在しない旨を第1の肌画像100の当該シミと対応付ける。
次に、第2の探索ステップについて説明する。マッチング処理部17は、第2の肌画像102のシミ106gについて、シミ106gの重心位置座標109gに対応する第1の肌画像100の対象座標(図7(a)中の「g」)を中心とした所定の範囲を探索範囲112として第1の肌画像100を探索する。
ここで、第1の肌画像100の探索範囲112内に重心位置座標が存在するシミのうち、シミ106aの重心位置座標109aが対象座標gに最も近接するものと仮定する。この場合、マッチング処理部17は、第1の肌画像100の探索範囲112内に重心位置座標が存在するシミのうち、重心位置座標109aが対象座標gに最も近接するシミ106aを第2の肌画像102のシミ106gと対応付ける(図中実線の矢印で表示する対応付け)。マッチング処理部17は、この処理を第2の肌画像102の各シミについて行う。
また、マッチング処理部17は、第1の肌画像100の探索領域内に重心位置座標が存在するシミがない場合は、第2の肌画像102の当該シミに対応するシミが第1の肌画像100に存在しない旨を第2の肌画像102の当該シミと対応付ける。
なお、探索範囲110の範囲(サイズ)は、例えば、対象座標を中心とした、実サイズで40mmに対応する画素数の半径以下の円内(半径は1画素以上)とすることができ、より好ましくは、例えば対象座標を中心とした、実サイズで1mm以上2mm以下に対応する画素数の半径の円内とすることができる。実サイズとは、肌画像を撮影した対象の実際のサイズのことで、例えば頬等の部位の実際のサイズである。
また、探索範囲112の範囲(サイズ)は、例えば、探索範囲110と同様とすることができる。このように、第1の肌画像100のシミの重心位置座標に基づき第2の肌画像102から対応するシミを探索する場合と第2の肌画像102のシミの重心位置座標に基づき第1の肌画像100から対応するシミを探索する場合とで探索範囲を同一とすることにより、第1の肌画像100と第2の肌画像102とにおけるシミの対応付けを矛盾なく行うことができる。また、後述するシミの分裂及びシミの結合を同じ基準で検出することができる。ただし、探索範囲110のサイズと探索範囲112のサイズとは異ならせてもよい。
また、探索範囲のサイズは、図3のステップS104で検出されたシミの面積の平均値等に基づき、動的に決定する構成としてもよい。この場合も探索範囲110のサイズと探索範囲112のサイズとは同一としてもよく、異ならせてもよい。
図8は、以上の処理を行った場合の第1の肌画像100及び第2の肌画像102の複数のシミの対応関係の一例を模式的に示す図である。図8中、(a)は第1の肌画像100、(b)は第2の肌画像102に対応する。図中破線の矢印は、第1の探索ステップで対応付けられた結果を示す。また、図中実線の矢印は、第2の探索ステップで対応付けられた結果を示す。
例えば、第2の探索ステップを行った場合、第2の肌画像102のシミ106gは第1の肌画像100のシミ106bと対応付けられるだけである。一方、第1の探索ステップも行うことにより、第1の肌画像100のシミ106a及びシミ106bがそれぞれ第2の肌画像102のシミ106gと対応付けられることが把握できる。これにより、シミの結合を検出することができる。
また同様に、例えば、第1の探索ステップを行った場合、第1の肌画像100のシミ106cは、第2の肌画像102のシミ106iと対応付けられるだけである。一方、第2の探索ステップも行うことにより、第2の肌画像102のシミ106h及びシミ106iがそれぞれ第1の肌画像100のシミ106cと対応付けられることが把握できる。これにより、シミの分裂を検出することができる。
また、例えば、第1の探索ステップを行うことにより、第1の肌画像100のシミ106dに対応するシミが第2の肌画像102に含まれないことを検出することができる。これにより、シミの消滅を検出することができる。図示していないが、同様に、例えば、第2の探索ステップを行うことにより、第2の肌画像102に含まれるシミのうち、第1の肌画像100に対応するシミが含まれないものを検出することもできる。これにより、シミの発生を検出することができる。
このように、本実施形態において、第1の探索ステップ及び第2の探索ステップの両方を行うことにより、各シミの対応関係を詳細に検出することができる。なお、第1の探索ステップ及び第2の探索ステップは、どちらを先に行ってもよい。
図3に戻り、次に、シミ評価部18は、マッチング処理部17によるマッチング処理ステップの結果に基づき、シミの変化パターン等を評価する(ステップS112)。図9は、シミの変化パターンを示す図である。
例えば、シミ評価部18は、マッチング処理部17による第1の探索ステップにおいて、第1の肌画像100のシミ106に対応する第2の肌画像102の探索領域内に重心位置座標が存在するシミがない場合に、第1の肌画像100の当該シミが消滅したと評価する(図9(a))。
また、例えば、シミ評価部18は、マッチング処理部17による第2の探索ステップにおいて、第2の肌画像102のシミに対応する第1の肌画像100の探索領域内に重心位置座標が存在するシミがない場合に、第2の肌画像102の当該シミが発生したと評価する(図9(b))。
さらに、シミ評価部18は、マッチング処理部17による第1の探索ステップにおいて、第1の肌画像100の複数のシミ106が第2の肌画像102の一のシミ106と対応付けられた場合に、第1の肌画像100の複数のシミ106が結合したと評価する(図9(c))。
さらに、シミ評価部18は、マッチング処理部17による第2の探索ステップにおいて、第2の肌画像102の複数のシミが第1の肌画像100の一のシミと対応付けられた場合に、第1の肌画像100のシミ106が分裂したと評価する(図9(d))。
また、シミ評価部18は、マッチング処理部17によるマッチング処理ステップの結果、第1の肌画像100のシミ106と第2の肌画像102のシミ106とが1:1で対応付けられた場合は、維持と判断する(図9(e))。
なお、第1の肌画像100と第2の肌画像102との間の図中破線で示す図は、第1の肌画像100の状態から第2の肌画像102の状態へ至るまでの推移を推定したものである。
また、上記のような変化パターンの検出だけでなく、対応付けられたシミ間での面積、メラニン量等の変化に基づき、シミの変化の過程を定量解析することもできる。また、解析領域全体での評価ではなく、各シミ毎の変化を評価できるため、例えば第1の肌画像100に含まれる複数のシミのうち、比較的薄いシミを抽出して、それらのシミの変化を選択的に解析する等、様々な条件下での検討を行うことも可能となる。これにより、例えば薄いシミに効果があるような薬剤について、その効果を適切に評価することができる。
図10は、シミ検出部15、重心位置算出部16、マッチング処理部17及びシミ評価部18の処理により得られた各シミに関する情報の一例を示す図である。このような情報は、記憶部13に記憶される。
図10(a)及び図10(b)は、シミ検出部15、重心位置算出部16及びシミ評価部18の処理により得られた各シミに関するシミ情報の一例を示す。シミ情報は、例えば、シミID、重心位置、面積、メラニン量、シミ分類等の項目を有する。シミIDは、各シミを特定する情報である。重心位置は、各シミの重心位置座標を示す。面積は、各シミの面積を示す。メラニン量は、各シミのメラニン量を示す。なお、メラニン量は、そのシミのメラニン量の平均値等としてもよく、また各シミを構成する各画像毎に対応付けて記憶する構成とすることもできる。また、シミ分類は、各シミの面積やメラニン量に基づき、シミ評価部18により評価されたシミの分類を示す。
図10(c)は、図10(a)及び図10(b)に示すシミ情報に基づき、マッチング処理部17及びシミ評価部18の処理により得られた第1の肌画像100及び第2の肌画像102における各シミの対応関係、変化パターン等を示すシミ対応情報の一例を示す。シミ対応情報は、第1の肌画像100のシミID、第2の肌画像102のシミID、変化パターン、状態変化等の項目を有する。変化パターンは、第1の肌画像100に含まれたシミが第2の肌画像102においてどのように変化したのかのパターンを示す。状態変化は、例えばシミの面積が変化したり、シミのメラニン量が変化したりした等の状態変化を示す。
(精度検証例)
次に、本実施形態のシミ評価装置10によるシミのマッチング処理の精度検証を行った結果を説明する。ここでは、ある被験者に所定の薬剤を所定期間適用し、適用前の肌画像を第1の肌画像100、適用後の肌画像を第2の肌画像102として、本実施形態のシミ評価装置10を用いて第1の肌画像100中のシミと第2の肌画像102中のシミとを対応付ける処理を行った。その結果を目視で一つずつ確認した結果と比較した。
その結果、図3及び図6を参照して説明した第1の探索ステップに対応する、第1の肌画像100中に含まれる各シミについて、第2の肌画像102から対応するシミを検出するステップでは、791個中785個が目視による結果と一致し、正答率は99.2%であった。また、第2の探索ステップに対応する、第2の肌画像102中に含まれる各シミについて、第1の肌画像100から対応するシミを検出するステップでは、868個中862個が目視による結果と一致し、正答率は99.3%であった。
以上のように、本実施形態のシミ評価装置10によれば、第1の肌画像100と第2の肌画像102との間で高い精度でシミの対応付けを行うことができることが確認された。
図11は、精度検証例で用いた適用前の肌画像100と適用後の肌画像102の一部を抜き出した図である。図11中、(a)は第1の肌画像100、(b)は第2の肌画像102を示す。本実施形態のシミ評価装置10によれば、図11(a)に示すシミ106eと図11(b)に示すシミ106f及び106gとが対応付けられる。このように、本実施形態のシミ評価装置10によれば、従来は個別に変化を把握することができなかった各シミについて、変化を捕らえて評価することができる。
本実施形態におけるシミ評価処理により、肌画像に含まれる各シミの変化を捕らえて評価することができる。具体的には、例えば同一被験者の同一対象箇所について、撮影時期が異なる第1の肌画像及び第2の肌画像にそれぞれ含まれる複数のシミを対応付けることにより、各シミの変化を把握することができ、例えば小さいシミがどのように変化するか、大きいシミがどのように変化するか、濃いシミがどのように変化するか、薄いシミがどのように変化するか等を把握することができる。
また、同一被験者の美白薬剤等の薬剤の適用前と所定期間適用後の画像におけるシミの変化に基づき、薬剤の効果等をより詳細に把握することができる。これにより、例えば化粧品メーカ等は、顧客の肌の状態や悩みに合わせて最適な製品の提案等をすることができる。また、同一被験者の加齢変化画像におけるシミの変化に基づき、加齢に伴うシミの発生、悪化等の過程を定量解析し、基礎知見を創出することもできる。
以上、本発明の好ましい実施形態及び実施例について詳述したが、本発明は上記した特定の実施形態及び実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能なものである。
以上の実施形態では、第1の肌画像100と第2の肌画像102とを用いて説明したが、画像取得部14が取得する肌画像は3以上とすることもできる。この場合、例えば時系列に沿った前後間の肌画像に含まれるシミの対応関係をそれぞれ検出することができる。
ところで、肌の色は主として「ヘモグロビン色素」、「メラニン色素」による光の吸収によって決まる。ヘモグロビンやメラニン成分といった皮膚色を構成する色素は皮膚内部において一様に分布しておらず、色素が局所的に過剰に生じると肌表面の色調は不均一な状態になる。この状態は、一般的に色ムラと総称される)。色ムラの中で、ヘモグロビン色素が要因となって生じる症状として「にきび」、「にきび跡」等があり、メラニン色素が要因となって生じる症状として「シミ(老人性色素斑又は日光性黒子、炎症後色素沈着、そばかす、肝斑等)」、「ほくろ」等がある。本実施形態では、これらの症状を対象とする。以上の実施形態では、色ムラ部位がシミである場合を例として説明したが、色ムラ部位はシミに限定されず、例えば、にきび、にきび跡、吹き出物、やけどの跡、ほくろ等、メラニン成分やヘモグロビン成分等の色素成分や色彩値等で特定可能な種々のものを色ムラ部位として対象とすることができる。本願の色ムラ部位評価処理は、特に経時変化が生じる色ムラ部位を対象とした場合に有用である。
また、本実施形態におけるシミ評価部18は、図11に示したような第1の肌画像100及び第2の肌画像102を出力部12を介してディスプレイ等の出力装置22に表示することができる。この際、例えば、シミ評価装置10のユーザが第1の肌画像100から所定のシミ106cをポインタ等で選択すると、第2の肌画像102中の対応するシミ106h及び106iが強調表示される等の構成とすることができる。これにより、ユーザは、第1の肌画像100中の各シミが、第2の肌画像102においてどのように変化したのかを目視で確認することもできる。
10 シミ評価装置
11 入力部
12 出力部
13 記憶部
14 画像取得部
15 シミ検出部
16 重心位置算出部
17 マッチング処理部
18 シミ評価部
19 制御部
21 入力装置
22 出力装置
23 ドライブ装置
24 補助記憶装置
25 メモリ装置
26 CPU
27 ネットワーク接続装置
28 記録媒体
100 第1の肌画像
102 第2の肌画像
106 シミ
108 重心
110 探索範囲
112 探索範囲

Claims (10)

  1. 第1の肌画像及び当該第1の肌画像とは異なる第2の肌画像それぞれから、複数の色ムラ部位を検出する色ムラ部位検出ステップと、
    前記第1の肌画像及び前記第2の肌画像それぞれの各前記色ムラ部位の重心位置座標を算出する重心位置算出ステップと、
    前記重心位置算出ステップで算出された各前記色ムラ部位の前記重心位置座標に基づき、前記第1の肌画像に含まれる前記複数の色ムラ部位と前記第2の肌画像に含まれる前記複数の色ムラ部位とを対応付けるマッチング処理ステップと、を含み、
    前記マッチング処理ステップは、前記第1の肌画像の各前記色ムラ部位について、当該色ムラ部位の前記重心位置座標に対応する前記第2の肌画像の対象座標を中心とした所定の範囲を探索領域として当該第2の肌画像を探索し、当該探索領域内に前記重心位置座標が存在する前記色ムラ部位のうち、前記重心位置座標が前記対象座標に最も近接する色ムラ部位を当該第1の肌画像の当該色ムラ部位と対応付けるとともに、当該探索領域内に前記重心位置座標が存在する前記色ムラ部位がない場合は、当該第1の肌画像の当該色ムラ部位に対応する前記色ムラ部位が前記第2の肌画像に存在しない旨を当該第1の肌画像の当該色ムラ部位と対応付ける第1の探索ステップを含む、色ムラ部位の評価方法。
  2. 前記第1の肌画像及び前記第2の肌画像は、同一被験者の異なる時期における同一対象箇所を撮影して得られた肌画像である請求項1に記載の色ムラ部位の評価方法。
  3. 前記第1の肌画像から検出された前記複数の色ムラ部位と、前記第2の肌画像から検出された前記複数の色ムラ部位とに基づき、前記第1の肌画像と前記第2の肌画像との位置合わせを行い、座標の基準点を決定するステップをさらに含み、
    前記重心位置算出ステップにおいて、前記基準点に対する各前記色ムラ部位の前記重心位置座標を算出する請求項1又は2に記載の色ムラ部位の評価方法。
  4. 前記色ムラ部位はシミであって、
    前記色ムラ部位検出ステップにおいて、メラニン成分又はヘモグロビン成分の分布画像に基づき、前記複数の色ムラ部位を検出する請求項1から3いずれかに記載の色ムラ部位の評価方法。
  5. 前記マッチング処理ステップは、前記第2の肌画像の各前記色ムラ部位について、当該色ムラ部位の前記重心位置座標に対応する前記第1の肌画像の対象座標を中心とした所定の範囲を探索領域として当該第1の肌画像を探索し、当該探索領域内に前記重心位置座標が存在する前記色ムラ部位のうち、前記重心位置座標が前記対象座標に最も近接する色ムラ部位を当該第2の肌画像の当該色ムラ部位と対応付けるとともに、当該探索領域内に前記重心位置座標が存在する前記色ムラ部位がない場合は、当該第2の肌画像の当該色ムラ部位に対応する前記色ムラ部位が前記第1の肌画像に存在しない旨を当該第2の肌画像の当該色ムラ部位と対応付ける第2の探索ステップを含む請求項1から4のいずれかに記載の色ムラ部位の評価方法。
  6. 前記第2の肌画像は、前記第1の肌画像と同一被験者の同一対象箇所を前記第1の肌画像よりも後に撮影して得られた肌画像であって、
    前記マッチング処理ステップで対応付けられた前記第1の肌画像に含まれる前記複数の色ムラ部位と前記第2の肌画像に含まれる前記複数の色ムラ部位との対応付けに基づき、前記第1の肌画像と前記第2の肌画像との間の色ムラ部位の変化を評価する評価ステップをさらに含む請求項5に記載の色ムラ部位の評価方法。
  7. 前記評価ステップは、前記マッチング処理ステップの前記第1の探索ステップにおいて前記探索領域内に前記重心位置座標が存在する前記色ムラ部位がない場合に、当該第1の肌画像の当該色ムラ部位が消滅したと評価し、前記第2の探索ステップにおいて前記探索領域内に前記重心位置座標が存在する前記色ムラ部位がない場合に、当該第2の肌画像の当該色ムラ部位が発生したと評価する請求項6に記載の色ムラ部位の評価方法。
  8. 前記評価ステップは、前記第1の探索ステップにおいて前記第1の肌画像の複数の前記色ムラ部位が前記第2の肌画像の一の前記色ムラ部位と対応付けられた場合に、当該第1の肌画像の前記複数の色ムラ部位が結合したと評価し、前記第2の探索ステップにおいて前記第2の肌画像の複数の前記色ムラ部位が前記第1の肌画像の一の前記色ムラ部位と対応付けられた場合に、当該第1の肌画像の前記色ムラ部位が分裂したと評価する請求項6又は7に記載の色ムラ部位の評価方法。
  9. 第1の肌画像及び当該第1の肌画像とは異なる第2の肌画像それぞれから、複数の色ムラ部位を検出する色ムラ部位検出部と、
    前記第1の肌画像及び前記第2の肌画像それぞれの各前記色ムラ部位の重心位置座標を算出する重心位置算出部と、
    前記重心位置算出部が算出した各前記色ムラ部位の前記重心位置座標に基づき、前記第1の肌画像に含まれる前記複数の色ムラ部位と前記第2の肌画像に含まれる前記複数の色ムラ部位とを対応付けるマッチング処理部と、を含み、
    前記マッチング処理部は、前記第1の肌画像の各前記色ムラ部位について、当該色ムラ部位の前記重心位置座標に対応する前記第2の肌画像の対象座標を中心とした所定の範囲を探索領域として当該第2の肌画像を探索し、当該探索領域内に前記重心位置座標が存在する前記色ムラ部位のうち、前記重心位置座標が前記対象座標に最も近接する色ムラ部位を当該第1の肌画像の当該色ムラ部位と対応付けるとともに、当該探索領域内に前記重心位置座標が存在する前記色ムラ部位がない場合は、当該第1の肌画像の当該色ムラ部位に対応する前記色ムラ部位が前記第2の肌画像に存在しない旨を当該第1の肌画像の当該色ムラ部位と対応付ける、色ムラ部位評価装置。
  10. コンピュータを、
    第1の肌画像及び当該第1の肌画像とは異なる第2の肌画像それぞれから、複数の色ムラ部位を検出する色ムラ部位検出手段、
    前記第1の肌画像及び前記第2の肌画像それぞれの各前記色ムラ部位の重心位置座標を算出する重心位置算出手段、
    前記重心位置算出手段が算出した各前記色ムラ部位の前記重心位置座標に基づき、前記第1の肌画像に含まれる前記複数の色ムラ部位と前記第2の肌画像に含まれる前記複数の色ムラ部位とを対応付けるマッチング処理手段、として機能させ、
    前記マッチング処理手段は、前記第1の肌画像の各前記色ムラ部位について、当該色ムラ部位の前記重心位置座標に対応する前記第2の肌画像の対象座標を中心とした所定の範囲を探索領域として当該第2の肌画像を探索し、当該探索領域内に前記重心位置座標が存在する前記色ムラ部位のうち、前記重心位置座標が前記対象座標に最も近接する色ムラ部位を当該第1の肌画像の当該色ムラ部位と対応付けるとともに、当該探索領域内に前記重心位置座標が存在する前記色ムラ部位がない場合は、当該第1の肌画像の当該色ムラ部位に対応する前記色ムラ部位が前記第2の肌画像に存在しない旨を当該第1の肌画像の当該色ムラ部位と対応付ける、色ムラ部位評価プログラム。
JP2016082380A 2016-04-15 2016-04-15 色ムラ部位の評価方法、色ムラ部位評価装置及び色ムラ部位評価プログラム Active JP6650819B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2016082380A JP6650819B2 (ja) 2016-04-15 2016-04-15 色ムラ部位の評価方法、色ムラ部位評価装置及び色ムラ部位評価プログラム
CN201780022594.8A CN109069065B (zh) 2016-04-15 2017-02-22 色斑部位的评价方法及色斑部位评价装置
KR1020187031765A KR20180130553A (ko) 2016-04-15 2017-02-22 색 얼룩 부위 평가 방법 및 색 얼룩 부위 평가 장치
US16/090,666 US10786197B2 (en) 2016-04-15 2017-02-22 Evaluation method for site of color irregularity and color irregularity site evaluation apparatus
EP17782122.0A EP3443899A4 (en) 2016-04-15 2017-02-22 METHOD FOR EVALUATING A COLOR RUNNING LIQUID AND COLOR INSPECTION MEASUREMENT APPARATUS
PCT/JP2017/006522 WO2017179304A1 (ja) 2016-04-15 2017-02-22 色ムラ部位の評価方法及び色ムラ部位評価装置
TW106111985A TW201738842A (zh) 2016-04-15 2017-04-11 色斑部位的評價方法及色斑部位評價裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016082380A JP6650819B2 (ja) 2016-04-15 2016-04-15 色ムラ部位の評価方法、色ムラ部位評価装置及び色ムラ部位評価プログラム

Publications (2)

Publication Number Publication Date
JP2017189536A JP2017189536A (ja) 2017-10-19
JP6650819B2 true JP6650819B2 (ja) 2020-02-19

Family

ID=60042637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016082380A Active JP6650819B2 (ja) 2016-04-15 2016-04-15 色ムラ部位の評価方法、色ムラ部位評価装置及び色ムラ部位評価プログラム

Country Status (7)

Country Link
US (1) US10786197B2 (ja)
EP (1) EP3443899A4 (ja)
JP (1) JP6650819B2 (ja)
KR (1) KR20180130553A (ja)
CN (1) CN109069065B (ja)
TW (1) TW201738842A (ja)
WO (1) WO2017179304A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018117022A1 (ja) * 2016-12-20 2018-06-28 株式会社資生堂 塗布制御装置、塗布装置、塗布制御方法および記録媒体
US11612350B2 (en) * 2017-11-07 2023-03-28 Canfield Scientific, Incorporated Enhancing pigmentation in dermoscopy images
JP7512167B2 (ja) 2020-10-26 2024-07-08 株式会社 資生堂 頬画像中のシミ分布に基づく肌分類
JP7152727B2 (ja) * 2021-02-25 2022-10-13 エバ・ジャパン 株式会社 生体情報算出装置及び生体情報算出方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6624860B1 (en) * 1998-01-26 2003-09-23 Sharp Kabushiki Kaisha Color filter layer providing transmitted light with improved brightness and display device using same
JP3727807B2 (ja) 1999-06-14 2005-12-21 株式会社資生堂 皮膚中成分および皮膚特性の測定方法および測定装置
JP4294880B2 (ja) 2000-03-06 2009-07-15 富士フイルム株式会社 画像の位置合わせ方法および装置
JP3734741B2 (ja) 2001-11-12 2006-01-11 株式会社資生堂 しみ・そばかす評価方法
WO2005038885A1 (ja) * 2003-10-16 2005-04-28 Nikon Corporation 光学特性計測装置及び光学特性計測方法、露光装置及び露光方法、並びにデバイス製造方法
US20070002342A1 (en) * 2005-06-29 2007-01-04 Xerox Corporation Systems and methods for evaluating named colors against specified print engines
JP4958483B2 (ja) * 2006-06-19 2012-06-20 キヤノン株式会社 記録装置
JP5571651B2 (ja) * 2008-03-18 2014-08-13 コーニンクレッカ フィリップス エヌ ヴェ 皮膚撮像装置及び皮膚分析システム
US8194952B2 (en) * 2008-06-04 2012-06-05 Raytheon Company Image processing system and methods for aligning skin features for early skin cancer detection systems
US20090327890A1 (en) * 2008-06-26 2009-12-31 Raytheon Company Graphical user interface (gui), display module and methods for displaying and comparing skin features
US20110040192A1 (en) * 2009-05-21 2011-02-17 Sara Brenner Method and a system for imaging and analysis for mole evolution tracking
JP5426475B2 (ja) * 2010-05-21 2014-02-26 株式会社 資生堂 肌の色ムラ解析装置、肌の色ムラ解析方法、及び肌の色ムラ解析プログラム
US20130188878A1 (en) * 2010-07-20 2013-07-25 Lockheed Martin Corporation Image analysis systems having image sharpening capabilities and methods using same
JP5809498B2 (ja) * 2010-10-19 2015-11-11 キヤノン株式会社 光源ユニットの調整装置及び製造方法
US8554016B2 (en) 2010-11-10 2013-10-08 Raytheon Company Image registration system and method for registering images for deformable surfaces
JP5738720B2 (ja) * 2011-03-24 2015-06-24 日本メナード化粧品株式会社 メラニン合成能力評価方法及び美容アドバイス方法並びにそれらを用いるメラニン合成能力評価システム及び美容アドバイスシステム
JP5794889B2 (ja) * 2011-10-25 2015-10-14 富士フイルム株式会社 シミ種別分類装置の作動方法、シミ種別分類装置およびシミ種別分類プログラム
JP6080427B2 (ja) * 2012-08-10 2017-02-15 キヤノン株式会社 シャック・ハルトマンセンサとそれを利用した波面計測方法
CN104540445B (zh) 2012-08-17 2017-05-17 索尼公司 图像处理装置、图像处理方法和图像处理系统
US20140313303A1 (en) * 2013-04-18 2014-10-23 Digimarc Corporation Longitudinal dermoscopic study employing smartphone-based image registration
EP2987106A4 (en) * 2013-04-18 2016-12-14 Digimarc Corp ACQUIRING AND ANALYZING PHYSIOLOGICAL DATA
JP6179196B2 (ja) 2013-05-31 2017-08-16 富士通株式会社 データセンター
JP6040103B2 (ja) * 2013-06-06 2016-12-07 浜松ホトニクス株式会社 補償光学システムの対応関係特定方法、補償光学システム、および補償光学システム用プログラム
CN105263399B (zh) * 2013-06-07 2017-06-23 富士胶片株式会社 透明感评价装置、透明感评价方法
GB201310854D0 (en) * 2013-06-18 2013-07-31 Isis Innovation Photoactive layer production process
JP2015198785A (ja) * 2014-04-08 2015-11-12 キヤノン株式会社 診療支援装置、診療支援方法及びプログラム
CN104318239A (zh) * 2014-11-14 2015-01-28 江南大学 基于纹理分析的快速图像特征提取方法
JP6138745B2 (ja) 2014-11-19 2017-05-31 株式会社 資生堂 シミ評価装置、及びシミ評価プログラム
JP5977408B2 (ja) * 2015-08-20 2016-08-24 花王株式会社 体表評価方法および体表評価装置
CN109152464B (zh) * 2016-06-29 2021-05-28 松下知识产权经营株式会社 图像处理装置以及图像处理方法

Also Published As

Publication number Publication date
US20190117147A1 (en) 2019-04-25
EP3443899A4 (en) 2019-10-30
TW201738842A (zh) 2017-11-01
KR20180130553A (ko) 2018-12-07
WO2017179304A1 (ja) 2017-10-19
CN109069065B (zh) 2021-08-10
EP3443899A1 (en) 2019-02-20
CN109069065A (zh) 2018-12-21
JP2017189536A (ja) 2017-10-19
US10786197B2 (en) 2020-09-29

Similar Documents

Publication Publication Date Title
JP6650819B2 (ja) 色ムラ部位の評価方法、色ムラ部位評価装置及び色ムラ部位評価プログラム
US8591414B2 (en) Skin state analyzing method, skin state analyzing apparatus, and computer-readable medium storing skin state analyzing program
US9665949B2 (en) Skin dullness evaluation apparatus and skin dullness evaluation method
US20080266430A1 (en) Method and system for optimizing an image for improved analysis of material and illumination image features
JP5426475B2 (ja) 肌の色ムラ解析装置、肌の色ムラ解析方法、及び肌の色ムラ解析プログラム
WO2016080266A1 (ja) シミ評価装置、シミ評価方法、及びプログラム
JP6026655B2 (ja) 透明感評価装置、透明感評価装置の作動方法、透明感評価方法および透明感評価プログラム
US20170079599A1 (en) Moisture feeling evaluation device, moisture feeling evaluation method, and moisture feeling evaluation program
US9135693B2 (en) Image calibration and analysis
TWI701018B (zh) 資訊處理裝置、資訊處理方法、及程式
CN108024719B (zh) 肌肤的光泽评价装置、光泽评价方法及记录介质
KR20210084102A (ko) 전자 장치, 두피 케어 시스템 및 그들의 제어 방법
JP2009082338A (ja) エントロピーを用いた肌の鑑別方法
US20190102894A1 (en) Automated imaging system for evaluating the curl of a keratinous substrate
US20160345887A1 (en) Moisture feeling evaluation device, moisture feeling evaluation method, and moisture feeling evaluation program
CN108135346B (zh) 皮肤评价装置、皮肤评价方法及记录介质
KR20190065060A (ko) 오픈 소스 하드웨어를 이용한 신체 측정 장치 및 방법
KR101957773B1 (ko) 영상을 이용한 피부 상태 평가 방법 및 영상을 이용한 피부 상태 평가 장치
JP6351550B2 (ja) ハリ感評価装置、ハリ感評価方法およびハリ感評価プログラム
TW202022682A (zh) 皮膚檢測方法及影像處理裝置
JP2017173300A (ja) 質感評価装置、質感評価方法、及びプログラム
JP2017194421A (ja) 色差算出装置、色差算出方法及びプログラム
KR20100086234A (ko) 컬러 인식 방법 및 장치
Ledoux et al. Morphology tools for color image processing, dermatology and cosmetology domain

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200121

R150 Certificate of patent or registration of utility model

Ref document number: 6650819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150