JPWO2020121425A1 - 状態判定装置、状態判定方法、及び状態判定プログラム - Google Patents
状態判定装置、状態判定方法、及び状態判定プログラム Download PDFInfo
- Publication number
- JPWO2020121425A1 JPWO2020121425A1 JP2020558850A JP2020558850A JPWO2020121425A1 JP WO2020121425 A1 JPWO2020121425 A1 JP WO2020121425A1 JP 2020558850 A JP2020558850 A JP 2020558850A JP 2020558850 A JP2020558850 A JP 2020558850A JP WO2020121425 A1 JPWO2020121425 A1 JP WO2020121425A1
- Authority
- JP
- Japan
- Prior art keywords
- user
- face
- region
- feature amount
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 58
- 238000000605 extraction Methods 0.000 claims abstract description 208
- 230000001815 facial effect Effects 0.000 claims abstract description 100
- 239000000284 extract Substances 0.000 claims abstract description 21
- 206010062519 Poor quality sleep Diseases 0.000 claims description 48
- 210000004709 eyebrow Anatomy 0.000 claims description 47
- 230000037303 wrinkles Effects 0.000 claims description 28
- 206010048232 Yawning Diseases 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 6
- 241001282135 Poromitra oscitans Species 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 51
- 238000010586 diagram Methods 0.000 description 16
- 206010041349 Somnolence Diseases 0.000 description 6
- 238000001514 detection method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000035622 drinking Effects 0.000 description 2
- 235000019441 ethanol Nutrition 0.000 description 2
- 238000010791 quenching Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000035922 thirst Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1104—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb induced by stimuli or drugs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1123—Discriminating type of movement, e.g. walking or running
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4806—Sleep evaluation
- A61B5/4809—Sleep detection, i.e. determining whether a subject is asleep or not
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4845—Toxicology, e.g. by detection of alcohol, drug or toxic products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Anesthesiology (AREA)
- Educational Technology (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Toxicology (AREA)
- Pharmacology & Pharmacy (AREA)
- Chemical & Material Sciences (AREA)
- Medicinal Chemistry (AREA)
- Image Analysis (AREA)
Abstract
Description
ところで、事故の防止のため、車内又は工場内に居る人の非覚醒状態を判定する技術の開発が進んでいる。例えば、心拍、脳波、瞬きなどから非覚醒状態のときに変化する特徴量が抽出される。次に、当該特徴量と閾値とが比較される。比較結果から非覚醒状態が判定される。このように、非覚醒状態は、心拍などの生体信号から判定できる。しかし、当該判定の方法では、人にセンサが装着される。そのため、当該判定の方法では、人は、煩わしさを感じる。また、人がセンサを装着していない場合、当該判定の方法は、使用することができない。さらに、当該判定の方法は、センサを用いるため、コストがかかる。
そのため、どのように高い精度で非覚醒状態を判定するかが問題である。
図1は、実施の形態1の状態判定装置を示す図である。状態判定装置100は、状態判定方法を実行する装置である。
状態判定装置100は、非覚醒状態を判定する。例えば、非覚醒状態は、居眠り状態、飲酒により居眠りしている状態などである。また、非覚醒状態は、意識が朦朧としている状態を含む。例えば、意識が朦朧としている状態は、ユーザがうとうとしている状態、飲酒によりユーザが酔っ払っている状態などである。ここで、ユーザは、居眠り状態から一時的に覚醒状態になった後、再び居眠り状態になる場合がある。このように、ユーザが居眠り状態から短い時間の後に再び居眠り状態になることは、ユーザが居眠り状態と考えてもよい。よって、非覚醒状態には、ユーザが居眠り状態から一時的に覚醒状態になった後、再び居眠り状態になる場合が含まれる。
図2は、実施の形態1の状態判定装置が有するハードウェアの構成を示す図である。状態判定装置100は、プロセッサ101、揮発性記憶装置102、不揮発性記憶装置103、カメラ104、及びディスプレイ105を有する。
カメラ104は、顔を撮像する装置である。また、カメラ104は、撮像デバイスとも言う。ディスプレイ105は、情報を表示する装置である。また、ディスプレイ105は、表示デバイスとも言う。
なお、状態判定装置100がカメラ104及びディスプレイ105を有していない状態は、情報処理装置と考えてもよい。
状態判定装置100は、取得部110、抽出部10、状態判定部160、及び出力部170を有する。抽出部10は、顔領域抽出部120、顔特徴点抽出部130、顔特徴量抽出領域算出部140、及び顔特徴量抽出部150を有する。
また、状態判定装置100は、顔特徴点記憶部180、顔特徴量記憶部181、状態判定モデル記憶部182、及び判定結果記憶部183を有する。
抽出部10は、複数のフレームのそれぞれのフレームから顔領域を抽出し、顔領域から顔特徴点を抽出し、顔特徴点に基づいて顔特徴量抽出領域を算出し、顔特徴量抽出領域から顔特徴量を抽出する。なお、顔領域は、顔の領域を示す。顔特徴点は、顔の部位を示す。顔特徴量抽出領域は、ユーザが非覚醒状態であるときに顔領域の中で変化が生じる領域である。顔特徴量は、特徴量である。
抽出部10が実行する処理は、顔領域抽出部120、顔特徴点抽出部130、顔特徴量抽出領域算出部140、及び顔特徴量抽出部150を用いて詳細に説明する。
顔特徴点抽出部130は、顔領域に基づいて、輪郭、眉毛、目、鼻、口などの顔特徴点を抽出する。例えば、顔特徴点を抽出する方法は、非特許文献2に記載されている。
顔特徴点抽出部130は、顔特徴点を顔特徴点記憶部180に格納する。ここで、顔特徴点記憶部180について説明する。顔特徴点記憶部180は、顔特徴点テーブルを記憶する。
例えば、顔特徴点テーブル180aには、顔特徴点抽出部130が左目内端を抽出した座標が登録される。なお、左目内端は、左目頭とも言う。
顔特徴点抽出部130は、顔特徴点から顔の向きを算出する。顔の向きは、Yaw、Pitch、Rollで表される。顔特徴点抽出部130は、顔の向きを顔特徴点テーブル180aに登録する。
顔特徴量抽出領域算出部140は、非覚醒状態の判定に用いる顔特徴量の抽出領域を算出する。
ここで、ユーザが非覚醒状態のときに行う行為又はユーザが非覚醒状態の予兆となる行為として、ユーザは、眠気に抗う行為を行う。眠気に抗う行為とは、ユーザが故意にギュッと目をつぶる行為である。眠気に抗う行為は、ユーザが故意にギュッと目を閉じる強い瞬目と表現してもよい。ユーザが故意にギュッと目をつぶる場合、眉間に皺が生じる。そこで、顔特徴量抽出領域算出部140は、顔特徴量抽出領域として、顔領域内の眉間領域を算出する。
さらに、ユーザが非覚醒状態のときに行う行為又はユーザが非覚醒状態の予兆となる行為として、ユーザは、あくびをする。ユーザがあくびを行った場合、口が開く。また、ユーザがあくびを行った場合、頬に皺が生じる。そこで、顔特徴量抽出領域算出部140は、顔特徴量抽出領域として、顔領域内の口領域及び頬領域を算出する。
図4(A),(B)は、顔特徴量抽出領域の算出例を示す図である。図4(A)は、眉間領域の算出例である。顔特徴量抽出領域算出部140は、顔特徴点抽出部130が抽出した顔特徴点の中から左右目頭を特定する。顔特徴量抽出領域算出部140は、左目頭と右目頭との間の中間点200を算出する。顔特徴量抽出領域算出部140は、中間点200を中心とした矩形領域201(すなわち、a[pixel]×a[pixel]の領域)を算出する。矩形領域201は、眉間領域である。このように、顔特徴量抽出領域算出部140は、眉間領域を算出する。
さらに、顔特徴量抽出領域算出部140は、顔特徴点抽出部130が算出した顔の向きと顔特徴点とに基づいて、口領域を算出してもよい。算出方法は、上述した通りである。
顔特徴量抽出領域算出部140は、同様に、頬領域を算出することができる。
顔特徴量抽出部150は、眉間領域、口領域、頬領域に基づいて、顔特徴量を抽出する。顔特徴量は、HOG(Histograms of Oriented Gradients)特徴量である。例えば、HOG特徴量は、非特許文献3に記載されている。
また、顔特徴量は、HOG特徴量以外でもよい。例えば、顔特徴量は、SIFT(Scaled Invariance Feature Transform)特徴量、SURF(Speeded−Up Robust Features)、Haar−like特徴量などである。
顔特徴量抽出部150は、顔特徴量を顔特徴量記憶部181に格納する。ここで、顔特徴量記憶部181について説明する。顔特徴量記憶部181は、顔特徴量テーブルを記憶する。
また、顔特徴量テーブル181aには、取得部110が所定時間に取得したn(nは、2以上の整数)枚のフレームのそれぞれに対応するHOG特徴量が登録される。なお、例えば、所定時間は、5分である。
状態判定部160は、複数のフレームのそれぞれにおける顔特徴量と予め作成されている判定情報とに基づいて、ユーザが非覚醒状態であるか否かを判定する。また、状態判定部160は、複数のフレームのそれぞれに対応する顔特徴量と予め格納されている判定情報とに基づいて、ユーザが非覚醒状態であるか否かを判定すると表現してもよい。
状態判定部160は、HOG特徴量に基づいて、非覚醒状態を判定する。具体的には、状態判定部160は、所定時間内で、上記の3つの行為をユーザが行った回数に基づいて、非覚醒状態を判定する。なお、3つの行為とは、ユーザが眉間に皺を寄せる行為、ユーザが口の渇きを潤すために唇をなめる行為、ユーザがあくびを行う行為である。また、例えば、所定時間は、5分である。
当該情報は、状態判定モデルテーブルと言う。状態判定モデルテーブルについて説明する。
HOG特徴量Hnは、取得部110が所定時間に取得したnフレームに対応するHOG特徴量である。
図7は、実施の形態1の眉間に皺が寄せられた回数を算出する方法を説明するための図である。図7のグラフの縦軸は、コサイン類似度Snを示す。図7のグラフの横軸は、時間を示す。眉間に皺が寄せられた場合、皺のエッジが強く表れる。皺のエッジが強く表れた場合、コサイン類似度Snは、小さい値になる。
状態判定部160は、平均値が予め設定された閾値以上の場合、ユーザが非覚醒状態であると判定する。例えば、閾値は、3である。なお、当該閾値は、閾値レベルとも言う。このように、状態判定部160は、平均値がレベル3以上の場合、ユーザが非覚醒状態であると判定する。なお、どのレベルを非覚醒状態と判定するかは、評価方法によって変更できる。
出力部170は、判定結果テーブル183aに登録されている非覚醒レベルを出力する。例えば、出力部170は、非覚醒レベルをディスプレイ105に出力する。また、出力部170は、非覚醒レベルを音声出力してもよい。なお、判定結果テーブル183aに登録されている非覚醒レベルは、平均値を示す情報とも言う。
図10は、実施の形態1の顔特徴量抽出領域の算出処理を示すフローチャートである。なお、図10では、眉間領域の算出処理を説明する。また、図10は、顔特徴量抽出領域算出部140が実行する処理の一例である。
(ステップS12)顔特徴量抽出領域算出部140は、左目頭と右目頭との間の中間点を算出する。
(ステップS14)顔特徴量抽出領域算出部140は、中心座標を中心とした矩形領域を算出する。
(ステップS15)顔特徴量抽出領域算出部140は、顔領域抽出部120で抽出した顔領域の矩形領域を取得する。
顔特徴量抽出領域算出部140は、上記の処理と同様の処理により、口領域と頬領域とを算出することができる。
(ステップS21)顔特徴量抽出部150は、顔特徴量抽出領域算出部140が算出した3つの顔特徴量抽出領域を取得する。すなわち、3つの顔特徴量抽出領域は、眉間領域、口領域、及び頬領域である。
(ステップS22)顔特徴量抽出部150は、眉間領域に基づいて、HOG特徴量を抽出する。また、顔特徴量抽出部150は、口領域に基づいて、HOG特徴量を抽出する。さらに、顔特徴量抽出部150は、頬領域に基づいて、HOG特徴量を抽出する。
これにより、顔特徴量テーブル181aには、3つの顔特徴量抽出領域のそれぞれに基づいて抽出されたHOG特徴量のそれぞれが登録される。
(ステップS31)状態判定部160は、1つのフレーム(例えば、第1のフレームと言う。)から抽出された眉間領域に基づいて、抽出されたHOG特徴量を顔特徴量記憶部181から取得する。
(ステップS32)状態判定部160は、式(1)を用いて、コサイン類似度Snを算出する。
例えば、ステップS32で算出したコサイン類似度Snが閾値Sよりも小さい場合とは、眉間のしわのエッジが、強く表れる場合である。すなわち、ステップS32で算出したコサイン類似度Snが閾値Sよりも小さい場合とは、ユーザが眉間に皺を寄せている場合である。
判定条件が満たされる場合、状態判定部160は、処理をステップS34に進める。判定条件が満たされない場合、状態判定部160は、処理をステップS35に進める。
(ステップS35)状態判定部160は、カウント処理を開始してから5分経過したか否かを判定する。状態判定部160は、5分経過している場合、処理を終了する。状態判定部160は、5分経過していない場合、処理をステップS31に進める。なお、例えば、当該ステップS31では、状態判定部160は、第1のフレームの次に取得部110が取得した第2のフレームから抽出された眉間領域に基づいて、抽出されたHOG特徴量を顔特徴量記憶部181から取得する。
なお、上記の5分は、任意の時間である。そのため、5分という時間は、5分以外の時間でもよい。
(ステップS41)状態判定部160は、状態判定モデルテーブル182aと眉間に皺が寄せられた回数とに基づいて、非覚醒レベルを決定する。状態判定部160は、状態判定モデルテーブル182aと唇がなめられた回数とに基づいて、非覚醒レベルを決定する。状態判定部160は、状態判定モデルテーブル182aとあくびした回数とに基づいて、非覚醒レベルを決定する。
(ステップS43)状態判定部160は、平均値に基づいて、非覚醒状態を判定する。例えば、状態判定部160は、平均値がレベル3以上の場合、ユーザが非覚醒状態であると判定する。
(ステップS44)状態判定部160は、判定結果を判定結果記憶部183に格納する。
次に、実施の形態2を説明する。実施の形態2は、実施の形態1と相違する事項を主に説明し、実施の形態1と共通する事項の説明を省略する。実施の形態2は、図1〜13を参照する。
また、状態判定装置100aは、平均顔特徴点モデル記憶部184、顔条件記憶部185、及び抽出領域決定モデル記憶部186を有する。
図1に示される構成と同じ図14の構成は、図1に示される符号と同じ符号を付している。
また、顔条件判定部191は、ユーザが装着物を装着していない、かつフレームに影及び色飛びの領域が含まれていない場合、通常時と判定する。
顔条件判定部191は、判定結果を顔条件記憶部185に格納する。ここで、顔条件記憶部185について説明する。顔条件記憶部185は、顔条件テーブルを記憶する。
図16(A)は、顔条件判定部191が顔条件テーブル185aに“通常時”を登録した状態を示す。図16(B)は、顔条件判定部191が顔条件テーブル185aに“マスク着用”を登録した状態を示す。図16(C)は、顔条件判定部191が顔条件テーブル185aに“左から照射”を登録した状態を示す。
次に、抽出領域決定モデル記憶部186について説明する。抽出領域決定モデル記憶部186は、抽出領域決定モデルテーブルを記憶する。
顔特徴量抽出領域算出部140は、顔特徴点抽出部130が抽出した顔特徴点に基づいて、顔特徴量抽出領域決定部192が決定した顔特徴量抽出領域を算出する。
図18は、実施の形態2の顔条件の判定処理を示すフローチャートである。また、図18は、顔条件判定部191が実行する処理の一例である。
(ステップS51)顔条件判定部191は、顔特徴点記憶部180から顔特徴点を取得する。
例えば、顔条件判定部191は、フレーム内の顔のある領域の色彩が黒の場合、フレーム内に影が存在すると判定する。また、例えば、顔条件判定部191は、フレーム内の顔のある領域の色彩が白の場合、又はフレーム内のある領域の顔特徴点を取得できていない場合、フレーム内に色飛びが存在すると判定する。なお、図18では、影又は色飛びは、照明によって左方向から光が照射されているため、発生するものとする。
フレーム内に影又は色飛びが存在する場合、顔条件判定部191は、処理をステップS53に進める。フレーム内に影及び色飛びが存在しない場合、顔条件判定部191は、処理をステップS54に進める。
(ステップS54)顔条件判定部191は、ユーザが装着物を装着しているか否かを判定する。例えば、顔条件判定部191は、顔特徴点として目の特徴点が抽出されていない場合、ユーザが装着物を装着していると判定する。
ユーザが装着物を装着している場合、顔条件判定部191は、処理をステップS56に進める。ユーザが装着物を装着していない場合、顔条件判定部191は、処理をステップS55に進める。
(ステップS56)顔条件判定部191は、ユーザがマスクを装着しているか否かを判定する。例えば、顔条件判定部191は、顔特徴点として口の特徴点が抽出されていない場合、ユーザがマスクを装着していると判定する。
ユーザがマスクを装着している場合、顔条件判定部191は、処理をステップS57に進める。ユーザがマスクを装着していない場合、顔条件判定部191は、処理をステップS58に進める。
(ステップS58)顔条件判定部191は、ユーザがサングラスを装着しているか否かを判定する。例えば、顔条件判定部191は、顔特徴点として目の特徴点が抽出されていない場合、ユーザがサングラスを装着していると判定する。
ユーザがサングラスを装着している場合、顔条件判定部191は、処理をステップS59に進める。ユーザがサングラスを装着していない場合、顔条件判定部191は、処理を終了する。
(ステップS61)顔特徴量抽出領域決定部192は、顔条件テーブル185aから顔条件を取得する。
Claims (21)
- ユーザの顔を撮影することで順次取得される複数のフレームのそれぞれのフレームから前記顔の領域を示す顔領域を抽出し、前記顔領域から顔の部位を示す顔特徴点を抽出し、前記顔特徴点に基づいて、前記ユーザが非覚醒状態であるときに前記顔領域の中で変化が生じる領域である顔特徴量抽出領域を算出し、前記顔特徴量抽出領域から特徴量である顔特徴量を抽出する抽出部と、
前記複数のフレームのそれぞれにおける前記顔特徴量と予め作成されている判定情報とに基づいて、前記ユーザが前記非覚醒状態であるか否かを判定する状態判定部と、
判定結果を出力する出力部と、
を有する状態判定装置。 - 前記顔特徴量抽出領域は、前記顔領域内の眉間領域である、
請求項1に記載の状態判定装置。 - 前記判定情報は、前記ユーザが眉間に皺を寄せた回数に応じた非覚醒レベルを決定するための情報を含み、
前記状態判定部は、前記複数のフレームのそれぞれにおける前記眉間領域から抽出された前記顔特徴量に基づいて、前記ユーザが眉間に皺を寄せた回数を算出し、前記ユーザが眉間に皺を寄せた回数と前記判定情報とに基づいて非覚醒レベルを決定し、決定した非覚醒レベルが予め設定された閾値レベル以上の場合、前記ユーザが前記非覚醒状態であると判定する、
請求項2に記載の状態判定装置。 - 前記出力部は、決定された非覚醒レベルを出力する、
請求項3に記載の状態判定装置。 - 前記顔特徴量抽出領域は、前記顔領域内の口領域である、
請求項1に記載の状態判定装置。 - 前記判定情報は、前記ユーザが唇をなめた回数に応じた非覚醒レベルを決定するための情報を含み、
前記状態判定部は、前記複数のフレームのそれぞれにおける前記口領域から抽出された前記顔特徴量に基づいて、前記ユーザが唇をなめた回数を算出し、前記ユーザが唇をなめた回数と前記判定情報とに基づいて非覚醒レベルを決定し、決定した非覚醒レベルが予め設定された閾値レベル以上の場合、前記ユーザが前記非覚醒状態であると判定する、
請求項5に記載の状態判定装置。 - 前記出力部は、決定された非覚醒レベルを出力する、
請求項6に記載の状態判定装置。 - 前記顔特徴量抽出領域は、前記顔領域内の口領域及び頬領域である、
請求項1に記載の状態判定装置。 - 前記判定情報は、前記ユーザがあくびをした回数に応じた非覚醒レベルを決定するための情報を含み、
前記状態判定部は、前記複数のフレームのそれぞれにおける前記口領域及び前記頬領域から抽出された前記顔特徴量に基づいて、前記ユーザがあくびをした回数を算出し、前記ユーザがあくびをした回数と前記判定情報とに基づいて非覚醒レベルを決定し、決定した非覚醒レベルが予め設定された閾値レベル以上の場合、前記ユーザが前記非覚醒状態であると判定する、
請求項8に記載の状態判定装置。 - 前記出力部は、決定された非覚醒レベルを出力する、
請求項9に記載の状態判定装置。 - 前記顔特徴量抽出領域は、前記顔領域内の眉間領域及び口領域であり、
前記判定情報は、前記ユーザが眉間に皺を寄せた回数に応じた非覚醒レベルを決定するための情報及び前記ユーザが唇をなめた回数に応じた非覚醒レベルを決定するための情報を含み、
前記状態判定部は、
前記複数のフレームのそれぞれにおける前記眉間領域から抽出された前記顔特徴量に基づいて、前記ユーザが眉間に皺を寄せた回数を算出し、前記ユーザが眉間に皺を寄せた回数と前記判定情報とに基づいて非覚醒レベルを決定し、前記複数のフレームのそれぞれにおける前記口領域から抽出された前記顔特徴量に基づいて、前記ユーザが唇をなめた回数を算出し、前記ユーザが唇をなめた回数と前記判定情報とに基づいて非覚醒レベルを決定し、
決定した複数の非覚醒レベルの平均値を算出し、
前記平均値が予め設定された閾値以上の場合、前記ユーザが前記非覚醒状態であると判定する、
請求項1に記載の状態判定装置。 - 前記顔特徴量抽出領域は、前記顔領域内の眉間領域、口領域、及び頬領域であり、
前記判定情報は、前記ユーザが眉間に皺を寄せた回数に応じた非覚醒レベルを決定するための情報及び前記ユーザがあくびをした回数に応じた非覚醒レベルを決定するための情報を含み、
前記状態判定部は、
前記複数のフレームのそれぞれにおける前記眉間領域から抽出された前記顔特徴量に基づいて、前記ユーザが眉間に皺を寄せた回数を算出し、前記ユーザが眉間に皺を寄せた回数と前記判定情報とに基づいて非覚醒レベルを決定し、前記複数のフレームのそれぞれにおける前記口領域及び前記頬領域から抽出された前記顔特徴量に基づいて、前記ユーザがあくびをした回数を算出し、前記ユーザがあくびをした回数と前記判定情報とに基づいて非覚醒レベルを決定し、
決定した複数の非覚醒レベルの平均値を算出し、
前記平均値が予め設定された閾値以上の場合、前記ユーザが前記非覚醒状態であると判定する、
請求項1に記載の状態判定装置。 - 前記顔特徴量抽出領域は、前記顔領域内の口領域及び頬領域であり、
前記判定情報は、前記ユーザが唇をなめた回数に応じた非覚醒レベルを決定するための情報及び前記ユーザがあくびをした回数に応じた非覚醒レベルを決定するための情報を含み、
前記状態判定部は、
前記複数のフレームのそれぞれにおける前記口領域から抽出された前記顔特徴量に基づいて、前記ユーザが唇をなめた回数を算出し、前記ユーザが唇をなめた回数と前記判定情報とに基づいて非覚醒レベルを決定し、前記複数のフレームのそれぞれにおける前記口領域及び前記頬領域から抽出された前記顔特徴量に基づいて、前記ユーザがあくびをした回数を算出し、前記ユーザがあくびをした回数と前記判定情報とに基づいて非覚醒レベルを決定し、
決定した複数の非覚醒レベルの平均値を算出し、
前記平均値が予め設定された閾値以上の場合、前記ユーザが前記非覚醒状態であると判定する、
請求項1に記載の状態判定装置。 - 前記顔特徴量抽出領域は、前記顔領域内の眉間領域、口領域、及び頬領域であり、
前記判定情報は、前記ユーザが眉間に皺を寄せた回数に応じた非覚醒レベルを決定するための情報、前記ユーザが唇をなめた回数に応じた非覚醒レベルを決定するための情報、及び前記ユーザがあくびをした回数に応じた非覚醒レベルを決定するための情報を含み、
前記状態判定部は、
前記複数のフレームのそれぞれにおける前記眉間領域から抽出された前記顔特徴量に基づいて、前記ユーザが眉間に皺を寄せた回数を算出し、前記ユーザが眉間に皺を寄せた回数と前記判定情報とに基づいて非覚醒レベルを決定し、前記複数のフレームのそれぞれにおける前記口領域から抽出された前記顔特徴量に基づいて、前記ユーザが唇をなめた回数を算出し、前記ユーザが唇をなめた回数と前記判定情報とに基づいて非覚醒レベルを決定し、前記複数のフレームのそれぞれにおける前記口領域及び前記頬領域から抽出された前記顔特徴量に基づいて、前記ユーザがあくびをした回数を算出し、前記ユーザがあくびをした回数と前記判定情報とに基づいて非覚醒レベルを決定し、
決定した複数の非覚醒レベルの平均値を算出し、
前記平均値が予め設定された閾値以上の場合、前記ユーザが前記非覚醒状態であると判定する、
請求項1に記載の状態判定装置。 - 前記出力部は、前記平均値を示す情報を出力する、
請求項11から14のいずれか1項に記載の状態判定装置。 - 前記判定情報は、機械学習により得られた情報であり、かつ前記ユーザが前記非覚醒状態であるか否かを判定するための情報である、
請求項1に記載の状態判定装置。 - 前記複数のフレームに基づいて、前記ユーザが装着物を装着しているか否かを判定する顔条件判定部と、
前記ユーザが前記装着物を装着していると判定された場合、前記装着物が装着されている位置に応じて、前記顔領域のうちどの領域を前記顔特徴量抽出領域とするのかを示す抽出領域決定モデル情報に基づいて、前記顔特徴量抽出領域を決定する顔特徴量抽出領域決定部と、
をさらに有する、
請求項1から16のいずれか1項に記載の状態判定装置。 - 前記顔条件判定部は、平均的な顔の部位の位置を示す平均顔特徴点モデル情報と前記顔特徴点の位置とに基づいて、前記ユーザが前記装着物を装着しているか否かを判定する、
請求項17に記載の状態判定装置。 - 前記複数のフレームのいずれかのフレームに影又は色飛びが存在するか否かを判定する顔条件判定部と、
前記複数のフレームのいずれかのフレームに前記影又は前記色飛びが存在すると判定された場合、前記影又は前記色飛びが存在する位置に応じて、前記顔領域のうちどの領域を前記顔特徴量抽出領域とするのかを示す抽出領域決定モデル情報に基づいて、前記顔特徴量抽出領域を決定する顔特徴量抽出領域決定部と、
をさらに有する、
請求項1から16のいずれか1項に記載の状態判定装置。 - 状態判定装置が、
ユーザの顔を撮影することで順次取得される複数のフレームのそれぞれのフレームから前記顔の領域を示す顔領域を抽出し、前記顔領域から顔の部位を示す顔特徴点を抽出し、前記顔特徴点に基づいて、前記ユーザが非覚醒状態であるときに前記顔領域の中で変化が生じる領域である顔特徴量抽出領域を算出し、前記顔特徴量抽出領域から特徴量である顔特徴量を抽出し、
前記複数のフレームのそれぞれにおける前記顔特徴量と予め作成されている判定情報とに基づいて、前記ユーザが前記非覚醒状態であるか否かを判定し、
判定結果を出力する、
状態判定方法。 - 状態判定装置に、
ユーザの顔を撮影することで順次取得される複数のフレームのそれぞれのフレームから前記顔の領域を示す顔領域を抽出し、前記顔領域から顔の部位を示す顔特徴点を抽出し、前記顔特徴点に基づいて、前記ユーザが非覚醒状態であるときに前記顔領域の中で変化が生じる領域である顔特徴量抽出領域を算出し、前記顔特徴量抽出領域から特徴量である顔特徴量を抽出し、
前記複数のフレームのそれぞれにおける前記顔特徴量と予め作成されている判定情報とに基づいて、前記ユーザが前記非覚醒状態であるか否かを判定し、
判定結果を出力する、
処理を実行させるための状態判定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/045595 WO2020121425A1 (ja) | 2018-12-12 | 2018-12-12 | 状態判定装置、状態判定方法、及び状態判定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020121425A1 true JPWO2020121425A1 (ja) | 2021-05-20 |
JP6906717B2 JP6906717B2 (ja) | 2021-07-21 |
Family
ID=71075986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020558850A Active JP6906717B2 (ja) | 2018-12-12 | 2018-12-12 | 状態判定装置、状態判定方法、及び状態判定プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11963759B2 (ja) |
JP (1) | JP6906717B2 (ja) |
CN (1) | CN113168680A (ja) |
DE (1) | DE112018008131B4 (ja) |
WO (1) | WO2020121425A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108615014B (zh) * | 2018-04-27 | 2022-06-21 | 京东方科技集团股份有限公司 | 一种眼睛状态的检测方法、装置、设备和介质 |
JP7443283B2 (ja) * | 2021-03-29 | 2024-03-05 | 公益財団法人鉄道総合技術研究所 | 覚醒度推定方法、覚醒度推定装置及び覚醒度推定プログラム |
JP7346528B2 (ja) * | 2021-05-26 | 2023-09-19 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
WO2022250063A1 (ja) * | 2021-05-26 | 2022-12-01 | キヤノン株式会社 | 顔認証を行う画像処理装置および画像処理方法 |
US20230008323A1 (en) * | 2021-07-12 | 2023-01-12 | GE Precision Healthcare LLC | Systems and methods for predicting and preventing patient departures from bed |
JP7403729B2 (ja) * | 2021-11-25 | 2023-12-22 | 三菱電機株式会社 | 覚醒度推定装置および覚醒度推定方法 |
WO2023238365A1 (ja) * | 2022-06-10 | 2023-12-14 | 富士通株式会社 | 顔特徴情報抽出方法、顔特徴情報抽出装置、及び顔特徴情報抽出プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008212298A (ja) * | 2007-03-01 | 2008-09-18 | Toyota Central R&D Labs Inc | 眠気判定装置及びプログラム |
JP2012221061A (ja) * | 2011-04-05 | 2012-11-12 | Canon Inc | 画像認識装置、画像認識方法、及びプログラム |
JP2016081212A (ja) * | 2014-10-15 | 2016-05-16 | 日本電気株式会社 | 画像認識装置、画像認識方法、および、画像認識プログラム |
JP2017162409A (ja) * | 2016-03-11 | 2017-09-14 | ヤンマー株式会社 | 顔の表情と動作の認識装置及び方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11339200A (ja) | 1998-05-28 | 1999-12-10 | Toyota Motor Corp | 居眠り運転検出装置 |
LU90879B1 (de) * | 2001-12-12 | 2003-06-13 | Hagen Hultzsch | Verfahren und Vorrichtung zur Erkennung des Schlaefrigkeitszustandes von Fuehrern bewegter Objekte |
KR101386823B1 (ko) * | 2013-10-29 | 2014-04-17 | 김재철 | 동작, 안면, 눈, 입모양 인지를 통한 2단계 졸음운전 방지 장치 |
KR102368812B1 (ko) * | 2015-06-29 | 2022-02-28 | 엘지전자 주식회사 | 차량 운전 보조 방법 및 차량 |
JP6707969B2 (ja) * | 2016-04-19 | 2020-06-10 | トヨタ自動車株式会社 | 覚醒度判定装置 |
US20180012090A1 (en) * | 2016-07-07 | 2018-01-11 | Jungo Connectivity Ltd. | Visual learning system and method for determining a driver's state |
CN109564102A (zh) * | 2016-08-22 | 2019-04-02 | 三菱电机株式会社 | 信息提示装置、信息提示系统及信息提示方法 |
CN110291478B (zh) * | 2016-12-22 | 2023-09-29 | 斯坦福国际研究院 | 驾驶员监视和响应系统 |
CN110168610B (zh) * | 2017-01-17 | 2023-07-21 | 三菱电机株式会社 | 眼睑检测装置、瞌睡判定装置、及眼睑检测方法 |
KR20180124381A (ko) * | 2017-05-11 | 2018-11-21 | 현대자동차주식회사 | 운전자의 상태 판단 시스템 및 그 방법 |
US11219395B2 (en) * | 2017-07-19 | 2022-01-11 | Panasonic Intellectual Property Management Co., Ltd. | Sleepiness estimating device and wakefulness inducing device |
CN109803583A (zh) * | 2017-08-10 | 2019-05-24 | 北京市商汤科技开发有限公司 | 驾驶状态监控方法、装置和电子设备 |
CN111295699B (zh) * | 2017-08-31 | 2023-03-21 | 松下知识产权经营株式会社 | 辅助方法以及利用该辅助方法的辅助系统、辅助装置 |
JP2019086813A (ja) * | 2017-11-01 | 2019-06-06 | 株式会社デンソー | 漫然運転抑制システム |
EP3719772A4 (en) * | 2017-11-30 | 2020-12-30 | Panasonic Intellectual Property Management Co., Ltd. | IMAGE PROCESSING DEVICE, IMAGE PROCESSING SYSTEM, IMAGE CAPTURE DEVICE, IMAGE ACQUISITION SYSTEM, AND IMAGE PROCESSING METHOD |
JP6888542B2 (ja) * | 2017-12-22 | 2021-06-16 | トヨタ自動車株式会社 | 眠気推定装置及び眠気推定方法 |
US10867195B2 (en) * | 2018-03-12 | 2020-12-15 | Microsoft Technology Licensing, Llc | Systems and methods for monitoring driver state |
JP7124367B2 (ja) * | 2018-03-20 | 2022-08-24 | トヨタ自動車株式会社 | 作業支援システム、情報処理方法およびプログラム |
US10970571B2 (en) * | 2018-06-04 | 2021-04-06 | Shanghai Sensetime Intelligent Technology Co., Ltd. | Vehicle control method and system, vehicle-mounted intelligent system, electronic device, and medium |
JP6822453B2 (ja) * | 2018-09-10 | 2021-01-27 | ダイキン工業株式会社 | 空調制御装置および空気調和装置 |
-
2018
- 2018-12-12 DE DE112018008131.1T patent/DE112018008131B4/de active Active
- 2018-12-12 JP JP2020558850A patent/JP6906717B2/ja active Active
- 2018-12-12 CN CN201880099794.8A patent/CN113168680A/zh active Pending
- 2018-12-12 WO PCT/JP2018/045595 patent/WO2020121425A1/ja active Application Filing
-
2021
- 2021-05-21 US US17/326,795 patent/US11963759B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008212298A (ja) * | 2007-03-01 | 2008-09-18 | Toyota Central R&D Labs Inc | 眠気判定装置及びプログラム |
JP2012221061A (ja) * | 2011-04-05 | 2012-11-12 | Canon Inc | 画像認識装置、画像認識方法、及びプログラム |
JP2016081212A (ja) * | 2014-10-15 | 2016-05-16 | 日本電気株式会社 | 画像認識装置、画像認識方法、および、画像認識プログラム |
JP2017162409A (ja) * | 2016-03-11 | 2017-09-14 | ヤンマー株式会社 | 顔の表情と動作の認識装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
DE112018008131T5 (de) | 2021-07-29 |
JP6906717B2 (ja) | 2021-07-21 |
US11963759B2 (en) | 2024-04-23 |
WO2020121425A1 (ja) | 2020-06-18 |
DE112018008131B4 (de) | 2022-10-27 |
US20210271865A1 (en) | 2021-09-02 |
CN113168680A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6906717B2 (ja) | 状態判定装置、状態判定方法、及び状態判定プログラム | |
CN109477951B (zh) | 在保护隐私的同时识别人及/或识别并量化疼痛、疲劳、情绪及意图的系统及方法 | |
Knapik et al. | Driver’s fatigue recognition based on yawn detection in thermal images | |
US8891819B2 (en) | Line-of-sight detection apparatus and method thereof | |
CN106557726B (zh) | 一种带静默式活体检测的人脸身份认证系统及其方法 | |
CN106682578B (zh) | 基于眨眼检测的弱光人脸识别方法 | |
KR20080095999A (ko) | 인식 시스템 | |
JP2000259814A (ja) | 画像処理装置及びその方法 | |
de Lima Medeiros et al. | Efficient machine learning approach for volunteer eye-blink detection in real-time using webcam | |
JP5787845B2 (ja) | 画像認識装置、方法、及びプログラム | |
JP6351243B2 (ja) | 画像処理装置、画像処理方法 | |
TW201140511A (en) | Drowsiness detection method | |
JP6822482B2 (ja) | 視線推定装置、視線推定方法及びプログラム記録媒体 | |
US20150278584A1 (en) | Object discriminating apparatus and method | |
Gómez-Poveda et al. | Evaluation of temporal stability of eye tracking algorithms using webcams | |
US11875603B2 (en) | Facial action unit detection | |
Liu et al. | A practical driver fatigue detection algorithm based on eye state | |
Monwar et al. | Eigenimage based pain expression recognition | |
Shang et al. | Eye focus detection based on OpenCV | |
CN109657550B (zh) | 一种疲劳度检测方法及装置 | |
Adireddi et al. | Detection of eye blink using svm classifier | |
Agrawal et al. | Support Vector Machine for age classification | |
WO2021053806A1 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
Hsu et al. | Extraction of visual facial features for health management | |
Horak et al. | Eyes detection and tracking for monitoring driver vigilance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210205 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210205 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210205 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6906717 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |