[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPWO2020121425A1 - 状態判定装置、状態判定方法、及び状態判定プログラム - Google Patents

状態判定装置、状態判定方法、及び状態判定プログラム Download PDF

Info

Publication number
JPWO2020121425A1
JPWO2020121425A1 JP2020558850A JP2020558850A JPWO2020121425A1 JP WO2020121425 A1 JPWO2020121425 A1 JP WO2020121425A1 JP 2020558850 A JP2020558850 A JP 2020558850A JP 2020558850 A JP2020558850 A JP 2020558850A JP WO2020121425 A1 JPWO2020121425 A1 JP WO2020121425A1
Authority
JP
Japan
Prior art keywords
user
face
region
feature amount
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020558850A
Other languages
English (en)
Other versions
JP6906717B2 (ja
Inventor
隼也 大澤
隼也 大澤
貴弘 大塚
貴弘 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2020121425A1 publication Critical patent/JPWO2020121425A1/ja
Application granted granted Critical
Publication of JP6906717B2 publication Critical patent/JP6906717B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1104Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb induced by stimuli or drugs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4845Toxicology, e.g. by detection of alcohol, drug or toxic products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Anesthesiology (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Toxicology (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Chemical & Material Sciences (AREA)
  • Medicinal Chemistry (AREA)
  • Image Analysis (AREA)

Abstract

状態判定装置(100)は、ユーザの顔を撮影することで順次取得される複数のフレームのそれぞれのフレームから顔の領域を示す顔領域を抽出し、顔領域から顔の部位を示す顔特徴点を抽出し、顔特徴点に基づいて、ユーザが非覚醒状態であるときに顔領域の中で変化が生じる領域である顔特徴量抽出領域を算出し、顔特徴量抽出領域から特徴量である顔特徴量を抽出する抽出部(10)と、複数のフレームのそれぞれにおける顔特徴量と予め作成されている判定情報とに基づいて、ユーザが非覚醒状態であるか否かを判定する状態判定部(160)と、判定結果を出力する出力部(170)と、を有する。

Description

本発明は、状態判定装置、状態判定方法、及び状態判定プログラムに関する。
人は、非覚醒状態になる場合がある。例えば、非覚醒状態は、居眠り状態、飲酒により居眠りしている状態などである。
ところで、事故の防止のため、車内又は工場内に居る人の非覚醒状態を判定する技術の開発が進んでいる。例えば、心拍、脳波、瞬きなどから非覚醒状態のときに変化する特徴量が抽出される。次に、当該特徴量と閾値とが比較される。比較結果から非覚醒状態が判定される。このように、非覚醒状態は、心拍などの生体信号から判定できる。しかし、当該判定の方法では、人にセンサが装着される。そのため、当該判定の方法では、人は、煩わしさを感じる。また、人がセンサを装着していない場合、当該判定の方法は、使用することができない。さらに、当該判定の方法は、センサを用いるため、コストがかかる。
ここで、居眠り状態を検出する技術が提案されている(特許文献1を参照)。例えば、特許文献1の居眠り運転検出装置は、瞬き頻度を用いて、運転手の居眠り状態を検出する。また、運転手の眠気状態を判定する技術が提案されている(特許文献2を参照)。例えば、特許文献2の眠気判定装置は、瞬き頻度を用いて、眠気状態を判定する。
特開平11−339200号公報 特開2008−212298号公報
Paul Viola, Michael J Jones「Robust Real−Time Face Detection International Journal of Computer Vision 57(2)」、2004年 Laurenz Wiskott,Jean−Marc Fellous,Norbert Kruger,Christoph von der Malsburg「Face Recognition by Elastic Bunch Graph Matching」、1996年 Navneet Dalal and Bill Triggs「Histograms of Oriented Gradients for Human Detection」
特許文献1,2の技術は、瞬き頻度を用いている。しかし、瞬き頻度は、個人差が大きい。例えば、覚醒時に瞬き頻度が非常に高い人の場合、特許文献1,2の技術を用いて非覚醒状態であるか否かを判定することは、難しい。
そのため、どのように高い精度で非覚醒状態を判定するかが問題である。
本発明の目的は、高い精度で非覚醒状態を判定することである。
本発明の一態様に係る状態判定装置が提供される。状態判定装置は、ユーザの顔を撮影することで順次取得される複数のフレームのそれぞれのフレームから前記顔の領域を示す顔領域を抽出し、前記顔領域から顔の部位を示す顔特徴点を抽出し、前記顔特徴点に基づいて、前記ユーザが非覚醒状態であるときに前記顔領域の中で変化が生じる領域である顔特徴量抽出領域を算出し、前記顔特徴量抽出領域から特徴量である顔特徴量を抽出する抽出部と、前記複数のフレームのそれぞれにおける前記顔特徴量と予め作成されている判定情報とに基づいて、前記ユーザが前記非覚醒状態であるか否かを判定する状態判定部と、判定結果を出力する出力部と、を有する。
本発明によれば、高い精度で非覚醒状態を判定することができる。
実施の形態1の状態判定装置を示す図である。 実施の形態1の状態判定装置が有するハードウェアの構成を示す図である。 実施の形態1の顔特徴点テーブルの例を示す図である。 (A),(B)は、顔特徴量抽出領域の算出例を示す図である。 実施の形態1の顔特徴量テーブルの例を示す図である。 実施の形態1の状態判定モデルテーブルの例を示す図である。 実施の形態1の眉間に皺が寄せられた回数を算出する方法を説明するための図である。 実施の形態1の非覚醒レベルの具体例を示す図である。 実施の形態1の判定結果テーブルの例を示す図である。 実施の形態1の顔特徴量抽出領域の算出処理を示すフローチャートである。 実施の形態1の顔特徴量の抽出処理を示すフローチャートである。 実施の形態1のカウント処理を示すフローチャートである。 実施の形態1の非覚醒状態の判定処理を示すフローチャートである。 実施の形態2の状態判定装置の構成を示す機能ブロック図である。 実施の形態2の平均顔特徴点モデルテーブルの一例を示す図である。 (A)〜(C)は、顔条件テーブルの一例を示す図である。 実施の形態2の抽出領域決定モデルテーブルの一例を示す図である。 実施の形態2の顔条件の判定処理を示すフローチャートである。 実施の形態2の顔特徴量抽出領域の決定処理を示すフローチャートである。
以下、図面を参照しながら実施の形態を説明する。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。
実施の形態1.
図1は、実施の形態1の状態判定装置を示す図である。状態判定装置100は、状態判定方法を実行する装置である。
状態判定装置100は、非覚醒状態を判定する。例えば、非覚醒状態は、居眠り状態、飲酒により居眠りしている状態などである。また、非覚醒状態は、意識が朦朧としている状態を含む。例えば、意識が朦朧としている状態は、ユーザがうとうとしている状態、飲酒によりユーザが酔っ払っている状態などである。ここで、ユーザは、居眠り状態から一時的に覚醒状態になった後、再び居眠り状態になる場合がある。このように、ユーザが居眠り状態から短い時間の後に再び居眠り状態になることは、ユーザが居眠り状態と考えてもよい。よって、非覚醒状態には、ユーザが居眠り状態から一時的に覚醒状態になった後、再び居眠り状態になる場合が含まれる。
次に、状態判定装置100が有するハードウェアについて説明する。
図2は、実施の形態1の状態判定装置が有するハードウェアの構成を示す図である。状態判定装置100は、プロセッサ101、揮発性記憶装置102、不揮発性記憶装置103、カメラ104、及びディスプレイ105を有する。
プロセッサ101は、状態判定装置100全体を制御する。例えば、プロセッサ101は、CPU(Central Processing Unit)、又はFPGA(Field Programmable Gate Array)などである。プロセッサ101は、マルチプロセッサでもよい。状態判定装置100は、処理回路によって実現されてもよく、又は、ソフトウェア、ファームウェア若しくはそれらの組み合わせによって実現されてもよい。なお、処理回路は、単一回路又は複合回路でもよい。
揮発性記憶装置102は、状態判定装置100の主記憶装置である。例えば、揮発性記憶装置102は、RAM(Random Access Memory)である。不揮発性記憶装置103は、状態判定装置100の補助記憶装置である。例えば、不揮発性記憶装置103は、SSD(Solid State Drive)である。
カメラ104は、顔を撮像する装置である。また、カメラ104は、撮像デバイスとも言う。ディスプレイ105は、情報を表示する装置である。また、ディスプレイ105は、表示デバイスとも言う。
なお、状態判定装置100がカメラ104及びディスプレイ105を有していない状態は、情報処理装置と考えてもよい。
図1に戻って、状態判定装置100を説明する。
状態判定装置100は、取得部110、抽出部10、状態判定部160、及び出力部170を有する。抽出部10は、顔領域抽出部120、顔特徴点抽出部130、顔特徴量抽出領域算出部140、及び顔特徴量抽出部150を有する。
また、状態判定装置100は、顔特徴点記憶部180、顔特徴量記憶部181、状態判定モデル記憶部182、及び判定結果記憶部183を有する。
抽出部10、取得部110、顔領域抽出部120、顔特徴点抽出部130、顔特徴量抽出領域算出部140、顔特徴量抽出部150、状態判定部160、及び出力部170の一部又は全部は、プロセッサ101によって実現してもよい。
また、抽出部10、取得部110、顔領域抽出部120、顔特徴点抽出部130、顔特徴量抽出領域算出部140、顔特徴量抽出部150、状態判定部160、及び出力部170の一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。例えば、プロセッサ101が実行するプログラムは、状態判定プログラムとも言う。例えば、状態判定プログラムは、揮発性記憶装置102、不揮発性記憶装置103などの記録媒体に格納されている。
顔特徴点記憶部180、顔特徴量記憶部181、状態判定モデル記憶部182、及び判定結果記憶部183は、揮発性記憶装置102又は不揮発性記憶装置103に確保した記憶領域として実現してもよい。
取得部110は、ユーザの顔を撮影することで順次取得される複数のフレームをカメラ104から取得する。複数のフレームは、動画像と表現してもよい。フレームは、画像である。また、複数のフレームは、異なる時刻にユーザの顔が撮影された複数のフレームと表現してもよい。
抽出部10は、複数のフレームのそれぞれのフレームから顔領域を抽出し、顔領域から顔特徴点を抽出し、顔特徴点に基づいて顔特徴量抽出領域を算出し、顔特徴量抽出領域から顔特徴量を抽出する。なお、顔領域は、顔の領域を示す。顔特徴点は、顔の部位を示す。顔特徴量抽出領域は、ユーザが非覚醒状態であるときに顔領域の中で変化が生じる領域である。顔特徴量は、特徴量である。
また、顔特徴量抽出領域は、ユーザが非覚醒状態のときに顔領域の中で変化が生じる領域であり、かつユーザが非覚醒状態のときにユーザの顔の動きとして個人差が生じない領域であると表現してもよい。
抽出部10が実行する処理は、顔領域抽出部120、顔特徴点抽出部130、顔特徴量抽出領域算出部140、及び顔特徴量抽出部150を用いて詳細に説明する。
顔領域抽出部120は、動画像の中から顔領域を抽出する。顔領域抽出部120は、Adaboost学習によるHaar−like特徴を用いた識別器を用いて実現してもよい。例えば、顔領域を抽出する方法は、非特許文献1に記載されている。
顔特徴点抽出部130は、顔領域に基づいて、輪郭、眉毛、目、鼻、口などの顔特徴点を抽出する。例えば、顔特徴点を抽出する方法は、非特許文献2に記載されている。
顔特徴点抽出部130は、顔特徴点を顔特徴点記憶部180に格納する。ここで、顔特徴点記憶部180について説明する。顔特徴点記憶部180は、顔特徴点テーブルを記憶する。
図3は、実施の形態1の顔特徴点テーブルの例を示す図である。顔特徴点テーブル180aは、顔特徴点記憶部180に格納される。顔特徴点テーブル180aは、特徴点、顔の向きの項目を有する。また、顔特徴点テーブル180aは、座標、角度の項目を有する。
例えば、顔特徴点テーブル180aには、顔特徴点抽出部130が左目内端を抽出した座標が登録される。なお、左目内端は、左目頭とも言う。
顔特徴点抽出部130は、顔特徴点から顔の向きを算出する。顔の向きは、Yaw、Pitch、Rollで表される。顔特徴点抽出部130は、顔の向きを顔特徴点テーブル180aに登録する。
図1に戻って、顔特徴量抽出領域算出部140を説明する。
顔特徴量抽出領域算出部140は、非覚醒状態の判定に用いる顔特徴量の抽出領域を算出する。
ここで、ユーザが非覚醒状態のときに行う行為又はユーザが非覚醒状態の予兆となる行為として、ユーザは、眠気に抗う行為を行う。眠気に抗う行為とは、ユーザが故意にギュッと目をつぶる行為である。眠気に抗う行為は、ユーザが故意にギュッと目を閉じる強い瞬目と表現してもよい。ユーザが故意にギュッと目をつぶる場合、眉間に皺が生じる。そこで、顔特徴量抽出領域算出部140は、顔特徴量抽出領域として、顔領域内の眉間領域を算出する。
また、ユーザが飲酒に伴う非覚醒状態などの場合、ユーザは、口の渇きを潤すために唇をなめる。そこで、顔特徴量抽出領域算出部140は、顔特徴量抽出領域として、顔領域内の口領域を算出する。
さらに、ユーザが非覚醒状態のときに行う行為又はユーザが非覚醒状態の予兆となる行為として、ユーザは、あくびをする。ユーザがあくびを行った場合、口が開く。また、ユーザがあくびを行った場合、頬に皺が生じる。そこで、顔特徴量抽出領域算出部140は、顔特徴量抽出領域として、顔領域内の口領域及び頬領域を算出する。
ここで、具体例として、眉間領域の算出と口領域の算出を説明する。
図4(A),(B)は、顔特徴量抽出領域の算出例を示す図である。図4(A)は、眉間領域の算出例である。顔特徴量抽出領域算出部140は、顔特徴点抽出部130が抽出した顔特徴点の中から左右目頭を特定する。顔特徴量抽出領域算出部140は、左目頭と右目頭との間の中間点200を算出する。顔特徴量抽出領域算出部140は、中間点200を中心とした矩形領域201(すなわち、a[pixel]×a[pixel]の領域)を算出する。矩形領域201は、眉間領域である。このように、顔特徴量抽出領域算出部140は、眉間領域を算出する。
また、顔特徴量抽出領域算出部140は、顔領域抽出部120で抽出した顔領域の矩形領域に基づいて、矩形領域201の各辺をk倍する。これにより、顔特徴量抽出領域算出部140は、(a×k)[pixel]×(a×k)[pixel]の矩形領域を算出できる。
ここで、顔の向きにより、眉間領域が正確に算出されない場合がある。そこで、顔特徴量抽出領域算出部140は、顔特徴点抽出部130が算出した顔の向きと中間点とに基づいて、眉間領域を算出してもよい。具体的に説明する。例えば、顔が左方向に向いているとする。顔が左方向に向いている場合、眉間の皺が発生する領域の中心は、左目頭と右目頭との間の中間点よりも左の位置である。そのため、顔特徴量抽出領域算出部140は、当該中間点を左にl[pixel]平行移動した座標を、眉間領域の中心座標として算出する。顔特徴量抽出領域算出部140は、中心座標を中心とした矩形領域を算出する。
図4(B)は、口領域の算出例である。顔特徴量抽出領域算出部140は、顔特徴点抽出部130が抽出した顔特徴点の中から左右口角を特定する。顔特徴量抽出領域算出部140は、左口角と右口角との間の中間点210を算出する。顔特徴量抽出領域算出部140は、中間点210を中心とした矩形領域211(すなわち、b[pixel]×b[pixel]の領域)を算出する。矩形領域211は、口領域である。このように、顔特徴量抽出領域算出部140は、口領域を算出する。
また、顔特徴量抽出領域算出部140は、顔領域抽出部120で抽出した顔領域の矩形領域に基づいて、矩形領域211の各辺をk倍する。これにより、顔特徴量抽出領域算出部140は、(b×k)[pixel]×(b×k)[pixel]の矩形領域を算出できる。
さらに、顔特徴量抽出領域算出部140は、顔特徴点抽出部130が算出した顔の向きと顔特徴点とに基づいて、口領域を算出してもよい。算出方法は、上述した通りである。
顔特徴量抽出領域算出部140は、同様に、頬領域を算出することができる。
図1に戻って、顔特徴量抽出部150を説明する。
顔特徴量抽出部150は、眉間領域、口領域、頬領域に基づいて、顔特徴量を抽出する。顔特徴量は、HOG(Histograms of Oriented Gradients)特徴量である。例えば、HOG特徴量は、非特許文献3に記載されている。
また、顔特徴量は、HOG特徴量以外でもよい。例えば、顔特徴量は、SIFT(Scaled Invariance Feature Transform)特徴量、SURF(Speeded−Up Robust Features)、Haar−like特徴量などである。
顔特徴量抽出部150は、顔特徴量を顔特徴量記憶部181に格納する。ここで、顔特徴量記憶部181について説明する。顔特徴量記憶部181は、顔特徴量テーブルを記憶する。
図5は、実施の形態1の顔特徴量テーブルの例を示す図である。顔特徴量テーブル181aは、顔特徴量記憶部181に格納される。顔特徴量テーブル181aは、特徴量及び値の項目を有する。顔特徴量抽出部150は、顔特徴量テーブル181aに顔特徴量を登録する。すなわち、顔特徴量抽出部150は、顔特徴量テーブル181aの顔特徴量の項目に顔特徴量を示す情報を登録する。そして、顔特徴量抽出部150は、顔特徴量テーブル181aの値の項目に、顔特徴量に対応する値を登録する。
また、顔特徴量テーブル181aには、取得部110が所定時間に取得したn(nは、2以上の整数)枚のフレームのそれぞれに対応するHOG特徴量が登録される。なお、例えば、所定時間は、5分である。
図1に戻って、状態判定部160を説明する。
状態判定部160は、複数のフレームのそれぞれにおける顔特徴量と予め作成されている判定情報とに基づいて、ユーザが非覚醒状態であるか否かを判定する。また、状態判定部160は、複数のフレームのそれぞれに対応する顔特徴量と予め格納されている判定情報とに基づいて、ユーザが非覚醒状態であるか否かを判定すると表現してもよい。
状態判定部160について、詳細に説明する。
状態判定部160は、HOG特徴量に基づいて、非覚醒状態を判定する。具体的には、状態判定部160は、所定時間内で、上記の3つの行為をユーザが行った回数に基づいて、非覚醒状態を判定する。なお、3つの行為とは、ユーザが眉間に皺を寄せる行為、ユーザが口の渇きを潤すために唇をなめる行為、ユーザがあくびを行う行為である。また、例えば、所定時間は、5分である。
ここで、状態判定モデル記憶部182には、非覚醒状態を判定するための情報が記憶されている。なお、当該情報は、状態判定装置100が非覚醒状態の判定を実行する前に、状態判定モデル記憶部182に予め格納されている。
当該情報は、状態判定モデルテーブルと言う。状態判定モデルテーブルについて説明する。
図6は、実施の形態1の状態判定モデルテーブルの例を示す図である。状態判定モデルテーブル182aは、状態判定モデル記憶部182に格納される。状態判定モデルテーブル182aは、非覚醒レベル、5分間に眉間に皺が寄せられた回数、5分間に唇がなめられた回数、及び5分間にあくびがされた回数の項目を有する。
状態判定モデルテーブル182aは、判定情報とも言う。また、状態判定モデルテーブル182aは、ユーザが眉間に皺を寄せた回数に応じた非覚醒レベルを決定するための情報を含む。状態判定モデルテーブル182aは、ユーザが唇をなめた回数に応じた非覚醒レベルを決定するための情報を含む。状態判定モデルテーブル182aは、ユーザがあくびをした回数に応じた非覚醒レベルを決定するための情報を含む。
ここで、状態判定部160が眉間に皺が寄せられたと判定する方法を説明する。状態判定部160は、式(1)を用いて、コサイン類似度Snを算出する。
Figure 2020121425
平均値Hmは、高覚醒状態(すなわち、通常状態)の複数のフレームに対して顔特徴量抽出部150が抽出したHOG特徴量の平均値である。なお、平均値Hmは、状態判定装置100が非覚醒状態の判定を実行する前に、予め算出される。また、例えば、平均値Hmは、顔特徴量記憶部181に格納されている。
HOG特徴量Hnは、取得部110が所定時間に取得したnフレームに対応するHOG特徴量である。
ここで、コサイン類似度Snと時間との関係の例を示す図を説明する。
図7は、実施の形態1の眉間に皺が寄せられた回数を算出する方法を説明するための図である。図7のグラフの縦軸は、コサイン類似度Snを示す。図7のグラフの横軸は、時間を示す。眉間に皺が寄せられた場合、皺のエッジが強く表れる。皺のエッジが強く表れた場合、コサイン類似度Snは、小さい値になる。
状態判定部160は、コサイン類似度Snが予め設定された閾値Sよりも小さい値の場合、眉間に皺が寄せられたと判定する。状態判定部160は、眉間に皺が寄せられたと判定した場合、眉間に皺が寄せられた回数をインクリメントする。
眉間に皺が寄せられたと判定する方法と唇をなめたと判定する方法とは、同様の方法である。また、眉間に皺が寄せられたと判定する方法とあくびをしたと判定する方法とは、同様の方法である。そのため、唇をなめたと判定する方法とあくびをしたと判定する方法とについては、説明を省略する。
このように、状態判定部160は、複数のフレームのそれぞれにおける眉間領域から抽出された顔特徴量に基づいて、ユーザが眉間に皺を寄せた回数を算出する。状態判定部160は、複数のフレームのそれぞれにおける口領域から抽出された顔特徴量に基づいて、ユーザが唇をなめた回数を算出する。状態判定部160は、複数のフレームのそれぞれにおける口領域及び頬領域から抽出された顔特徴量に基づいて、ユーザがあくびをした回数を算出する。
状態判定部160は、眉間に皺が寄せられた回数と状態判定モデルテーブル182aとに基づいて、非覚醒レベルを決定する。状態判定部160は、唇がなめられた回数と状態判定モデルテーブル182aとに基づいて、非覚醒レベルを決定する。状態判定部160は、あくびがされた回数と状態判定モデルテーブル182aとに基づいて、非覚醒レベルを決定する。
図8は、実施の形態1の非覚醒レベルの具体例を示す図である。図8は、眉間に皺が寄せられた回数に基づいて決定された非覚醒レベルがレベル2であることを示している。図8は、唇がなめられた回数に基づいて決定された非覚醒レベルがレベル4であることを示している。図8は、あくびがされた回数に基づいて決定された非覚醒レベルがレベル3であることを示している。
状態判定部160は、3つの非覚醒レベルの平均値を算出する。例えば、状態判定部160は、平均値であるレベル3(=(2+4+3)/3)を算出する。また、状態判定部160は、平均値の小数点以下を四捨五入してもよい。
状態判定部160は、平均値が予め設定された閾値以上の場合、ユーザが非覚醒状態であると判定する。例えば、閾値は、3である。なお、当該閾値は、閾値レベルとも言う。このように、状態判定部160は、平均値がレベル3以上の場合、ユーザが非覚醒状態であると判定する。なお、どのレベルを非覚醒状態と判定するかは、評価方法によって変更できる。
状態判定部160は、判定結果を判定結果記憶部183に格納する。判定結果は、平均値である。ここで、判定結果記憶部183について説明する。判定結果記憶部183は、判定結果テーブルを記憶する。
図9は、実施の形態1の判定結果テーブルの例を示す図である。判定結果テーブル183aは、判定結果記憶部183に格納される。判定結果テーブル183aは、非覚醒レベルの項目を有する。状態判定部160は、算出した平均値を判定結果テーブル183aに登録する。
また、状態判定部160は、Random Forest、SVM(Support Vector Machine)、Adaboost、CNN(Convolutional Neural Network)などを用いて機械学習することにより得られた情報と、顔特徴量とに基づいて、非覚醒状態を判定してもよい。なお、当該情報は、判定情報とも言う。すなわち、判定情報は、機械学習により得られた情報であり、かつユーザが非覚醒状態であるか否かを判定するための情報である。
図1に戻って、出力部170を説明する。出力部170は、判定結果を出力する。出力部170について、詳細に説明する。
出力部170は、判定結果テーブル183aに登録されている非覚醒レベルを出力する。例えば、出力部170は、非覚醒レベルをディスプレイ105に出力する。また、出力部170は、非覚醒レベルを音声出力してもよい。なお、判定結果テーブル183aに登録されている非覚醒レベルは、平均値を示す情報とも言う。
出力部170は、判定結果テーブル183aに登録されている非覚醒レベルがレベル3以上の場合、ユーザが非覚醒状態であることを出力してもよい。出力部170は、判定結果テーブル183aに登録されている非覚醒レベルがレベル2以下の場合、ユーザが非覚醒状態でないことを出力してもよい。
次に、状態判定装置100が実行する処理についてフローチャートを用いて説明する。
図10は、実施の形態1の顔特徴量抽出領域の算出処理を示すフローチャートである。なお、図10では、眉間領域の算出処理を説明する。また、図10は、顔特徴量抽出領域算出部140が実行する処理の一例である。
(ステップS11)顔特徴量抽出領域算出部140は、左右目頭の座標と顔の向きとを顔特徴点記憶部180から取得する。
(ステップS12)顔特徴量抽出領域算出部140は、左目頭と右目頭との間の中間点を算出する。
(ステップS13)顔特徴量抽出領域算出部140は、中間点と顔の向きとに基づいて、中心座標を算出する。具体的には、顔特徴量抽出領域算出部140は、中間点を平行移動した座標である中心座標を算出する。
(ステップS14)顔特徴量抽出領域算出部140は、中心座標を中心とした矩形領域を算出する。
(ステップS15)顔特徴量抽出領域算出部140は、顔領域抽出部120で抽出した顔領域の矩形領域を取得する。
(ステップS16)顔特徴量抽出領域算出部140は、顔領域の矩形領域に基づいて、ステップS14で算出した矩形領域の大きさを変更する。例えば、顔特徴量抽出領域算出部140は、顔領域の矩形領域に基づいて、矩形領域の各辺をk倍する。これにより、顔の大きさに応じた眉間領域が算出される。
顔特徴量抽出領域算出部140は、上記の処理と同様の処理により、口領域と頬領域とを算出することができる。
図11は、実施の形態1の顔特徴量の抽出処理を示すフローチャートである。
(ステップS21)顔特徴量抽出部150は、顔特徴量抽出領域算出部140が算出した3つの顔特徴量抽出領域を取得する。すなわち、3つの顔特徴量抽出領域は、眉間領域、口領域、及び頬領域である。
(ステップS22)顔特徴量抽出部150は、眉間領域に基づいて、HOG特徴量を抽出する。また、顔特徴量抽出部150は、口領域に基づいて、HOG特徴量を抽出する。さらに、顔特徴量抽出部150は、頬領域に基づいて、HOG特徴量を抽出する。
(ステップS23)顔特徴量抽出部150は、眉間領域に基づいて抽出したHOG特徴量を顔特徴量記憶部181に格納する。また、顔特徴量抽出部150は、口領域に基づいて抽出したHOG特徴量を顔特徴量記憶部181に格納する。さらに、顔特徴量抽出部150は、頬領域に基づいて抽出したHOG特徴量を顔特徴量記憶部181に格納する。
これにより、顔特徴量テーブル181aには、3つの顔特徴量抽出領域のそれぞれに基づいて抽出されたHOG特徴量のそれぞれが登録される。
図12は、実施の形態1のカウント処理を示すフローチャートである。図12では、眉間に皺が寄せられた回数をカウントする場合を説明する。
(ステップS31)状態判定部160は、1つのフレーム(例えば、第1のフレームと言う。)から抽出された眉間領域に基づいて、抽出されたHOG特徴量を顔特徴量記憶部181から取得する。
(ステップS32)状態判定部160は、式(1)を用いて、コサイン類似度Snを算出する。
(ステップS33)状態判定部160は、ステップS32で算出したコサイン類似度Snが閾値Sよりも小さいか否かを判定する。
例えば、ステップS32で算出したコサイン類似度Snが閾値Sよりも小さい場合とは、眉間のしわのエッジが、強く表れる場合である。すなわち、ステップS32で算出したコサイン類似度Snが閾値Sよりも小さい場合とは、ユーザが眉間に皺を寄せている場合である。
判定条件が満たされる場合、状態判定部160は、処理をステップS34に進める。判定条件が満たされない場合、状態判定部160は、処理をステップS35に進める。
(ステップS34)状態判定部160は、眉間に皺が寄せられた回数をインクリメントする。
(ステップS35)状態判定部160は、カウント処理を開始してから5分経過したか否かを判定する。状態判定部160は、5分経過している場合、処理を終了する。状態判定部160は、5分経過していない場合、処理をステップS31に進める。なお、例えば、当該ステップS31では、状態判定部160は、第1のフレームの次に取得部110が取得した第2のフレームから抽出された眉間領域に基づいて、抽出されたHOG特徴量を顔特徴量記憶部181から取得する。
このように、状態判定部160は、取得部110が5分間に取得したn枚のフレーム内の眉間領域に基づいて、抽出されたHOG特徴量のそれぞれを取得する。状態判定部160は、HOG特徴量のそれぞれに基づいて、眉間に皺が寄せられたか否かを判定する。これにより、状態判定部160は、5分間にユーザが眉間に皺を寄せた回数を取得できる。
唇がなめられた回数は、図11に示すカウント処理と同様の方法により、取得される。例えば、ステップS31に記載の眉間領域は、口領域に変換される。これにより、状態判定部160は、5分間にユーザが唇をなめた回数を取得できる。
また、あくびした回数は、図11に示すカウント処理と同様の方法により、取得される。例えば、ステップS31に記載の眉間領域は、口領域と頬領域に変換される。また、例えば、ステップS33では、状態判定部160は、口領域に対応するHOG特徴量に基づいて算出したコサイン類似度Snと、頬領域に対応するHOG特徴量に基づいて算出したコサイン類似度Snとが予め設定されている閾値よりも小さい場合、処理をステップS34に進める。これにより、状態判定部160は、5分間にユーザがあくびをした回数を取得できる。
なお、上記の5分は、任意の時間である。そのため、5分という時間は、5分以外の時間でもよい。
図13は、実施の形態1の非覚醒状態の判定処理を示すフローチャートである。
(ステップS41)状態判定部160は、状態判定モデルテーブル182aと眉間に皺が寄せられた回数とに基づいて、非覚醒レベルを決定する。状態判定部160は、状態判定モデルテーブル182aと唇がなめられた回数とに基づいて、非覚醒レベルを決定する。状態判定部160は、状態判定モデルテーブル182aとあくびした回数とに基づいて、非覚醒レベルを決定する。
(ステップS42)状態判定部160は、3つの非覚醒レベルに基づいて、平均値を算出する。状態判定部160は、平均値の小数点以下を四捨五入してもよい。
(ステップS43)状態判定部160は、平均値に基づいて、非覚醒状態を判定する。例えば、状態判定部160は、平均値がレベル3以上の場合、ユーザが非覚醒状態であると判定する。
(ステップS44)状態判定部160は、判定結果を判定結果記憶部183に格納する。
実施の形態1によれば、状態判定装置100は、ユーザが眉間に皺を寄せる行為、ユーザが唇をなめる行為、及びユーザがあくびをする行為に基づいて、非覚醒状態であるか否かを判定する。非覚醒状態における3つの行為は、個人差が小さい又は個人差がない。状態判定装置100は、個人差が小さい又は個人差がないユーザの行為に基づいて、非覚醒状態を判定するため、高い精度で非覚醒状態を判定できる。
また、状態判定部160は、ユーザが眉間に皺を寄せた回数と状態判定モデルテーブル182aとに基づいて非覚醒レベルを決定し、決定した非覚醒レベルが予め設定された閾値レベル以上の場合、ユーザが非覚醒状態であると判定してもよい。例えば、予め設定された閾値レベルは、レベル3である。出力部170は、決定された非覚醒レベルを出力してもよい。
また、状態判定部160は、ユーザが唇をなめた回数と状態判定モデルテーブル182aとに基づいて非覚醒レベルを決定し、決定した非覚醒レベルが予め設定された閾値レベル以上の場合、ユーザが非覚醒状態であると判定してもよい。例えば、予め設定された閾値レベルは、レベル3である。出力部170は、決定された非覚醒レベルを出力してもよい。
また、状態判定部160は、ユーザがあくびをした回数と状態判定モデルテーブル182aとに基づいて非覚醒レベルを決定し、決定した非覚醒レベルが予め設定された閾値レベル以上の場合、ユーザが非覚醒状態であると判定してもよい。例えば、予め設定された閾値レベルは、レベル3である。出力部170は、決定された非覚醒レベルを出力してもよい。
また、上記では、状態判定部160が3つの非覚醒レベルの平均値に基づいて、ユーザが非覚醒状態であるか否かを判定する場合を説明した。状態判定部160は、2つの非覚醒レベルの平均値に基づいて、ユーザが非覚醒状態であるか否かを判定してもよい。例えば、状態判定部160は、ユーザが眉間に皺を寄せた回数に基づく非覚醒レベルとユーザが唇をなめた回数に基づく非覚醒レベルとの平均値に基づいて、ユーザが非覚醒状態であるか否かを判定する。また、例えば、状態判定部160は、ユーザが眉間に皺を寄せた回数に基づく非覚醒レベルとユーザがあくびをした回数に基づく非覚醒レベルとの平均値に基づいて、ユーザが非覚醒状態であるか否かを判定する。また、例えば、状態判定部160は、ユーザが唇をなめた回数に基づく非覚醒レベルとユーザがあくびをした回数に基づく非覚醒レベルとの平均値に基づいて、ユーザが非覚醒状態であるか否かを判定する。
実施の形態2.
次に、実施の形態2を説明する。実施の形態2は、実施の形態1と相違する事項を主に説明し、実施の形態1と共通する事項の説明を省略する。実施の形態2は、図1〜13を参照する。
図14は、実施の形態2の状態判定装置の構成を示す機能ブロック図である。状態判定装置100aは、抽出部10aを有する。抽出部10aは、顔条件判定部191、及び顔特徴量抽出領域決定部192を有する。
また、状態判定装置100aは、平均顔特徴点モデル記憶部184、顔条件記憶部185、及び抽出領域決定モデル記憶部186を有する。
抽出部10a、顔条件判定部191、及び顔特徴量抽出領域決定部192の一部又は全部は、プロセッサ101によって実現してもよい。また、抽出部10a、顔条件判定部191、及び顔特徴量抽出領域決定部192の一部又は全部は、プロセッサ101が実行するプログラムのモジュールとして実現してもよい。例えば、プロセッサ101が実行するプログラムは、状態判定プログラムとも言う。
平均顔特徴点モデル記憶部184、顔条件記憶部185、及び抽出領域決定モデル記憶部186は、揮発性記憶装置102又は不揮発性記憶装置103に確保した記憶領域として実現してもよい。
図1に示される構成と同じ図14の構成は、図1に示される符号と同じ符号を付している。
顔条件判定部191は、複数のフレームに基づいて、ユーザが装着物を装着しているか否かを判定する。例えば、顔条件判定部191は、顔特徴点として目の特徴点が抽出されていない場合、ユーザがサングラスを装着していると判定する。また、例えば、顔条件判定部191は、顔特徴点として口の特徴点が抽出されていない場合、ユーザがマスクを装着していると判定する。
また、顔条件判定部191は、以下で説明するように、ユーザが装着物を装着しているか否かを判定してもよい。まず、平均顔特徴点モデル記憶部184について説明する。平均顔特徴点モデル記憶部184は、平均顔特徴点モデルテーブルを記憶する。
図15は、実施の形態2の平均顔特徴点モデルテーブルの一例を示す図である。平均顔特徴点モデルテーブル184aは、平均顔特徴点モデル記憶部184に格納される。平均顔特徴点モデルテーブル184aは、状態判定装置100aが非覚醒状態の判定を実行する前に、平均顔特徴点モデル記憶部184に格納されている。平均顔特徴点モデルテーブル184aは、平均顔特徴点モデル情報とも言う。
平均顔特徴点モデルテーブル184aは、特徴点と平均座標との項目を有する。平均顔特徴点モデルテーブル184aは、平均的な顔の部位の位置を示す。例えば、平均顔特徴点モデルテーブル184aには、多くの人の顔における平均的な左眉外端の位置が(100,100)であることが登録されている。
顔条件判定部191は、平均顔特徴点モデルテーブル184aと顔特徴点とを用いて、ユーザが装着物を装着しているか否かを判定する。例えば、顔条件判定部191は、左目の特徴点の位置と、平均顔特徴点モデルテーブル184aに登録されている左目(すなわち、左目外端及び左目内端)の平均座標の位置との距離が閾値以上の場合、左目の特徴点の位置として信頼度が低いと判定する。そして、顔条件判定部191は、ユーザがサングラスを装着していると判定する。同様に、顔条件判定部191は、口の特徴点の位置と、平均顔特徴点モデルテーブル184aに登録されている口の平均座標との距離が閾値以上の場合、ユーザがマスクを装着していると判定する。
ここで、顔条件判定部191は、平均顔特徴点モデルテーブル184aに登録されている情報と顔特徴点とを比較する場合、ユークリッド距離又はマハラノビス距離を用いる。なお、例えば、顔条件判定部191は、ユークリッド距離又はマハラノビス距離を用いる場合、顔特徴点抽出部130が抽出した左目外端と右目外端との間の距離と、平均顔特徴点モデルテーブル184aに登録されている左目外端と右目外端との間の距離とを同じにする。このように、顔条件判定部191は、左目外端と右目外端との間の距離を用いる。また、顔条件判定部191は、左目外端と右目外端との間の距離以外の距離を用いてもよい。例えば、顔条件判定部191は、左眉外端と右眉外端との間の距離を用いる。
また、顔条件判定部191は、nフレームのいずれかのフレームに影が含まれているか否かを判定する。さらに、顔条件判定部191は、複数のフレームのいずれかのフレームに色飛びが存在するか否かを判定する。例えば、色飛びとは、白飛びである。白飛びとは、フレーム内に白い部分が現れることである。例えば、照明によって左方向から光が照射されている場合、フレーム内の左顔部分が色飛びする。
顔条件判定部191は、フレームに影又は色飛びの領域が含まれている場合、影又は色飛びの領域を特徴量抽出領域に設定しないように制御する。これにより、顔特徴量抽出領域算出部140は、適切な領域を顔特徴量抽出領域として算出できる。
また、顔条件判定部191は、ユーザが装着物を装着していない、かつフレームに影及び色飛びの領域が含まれていない場合、通常時と判定する。
顔条件判定部191は、判定結果を顔条件記憶部185に格納する。ここで、顔条件記憶部185について説明する。顔条件記憶部185は、顔条件テーブルを記憶する。
図16(A)〜(C)は、顔条件テーブルの一例を示す図である。顔条件テーブル185aは、顔条件の項目を有する。
図16(A)は、顔条件判定部191が顔条件テーブル185aに“通常時”を登録した状態を示す。図16(B)は、顔条件判定部191が顔条件テーブル185aに“マスク着用”を登録した状態を示す。図16(C)は、顔条件判定部191が顔条件テーブル185aに“左から照射”を登録した状態を示す。
顔条件判定部191は、顔の向きに基づいて、顔の左半分がフレームに存在しないと判定した場合、顔条件テーブル185aに“斜め顔”を登録してもよい。
次に、抽出領域決定モデル記憶部186について説明する。抽出領域決定モデル記憶部186は、抽出領域決定モデルテーブルを記憶する。
図17は、実施の形態2の抽出領域決定モデルテーブルの一例を示す図である。抽出領域決定モデルテーブル186aは、抽出領域決定モデル記憶部186に格納される。抽出領域決定モデルテーブル186aは、状態判定装置100aが非覚醒状態の判定を実行する前に、抽出領域決定モデル記憶部186に格納されている。抽出領域決定モデルテーブル186aは、顔条件と顔特徴量抽出領域との項目を有する。抽出領域決定モデルテーブル186aは、抽出領域決定モデル情報とも言う。抽出領域決定モデルテーブル186aは、装着物が装着されている位置に応じて、顔領域のうちどの領域を顔特徴量抽出領域とするのかを示す情報である。また、抽出領域決定モデルテーブル186aは、影又は色飛びが存在する位置に応じて、顔領域のうちどの領域を顔特徴量抽出領域とするのかを示す情報である。
顔特徴量抽出領域決定部192は、ユーザが装着物を装着していると判定された場合、抽出領域決定モデルテーブル186aに基づいて、顔特徴量抽出領域を決定する。詳細には、顔特徴量抽出領域決定部192は、抽出領域決定モデルテーブル186aと顔条件判定部191が判定した顔条件とに基づいて、顔特徴量抽出領域を決定する。
また、顔特徴量抽出領域決定部192は、複数のフレームのいずれかのフレームに影又は色飛びが存在すると判定された場合、抽出領域決定モデルテーブル186aに基づいて、顔特徴量抽出領域を決定する。
例えば、顔条件判定部191がマスク着用と判定した場合、顔特徴量抽出領域決定部192は、顔特徴量抽出領域を眉間領域に決定する。ここで、ユーザがマスクを着用している場合、顔特徴量抽出領域算出部140が口領域及び頬領域を算出することは、困難である。そこで、顔特徴量抽出領域決定部192は、口領域及び頬領域を顔特徴量抽出領域にしないように制御する。そして、顔特徴量抽出領域決定部192は、顔特徴量抽出領域を眉間領域に決定する。
顔特徴量抽出領域算出部140は、顔特徴点抽出部130が抽出した顔特徴点に基づいて、顔特徴量抽出領域決定部192が決定した顔特徴量抽出領域を算出する。
次に、状態判定装置100aが実行する処理についてフローチャートを用いて説明する。
図18は、実施の形態2の顔条件の判定処理を示すフローチャートである。また、図18は、顔条件判定部191が実行する処理の一例である。
(ステップS51)顔条件判定部191は、顔特徴点記憶部180から顔特徴点を取得する。
(ステップS52)顔条件判定部191は、フレーム内に影又は色飛びが存在するか否かを判定する。
例えば、顔条件判定部191は、フレーム内の顔のある領域の色彩が黒の場合、フレーム内に影が存在すると判定する。また、例えば、顔条件判定部191は、フレーム内の顔のある領域の色彩が白の場合、又はフレーム内のある領域の顔特徴点を取得できていない場合、フレーム内に色飛びが存在すると判定する。なお、図18では、影又は色飛びは、照明によって左方向から光が照射されているため、発生するものとする。
また、顔条件判定部191は、照明の設置場所を示す位置情報を取得した場合、当該位置情報に基づいて、影又は色飛びがフレーム内に存在するか否かを判定してもよい。
フレーム内に影又は色飛びが存在する場合、顔条件判定部191は、処理をステップS53に進める。フレーム内に影及び色飛びが存在しない場合、顔条件判定部191は、処理をステップS54に進める。
(ステップS53)顔条件判定部191は、顔条件テーブル185aに“左から照射”を登録する。そして、顔条件判定部191は、処理を終了する。
(ステップS54)顔条件判定部191は、ユーザが装着物を装着しているか否かを判定する。例えば、顔条件判定部191は、顔特徴点として目の特徴点が抽出されていない場合、ユーザが装着物を装着していると判定する。
ユーザが装着物を装着している場合、顔条件判定部191は、処理をステップS56に進める。ユーザが装着物を装着していない場合、顔条件判定部191は、処理をステップS55に進める。
(ステップS55)顔条件判定部191は、顔条件テーブル185aに“通常時”を登録する。そして、顔条件判定部191は、処理を終了する。
(ステップS56)顔条件判定部191は、ユーザがマスクを装着しているか否かを判定する。例えば、顔条件判定部191は、顔特徴点として口の特徴点が抽出されていない場合、ユーザがマスクを装着していると判定する。
ユーザがマスクを装着している場合、顔条件判定部191は、処理をステップS57に進める。ユーザがマスクを装着していない場合、顔条件判定部191は、処理をステップS58に進める。
(ステップS57)顔条件判定部191は、顔条件テーブル185aに“マスク着用”を登録する。そして、顔条件判定部191は、処理を終了する。
(ステップS58)顔条件判定部191は、ユーザがサングラスを装着しているか否かを判定する。例えば、顔条件判定部191は、顔特徴点として目の特徴点が抽出されていない場合、ユーザがサングラスを装着していると判定する。
ユーザがサングラスを装着している場合、顔条件判定部191は、処理をステップS59に進める。ユーザがサングラスを装着していない場合、顔条件判定部191は、処理を終了する。
(ステップS59)顔条件判定部191は、顔条件テーブル185aに“サングラス着用”を登録する。そして、顔条件判定部191は、処理を終了する。
図19は、実施の形態2の顔特徴量抽出領域の決定処理を示すフローチャートである。
(ステップS61)顔特徴量抽出領域決定部192は、顔条件テーブル185aから顔条件を取得する。
(ステップS62)顔特徴量抽出領域決定部192は、抽出領域決定モデルテーブル186aと顔条件に基づいて、顔特徴量抽出領域を決定する。例えば、顔特徴量抽出領域決定部192は、顔条件が“マスク着用”の場合、顔特徴量抽出領域を眉間領域に決定する。また、例えば、顔特徴量抽出領域決定部192は、顔条件が“サングラス着用”の場合、顔特徴量抽出領域を口領域と頬領域に決定する。また、例えば、顔特徴量抽出領域決定部192は、顔条件が“左から照射”の場合、顔特徴量抽出領域を眉間領域、口領域、右頬領域に決定する。すなわち、顔特徴量抽出領域決定部192は、左頬領域を顔特徴量抽出領域に設定しない。
実施の形態2によれば、状態判定装置100aは、ユーザが装着物を装着している場合でも、抽出可能な顔特徴量抽出領域を用いて、非覚醒状態を判定できる。また、状態判定装置100aは、光がユーザに対して照射している場合でも、抽出可能な顔特徴量抽出領域を用いて、非覚醒状態を判定できる。
以上に説明した各実施の形態における特徴は、互いに適宜組み合わせることができる。
10,10a 抽出部、 100,100a 状態判定装置、 101 プロセッサ、 102 揮発性記憶装置、 103 不揮発性記憶装置、 104 カメラ、 105 ディスプレイ、 110 取得部、 120 顔領域抽出部、 130 顔特徴点抽出部、 140 顔特徴量抽出領域算出部、 150 顔特徴量抽出部、 160 状態判定部、 170 出力部、 180 顔特徴点記憶部、 180a 顔特徴点テーブル、 181 顔特徴量記憶部、 181a 顔特徴量テーブル、 182 状態判定モデル記憶部、 182a 状態判定モデルテーブル、 183 判定結果記憶部、 183a 判定結果テーブル、 184 平均顔特徴点モデル記憶部、 184a 平均顔特徴点モデルテーブル、 185 顔条件記憶部、 185a 顔条件テーブル、 186 抽出領域決定モデル記憶部、 186a 抽出領域決定モデルテーブル、 191 顔条件判定部、 192 顔特徴量抽出領域決定部、 200 中間点、 201 矩形領域、 210 中間点、 211 矩形領域。
本発明の一態様に係る状態判定装置が提供される。状態判定装置は、ユーザの顔を撮影することで順次取得される複数のフレームのそれぞれのフレームから前記顔の領域を示す顔領域を抽出し、前記顔領域から顔の部位を示す顔特徴点を抽出し、前記顔特徴点に基づいて、前記ユーザが非覚醒状態であるときに前記顔領域の中で変化が生じる領域である顔特徴量抽出領域を算出し、前記顔特徴量抽出領域から特徴量である顔特徴量を抽出する抽出部と、前記複数のフレームのそれぞれにおける前記顔特徴量と予め作成されている判定情報とに基づいて、前記ユーザが前記非覚醒状態であるか否かを判定する状態判定部と、判定結果を出力する出力部と、を有する。前記顔特徴量抽出領域は、前記顔領域内の口領域である。前記判定情報は、前記ユーザが唇をなめた回数に応じた非覚醒レベルを決定するための情報を含む。前記状態判定部は、前記複数のフレームのそれぞれにおける前記口領域から抽出された前記顔特徴量に基づいて、前記ユーザが唇をなめた回数を算出し、前記ユーザが唇をなめた回数と前記判定情報とに基づいて非覚醒レベルを決定し、決定した非覚醒レベルが予め設定された閾値レベル以上の場合、前記ユーザが前記非覚醒状態であると判定する。

Claims (21)

  1. ユーザの顔を撮影することで順次取得される複数のフレームのそれぞれのフレームから前記顔の領域を示す顔領域を抽出し、前記顔領域から顔の部位を示す顔特徴点を抽出し、前記顔特徴点に基づいて、前記ユーザが非覚醒状態であるときに前記顔領域の中で変化が生じる領域である顔特徴量抽出領域を算出し、前記顔特徴量抽出領域から特徴量である顔特徴量を抽出する抽出部と、
    前記複数のフレームのそれぞれにおける前記顔特徴量と予め作成されている判定情報とに基づいて、前記ユーザが前記非覚醒状態であるか否かを判定する状態判定部と、
    判定結果を出力する出力部と、
    を有する状態判定装置。
  2. 前記顔特徴量抽出領域は、前記顔領域内の眉間領域である、
    請求項1に記載の状態判定装置。
  3. 前記判定情報は、前記ユーザが眉間に皺を寄せた回数に応じた非覚醒レベルを決定するための情報を含み、
    前記状態判定部は、前記複数のフレームのそれぞれにおける前記眉間領域から抽出された前記顔特徴量に基づいて、前記ユーザが眉間に皺を寄せた回数を算出し、前記ユーザが眉間に皺を寄せた回数と前記判定情報とに基づいて非覚醒レベルを決定し、決定した非覚醒レベルが予め設定された閾値レベル以上の場合、前記ユーザが前記非覚醒状態であると判定する、
    請求項2に記載の状態判定装置。
  4. 前記出力部は、決定された非覚醒レベルを出力する、
    請求項3に記載の状態判定装置。
  5. 前記顔特徴量抽出領域は、前記顔領域内の口領域である、
    請求項1に記載の状態判定装置。
  6. 前記判定情報は、前記ユーザが唇をなめた回数に応じた非覚醒レベルを決定するための情報を含み、
    前記状態判定部は、前記複数のフレームのそれぞれにおける前記口領域から抽出された前記顔特徴量に基づいて、前記ユーザが唇をなめた回数を算出し、前記ユーザが唇をなめた回数と前記判定情報とに基づいて非覚醒レベルを決定し、決定した非覚醒レベルが予め設定された閾値レベル以上の場合、前記ユーザが前記非覚醒状態であると判定する、
    請求項5に記載の状態判定装置。
  7. 前記出力部は、決定された非覚醒レベルを出力する、
    請求項6に記載の状態判定装置。
  8. 前記顔特徴量抽出領域は、前記顔領域内の口領域及び頬領域である、
    請求項1に記載の状態判定装置。
  9. 前記判定情報は、前記ユーザがあくびをした回数に応じた非覚醒レベルを決定するための情報を含み、
    前記状態判定部は、前記複数のフレームのそれぞれにおける前記口領域及び前記頬領域から抽出された前記顔特徴量に基づいて、前記ユーザがあくびをした回数を算出し、前記ユーザがあくびをした回数と前記判定情報とに基づいて非覚醒レベルを決定し、決定した非覚醒レベルが予め設定された閾値レベル以上の場合、前記ユーザが前記非覚醒状態であると判定する、
    請求項8に記載の状態判定装置。
  10. 前記出力部は、決定された非覚醒レベルを出力する、
    請求項9に記載の状態判定装置。
  11. 前記顔特徴量抽出領域は、前記顔領域内の眉間領域及び口領域であり、
    前記判定情報は、前記ユーザが眉間に皺を寄せた回数に応じた非覚醒レベルを決定するための情報及び前記ユーザが唇をなめた回数に応じた非覚醒レベルを決定するための情報を含み、
    前記状態判定部は、
    前記複数のフレームのそれぞれにおける前記眉間領域から抽出された前記顔特徴量に基づいて、前記ユーザが眉間に皺を寄せた回数を算出し、前記ユーザが眉間に皺を寄せた回数と前記判定情報とに基づいて非覚醒レベルを決定し、前記複数のフレームのそれぞれにおける前記口領域から抽出された前記顔特徴量に基づいて、前記ユーザが唇をなめた回数を算出し、前記ユーザが唇をなめた回数と前記判定情報とに基づいて非覚醒レベルを決定し、
    決定した複数の非覚醒レベルの平均値を算出し、
    前記平均値が予め設定された閾値以上の場合、前記ユーザが前記非覚醒状態であると判定する、
    請求項1に記載の状態判定装置。
  12. 前記顔特徴量抽出領域は、前記顔領域内の眉間領域、口領域、及び頬領域であり、
    前記判定情報は、前記ユーザが眉間に皺を寄せた回数に応じた非覚醒レベルを決定するための情報及び前記ユーザがあくびをした回数に応じた非覚醒レベルを決定するための情報を含み、
    前記状態判定部は、
    前記複数のフレームのそれぞれにおける前記眉間領域から抽出された前記顔特徴量に基づいて、前記ユーザが眉間に皺を寄せた回数を算出し、前記ユーザが眉間に皺を寄せた回数と前記判定情報とに基づいて非覚醒レベルを決定し、前記複数のフレームのそれぞれにおける前記口領域及び前記頬領域から抽出された前記顔特徴量に基づいて、前記ユーザがあくびをした回数を算出し、前記ユーザがあくびをした回数と前記判定情報とに基づいて非覚醒レベルを決定し、
    決定した複数の非覚醒レベルの平均値を算出し、
    前記平均値が予め設定された閾値以上の場合、前記ユーザが前記非覚醒状態であると判定する、
    請求項1に記載の状態判定装置。
  13. 前記顔特徴量抽出領域は、前記顔領域内の口領域及び頬領域であり、
    前記判定情報は、前記ユーザが唇をなめた回数に応じた非覚醒レベルを決定するための情報及び前記ユーザがあくびをした回数に応じた非覚醒レベルを決定するための情報を含み、
    前記状態判定部は、
    前記複数のフレームのそれぞれにおける前記口領域から抽出された前記顔特徴量に基づいて、前記ユーザが唇をなめた回数を算出し、前記ユーザが唇をなめた回数と前記判定情報とに基づいて非覚醒レベルを決定し、前記複数のフレームのそれぞれにおける前記口領域及び前記頬領域から抽出された前記顔特徴量に基づいて、前記ユーザがあくびをした回数を算出し、前記ユーザがあくびをした回数と前記判定情報とに基づいて非覚醒レベルを決定し、
    決定した複数の非覚醒レベルの平均値を算出し、
    前記平均値が予め設定された閾値以上の場合、前記ユーザが前記非覚醒状態であると判定する、
    請求項1に記載の状態判定装置。
  14. 前記顔特徴量抽出領域は、前記顔領域内の眉間領域、口領域、及び頬領域であり、
    前記判定情報は、前記ユーザが眉間に皺を寄せた回数に応じた非覚醒レベルを決定するための情報、前記ユーザが唇をなめた回数に応じた非覚醒レベルを決定するための情報、及び前記ユーザがあくびをした回数に応じた非覚醒レベルを決定するための情報を含み、
    前記状態判定部は、
    前記複数のフレームのそれぞれにおける前記眉間領域から抽出された前記顔特徴量に基づいて、前記ユーザが眉間に皺を寄せた回数を算出し、前記ユーザが眉間に皺を寄せた回数と前記判定情報とに基づいて非覚醒レベルを決定し、前記複数のフレームのそれぞれにおける前記口領域から抽出された前記顔特徴量に基づいて、前記ユーザが唇をなめた回数を算出し、前記ユーザが唇をなめた回数と前記判定情報とに基づいて非覚醒レベルを決定し、前記複数のフレームのそれぞれにおける前記口領域及び前記頬領域から抽出された前記顔特徴量に基づいて、前記ユーザがあくびをした回数を算出し、前記ユーザがあくびをした回数と前記判定情報とに基づいて非覚醒レベルを決定し、
    決定した複数の非覚醒レベルの平均値を算出し、
    前記平均値が予め設定された閾値以上の場合、前記ユーザが前記非覚醒状態であると判定する、
    請求項1に記載の状態判定装置。
  15. 前記出力部は、前記平均値を示す情報を出力する、
    請求項11から14のいずれか1項に記載の状態判定装置。
  16. 前記判定情報は、機械学習により得られた情報であり、かつ前記ユーザが前記非覚醒状態であるか否かを判定するための情報である、
    請求項1に記載の状態判定装置。
  17. 前記複数のフレームに基づいて、前記ユーザが装着物を装着しているか否かを判定する顔条件判定部と、
    前記ユーザが前記装着物を装着していると判定された場合、前記装着物が装着されている位置に応じて、前記顔領域のうちどの領域を前記顔特徴量抽出領域とするのかを示す抽出領域決定モデル情報に基づいて、前記顔特徴量抽出領域を決定する顔特徴量抽出領域決定部と、
    をさらに有する、
    請求項1から16のいずれか1項に記載の状態判定装置。
  18. 前記顔条件判定部は、平均的な顔の部位の位置を示す平均顔特徴点モデル情報と前記顔特徴点の位置とに基づいて、前記ユーザが前記装着物を装着しているか否かを判定する、
    請求項17に記載の状態判定装置。
  19. 前記複数のフレームのいずれかのフレームに影又は色飛びが存在するか否かを判定する顔条件判定部と、
    前記複数のフレームのいずれかのフレームに前記影又は前記色飛びが存在すると判定された場合、前記影又は前記色飛びが存在する位置に応じて、前記顔領域のうちどの領域を前記顔特徴量抽出領域とするのかを示す抽出領域決定モデル情報に基づいて、前記顔特徴量抽出領域を決定する顔特徴量抽出領域決定部と、
    をさらに有する、
    請求項1から16のいずれか1項に記載の状態判定装置。
  20. 状態判定装置が、
    ユーザの顔を撮影することで順次取得される複数のフレームのそれぞれのフレームから前記顔の領域を示す顔領域を抽出し、前記顔領域から顔の部位を示す顔特徴点を抽出し、前記顔特徴点に基づいて、前記ユーザが非覚醒状態であるときに前記顔領域の中で変化が生じる領域である顔特徴量抽出領域を算出し、前記顔特徴量抽出領域から特徴量である顔特徴量を抽出し、
    前記複数のフレームのそれぞれにおける前記顔特徴量と予め作成されている判定情報とに基づいて、前記ユーザが前記非覚醒状態であるか否かを判定し、
    判定結果を出力する、
    状態判定方法。
  21. 状態判定装置に、
    ユーザの顔を撮影することで順次取得される複数のフレームのそれぞれのフレームから前記顔の領域を示す顔領域を抽出し、前記顔領域から顔の部位を示す顔特徴点を抽出し、前記顔特徴点に基づいて、前記ユーザが非覚醒状態であるときに前記顔領域の中で変化が生じる領域である顔特徴量抽出領域を算出し、前記顔特徴量抽出領域から特徴量である顔特徴量を抽出し、
    前記複数のフレームのそれぞれにおける前記顔特徴量と予め作成されている判定情報とに基づいて、前記ユーザが前記非覚醒状態であるか否かを判定し、
    判定結果を出力する、
    処理を実行させるための状態判定プログラム。
JP2020558850A 2018-12-12 2018-12-12 状態判定装置、状態判定方法、及び状態判定プログラム Active JP6906717B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/045595 WO2020121425A1 (ja) 2018-12-12 2018-12-12 状態判定装置、状態判定方法、及び状態判定プログラム

Publications (2)

Publication Number Publication Date
JPWO2020121425A1 true JPWO2020121425A1 (ja) 2021-05-20
JP6906717B2 JP6906717B2 (ja) 2021-07-21

Family

ID=71075986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020558850A Active JP6906717B2 (ja) 2018-12-12 2018-12-12 状態判定装置、状態判定方法、及び状態判定プログラム

Country Status (5)

Country Link
US (1) US11963759B2 (ja)
JP (1) JP6906717B2 (ja)
CN (1) CN113168680A (ja)
DE (1) DE112018008131B4 (ja)
WO (1) WO2020121425A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615014B (zh) * 2018-04-27 2022-06-21 京东方科技集团股份有限公司 一种眼睛状态的检测方法、装置、设备和介质
JP7443283B2 (ja) * 2021-03-29 2024-03-05 公益財団法人鉄道総合技術研究所 覚醒度推定方法、覚醒度推定装置及び覚醒度推定プログラム
JP7346528B2 (ja) * 2021-05-26 2023-09-19 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2022250063A1 (ja) * 2021-05-26 2022-12-01 キヤノン株式会社 顔認証を行う画像処理装置および画像処理方法
US20230008323A1 (en) * 2021-07-12 2023-01-12 GE Precision Healthcare LLC Systems and methods for predicting and preventing patient departures from bed
JP7403729B2 (ja) * 2021-11-25 2023-12-22 三菱電機株式会社 覚醒度推定装置および覚醒度推定方法
WO2023238365A1 (ja) * 2022-06-10 2023-12-14 富士通株式会社 顔特徴情報抽出方法、顔特徴情報抽出装置、及び顔特徴情報抽出プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008212298A (ja) * 2007-03-01 2008-09-18 Toyota Central R&D Labs Inc 眠気判定装置及びプログラム
JP2012221061A (ja) * 2011-04-05 2012-11-12 Canon Inc 画像認識装置、画像認識方法、及びプログラム
JP2016081212A (ja) * 2014-10-15 2016-05-16 日本電気株式会社 画像認識装置、画像認識方法、および、画像認識プログラム
JP2017162409A (ja) * 2016-03-11 2017-09-14 ヤンマー株式会社 顔の表情と動作の認識装置及び方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11339200A (ja) 1998-05-28 1999-12-10 Toyota Motor Corp 居眠り運転検出装置
LU90879B1 (de) * 2001-12-12 2003-06-13 Hagen Hultzsch Verfahren und Vorrichtung zur Erkennung des Schlaefrigkeitszustandes von Fuehrern bewegter Objekte
KR101386823B1 (ko) * 2013-10-29 2014-04-17 김재철 동작, 안면, 눈, 입모양 인지를 통한 2단계 졸음운전 방지 장치
KR102368812B1 (ko) * 2015-06-29 2022-02-28 엘지전자 주식회사 차량 운전 보조 방법 및 차량
JP6707969B2 (ja) * 2016-04-19 2020-06-10 トヨタ自動車株式会社 覚醒度判定装置
US20180012090A1 (en) * 2016-07-07 2018-01-11 Jungo Connectivity Ltd. Visual learning system and method for determining a driver's state
CN109564102A (zh) * 2016-08-22 2019-04-02 三菱电机株式会社 信息提示装置、信息提示系统及信息提示方法
CN110291478B (zh) * 2016-12-22 2023-09-29 斯坦福国际研究院 驾驶员监视和响应系统
CN110168610B (zh) * 2017-01-17 2023-07-21 三菱电机株式会社 眼睑检测装置、瞌睡判定装置、及眼睑检测方法
KR20180124381A (ko) * 2017-05-11 2018-11-21 현대자동차주식회사 운전자의 상태 판단 시스템 및 그 방법
US11219395B2 (en) * 2017-07-19 2022-01-11 Panasonic Intellectual Property Management Co., Ltd. Sleepiness estimating device and wakefulness inducing device
CN109803583A (zh) * 2017-08-10 2019-05-24 北京市商汤科技开发有限公司 驾驶状态监控方法、装置和电子设备
CN111295699B (zh) * 2017-08-31 2023-03-21 松下知识产权经营株式会社 辅助方法以及利用该辅助方法的辅助系统、辅助装置
JP2019086813A (ja) * 2017-11-01 2019-06-06 株式会社デンソー 漫然運転抑制システム
EP3719772A4 (en) * 2017-11-30 2020-12-30 Panasonic Intellectual Property Management Co., Ltd. IMAGE PROCESSING DEVICE, IMAGE PROCESSING SYSTEM, IMAGE CAPTURE DEVICE, IMAGE ACQUISITION SYSTEM, AND IMAGE PROCESSING METHOD
JP6888542B2 (ja) * 2017-12-22 2021-06-16 トヨタ自動車株式会社 眠気推定装置及び眠気推定方法
US10867195B2 (en) * 2018-03-12 2020-12-15 Microsoft Technology Licensing, Llc Systems and methods for monitoring driver state
JP7124367B2 (ja) * 2018-03-20 2022-08-24 トヨタ自動車株式会社 作業支援システム、情報処理方法およびプログラム
US10970571B2 (en) * 2018-06-04 2021-04-06 Shanghai Sensetime Intelligent Technology Co., Ltd. Vehicle control method and system, vehicle-mounted intelligent system, electronic device, and medium
JP6822453B2 (ja) * 2018-09-10 2021-01-27 ダイキン工業株式会社 空調制御装置および空気調和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008212298A (ja) * 2007-03-01 2008-09-18 Toyota Central R&D Labs Inc 眠気判定装置及びプログラム
JP2012221061A (ja) * 2011-04-05 2012-11-12 Canon Inc 画像認識装置、画像認識方法、及びプログラム
JP2016081212A (ja) * 2014-10-15 2016-05-16 日本電気株式会社 画像認識装置、画像認識方法、および、画像認識プログラム
JP2017162409A (ja) * 2016-03-11 2017-09-14 ヤンマー株式会社 顔の表情と動作の認識装置及び方法

Also Published As

Publication number Publication date
DE112018008131T5 (de) 2021-07-29
JP6906717B2 (ja) 2021-07-21
US11963759B2 (en) 2024-04-23
WO2020121425A1 (ja) 2020-06-18
DE112018008131B4 (de) 2022-10-27
US20210271865A1 (en) 2021-09-02
CN113168680A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
JP6906717B2 (ja) 状態判定装置、状態判定方法、及び状態判定プログラム
CN109477951B (zh) 在保护隐私的同时识别人及/或识别并量化疼痛、疲劳、情绪及意图的系统及方法
Knapik et al. Driver’s fatigue recognition based on yawn detection in thermal images
US8891819B2 (en) Line-of-sight detection apparatus and method thereof
CN106557726B (zh) 一种带静默式活体检测的人脸身份认证系统及其方法
CN106682578B (zh) 基于眨眼检测的弱光人脸识别方法
KR20080095999A (ko) 인식 시스템
JP2000259814A (ja) 画像処理装置及びその方法
de Lima Medeiros et al. Efficient machine learning approach for volunteer eye-blink detection in real-time using webcam
JP5787845B2 (ja) 画像認識装置、方法、及びプログラム
JP6351243B2 (ja) 画像処理装置、画像処理方法
TW201140511A (en) Drowsiness detection method
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
US20150278584A1 (en) Object discriminating apparatus and method
Gómez-Poveda et al. Evaluation of temporal stability of eye tracking algorithms using webcams
US11875603B2 (en) Facial action unit detection
Liu et al. A practical driver fatigue detection algorithm based on eye state
Monwar et al. Eigenimage based pain expression recognition
Shang et al. Eye focus detection based on OpenCV
CN109657550B (zh) 一种疲劳度检测方法及装置
Adireddi et al. Detection of eye blink using svm classifier
Agrawal et al. Support Vector Machine for age classification
WO2021053806A1 (ja) 情報処理装置、プログラム及び情報処理方法
Hsu et al. Extraction of visual facial features for health management
Horak et al. Eyes detection and tracking for monitoring driver vigilance

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210205

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210629

R150 Certificate of patent or registration of utility model

Ref document number: 6906717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350