[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2010003116A - Object deciding device and program - Google Patents

Object deciding device and program Download PDF

Info

Publication number
JP2010003116A
JP2010003116A JP2008161355A JP2008161355A JP2010003116A JP 2010003116 A JP2010003116 A JP 2010003116A JP 2008161355 A JP2008161355 A JP 2008161355A JP 2008161355 A JP2008161355 A JP 2008161355A JP 2010003116 A JP2010003116 A JP 2010003116A
Authority
JP
Japan
Prior art keywords
image
likelihood value
wearing
likelihood
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008161355A
Other languages
Japanese (ja)
Other versions
JP5127582B2 (en
Inventor
Takashi Naito
貴志 内藤
Shinichi Kojima
真一 小島
Satoru Nakanishi
悟 中西
Takehiko Tanaka
勇彦 田中
Junya Kasugai
純也 春日井
Takuhiro Omi
拓寛 大見
Hiroyuki Ishizaka
宏幸 石坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hino Motors Ltd
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Hino Motors Ltd
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Hino Motors Ltd, Denso Corp, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2008161355A priority Critical patent/JP5127582B2/en
Publication of JP2010003116A publication Critical patent/JP2010003116A/en
Application granted granted Critical
Publication of JP5127582B2 publication Critical patent/JP5127582B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object deciding device and a program for deciding whether or not an object is wearing a mounted object such as a mask or sun glasses with high reliability. <P>SOLUTION: A likelihood value p1 showing object-likeliness is calculated by using a machine learning system configured to learn to respond to the image of an object shown by a pickup image, the object wearing a mask and the object not wearing any mask (S104), and a likelihood value p2 showing object-likeliness wearing the mask is calculated by using the machine learning system configured to learn to respond to the image of the object wearing the mask (S106), and a likelihood value p3 showing object-likeliness is calculated by using the machine learning system configured to respond to the image of the object not wearing the mask (S108), and whether or not the object shown by the pickup image is wearing the mask is decided on the basis of the calculated three likelihood values p1, p2 and p3 (S110). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、対象物判定装置及びプログラムに関し、特に、対象物が装着物を装着しているか否かを判定する対象物判定装置及びプログラムに関する。   The present invention relates to an object determination device and a program, and more particularly to an object determination device and a program for determining whether or not an object is wearing an attachment.

顔画像から抽出される口や鼻などの顔特徴量を用いて顔向きや、瞬き、視線などの対象者の顔状態量を推定する場合において、対象者がマスクやサングラスなどを装着していると、前記顔状態量を正しく推定できない。顔への装着物を考慮して顔向きを推定する方法として、例えば下記特許文献1に記載された技術がある。この技術では顔画像から目、口、鼻などの特徴点の抽出を行い顔向きを推定するが、目の特徴点が所定回抽出できない場合はサングラスを装着していると判定し、サングラス上の画像特徴を用いて顔向きを推定している。また鼻と口の特徴量が所定回抽出できない場合は、マスクを装着していると判定して、マスク上の画像特徴を用いて顔向きの推定を行なっている。
特開2003−296712号公報
The target person wears a mask, sunglasses, etc. when estimating the face state quantity such as face direction, blink, gaze, etc., using facial feature quantities such as mouth and nose extracted from the face image Then, the face state quantity cannot be estimated correctly. As a method for estimating the face orientation in consideration of the attachment on the face, for example, there is a technique described in Patent Document 1 below. In this technique, feature points such as eyes, mouth, and nose are extracted from the face image to estimate the face direction. If feature points of the eyes cannot be extracted a predetermined number of times, it is determined that sunglasses are worn, Face orientation is estimated using image features. If the feature amount of the nose and mouth cannot be extracted a predetermined number of times, it is determined that the mask is worn, and the face orientation is estimated using the image feature on the mask.
JP 2003-296712 A

上記従来の技術では、目、鼻、口の特徴量が抽出できない場合にそれぞれサングラス、マクスを装着していると判定しているが、例えば、車両を運転する運転者の顔向きの推定を行なう場合には、実際の走行環境において、周辺照明環境の変動による顔画像上での局所的明るさ変化や、対象者の顔姿勢などにより目、鼻、口の特徴が未検出となる場合が頻繁に発生する。このため、サングラスやマスクを装着していないにもかかわらず、目や鼻、口が検出できないことからサングラス、マスクを装着していると判定してしまい、それによって本来存在しないサングラス、マスクの特徴点から顔向きなどの状態量を推定することとなり、結果的に正しい状態量は得られず、逆に非常に誤差の大きい状態量を算出してしまう、という問題が発生する。   In the above conventional technique, when it is not possible to extract the feature amounts of the eyes, nose, and mouth, it is determined that the sunglasses and the max are worn, respectively. For example, the face orientation of the driver who drives the vehicle is estimated. In some cases, in the actual driving environment, the characteristics of eyes, nose, and mouth are often undetected due to local brightness changes on the face image due to fluctuations in the surrounding lighting environment, face posture of the subject, etc. Occurs. For this reason, it is determined that the user wears sunglasses and a mask because the eyes, nose, and mouth cannot be detected even though the sunglasses and mask are not worn. A state quantity such as the face orientation is estimated from the point, and as a result, a correct state quantity cannot be obtained, and conversely, a state quantity with a very large error is calculated.

本発明は、上述した問題を解決するために提案されたものであり、対象物がマスクやサングラスなどの装着物を装着しているか否かを信頼性高く判定することができる対象物判定装置及びプログラムを提供することを目的とする。   The present invention has been proposed in order to solve the above-described problem, and an object determination apparatus capable of determining with high reliability whether or not the object is wearing an object such as a mask or sunglasses, and The purpose is to provide a program.

上記目的を達成するために、請求項1の発明の対象物判定装置は、対象物を撮像するための撮像手段と、前記撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、装着物を装着した対象物の画像および前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出し、前記撮像手段で撮像されて得られた画像と、前記装着物を装着した対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出し、前記撮像手段で撮像されて得られた画像と、前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する尤度値算出手段と、前記尤度値算出手段で算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定手段と、を含んで構成されている。   In order to achieve the above object, the object determination device of the invention of claim 1 is configured to capture an image of an object represented by an imaging unit for imaging the object and an image obtained by imaging by the imaging unit. The object-likeness is obtained by using an image captured by the means, an image of the object with the attached object, and a machine learning system learned to react to the image of the object without the attached object. A first likelihood value is calculated, and the wearing is performed using an image obtained by being picked up by the image pickup means, and a machine learning system that has learned to react to an image of the object on which the wearing object is attached. A second likelihood value indicating the likelihood of the object wearing the object is calculated, and learning is performed so as to react to the image obtained by imaging by the imaging unit and the image of the object not wearing the object. Using the machine learning system A likelihood value calculating means for calculating a third likelihood value indicating the likelihood of an object not wearing an object; a first likelihood value, a second likelihood value calculated by the likelihood value calculating means; And determining means for determining whether or not the object represented by the image obtained by imaging by the imaging means is wearing the wearing object based on the three likelihood values.

このように、装着物を装着した対象物の画像および装着物を装着していない対象物の画像に反応するように学習した機械学習システムと、装着物を装着した対象物の画像に反応するように学習した機械学習システムと、装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて3つの尤度値を求め、この3つの尤度値に基づいて対象物が装着物を装着しているか否かを判定するようにしたため、装着物の装着の有無を信頼性高く判定することができる。特に3種類の異なる機械学習システムから求められた尤度値を評価基準に用いることで、1種類の機械学習システムを用いる場合よりもより誤検出を少なくすることができる。   In this way, the machine learning system learned to respond to the image of the object with the attachment and the image of the object without the attachment, and the image of the object with the attachment Three likelihood values are obtained using the machine learning system learned in the above and the machine learning system learned to react to the image of the object not wearing the attachment, and based on the three likelihood values. Since it is determined whether or not the object is wearing an attachment, the presence or absence of the attachment can be determined with high reliability. In particular, by using likelihood values obtained from three different types of machine learning systems as evaluation criteria, it is possible to reduce false detections more than when using one type of machine learning system.

請求項2の発明の対象物判定装置は、対象物を撮像するための撮像手段と、前記撮像手段で撮像されて得られた画像から、前記対象物が装着物を装着していると仮定したときに該装着物が存在すると推定される予め定められた領域を抽出する抽出手段と、前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出手段で抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像および前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出し、前記抽出手段で抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出し、前記抽出手段で抽出された領域の画像と、前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する尤度値算出手段と、前記尤度値算出手段で算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定手段と、を含んで構成されている。   The object determination apparatus according to the invention of claim 2 assumes that the object is mounted on the object from an imaging unit for imaging the object and an image obtained by imaging with the imaging unit. An extraction unit that extracts a predetermined region that is estimated to be the presence of the wearing object, and an image of the region extracted by the extraction unit with respect to an object represented by an image captured by the imaging unit And learning to react to the image of the predetermined area in the image of the object with the wearing object and the image of the predetermined area in the image of the object not wearing the wearing object. A first likelihood value indicating the likelihood of an object is calculated using a machine learning system, and the predetermined area in the image of the area extracted by the extraction unit and the image of the object mounted with the attachment Image of A second likelihood value indicating the likelihood of the object wearing the wearing object is calculated using a machine learning system that learns to react, and the image of the region extracted by the extracting unit and the wearing object are attached. A third likelihood value indicating the likelihood of the object not wearing the attachment is calculated using a machine learning system that has learned to react to the image of the predetermined region in the image of the object that has not been attached. Obtained by the imaging means based on the likelihood value calculating means and the first likelihood value, the second likelihood value, and the third likelihood value calculated by the likelihood value calculating means. Determination means for determining whether or not the object represented by the image is wearing the wearing object.

このように、撮像されて得られた画像から、対象物が装着物を装着していると仮定したときに該装着物が存在すると推定される予め定められた領域を抽出し、該抽出した領域の画像と、装着物を装着した対象物の画像における上記予め定められた領域の画像および装着物を装着していない対象物の画像における上記予め定められた領域の画像に反応するように学習した機械学習システムと、装着物を装着した対象物の画像における上記予め定められた領域の画像に反応するように学習した機械学習システムと、装着物を装着していない対象物の画像における上記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて3つの尤度値を求め、この3つの尤度値に基づいて対象物が装着物を装着しているか否かを判定するようにしたため、請求項1に記載の発明と同様に、装着物の装着の有無を信頼性高く判定することができる。また、請求項1に記載の発明の効果に加え、請求項2に記載の発明では、対象物全体の画像ではなく装着物が存在すると推定される予め定められた領域の画像に着目して判定を行なうため、処理時間の短縮につながる。   In this way, a predetermined area that is assumed to be present when the object is assumed to be mounted is extracted from the image obtained by imaging, and the extracted area is extracted. And the image of the predetermined area in the image of the object with the attached object and the image of the predetermined area in the image of the object without the attached object. A machine learning system, a machine learning system that learns to react to an image of the predetermined area in the image of the object on which the wearing object is mounted, and the predetermined image in the image of the object that does not wear the wearing object Three likelihood values are obtained using a machine learning system that has learned to react to an image of a given region, and it is determined whether or not the object is wearing an attachment based on the three likelihood values. You Because the way, like the invention described in claim 1, the presence or absence of the mounting of the mounting object can be determined reliably. Further, in addition to the effect of the invention described in claim 1, in the invention described in claim 2, the determination is made by paying attention to an image of a predetermined region in which it is estimated that a wearing object exists, not an image of the entire object. As a result, the processing time is shortened.

なお、請求項3に記載の発明のように、請求項1または2記載の対象物判定装置の判定手段は、前記第1尤度値、前記第2尤度値、及び前記第3尤度値の大小関係に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定するようにしてもよい。   As in the invention described in claim 3, the determination means of the object determination device according to claim 1 or 2 is configured such that the first likelihood value, the second likelihood value, and the third likelihood value are determined. Based on the size relationship, it may be determined whether or not the object represented by the image obtained by the imaging unit is wearing the wearing object.

また、請求項4に記載の発明のように、請求項1または2記載の対象物判定装置の判定手段は、前記第1尤度値と第2尤度値との比、および前記第1尤度値と前記第3尤度値との比に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定するようにしてもよい。   Further, as in the invention described in claim 4, the determination unit of the object determination device according to claim 1 or 2 includes the ratio between the first likelihood value and the second likelihood value, and the first likelihood. Based on the ratio between the degree value and the third likelihood value, it may be determined whether or not the object represented by the image captured by the imaging unit is wearing the attachment. .

請求項5の発明のプログラムは、コンピュータに、対象物を撮像するための撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、装着物を装着した対象物の画像および前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出する第1尤度値算出ステップと、前記撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、前記装着物を装着した対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出する第2尤度値算出ステップと、前記撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する第3尤度値算出ステップと、前記算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定ステップと、を実行させるためのプログラムである。   According to a fifth aspect of the present invention, there is provided a program for an object represented by an image picked up by an image pickup means for picking up an object on a computer. A first likelihood value that calculates a first likelihood value indicating the likelihood of an object using a machine learning system that has learned to react to an image of an object wearing the object and an image of an object not wearing the attachment The degree value calculating step and the object represented by the image captured by the image capturing unit are responsive to the image captured by the image capturing unit and the image of the object mounted with the mounted object. A second likelihood value calculating step for calculating a second likelihood value indicating the likelihood of the object on which the object is mounted using the machine learning system that has been learned, and an image obtained by being imaged by the imaging means. For the object to represent An object that is not attached to the wearing object using an image obtained by being picked up by the imaging means and a machine learning system that has learned to react to an image of the object that is not attached to the wearing object Based on the third likelihood value calculating step for calculating the third likelihood value indicating the likelihood and the calculated first likelihood value, second likelihood value, and third likelihood value, the imaging means A determination step of determining whether or not the object represented by the image obtained by imaging is mounted on the mounted object.

このようなプログラムによっても、請求項1に記載の対象物判定装置と同様に作用するため、請求項1に記載の対象物判定装置と同様の効果が得られる。なお、第1尤度値算出ステップ、第2尤度値算出ステップ、および第3尤度値算出ステップの3つのステップはどのような順序で行なってもよい。   Even with such a program, the same effect as that of the object determination device according to claim 1 can be obtained because it operates in the same manner as the object determination device according to claim 1. Note that the three steps of the first likelihood value calculation step, the second likelihood value calculation step, and the third likelihood value calculation step may be performed in any order.

請求項6の発明のプログラムは、コンピュータに、対象物を撮像するための撮像手段で撮像されて得られた画像から、前記対象物が装着物を装着していると仮定したときに該装着物が存在すると推定される予め定められた領域を抽出する抽出ステップと、前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像および前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出する第1尤度値算出ステップと、前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出する第2尤度値算出ステップと、前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出された領域の画像と、前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する第3尤度値算出ステップと、前記算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定ステップと、を実行させるためのプログラムである。   According to a sixth aspect of the present invention, there is provided a program according to a sixth aspect of the present invention, when it is assumed that the object is attached to the object from an image obtained by imaging with an imaging means for imaging the object. An extraction step for extracting a predetermined area estimated to exist, and an object represented by an image captured by the imaging means, and an image of the extracted area and the wearing object are mounted Using a machine learning system that has learned to react to an image of the predetermined area in the image of the object and an image of the predetermined area in the image of the object that is not mounted A first likelihood value calculating step for calculating a first likelihood value indicating physicality; an object image represented by an image captured by the imaging unit; and an image of the extracted region; A second likelihood value indicating the likelihood of the object wearing the wearing object is calculated using a machine learning system learned to react to the image of the predetermined area in the image of the object wearing the kimono. For the object represented by the second likelihood value calculating step and the image obtained by imaging by the imaging means, the image in the extracted area and the image of the object not wearing the wearing object in advance A third likelihood value calculating step of calculating a third likelihood value indicating the likelihood of an object not wearing the wearing object using a machine learning system that has learned to react to an image of a predetermined area; Based on the calculated first likelihood value, second likelihood value, and third likelihood value, is the object represented by the image captured by the imaging means wearing the wearing object? A determination step for determining whether or not Is a program for executing the.

このようなプログラムによっても、請求項2に記載の対象物判定装置と同様に作用するため、請求項2に記載の対象物判定装置と同様の効果が得られる。なお、第1尤度値算出ステップ、第2尤度値算出ステップ、および第3尤度値算出ステップの3つのステップはどのような順序で行なってもよい。   Such a program also acts in the same manner as the object determination device according to claim 2, and therefore the same effect as the object determination device according to claim 2 can be obtained. Note that the three steps of the first likelihood value calculation step, the second likelihood value calculation step, and the third likelihood value calculation step may be performed in any order.

以上説明したように本発明によれば、対象物が装着物を装着しているか否かを信頼性高く判定することができる。   As described above, according to the present invention, it is possible to determine with high reliability whether or not an object is wearing an attachment.

図1は、本発明の実施の形態に係る対象物判定装置10の概略構成図である。本実施の形態の対象物判定装置10は、対象物として人物の顔を撮影し、該撮影した人物の顔に装着物(ここではマスク)が装着されているか否かを判定する。   FIG. 1 is a schematic configuration diagram of an object determination device 10 according to an embodiment of the present invention. The target object determination apparatus 10 according to the present embodiment captures a person's face as the target object, and determines whether or not an attachment (here, a mask) is attached to the photographed person's face.

図1に示すように、対象物判定装置10は、対象者12を撮影するためのカメラ14と、画像取り込み装置16と、画像処理装置18とから構成される。   As shown in FIG. 1, the object determination device 10 includes a camera 14 for photographing a subject 12, an image capturing device 16, and an image processing device 18.

画像取り込み装置16は、画像メモリを備えており、カメラ14で撮影されて得られた画像データを取り込んで画像メモリに記憶する。また、画像取り込み装置16は、画像メモリから該画像データを読み出して画像処理装置18に入力する。   The image capturing device 16 includes an image memory, captures image data obtained by photographing with the camera 14, and stores the image data in the image memory. The image capturing device 16 reads out the image data from the image memory and inputs it to the image processing device 18.

図2は、画像処理装置18の機能構成図である。   FIG. 2 is a functional configuration diagram of the image processing apparatus 18.

画像処理装置18は、画像取り込み装置16から入力された画像データに基づいて対象者12の顔にマスクが装着されているか否かを判定する処理を行なう装置であって、顔領域検出部20、尤度算出部22、および判定部24を含んで構成されている。   The image processing device 18 is a device that performs processing for determining whether or not a mask is attached to the face of the subject 12 based on the image data input from the image capturing device 16, and includes a face region detection unit 20, The likelihood calculation unit 22 and the determination unit 24 are included.

顔領域検出部20は、画像取り込み装置16から入力された画像データの画像から、対象者12の顔の領域を検出する。顔の領域を検出する技術には、様々な技術があるが、本実施の形態では、パターン認識能力の優れた識別器の一種であるニューラルネットワーク(以下、NN)を用いたH.Rowleyらの顔検出の手法("Neural Network-based Face Detection", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.20, No.1, 1998, pp.23-38参照)を用いてもよい。ただし、顔領域検出部20では対象者12がマスクを装着しているか否かを判断するわけではないため、対象者12がマスクを装着しているか否かに関わらず対象者12の顔を検出できるように予めNNを学習しておく。   The face area detection unit 20 detects the face area of the subject 12 from the image of the image data input from the image capturing device 16. There are various techniques for detecting the face area. In this embodiment, H. Rowley et al. Using a neural network (hereinafter referred to as NN) which is a kind of classifier having excellent pattern recognition capability. A face detection method (see “Neural Network-based Face Detection”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 20, No. 1, 1998, pp. 23-38) may be used. However, since the face area detection unit 20 does not determine whether or not the subject 12 is wearing a mask, the face of the subject 12 is detected regardless of whether or not the subject 12 is wearing a mask. NN is learned beforehand so that it can be done.

より具体的には、入力層、中間層、及び出力層を連結して構成したNNに、既知の入出力データによって連結関係を学習させる。ここでは、バックプロパゲーションと呼ぶ学習手法により、図3(A)に示すように、マスクを装着していない多数の顔画像や、図3(B)に示すように、さまざまな形状のマスクを装着している多数の顔画像に対してNNの出力層が1の信号を出力するように教師信号1を与えて興奮学習を行なう。一方、顔と全く異なる画像(たとえば風景画像など)を非顔画像として多数用意しておき、これらの画像に対しては教師信号0を与えて抑制学習を行う。このNNをマスク/非マスク顔反応NNと呼称する。なお、マスク/非マスク顔反応NNの出力値は0から1の範囲の値をとるように学習しておく。   More specifically, an NN configured by connecting an input layer, an intermediate layer, and an output layer is caused to learn a connection relationship using known input / output data. Here, by a learning method called back propagation, as shown in FIG. 3 (A), a large number of facial images without a mask, and masks of various shapes as shown in FIG. Excitement learning is performed by giving a teacher signal 1 so that the output layer of the NN outputs a signal of 1 for a large number of face images worn. On the other hand, a number of images completely different from the face (for example, landscape images) are prepared as non-face images, and suppression learning is performed by giving a teacher signal 0 to these images. This NN is referred to as a mask / non-mask face reaction NN. It should be noted that the output value of the mask / non-mask face reaction NN is learned to take a value in the range of 0 to 1.

尤度算出部22は、顔領域検出部20で検出された領域に対して、マスクの装着の有無に拘わらず顔らしさを示す第1尤度値p1と、マスクを装着した顔らしさを示す第2尤度値p2と、マスクを装着していない顔らしさを示す第3尤度値p3とを算出する。   The likelihood calculating unit 22 has a first likelihood value p1 indicating the face-likeness regardless of whether or not the mask is attached to the region detected by the face region detecting unit 20, and a first likelihood indicating the face-likeness wearing the mask. A two-likelihood value p2 and a third likelihood value p3 indicating the likelihood of a face not wearing a mask are calculated.

具体的には、マスクの装着の有無に拘わらず顔らしさを示す第1尤度値p1については、顔領域検出部20の顔領域検出の際に用いた上記マスク/非マスク顔反応NNを、上記検出した顔領域に適用した場合の出力値を第1尤度値p1とする。従って、第1尤度値p1は、0から1の範囲の値をとる。   Specifically, for the first likelihood value p1 indicating the facial appearance regardless of whether or not a mask is worn, the mask / non-mask face reaction NN used in the face area detection of the face area detection unit 20 is expressed as follows: The output value when applied to the detected face area is defined as a first likelihood value p1. Accordingly, the first likelihood value p1 takes a value in the range of 0 to 1.

また、マスクを装着した顔らしさを示す第2尤度値p2については、マスクを装着した顔の画像に反応するように学習したNN(以下、マスク顔反応NN)を、顔領域検出部20で検出された顔領域に適用して算出する。なお、マスク顔反応NNも、上記マスク/非マスク顔反応NNと同様にバックプロパゲーションの方法を用いて、図3(B)に示したようなさまざまな形状のマスクを装着している多数の顔画像に対して、教師信号を1として、いわゆる興奮学習を行なうと同時に、図3(A)に示したようなマスクを装着していない多数の顔画像に対して教師信号を0として抑制学習を行なう。このような学習を行なうことによって、マスク顔反応NNの出力層がマスクを装着した顔画像に対しては高い出力値を、マスクを装着していない顔画像に対しては低い出力値を出力するようになることが期待できる。なお、マスク顔反応NNの出力値は0から1の範囲の値をとるように学習しておく。本実施の形態では、マスク顔反応NNを顔領域検出部20で検出された顔領域に適用したときの出力値をそのまま第2尤度値p2として用いる。従って、第2尤度値p2は、0から1の範囲の値をとる。   In addition, for the second likelihood value p2 indicating the likelihood of a face wearing a mask, the face area detecting unit 20 uses an NN learned to react to an image of the face wearing the mask (hereinafter referred to as mask face reaction NN). The calculation is applied to the detected face area. Note that the mask face reaction NN also uses a number of masks having various shapes as shown in FIG. 3B by using the back-propagation method in the same manner as the mask / non-mask face reaction NN. Performing so-called excitement learning with a teacher signal of 1 for a face image, and at the same time, suppressing learning with a teacher signal of 0 for a number of face images not wearing a mask as shown in FIG. To do. By performing such learning, the output layer of the mask face reaction NN outputs a high output value for a face image wearing a mask and a low output value for a face image not wearing a mask. It can be expected that Note that the output value of the mask face reaction NN is learned to take a value in the range of 0 to 1. In the present embodiment, the output value when the mask face reaction NN is applied to the face area detected by the face area detection unit 20 is used as it is as the second likelihood value p2. Therefore, the second likelihood value p2 takes a value in the range of 0 to 1.

また、マスクを装着していない顔らしさを示す第3尤度値p3については、マスクを装着していない顔の画像のみに反応するように学習したNN(非マスク顔反応NN)を、顔領域検出部20で検出された顔領域に適用して算出する。なお、非マスク顔反応NNも、上記マスク/非マスク顔反応NNと同様にバックプロパゲーションの方法を用いて、図3(A)に示したようなマスクを装着していない多数の顔画像に対して教師信号を1として、興奮学習を行なうと同時に、図3(B)に示したようなさまざまな形状のマスクを装着している多数の顔画像に対して、教師信号を0として抑制学習を行なう。このような学習を行なうことによって、非マスク顔反応NNの出力層がマスクを装着していない顔画像に対しては高い出力値を、マスクを装着した顔画像に対しては低い出力値を出力するようになることが期待できる。なお、非マスク顔反応NNの出力値は0から1の範囲の値をとるように学習しておく。本実施の形態では、非マスク顔反応NNを顔領域検出部20で検出された顔領域に適用したときの出力値をそのまま第3尤度値p3として用いる。従って、第3尤度値p3は、0から1の範囲の値をとる。   For the third likelihood value p3 indicating the likelihood of a face not wearing a mask, NN (non-mask face reaction NN) learned to react only to a face image not wearing a mask is used as a face region. The calculation is applied to the face area detected by the detection unit 20. The non-mask face reaction NN is also applied to a large number of face images not wearing a mask as shown in FIG. 3A by using the back-propagation method in the same manner as the mask / non-mask face reaction NN. On the other hand, excitement learning is performed by setting the teacher signal to 1, and at the same time, suppression learning is performed by setting the teacher signal to 0 for a large number of face images wearing masks of various shapes as shown in FIG. To do. By performing such learning, the output layer of the non-mask face reaction NN outputs a high output value for a face image not wearing a mask and a low output value for a face image wearing a mask. You can expect to be. It should be noted that the output value of the non-mask face reaction NN is learned to take a value in the range of 0 to 1. In the present embodiment, the output value when the non-mask face reaction NN is applied to the face area detected by the face area detection unit 20 is used as it is as the third likelihood value p3. Accordingly, the third likelihood value p3 takes a value in the range of 0 to 1.

判定部24は、尤度算出部22で算出された第1尤度値p1、第2尤度値p2、および第3尤度値p3とを用いて、カメラ14で撮影された画像が表す対象者12の顔にマスクが装着されているか否かを判定する。   The determination unit 24 uses the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3 calculated by the likelihood calculation unit 22 to represent an object captured by the camera 14 It is determined whether a mask is attached to the face of the person 12.

なお、上記説明した画像取り込み装置16や画像処理装置18を構成する各構成要素は、CPU、RAM、ROMを含んで構成されたコンピュータによって実現される。すなわちCPUが、ROMや所定の記憶装置に記憶されたプログラムを実行することにより上記各構成要素の機能を実現し、以下に説明する処理が行なわれる。また、各構成要素を別々のコンピュータで構成してもよいし、1つのコンピュータで構成してもよい。   Each component constituting the image capturing device 16 and the image processing device 18 described above is realized by a computer including a CPU, a RAM, and a ROM. That is, the CPU realizes the functions of the above-described components by executing a program stored in a ROM or a predetermined storage device, and the processing described below is performed. Moreover, each component may be comprised by a separate computer, and may be comprised by one computer.

次に、本実施の形態で実行されるマスク装着判定処理の詳細を説明する。   Next, details of the mask mounting determination process executed in the present embodiment will be described.

図4は、対象物判定装置10の画像取り込み装置16及び画像処理装置18により行なわれるマスク装着判定処理の流れを示すフローチャートである。   FIG. 4 is a flowchart showing the flow of the mask attachment determination process performed by the image capturing device 16 and the image processing device 18 of the object determination device 10.

まず、ステップS100では、画像取り込み装置16が、カメラ14で撮像されて得られた画像データを取り込んで一旦画像メモリに記憶する。そして画像メモリから画像データを読みだして画像処理装置18の顔領域検出部20に入力する。ステップS102では、顔領域検出部20が、画像取り込み装置16から入力された画像データが表す画像から、マスク/非マスク顔反応NNを用いて顔領域を検出する。   First, in step S100, the image capturing device 16 captures image data obtained by imaging with the camera 14 and temporarily stores it in the image memory. Then, the image data is read from the image memory and input to the face area detection unit 20 of the image processing device 18. In step S102, the face area detection unit 20 detects a face area from the image represented by the image data input from the image capturing device 16 using the mask / non-mask face reaction NN.

ステップS104では、尤度算出部22が、顔領域検出部20で検出された顔領域に対してマスク/非マスク顔反応NNを適用して第1尤度値p1を算出する。前述したように、マスク/非マスク顔反応NNは、マスクの装着の有無に拘わらず顔画像に対しては1が出力されるように、それ以外の画像に対しては0が出力されるように学習されているため、第1尤度値p1は0から1の範囲の数値となる。   In step S104, the likelihood calculating unit 22 calculates the first likelihood value p1 by applying the mask / non-mask face reaction NN to the face area detected by the face area detecting unit 20. As described above, in the mask / non-mask face reaction NN, 1 is output for a face image regardless of whether or not a mask is attached, and 0 is output for other images. Therefore, the first likelihood value p1 is a numerical value in the range of 0 to 1.

ステップS106では、尤度算出部22が、顔領域検出部20で検出された顔領域に対してマスク顔反応NNを適用して第2尤度値p2を算出する。前述したように、マスク顔反応NNは、マスクを装着した顔画像に対しては1が出力されるように、それ以外の画像に対しては0が出力されるように学習されているため、第2尤度値p2は0から1の範囲の数値となり、マスクを装着した顔画像に適用したときの第2尤度値p2のほうがマスクを装着していない顔画像に適用したときの第2尤度値p2に比べて値が大きくなることが期待できる。   In step S <b> 106, the likelihood calculating unit 22 calculates the second likelihood value p <b> 2 by applying the mask face reaction NN to the face area detected by the face area detecting unit 20. As described above, the mask face reaction NN is learned so that 1 is output for a face image wearing a mask, and 0 is output for other images. The second likelihood value p2 is a numerical value in the range of 0 to 1, and the second likelihood value p2 when applied to a face image wearing a mask is the second value when applied to a face image not wearing a mask. It can be expected that the value becomes larger than the likelihood value p2.

ステップS108では、尤度算出部22が、顔領域検出部20で検出された顔領域に対して非マスク顔反応NNを適用して第3尤度値p3を算出する。前述したように、非マスク顔反応NNは、マスクを装着していない顔画像に対しては1が出力されるように、それ以外の画像に対しては0が出力されるように学習されているため、第3尤度値p3も0から1の範囲の数値となり、マスクを装着していない顔画像に適用したときの第3尤度値p3のほうがマスクを装着している顔画像に適用したときの第3尤度値p3に比べて値が大きくなることが期待できる。   In step S108, the likelihood calculating unit 22 calculates the third likelihood value p3 by applying the non-masked face reaction NN to the face area detected by the face area detecting unit 20. As described above, the non-mask face reaction NN is learned so that 1 is output for a face image without a mask and 0 is output for other images. Therefore, the third likelihood value p3 is also a numerical value in the range of 0 to 1, and the third likelihood value p3 when applied to the face image not wearing the mask is applied to the face image wearing the mask. It can be expected that the value becomes larger than the third likelihood value p3 at that time.

ステップS110では、判定部24が、第1尤度値p1、第2尤度値p2、および第3尤度値p3に基づいて、対象者12がマスクを装着しているか否かを判定する。   In step S110, the determination unit 24 determines whether the subject 12 is wearing a mask based on the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3.

対象とする顔画像がマスクを装着している場合には、第2尤度値p2は1に近い値となり、第3尤度値p3は0に近い値になるものと期待できる。一方、第1尤度値Plはマスクを装着した顔画像と装着していない顔画像の両方に反応するように学習したマスク/非マスク顔反応NNの出力であるため、第2尤度値p2ほどには高い値ではないが(または第2尤度値p2と同じ程度の値になる可能性もある)、第3尤度値p3に比べれば大きな値になるものと期待できる。そこで、判定部24は、第1尤度値p1、第2尤度値p2、第3尤度値p3が下記式(1)に示した大小関係を満たす場合は、検出された顔はマスクを装着していると判定する。   If the target face image is wearing a mask, the second likelihood value p2 can be expected to be close to 1, and the third likelihood value p3 can be expected to be close to 0. On the other hand, since the first likelihood value Pl is an output of the mask / non-mask face reaction NN learned to react to both the face image with the mask and the face image without the mask, the second likelihood value p2 Although not as high as possible (or possibly as high as the second likelihood value p2), it can be expected to be larger than the third likelihood value p3. Therefore, when the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3 satisfy the magnitude relationship shown in the following equation (1), the determination unit 24 masks the detected face. It is determined that it is attached.

p2≧p1>p3 ・・・(1)   p2 ≧ p1> p3 (1)

一方、対象とする顔画像がマスクを装着していない場合には、第2尤度値p2は0に近い値であり、第3尤度値p3は1に近い値になり、第1尤度値Plについては前述の場合と同様に第3尤度値p3ほどには高い値ではないが(または第3尤度値p3と同じ程度の値になる可能性もある)、第2尤度値p2に比べれば大きな値になるものと期待できる。そこで、判定部24は、第1尤度値p1、第2尤度値p2、第3尤度値p3が下記式(2)に示した大小関係を満たす場合は、検出された顔はマスクを装着していないと判定する。   On the other hand, if the target face image is not wearing a mask, the second likelihood value p2 is close to 0, the third likelihood value p3 is close to 1, and the first likelihood The value Pl is not as high as the third likelihood value p3 as in the case described above (or may be the same value as the third likelihood value p3), but the second likelihood value. It can be expected to be a large value compared to p2. Therefore, when the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3 satisfy the magnitude relationship shown in the following formula (2), the determination unit 24 masks the detected face. It is determined that it is not installed.

p3≧p1>p2 ・・・(2)   p3 ≧ p1> p2 (2)

また、第1尤度値p1、第2尤度値p2、および第3尤度値p3の大小関係が、式(1)および(2)のどちらも満たさない場合には、マスクの有無を判定するには十分な確度がないと判断しで、判定を保留する。   Also, if the magnitude relationship among the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3 does not satisfy either of the expressions (1) and (2), the presence / absence of a mask is determined. Therefore, it is determined that there is not sufficient accuracy, and the determination is suspended.

このようにマスクの装着の有無に関わらず顔画像に反応するマスク/非マスク顔反応NNと、マスクを装着した顔画像のみに反応するマスク顔反応NNと、マスクを装着していない顔画像のみに反応する非マスク顔反応NNの3つを用いて3つの尤度値を求め、3つの尤度値の大小を比較することで、より確からしい判定をすることができ誤検出を低く抑えることができる。   Thus, a mask / non-mask face reaction NN that reacts to a face image regardless of whether or not a mask is attached, a mask face reaction NN that reacts only to a face image with a mask attached, and only a face image without a mask attached By using three non-masked face reactions NN that react to 3 and obtaining three likelihood values, comparing the likelihood values of the three likelihood values makes it possible to make a more probable decision and to keep false detection low. Can do.

マスク装着判定処理の判定結果は、例えば、顔状態の推定処理を行なう場合に利用できる。例えば、マスクを装着していると判定された場合には、画像から口や鼻の特徴量の検出は困難であるため、他の特徴量を用いた顔状態の推定処理を行なえば良く、マスクを装着している場合としていない場合とで効率的に処理手順を切り替えることで安定した顔状態推定が実現できる。   The determination result of the mask wearing determination process can be used, for example, when a face state estimation process is performed. For example, when it is determined that the mask is worn, it is difficult to detect the feature amount of the mouth and nose from the image. Therefore, it is only necessary to perform a face state estimation process using another feature amount. Stable face state estimation can be realized by efficiently switching the processing procedure depending on whether or not the camera is worn.

なお、ここでは、第1尤度値p1、第2尤度値p2、および第3尤度値p3の大小関係に基づいてマスク装着の有無を判定する例について説明したが、第1尤度値p1と第2尤度値p2との比、および第1尤度値p1と第3尤度値p3との比に基づいてマスク装着の有無を判定するようにしてもよい。   In addition, although the example which determines the presence or absence of mask wearing based on the magnitude relationship of the 1st likelihood value p1, the 2nd likelihood value p2, and the 3rd likelihood value p3 was demonstrated here, the 1st likelihood value The presence / absence of wearing a mask may be determined based on the ratio between p1 and the second likelihood value p2 and the ratio between the first likelihood value p1 and the third likelihood value p3.

具体的には、まず、第1尤度値p1と第2尤度値p2との比r1を以下の式(3)により求め、第1尤度値p1と第3尤度値p3との比r2を以下の式(4)により求める。
r1=第2尤度値p2/第1尤度値p1 ・・・(3)
r2=第1尤度値p1/第3尤度値p3 ・・・(4)
Specifically, first, the ratio r1 between the first likelihood value p1 and the second likelihood value p2 is obtained by the following equation (3), and the ratio between the first likelihood value p1 and the third likelihood value p3 is calculated. r2 is obtained by the following equation (4).
r1 = second likelihood value p2 / first likelihood value p1 (3)
r2 = first likelihood value p1 / third likelihood value p3 (4)

そして、以下の関係式(5)を満たすか否かを判断する。
r1>th1 かつ r2>th2 ・・・(5)
Then, it is determined whether or not the following relational expression (5) is satisfied.
r1> th1 and r2> th2 (5)

ここでth1、th2は判定のための閾値であり、0<th1≦th2の関係を有する。関係式(5)を満たす場合には、検出された顔画像はマスクを装着している顔と判定する。   Here, th1 and th2 are threshold values for determination, and have a relationship of 0 <th1 ≦ th2. If the relational expression (5) is satisfied, the detected face image is determined to be a face wearing a mask.

同様に、第1尤度値p1と第2尤度値p2との比r3を以下の式(6)により求め、第1尤度値p1と第3尤度値p3との比r4を以下の式(7)により求める。
r3=第3尤度値p3/第1尤度値p1 ・・・(6)
r4=第1尤度値p1/第2尤度値p2 ・・・(7)
Similarly, the ratio r3 between the first likelihood value p1 and the second likelihood value p2 is obtained by the following equation (6), and the ratio r4 between the first likelihood value p1 and the third likelihood value p3 is calculated as follows: It calculates | requires by Formula (7).
r3 = third likelihood value p3 / first likelihood value p1 (6)
r4 = first likelihood value p1 / second likelihood value p2 (7)

そして、以下の関係式(5)を満たすか否かを判断する。
r3>th3 かつ r4>th4 ・・・(8)
Then, it is determined whether or not the following relational expression (5) is satisfied.
r3> th3 and r4> th4 (8)

ここで、th3、th4は、判定のための閾値であり、0<th3≦th4の関係を有する。関係式(8)を満たす場合には、検出された顔画像はマスクを装着していない顔と判定する。   Here, th3 and th4 are thresholds for determination, and have a relationship of 0 <th3 ≦ th4. When the relational expression (8) is satisfied, the detected face image is determined as a face not wearing a mask.

なお、(5)、(8)の関係式のいずれにも該当しない場合には、マスクの有無を判定するには十分な確度がないと判断して、判定を保留するようにしてもよい。   If none of the relational expressions (5) and (8) correspond, it may be determined that there is not sufficient accuracy to determine the presence / absence of a mask, and the determination may be suspended.

このように、比を用いても、上記と同様にマスク装着の有無を信頼性高く判定することができる。   Thus, even if the ratio is used, whether or not the mask is mounted can be determined with high reliability as described above.

なお、本実施の形態では、マスクの装着の有無を判定する例について説明したが、サングラスの装着の有無を判定する場合であっても、上記実施の形態と同様に処理すればよい。すなわち、サングラスの装着の有無に拘わらず顔画像に反応するNNと、サングラスを装着している顔画像のみに反応するNNと、サングラスを装着していない顔画像のみに反応するNNとを用意しておき、この3つのNNを用いて3つの尤度値を求め、判定に用いることで、同様の効果を得ることができる。   In the present embodiment, an example of determining whether or not a mask is mounted has been described. However, even if it is determined whether or not sunglasses are mounted, the same processing as in the above embodiment may be performed. In other words, there are prepared an NN that reacts to a face image regardless of whether or not sunglasses are worn, an NN that reacts only to a face image wearing sunglasses, and an NN that reacts only to a face image not wearing sunglasses. The same effect can be obtained by obtaining three likelihood values using these three NNs and using them for the determination.

また、マスク及びサングラスの両方の装着の有無を判定するように構成してもよい。すなわち、マスクとサングラスの装着の有無に拘わらず顔画像に反応するNNと、マスクとサングラスの両方を装着している顔画像のみに反応するNNと、マスクとサングラスの両方を装着していない顔画像のみに反応するNNとを用意しておき、この3つのNNを用いて3つの尤度値を求め、判定に用いることで、同様の効果を得ることができる。   Moreover, you may comprise so that the presence or absence of mounting | wearing of both a mask and sunglasses may be determined. That is, an NN that reacts to a face image regardless of whether or not a mask and sunglasses are worn, an NN that reacts only to a face image that wears both a mask and sunglasses, and a face that does not wear both a mask and sunglasses Similar effects can be obtained by preparing an NN that reacts only to an image, obtaining three likelihood values using these three NNs, and using them for determination.

また、上記実施の形態では、マスク装着の有無の判定に異なる3つのNNを用いる例について説明したが、これに限定されず、サポートベクターマシンなど、NN以外の他の機械学習システムを用いてもよい。   In the above-described embodiment, an example in which three different NNs are used to determine whether or not a mask is attached has been described. However, the present invention is not limited to this, and a machine learning system other than NN such as a support vector machine may be used. Good.

また、上記実施の形態では、顔全体の画像に対してNNを適用してマスクの装着を判定する例について説明したが、顔の下半分の領域の画像のみを用いてマスクの装着の判定を行なうようにしてもよい。以下、顔の下半分の領域の画像のみを用いてマスクの装着の判定を行なう変形例について説明する。   In the above-described embodiment, the example in which the NN is applied to the entire face image to determine the wearing of the mask has been described. However, the wearing of the mask is determined using only the image of the lower half of the face. You may make it perform. Hereinafter, a modified example in which the mask wearing determination is performed using only the image of the lower half area of the face will be described.

この変形例の対象物判定装置の構成は、上記実施の形態の対象物判定装置10と同様の構成とする。ただし、以下の構成要素は以下に説明するように機能する。   The configuration of the object determination device of this modification is the same as that of the object determination device 10 of the above embodiment. However, the following components function as described below.

画像処理装置18の顔領域検出部20は、上記実施の形態と同様に、カメラ14で撮影されて得られた画像データが表す画像から、対象者12の顔の領域を検出する。そして、更に、検出された顔領域を上下半分に分割したときの下半分の領域の画像の画像データを切り出して尤度算出部22に出力する。下半分の領域は、対象者12がマスクを装着していると仮定した場合に、顔画像の中で該マスクが存在すると推定される領域である。   The face area detection unit 20 of the image processing device 18 detects the face area of the subject 12 from the image represented by the image data obtained by being photographed by the camera 14 as in the above embodiment. Further, image data of an image in the lower half area when the detected face area is divided into upper and lower halves is cut out and output to the likelihood calculating unit 22. The lower half area is an area where it is estimated that the mask exists in the face image when it is assumed that the subject 12 wears the mask.

尤度算出部22は、顔領域検出部20で検出され切り出された画像データが示す画像に対して、マスクの装着の有無に拘わらず顔らしさを示す第1尤度値p1と、マスクを装着した顔らしさを示す第1尤度値p2と、マスクを装着していない顔らしさを示す第3尤度値p3とを算出する。   The likelihood calculation unit 22 attaches a first likelihood value p1 indicating the likelihood of a face to the image indicated by the image data detected and cut out by the face region detection unit 20 regardless of whether or not the mask is attached, and the mask. A first likelihood value p2 indicating the likelihood of a face and a third likelihood value p3 indicating the likelihood of a face not wearing a mask are calculated.

ただし、第1尤度値p1、第2尤度値p2、および第3尤度値p3を求めるためのマスク/非マスク顔反応NN、マスク顔反応NN、および非マスク顔反応NNは、マスク非装着画像の下半分の画像と、マスク装着画像の下半分の画像とを用いて学習させる。   However, the mask / non-mask face reaction NN, the mask face reaction NN, and the non-mask face reaction NN for obtaining the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3 are not masked. Learning is performed using the lower half image of the wearing image and the lower half image of the mask wearing image.

すなわち、マスク/非マスク顔反応NNは、バックプロパゲーションの方法を用いて、図5(A)において破線で示したように、マスクを装着していない多数の顔画像の下半分の画像や、図5(B)において破線で示したように、マスクを装着している多数の顔画像の下半分の画像に対して、教師信号を1として興奮学習を行なうと同時に、顔と全く異なる非顔画像に対して、教師信号を0として抑制学習を行なう。   That is, the mask / non-mask face reaction NN uses the back-propagation method, as shown by the broken line in FIG. As indicated by a broken line in FIG. 5B, excitement learning is performed with a teacher signal as 1 for the lower half of many facial images wearing masks, and at the same time, a non-face completely different from the face The suppression learning is performed on the image with the teacher signal set to 0.

また、マスク顔反応NNも、バックプロパゲーションの方法を用いて、図5(B)において破線で示したように、マスクを装着している多数の顔画像の下半分の画像に対して、教師信号を1として興奮学習を行なうと同時に、図5(A)において破線で示したように、マスクを装着していない多数の顔画像の下半分の画像や非顔画像に対して、教師信号を0として抑制学習を行なう。   In addition, the mask face reaction NN is also applied to the lower half of many face images wearing masks by using the back-propagation method as indicated by the broken line in FIG. At the same time as excitement learning is performed with a signal of 1, teacher signals are applied to the lower half images and non-face images of a large number of face images not wearing masks, as shown by the broken lines in FIG. Suppression learning is performed as 0.

また、非マスク顔反応NNも、バックプロパゲーションの方法を用いて、図5(A)において破線で示したように、マスクを装着していない多数の顔画像の下半分の画像に対して、教師信号を1として興奮学習を行なうと同時に、図5(B)において破線で示したように、マスクを装着している多数の顔画像の下半分の画像や非顔画像に対して、教師信号を0として抑制学習を行なう。   Further, the non-mask face reaction NN also uses the back-propagation method, as shown by the broken line in FIG. At the same time as performing the excitement learning with the teacher signal as 1, the teacher signal is applied to the lower half images and non-face images of the many face images wearing masks as shown by the broken lines in FIG. Suppression learning is performed with 0 being 0.

なお、顔領域検出部20が顔領域を検出する際に用いるNNについては、顔全体の領域を検出するため、マスクの装着の有無に拘わらず顔画像全体に反応するように学習を行なう。従って、この変形例では、顔領域検出部20が用いるNNと、尤度算出部22で第1尤度値p1を算出するために用いるNNとを個別に用意して学習させておく。   Note that the NN used when the face area detection unit 20 detects the face area is learned so that it reacts to the entire face image regardless of whether or not a mask is attached in order to detect the entire face area. Therefore, in this modified example, the NN used by the face area detection unit 20 and the NN used by the likelihood calculation unit 22 to calculate the first likelihood value p1 are separately prepared and learned.

図6(A)は、本変形例における画像取り込み装置16及び画像処理装置18により行なわれるマスク装着判定処理の流れを示すフローチャートである。   FIG. 6A is a flowchart showing the flow of the mask attachment determination process performed by the image capturing device 16 and the image processing device 18 in this modification.

ステップS200〜S202は、カメラ14で撮影されて得られた画像データを取り込んで顔領域を検出する処理であり(図6(B)参照)、上記ステップS100〜S102と同様に処理するため、説明を省略する。   Steps S200 to S202 are processing for detecting the face area by taking in the image data obtained by the camera 14 (see FIG. 6B), and will be described in the same manner as steps S100 to S102. Is omitted.

ステップS204では、顔領域検出部20は、画像取り込み装置16から入力された画像データが表す画像から上記検出した対象者12の顔の領域を上下半分に分割したときの下半分の領域の画像データを切り出して尤度算出部22に出力する(図6(C)参照)。   In step S <b> 204, the face area detection unit 20 divides the detected face area of the target person 12 into upper and lower halves from the image represented by the image data input from the image capturing device 16, and the lower half area image data. Is output to the likelihood calculating unit 22 (see FIG. 6C).

ステップS206では、尤度算出部22が、マスク/非マスク顔反応NNを、顔領域検出部20で切り出された下半分の領域の画像データが示す画像に適用して第1尤度値p1を算出する。   In step S206, the likelihood calculation unit 22 applies the mask / non-mask face reaction NN to the image indicated by the image data of the lower half region cut out by the face region detection unit 20, and uses the first likelihood value p1. calculate.

ステップS208では、尤度算出部22が、マスク顔反応NNを、顔領域検出部20で切り出された下半分の領域の画像データが示す画像に適用して第2尤度値p2を算出する。   In step S208, the likelihood calculating unit 22 applies the mask face reaction NN to the image indicated by the image data of the lower half region cut out by the face region detecting unit 20, and calculates the second likelihood value p2.

ステップS210では、尤度算出部22が、非マスク顔反応NNを、顔領域検出部20で切り出された下半分の領域の画像データが示す画像に適用して第3尤度値p3を算出する。   In step S210, the likelihood calculating unit 22 applies the non-masked face reaction NN to the image indicated by the image data of the lower half region cut out by the face region detecting unit 20, and calculates the third likelihood value p3. .

ステップS212では、判定部24が、第1尤度値p1、第2尤度値p2、第3尤度値p3に基づいて、対象者12がマスクを装着しているか否かを判定する。判定の方法は、上記ステップS110と同様であるため説明を省略する。   In step S212, the determination unit 24 determines whether the subject 12 is wearing a mask based on the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3. Since the determination method is the same as that in step S110, description thereof is omitted.

このように、顔の下半分の領域の画像のみを用いてマスクの装着の判定を行なうことにより、処理時間を短縮することができる。   In this way, the processing time can be shortened by determining whether or not the mask is mounted using only the image of the lower half of the face.

なお、この変形例では、マスクの装着の有無を判定する場合について説明したが、サングラス装着の有無を判定するようにしてもよい。この場合には、上記変形例と同じ手順で顔画像の上半分の領域を切り出して、顔画像の上半分の領域を元に学習したサングラス顔/非サングラス顔反応NN、サングラス顔反応NN、非サングラス顔対応NNを用いて、サングラス装着の判定を行なう。   In this modification, the case where the presence / absence of wearing a mask is determined has been described, but the presence / absence of wearing sunglasses may be determined. In this case, the upper half area of the face image is cut out in the same procedure as in the above-described modification, and the sunglasses face / non-sunglass face reaction NN, the sunglasses face reaction NN, the non-sunglass face reaction NN, which are learned based on the upper half area of the face image. The sunglasses wearing correspondence NN is used to determine whether to wear sunglasses.

なお、上記実施の形態や変形例では、第1尤度値p1、第2尤度値p2、第3尤度値p3の順に尤度値を算出する例について説明したが、3つの尤度値の算出順序は特に限定されない。   In the above-described embodiment and modification, an example in which likelihood values are calculated in the order of the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3 has been described. The calculation order is not particularly limited.

なお、上記実施の形態及び変形例では、人物の顔にマスク等が装着されているか否かを判定する例について説明したが、これに限定されず、様々な対象物について本発明の適用が可能である。   In the above-described embodiment and modification, an example of determining whether a mask or the like is mounted on a person's face has been described. However, the present invention is not limited to this, and the present invention can be applied to various objects. It is.

本発明の実施の形態に係る対象物判定装置の概略構成図である。It is a schematic block diagram of the target object determination apparatus which concerns on embodiment of this invention. 画像処理装置の機能構成図である。It is a functional block diagram of an image processing apparatus. (A)は、マスクを装着していない顔画像の一例を示す図であり、(B)は、マスクを装着している顔画像の一例を示す図である。(A) is a figure which shows an example of the face image which is not wearing the mask, (B) is a figure which shows an example of the face image which is wearing the mask. 対象物判定装置の画像取り込み装置及び画像処理装置により行なわれるマスク装着判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the mask mounting | wearing determination process performed by the image capture device and image processing apparatus of a target object determination apparatus. (A)は、マスクを装着していない顔画像の下半分を切り出す場合の切り出し領域の例を示す図であり、(B)は、マスクを装着している顔画像の下半分を切り出す場合の切り出し領域の例を示す図である。(A) is a figure which shows the example of the cut-out area | region in the case of cutting out the lower half of the face image which is not wearing the mask, (B) is the case where the lower half of the face image which is wearing the mask is cut out It is a figure which shows the example of a cut-out area | region. (A)は、変形例における画像取り込み装置及び画像処理装置により行なわれるマスク装着判定処理の流れを示すフローチャートであり、(B)は、顔領域の検出結果の一例を示した図であり、(C)は、顔領域の画像から切り出した下半分の領域の画像を示す図である。(A) is a flowchart showing a flow of mask wearing determination processing performed by an image capturing device and an image processing device in a modified example, and (B) is a diagram showing an example of a face area detection result; C) is a diagram showing an image of a lower half area cut out from an image of a face area.

符号の説明Explanation of symbols

10 対象物判定装置
12 対象者
14 カメラ
16 画像取り込み装置
18 画像処理装置
20 顔領域検出部
22 尤度算出部
24 判定部
DESCRIPTION OF SYMBOLS 10 Target object determination apparatus 12 Subject person 14 Camera 16 Image capturing apparatus 18 Image processing apparatus 20 Face area detection part 22 Likelihood calculation part 24 Determination part

Claims (6)

対象物を撮像するための撮像手段と、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、装着物を装着した対象物の画像および前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出し、前記撮像手段で撮像されて得られた画像と、前記装着物を装着した対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出し、前記撮像手段で撮像されて得られた画像と、前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する尤度値算出手段と、
前記尤度値算出手段で算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定手段と、
を含む対象物判定装置。
An imaging means for imaging the object;
For an object represented by an image obtained by imaging with the imaging means, an image obtained by imaging with the imaging means, an image of an object with an attached object, and an object without the attached object The first likelihood value indicating the likelihood of an object is calculated using a machine learning system that has learned to respond to the image of the image, and the image obtained by being picked up by the image pickup means and the object to which the attachment is attached Calculating a second likelihood value indicating the likelihood of the object wearing the wearing object using a machine learning system learned to react to an image of the object, and an image obtained by being imaged by the imaging unit; A likelihood value for calculating a third likelihood value indicating the likelihood of the object not wearing the attachment using a machine learning system learned to react to an image of the object not wearing the attachment A calculation means;
Based on the first likelihood value, the second likelihood value, and the third likelihood value calculated by the likelihood value calculation means, the object represented by the image captured by the imaging means is the wearing Determining means for determining whether or not an object is attached;
An object determination apparatus including:
対象物を撮像するための撮像手段と、
前記撮像手段で撮像されて得られた画像から、前記対象物が装着物を装着していると仮定したときに該装着物が存在すると推定される予め定められた領域を抽出する抽出手段と、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出手段で抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像および前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出し、前記抽出手段で抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出し、前記抽出手段で抽出された領域の画像と、前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する尤度値算出手段と、
前記尤度値算出手段で算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定手段と、
を含む対象物判定装置。
An imaging means for imaging the object;
An extraction means for extracting a predetermined area that is estimated to be present when the object is assumed to be mounted from the image captured by the imaging means;
For the object represented by the image obtained by the imaging means, the image of the area extracted by the extraction means, the image of the predetermined area in the image of the object to which the attachment is attached, and the Calculating a first likelihood value indicating the likelihood of an object using a machine learning system that has learned to react to an image of the predetermined region in an image of an object that is not mounted; An object wearing the attachment using an image of the region extracted by the means and a machine learning system learned to react to the image of the predetermined region in the image of the object wearing the attachment A second likelihood value indicating physicality is calculated and reacts to the image of the region extracted by the extraction means and the image of the predetermined region in the image of the object not wearing the attachment. And likelihood value calculation means for calculating a third likelihood value indicating object likeness not wearing the wearable object by using the learned machine learning system as,
Based on the first likelihood value, the second likelihood value, and the third likelihood value calculated by the likelihood value calculation means, the object represented by the image captured by the imaging means is the wearing Determining means for determining whether or not an object is attached;
An object determination apparatus including:
前記判定手段は、前記第1尤度値、前記第2尤度値、及び前記第3尤度値の大小関係に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する
請求項1または2記載の対象物判定装置。
The determination unit is configured such that an object represented by an image captured by the imaging unit is based on a magnitude relationship between the first likelihood value, the second likelihood value, and the third likelihood value. The object determination apparatus according to claim 1, wherein it is determined whether or not an object is mounted.
前記判定手段は、前記第1尤度値と第2尤度値との比、および前記第1尤度値と前記第3尤度値との比に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する
請求項1または2記載の対象物判定装置。
The determination means is obtained by being imaged by the imaging means based on a ratio between the first likelihood value and the second likelihood value and a ratio between the first likelihood value and the third likelihood value. The target object determination apparatus according to claim 1, wherein the target object represented by the displayed image determines whether the target object is mounted.
コンピュータに、
対象物を撮像するための撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、装着物を装着した対象物の画像および前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出する第1尤度値算出ステップと、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、前記装着物を装着した対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出する第2尤度値算出ステップと、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する第3尤度値算出ステップと、
前記算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定ステップと、
を実行させるためのプログラム。
On the computer,
For an object represented by an image obtained by imaging with an imaging means for imaging the object, an image obtained by imaging with the imaging means, an image of the object with the attached object, and the attached object A first likelihood value calculating step of calculating a first likelihood value indicating the likelihood of an object using a machine learning system that has learned to react to an image of an object that is not mounted;
A machine learning system in which an object represented by an image captured by the image capturing unit is learned to react to an image captured by the image capturing unit and an image of the object mounted with the mounted object. A second likelihood value calculating step for calculating a second likelihood value indicating the likelihood of the object wearing the wearing object using
For the object represented by the image captured by the imaging unit, the machine learned to react to the image captured by the imaging unit and the image of the object not mounted with the mounted object A third likelihood value calculating step of calculating a third likelihood value indicating the likelihood of an object not wearing the wearing object using a learning system;
Based on the calculated first likelihood value, second likelihood value, and third likelihood value, is the object represented by the image captured by the imaging means wearing the wearing object? A determination step for determining whether or not;
A program for running
コンピュータに、
対象物を撮像するための撮像手段で撮像されて得られた画像から、前記対象物が装着物を装着していると仮定したときに該装着物が存在すると推定される予め定められた領域を抽出する抽出ステップと、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像および前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出する第1尤度値算出ステップと、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出する第2尤度値算出ステップと、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出された領域の画像と、前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する第3尤度値算出ステップと、
前記算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定ステップと、
を実行させるためのプログラム。
On the computer,
Based on an image obtained by imaging with an imaging means for imaging the object, a predetermined region that is estimated to be present when the object is mounted is assumed when the object is mounted. An extraction step to extract;
For the object represented by the image captured by the imaging means, the image of the extracted area, the image of the predetermined area in the image of the object to which the wearing object is attached, and the wearing object First likelihood value calculation for calculating a first likelihood value indicating the likelihood of an object using a machine learning system that has learned to react to an image of the predetermined region in an image of the object that is not attached Steps,
The object represented by the image captured by the imaging unit is responsive to the image of the extracted area and the image of the predetermined area in the image of the object to which the wearing object is attached. A second likelihood value calculating step of calculating a second likelihood value indicating the likelihood of the object wearing the wearing object using the learned machine learning system;
The object represented by the image captured by the imaging means reacts to the image of the extracted area and the image of the predetermined area in the image of the object not wearing the attachment. A third likelihood value calculating step of calculating a third likelihood value indicating the likelihood of an object not wearing the attachment using the machine learning system learned as described above,
Based on the calculated first likelihood value, second likelihood value, and third likelihood value, is the object represented by the image captured by the imaging means wearing the wearing object? A determination step for determining whether or not;
A program for running
JP2008161355A 2008-06-20 2008-06-20 Object determination apparatus and program Active JP5127582B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008161355A JP5127582B2 (en) 2008-06-20 2008-06-20 Object determination apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008161355A JP5127582B2 (en) 2008-06-20 2008-06-20 Object determination apparatus and program

Publications (2)

Publication Number Publication Date
JP2010003116A true JP2010003116A (en) 2010-01-07
JP5127582B2 JP5127582B2 (en) 2013-01-23

Family

ID=41584782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008161355A Active JP5127582B2 (en) 2008-06-20 2008-06-20 Object determination apparatus and program

Country Status (1)

Country Link
JP (1) JP5127582B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018047433A1 (en) * 2016-09-08 2019-06-24 ソニー株式会社 Information processing device
CN111444887A (en) * 2020-04-30 2020-07-24 北京每日优鲜电子商务有限公司 Mask wearing detection method and device, storage medium and electronic equipment
CN111523476A (en) * 2020-04-23 2020-08-11 北京百度网讯科技有限公司 Mask wearing identification method, device, equipment and readable storage medium
CN111666920A (en) * 2020-06-24 2020-09-15 浙江大华技术股份有限公司 Target object wearing detection method and device, storage medium and electronic device
US11037592B2 (en) 2017-12-07 2021-06-15 Toyobo Co., Ltd. Resin film with controlled youngs modulus
WO2024050760A1 (en) * 2022-09-08 2024-03-14 Intel Corporation Image processing with face mask detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002279416A (en) * 2001-02-09 2002-09-27 Gretag Imaging Trading Ag Method and device for correcting color
JP2004158013A (en) * 2002-11-04 2004-06-03 Samsung Electronics Co Ltd Face detection system and method, and face image authentication method
JP2006508463A (en) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド Face detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002279416A (en) * 2001-02-09 2002-09-27 Gretag Imaging Trading Ag Method and device for correcting color
JP2004158013A (en) * 2002-11-04 2004-06-03 Samsung Electronics Co Ltd Face detection system and method, and face image authentication method
JP2006508463A (en) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド Face detection

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018047433A1 (en) * 2016-09-08 2019-06-24 ソニー株式会社 Information processing device
JP7074343B2 (en) 2016-09-08 2022-05-24 ソニーグループ株式会社 Information processing equipment
US11037592B2 (en) 2017-12-07 2021-06-15 Toyobo Co., Ltd. Resin film with controlled youngs modulus
CN111523476A (en) * 2020-04-23 2020-08-11 北京百度网讯科技有限公司 Mask wearing identification method, device, equipment and readable storage medium
CN111523476B (en) * 2020-04-23 2023-08-22 北京百度网讯科技有限公司 Mask wearing recognition method, device, equipment and readable storage medium
CN111444887A (en) * 2020-04-30 2020-07-24 北京每日优鲜电子商务有限公司 Mask wearing detection method and device, storage medium and electronic equipment
CN111666920A (en) * 2020-06-24 2020-09-15 浙江大华技术股份有限公司 Target object wearing detection method and device, storage medium and electronic device
CN111666920B (en) * 2020-06-24 2023-09-01 浙江大华技术股份有限公司 Target article wearing detection method and device, storage medium and electronic device
WO2024050760A1 (en) * 2022-09-08 2024-03-14 Intel Corporation Image processing with face mask detection

Also Published As

Publication number Publication date
JP5127582B2 (en) 2013-01-23

Similar Documents

Publication Publication Date Title
JP5127583B2 (en) Object determination apparatus and program
JP5675229B2 (en) Image processing apparatus and image processing method
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
JP4728432B2 (en) Face posture estimation device, face posture estimation method, and face posture estimation program
CN109074652B (en) Image recognition device, mobile device, and image recognition program
WO2017208529A1 (en) Driver state estimation device, driver state estimation system, driver state estimation method, driver state estimation program, subject state estimation device, subject state estimation method, subject state estimation program, and recording medium
JP6525545B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM
US7957560B2 (en) Unusual action detector and abnormal action detecting method
JP5127582B2 (en) Object determination apparatus and program
US8630453B2 (en) Image processing device, image processing method and program
US20130070105A1 (en) Tracking device, tracking method, and computer program product
JP6185919B2 (en) Method and system for improving person counting by fusing human detection modality results
KR101937323B1 (en) System for generating signcription of wireless mobie communication
JP2015014819A (en) Approaching object detection system and vehicle
JP2009143722A (en) Person tracking apparatus, person tracking method and person tracking program
JPWO2012002047A1 (en) Attribute determination method, attribute determination apparatus, program, recording medium, and attribute determination system
KR100988326B1 (en) Method and apparatus for user-customized facial expression recognition
JP2014093023A (en) Object detection device, object detection method and program
CN109711344A (en) A kind of intelligentized specific exceptions behavioral value method in front end
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
JP2007213528A (en) Action recognition system
JP7263094B2 (en) Information processing device, information processing method and program
CN110688969A (en) Video frame human behavior identification method
Willems et al. A video-based algorithm for elderly fall detection
JP6798609B2 (en) Video analysis device, video analysis method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121030

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5127582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250