JP2010003116A - Object deciding device and program - Google Patents
Object deciding device and program Download PDFInfo
- Publication number
- JP2010003116A JP2010003116A JP2008161355A JP2008161355A JP2010003116A JP 2010003116 A JP2010003116 A JP 2010003116A JP 2008161355 A JP2008161355 A JP 2008161355A JP 2008161355 A JP2008161355 A JP 2008161355A JP 2010003116 A JP2010003116 A JP 2010003116A
- Authority
- JP
- Japan
- Prior art keywords
- image
- likelihood value
- wearing
- likelihood
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010801 machine learning Methods 0.000 claims abstract description 35
- 238000003384 imaging method Methods 0.000 claims description 60
- 238000004364 calculation method Methods 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 8
- 239000011521 glass Substances 0.000 abstract 1
- 238000006243 chemical reaction Methods 0.000 description 38
- 238000001514 detection method Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 21
- 238000000034 method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000001629 suppression Effects 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 4
- 208000032443 Masked facies Diseases 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、対象物判定装置及びプログラムに関し、特に、対象物が装着物を装着しているか否かを判定する対象物判定装置及びプログラムに関する。 The present invention relates to an object determination device and a program, and more particularly to an object determination device and a program for determining whether or not an object is wearing an attachment.
顔画像から抽出される口や鼻などの顔特徴量を用いて顔向きや、瞬き、視線などの対象者の顔状態量を推定する場合において、対象者がマスクやサングラスなどを装着していると、前記顔状態量を正しく推定できない。顔への装着物を考慮して顔向きを推定する方法として、例えば下記特許文献1に記載された技術がある。この技術では顔画像から目、口、鼻などの特徴点の抽出を行い顔向きを推定するが、目の特徴点が所定回抽出できない場合はサングラスを装着していると判定し、サングラス上の画像特徴を用いて顔向きを推定している。また鼻と口の特徴量が所定回抽出できない場合は、マスクを装着していると判定して、マスク上の画像特徴を用いて顔向きの推定を行なっている。
上記従来の技術では、目、鼻、口の特徴量が抽出できない場合にそれぞれサングラス、マクスを装着していると判定しているが、例えば、車両を運転する運転者の顔向きの推定を行なう場合には、実際の走行環境において、周辺照明環境の変動による顔画像上での局所的明るさ変化や、対象者の顔姿勢などにより目、鼻、口の特徴が未検出となる場合が頻繁に発生する。このため、サングラスやマスクを装着していないにもかかわらず、目や鼻、口が検出できないことからサングラス、マスクを装着していると判定してしまい、それによって本来存在しないサングラス、マスクの特徴点から顔向きなどの状態量を推定することとなり、結果的に正しい状態量は得られず、逆に非常に誤差の大きい状態量を算出してしまう、という問題が発生する。 In the above conventional technique, when it is not possible to extract the feature amounts of the eyes, nose, and mouth, it is determined that the sunglasses and the max are worn, respectively. For example, the face orientation of the driver who drives the vehicle is estimated. In some cases, in the actual driving environment, the characteristics of eyes, nose, and mouth are often undetected due to local brightness changes on the face image due to fluctuations in the surrounding lighting environment, face posture of the subject, etc. Occurs. For this reason, it is determined that the user wears sunglasses and a mask because the eyes, nose, and mouth cannot be detected even though the sunglasses and mask are not worn. A state quantity such as the face orientation is estimated from the point, and as a result, a correct state quantity cannot be obtained, and conversely, a state quantity with a very large error is calculated.
本発明は、上述した問題を解決するために提案されたものであり、対象物がマスクやサングラスなどの装着物を装着しているか否かを信頼性高く判定することができる対象物判定装置及びプログラムを提供することを目的とする。 The present invention has been proposed in order to solve the above-described problem, and an object determination apparatus capable of determining with high reliability whether or not the object is wearing an object such as a mask or sunglasses, and The purpose is to provide a program.
上記目的を達成するために、請求項1の発明の対象物判定装置は、対象物を撮像するための撮像手段と、前記撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、装着物を装着した対象物の画像および前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出し、前記撮像手段で撮像されて得られた画像と、前記装着物を装着した対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出し、前記撮像手段で撮像されて得られた画像と、前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する尤度値算出手段と、前記尤度値算出手段で算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定手段と、を含んで構成されている。 In order to achieve the above object, the object determination device of the invention of claim 1 is configured to capture an image of an object represented by an imaging unit for imaging the object and an image obtained by imaging by the imaging unit. The object-likeness is obtained by using an image captured by the means, an image of the object with the attached object, and a machine learning system learned to react to the image of the object without the attached object. A first likelihood value is calculated, and the wearing is performed using an image obtained by being picked up by the image pickup means, and a machine learning system that has learned to react to an image of the object on which the wearing object is attached. A second likelihood value indicating the likelihood of the object wearing the object is calculated, and learning is performed so as to react to the image obtained by imaging by the imaging unit and the image of the object not wearing the object. Using the machine learning system A likelihood value calculating means for calculating a third likelihood value indicating the likelihood of an object not wearing an object; a first likelihood value, a second likelihood value calculated by the likelihood value calculating means; And determining means for determining whether or not the object represented by the image obtained by imaging by the imaging means is wearing the wearing object based on the three likelihood values.
このように、装着物を装着した対象物の画像および装着物を装着していない対象物の画像に反応するように学習した機械学習システムと、装着物を装着した対象物の画像に反応するように学習した機械学習システムと、装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて3つの尤度値を求め、この3つの尤度値に基づいて対象物が装着物を装着しているか否かを判定するようにしたため、装着物の装着の有無を信頼性高く判定することができる。特に3種類の異なる機械学習システムから求められた尤度値を評価基準に用いることで、1種類の機械学習システムを用いる場合よりもより誤検出を少なくすることができる。 In this way, the machine learning system learned to respond to the image of the object with the attachment and the image of the object without the attachment, and the image of the object with the attachment Three likelihood values are obtained using the machine learning system learned in the above and the machine learning system learned to react to the image of the object not wearing the attachment, and based on the three likelihood values. Since it is determined whether or not the object is wearing an attachment, the presence or absence of the attachment can be determined with high reliability. In particular, by using likelihood values obtained from three different types of machine learning systems as evaluation criteria, it is possible to reduce false detections more than when using one type of machine learning system.
請求項2の発明の対象物判定装置は、対象物を撮像するための撮像手段と、前記撮像手段で撮像されて得られた画像から、前記対象物が装着物を装着していると仮定したときに該装着物が存在すると推定される予め定められた領域を抽出する抽出手段と、前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出手段で抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像および前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出し、前記抽出手段で抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出し、前記抽出手段で抽出された領域の画像と、前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する尤度値算出手段と、前記尤度値算出手段で算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定手段と、を含んで構成されている。 The object determination apparatus according to the invention of claim 2 assumes that the object is mounted on the object from an imaging unit for imaging the object and an image obtained by imaging with the imaging unit. An extraction unit that extracts a predetermined region that is estimated to be the presence of the wearing object, and an image of the region extracted by the extraction unit with respect to an object represented by an image captured by the imaging unit And learning to react to the image of the predetermined area in the image of the object with the wearing object and the image of the predetermined area in the image of the object not wearing the wearing object. A first likelihood value indicating the likelihood of an object is calculated using a machine learning system, and the predetermined area in the image of the area extracted by the extraction unit and the image of the object mounted with the attachment Image of A second likelihood value indicating the likelihood of the object wearing the wearing object is calculated using a machine learning system that learns to react, and the image of the region extracted by the extracting unit and the wearing object are attached. A third likelihood value indicating the likelihood of the object not wearing the attachment is calculated using a machine learning system that has learned to react to the image of the predetermined region in the image of the object that has not been attached. Obtained by the imaging means based on the likelihood value calculating means and the first likelihood value, the second likelihood value, and the third likelihood value calculated by the likelihood value calculating means. Determination means for determining whether or not the object represented by the image is wearing the wearing object.
このように、撮像されて得られた画像から、対象物が装着物を装着していると仮定したときに該装着物が存在すると推定される予め定められた領域を抽出し、該抽出した領域の画像と、装着物を装着した対象物の画像における上記予め定められた領域の画像および装着物を装着していない対象物の画像における上記予め定められた領域の画像に反応するように学習した機械学習システムと、装着物を装着した対象物の画像における上記予め定められた領域の画像に反応するように学習した機械学習システムと、装着物を装着していない対象物の画像における上記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて3つの尤度値を求め、この3つの尤度値に基づいて対象物が装着物を装着しているか否かを判定するようにしたため、請求項1に記載の発明と同様に、装着物の装着の有無を信頼性高く判定することができる。また、請求項1に記載の発明の効果に加え、請求項2に記載の発明では、対象物全体の画像ではなく装着物が存在すると推定される予め定められた領域の画像に着目して判定を行なうため、処理時間の短縮につながる。 In this way, a predetermined area that is assumed to be present when the object is assumed to be mounted is extracted from the image obtained by imaging, and the extracted area is extracted. And the image of the predetermined area in the image of the object with the attached object and the image of the predetermined area in the image of the object without the attached object. A machine learning system, a machine learning system that learns to react to an image of the predetermined area in the image of the object on which the wearing object is mounted, and the predetermined image in the image of the object that does not wear the wearing object Three likelihood values are obtained using a machine learning system that has learned to react to an image of a given region, and it is determined whether or not the object is wearing an attachment based on the three likelihood values. You Because the way, like the invention described in claim 1, the presence or absence of the mounting of the mounting object can be determined reliably. Further, in addition to the effect of the invention described in claim 1, in the invention described in claim 2, the determination is made by paying attention to an image of a predetermined region in which it is estimated that a wearing object exists, not an image of the entire object. As a result, the processing time is shortened.
なお、請求項3に記載の発明のように、請求項1または2記載の対象物判定装置の判定手段は、前記第1尤度値、前記第2尤度値、及び前記第3尤度値の大小関係に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定するようにしてもよい。 As in the invention described in claim 3, the determination means of the object determination device according to claim 1 or 2 is configured such that the first likelihood value, the second likelihood value, and the third likelihood value are determined. Based on the size relationship, it may be determined whether or not the object represented by the image obtained by the imaging unit is wearing the wearing object.
また、請求項4に記載の発明のように、請求項1または2記載の対象物判定装置の判定手段は、前記第1尤度値と第2尤度値との比、および前記第1尤度値と前記第3尤度値との比に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定するようにしてもよい。 Further, as in the invention described in claim 4, the determination unit of the object determination device according to claim 1 or 2 includes the ratio between the first likelihood value and the second likelihood value, and the first likelihood. Based on the ratio between the degree value and the third likelihood value, it may be determined whether or not the object represented by the image captured by the imaging unit is wearing the attachment. .
請求項5の発明のプログラムは、コンピュータに、対象物を撮像するための撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、装着物を装着した対象物の画像および前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出する第1尤度値算出ステップと、前記撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、前記装着物を装着した対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出する第2尤度値算出ステップと、前記撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する第3尤度値算出ステップと、前記算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定ステップと、を実行させるためのプログラムである。 According to a fifth aspect of the present invention, there is provided a program for an object represented by an image picked up by an image pickup means for picking up an object on a computer. A first likelihood value that calculates a first likelihood value indicating the likelihood of an object using a machine learning system that has learned to react to an image of an object wearing the object and an image of an object not wearing the attachment The degree value calculating step and the object represented by the image captured by the image capturing unit are responsive to the image captured by the image capturing unit and the image of the object mounted with the mounted object. A second likelihood value calculating step for calculating a second likelihood value indicating the likelihood of the object on which the object is mounted using the machine learning system that has been learned, and an image obtained by being imaged by the imaging means. For the object to represent An object that is not attached to the wearing object using an image obtained by being picked up by the imaging means and a machine learning system that has learned to react to an image of the object that is not attached to the wearing object Based on the third likelihood value calculating step for calculating the third likelihood value indicating the likelihood and the calculated first likelihood value, second likelihood value, and third likelihood value, the imaging means A determination step of determining whether or not the object represented by the image obtained by imaging is mounted on the mounted object.
このようなプログラムによっても、請求項1に記載の対象物判定装置と同様に作用するため、請求項1に記載の対象物判定装置と同様の効果が得られる。なお、第1尤度値算出ステップ、第2尤度値算出ステップ、および第3尤度値算出ステップの3つのステップはどのような順序で行なってもよい。 Even with such a program, the same effect as that of the object determination device according to claim 1 can be obtained because it operates in the same manner as the object determination device according to claim 1. Note that the three steps of the first likelihood value calculation step, the second likelihood value calculation step, and the third likelihood value calculation step may be performed in any order.
請求項6の発明のプログラムは、コンピュータに、対象物を撮像するための撮像手段で撮像されて得られた画像から、前記対象物が装着物を装着していると仮定したときに該装着物が存在すると推定される予め定められた領域を抽出する抽出ステップと、前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像および前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出する第1尤度値算出ステップと、前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出する第2尤度値算出ステップと、前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出された領域の画像と、前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する第3尤度値算出ステップと、前記算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定ステップと、を実行させるためのプログラムである。 According to a sixth aspect of the present invention, there is provided a program according to a sixth aspect of the present invention, when it is assumed that the object is attached to the object from an image obtained by imaging with an imaging means for imaging the object. An extraction step for extracting a predetermined area estimated to exist, and an object represented by an image captured by the imaging means, and an image of the extracted area and the wearing object are mounted Using a machine learning system that has learned to react to an image of the predetermined area in the image of the object and an image of the predetermined area in the image of the object that is not mounted A first likelihood value calculating step for calculating a first likelihood value indicating physicality; an object image represented by an image captured by the imaging unit; and an image of the extracted region; A second likelihood value indicating the likelihood of the object wearing the wearing object is calculated using a machine learning system learned to react to the image of the predetermined area in the image of the object wearing the kimono. For the object represented by the second likelihood value calculating step and the image obtained by imaging by the imaging means, the image in the extracted area and the image of the object not wearing the wearing object in advance A third likelihood value calculating step of calculating a third likelihood value indicating the likelihood of an object not wearing the wearing object using a machine learning system that has learned to react to an image of a predetermined area; Based on the calculated first likelihood value, second likelihood value, and third likelihood value, is the object represented by the image captured by the imaging means wearing the wearing object? A determination step for determining whether or not Is a program for executing the.
このようなプログラムによっても、請求項2に記載の対象物判定装置と同様に作用するため、請求項2に記載の対象物判定装置と同様の効果が得られる。なお、第1尤度値算出ステップ、第2尤度値算出ステップ、および第3尤度値算出ステップの3つのステップはどのような順序で行なってもよい。 Such a program also acts in the same manner as the object determination device according to claim 2, and therefore the same effect as the object determination device according to claim 2 can be obtained. Note that the three steps of the first likelihood value calculation step, the second likelihood value calculation step, and the third likelihood value calculation step may be performed in any order.
以上説明したように本発明によれば、対象物が装着物を装着しているか否かを信頼性高く判定することができる。 As described above, according to the present invention, it is possible to determine with high reliability whether or not an object is wearing an attachment.
図1は、本発明の実施の形態に係る対象物判定装置10の概略構成図である。本実施の形態の対象物判定装置10は、対象物として人物の顔を撮影し、該撮影した人物の顔に装着物(ここではマスク)が装着されているか否かを判定する。
FIG. 1 is a schematic configuration diagram of an
図1に示すように、対象物判定装置10は、対象者12を撮影するためのカメラ14と、画像取り込み装置16と、画像処理装置18とから構成される。
As shown in FIG. 1, the
画像取り込み装置16は、画像メモリを備えており、カメラ14で撮影されて得られた画像データを取り込んで画像メモリに記憶する。また、画像取り込み装置16は、画像メモリから該画像データを読み出して画像処理装置18に入力する。
The image capturing
図2は、画像処理装置18の機能構成図である。
FIG. 2 is a functional configuration diagram of the
画像処理装置18は、画像取り込み装置16から入力された画像データに基づいて対象者12の顔にマスクが装着されているか否かを判定する処理を行なう装置であって、顔領域検出部20、尤度算出部22、および判定部24を含んで構成されている。
The
顔領域検出部20は、画像取り込み装置16から入力された画像データの画像から、対象者12の顔の領域を検出する。顔の領域を検出する技術には、様々な技術があるが、本実施の形態では、パターン認識能力の優れた識別器の一種であるニューラルネットワーク(以下、NN)を用いたH.Rowleyらの顔検出の手法("Neural Network-based Face Detection", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.20, No.1, 1998, pp.23-38参照)を用いてもよい。ただし、顔領域検出部20では対象者12がマスクを装着しているか否かを判断するわけではないため、対象者12がマスクを装着しているか否かに関わらず対象者12の顔を検出できるように予めNNを学習しておく。
The face
より具体的には、入力層、中間層、及び出力層を連結して構成したNNに、既知の入出力データによって連結関係を学習させる。ここでは、バックプロパゲーションと呼ぶ学習手法により、図3(A)に示すように、マスクを装着していない多数の顔画像や、図3(B)に示すように、さまざまな形状のマスクを装着している多数の顔画像に対してNNの出力層が1の信号を出力するように教師信号1を与えて興奮学習を行なう。一方、顔と全く異なる画像(たとえば風景画像など)を非顔画像として多数用意しておき、これらの画像に対しては教師信号0を与えて抑制学習を行う。このNNをマスク/非マスク顔反応NNと呼称する。なお、マスク/非マスク顔反応NNの出力値は0から1の範囲の値をとるように学習しておく。 More specifically, an NN configured by connecting an input layer, an intermediate layer, and an output layer is caused to learn a connection relationship using known input / output data. Here, by a learning method called back propagation, as shown in FIG. 3 (A), a large number of facial images without a mask, and masks of various shapes as shown in FIG. Excitement learning is performed by giving a teacher signal 1 so that the output layer of the NN outputs a signal of 1 for a large number of face images worn. On the other hand, a number of images completely different from the face (for example, landscape images) are prepared as non-face images, and suppression learning is performed by giving a teacher signal 0 to these images. This NN is referred to as a mask / non-mask face reaction NN. It should be noted that the output value of the mask / non-mask face reaction NN is learned to take a value in the range of 0 to 1.
尤度算出部22は、顔領域検出部20で検出された領域に対して、マスクの装着の有無に拘わらず顔らしさを示す第1尤度値p1と、マスクを装着した顔らしさを示す第2尤度値p2と、マスクを装着していない顔らしさを示す第3尤度値p3とを算出する。
The
具体的には、マスクの装着の有無に拘わらず顔らしさを示す第1尤度値p1については、顔領域検出部20の顔領域検出の際に用いた上記マスク/非マスク顔反応NNを、上記検出した顔領域に適用した場合の出力値を第1尤度値p1とする。従って、第1尤度値p1は、0から1の範囲の値をとる。
Specifically, for the first likelihood value p1 indicating the facial appearance regardless of whether or not a mask is worn, the mask / non-mask face reaction NN used in the face area detection of the face
また、マスクを装着した顔らしさを示す第2尤度値p2については、マスクを装着した顔の画像に反応するように学習したNN(以下、マスク顔反応NN)を、顔領域検出部20で検出された顔領域に適用して算出する。なお、マスク顔反応NNも、上記マスク/非マスク顔反応NNと同様にバックプロパゲーションの方法を用いて、図3(B)に示したようなさまざまな形状のマスクを装着している多数の顔画像に対して、教師信号を1として、いわゆる興奮学習を行なうと同時に、図3(A)に示したようなマスクを装着していない多数の顔画像に対して教師信号を0として抑制学習を行なう。このような学習を行なうことによって、マスク顔反応NNの出力層がマスクを装着した顔画像に対しては高い出力値を、マスクを装着していない顔画像に対しては低い出力値を出力するようになることが期待できる。なお、マスク顔反応NNの出力値は0から1の範囲の値をとるように学習しておく。本実施の形態では、マスク顔反応NNを顔領域検出部20で検出された顔領域に適用したときの出力値をそのまま第2尤度値p2として用いる。従って、第2尤度値p2は、0から1の範囲の値をとる。
In addition, for the second likelihood value p2 indicating the likelihood of a face wearing a mask, the face
また、マスクを装着していない顔らしさを示す第3尤度値p3については、マスクを装着していない顔の画像のみに反応するように学習したNN(非マスク顔反応NN)を、顔領域検出部20で検出された顔領域に適用して算出する。なお、非マスク顔反応NNも、上記マスク/非マスク顔反応NNと同様にバックプロパゲーションの方法を用いて、図3(A)に示したようなマスクを装着していない多数の顔画像に対して教師信号を1として、興奮学習を行なうと同時に、図3(B)に示したようなさまざまな形状のマスクを装着している多数の顔画像に対して、教師信号を0として抑制学習を行なう。このような学習を行なうことによって、非マスク顔反応NNの出力層がマスクを装着していない顔画像に対しては高い出力値を、マスクを装着した顔画像に対しては低い出力値を出力するようになることが期待できる。なお、非マスク顔反応NNの出力値は0から1の範囲の値をとるように学習しておく。本実施の形態では、非マスク顔反応NNを顔領域検出部20で検出された顔領域に適用したときの出力値をそのまま第3尤度値p3として用いる。従って、第3尤度値p3は、0から1の範囲の値をとる。
For the third likelihood value p3 indicating the likelihood of a face not wearing a mask, NN (non-mask face reaction NN) learned to react only to a face image not wearing a mask is used as a face region. The calculation is applied to the face area detected by the
判定部24は、尤度算出部22で算出された第1尤度値p1、第2尤度値p2、および第3尤度値p3とを用いて、カメラ14で撮影された画像が表す対象者12の顔にマスクが装着されているか否かを判定する。
The
なお、上記説明した画像取り込み装置16や画像処理装置18を構成する各構成要素は、CPU、RAM、ROMを含んで構成されたコンピュータによって実現される。すなわちCPUが、ROMや所定の記憶装置に記憶されたプログラムを実行することにより上記各構成要素の機能を実現し、以下に説明する処理が行なわれる。また、各構成要素を別々のコンピュータで構成してもよいし、1つのコンピュータで構成してもよい。
Each component constituting the
次に、本実施の形態で実行されるマスク装着判定処理の詳細を説明する。 Next, details of the mask mounting determination process executed in the present embodiment will be described.
図4は、対象物判定装置10の画像取り込み装置16及び画像処理装置18により行なわれるマスク装着判定処理の流れを示すフローチャートである。
FIG. 4 is a flowchart showing the flow of the mask attachment determination process performed by the
まず、ステップS100では、画像取り込み装置16が、カメラ14で撮像されて得られた画像データを取り込んで一旦画像メモリに記憶する。そして画像メモリから画像データを読みだして画像処理装置18の顔領域検出部20に入力する。ステップS102では、顔領域検出部20が、画像取り込み装置16から入力された画像データが表す画像から、マスク/非マスク顔反応NNを用いて顔領域を検出する。
First, in step S100, the
ステップS104では、尤度算出部22が、顔領域検出部20で検出された顔領域に対してマスク/非マスク顔反応NNを適用して第1尤度値p1を算出する。前述したように、マスク/非マスク顔反応NNは、マスクの装着の有無に拘わらず顔画像に対しては1が出力されるように、それ以外の画像に対しては0が出力されるように学習されているため、第1尤度値p1は0から1の範囲の数値となる。
In step S104, the
ステップS106では、尤度算出部22が、顔領域検出部20で検出された顔領域に対してマスク顔反応NNを適用して第2尤度値p2を算出する。前述したように、マスク顔反応NNは、マスクを装着した顔画像に対しては1が出力されるように、それ以外の画像に対しては0が出力されるように学習されているため、第2尤度値p2は0から1の範囲の数値となり、マスクを装着した顔画像に適用したときの第2尤度値p2のほうがマスクを装着していない顔画像に適用したときの第2尤度値p2に比べて値が大きくなることが期待できる。
In step S <b> 106, the
ステップS108では、尤度算出部22が、顔領域検出部20で検出された顔領域に対して非マスク顔反応NNを適用して第3尤度値p3を算出する。前述したように、非マスク顔反応NNは、マスクを装着していない顔画像に対しては1が出力されるように、それ以外の画像に対しては0が出力されるように学習されているため、第3尤度値p3も0から1の範囲の数値となり、マスクを装着していない顔画像に適用したときの第3尤度値p3のほうがマスクを装着している顔画像に適用したときの第3尤度値p3に比べて値が大きくなることが期待できる。
In step S108, the
ステップS110では、判定部24が、第1尤度値p1、第2尤度値p2、および第3尤度値p3に基づいて、対象者12がマスクを装着しているか否かを判定する。
In step S110, the
対象とする顔画像がマスクを装着している場合には、第2尤度値p2は1に近い値となり、第3尤度値p3は0に近い値になるものと期待できる。一方、第1尤度値Plはマスクを装着した顔画像と装着していない顔画像の両方に反応するように学習したマスク/非マスク顔反応NNの出力であるため、第2尤度値p2ほどには高い値ではないが(または第2尤度値p2と同じ程度の値になる可能性もある)、第3尤度値p3に比べれば大きな値になるものと期待できる。そこで、判定部24は、第1尤度値p1、第2尤度値p2、第3尤度値p3が下記式(1)に示した大小関係を満たす場合は、検出された顔はマスクを装着していると判定する。
If the target face image is wearing a mask, the second likelihood value p2 can be expected to be close to 1, and the third likelihood value p3 can be expected to be close to 0. On the other hand, since the first likelihood value Pl is an output of the mask / non-mask face reaction NN learned to react to both the face image with the mask and the face image without the mask, the second likelihood value p2 Although not as high as possible (or possibly as high as the second likelihood value p2), it can be expected to be larger than the third likelihood value p3. Therefore, when the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3 satisfy the magnitude relationship shown in the following equation (1), the
p2≧p1>p3 ・・・(1) p2 ≧ p1> p3 (1)
一方、対象とする顔画像がマスクを装着していない場合には、第2尤度値p2は0に近い値であり、第3尤度値p3は1に近い値になり、第1尤度値Plについては前述の場合と同様に第3尤度値p3ほどには高い値ではないが(または第3尤度値p3と同じ程度の値になる可能性もある)、第2尤度値p2に比べれば大きな値になるものと期待できる。そこで、判定部24は、第1尤度値p1、第2尤度値p2、第3尤度値p3が下記式(2)に示した大小関係を満たす場合は、検出された顔はマスクを装着していないと判定する。
On the other hand, if the target face image is not wearing a mask, the second likelihood value p2 is close to 0, the third likelihood value p3 is close to 1, and the first likelihood The value Pl is not as high as the third likelihood value p3 as in the case described above (or may be the same value as the third likelihood value p3), but the second likelihood value. It can be expected to be a large value compared to p2. Therefore, when the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3 satisfy the magnitude relationship shown in the following formula (2), the
p3≧p1>p2 ・・・(2) p3 ≧ p1> p2 (2)
また、第1尤度値p1、第2尤度値p2、および第3尤度値p3の大小関係が、式(1)および(2)のどちらも満たさない場合には、マスクの有無を判定するには十分な確度がないと判断しで、判定を保留する。 Also, if the magnitude relationship among the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3 does not satisfy either of the expressions (1) and (2), the presence / absence of a mask is determined. Therefore, it is determined that there is not sufficient accuracy, and the determination is suspended.
このようにマスクの装着の有無に関わらず顔画像に反応するマスク/非マスク顔反応NNと、マスクを装着した顔画像のみに反応するマスク顔反応NNと、マスクを装着していない顔画像のみに反応する非マスク顔反応NNの3つを用いて3つの尤度値を求め、3つの尤度値の大小を比較することで、より確からしい判定をすることができ誤検出を低く抑えることができる。 Thus, a mask / non-mask face reaction NN that reacts to a face image regardless of whether or not a mask is attached, a mask face reaction NN that reacts only to a face image with a mask attached, and only a face image without a mask attached By using three non-masked face reactions NN that react to 3 and obtaining three likelihood values, comparing the likelihood values of the three likelihood values makes it possible to make a more probable decision and to keep false detection low. Can do.
マスク装着判定処理の判定結果は、例えば、顔状態の推定処理を行なう場合に利用できる。例えば、マスクを装着していると判定された場合には、画像から口や鼻の特徴量の検出は困難であるため、他の特徴量を用いた顔状態の推定処理を行なえば良く、マスクを装着している場合としていない場合とで効率的に処理手順を切り替えることで安定した顔状態推定が実現できる。 The determination result of the mask wearing determination process can be used, for example, when a face state estimation process is performed. For example, when it is determined that the mask is worn, it is difficult to detect the feature amount of the mouth and nose from the image. Therefore, it is only necessary to perform a face state estimation process using another feature amount. Stable face state estimation can be realized by efficiently switching the processing procedure depending on whether or not the camera is worn.
なお、ここでは、第1尤度値p1、第2尤度値p2、および第3尤度値p3の大小関係に基づいてマスク装着の有無を判定する例について説明したが、第1尤度値p1と第2尤度値p2との比、および第1尤度値p1と第3尤度値p3との比に基づいてマスク装着の有無を判定するようにしてもよい。 In addition, although the example which determines the presence or absence of mask wearing based on the magnitude relationship of the 1st likelihood value p1, the 2nd likelihood value p2, and the 3rd likelihood value p3 was demonstrated here, the 1st likelihood value The presence / absence of wearing a mask may be determined based on the ratio between p1 and the second likelihood value p2 and the ratio between the first likelihood value p1 and the third likelihood value p3.
具体的には、まず、第1尤度値p1と第2尤度値p2との比r1を以下の式(3)により求め、第1尤度値p1と第3尤度値p3との比r2を以下の式(4)により求める。
r1=第2尤度値p2/第1尤度値p1 ・・・(3)
r2=第1尤度値p1/第3尤度値p3 ・・・(4)
Specifically, first, the ratio r1 between the first likelihood value p1 and the second likelihood value p2 is obtained by the following equation (3), and the ratio between the first likelihood value p1 and the third likelihood value p3 is calculated. r2 is obtained by the following equation (4).
r1 = second likelihood value p2 / first likelihood value p1 (3)
r2 = first likelihood value p1 / third likelihood value p3 (4)
そして、以下の関係式(5)を満たすか否かを判断する。
r1>th1 かつ r2>th2 ・・・(5)
Then, it is determined whether or not the following relational expression (5) is satisfied.
r1> th1 and r2> th2 (5)
ここでth1、th2は判定のための閾値であり、0<th1≦th2の関係を有する。関係式(5)を満たす場合には、検出された顔画像はマスクを装着している顔と判定する。 Here, th1 and th2 are threshold values for determination, and have a relationship of 0 <th1 ≦ th2. If the relational expression (5) is satisfied, the detected face image is determined to be a face wearing a mask.
同様に、第1尤度値p1と第2尤度値p2との比r3を以下の式(6)により求め、第1尤度値p1と第3尤度値p3との比r4を以下の式(7)により求める。
r3=第3尤度値p3/第1尤度値p1 ・・・(6)
r4=第1尤度値p1/第2尤度値p2 ・・・(7)
Similarly, the ratio r3 between the first likelihood value p1 and the second likelihood value p2 is obtained by the following equation (6), and the ratio r4 between the first likelihood value p1 and the third likelihood value p3 is calculated as follows: It calculates | requires by Formula (7).
r3 = third likelihood value p3 / first likelihood value p1 (6)
r4 = first likelihood value p1 / second likelihood value p2 (7)
そして、以下の関係式(5)を満たすか否かを判断する。
r3>th3 かつ r4>th4 ・・・(8)
Then, it is determined whether or not the following relational expression (5) is satisfied.
r3> th3 and r4> th4 (8)
ここで、th3、th4は、判定のための閾値であり、0<th3≦th4の関係を有する。関係式(8)を満たす場合には、検出された顔画像はマスクを装着していない顔と判定する。 Here, th3 and th4 are thresholds for determination, and have a relationship of 0 <th3 ≦ th4. When the relational expression (8) is satisfied, the detected face image is determined as a face not wearing a mask.
なお、(5)、(8)の関係式のいずれにも該当しない場合には、マスクの有無を判定するには十分な確度がないと判断して、判定を保留するようにしてもよい。 If none of the relational expressions (5) and (8) correspond, it may be determined that there is not sufficient accuracy to determine the presence / absence of a mask, and the determination may be suspended.
このように、比を用いても、上記と同様にマスク装着の有無を信頼性高く判定することができる。 Thus, even if the ratio is used, whether or not the mask is mounted can be determined with high reliability as described above.
なお、本実施の形態では、マスクの装着の有無を判定する例について説明したが、サングラスの装着の有無を判定する場合であっても、上記実施の形態と同様に処理すればよい。すなわち、サングラスの装着の有無に拘わらず顔画像に反応するNNと、サングラスを装着している顔画像のみに反応するNNと、サングラスを装着していない顔画像のみに反応するNNとを用意しておき、この3つのNNを用いて3つの尤度値を求め、判定に用いることで、同様の効果を得ることができる。 In the present embodiment, an example of determining whether or not a mask is mounted has been described. However, even if it is determined whether or not sunglasses are mounted, the same processing as in the above embodiment may be performed. In other words, there are prepared an NN that reacts to a face image regardless of whether or not sunglasses are worn, an NN that reacts only to a face image wearing sunglasses, and an NN that reacts only to a face image not wearing sunglasses. The same effect can be obtained by obtaining three likelihood values using these three NNs and using them for the determination.
また、マスク及びサングラスの両方の装着の有無を判定するように構成してもよい。すなわち、マスクとサングラスの装着の有無に拘わらず顔画像に反応するNNと、マスクとサングラスの両方を装着している顔画像のみに反応するNNと、マスクとサングラスの両方を装着していない顔画像のみに反応するNNとを用意しておき、この3つのNNを用いて3つの尤度値を求め、判定に用いることで、同様の効果を得ることができる。 Moreover, you may comprise so that the presence or absence of mounting | wearing of both a mask and sunglasses may be determined. That is, an NN that reacts to a face image regardless of whether or not a mask and sunglasses are worn, an NN that reacts only to a face image that wears both a mask and sunglasses, and a face that does not wear both a mask and sunglasses Similar effects can be obtained by preparing an NN that reacts only to an image, obtaining three likelihood values using these three NNs, and using them for determination.
また、上記実施の形態では、マスク装着の有無の判定に異なる3つのNNを用いる例について説明したが、これに限定されず、サポートベクターマシンなど、NN以外の他の機械学習システムを用いてもよい。 In the above-described embodiment, an example in which three different NNs are used to determine whether or not a mask is attached has been described. However, the present invention is not limited to this, and a machine learning system other than NN such as a support vector machine may be used. Good.
また、上記実施の形態では、顔全体の画像に対してNNを適用してマスクの装着を判定する例について説明したが、顔の下半分の領域の画像のみを用いてマスクの装着の判定を行なうようにしてもよい。以下、顔の下半分の領域の画像のみを用いてマスクの装着の判定を行なう変形例について説明する。 In the above-described embodiment, the example in which the NN is applied to the entire face image to determine the wearing of the mask has been described. However, the wearing of the mask is determined using only the image of the lower half of the face. You may make it perform. Hereinafter, a modified example in which the mask wearing determination is performed using only the image of the lower half area of the face will be described.
この変形例の対象物判定装置の構成は、上記実施の形態の対象物判定装置10と同様の構成とする。ただし、以下の構成要素は以下に説明するように機能する。
The configuration of the object determination device of this modification is the same as that of the
画像処理装置18の顔領域検出部20は、上記実施の形態と同様に、カメラ14で撮影されて得られた画像データが表す画像から、対象者12の顔の領域を検出する。そして、更に、検出された顔領域を上下半分に分割したときの下半分の領域の画像の画像データを切り出して尤度算出部22に出力する。下半分の領域は、対象者12がマスクを装着していると仮定した場合に、顔画像の中で該マスクが存在すると推定される領域である。
The face
尤度算出部22は、顔領域検出部20で検出され切り出された画像データが示す画像に対して、マスクの装着の有無に拘わらず顔らしさを示す第1尤度値p1と、マスクを装着した顔らしさを示す第1尤度値p2と、マスクを装着していない顔らしさを示す第3尤度値p3とを算出する。
The
ただし、第1尤度値p1、第2尤度値p2、および第3尤度値p3を求めるためのマスク/非マスク顔反応NN、マスク顔反応NN、および非マスク顔反応NNは、マスク非装着画像の下半分の画像と、マスク装着画像の下半分の画像とを用いて学習させる。 However, the mask / non-mask face reaction NN, the mask face reaction NN, and the non-mask face reaction NN for obtaining the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3 are not masked. Learning is performed using the lower half image of the wearing image and the lower half image of the mask wearing image.
すなわち、マスク/非マスク顔反応NNは、バックプロパゲーションの方法を用いて、図5(A)において破線で示したように、マスクを装着していない多数の顔画像の下半分の画像や、図5(B)において破線で示したように、マスクを装着している多数の顔画像の下半分の画像に対して、教師信号を1として興奮学習を行なうと同時に、顔と全く異なる非顔画像に対して、教師信号を0として抑制学習を行なう。 That is, the mask / non-mask face reaction NN uses the back-propagation method, as shown by the broken line in FIG. As indicated by a broken line in FIG. 5B, excitement learning is performed with a teacher signal as 1 for the lower half of many facial images wearing masks, and at the same time, a non-face completely different from the face The suppression learning is performed on the image with the teacher signal set to 0.
また、マスク顔反応NNも、バックプロパゲーションの方法を用いて、図5(B)において破線で示したように、マスクを装着している多数の顔画像の下半分の画像に対して、教師信号を1として興奮学習を行なうと同時に、図5(A)において破線で示したように、マスクを装着していない多数の顔画像の下半分の画像や非顔画像に対して、教師信号を0として抑制学習を行なう。 In addition, the mask face reaction NN is also applied to the lower half of many face images wearing masks by using the back-propagation method as indicated by the broken line in FIG. At the same time as excitement learning is performed with a signal of 1, teacher signals are applied to the lower half images and non-face images of a large number of face images not wearing masks, as shown by the broken lines in FIG. Suppression learning is performed as 0.
また、非マスク顔反応NNも、バックプロパゲーションの方法を用いて、図5(A)において破線で示したように、マスクを装着していない多数の顔画像の下半分の画像に対して、教師信号を1として興奮学習を行なうと同時に、図5(B)において破線で示したように、マスクを装着している多数の顔画像の下半分の画像や非顔画像に対して、教師信号を0として抑制学習を行なう。 Further, the non-mask face reaction NN also uses the back-propagation method, as shown by the broken line in FIG. At the same time as performing the excitement learning with the teacher signal as 1, the teacher signal is applied to the lower half images and non-face images of the many face images wearing masks as shown by the broken lines in FIG. Suppression learning is performed with 0 being 0.
なお、顔領域検出部20が顔領域を検出する際に用いるNNについては、顔全体の領域を検出するため、マスクの装着の有無に拘わらず顔画像全体に反応するように学習を行なう。従って、この変形例では、顔領域検出部20が用いるNNと、尤度算出部22で第1尤度値p1を算出するために用いるNNとを個別に用意して学習させておく。
Note that the NN used when the face
図6(A)は、本変形例における画像取り込み装置16及び画像処理装置18により行なわれるマスク装着判定処理の流れを示すフローチャートである。
FIG. 6A is a flowchart showing the flow of the mask attachment determination process performed by the
ステップS200〜S202は、カメラ14で撮影されて得られた画像データを取り込んで顔領域を検出する処理であり(図6(B)参照)、上記ステップS100〜S102と同様に処理するため、説明を省略する。 Steps S200 to S202 are processing for detecting the face area by taking in the image data obtained by the camera 14 (see FIG. 6B), and will be described in the same manner as steps S100 to S102. Is omitted.
ステップS204では、顔領域検出部20は、画像取り込み装置16から入力された画像データが表す画像から上記検出した対象者12の顔の領域を上下半分に分割したときの下半分の領域の画像データを切り出して尤度算出部22に出力する(図6(C)参照)。
In step S <b> 204, the face
ステップS206では、尤度算出部22が、マスク/非マスク顔反応NNを、顔領域検出部20で切り出された下半分の領域の画像データが示す画像に適用して第1尤度値p1を算出する。
In step S206, the
ステップS208では、尤度算出部22が、マスク顔反応NNを、顔領域検出部20で切り出された下半分の領域の画像データが示す画像に適用して第2尤度値p2を算出する。
In step S208, the
ステップS210では、尤度算出部22が、非マスク顔反応NNを、顔領域検出部20で切り出された下半分の領域の画像データが示す画像に適用して第3尤度値p3を算出する。
In step S210, the
ステップS212では、判定部24が、第1尤度値p1、第2尤度値p2、第3尤度値p3に基づいて、対象者12がマスクを装着しているか否かを判定する。判定の方法は、上記ステップS110と同様であるため説明を省略する。
In step S212, the
このように、顔の下半分の領域の画像のみを用いてマスクの装着の判定を行なうことにより、処理時間を短縮することができる。 In this way, the processing time can be shortened by determining whether or not the mask is mounted using only the image of the lower half of the face.
なお、この変形例では、マスクの装着の有無を判定する場合について説明したが、サングラス装着の有無を判定するようにしてもよい。この場合には、上記変形例と同じ手順で顔画像の上半分の領域を切り出して、顔画像の上半分の領域を元に学習したサングラス顔/非サングラス顔反応NN、サングラス顔反応NN、非サングラス顔対応NNを用いて、サングラス装着の判定を行なう。 In this modification, the case where the presence / absence of wearing a mask is determined has been described, but the presence / absence of wearing sunglasses may be determined. In this case, the upper half area of the face image is cut out in the same procedure as in the above-described modification, and the sunglasses face / non-sunglass face reaction NN, the sunglasses face reaction NN, the non-sunglass face reaction NN, which are learned based on the upper half area of the face image. The sunglasses wearing correspondence NN is used to determine whether to wear sunglasses.
なお、上記実施の形態や変形例では、第1尤度値p1、第2尤度値p2、第3尤度値p3の順に尤度値を算出する例について説明したが、3つの尤度値の算出順序は特に限定されない。 In the above-described embodiment and modification, an example in which likelihood values are calculated in the order of the first likelihood value p1, the second likelihood value p2, and the third likelihood value p3 has been described. The calculation order is not particularly limited.
なお、上記実施の形態及び変形例では、人物の顔にマスク等が装着されているか否かを判定する例について説明したが、これに限定されず、様々な対象物について本発明の適用が可能である。 In the above-described embodiment and modification, an example of determining whether a mask or the like is mounted on a person's face has been described. However, the present invention is not limited to this, and the present invention can be applied to various objects. It is.
10 対象物判定装置
12 対象者
14 カメラ
16 画像取り込み装置
18 画像処理装置
20 顔領域検出部
22 尤度算出部
24 判定部
DESCRIPTION OF
Claims (6)
前記撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、装着物を装着した対象物の画像および前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出し、前記撮像手段で撮像されて得られた画像と、前記装着物を装着した対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出し、前記撮像手段で撮像されて得られた画像と、前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する尤度値算出手段と、
前記尤度値算出手段で算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定手段と、
を含む対象物判定装置。 An imaging means for imaging the object;
For an object represented by an image obtained by imaging with the imaging means, an image obtained by imaging with the imaging means, an image of an object with an attached object, and an object without the attached object The first likelihood value indicating the likelihood of an object is calculated using a machine learning system that has learned to respond to the image of the image, and the image obtained by being picked up by the image pickup means and the object to which the attachment is attached Calculating a second likelihood value indicating the likelihood of the object wearing the wearing object using a machine learning system learned to react to an image of the object, and an image obtained by being imaged by the imaging unit; A likelihood value for calculating a third likelihood value indicating the likelihood of the object not wearing the attachment using a machine learning system learned to react to an image of the object not wearing the attachment A calculation means;
Based on the first likelihood value, the second likelihood value, and the third likelihood value calculated by the likelihood value calculation means, the object represented by the image captured by the imaging means is the wearing Determining means for determining whether or not an object is attached;
An object determination apparatus including:
前記撮像手段で撮像されて得られた画像から、前記対象物が装着物を装着していると仮定したときに該装着物が存在すると推定される予め定められた領域を抽出する抽出手段と、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出手段で抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像および前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出し、前記抽出手段で抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出し、前記抽出手段で抽出された領域の画像と、前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する尤度値算出手段と、
前記尤度値算出手段で算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定手段と、
を含む対象物判定装置。 An imaging means for imaging the object;
An extraction means for extracting a predetermined area that is estimated to be present when the object is assumed to be mounted from the image captured by the imaging means;
For the object represented by the image obtained by the imaging means, the image of the area extracted by the extraction means, the image of the predetermined area in the image of the object to which the attachment is attached, and the Calculating a first likelihood value indicating the likelihood of an object using a machine learning system that has learned to react to an image of the predetermined region in an image of an object that is not mounted; An object wearing the attachment using an image of the region extracted by the means and a machine learning system learned to react to the image of the predetermined region in the image of the object wearing the attachment A second likelihood value indicating physicality is calculated and reacts to the image of the region extracted by the extraction means and the image of the predetermined region in the image of the object not wearing the attachment. And likelihood value calculation means for calculating a third likelihood value indicating object likeness not wearing the wearable object by using the learned machine learning system as,
Based on the first likelihood value, the second likelihood value, and the third likelihood value calculated by the likelihood value calculation means, the object represented by the image captured by the imaging means is the wearing Determining means for determining whether or not an object is attached;
An object determination apparatus including:
請求項1または2記載の対象物判定装置。 The determination unit is configured such that an object represented by an image captured by the imaging unit is based on a magnitude relationship between the first likelihood value, the second likelihood value, and the third likelihood value. The object determination apparatus according to claim 1, wherein it is determined whether or not an object is mounted.
請求項1または2記載の対象物判定装置。 The determination means is obtained by being imaged by the imaging means based on a ratio between the first likelihood value and the second likelihood value and a ratio between the first likelihood value and the third likelihood value. The target object determination apparatus according to claim 1, wherein the target object represented by the displayed image determines whether the target object is mounted.
対象物を撮像するための撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、装着物を装着した対象物の画像および前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出する第1尤度値算出ステップと、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、前記装着物を装着した対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出する第2尤度値算出ステップと、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記撮像手段で撮像されて得られた画像と、前記装着物を装着していない対象物の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する第3尤度値算出ステップと、
前記算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定ステップと、
を実行させるためのプログラム。 On the computer,
For an object represented by an image obtained by imaging with an imaging means for imaging the object, an image obtained by imaging with the imaging means, an image of the object with the attached object, and the attached object A first likelihood value calculating step of calculating a first likelihood value indicating the likelihood of an object using a machine learning system that has learned to react to an image of an object that is not mounted;
A machine learning system in which an object represented by an image captured by the image capturing unit is learned to react to an image captured by the image capturing unit and an image of the object mounted with the mounted object. A second likelihood value calculating step for calculating a second likelihood value indicating the likelihood of the object wearing the wearing object using
For the object represented by the image captured by the imaging unit, the machine learned to react to the image captured by the imaging unit and the image of the object not mounted with the mounted object A third likelihood value calculating step of calculating a third likelihood value indicating the likelihood of an object not wearing the wearing object using a learning system;
Based on the calculated first likelihood value, second likelihood value, and third likelihood value, is the object represented by the image captured by the imaging means wearing the wearing object? A determination step for determining whether or not;
A program for running
対象物を撮像するための撮像手段で撮像されて得られた画像から、前記対象物が装着物を装着していると仮定したときに該装着物が存在すると推定される予め定められた領域を抽出する抽出ステップと、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像および前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて対象物らしさを示す第1尤度値を算出する第1尤度値算出ステップと、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出された領域の画像と、前記装着物を装着した対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着した対象物らしさを示す第2尤度値を算出する第2尤度値算出ステップと、
前記撮像手段で撮像されて得られた画像が表す対象物について、前記抽出された領域の画像と、前記装着物を装着していない対象物の画像における前記予め定められた領域の画像に反応するように学習した機械学習システムとを用いて前記装着物を装着していない対象物らしさを示す第3尤度値を算出する第3尤度値算出ステップと、
前記算出された第1尤度値、第2尤度値、及び第3尤度値に基づいて、前記撮像手段で撮像されて得られた画像が表す対象物が前記装着物を装着しているか否かを判定する判定ステップと、
を実行させるためのプログラム。 On the computer,
Based on an image obtained by imaging with an imaging means for imaging the object, a predetermined region that is estimated to be present when the object is mounted is assumed when the object is mounted. An extraction step to extract;
For the object represented by the image captured by the imaging means, the image of the extracted area, the image of the predetermined area in the image of the object to which the wearing object is attached, and the wearing object First likelihood value calculation for calculating a first likelihood value indicating the likelihood of an object using a machine learning system that has learned to react to an image of the predetermined region in an image of the object that is not attached Steps,
The object represented by the image captured by the imaging unit is responsive to the image of the extracted area and the image of the predetermined area in the image of the object to which the wearing object is attached. A second likelihood value calculating step of calculating a second likelihood value indicating the likelihood of the object wearing the wearing object using the learned machine learning system;
The object represented by the image captured by the imaging means reacts to the image of the extracted area and the image of the predetermined area in the image of the object not wearing the attachment. A third likelihood value calculating step of calculating a third likelihood value indicating the likelihood of an object not wearing the attachment using the machine learning system learned as described above,
Based on the calculated first likelihood value, second likelihood value, and third likelihood value, is the object represented by the image captured by the imaging means wearing the wearing object? A determination step for determining whether or not;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008161355A JP5127582B2 (en) | 2008-06-20 | 2008-06-20 | Object determination apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008161355A JP5127582B2 (en) | 2008-06-20 | 2008-06-20 | Object determination apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010003116A true JP2010003116A (en) | 2010-01-07 |
JP5127582B2 JP5127582B2 (en) | 2013-01-23 |
Family
ID=41584782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008161355A Active JP5127582B2 (en) | 2008-06-20 | 2008-06-20 | Object determination apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5127582B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018047433A1 (en) * | 2016-09-08 | 2019-06-24 | ソニー株式会社 | Information processing device |
CN111444887A (en) * | 2020-04-30 | 2020-07-24 | 北京每日优鲜电子商务有限公司 | Mask wearing detection method and device, storage medium and electronic equipment |
CN111523476A (en) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | Mask wearing identification method, device, equipment and readable storage medium |
CN111666920A (en) * | 2020-06-24 | 2020-09-15 | 浙江大华技术股份有限公司 | Target object wearing detection method and device, storage medium and electronic device |
US11037592B2 (en) | 2017-12-07 | 2021-06-15 | Toyobo Co., Ltd. | Resin film with controlled youngs modulus |
WO2024050760A1 (en) * | 2022-09-08 | 2024-03-14 | Intel Corporation | Image processing with face mask detection |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002279416A (en) * | 2001-02-09 | 2002-09-27 | Gretag Imaging Trading Ag | Method and device for correcting color |
JP2004158013A (en) * | 2002-11-04 | 2004-06-03 | Samsung Electronics Co Ltd | Face detection system and method, and face image authentication method |
JP2006508463A (en) * | 2002-11-29 | 2006-03-09 | ソニー・ユナイテッド・キングダム・リミテッド | Face detection |
-
2008
- 2008-06-20 JP JP2008161355A patent/JP5127582B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002279416A (en) * | 2001-02-09 | 2002-09-27 | Gretag Imaging Trading Ag | Method and device for correcting color |
JP2004158013A (en) * | 2002-11-04 | 2004-06-03 | Samsung Electronics Co Ltd | Face detection system and method, and face image authentication method |
JP2006508463A (en) * | 2002-11-29 | 2006-03-09 | ソニー・ユナイテッド・キングダム・リミテッド | Face detection |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018047433A1 (en) * | 2016-09-08 | 2019-06-24 | ソニー株式会社 | Information processing device |
JP7074343B2 (en) | 2016-09-08 | 2022-05-24 | ソニーグループ株式会社 | Information processing equipment |
US11037592B2 (en) | 2017-12-07 | 2021-06-15 | Toyobo Co., Ltd. | Resin film with controlled youngs modulus |
CN111523476A (en) * | 2020-04-23 | 2020-08-11 | 北京百度网讯科技有限公司 | Mask wearing identification method, device, equipment and readable storage medium |
CN111523476B (en) * | 2020-04-23 | 2023-08-22 | 北京百度网讯科技有限公司 | Mask wearing recognition method, device, equipment and readable storage medium |
CN111444887A (en) * | 2020-04-30 | 2020-07-24 | 北京每日优鲜电子商务有限公司 | Mask wearing detection method and device, storage medium and electronic equipment |
CN111666920A (en) * | 2020-06-24 | 2020-09-15 | 浙江大华技术股份有限公司 | Target object wearing detection method and device, storage medium and electronic device |
CN111666920B (en) * | 2020-06-24 | 2023-09-01 | 浙江大华技术股份有限公司 | Target article wearing detection method and device, storage medium and electronic device |
WO2024050760A1 (en) * | 2022-09-08 | 2024-03-14 | Intel Corporation | Image processing with face mask detection |
Also Published As
Publication number | Publication date |
---|---|
JP5127582B2 (en) | 2013-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5127583B2 (en) | Object determination apparatus and program | |
JP5675229B2 (en) | Image processing apparatus and image processing method | |
JP6494253B2 (en) | Object detection apparatus, object detection method, image recognition apparatus, and computer program | |
JP4728432B2 (en) | Face posture estimation device, face posture estimation method, and face posture estimation program | |
CN109074652B (en) | Image recognition device, mobile device, and image recognition program | |
WO2017208529A1 (en) | Driver state estimation device, driver state estimation system, driver state estimation method, driver state estimation program, subject state estimation device, subject state estimation method, subject state estimation program, and recording medium | |
JP6525545B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM | |
US7957560B2 (en) | Unusual action detector and abnormal action detecting method | |
JP5127582B2 (en) | Object determination apparatus and program | |
US8630453B2 (en) | Image processing device, image processing method and program | |
US20130070105A1 (en) | Tracking device, tracking method, and computer program product | |
JP6185919B2 (en) | Method and system for improving person counting by fusing human detection modality results | |
KR101937323B1 (en) | System for generating signcription of wireless mobie communication | |
JP2015014819A (en) | Approaching object detection system and vehicle | |
JP2009143722A (en) | Person tracking apparatus, person tracking method and person tracking program | |
JPWO2012002047A1 (en) | Attribute determination method, attribute determination apparatus, program, recording medium, and attribute determination system | |
KR100988326B1 (en) | Method and apparatus for user-customized facial expression recognition | |
JP2014093023A (en) | Object detection device, object detection method and program | |
CN109711344A (en) | A kind of intelligentized specific exceptions behavioral value method in front end | |
WO2020195732A1 (en) | Image processing device, image processing method, and recording medium in which program is stored | |
JP2007213528A (en) | Action recognition system | |
JP7263094B2 (en) | Information processing device, information processing method and program | |
CN110688969A (en) | Video frame human behavior identification method | |
Willems et al. | A video-based algorithm for elderly fall detection | |
JP6798609B2 (en) | Video analysis device, video analysis method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121002 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121030 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5127582 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151109 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |