[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5808974B2 - Face image authentication device - Google Patents

Face image authentication device Download PDF

Info

Publication number
JP5808974B2
JP5808974B2 JP2011166999A JP2011166999A JP5808974B2 JP 5808974 B2 JP5808974 B2 JP 5808974B2 JP 2011166999 A JP2011166999 A JP 2011166999A JP 2011166999 A JP2011166999 A JP 2011166999A JP 5808974 B2 JP5808974 B2 JP 5808974B2
Authority
JP
Japan
Prior art keywords
face
image
person
unit
authentication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011166999A
Other languages
Japanese (ja)
Other versions
JP2013030078A (en
Inventor
高田 直幸
直幸 高田
健 糸賀
健 糸賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2011166999A priority Critical patent/JP5808974B2/en
Publication of JP2013030078A publication Critical patent/JP2013030078A/en
Application granted granted Critical
Publication of JP5808974B2 publication Critical patent/JP5808974B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Description

本発明は、顔画像認証装置に関し、特に、予め登録している顔画像について更新又は追加登録すべき利用者を検出する顔画像認証装置に関する。 The present invention relates to a face image authentication apparatus, and more particularly to a face image authentication apparatus that detects a user who should update or additionally register a face image registered in advance.

顔画像の照合によって人物を認証する顔画像認証装置においては、カメラ等で監視領域を撮影した監視画像において照合の対象となる人物の顔が写っている部分である入力顔画像と、予め登録された登録人物の顔が写っている登録顔画像とを照合することにより、入力顔画像が登録人物のものであるか否かを判定する。しかしながら、撮影条件の違い、登録人物の加齢、髪型または化粧の状態等により入力顔画像が登録顔画像と大きく異なり、入力顔画像が登録人物のものであるにもかかわらず認証に失敗する場合があり、なかには認証のたびに失敗し、成功することの方が少ないという登録人物も存在することがある。このような登録人物は一般に、認証が失敗しやすく不便さを感じるとの報告を管理者に行い、その報告を受けた管理者が、顔画像認証装置の認証履歴からその人物が撮影された入力顔画像を探し出し、その入力顔画像により登録顔画像を置き換える。しかしながら、認証が失敗しやすい人物から、その旨を報告されるまでは、その認証が失敗しやすい状態が継続することになる。また、顔画像認証装置の認証履歴から認証が失敗しやすい人物を探し出す作業は、管理者にとって手間がかかるものであった。 In a face image authentication device that authenticates a person by collating a face image, an input face image that is a portion of a monitoring image obtained by capturing a monitoring area with a camera or the like and that includes a face of a person to be collated is registered in advance. It is determined whether or not the input face image is that of the registered person by collating with the registered face image in which the face of the registered person is reflected. However, if the input face image differs greatly from the registered face image due to differences in shooting conditions, aging of the registered person, hairstyle or makeup, etc., and authentication fails even though the input face image belongs to the registered person In some cases, there are registered persons who fail with each authentication and are less likely to succeed. Such a registered person generally reports to the administrator that the authentication is likely to fail and is inconvenient, and the administrator who received the report inputs that person was photographed from the authentication history of the face image authentication device. A face image is found and the registered face image is replaced with the input face image. However, a state in which the authentication is likely to fail continues until a person who is likely to fail the authentication reports that fact. In addition, the task of searching for a person who is likely to fail authentication from the authentication history of the face image authentication apparatus is time-consuming for the administrator.

そこで、特許文献1には、本人照合の基準となる登録顔画像を、照合時に本人であると判定された入力顔画像で更新する顔画像照合装置が提案されている。この顔画像照合装置は、照合時に本人であると判定された入力顔画像である候補顔画像を保存しておき、その後の照合処理において登録顔画像よりも候補顔画像の方が入力顔画像と類似していると判定される状態が続くと、候補顔画像にて登録顔画像を更新する。 Therefore, Patent Document 1 proposes a face image matching device that updates a registered face image, which is a reference for person verification, with an input face image that is determined to be the person at the time of verification. This face image matching device stores a candidate face image that is an input face image determined to be the person at the time of matching, and the candidate face image is more likely to be the input face image than the registered face image in the subsequent matching process. If the state determined to be similar continues, the registered face image is updated with the candidate face image.

特開2007−304763号公報JP 2007-304763 A

特許文献1に記載された顔画像照合装置は、照合時に本人であると判定された候補顔画像がその後の照合処理において入力顔画像と類似していると判定される状態が続いたときに登録顔画像を更新するので、誤って登録者以外の人物の顔画像によって登録顔画像を更新するおそれを低減しつつ、照合に失敗しやすい状態を解消することができる。
しかしながら、この顔画像照合装置では登録顔画像を更新すべきと判断するためにはその人物に対する照合が複数回にわたってされる必要があるため、認証されにくい状態にある人物をより早期に検出することができる顔画像認証装置が望まれている。
The face image matching device described in Patent Document 1 is registered when the candidate face image determined to be the person at the time of matching continues to be determined to be similar to the input face image in the subsequent matching process. Since the face image is updated, it is possible to eliminate a state in which the verification is likely to fail while reducing the possibility that the registered face image is erroneously updated with the face image of a person other than the registrant.
However, in this face image collation device, in order to determine that the registered face image should be updated, it is necessary to collate the person multiple times, so that it is possible to detect a person who is difficult to authenticate earlier. There is a demand for a face image authentication apparatus capable of performing the above.

そこで、本発明の目的は、予め登録された人物のうち認証されにくく、認証失敗となることが多い人物をより早期かつ高精度に検出し、認証に適した、登録顔画像の更新に用いる顔画像をすみやかに選択する顔画像認証装置を提供することにある。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to detect a person who is difficult to be authenticated and frequently fails in authentication among pre-registered persons at an earlier stage and with higher accuracy, and is used for updating a registered face image suitable for authentication. It is an object of the present invention to provide a face image authentication apparatus that promptly selects an image.

かかる課題を解決するための本発明は、監視領域内の人物を撮影した監視画像を順次取得する撮像部と、登録人物の顔画像である登録顔画像を予め記憶する記憶部と、監視画像を用いて人物認証を行う照合部を具備し、照合部は、監視画像から人物の顔を含む領域の画像を顔領域画像として抽出する顔検出手段と、顔領域画像と登録顔画像を照合し、当該顔領域画像の人物が登録人物か否かの認証をする顔照合手段と、顔照合手段が顔領域画像の人物は登録人物でないと認証し、かつ当該人物が認証されようとする所定の要望行動を取ったことを条件に当該人物を認証困難者と判定する判定手段とを有することを特徴とする。 The present invention for solving such a problem includes an imaging unit that sequentially acquires a monitoring image obtained by photographing a person in a monitoring region, a storage unit that previously stores a registered face image that is a registered person's face image, and a monitoring image. Using a collation unit that performs person authentication, and the collation unit collates the face area image with the registered face image, and a face detection unit that extracts an image of an area including a person's face from the monitoring image as a face area image; A face matching unit that authenticates whether or not the person in the face area image is a registered person, and a predetermined request that the face matching means authenticates that the person in the face area image is not a registered person and that the person is to be authenticated And determining means for determining the person as a person who is difficult to authenticate on the condition that an action has been taken.

また、本発明に係る顔画像認証装置において、照合部は、取得した顔領域画像が略静止していることを検出する静止検出手段をさらに備え、判定手段は、少なくとも顔領域画像が略静止している時間が所定時間以上であることを所定の要望行動とすることが好ましい。 In the face image authentication device according to the present invention, the collation unit further includes a stationary detection unit that detects that the acquired facial region image is substantially stationary, and the determination unit includes at least the facial region image being substantially stationary. It is preferable that the predetermined desired behavior is that the current time is equal to or longer than the predetermined time.

また、本発明に係る顔画像認証装置において、照合部は、順次取得する監視画像にて同一人物の顔領域画像を追跡する顔追跡手段をさらに備え、静止検出手段は、顔領域画像の追跡位置が略静止していることを検出することが好ましい。 Further, in the face image authentication device according to the present invention, the collation unit further includes face tracking means for tracking the face area image of the same person in the sequentially acquired monitoring images, and the stillness detecting means is the tracking position of the face area image. It is preferable to detect that is substantially stationary.

また、本発明に係る顔画像認証装置において、照合部は、人物の顔向きを検出する顔向き検出手段をさらに備え、判定手段は、少なくとも顔領域画像に写っている顔が撮像部に対して略正面方向を向いている顔領域画像の数が所定数以上であることを所定の要望行動とすることが好ましい。 In the face image authentication device according to the present invention, the collation unit further includes a face direction detection unit that detects the face direction of the person, and the determination unit includes at least a face reflected in the face area image with respect to the imaging unit. It is preferable that the predetermined desired behavior is that the number of face area images facing substantially in the front direction is a predetermined number or more.

また、本発明に係る顔画像認証装置において、照合部は、顔領域画像と顔照合手段の認証結果とを対応付けて照合履歴として記憶部に記憶させる履歴管理手段をさらに備え、判定手段は、照合履歴を参照して、同一の人物に関し登録人物ではないとの認証結果が履歴閾値以上であることを条件に追加することが好ましい。 Further, in the face image authentication apparatus according to the present invention, the collation unit further includes a history management unit that associates the face area image with the authentication result of the face collation unit and stores the collation history in the storage unit, and the determination unit includes: It is preferable to refer to the verification history and add it on condition that the authentication result that the same person is not a registered person is equal to or higher than a history threshold.

また、本発明に係る顔画像認証装置において、照合部は、顔領域画像と顔照合手段の認証結果とを対応付けて照合履歴として記憶部に記憶させる履歴管理手段をさらに備え、判定手段は、照合履歴を参照して、同一の人物に関し所定の履歴参照期間に含まれる登録人物ではないとの認証結果が増加傾向にあることを条件に追加することが好ましい。 Further, in the face image authentication apparatus according to the present invention, the collation unit further includes a history management unit that associates the face area image with the authentication result of the face collation unit and stores the collation history in the storage unit, and the determination unit includes: It is preferable to refer to the verification history and add it on the condition that the authentication result that the same person is not a registered person included in the predetermined history reference period tends to increase.

また、本発明に係る顔画像認証装置において、表示部と、外部からの指示入力により登録顔画像を顔領域画像にて再登録する登録手段をさらに備え、登録手段は、登録顔画像と、登録人物ではないとの認証結果の回数の多い順に顔領域画像を表示部に並べて表示させ、指示入力を受けた際に表示された登録顔画像を当該顔領域画像にて再登録することが好ましい。 The face image authentication apparatus according to the present invention further includes a display unit and a registration unit that re-registers the registered face image with the face area image by an external instruction input, the registration unit including the registered face image, the registration It is preferable to display face area images side by side on the display unit in descending order of the number of authentication results indicating that the person is not a person, and re-register the registered face image displayed when receiving an instruction input with the face area image.

本発明に係る顔画像認証装置は、予め登録された人物のうち認証されにくく、認証失敗となることが多い人物をより早期かつ高精度に検出し、認証に適した、登録顔画像の更新に用いる顔画像をすみやかに選択できるという効果を奏する。
なお、以下本明細書においては、認証失敗となることが多い人物を「認証困難者」と称して説明する。
The face image authentication apparatus according to the present invention detects a person who is difficult to be authenticated among registered persons in advance and often fails in authentication more quickly and accurately, and updates a registered face image suitable for authentication. There is an effect that the face image to be used can be selected quickly.
Hereinafter, in this specification, a person who often fails in authentication will be referred to as a “person with difficulty in authentication”.

本発明を適用した顔画像認証装置の概略構成図である。It is a schematic block diagram of the face image authentication apparatus to which this invention is applied. 顔画像認証装置がオフィスビルの入り口に設置される場合の撮像部の設置例を表す模式図である。It is a schematic diagram showing the installation example of an imaging part in case a face image authentication apparatus is installed in the entrance of an office building. 照合テーブルの模式図である。It is a schematic diagram of a collation table. 照合テーブルの一部である履歴テーブルの模式図である。It is a schematic diagram of the log | history table which is a part of collation table. 登録顔画像の更新画面の模式図である。It is a schematic diagram of the update screen of a registered face image. 本発明を適用した顔画像認証装置における認証困難者の判定処理の動作を示すメインフローチャートである。It is a main flowchart which shows the operation | movement of a determination process of a difficult-to-authenticate person in the face image authentication apparatus to which this invention is applied. 同じく認証困難者の判定処理の動作を示すサブフローチャートである。It is a subflowchart which similarly shows the operation | movement of a determination process of a person with difficult authentication.

以下、図を参照しつつ、本発明にかかる顔画像認証装置の一つの実施の形態を、図を参照しつつ説明する。
顔画像認証装置に対して認証を要望する人物は、なかなか認証されない場合、カメラを直視しながら立ち止まったりゆっくり歩くといった特徴的な行動をとる傾向にある。そこで、本発明を適用した顔画像認証装置は、監視領域を撮影した監視画像を順次取得するとともに、その順次取得した複数の監視画像にわたって同一の人物を追跡する。そして顔画像認証装置は、追跡中の人物がカメラを直視しながら立ち止まったりゆっくり歩く等の、認証されようとする特徴的な行動を取っているか否かを判定し、その後、認証の履歴を参照して、認証失敗となることが多い人物を認証困難者として検出する。
これにより、顔画像認証装置は、認証困難者を早期かつ高精度に検出し、認証に適した、登録顔画像の更新に用いる顔画像をすみやかに選択することを図る。
Hereinafter, an embodiment of a face image authentication apparatus according to the present invention will be described with reference to the drawings.
A person who requests authentication from the face image authentication apparatus tends to take a characteristic action such as stopping or slowly walking while directly looking at the camera when the person is not authenticated. Therefore, the face image authentication apparatus to which the present invention is applied sequentially acquires the monitoring images obtained by capturing the monitoring area, and tracks the same person over the plurality of sequentially acquired monitoring images. Then, the face image authentication device determines whether the person being tracked is taking a characteristic action to be authenticated, such as stopping or walking slowly while looking directly at the camera, and then refers to the authentication history. Thus, a person who often fails in authentication is detected as a person who has difficulty in authentication.
As a result, the face image authentication device detects a person who has difficulty in authentication at an early stage and with high accuracy, and promptly selects a face image suitable for authentication and used for updating the registered face image.

図1は、本発明を適用した顔画像認証装置10の概略構成を示す図である。図1に示すように、顔画像認証装置10は、撮像部100、出力部200、表示部300、入力部400及び画像処理部500を有する。以下、顔画像認証装置10の各部について詳細に説明する。 FIG. 1 is a diagram showing a schematic configuration of a face image authentication apparatus 10 to which the present invention is applied. As illustrated in FIG. 1, the face image authentication device 10 includes an imaging unit 100, an output unit 200, a display unit 300, an input unit 400, and an image processing unit 500. Hereinafter, each part of the face image authentication device 10 will be described in detail.

撮像部100は、所定の監視領域を撮影する監視カメラであり、例えば、2次元に配列され、受光した光量に応じた電気信号を出力する光電変換素子(例えば、CCDセンサ、C−MOSなど)と、その光電変換素子上に監視領域の像を結像するための結像光学系を有する。
撮像部100は、監視領域内を通行する人物(顔画像認証装置10による照合の対象となる監視領域内の人物を対象人物と称する)の顔を順次撮影できるように設置される。そして撮像部100は、監視領域を撮影した監視画像を、所定の時間間隔(例えば、200ミリ秒)ごとに取得する。撮像部100は、画像処理部500と接続され、取得した監視画像を画像処理部500へ渡す。
The imaging unit 100 is a monitoring camera that captures a predetermined monitoring area, and is, for example, a photoelectric conversion element (for example, a CCD sensor, a C-MOS, or the like) that is arranged two-dimensionally and outputs an electrical signal corresponding to the amount of received light. And an imaging optical system for forming an image of the monitoring region on the photoelectric conversion element.
The imaging unit 100 is installed so that the face of a person who passes through the monitoring area (a person in the monitoring area to be collated by the face image authentication apparatus 10 is referred to as a target person) can be sequentially photographed. Then, the imaging unit 100 acquires a monitoring image obtained by capturing the monitoring area at predetermined time intervals (for example, 200 milliseconds). The imaging unit 100 is connected to the image processing unit 500 and passes the acquired monitoring image to the image processing unit 500.

図2に、顔画像認証装置10がオフィスビルの入り口に設置される場合の撮像部100の設置例を模式的に示す。図2に示すように、例えば、顔画像認証装置10がオフィスビルの入り口253に設置される場合、撮像部100は、入り口253に通じる通路を監視領域に含むよう、入り口253が設置された壁の上方または天井に、撮影方向をやや下方へ向け、その通路側へ向けた状態で取り付けられる。
これにより撮像部100は、入り口253に向かう(進行方向254へ向かう)対象人物を所定の時間間隔で撮像することができる。なお図2では、撮像部100が、時刻t、t+1、t+2において入り口253に向かう同一の対象人物250、251、252を順次撮影する様子を示している。
FIG. 2 schematically shows an installation example of the imaging unit 100 when the face image authentication device 10 is installed at the entrance of an office building. As shown in FIG. 2, for example, when the face image authentication device 10 is installed at the entrance 253 of an office building, the imaging unit 100 includes a wall on which the entrance 253 is installed so as to include a passage leading to the entrance 253 in the monitoring area. It is attached to the top or ceiling of the camera with the shooting direction slightly downward and toward the passage.
As a result, the imaging unit 100 can capture the target person heading toward the entrance 253 (heading in the traveling direction 254) at a predetermined time interval. FIG. 2 shows a state in which the imaging unit 100 sequentially captures the same target person 250, 251, 252 heading toward the entrance 253 at times t, t + 1, t + 2.

監視画像は、グレースケールまたはカラーの多階調の画像とすることができる。本実施形態では、監視画像を、横340画素×縦240画素を有し、RGB各色について8ビットの輝度分解能を持つカラー画像とした。ただし、監視画像として、この実施形態以外の解像度及び階調を有するものを使用してもよい。 The monitoring image can be a grayscale or color multi-tone image. In the present embodiment, the monitoring image is a color image having horizontal 340 pixels × vertical 240 pixels and an 8-bit luminance resolution for each of the RGB colors. However, a monitor image having a resolution and gradation other than this embodiment may be used.

出力部200は、例えば電気錠、又は電気錠を制御する外部機器等に接続する通信インターフェース及びその制御回路を有する。そして出力部200は、画像処理部500から対象人物についての認証成功を示す信号を受け取ると、接続された機器へ、例えば電気錠の解錠を要求する信号を出力する。 The output unit 200 includes a communication interface connected to, for example, an electric lock or an external device that controls the electric lock, and a control circuit thereof. When the output unit 200 receives a signal indicating successful authentication of the target person from the image processing unit 500, the output unit 200 outputs a signal requesting, for example, unlocking of the electric lock to the connected device.

表示部300は、画像処理部500と接続され、CRT、液晶ディスプレイ、有機ELディスプレイなどの表示装置を有する。そして表示部300は、画像処理部500からの要求に応じて画面を表示する。
また、顔画像認証装置10は、画像処理部500からの要求に応じて音声を鳴動させたり、振動を発生させたりする、スピーカまたは振動装置等(図示せず)をさらに備えてもよい。
The display unit 300 is connected to the image processing unit 500 and includes a display device such as a CRT, a liquid crystal display, or an organic EL display. The display unit 300 displays a screen in response to a request from the image processing unit 500.
The face image authentication device 10 may further include a speaker or a vibration device (not shown) that sounds a sound or generates a vibration in response to a request from the image processing unit 500.

入力部400は、キーボード、マウス等の入力デバイスで構成された入力インターフェースであり、管理者からの切換操作を受け付け、その操作に対応する信号を画像処理部500の登録手段529へ出力する。また、表示部300をタッチパネルディスプレイで構成することにより、表示部300と入力部400を一体化してもよい。 The input unit 400 is an input interface configured by an input device such as a keyboard and a mouse, receives a switching operation from an administrator, and outputs a signal corresponding to the operation to the registration unit 529 of the image processing unit 500. Further, the display unit 300 and the input unit 400 may be integrated by configuring the display unit 300 with a touch panel display.

画像処理部500は、例えば、いわゆるコンピュータにより構成される。そして画像処理部500は、撮像部100から受け取った監視画像に基づいて、対象人物を認証するとともに、認証されにくい状態にあることを判定し、履歴を参照して認証困難者を検出する。
そのために、画像処理部500は、記憶部510及び照合部520を有する。さらに、照合部520は、顔検出手段521、顔追跡手段522、顔照合手段523、行動検出手段524、履歴管理手段527、判定手段528、及び登録手段529を有する。
The image processing unit 500 is configured by, for example, a so-called computer. The image processing unit 500 authenticates the target person based on the monitoring image received from the imaging unit 100, determines that the person is difficult to be authenticated, and detects a person who is difficult to authenticate by referring to the history.
For this purpose, the image processing unit 500 includes a storage unit 510 and a collation unit 520. Furthermore, the collation unit 520 includes a face detection unit 521, a face tracking unit 522, a face collation unit 523, a behavior detection unit 524, a history management unit 527, a determination unit 528, and a registration unit 529.

記憶部510は、ROM、RAMなどの半導体メモリ、あるいは磁気記録媒体及びそのアクセス装置若しくは光記録媒体及びそのアクセス装置などを有する。そして記憶部510には、顔画像認証装置10を制御するためのコンピュータプログラム及び各種パラメータなどが予め記憶される。また記憶部510は、照合に使用される登録顔画像を対応する登録された人物(以降、登録人物と称する)の登録人物IDと関連付けて記憶する。また記憶部510は、画像処理により生じた対象人物に関する情報を管理するための照合テーブル及び履歴テーブルを記憶する。この照合テーブル及び履歴テーブルの詳細については後述する。 The storage unit 510 includes a semiconductor memory such as a ROM and a RAM, or a magnetic recording medium and its access device or an optical recording medium and its access device. The storage unit 510 stores in advance a computer program and various parameters for controlling the face image authentication apparatus 10. The storage unit 510 stores a registered face image used for verification in association with a registered person ID of a corresponding registered person (hereinafter referred to as a registered person). The storage unit 510 also stores a collation table and a history table for managing information related to the target person generated by the image processing. Details of the collation table and history table will be described later.

照合部520の各手段は、マイクロプロセッサ、メモリ、その周辺回路及びそのマイクロプロセッサ上で動作するソフトウェアにより実装される機能モジュールである。あるいは、これらの手段を、ファームウェアにより一体化して構成してもよい。また、これらの手段の一部または全てを、独立した電子回路、ファームウェア、マイクロプロセッサなどで構成しでもよい。以下、照合部520の各手段について詳細に説明する。 Each means of the collation unit 520 is a functional module implemented by a microprocessor, a memory, a peripheral circuit thereof, and software operating on the microprocessor. Alternatively, these means may be integrated by firmware. Further, some or all of these means may be constituted by independent electronic circuits, firmware, a microprocessor, and the like. Hereinafter, each means of the collation part 520 is demonstrated in detail.

顔検出手段521は、撮像部100から監視画像を受け取る度に、受け取った監視画像から対象人物の顔が写っている領域である顔領域を抽出し、顔領域画像を抽出する。顔領域を抽出するために、顔検出手段521は、例えばフレーム間差分処理または背景差分処理を利用して、撮像部100によって取得される複数の監視画像において輝度値の時間的な変化のある変化領域を抽出する。そして顔検出手段521は、抽出した変化領域のうち、その変化領域の大きさ等の特徴量から人物らしいと考えられる変化領域を人物領域として抽出する。そして顔検出手段521は、抽出した人物領域に対してSobelフィルタなどを用いて輝度変化の傾き方向が分かるようにエッジ画素抽出を行う。そして顔検出手段521は、抽出したエッジ画素から、所定の大きさをもつ、頭部の輪郭形状を近似した楕円形状のエッジ分布を検出し、そのエッジ分布に囲まれた領域を、顔領域として抽出する。この場合において、顔検出手段521は、例えば、一般化ハフ変換を用いて、楕円形状のエッジ分布を検出することができる。 Each time the face detection unit 521 receives a monitoring image from the imaging unit 100, the face detection unit 521 extracts a face area that is an area in which the face of the target person is captured from the received monitoring image, and extracts a face area image. In order to extract a face area, the face detection unit 521 uses, for example, an inter-frame difference process or a background difference process, and changes in luminance values with time in a plurality of monitoring images acquired by the imaging unit 100 are performed. Extract regions. Then, the face detection unit 521 extracts, from the extracted change areas, a change area that seems to be a person from a feature amount such as the size of the change area as a person area. Then, the face detection unit 521 performs edge pixel extraction on the extracted person region using a Sobel filter or the like so that the inclination direction of the luminance change can be known. Then, the face detection unit 521 detects an elliptical edge distribution having a predetermined size and approximating the contour shape of the head from the extracted edge pixels, and uses the area surrounded by the edge distribution as a face area. Extract. In this case, the face detection unit 521 can detect an elliptical edge distribution using, for example, a generalized Hough transform.

あるいは顔検出手段521は、Adaboost識別器を用いて顔領域を検出してもよい。この方法についてはP.ViolaとM.Jonesによる論文「Rapid Object Detection Using a Boosted Cascade of Simple Features」(Proc. the IEEE International Conference on Computer Vision and
Pattern Recognition,vol.1,pp.511-518,2001)を参照することができる。
そして顔検出手段521は、抽出した顔領域を監視画像から切り出して顔領域画像を作成し、その顔領域画像及び監視画像における顔領域の座標情報を顔追跡手段522に出力する。
Alternatively, the face detection unit 521 may detect a face area using an Adaboost classifier. This method is described in a paper by P. Viola and M. Jones “Rapid Object Detection Using a Boosted Cascade of Simple Features” (Proc. The IEEE International Conference on Computer Vision and
Pattern Recognition, vol.1, pp.511-518, 2001) can be referred to.
Then, the face detection unit 521 cuts out the extracted face area from the monitoring image to create a face area image, and outputs the face area image and the coordinate information of the face area in the monitoring image to the face tracking unit 522.

顔追跡手段522は、所定の時間間隔で連続して取得される複数の監視画像にわたって顔検出手段521から抽出された顔領域に対して公知のトラッキング技術を利用して追跡処理を行い、同一人物の顔が写っている顔領域どうしを対応付けることで顔領域画像の追跡を行う。
例えば、顔追跡手段522は、最新の監視画像から抽出された顔領域(以降、現フレームの顔領域と称する)の重心位置と、1フレーム前の監視画像から抽出された顔領域(以降、前フレームの顔領域と称する)の重心位置の距離を求めて、その距離が所定の閾値以下である場合に、その顔領域を同一人物によるものとして対応付ける。
The face tracking unit 522 performs a tracking process using a known tracking technique on the face area extracted from the face detection unit 521 over a plurality of monitoring images continuously acquired at predetermined time intervals, and the same person The face area image is tracked by associating the face areas in which the face is reflected.
For example, the face tracking unit 522 includes the position of the center of gravity of the face area extracted from the latest monitoring image (hereinafter referred to as the face area of the current frame) and the face area extracted from the monitoring image one frame before (hereinafter referred to as the previous area). The distance of the center of gravity position (referred to as a face area of the frame) is obtained, and when the distance is equal to or less than a predetermined threshold, the face area is associated with the same person.

なお、対象人物が撮像部100から離れているときに一定の距離を移動した場合と撮像部100の近くにいるときに同じ距離を移動した場合とでは、その移動の前後において監視画像における顔領域の位置の差は異なる。そのため、例えば所定の閾値を顔領域の大きさとすることにより、監視領域内の対象人物の位置にかかわらず、現フレームの顔領域と前フレームの顔領域が同一人物によるものか否かを適切に評価することができる。複数の顔領域が抽出されている場合には、重心位置の距離が最も近い顔領域どうしが対応づくか否かを調べる。
あるいは、顔追跡手段522は、オプティカルフロー、パーティクルフィルタ等の方法を用いて顔領域の追跡処理を行ってもよい。
The face area in the monitoring image before and after the movement when the target person moves a certain distance when moving away from the imaging unit 100 and when the target person moves the same distance when moving closer to the imaging unit 100. The position difference is different. Therefore, for example, by setting a predetermined threshold as the size of the face area, it is appropriately determined whether the face area of the current frame and the face area of the previous frame are from the same person regardless of the position of the target person in the monitoring area. Can be evaluated. When a plurality of face areas are extracted, it is checked whether or not face areas with the closest distance between the centroid positions correspond to each other.
Alternatively, the face tracking unit 522 may perform face area tracking processing using a method such as an optical flow or a particle filter.

顔追跡手段522は、顔領域の対応付けを行うと、記憶部510に格納されている照合テーブルを更新する。図3に照合テーブルの例を示す。図3に示すように照合テーブル310は、対象人物ごとに照合データを管理する。
照合データは、照合テーブル310の各行にあらわされるデータの組であり、顔追跡手段522は、照合データのうち、試行番号311、対象人物ID312、開始時刻313、追跡フラグ314、顔画像データ315及び追跡位置情報316を更新する。
The face tracking unit 522 updates the collation table stored in the storage unit 510 when the face areas are associated. FIG. 3 shows an example of the collation table. As shown in FIG. 3, the collation table 310 manages collation data for each target person.
The collation data is a set of data represented in each row of the collation table 310, and the face tracking unit 522 includes a trial number 311, a target person ID 312, a start time 313, a tracking flag 314, face image data 315, and the like. The tracking position information 316 is updated.

図3に示した照合テーブル310において、試行番号311は、追跡中の対象人物の照合データを他の照合データと識別するための識別番号であり、対象人物が監視領域内に存在している間、つまり顔追跡手段522によって追跡がされている間、同一の識別番号が割り当てられ続ける。
対象人物ID312は、追跡中の対象人物を他の対象人物と識別するための識別番号であり、試行番号311と1対1に対応する。対象人物ID312は、一意に定まるように付与されるものとなる。例えば、顔追跡手段522が追跡を開始した時刻を基に、乱数を発生させればよい。あるいは、対象人物ID312と試行番号311は1対1に対応するので、いずれかを省略してもよい。
開始時刻313は、顔検出手段521がその対象人物について顔領域画像を最初に抽出し、顔追跡手段522が追跡処理を開始した時刻をあらわす。
In the verification table 310 shown in FIG. 3, the trial number 311 is an identification number for identifying the verification data of the target person being tracked from other verification data, and while the target person exists in the monitoring area. In other words, the same identification number continues to be assigned while being tracked by the face tracking means 522.
The target person ID 312 is an identification number for identifying the target person being tracked from other target persons, and corresponds to the trial number 311 on a one-to-one basis. The target person ID 312 is assigned so as to be uniquely determined. For example, a random number may be generated based on the time when the face tracking unit 522 starts tracking. Alternatively, the target person ID 312 and the trial number 311 have a one-to-one correspondence and may be omitted.
The start time 313 represents the time when the face detection unit 521 first extracts a face area image for the target person and the face tracking unit 522 starts the tracking process.

追跡フラグ314は、その対象人物に対する追跡が継続しているか否かをあらわすフラグであり、顔追跡手段522がその対象人物の追跡を開始するとONになり、追跡を終了するとOFFになる。つまり、追跡フラグ314がONのときはその対象人物は監視領域内に存在し、追跡フラグ314がOFFのときはその対象人物が既に認証されて入室したか、又は認証されずに監視領域から離れたということになる。 The tracking flag 314 is a flag indicating whether or not the tracking of the target person is continued. The tracking flag 314 is turned on when the face tracking unit 522 starts tracking the target person, and turned off when the tracking is finished. That is, when the tracking flag 314 is ON, the target person exists in the monitoring area, and when the tracking flag 314 is OFF, the target person has already been authenticated and has entered the room or left without being authenticated. It will be that.

顔画像データ315は、顔検出手段521によって作成され、顔追跡手段522によって追跡処理でその対象人物のものとして対応付けられた全ての顔領域画像のデータである。
追跡位置情報316は、顔画像データ315として記憶された各顔画像データが切り出された監視画像内の顔領域の座標情報及び追跡処理がされた時刻を示す時刻情報である。
The face image data 315 is data of all face area images created by the face detection unit 521 and associated as the target person in the tracking process by the face tracking unit 522.
The tracking position information 316 is time information indicating the coordinate information of the face area in the monitoring image from which each face image data stored as the face image data 315 is cut out and the time when the tracking process is performed.

顔追跡手段522は、着目する現フレームの顔領域について前フレームの顔領域と対応付けることができなかった場合、その現フレームの顔領域には新たに監視領域内に入ってきた対象人物が写っているものとして、照合テーブル310にその対象人物についての照合データを新たに追加し、初期化処理を行う。即ち顔追跡手段522は、その照合データに新たな試行番号311及び対象人物ID312を割り当てるとともに、開始時刻313として現在時刻を記録し、追跡フラグ314をONに設定する。また顔追跡手段522は、顔画像データ315としてその現フレームの顔領域から作成された顔領域画像を記録するとともに、追跡位置情報316としてその顔領域の座標情報及び現在時刻を記録する。
また顔追跡手段522は、認証フラグ317をOFFに設定し、要望行動カウンタ318を0に設定する。そして顔追跡手段522は、新たに追加した照合データを顔照合手段523に出力する。
When the face tracking unit 522 cannot associate the face area of the current frame of interest with the face area of the previous frame, the face person of the new frame is reflected in the face area of the current frame. Assuming that the target person is newly added to the verification table 310, initialization processing is performed. That is, the face tracking unit 522 assigns a new trial number 311 and a target person ID 312 to the verification data, records the current time as the start time 313, and sets the tracking flag 314 to ON. The face tracking unit 522 records a face area image created from the face area of the current frame as the face image data 315 and also records coordinate information and the current time of the face area as tracking position information 316.
Further, the face tracking means 522 sets the authentication flag 317 to OFF and sets the desired action counter 318 to 0. Then, the face tracking unit 522 outputs the newly added matching data to the face matching unit 523.

一方、顔追跡手段522が、着目する現フレームの顔領域について前フレームの顔領域と対応付けることができた場合、その対象人物についての照合データは、既に照合テーブル310に作成されている。そのため、顔追跡手段522は、照合テーブル310の、対応する照合データの顔画像データ315にその現フレームの顔領域から作成された顔領域画像を追加するとともに、追跡位置情報316にその顔領域の座標情報及び現在時刻を追加する更新処理を行う。そして顔追跡手段522は、その照合データを顔照合手段523に出力する。 On the other hand, when the face tracking unit 522 can associate the face area of the current frame of interest with the face area of the previous frame, collation data for the target person has already been created in the collation table 310. Therefore, the face tracking unit 522 adds the face area image created from the face area of the current frame to the face image data 315 of the corresponding matching data in the matching table 310, and also adds the face area image of the face area to the tracking position information 316. An update process for adding coordinate information and the current time is performed. Then, the face tracking unit 522 outputs the matching data to the face matching unit 523.

また、顔追跡手段522は、前フレームの顔領域について、全ての現フレームの顔領域と対応付けられなかったものがある場合、照合テーブル310の、対応する照合データの追跡フラグ314をOFFにして、その対象人物についての追跡処理を終了する。 In addition, when there is a face area of the previous frame that is not associated with all face areas of the current frame, the face tracking unit 522 sets the tracking flag 314 of the corresponding matching data in the matching table 310 to OFF. Then, the tracking process for the target person is terminated.

顔照合手段523は、顔追跡手段522から出力された照合データのうち、図3に示した照合テーブル310の認証フラグ317がOFFとなっている照合データの最新の顔領域画像と記憶部510から読み込んだ各登録顔画像とを照合し、同一人物によるものか否かを判定する。そして顔照合手段523は、照合データの最新の顔領域画像と登録顔画像とが同一人物によるものであると判定すると、その照合データの認証フラグ317をONに設定する。つまり、この認証フラグ317は、対象人物に対する認証が成功したか否かをあらわすフラグである。 The face matching unit 523 uses the latest face area image of the matching data in which the authentication flag 317 of the matching table 310 illustrated in FIG. 3 is OFF among the matching data output from the face tracking unit 522 and the storage unit 510. Each registered face image that has been read is checked to determine whether it is from the same person. If the face collating means 523 determines that the latest face area image of the collation data and the registered face image are from the same person, the face collation means 523 sets the collation data authentication flag 317 to ON. That is, the authentication flag 317 is a flag indicating whether or not the authentication for the target person has succeeded.

顔照合手段523は、照合処理として、公知の様々な照合方法を用いることができる。
例えば、顔照合手段523は、顔領域画像と登録顔画像のパターンマッチングを行う。顔照合手段523は、顔領域画像と登録顔画像の位置をずらしながら顔領域画像に含まれる各画素と登録顔画像の対応画素の輝度値の差の二乗和を算出し、算出した二乗和のうち最も小さいものを顔領域画像に含まれる画素数で割って正規化した値の逆数を類似度として求める。
顔照合手段523は、各登録顔画像について求めた類似度のうち、最も高い類似度が所定の認証閾値を越える場合、その顔領域画像に写っている対象人物を、類似度が最も高い値を有する登録顔画像により登録された登録人物である(認証成功)と判断する。
一方、顔照合手段523は、何れの類似度も所定の基準値を越えない場合、顔領域画像に写っている対象人物は登録人物ではない(認証失敗)と判断する。なおこの認証閾値は、顔画像認証装置10が設置される環境、目的などに応じて適宜定められる。
The face matching unit 523 can use various known matching methods as the matching process.
For example, the face matching unit 523 performs pattern matching between the face area image and the registered face image. The face matching means 523 calculates the sum of squares of the difference in luminance value between each pixel included in the face area image and the corresponding pixel of the registered face image while shifting the position of the face area image and the registered face image, and the calculated square sum The reciprocal of the normalized value obtained by dividing the smallest one by the number of pixels included in the face area image is obtained as the similarity.
When the highest similarity among the similarities obtained for each registered face image exceeds a predetermined authentication threshold, the face matching unit 523 determines the target person shown in the face area image as the highest similarity value. It is determined that the person is a registered person registered based on the registered face image (successful authentication).
On the other hand, if any similarity does not exceed a predetermined reference value, the face matching unit 523 determines that the target person shown in the face area image is not a registered person (authentication failure). Note that this authentication threshold is appropriately determined according to the environment, purpose, and the like in which the face image authentication device 10 is installed.

顔照合手段523は、対象人物が登録人物であると判定すると、認証フラグ317をONに設定し、認証成功を示す信号を出力部200へ出力する。また、顔照合手段523は、照合処理を実施した対象人物の照合データを行動検出手段524に出力する。 When the face collating unit 523 determines that the target person is a registered person, the face collating unit 523 sets the authentication flag 317 to ON and outputs a signal indicating successful authentication to the output unit 200. Further, the face matching unit 523 outputs the matching data of the target person that has been subjected to the matching process to the behavior detecting unit 524.

行動検出手段524は、顔領域画像に写っている対象人物の行動が認証を要望する行動(以下、要望行動と称する)らしさを表す行動特徴量を算出する。そして行動検出手段524は、その行動特徴量がその対象人物が要望行動を取っていることを表す所定の条件を満たす場合に、その対象人物は認証されにくい状態にあると検出し、後述するように要望行動カウンタをインクリメントする。 The behavior detecting unit 524 calculates a behavior feature amount that represents a behavior (hereinafter, referred to as a requested behavior) that the behavior of the target person shown in the face area image requests authentication. Then, the behavior detecting unit 524 detects that the target person is in a state where it is difficult to authenticate when the behavior feature quantity satisfies a predetermined condition indicating that the target person is taking the desired behavior, and will be described later. Increment the requested action counter.

そのために、行動検出手段524は、行動特徴量として、その対象人物が撮像部100の方向を向いている度合い、すなわち現フレームの顔領域画像に写っている顔が撮像部100に対して正面方向を向いている度合いを示す直視度を算出する。
また行動検出手段524は、行動特徴量として、顔追跡手段522が追跡している対象人物が監視領域内で静止している度合い、すなわち複数の監視画像における、顔追跡手段522によって対応付けられた各顔領域の位置の変化の小ささの度合いを示す静止度を算出する。
Therefore, the behavior detection unit 524 determines, as the behavior feature quantity, the degree that the target person faces the direction of the imaging unit 100, that is, the face reflected in the face area image of the current frame is the front direction with respect to the imaging unit 100. The degree of direct view indicating the degree of facing is calculated.
In addition, the behavior detection unit 524 associates the target person being tracked by the face tracking unit 522 as a behavior feature amount by the face tracking unit 522 in a monitoring area, that is, in a plurality of monitoring images. The degree of stillness indicating the degree of change in the position of each face area is calculated.

そして行動検出手段524は、直視度及び静止度に基づいて、その顔領域画像に写っている対象人物が要望行動を取っているか否かを判定する。そのために行動検出手段524は、顔向き検出手段525と静止検出手段526を有する。 Then, the behavior detection unit 524 determines whether or not the target person shown in the face area image is taking the desired behavior based on the direct view degree and the static degree. For this purpose, the behavior detection unit 524 includes a face direction detection unit 525 and a stationary detection unit 526.

顔向き検出手段525は、行動特徴量を算出する特徴量算出手段として機能し、顔照合手段523から出力された照合データについて現フレームの顔領域画像に写っている顔の直視度を算出する。
図2の時刻t+2における対象人物252上に、人物の顔向きを規定するための正規直交座標系を示す。この正規直交座標系(X、Y、Z)では、原点Oは顔向きの検出対象となる人物の顔領域画像の重心に設定される。X軸は、原点Oを通り、顔の正中線に沿った垂直軸として設定される。Y軸は、原点Oを通り、顔を左右に横断する方向の水平軸として設定される。Z軸は、顔を前後に横断する方向の水平軸として設定される。
この座標系において、人物の顔向きは、人物が撮像部100を直視した状態(すなわち、人物が顔の正面を撮像部100に向けており、Z軸が撮像部100と顔を結ぶ直線となる状態)を顔向きの基準となる正対状態とした場合のヨー角ψ、ピッチ角θ及びロール角φの組(ψ、θ、φ)で表される。ヨー角ψは、正対状態における人物の顔向きに対する、左右方向の回転角(すなわち、X軸を回転中心とした、YZ平面内での回転角)を表す。またピッチ角θは、正対状態における人物の顔向きに対する、上下方向の回転角(すなわち、Y軸を回転中心とした、XZ平面内での回転角)を表す。またロール角φは、正対状態における人物の顔向きに対する、Z軸を回転中心とした時計回りの回転角を表す。以下では、ヨー角ψ、ピッチ角θ及びロール角φを、ラジアン単位で表し、それぞれ、右向き方向、下向き方向、時計回り方向を正とする。
The face orientation detection unit 525 functions as a feature amount calculation unit that calculates a behavior feature amount, and calculates the direct visibility of the face reflected in the face area image of the current frame for the collation data output from the face collation unit 523.
An orthonormal coordinate system for defining the face orientation of the person is shown on the target person 252 at time t + 2 in FIG. In this orthonormal coordinate system (X, Y, Z), the origin O is set to the center of gravity of the face area image of the person whose face orientation is to be detected. The X axis passes through the origin O and is set as a vertical axis along the midline of the face. The Y-axis is set as a horizontal axis that passes through the origin O and crosses the face left and right. The Z axis is set as a horizontal axis in a direction crossing the face back and forth.
In this coordinate system, the face direction of the person is a state where the person looks directly at the imaging unit 100 (that is, the person faces the front of the face toward the imaging unit 100, and the Z axis is a straight line connecting the imaging unit 100 and the face. State) is expressed as a set (ψ, θ, φ) of yaw angle ψ, pitch angle θ, and roll angle φ when the face-to-face reference state is set as a reference. The yaw angle ψ represents a left-right rotation angle (that is, a rotation angle in the YZ plane with the X axis as the rotation center) with respect to the face direction of the person in the face-to-face state. The pitch angle θ represents a vertical rotation angle (that is, a rotation angle in the XZ plane with the Y axis as the rotation center) with respect to the face direction of the person in the face-to-face state. Further, the roll angle φ represents a clockwise rotation angle with the Z axis as the rotation center with respect to the face direction of the person in the face-to-face state. Hereinafter, the yaw angle ψ, the pitch angle θ, and the roll angle φ are expressed in radians, and the rightward direction, the downward direction, and the clockwise direction are positive.

顔向き検出手段は、まず、顔領域画像から顔の特徴的な部分である顔特徴点を抽出する。そして顔向き検出手段525は、抽出した顔特徴点の種別と顔領域画像上の位置情報(例えば、顔領域画像の左上端部を原点とする2次元座標値)を算出する。例えば、顔向き検出手段525は、両目尻、両目領域中心、鼻尖点、口点、口角点などの顔特徴点を抽出する。顔向き検出手段525は、顔特徴点を抽出するための公知の様々な手法を用いることができる。例えば、顔向き検出手段525は、顔領域画像に対してエッジ抽出処理を行って周辺画素との輝度差が大きいエッジ画素を抽出する。そして顔向き検出手段525は、エッジ画素の位置、パターンなどに基づいて求めた特徴量が、目、鼻、口などの顔の特徴的な部位について予め定められた条件を満たすか否かを調べて各部位の位置を特定することにより、各顔特徴点を抽出することができる。
また顔向き検出手段525は、エッジ抽出処理を行ってエッジ画素を抽出する代わりに、顔領域画像にガボール変換処理あるいはウェーブレット変換処理を行って、異なる複数の空間周波数帯域で局所的に変化の大きい画素を抽出してもよい。さらに顔向き検出手段525は、顔の各部位に相当するテンプレートと顔領域画像とのテンプレートマッチングを行って顔の各部位の位置を特定することにより、顔特徴点を抽出してもよい。
The face orientation detection means first extracts face feature points that are characteristic parts of the face from the face area image. Then, the face orientation detection unit 525 calculates the type of the extracted face feature point and position information on the face area image (for example, a two-dimensional coordinate value with the upper left corner of the face area image as the origin). For example, the face orientation detection means 525 extracts facial feature points such as both eye corners, both eye region centers, nose tips, mouth points, and mouth corner points. The face orientation detection means 525 can use various known methods for extracting face feature points. For example, the face orientation detection unit 525 performs edge extraction processing on the face area image and extracts edge pixels having a large luminance difference from surrounding pixels. Then, the face direction detecting means 525 checks whether or not the feature amount obtained based on the position and pattern of the edge pixel satisfies a predetermined condition for a characteristic part of the face such as eyes, nose, and mouth. By specifying the position of each part, each facial feature point can be extracted.
In addition, instead of performing edge extraction processing to extract edge pixels by performing edge extraction processing, the face orientation detection means 525 performs Gabor conversion processing or wavelet conversion processing on the face area image, and has a large local change in a plurality of different spatial frequency bands. Pixels may be extracted. Further, the face orientation detection unit 525 may extract face feature points by performing template matching between a template corresponding to each part of the face and a face area image to identify the position of each part of the face.

そして顔向き検出手段525は、抽出した顔特徴点と、人物の顔の3次元モデルにおける対応する顔特徴点の位置関係に基づいて顔の向きを検出する。この場合、人の頭部の標準的な形状を模した3次元形状モデル(例えば、ワイヤーフレームモデルあるいはサーフェイスモデルにより表される)を予め準備し、記憶部510に記憶しておく。またその3次元形状モデルの両目尻、鼻尖点、口点といった3D顔特徴点の位置も記憶部510に記憶しておく。
顔向き検出手段525は、顔領域画像から顔特徴点を抽出すると、3次元形状モデルについて、所定の回転量、並進量または拡大/縮小率にしたがってその顔向きを調整し、撮像部100の結像光学系の像面と平行な面に仮想的に投影して、その面上における3D顔特徴点の位置を求める。そして顔向き検出手段525は、顔領域画像から抽出された各顔特徴点と、投影された3D顔特徴点のうちの対応する特徴点との位置ずれ量の総和を求める。顔向き検出手段525は、回転量、並進量または拡大/縮小率を変更して、上記の手順を繰り返し、位置ずれ量の総和が最小となるときの3次元形状モデルの顔の向きを求める。そして顔向き検出手段525は、その3次元形状モデルの顔の向きから、上記のヨー角ψ、ピッチ角θ及びロール角φの組(ψ、θ、φ)を求めることができる。あるいは、本願出願人による特開2009−237993に開示されている手法を採用することもできる。
The face orientation detection unit 525 detects the face orientation based on the positional relationship between the extracted face feature points and the corresponding face feature points in the three-dimensional model of the human face. In this case, a three-dimensional shape model (for example, represented by a wire frame model or a surface model) imitating the standard shape of a human head is prepared in advance and stored in the storage unit 510. In addition, the storage unit 510 also stores the positions of 3D face feature points such as both eye corners, nose tips, and mouth points of the three-dimensional shape model.
When the face orientation detection unit 525 extracts the facial feature points from the face area image, the face orientation detection unit 525 adjusts the face orientation of the three-dimensional shape model according to a predetermined rotation amount, translation amount, or enlargement / reduction ratio, and By virtually projecting onto a plane parallel to the image plane of the image optical system, the position of the 3D face feature point on that plane is obtained. Then, the face direction detection unit 525 obtains the sum of the positional deviation amounts between each face feature point extracted from the face area image and the corresponding feature point among the projected 3D face feature points. The face orientation detection unit 525 changes the rotation amount, the translation amount, or the enlargement / reduction ratio, repeats the above-described procedure, and obtains the face orientation of the three-dimensional shape model when the sum of the displacement amounts is minimized. Then, the face direction detecting means 525 can obtain the set (ψ, θ, φ) of the yaw angle ψ, pitch angle θ, and roll angle φ from the face direction of the three-dimensional shape model. Alternatively, the technique disclosed in Japanese Patent Application Laid-Open No. 2009-237993 by the applicant of the present application can also be adopted.

直視度は、例えば(1)式で表されるように、ヨー角ψとピッチ角θの絶対値和の逆数とすることができる。

Figure 0005808974

つまり直視度は、顔領域画像に写っている顔の向きが撮像部100に対して正面方向に近いほど大きい値となる。例えば、対象人物が撮像部100を直視している場合、ヨー角ψ及びピッチ角θはともに小さい値となるため、直視度は大きくなる。一方、撮像部100に対して顔を背けている場合は、ヨー角ψ及びピッチ角θはともに小さい値となるため、直視度は大きくなる。
そして顔向き検出手段525は、直視度を算出すると、算出した直視度をその顔領域画像と対応付けて記憶部510に記憶しておく。 The direct visibility can be the reciprocal of the sum of the absolute values of the yaw angle ψ and the pitch angle θ, for example, as expressed by equation (1).
Figure 0005808974

That is, the direct visibility becomes larger as the orientation of the face shown in the face area image is closer to the front direction with respect to the imaging unit 100. For example, when the target person is directly looking at the imaging unit 100, the yaw angle ψ and the pitch angle θ are both small values, and thus the degree of direct visibility increases. On the other hand, when the face is turned away from the imaging unit 100, the yaw angle ψ and the pitch angle θ are both small values, and the direct visibility increases.
Then, when the face orientation detection unit 525 calculates the direct visibility, it stores the calculated direct visibility in the storage unit 510 in association with the face area image.

静止検出手段526も、行動特徴量を算出する特徴量算出手段として機能し、照合テーブル310の追跡位置情報316を用いて、顔追跡手段522によって対応付けられた顔領域について静止度を算出する。例えば、監視画像の左上端部を原点とし、水平に左から右へ向かう方向にx軸、垂直に上から下へ向かう方向にy軸が設定される2次元の座標系を設定する。つまりこの座標系では、撮像部100が監視領域をやや上方向から撮影するように設置されている場合、撮像部100からみて対象人物が左から右へ移動する方向にx軸が、撮像部100の撮影方向にそって対象人物が近づく方向にy軸が設定される。この
座標系において、時刻tにおける顔領域の重心位置を(xt,yt)とする。その場合、時刻tにおける顔領域の静止度は、例えば(2)式で表されるように、前フレームの顔領域の重心位置に対する現フレームの顔領域の重心位置の、水平方向の差と垂直方向の差の絶対値和の逆数とすることができる。

Figure 0005808974

つまり静止度は、同一人物の顔が写っている顔領域の監視画像内における位置の変化が小さいほど大きい値となる。例えば図2に示した例では、時刻tから時刻t+1の間に対象人物が移動した距離255よりも時刻t+1から時刻t+2の間に対象人物が移動した距離256の方が小さいため、時刻t+2における静止度は時刻t+1における静止度より大きくなる。 The stillness detection unit 526 also functions as a feature amount calculation unit that calculates a behavior feature amount, and uses the tracking position information 316 of the collation table 310 to calculate the degree of stillness for the face area associated with the face tracking unit 522. For example, a two-dimensional coordinate system is set in which the upper left end of the monitoring image is set as the origin, the x axis is set in the horizontal direction from left to right, and the y axis is set in the vertical direction from top to bottom. That is, in this coordinate system, when the imaging unit 100 is installed so as to capture the monitoring area from a slightly upward direction, the x axis is in the direction in which the target person moves from left to right as viewed from the imaging unit 100. The y axis is set in the direction in which the target person approaches along the shooting direction. In this coordinate system, the center of gravity of the face area at time t is defined as (x t , y t ). In that case, the stillness of the face area at time t is perpendicular to the horizontal difference between the centroid position of the face area of the current frame relative to the centroid position of the face area of the previous frame, for example, as expressed by equation (2). It can be the reciprocal of the sum of absolute values of the direction differences.

Figure 0005808974

That is, the degree of staticity increases as the change in the position of the face area in which the face of the same person is captured in the monitoring image is smaller. For example, in the example illustrated in FIG. 2, the distance 256 that the target person moved from time t + 1 to time t + 2 is smaller than the distance 255 that the target person moved from time t to time t + 1. The stillness is greater than the staticity at time t + 1.

そして静止検出手段527は、静止度を算出すると、算出した静止度をその顔領域画像と対応付けて記憶部510に記憶しておく。
なお、撮像部100の床面からの高さ、俯角、焦点距離などの撮像条件が既知である場合には、撮像部100と対象人物との実際の距離をおおよそ算出できるので、静止検出手段526は、(2)式に準じ、当該距離の時間変化の絶対値の逆数を静止度として算出してもよい。
Then, the stillness detection means 527 calculates the stillness, and stores the calculated stillness in the storage unit 510 in association with the face area image.
Note that when the imaging conditions such as the height of the imaging unit 100 from the floor, the depression angle, and the focal length are already known, the actual distance between the imaging unit 100 and the target person can be roughly calculated, so the stationary detection unit 526 May calculate the reciprocal of the absolute value of the time change of the distance as the degree of stasis according to the equation (2).

履歴管理手段527は、顔照合手段523が算出した類似度、同手段が判断した認証結果を記憶部510に記録する。
図4に類似度が格納されるテーブルの例を示す。このテーブルは、図3に示した照合テーブルの一部であるが、説明の都合上、以下履歴テーブルと称して説明する。図3と図4に示されるテーブルの各行は、1回の試行により記録される照合履歴となっている。
履歴管理手段527は、図4に示す照合データごとに照合により得られた履歴データを管理する。
履歴データは、履歴テーブル410の各行にあらわされるデータの組であり、対象人物ID312、顔画像データ315、要望行動カウンタ318、グループ番号321、認証困難者フラグ322、認証時間323、類似度412および認証結果416を含む。また、履歴テーブル410には、登録人物を他の登録人物と識別するための登録人物ID413及びその登録人物の顔画像をあらわす登録顔画像414が管理されており、類似度412は登録人物ID413ごとに管理される。
The history management unit 527 records the similarity calculated by the face matching unit 523 and the authentication result determined by the same unit in the storage unit 510.
FIG. 4 shows an example of a table storing similarity. This table is a part of the collation table shown in FIG. 3, but will be referred to as a history table for convenience of explanation. Each row of the table shown in FIGS. 3 and 4 is a matching history recorded by one trial.
The history management means 527 manages history data obtained by collation for each collation data shown in FIG.
The history data is a set of data represented in each row of the history table 410. The target person ID 312, face image data 315, desired action counter 318, group number 321, authentication difficult person flag 322, authentication time 323, similarity 412 and An authentication result 416 is included. The history table 410 also manages a registered person ID 413 for identifying the registered person from other registered persons and a registered face image 414 representing the face image of the registered person, and the similarity 412 for each registered person ID 413. Managed.

なお、図4における顔画像データ315は、理解しやすいように1枚のみを示している。
類似度412は、顔照合手段523が、対象人物が写っている顔領域画像を各登録顔画像414と照合した結果として算出した類似度である。
また、登録人物ID413は、登録人物を他の登録人物と識別するためのIDである。登録人物ID413は、連続した正の整数でもよいが、例えば社員番号のように登録人物を一意に特定できるものであればどのようなものでもよい。登録顔画像414は、事前登録あるいは追加登録された登録人物の顔画像である。登録人物一人に対して一つ又は複数の登録顔画像が存在し得る。登録人物一人に対して複数の登録顔画像414が存在するときは、それぞれの登録顔画像414に対して登録人物ID413を割り当てることが好適である。なお、図4では理解しやすいように登録顔画像414として顔をあらわす画像を示しているが、顔照合手段523が顔画像の照合処理を実施するために必要なデータの形式で記憶しておいてもよい。例えば顔照合手段523が所定の顔特徴点の比較のみにより照合処理を実施する場合には、その顔特徴点の情報のみを記憶しておくことにより、記憶容量を節約できる。
Note that only one face image data 315 in FIG. 4 is shown for easy understanding.
The similarity 412 is a similarity calculated by the face matching unit 523 as a result of matching the face area image in which the target person is captured with each registered face image 414.
The registered person ID 413 is an ID for identifying the registered person from other registered persons. The registered person ID 413 may be a continuous positive integer, but may be anything as long as it can uniquely identify the registered person, such as an employee number. The registered face image 414 is a face image of a registered person that has been registered in advance or additionally registered. There may be one or more registered face images for each registered person. When a plurality of registered face images 414 exist for one registered person, it is preferable to assign a registered person ID 413 to each registered face image 414. In FIG. 4, an image representing a face is shown as a registered face image 414 for easy understanding. However, it is stored in a data format necessary for the face matching unit 523 to perform face image matching processing. May be. For example, when the face matching unit 523 performs the matching process only by comparing predetermined face feature points, the storage capacity can be saved by storing only the information of the face feature points.

履歴管理手段527は、顔照合手段523が認証成功と判断した場合、認証成功と判断した登録顔画像414については、認証成功と判断したフレームにおける類似度を記録し、認証成功と判断しなかった登録顔画像414については、同フレームにおいてそれぞれの登録顔画像414について算出された類似度を記録する。さらに、そのときの対象人物について認証成功だった旨と、認証成功と判断された登録人物ID413を認証結果416に記録する。
一方、履歴管理手段527は、最終的に顔照合手段523が認証成功と判断しなかった対象人物に関しては、最も高い類似度が算出された登録顔画像414については、その最も高い類似度を記録し、その他の登録顔画像414については、その最も高い類似度が算出されたフレームにおけるそれぞれの登録顔画像414について算出された類似度を記録する。
あるいは、履歴管理手段527は、顔照合手段523が認証成功と判断しなかった登録顔画像414については、その対象人物を写した顔領域画像と登録顔画像414について算出された、全ての類似度の平均値又は最近の所定数の類似度(例えば、最近5秒間に算出された類似度)の平均値を類似度412として記録しでもよい。これにより対象人物を写した顔領域画像と登録顔画像がどれくらい類似しているかについて、より高精度に求めることができる。
When the face matching unit 523 determines that the authentication is successful, the history management unit 527 records the similarity in the frame that is determined to be successful for the registered face image 414 that is determined to be successful, and does not determine that the authentication is successful. For the registered face image 414, the similarity calculated for each registered face image 414 in the same frame is recorded. Further, the fact that the target person at that time was successfully authenticated and the registered person ID 413 determined to be successful are recorded in the authentication result 416.
On the other hand, the history management unit 527 records the highest similarity for the registered face image 414 for which the highest similarity was calculated for the target person that the face matching unit 523 did not finally determine as successful authentication. For the other registered face images 414, the similarity calculated for each registered face image 414 in the frame for which the highest similarity is calculated is recorded.
Alternatively, for the registered face image 414 that the face collating unit 523 did not determine that the authentication was successful, the history management unit 527 calculated all the similarities calculated for the face area image and the registered face image 414 representing the target person. Or an average value of a recent predetermined number of similarities (for example, the similarity calculated in the last 5 seconds) may be recorded as the similarity 412. As a result, the degree of similarity between the face area image showing the target person and the registered face image can be determined with higher accuracy.

なお、類似度412は、顔照合手段523によって対象人物が登録人物であると認証されて入室するまで、又は対象人物が登録人物であると認証されないまま監視領域から離れるまで、又は顔画像認証装置10がタイムアウト等により、その対象人物に対する認証処理を終了するまで算出される。 Note that the similarity 412 is determined until the target person is authenticated as a registered person by the face matching unit 523, or until the target person leaves the monitoring area without being authenticated as a registered person, or the face image authentication device 10 is calculated until the authentication process for the target person is completed due to a timeout or the like.

また履歴管理手段527は、顔向き検出手段525が算出した直視度及び静止検出手段526が算出した静止度に基づいて、その登録顔画像を更新するのに最も適した顔画像を選択し、候補顔画像319として照合テーブル310に記録する。 Further, the history management unit 527 selects a face image most suitable for updating the registered face image based on the direct visibility calculated by the face direction detection unit 525 and the stillness calculated by the stillness detection unit 526, and The face image 319 is recorded in the collation table 310.

本実施形態の行動検出手段524は、監視領域内の対象人物が認証時間内に撮像部100に顔を向けた状態で立ち止まったり、ゆっくり歩いたりしているか否かを判定する。
そのために行動検出手段524は、顔向き検出手段525によって算出された直視度を直視度閾値と比較するとともに、静止検出手段526によって算出された静止度を静止度閾値と比較する。なお、直視度閾値は、顔領域画像に写っている対象人物の顔の向きが撮像部100を直視しているとみなせる角度範囲にあることを判別できるように定められ、例えばヨー角ψ及びピッチ角θをラジアン値で表した場合、4とするのが好適である。また、静止度閾値は、顔領域画像に写っている対象人物が略停止していることを判別できるように定められ、例えば1秒間に5フレームの監視画像を処理する場合、顔領域画像の幅をWとしたときに1/(W×0.5)とするのが好適である。
The action detection unit 524 of the present embodiment determines whether or not the target person in the monitoring area stops or walks slowly with the face facing the imaging unit 100 within the authentication time.
For this purpose, the behavior detection unit 524 compares the direct visibility calculated by the face direction detection unit 525 with the direct visibility threshold value, and compares the static degree calculated by the stillness detection unit 526 with the static degree threshold value. The direct visibility threshold is determined so that it can be determined that the direction of the face of the target person shown in the face area image is in an angle range where it can be considered that the imaging unit 100 is directly viewed, for example, the yaw angle ψ and the pitch When the angle θ is expressed in radians, 4 is preferable. The stillness threshold value is determined so that it is possible to determine that the target person shown in the face area image is substantially stopped. For example, when processing a monitoring image of 5 frames per second, the width of the face area image is determined. When W is W, 1 / (W × 0.5) is preferable.

行動検出手段524は、直視度が直視度閾値以上であり、静止度が静止度閾値以上である場合、要望行動カウンタをインクリメントする。この要望行動カウンタは、対象人物が要望行動を取っていると判定された回数を示すカウンタであり、図3に示した照合テーブル310に(すなわち図4に示した履歴テーブル410にも)記録される。
一方、直視度が直視度閾値未満である場合、又は静止度が静止度閾値未満である場合、その対象人物は撮像部100から顔を背けていたり、又はすばやく動いていると考えられ、認証されたいという心理状態でない可能性が高い。そのためその場合、行動検出手段524は要望行動カウンタを更新しない。
The behavior detection unit 524 increments the desired behavior counter when the direct visibility is equal to or greater than the direct visibility threshold and the stillness is equal to or greater than the staticity threshold. This desired behavior counter is a counter that indicates the number of times that the target person is determined to be taking the desired behavior, and is recorded in the matching table 310 shown in FIG. 3 (that is, also in the history table 410 shown in FIG. 4). The
On the other hand, when the direct visibility is less than the direct visibility threshold, or when the stillness is less than the staticity threshold, the target person is considered to be facing away from the imaging unit 100 or moving quickly and authenticated. There is a high possibility that it is not a psychological state of wanting. Therefore, in that case, the behavior detection means 524 does not update the desired behavior counter.

履歴管理手段527は、顔追跡手段522が対象人物の顔領域画像の追跡を開始してから、顔照合手段523が照合成功と判断するまで、または、対象人物が登録人物であると認証されないまま監視領域から離れるまで、又は顔画像認証装置10がタイムアウト等により、その対象人物に対する認証処理を終了するまでの認証時間を算出する。 The history management unit 527 is not authenticated until the face matching unit 523 determines that the matching is successful until the face tracking unit 522 starts tracking the face area image of the target person or until the target person is a registered person. The authentication time is calculated until the face image authentication device 10 is away from the monitoring region or until the authentication process for the target person is completed due to a timeout or the like.

顔追跡手段522が対象人物の顔領域画像の追跡を開始した時刻は、照合テーブル310の該当する照合データの開始時刻313に記憶されている。顔照合手段523が照合成功と判断した時刻は、その照合成功との判断に用いた顔領域画像を顔画像データ315として記憶した際に対応づけて照合テーブル310に記憶された追跡位置情報316の最新のものである。そこで履歴管理手段527は、両者の差から認証時間を算出する。 The time when the face tracking unit 522 starts tracking the face area image of the target person is stored in the start time 313 of the corresponding matching data in the matching table 310. The time when the face matching unit 523 determines that the matching is successful is the time of the tracking position information 316 stored in the matching table 310 in association with the face area image used for the determination of the matching as the face image data 315. The latest one. Therefore, the history management unit 527 calculates the authentication time from the difference between the two.

なお、タイムアウトとする認証時間は、顔画像認証装置の動作として、一般的に認証処理に要すると考えられる時間を考慮し、認証成功との結果を得るために認証処理を最大限繰り返すべき時間に基づき定められるとする。本実施の形態では、図2に示すように、歩行中の対象人物について、顔追跡手段522が対象人物の顔領域画像を追跡し始めてから、顔照合手段523が時間切れとして認証失敗の結果を出すための時間を基準に定めるとして、例えば10秒間とすることができる。
あるいは、撮像部100の画角や俯角、運用場所に依って増減するのが良い。また、要望行動カウンタについての所定の閾値は1以上の整数値である。例えば、3〜4秒間、その対象人物が撮像部100を直視しながらその場に静止している場合、その対象人物についての登録顔画像を更新すべきと判断することができる。従って、例えば1秒間に5フレームの監視画像を処理する場合、この所定の閾値は20とすることができる。要望行動カウンタは、1枚の監視画像ごとにインクリメントの有無が判断されるので、その数は、監視画像の処理間隔を考慮すると、対象人物が、撮像部100を直視しており、静止している時間を表している。
Note that the authentication time to be timed out is the time when the authentication processing should be repeated as much as possible in order to obtain a result of successful authentication, considering the time generally considered to be required for the authentication processing as the operation of the face image authentication device. Suppose that it is determined based on. In the present embodiment, as shown in FIG. 2, after the face tracking unit 522 starts to track the face area image of the target person for the target person who is walking, the face matching unit 523 is timed out and the authentication failure result is displayed. Assuming that the time for taking out is determined as a reference, it can be set to 10 seconds, for example.
Alternatively, it may be increased or decreased depending on the angle of view, depression angle, and operation location of the imaging unit 100. Further, the predetermined threshold value for the desired action counter is an integer value of 1 or more. For example, when the target person is still on the spot while directly looking at the imaging unit 100 for 3 to 4 seconds, it can be determined that the registered face image for the target person should be updated. Therefore, for example, when processing a monitoring image of 5 frames per second, the predetermined threshold value can be set to 20. Since the presence / absence of increment of the requested action counter is determined for each monitoring image, when the processing interval of the monitoring image is taken into account, the target person is directly looking at the imaging unit 100 and is stationary. Represents the time.

以下、図4に示した履歴テーブル410を用いて履歴管理手段527の動作を説明する。なお、図4に示した例において、類似度412のうち枠415が付されたものは、認証成功と判断されたときの類似度をあらわす。また、類似度の取り得る範囲を0〜10とし、認証閾値を5とし、要望行動カウンタの閾値を5とする。
例えば、対象人物ID312が「0511」の対象人物において、要望行動カウンタ318は「0」で要望行動カウンタの閾値を越えておらず、その対象人物が写っている顔画像と登録人物ID413が「2」の登録顔画像との類似度は「9.87」で認証閾値を越えている。この場合、顔画像認証装置10は、この対象人物は登録人物であるとして、すみやかに認証成功と判断しており、履歴管理手段527は、認証結果416の該当する欄に認証成功である旨と、登録人物ID413が「2」の登録人物であった旨、および顔追跡手段522による顔領域の追跡開始から顔照合手段523による認証成功までの認証時間は「0.6」秒であった、との結果を記録している。
The operation of the history management unit 527 will be described below using the history table 410 shown in FIG. In the example illustrated in FIG. 4, the similarity 412 with a frame 415 indicates the similarity when it is determined that the authentication is successful. In addition, the possible range of the similarity is 0-10, the authentication threshold is 5, and the threshold of the desired action counter is 5.
For example, in a target person whose target person ID 312 is “0511”, the desired action counter 318 is “0” and does not exceed the threshold value of the desired action counter, and the face image showing the target person and the registered person ID 413 are “2”. Is similar to the registered face image “9.87”, which exceeds the authentication threshold. In this case, the face image authentication apparatus 10 determines that the target person is a registered person and immediately determines that the authentication is successful, and the history management unit 527 indicates that the authentication is successful in the corresponding column of the authentication result 416. The authentication time from the start of tracking the face area by the face tracking unit 522 to the successful authentication by the face matching unit 523 was “0.6” seconds, indicating that the registered person ID 413 was a registered person of “2”. And record the results.

一方、対象人物ID413が「0011」の対象人物において、要望行動カウンタ318は「5」で要望行動カウンタの閾値を越えており、その対象人物が写っている顔画像と登録人物ID413が「1」の登録顔画像との類似度は「5.52」で認証閾値を越えている。この場合、顔画像認証装置10はこの対象人物について認証成功と判断している。しかし、顔追跡手段522による顔領域の追跡開始から顔照合手段523による認証成功までの認証時間は「5.2」秒であった、との結果を記録している。対象人物ID412が「0511」の対象人物に比べ、認証されるまでに要望行動を取っていた時間があった分、認証時間は長くなっており、この対象人物は認証成功と判断されるまで要望行動をとっていた認証されにくい人物と考えられる。 On the other hand, in the target person whose target person ID 413 is “0011”, the desired action counter 318 is “5” and exceeds the threshold of the desired action counter, and the face image in which the target person is reflected and the registered person ID 413 are “1”. The similarity with the registered face image is “5.52”, which exceeds the authentication threshold. In this case, the face image authenticating device 10 determines that the target person is successfully authenticated. However, the result that the authentication time from the start of tracking the face area by the face tracking unit 522 to the authentication success by the face collating unit 523 was “5.2” seconds is recorded. Compared to the target person whose target person ID 412 is “0511”, the authentication time is longer by the amount of time he took the desired action before being authenticated, and the target person is requested until it is determined that the authentication is successful. It is thought that the person who took action was difficult to be authenticated.

しかし、対象人物ID312が「0205」の対象人物において、要望行動カウンタ318は「314」で要望行動カウンタの閾値である5を遙かに越えており、その対象人物が写っている顔画像と各登録顔画像との類似度は最大でも「0.95」で認証閾値を越えていない。さらには認証時間323は、顔画像認証装置10がタイムアウトとする「10」秒が記録されている。
この場合、対象人物は要望行動を繰り返しとったものの、顔画像認証装置10は、最終的にこの対象人物について認証成功と判断しなかった、即ち認証失敗に終わったことを示している。この対象人物は、登録されているが、髪型や化粧などの原因で非常に認証困難な状態になっている人物であるとも考えられる。または、未登録の来訪者、場合によっては侵入を企てる不審者の可能性もある。
However, in the target person whose target person ID 312 is “0205”, the desired action counter 318 is “314” and far exceeds the threshold value 5 of the desired action counter. The maximum similarity with the registered face image is “0.95”, which does not exceed the authentication threshold. Furthermore, as the authentication time 323, “10” seconds for which the face image authentication device 10 times out are recorded.
In this case, although the target person repeatedly took the desired action, the face image authentication apparatus 10 did not determine that the target person finally succeeded in authentication, that is, the authentication failed. This target person is considered to be a person who has been registered but is very difficult to authenticate due to hairstyle or makeup. Or it may be an unregistered visitor, or in some cases a suspicious person who attempts to intrude.

また、履歴管理手段527は顔照合手段523にて認証処理が終了した最新の履歴データについて、顔画像データ315を参照して、同一の対象人物が過去にも認証を試みているか、即ち同一の対象人物について履歴データが履歴テーブル410に含まれているか否かを判定する。なお、最新の履歴データでは、グループ番号321は付与されておらず、認証困難者フラグ322は「OFF」に初期化されている。
そのために履歴管理手段527は、顔画像データ315を用い、顔照合手段523と同様な照合処理を行って同一の対象人物の履歴データが履歴テーブル410に含まれるか否かを判定する。
履歴管理手段527は、最新の履歴データの顔画像データ315から1枚の顔領域画像を選択し、既にグループ番号321が付与されている履歴データの顔画像315との照合処理を行う。照合処理に用いる顔領域画像は、任意のものでよいが、直視度を参照してそれが最大のものを選択するのが好ましい。
履歴管理手段527は、最新の履歴データの顔画像データ315が、既にグループ番号321が付与されている履歴データのいずれかの顔画像データ315と同一人物のものと判断できる場合には、過去にも認証を試みた対象人物が再び認証を試みたとしてそのグループ番号321と同じ番号を、最新の履歴データのグループ番号321に記憶する。
In addition, the history management unit 527 refers to the face image data 315 for the latest history data for which the authentication processing has been completed by the face matching unit 523, and whether the same target person has attempted authentication in the past, that is, the same It is determined whether or not history data is included in the history table 410 for the target person. In the latest history data, the group number 321 is not given, and the difficult-to-authenticate flag 322 is initialized to “OFF”.
For this purpose, the history management unit 527 uses the face image data 315 to perform collation processing similar to the face collation unit 523 and determines whether or not the history data of the same target person is included in the history table 410.
The history management unit 527 selects one face area image from the face image data 315 of the latest history data, and performs a matching process with the face image 315 of the history data to which the group number 321 has already been assigned. The face area image used for the collation process may be arbitrary, but it is preferable to select the face area image having the maximum value with reference to the direct visibility.
The history management unit 527 determines that the face image data 315 of the latest history data is the same person as any one of the face image data 315 of the history data to which the group number 321 has already been assigned. In addition, the same number as the group number 321 is stored in the group number 321 of the latest history data, assuming that the subject person who has attempted the authentication tries to authenticate again.

一方で、最新の履歴データの顔画像データ315が、既にグループ番号321が付与されている履歴データのいずれの顔画像データ315と同一人物のものと判断できない場合には、履歴管理手段527は、今回初めて認証を試みた人物であるとして、新たな番号を生成して最新の履歴データのグループ番号321の欄に記憶する。新たな番号は、既に記憶済みの最大の番号に1を加えた番号でよい。
これらの処理により、同一の対象人物の履歴データには同一のグループ番号321が付与され、過去にどれだけの頻度や回数で認証を試みたのか、図2の模式図でいうと入口253に接近したのかが把握できることになる。
On the other hand, when the face image data 315 of the latest history data cannot be determined to be the same person as any face image data 315 of the history data to which the group number 321 has already been assigned, the history management means 527 A new number is generated and stored in the group number 321 column of the latest history data, assuming that this is the first person who has attempted authentication. The new number may be a number obtained by adding 1 to the maximum number already stored.
As a result of these processes, the same group number 321 is assigned to the history data of the same target person, and the frequency and the number of attempts to authenticate in the past are approximated to the entrance 253 in the schematic diagram of FIG. You will be able to figure out what happened.

次に、同じく図4に示した履歴テーブル410を用いて判定手段528の動作を説明する。
判定手段528は、対象人物が認証されにくく、結局は認証失敗に終わることが多い認証困難者に該当するか否かを判定する。
そのために判定手段528は、履歴テーブル410の内容を参照し、同一の対象人物が過去にも認証失敗に終わったか否かを調べる。
図4に示す履歴テーブルにおいて、対象人物ID312が「0205」と「0642」と「0721」と「0879」の対象人物は、同一の対象人物と判断されており、グループ番号321は同じ「59」が記録されている。またそれぞれの認証結果416を参照すると認証失敗が記録されており、当該対象人物は試行の度に認証失敗に終わっている。
判定手段528は、認証失敗に終わった履歴データの数と履歴閾値とを比較する。履歴閾値は、認証失敗に終わった回数がそれ上回ると認証困難者であると判断できる回数に関する閾値であり、顔画像認証装置10の設置場所や運用条件によって定めることができる。本実施の形態においては3とする。
図4に示す場合では、同一人物と判断されグループ番号321に「59」が付与された対象人物は、認証失敗に終わった履歴データの数が4である。そこで、判定手段528は、当該対象人物を認証困難者であると判断し、認証困難者フラグ322を「ON」にセットする。
Next, the operation of the determination unit 528 will be described using the history table 410 shown in FIG.
The determination unit 528 determines whether or not the subject person is difficult to authenticate, and eventually falls into an authentication difficult person who often ends in authentication failure.
Therefore, the determination unit 528 refers to the contents of the history table 410 and checks whether or not the same target person has failed in the past.
In the history table shown in FIG. 4, target persons whose target person IDs 312 are “0205”, “0642”, “0721”, and “0879” are determined to be the same target person, and the group number 321 is the same “59”. Is recorded. Further, referring to the respective authentication results 416, an authentication failure is recorded, and the subject person fails in the authentication every time he tries.
The determination unit 528 compares the number of history data that has failed in authentication with the history threshold value. The history threshold value is a threshold value regarding the number of times it can be determined that the person is difficult to authenticate when the number of authentication failures exceeds that value, and can be determined by the installation location and operating conditions of the face image authentication device 10. In this embodiment, it is 3.
In the case shown in FIG. 4, the target person who is determined to be the same person and assigned “59” to the group number 321 has four history data that failed authentication. Therefore, the determination unit 528 determines that the target person is a person who has difficulty in authentication, and sets the person with difficulty in authentication flag 322 to “ON”.

次に、顔画像認証装置10の管理モードにおける動作を述べる。
顔画像認証装置10は、対象人物の顔画像を照合する通常モードと、装置の設定、保守等を行う管理者モードを有する。登録手段529は、管理者モードにおいて登録顔画像を登録、更新又は削除する。登録手段529は、管理者に登録顔画像の登録、更新又は削除を指示させるために表示制御手段として機能し、必要な画面を表示部300に表示させる。
また登録手段529は、入力部400から受け取った管理者からの指示に対応する信号に応じて記憶部510に記憶された登録顔画像を登録、更新又は削除する。
Next, the operation in the management mode of the face image authentication apparatus 10 will be described.
The face image authentication device 10 has a normal mode for collating the face image of the target person and an administrator mode for setting and maintaining the device. The registration unit 529 registers, updates, or deletes the registered face image in the administrator mode. The registration unit 529 functions as a display control unit for instructing the administrator to register, update, or delete the registered face image, and causes the display unit 300 to display a necessary screen.
The registration unit 529 registers, updates, or deletes the registered face image stored in the storage unit 510 in accordance with a signal corresponding to the instruction from the administrator received from the input unit 400.

顔画像認証装置10の管理者は、例えば、顔画像認証装置10の登録人物から認証がされないことがほとんどで認証困難者と判定されているのではないかとの報告を受けた場合、又は定期的に装置のメンテナンスを行う場合、入力部400に特定の暗証番号等を入力して、顔画像認証装置10に通常モードから管理者モードへの移行を指示する。登録手段529は、入力部400を介して管理者モードへの移行の指示を受け取ると、顔画像認証装置10を管理者モードへ移行させ、表示部300に登録顔画像の更新画面を表示させる。 The administrator of the face image authentication device 10 receives, for example, a report from a registered person of the face image authentication device 10 that it is determined that the person who has not been authenticated is determined to be difficult to authenticate, or periodically. When performing maintenance on the apparatus, a specific password or the like is input to the input unit 400 to instruct the face image authentication apparatus 10 to shift from the normal mode to the administrator mode. Upon receiving an instruction to shift to the administrator mode via the input unit 400, the registration unit 529 shifts the face image authentication apparatus 10 to the administrator mode and causes the display unit 300 to display a registered face image update screen.

図5(a)に登録顔画像の更新画面の例を示す。図5に示されるように、登録顔画像の更新画面は、登録顔画像を更新すべき対象人物の一覧を表示する一覧表示領域530、更新ボタン531、一覧表示ボタン532、削除ボタン533及びキャンセルボタン534を含む。
一覧表示領域530には、判定手段528によって認証困難者と判断された対象人物ごとに、認証失敗回数535、候補顔画像536及び登録顔画像537が表示される。
認証失敗回数535として、同一のグループ番号321が付与された対象人物について、認証失敗に終わった履歴データの数を表示する。
候補顔画像536として、照合データ310の候補顔画像319が表示される。
登録顔画像537として、その対象人物の認証処理において算出された類似度412を参照して選択された登録顔画像が表示される。
FIG. 5A shows an example of a registered face image update screen. As shown in FIG. 5, the registered face image update screen includes a list display area 530 for displaying a list of target persons whose registered face images are to be updated, an update button 531, a list display button 532, a delete button 533, and a cancel button. 534.
In the list display area 530, the number of authentication failures 535, the candidate face image 536, and the registered face image 537 are displayed for each target person determined to be a person who is difficult to authenticate by the determination unit 528.
As the number of authentication failures 535, the number of history data for which authentication failure has occurred for the target person to whom the same group number 321 is assigned is displayed.
A candidate face image 319 of the matching data 310 is displayed as the candidate face image 536.
As the registered face image 537, a registered face image selected with reference to the similarity 412 calculated in the target person authentication process is displayed.

管理者モードへ移行した直後、まず登録手段529は、一覧表示領域530を空白にした更新画面を表示部300に表示させる。そして、登録手段529は、入力部400から管理者が一覧表示ボタン532を押下したことを示す信号を受け取ると、認証困難者フラグ322が「ON」となっている人物についての情報を一覧表示させた更新画面を表示部300に表示させる。
このとき、登録手段529は、各対象人物に関する情報を認証失敗回数の多い順に並べて一覧表示する。これにより、頻繁に認証失敗となる対象人物から順に表示されるので、管理者は、更新すべき登録顔画像を容易に選択することができる。あるいは、照合データの開始時刻313を参照して、認証失敗回数が同じ対象人物については古い順に並べて一覧表示をしてもよい。
認証困難者フラグ322が「ON」になっているのは、図4でいうと、対象人物ID312が「0250」の対象人物のように、試行の度に認証失敗となる認証困難者である。
Immediately after shifting to the administrator mode, the registration unit 529 first causes the display unit 300 to display an update screen in which the list display area 530 is blank. When the registration unit 529 receives a signal indicating that the administrator has pressed the list display button 532 from the input unit 400, the registration unit 529 displays a list of information on persons whose authentication difficult person flag 322 is “ON”. The updated screen is displayed on the display unit 300.
At this time, the registration unit 529 displays a list of information on each target person, arranged in descending order of the number of authentication failures. Thereby, since it displays in order from the target person who frequently fails in authentication, the administrator can easily select the registered face image to be updated. Alternatively, with reference to the start time 313 of the collation data, target persons having the same number of authentication failures may be displayed in a list in order from the oldest.
The difficult-to-authenticate flag 322 is “ON”, as shown in FIG. 4, is a difficult-to-authenticate person who fails in authentication at each trial like the target person whose target person ID 312 is “0250”.

図5(a)では、認証失敗回数535の欄に、図4のグループ番号321として「59」が付与された対象人物の認証失敗の回数である「4」が表示されている。また、候補顔画像536の欄に、当該対象人物の候補顔画像538が表示されている。さらには、登録顔画像537の欄には、候補顔画像536の欄に表示された候補顔画像の人物について算出された類似度412が高い人物の登録顔画像539、および選択ボタン540が表示されている。 In FIG. 5A, “4”, which is the number of authentication failures of the target person to whom “59” is assigned as the group number 321 in FIG. Further, a candidate face image 538 of the target person is displayed in the candidate face image 536 column. Furthermore, the registered face image 537 displays a registered face image 539 of a person with a high similarity 412 calculated for the person of the candidate face image displayed in the candidate face image 536 field, and a selection button 540. ing.

顔画像認証装置10の管理者は、図5(a)の表示結果を踏まえ、この対象人物の候補顔画像538と登録顔画像539とを目視により比較して、これらが同一人物を表す画像であるか否かを判定する。同一人物を表す画像であると判定すると、管理者は、更新ボタン531にカーソルをあわせて押下する。そして登録手段529は、その状態で入力部400から更新ボタン531が押下されたことを示す信号を受け取ると、登録顔画像539を候補顔画像538で更新する。
この場合、登録手段525は、更新後の登録顔画像と、候補顔画像538を並べて表示部300に表示させることが望ましい。これにより、管理者は登録顔画像が所望の候補顔画像に更新されたことを容易に確認することができる。
The administrator of the face image authentication apparatus 10 visually compares the target face candidate face image 538 and the registered face image 539 based on the display result of FIG. 5A, and these are images representing the same person. It is determined whether or not there is. If it is determined that the images represent the same person, the administrator places the cursor on the update button 531 and presses it. When the registration unit 529 receives a signal indicating that the update button 531 is pressed from the input unit 400 in this state, the registration unit 529 updates the registered face image 539 with the candidate face image 538.
In this case, the registration unit 525 desirably displays the updated registered face image and the candidate face image 538 side by side on the display unit 300. Thus, the administrator can easily confirm that the registered face image has been updated to the desired candidate face image.

選択ボタン540は、表示されている登録顔画像539を他の登録顔画像に変更するためのボタンである。例えば、登録手段529は、選択ボタン540が一回押下されると、図5(b)に表示される登録顔画像に関する情報541に、選択ボタン540が再度押下されると、図5(c)に表示される登録顔画像に関する情報542に、選択ボタン540が再度押下されると、図5(d)に表示される登録顔画像に関する情報543に、表示を変更する。この登録顔画像に関する情報の表示順は、その登録顔画像と、候補顔画像538の対象人物の顔画像について算出された類似度が大きい順である。これにより、当該対象人物の顔画像と類似している可能性の高い登録顔画像から順に表示されるため、管理者は、効率よく登録顔画像を更新することができる。 The selection button 540 is a button for changing the displayed registered face image 539 to another registered face image. For example, when the selection button 540 is pressed once, the registration unit 529 displays information 541 related to the registered face image displayed in FIG. 5B, and when the selection button 540 is pressed again, the registration unit 529 displays FIG. When the selection button 540 is pressed again to the information 542 related to the registered face image displayed on the screen, the display is changed to the information 543 related to the registered face image displayed in FIG. The display order of the information related to the registered face image is the order in which the similarity calculated for the registered face image and the face image of the target person of the candidate face image 538 is large. Accordingly, since the registered face images that are likely to be similar to the face image of the target person are displayed in order, the administrator can efficiently update the registered face images.

また、管理者が対象人物の候補顔画像538と登録顔画像539とを目視により比較確認した際に、候補顔画像538に写った人物が見覚えのない人物である場合、善意の来訪者であるか、あるいは犯罪を企てるべく侵入を試みたり下見に訪れた不審人物であると判断することも可能となる。
その場合、管理者は登録顔画像の更新は行わない。また不審人物であると判断できる場合には、通報するなどの適切な対応が可能となる。
In addition, when the administrator visually compares the candidate face image 538 and the registered face image 539 of the target person, if the person in the candidate face image 538 is an unfamiliar person, the visitor is a bona fide visitor. Alternatively, it is possible to determine that the person is a suspicious person who has attempted to invade or attempted to inspect a crime.
In that case, the administrator does not update the registered face image. If it can be determined that the person is a suspicious person, an appropriate response such as a report can be made.

以下、図6と図7に示したフローチャートを参照しつつ、本発明を適用した顔画像認証装置10による認証困難者の検出と登録顔画像の更新に用いる候補顔画像の選定処理の動作を説明する。なお、以下に説明する動作のフローは、画像処理部500を構成するマイクロプロセッサ上で動作し、顔画像認証装置10全体を制御する制御部(図示せず)により制御される。
なお、以下に説明する処理の実施前に、照合テーブル310及び履歴テーブル410は空白になるよう初期化される。また、以下に説明する動作のうち、図6についての処理は監視画像を一つ取得するごとに実施される。
Hereinafter, with reference to the flowcharts shown in FIG. 6 and FIG. 7, the operation of the selection process of the candidate face image used for the detection of the difficult person and the update of the registered face image by the face image authentication apparatus 10 to which the present invention is applied will be described. To do. The operation flow described below is controlled by a control unit (not shown) that operates on the microprocessor constituting the image processing unit 500 and controls the face image authentication apparatus 10 as a whole.
Note that the collation table 310 and the history table 410 are initialized to be blank before performing the processing described below. Also, among the operations described below, the processing for FIG. 6 is performed every time one monitoring image is acquired.

最初に、顔画像認証装置10は、撮像部100により、監視領域を撮影した監視画像を取得し、画像処理部500の照合部520へ送る(ステップS701)。次に、照合部520の顔検出手段521は、取得された監視画像から、対象人物の顔が写っている顔領域を抽出し、その顔領域を監視画像から切り出して顔領域画像を作成する(ステップS702)。次に、顔検出手段521は、一つ以上の顔領域が抽出されたか否か判定する(ステップS703)。顔領域が全く抽出されなかった場合、顔検出手段521はステップS701へ移行し、ステップS701〜S703の処理を繰り返す。 First, the face image authentication apparatus 10 acquires a monitoring image obtained by capturing a monitoring area by the imaging unit 100 and sends the monitoring image to the matching unit 520 of the image processing unit 500 (step S701). Next, the face detection unit 521 of the matching unit 520 extracts a face area in which the face of the target person is shown from the acquired monitoring image, and cuts out the face area from the monitoring image to create a face area image ( Step S702). Next, the face detection unit 521 determines whether or not one or more face regions have been extracted (step S703). If no face area is extracted, the face detection unit 521 moves to step S701 and repeats the processes of steps S701 to S703.

一方、ステップS703において、一つ以上の顔領域が抽出され、顔領域画像が作成された場合、顔追跡手段522は、抽出された全ての顔領域について、照合テーブル310における追跡フラグ314が「ON」となっている対象人物ID312との対応付けを実施する(ステップS704)。そして顔追跡手段522は、照合テーブル310における追跡フラグ314が「ON」となっている対象人物ID312について、現フレームの顔領域のいずれとも対応付けられなかったものがあるか否かを判定する(ステップS705)。現フレームの顔領域のいずれとも対応付けられなかった照合テーブル310における追跡フラグ314が「ON」となっている対象人物ID312がある場合、その対象人物ID312の対象人物は、認証成功となって入室したか、又は認証されずに監視領域から離れたと考えられる。そのためその場合、顔追跡手段522は、照合テーブル310の、現フレームの顔領域のいずれとも対応付けられなかった対象人物ID312の追跡フラグ314を「OFF」にして、以後追跡処理を実施しないようにする。また履歴管理手段527は、照合テーブル310の開始時刻313を参照して現時刻との差から認証時間を算出し、認証失敗の旨とともに履歴テーブル410に記録する(ステップS706)。
なお、その前フレームの顔領域に写っている人物が認証されずにタイムアウトとなった場合は、予め定められたタイムアウトを表す時間(例えば10秒)を記録する。
また、認証フラグ317が「OFF」の場合には、それまでに算出された類似度を対応する履歴テーブル410に記憶する。
On the other hand, when one or more face areas are extracted and a face area image is created in step S703, the face tracking unit 522 sets the tracking flag 314 in the matching table 310 to “ON” for all the extracted face areas. Is associated with the target person ID 312 (step S704). Then, the face tracking unit 522 determines whether there is a target person ID 312 in which the tracking flag 314 in the verification table 310 is “ON” that is not associated with any of the face areas of the current frame ( Step S705). If there is a target person ID 312 in which the tracking flag 314 in the matching table 310 that is not associated with any of the face areas of the current frame is “ON”, the target person of the target person ID 312 is successfully authenticated and enters the room. It is considered that the user has left the monitoring area without being authenticated. Therefore, in that case, the face tracking unit 522 sets the tracking flag 314 of the target person ID 312 that is not associated with any of the face areas of the current frame in the matching table 310 to “OFF” so that the tracking process is not performed thereafter. To do. Further, the history management unit 527 calculates the authentication time from the difference from the current time with reference to the start time 313 of the collation table 310, and records it in the history table 410 together with the authentication failure (step S706).
When a person in the face area of the previous frame times out without being authenticated, a time (for example, 10 seconds) indicating a predetermined time out is recorded.
If the authentication flag 317 is “OFF”, the similarity calculated so far is stored in the corresponding history table 410.

そして顔追跡手段522は、現フレームの顔領域ごとに照合テーブルの照合データの新規追加又は更新をする(ステップS707)。現フレームの顔領域について照合テーブル310における追跡フラグ314が「ON」となっている対象人物ID312と対応付けることができなかった場合、顔追跡手段522は、照合テーブル310にその対象人物についての照合データを新たに追加する。即ち、顔追跡手段522は、その照合データに新たな試行番号311及び対象人物ID312を割り当てるとともに、開始時刻313として現在時刻を記録し、追跡フラグ314をONに設定する。また顔追跡手段522は、顔画像データ315としてその現フレームの顔領域から作成された顔領域画像を記録するとともに、追跡位置情報316としてその顔領域の座標情報及び現在時刻を記録する。また顔追跡手段522は、認証フラグ317を「OFF」に設定し、要望行動カウンタ318を「0」に設定する。
一方、現フレームの顔領域について前フレームの顔領域と対応付けることができた場合、顔追跡手段522は、照合テーブル310の、対応する照合データの顔画像データ315にその現フレームの顔領域から作成された顔領域画像を追加するとともに、追跡位置情報316にその顔領域の座標情報及び現在時刻を追加する更新処理を行う。そして顔追跡手段522は、更新した照合データを顔照合手段523へ出力する。
Then, the face tracking unit 522 adds or updates the collation data in the collation table for each face area of the current frame (step S707). When the face area of the current frame cannot be associated with the target person ID 312 in which the tracking flag 314 in the verification table 310 is “ON”, the face tracking unit 522 stores the verification data for the target person in the verification table 310. Add a new. That is, the face tracking unit 522 assigns a new trial number 311 and a target person ID 312 to the collation data, records the current time as the start time 313, and sets the tracking flag 314 to ON. The face tracking unit 522 records a face area image created from the face area of the current frame as the face image data 315 and also records coordinate information and the current time of the face area as tracking position information 316. Further, the face tracking means 522 sets the authentication flag 317 to “OFF” and sets the desired action counter 318 to “0”.
On the other hand, when the face area of the current frame can be associated with the face area of the previous frame, the face tracking unit 522 creates the face image data 315 of the matching data in the matching table 310 from the face area of the current frame. The updated face area image is added, and update processing for adding the coordinate information and the current time of the face area to the tracking position information 316 is performed. Then, the face tracking unit 522 outputs the updated matching data to the face matching unit 523.

以下のステップS708〜S716の処理は、追跡フラグ314が「ON」になっており、認証フラグ317がOFFになっている照合データごとに行われる。追跡フラグ314が「ON」になっている照合データのうち認証フラグ317がONである履歴データは処理対象としないのは、既に認証がなされているためである。そのため、顔照合手段523は、顔追跡手段522から出力された履歴データの最新の顔画像と記憶部510から読み込んだ各登録顔画像とを照合する(ステップS708)。そして顔照合手段523は、認証が成功したか否かを判定する(ステップS709)。 The following processing in steps S708 to S716 is performed for each verification data in which the tracking flag 314 is “ON” and the authentication flag 317 is OFF. The history data in which the authentication flag 317 is ON among the verification data in which the tracking flag 314 is “ON” is not processed because it has already been authenticated. Therefore, the face collating unit 523 collates the latest face image of the history data output from the face tracking unit 522 with each registered face image read from the storage unit 510 (step S708). Then, the face matching unit 523 determines whether or not the authentication is successful (step S709).

ステップS709で認証が失敗した場合、顔向き検出手段525は、その認証が失敗した対象人物の顔が写っている顔領域画像について直視度を算出し、その顔領域画像と対応づけて記憶部510に記憶する(ステップS710)。次に静止検出手段526は、その顔領域について静止度を算出し、その顔領域画像と対応づけて記憶部510に記憶する(ステップS711)。そして行動検出手段524は、直視度と静止度から、対象人物がカメラを直視しながら静止しているか否かを判定する(ステップS712)。そして行動検出手段524は、対象人物がカメラを直視しながら静止していると判定すると、要望行動カウンタ318をインクリメントする(ステップS713)。 If the authentication fails in step S709, the face orientation detection unit 525 calculates the direct visibility for the face area image in which the face of the target person whose authentication has failed is performed, and associates the face area image with the face area image to store 510 (Step S710). Next, the stillness detecting means 526 calculates the degree of stillness for the face area, and stores it in the storage unit 510 in association with the face area image (step S711). Then, the behavior detection unit 524 determines whether or not the target person is stationary while looking directly at the camera from the degree of direct vision and the degree of stillness (step S712). If the action detecting unit 524 determines that the target person is stationary while looking directly at the camera, the action detecting unit 524 increments the desired action counter 318 (step S713).

一方、ステップS709で認証が成功した場合、顔照合手段523は、認証成功を示す信号を行動検出手段524を介して履歴管理手段527に出力して、履歴管理手段527は、その旨を履歴テーブル410の認証結果416に記録する(ステップS714)。
次に、顔照合手段523は、認証成功を示す信号を出力部200へ出力し、出力部200を介して電気錠の解錠を行う(ステップS715)。これにより認証成功となった対象人物は、入室することができる。なお、電気錠は、対象人物の入室が確認できた後にすみやかに、または所定時間経過後に自動的に施錠されるものとする。
On the other hand, when the authentication is successful in step S709, the face matching unit 523 outputs a signal indicating the authentication success to the history management unit 527 via the behavior detection unit 524, and the history management unit 527 indicates that fact in the history table. It is recorded in the authentication result 416 of 410 (step S714).
Next, the face matching unit 523 outputs a signal indicating successful authentication to the output unit 200, and unlocks the electric lock via the output unit 200 (step S715). As a result, the target person who has succeeded in authentication can enter the room. It is assumed that the electric lock is locked immediately after the entry of the target person can be confirmed or automatically after a predetermined time has elapsed.

次に、顔照合手段523は認証フラグ317を「ON」に設定する。また履歴管理手段527は、照合テーブル310の開始時刻313と最新の追跡位置情報316とから認証時間を算出し、顔照合手段523が算出した類似度とともに履歴テーブル410に記憶する(ステップS716)。
行動検出手段524がステップS713で要望行動カウンタ318をインクリメントしたとき、又は顔照合手段523が認証フラグ317を「ON」にして、履歴管理手段527が認証時間を算出し類似度を記録したとき、全ての顔領域画像について照合処理がされたか否かが判定される。
まだ照合処理がされていない顔画像が存在する場合、制御はステップS708に戻り、ステップS708〜S716の処理が繰り返される。
Next, the face matching means 523 sets the authentication flag 317 to “ON”. Further, the history management unit 527 calculates an authentication time from the start time 313 of the verification table 310 and the latest tracking position information 316, and stores it in the history table 410 together with the similarity calculated by the face verification unit 523 (step S716).
When the action detecting means 524 increments the desired action counter 318 in step S713, or when the face matching means 523 sets the authentication flag 317 to “ON” and the history management means 527 calculates the authentication time and records the similarity, It is determined whether or not collation processing has been performed for all face area images.
If there is a face image that has not been collated yet, the control returns to step S708, and the processes of steps S708 to S716 are repeated.

次に、図7を用いて、履歴テーブル410に記録された対象人物が認証困難者であるか否かの判定処理について説明する。この処理は、一人の対象人物について認証処理が終了するごとに、履歴管理手段527と判定手段528にて実行される。または顔画像認証装置10が管理モードに移行した際に動作してもよい。 Next, a process for determining whether or not the target person recorded in the history table 410 is a person who has difficulty in authentication will be described with reference to FIG. This process is executed by the history management unit 527 and the determination unit 528 every time the authentication process is completed for one target person. Or it may operate when the face image authentication device 10 shifts to the management mode.

まず履歴管理手段527は、記憶部510に記憶されている履歴テーブル410を読み出す(ステップS801)。
次に、履歴管理手段527は、履歴データのうち、グループ番号321が付与されていない履歴データがあるか否かを調べる(ステップS802)。全ての履歴データについてグループ番号が付与されている場合にはステップS807に処理を進める。グループ番号が付与されていない履歴データがある場合には、その全てについてステップS803〜S806の処理を行う。
First, the history management unit 527 reads the history table 410 stored in the storage unit 510 (step S801).
Next, the history management unit 527 checks whether there is history data to which the group number 321 is not assigned in the history data (step S802). If a group number is assigned to all history data, the process proceeds to step S807. If there is history data to which no group number is assigned, the processing of steps S803 to S806 is performed for all of the history data.

履歴管理手段527は、グループ番号が付与されてない履歴データについて、その顔画像データ315を用い、グループ番号が付与されている他の履歴データの顔画像315との類似度を算出する(ステップS803)。これはグループ番号が付与されてない履歴データの対象人物が、既にその前に認証を試みているか、つまり同一の対象人物の履歴データが存在するか否かを調べることを意図している。
ステップS803にて求められた類似度が一定以上となった場合、同一の対象人物についての履歴データが既に存在しているため、履歴管理手段527は、その既に存在している履歴データのグループ番号をグループ番号が付与されてない履歴データのグループ番号321に記録する(ステップS806)。なお、ステップS803にて求められた類似度が一定以上となる履歴データが複数存在している場合には、類似度が最大の履歴データを採用するものとする。最も同一人物らしいと考えられるからである。
The history management unit 527 uses the face image data 315 for the history data to which no group number is assigned, and calculates the similarity with the face image 315 of other history data to which the group number is assigned (step S803). ). This is intended to check whether the target person of the history data to which the group number is not assigned has already attempted authentication before that, that is, whether the history data of the same target person exists.
If the similarity obtained in step S803 is greater than or equal to a certain level, history data for the same target person already exists, so the history management means 527 determines the group number of the already existing history data. Is recorded in the group number 321 of the history data to which no group number is assigned (step S806). Note that when there are a plurality of pieces of history data in which the degree of similarity obtained in step S803 exceeds a certain level, the history data having the maximum degree of similarity is adopted. This is because it seems to be the same person.

一方で、ステップS803にて求められた類似度が、グループ番号が付与されている他の履歴データのいずれとも一定以上とならない場合、当該対象人物は初めて認証を試みたと考えられるので、グループ番号321には新たな番号を付与する。新たな番号は、既に付与されている最大番号に1を足した値でよい(ステップS805)。
ステップS803〜S806を繰り返すことで、履歴テーブル410に記録されている履歴データの全てについてグループ番号が付与され、同一の対象人物についてはグループ化され、例えば認証失敗の回数や時期などが把握できることになる。
On the other hand, if the similarity obtained in step S803 does not exceed a certain level with any of the other history data to which the group number is assigned, the target person is considered to have attempted authentication for the first time, and therefore the group number 321 Is given a new number. The new number may be a value obtained by adding 1 to the maximum number already assigned (step S805).
By repeating steps S803 to S806, group numbers are assigned to all the history data recorded in the history table 410, and the same target person is grouped. For example, the number and timing of authentication failures can be grasped. Become.

次に、判定手段528は、同じグループ番号が付与された履歴データの集合(顔画像グループ)について、要望行動カウンタ318の値と、その顔画像グループに含まれる履歴データの数を参照して、ステップS807〜S809の処理を行う。
ここで、要望行動カウンタ318の値は、前述のように、直視度が高く静止度が高いときにインクリメントされるため、要望行動カウンタ318の値が高い場合、その対象人物は顔を撮像部100に正面向きに向け、立ち止まったり、通常の歩行速度よりもかなり低速に移動しており、認証されようとしていると考えられる。一方、認証失敗という結果に終わっても、立ち止まったり、顔をカメラに向けるといった要望行動を取らない人物は認証困難者と判定するのは不適切である。そこで要望行動カウンタ318を参照することで、その値が低い人物を認証困難者と誤判定することを防ぐことができる。
また1つの顔画像グループに含まれる履歴データの数を参照するのは、認証困難者と判定するには、ある程度の数の認証履歴が必要と考えられるからである。例えば、登録者であっても初めて認証を試みた際に、勝手が分からず偶然認証に失敗すると、それでも直ちに認証困難者と判定されるのは不適切である。
Next, the determination unit 528 refers to the value of the desired action counter 318 and the number of history data included in the face image group for a set of history data (face image group) to which the same group number is assigned. Steps S807 to S809 are performed.
Here, as described above, the value of the requested action counter 318 is incremented when the degree of direct vision is high and the degree of stillness is high. Therefore, when the value of the requested action counter 318 is high, the target person captures the face. It seems that it is trying to be authenticated because it is facing the front and stops or moves much slower than the normal walking speed. On the other hand, even if the result of authentication failure is reached, it is inappropriate to determine a person who does not take a desired action such as stopping or turning his face to the camera as a person who has difficulty in authentication. Therefore, by referring to the desired action counter 318, it is possible to prevent a person having a low value from being erroneously determined as a person who has difficulty in authentication.
The reason why the number of history data included in one face image group is referred to is that it is considered that a certain number of authentication histories are necessary to determine that the person is difficult to authenticate. For example, even if a registrant tries to authenticate for the first time, if he / she does not know his / her identity and accidentally fails, it is still inappropriate to immediately determine that he / she is difficult to authenticate.

判定手段528は、要望行動カウンタ318の値が閾値(例えば5)以上の履歴データが含まれ、その顔画像グループに含まれる履歴データの数が所定の履歴閾値以上の顔画像グループについて、認証失敗に終わった試行の回数を調べる(ステップS807)。
それが履歴閾値未満の場合には、判定手段528は、その顔画像グループの対象人物は認証困難者と判定しない。
認証失敗に終わった試行の回数が履歴閾値を超える場合には、判定手段528は、その顔画像グループの対象人物を認証困難者と判定して認証困難者フラグ322をONにセットする(ステップS808)。
なお、履歴閾値の値は、顔画像認証装置10の設置場所や運用条件によって定められ、例えば3とすることができる。
The determination unit 528 includes authentication data for a face image group that includes history data with a desired action counter 318 value of a threshold value (for example, 5) or more and the number of history data items included in the face image group is a predetermined history threshold value or more. The number of trials that ended is checked (step S807).
If it is less than the history threshold, the determination unit 528 does not determine that the target person of the face image group is a person who is difficult to authenticate.
If the number of trials that result in authentication failure exceeds the history threshold, the determination unit 528 determines that the target person of the face image group is a person who has difficulty in authentication, and sets the person having difficulty in authentication flag 322 to ON (step S808). ).
The history threshold value is determined by the installation location and operating conditions of the face image authentication device 10 and can be set to 3, for example.

次に、履歴管理手段527は、候補顔画像を選定する。この候補顔画像は、認証困難者と判定された対象人物が登録者であった場合に、登録顔画像414を更新するためものであり、照合テーブル310に記録する(ステップS809)。
履歴管理手段527は、その対象人物について記録された顔領域画像のうち、直視度が最も高かったときの顔領域を切り出した顔領域画像を候補顔画像として選択し、図3に示した照合テーブル310に候補顔画像319として記録する。直視度が高いということは、対象人物が認証されようとして顔を撮像部100に正面向きに向けていることを表すので、登録顔画像を照合に適した顔画像に更新できる可能性が高い。
あるいは、履歴管理手段527は、その対象人物について記録された顔領域画像のうち、静止度が最も高かったときの顔領域を切り出した顔領域画像を候補顔画像として選択して照合データに記録しでもよい。静止度が高いとき、その対象人物は認証されようとして立ち止まったり、通常の歩行速度よりもかなり低速に移動していると考えられ、そのような場合、その対象人物は認証されようとして顔を撮像部100に向けている可能性が高い。従って、そのときの顔領域画像を候補顔画像として選択することにより、登録顔画像を照合に適した正面向きの顔画像に更新できる可能性が高くなる。
あるいは、履歴管理手段527は、その対象人物について記録された顔領域画像のうち、いずれかの登録顔画像との類似度が最も高い顔領域画像を候補顔画像として選択して照合データに記録しでもよい。この場合、その登録顔画像を更新すべく効率的に登録手段529における更新処理を行うことができる。
Next, the history management unit 527 selects candidate face images. This candidate face image is for updating the registered face image 414 when the target person determined to be a difficult-to-authenticate is a registrant, and is recorded in the collation table 310 (step S809).
The history management unit 527 selects a face area image obtained by cutting out the face area when the degree of direct view is the highest among the face area images recorded for the target person as a candidate face image, and the matching table shown in FIG. The candidate face image 319 is recorded in 310. The high degree of direct vision indicates that the target person is about to be authenticated and the face is directed toward the imaging unit 100 in the front direction, so that the registered face image can be updated to a face image suitable for collation.
Alternatively, the history management unit 527 selects a face area image obtained by cutting out the face area when the degree of stillness is the highest among the face area images recorded for the target person, and records the selected face area image in the collation data. But you can. When the degree of stillness is high, the target person may stop trying to be authenticated, or may be moving much slower than the normal walking speed. In such a case, the target person captures a face to be authenticated. There is a high possibility of being directed to the part 100. Therefore, by selecting the face area image at that time as a candidate face image, there is a high possibility that the registered face image can be updated to a front-facing face image suitable for collation.
Alternatively, the history management unit 527 selects a face area image having the highest degree of similarity to any registered face image from among the face area images recorded for the target person, and records the selected face area image in the collation data. But you can. In this case, the updating process in the registration unit 529 can be efficiently performed to update the registered face image.

以上説明してきたように、本発明を適用した顔画像認証装置10は、監視画像を順次取得し、その順次取得した複数の監視画像にわたって同一の人物の顔が写っている顔領域どうしを対応付ける。そして顔画像認証装置10は、現フレームの顔領域画像に写っている顔の向きと、監視画像における、複数の監視画像にわたって抽出された同一の人物の顔が写っている各顔領域の位置の変化から行動特徴量を算出し、認証結果とともに記録する。そして顔画像認証装置10は、行動特徴量からその人物が要望行動を取っているにもかかわらず認証失敗になることが頻発する場合に、その人物を認証困難者として検出する。これにより、顔画像認証装置10は、登録された顔画像が認証時に取得される顔領域画像と異なっているなどの理由で、認証困難な状態にある人物を、その人物の行動と認証履歴に基づいて早期に高精度に検出できる。そして、顔画像認証装置10の管理者は速やかに登録顔画像の更新の必要性を認識し、認証に適した、登録顔画像の更新に用いる顔を選択することができる。 As described above, the face image authentication apparatus 10 to which the present invention is applied sequentially acquires monitoring images, and associates face areas in which the same person's face is reflected across the sequentially acquired monitoring images. Then, the face image authentication device 10 determines the orientation of the face shown in the face area image of the current frame, and the position of each face area where the face of the same person extracted across the plurality of monitoring images is shown in the monitoring image. The behavior feature amount is calculated from the change and recorded together with the authentication result. Then, the face image authentication device 10 detects the person as a person who has difficulty in authentication when the authentication failure frequently occurs despite the person taking the desired action from the action feature amount. As a result, the face image authentication device 10 adds a person who is difficult to authenticate to the action and authentication history of the person because the registered face image is different from the face area image acquired at the time of authentication. Based on this, it can be detected with high accuracy early. Then, the administrator of the face image authentication apparatus 10 can quickly recognize the necessity of updating the registered face image and select a face used for updating the registered face image suitable for authentication.

以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。
例えば、判定手段528における、対象人物が認証困難者であるとの判断処理は、同一のグループ番号321が付与された対象人物についての認証失敗の回数に限られない。
判定手段528は、同一のグループ番号321が付与された履歴データのなかには、認証成功となった場合もある場合には、同一のグループ番号321が付与された総履歴データ数に対する認証失敗に終わった履歴データ数の割合を用いて、認証困難者であると判断することもできる。この場合、認証困難者であると判断するための閾値としては、例えば80%とすることができる。これにより、全く認証されない、とまでは言えないものの、認証失敗が高い割合で発生するので不便さを感じる利用者について、顔画像認証装置10の管理者は速やかに登録顔画像の更新の必要性を認識することができる。
The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments.
For example, the determination process in the determination unit 528 that the target person is a person who is difficult to authenticate is not limited to the number of authentication failures for the target person to which the same group number 321 is assigned.
The determination unit 528 has failed in the authentication for the total number of history data to which the same group number 321 is assigned in the case where the history data to which the same group number 321 is assigned may be successful. It can also be determined that the person is difficult to authenticate using the ratio of the number of history data. In this case, the threshold for determining that the person is difficult to authenticate may be 80%, for example. As a result, the administrator of the face image authentication apparatus 10 needs to promptly update the registered face image for users who feel inconvenience because authentication failure occurs at a high rate although authentication is not possible at all. Can be recognized.

あるいは、判定手段528は、各履歴データについて、試行の日時を参照し、直近の履歴データに限定して、認証失敗の回数を参照して、認証困難者であると判断してもよい。即ち、同一のグループ番号321が付与された履歴データについて、照合テーブル310の開始時刻313を参照して、直近の履歴データ数(例えば10)のうち、認証失敗となった履歴データが所定数(例えば8)以上の場合に、当該対象人物は認証困難者であると判定できる。これにより、化粧の好みや髪型の変化により認証成功の可否の傾向が変わった利用者について、顔画像認証装置10の管理者は過去よりも最近の認証結果を重視して登録顔画像の更新の必要性を認識することができる。 Alternatively, the determination unit 528 may determine that the individual is difficult to authenticate by referring to the date and time of the trial for each history data, limiting the number to the latest history data, and referring to the number of authentication failures. That is, with respect to history data to which the same group number 321 is assigned, referring to the start time 313 of the collation table 310, out of the most recent history data numbers (for example, 10), the history data that has failed in authentication is a predetermined number ( For example, in the case of 8) or more, it can be determined that the target person is a person who is difficult to authenticate. As a result, the administrator of the face image authenticating apparatus 10 places importance on the latest authentication result than the past and updates the registered face image for users whose authentication success tendency has changed due to changes in makeup preferences or hairstyles. The need can be recognized.

あるいは、判定手段528は、各履歴データについて、試行の日時を参照し、認証失敗になった試行の時間間隔が過去より短くなったことを参照して、認証困難者であると判断してもよい。即ち、判定手段528は、同一のグループ番号321が付与された履歴データについて、照合テーブル310の開始時刻313を参照して、直近の履歴参照期間(例えば現時点から遡った1週間)に含まれる履歴データと、過去(例えば3ヶ月前)の履歴参照期間に含まれる履歴データを比較し、認証失敗となった履歴データが過去より直近の履歴データに多く含まれていると、当該対象人物は認証困難者であると判定する。または履歴参照期間の長さを固定として、時間について移動平均を求めることにより、認証失敗となった履歴データが増加傾向にあることを検出して、当該対象人物は認証困難者であると判定する。この方法によっても、化粧の好みや髪型の変化により認証成功の可否の傾向が変わった利用者について、顔画像認証装置10の管理者は過去よりも最近の認証結果を重視して登録顔画像の更新の必要性を認識することができる。 Alternatively, the determination unit 528 refers to the date and time of the trial for each history data, and refers to the fact that the time interval of the trial that failed in authentication is shorter than the past, and determines that the person is difficult to authenticate. Good. That is, the determination unit 528 refers to the start time 313 of the collation table 310 for the history data to which the same group number 321 is assigned, and includes the history included in the latest history reference period (for example, one week retroactive from the present time). Compare the data with the historical data included in the historical reference period of the past (for example, 3 months ago), and if the historical data that has failed in authentication is included in the historical data most recently than the past, the target person is authenticated It is determined that the person is difficult. Alternatively, by fixing the length of the history reference period and obtaining a moving average over time, it is detected that the history data that has failed in authentication tends to increase, and the target person is determined to be a person with difficulty in authentication. . Even in this method, the administrator of the face image authentication apparatus 10 places importance on the authentication result more recent than the past for the user whose tendency of success or failure of authentication has changed due to a change in makeup preference or hairstyle. Recognize the need for updates.

あるいは、判定手段528は、図4に示す履歴データを参照することなく、顔照合手段523にて認証失敗との結果が得られた場合に、要望行動カウンタ318の値が閾値を超えていたら当該対象人物を認証困難者であると判定しても良い。この判定結果を、例えば表示部300を顔画像認証装置10が設置されたオフィスビルの管理センタに設置されたモニタ画面である場合に、その画面に警告メッセージ付きで表示することにより、顔画像認証装置10の管理者は、認証失敗との結果が得られたら直ちに登録顔画像の更新の必要性を認識することができる。 Alternatively, when the result of authentication failure is obtained by the face matching unit 523 without referring to the history data shown in FIG. 4, the determination unit 528 determines that the value of the desired action counter 318 exceeds the threshold value. The target person may be determined to be a person who is difficult to authenticate. For example, when the display unit 300 is a monitor screen installed in the management center of the office building in which the face image authentication apparatus 10 is installed, the determination result is displayed with a warning message on the screen, whereby the face image authentication is performed. The administrator of the apparatus 10 can recognize the necessity of updating the registered face image as soon as a result of authentication failure is obtained.

さらには、行動検出手段524は、カメラを直視しながら立ち止まったりゆっくり歩く対象人物を要望行動を取っている人物と判定するのではなく、単にカメラを直視している対象人物、または単に立ち止まったりゆっくり歩く対象人物を要望行動を取っている人物と判定してもよい。
その場合、行動検出手段524は、直視度と静止度のうちの何れか又は何れも算出し、直視度が直視度閾値以上である場合、または静止度が静止度閾値以上である場合に要望行動カウンタをインクリメントする。即ち、認証時間内において対象人物が撮像部に対して顔を略正面方向に向けていると判断される顔領域画像が所定の枚数以上である、または認証時間内において対象人物が略静止していると判断される時間が所定時間以上である場合に、行動検出手段524は、その対象人物は認証されようとしているものの認証されにくい状態にあると判定して要望行動カウンタをインクリメントする。
このときの直視度閾値又は静止度閾値は、直視度が直視度閾値以上であり、かつ静止度が静止度閾値以上である場合に要望行動カウンタをインクリメントする場合の直視度閾値又は静止度閾値と同じにしてもよい。あるいは、要望行動を取っていない人物を誤って検出することを抑制するため、このときの直視度閾値又は静止度閾値は、直視度が直視度閾値以上であり、かつ静止度が静止度閾値以上である場合に要望行動カウンタをインクリメントする場合の直視度閾値は静止度閾値より大きい値にしてもよい。
この場合も、顔画像認証装置10は、登録された顔画像が認証時に取得される顔領域画像と異なって認証失敗となることが多い人物を早期に、かつ高精度に検出でき、顔画像認証装置10の管理者は速やかに登録顔画像の更新の必要性を認識することができる。
Furthermore, the behavior detection unit 524 does not determine that the target person who stops or walks slowly while directly looking at the camera is the person who is taking the desired action, but is simply the target person who is directly looking at the camera, or simply stops or slowly The person to walk may be determined as the person taking the desired action.
In that case, the behavior detection unit 524 calculates either or both of the direct visibility and the static degree, and the desired behavior when the direct visibility is equal to or greater than the direct visibility threshold or when the static degree is equal to or greater than the static degree threshold. Increment the counter. That is, the number of face area images that are determined that the target person has his / her face facing the imaging unit within the authentication time is greater than or equal to a predetermined number, or the target person is substantially stationary within the authentication time. When the time determined to be present is equal to or longer than the predetermined time, the behavior detection unit 524 determines that the target person is about to be authenticated but is in a state where it is difficult to authenticate, and increments the desired behavior counter.
The direct vision threshold or the stillness threshold at this time is the direct visibility threshold or the stillness threshold when the desired action counter is incremented when the directivity is equal to or greater than the direct visibility threshold and the stillness is equal to or greater than the stillness threshold. It may be the same. Alternatively, in order to suppress erroneous detection of a person who has not taken the desired action, the directivity threshold or the staticity threshold at this time is such that the directivity is equal to or greater than the directivity threshold and the staticity is equal to or greater than the staticity threshold. When the desired action counter is incremented in this case, the direct visibility threshold may be larger than the staticity threshold.
Also in this case, the face image authentication apparatus 10 can detect a person who frequently fails in authentication unlike the face area image acquired at the time of authentication, with high accuracy, and can detect the face image authentication. The administrator of the apparatus 10 can quickly recognize the necessity of updating the registered face image.

以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。


As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.


100・・・撮像部
200・・・出力部
300・・・表示部
400・・・入力部
510・・・記憶部
520・・・照合部
524・・・行動検出手段
525・・・顔向き検出手段
526・・・静止検出手段
527・・・履歴検出手段
528・・・判定手段
529・・・登録手段
DESCRIPTION OF SYMBOLS 100 ... Imaging part 200 ... Output part 300 ... Display part 400 ... Input part 510 ... Memory | storage part 520 ... Collation part 524 ... Action detection means 525 ... Face direction detection Means 526 ... Stationary detection means 527 ... History detection means 528 ... Determination means 529 ... Registration means

Claims (6)

監視領域内の人物を撮影した監視画像を順次取得する撮像部と、
登録人物の顔画像である登録顔画像を予め記憶する記憶部と、
前記監視画像を用いて人物認証を行う照合部
を具備する顔画像認証装置であって、
前記照合部は、
前記監視画像から人物の顔を含む領域の画像を顔領域画像として抽出する顔検出手段と、
前記顔領域画像を用いて前記人物の顔向きを検出する顔向き検出手段と、
前記顔領域画像と前記登録顔画像を照合し、当該顔領域画像の人物が前記登録人物か否かの認証をする顔照合手段と、
前記顔照合手段が前記顔領域画像の人物は前記登録人物でないと認証し、かつ当該人物が認証されようとする所定の要望行動を取ったこととして少なくとも前記顔領域画像に写っている顔が前記撮像部に対して略正面方向を向いている前記顔領域画像の数が所定数以上であることを条件に当該人物を認証困難者と判定する判定手段と、
を有することを特徴とする顔画像認証装置。
An imaging unit that sequentially acquires a monitoring image obtained by photographing a person in the monitoring area;
A storage unit that stores in advance a registered face image that is a face image of a registered person;
A face image authentication device comprising a matching unit that performs person authentication using the monitoring image,
The collation unit
Face detection means for extracting an image of an area including a human face from the monitoring image as a face area image;
Face orientation detection means for detecting the face orientation of the person using the face area image;
A face collating means for collating the face area image with the registered face image and authenticating whether or not a person of the face area image is the registered person;
The face collating means authenticates that the person of the face area image is not the registered person, and at least a face shown in the face area image is that the person has taken a predetermined desired action to be authenticated. Determining means for determining that the person is a person who is difficult to authenticate on the condition that the number of the face area images facing substantially in front of the imaging unit is a predetermined number or more ;
A face image authentication apparatus characterized by comprising:
前記照合部は、取得した前記顔領域画像が略静止していることを検出する静止検出手段をさらに備え、
前記判定手段は、少なくとも前記顔領域画像が略静止している時間が所定時間以上であることを前記所定の要望行動としたことを特徴とする請求項1に記載の顔画像認証装置。
The collation unit further includes a stationary detection means for detecting that the acquired face area image is substantially stationary,
The face image authentication apparatus according to claim 1, wherein the determination unit determines that the predetermined desired action is that at least a time during which the face area image is substantially stationary is a predetermined time or more.
前記照合部は、順次取得する監視画像にて同一人物の前記顔領域画像を追跡する顔追跡手段をさらに備え、
前記静止検出手段は、前記顔領域画像の追跡位置が略静止していることを検出することを特徴とする請求項2に記載の顔画像認証装置。
The collation unit further includes face tracking means for tracking the face area image of the same person in the monitoring images acquired sequentially,
The face image authentication apparatus according to claim 2, wherein the stillness detection unit detects that the tracking position of the face area image is substantially stationary.
前記照合部は、前記顔領域画像と前記顔照合手段の認証結果とを対応付けて照合履歴として前記記憶部に記憶させる履歴管理手段をさらに備え、
前記判定手段は、前記照合履歴を参照して、同一の前記人物に関し前記登録人物ではないとの認証結果が履歴閾値以上であることを前記条件に追加した請求項1〜のいずれか1つに記載の顔画像認証装置。
The collation unit further includes a history management unit that associates the face area image with the authentication result of the face collation unit and stores it in the storage unit as a collation history,
The determination means refers to the verification history, any one of claims 1 to 3 was added to the condition that the same of the authentication result is not a the registered person relates person is above history threshold The face image authentication device described in 1.
前記照合部は、前記顔領域画像と前記顔照合手段の認証結果とを対応付けて照合履歴として前記記憶部に記憶させる履歴管理手段をさらに備え、
前記判定手段は、前記照合履歴を参照して、同一の前記人物に関し所定の履歴参照期間に含まれる前記登録人物ではないとの認証結果が増加傾向にあることを前記条件に追加した請求項1〜のいずれか1つに記載の顔画像認証装置。
The collation unit further includes a history management unit that associates the face area image with the authentication result of the face collation unit and stores it in the storage unit as a collation history,
The determination unit adds to the condition that, with reference to the verification history, an authentication result indicating that the same person is not the registered person included in a predetermined history reference period tends to increase. The face image authentication device according to any one of to 3 .
前記顔画像認証装置は、
表示部と、外部からの指示入力により前記登録顔画像を前記顔領域画像にて再登録する登録手段をさらに備え、
前記登録手段は、前記登録顔画像と、前記登録人物ではないとの認証結果の回数の多い順に前記顔領域画像を前記表示部に並べて表示させ、指示入力を受けた際に表示された前記登録顔画像を当該顔領域画像にて再登録することを特徴とした請求項1〜のいずれか1つに記載の顔画像認証装置。
The face image authentication device includes:
A display unit; and a registration unit that re-registers the registered face image with the face area image by an external instruction input;
The registration means displays the registered face image and the face area image side by side on the display unit in descending order of the number of authentication results indicating that the person is not a registered person, and the registration displayed when receiving an instruction input. face image authentication device according to the face image to one of claims 1 to 5 which is characterized in that to re-register in the face region image.
JP2011166999A 2011-07-29 2011-07-29 Face image authentication device Active JP5808974B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011166999A JP5808974B2 (en) 2011-07-29 2011-07-29 Face image authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011166999A JP5808974B2 (en) 2011-07-29 2011-07-29 Face image authentication device

Publications (2)

Publication Number Publication Date
JP2013030078A JP2013030078A (en) 2013-02-07
JP5808974B2 true JP5808974B2 (en) 2015-11-10

Family

ID=47787047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011166999A Active JP5808974B2 (en) 2011-07-29 2011-07-29 Face image authentication device

Country Status (1)

Country Link
JP (1) JP5808974B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6148064B2 (en) * 2013-04-30 2017-06-14 セコム株式会社 Face recognition system
JP6558064B2 (en) 2015-05-08 2019-08-14 富士ゼロックス株式会社 Authentication apparatus and image forming apparatus
JP6988160B2 (en) * 2017-05-17 2022-01-05 富士フイルムビジネスイノベーション株式会社 Information processing equipment and information processing programs
JP7299543B2 (en) * 2017-06-30 2023-06-28 キヤノンマーケティングジャパン株式会社 Information processing system, information processing method, program
JP7104291B2 (en) * 2017-06-30 2022-07-21 キヤノンマーケティングジャパン株式会社 Information processing system, information processing method, program
JP7208713B2 (en) * 2018-02-13 2023-01-19 キヤノン株式会社 Image analysis device and image analysis method
JP7511158B2 (en) 2020-03-27 2024-07-05 パナソニックIpマネジメント株式会社 Facial recognition system and method for updating registered facial images
CN111582047A (en) * 2020-04-15 2020-08-25 浙江大华技术股份有限公司 Face recognition verification passing method and related device thereof
CN112101296B (en) * 2020-10-14 2024-03-08 杭州海康威视数字技术股份有限公司 Face registration method, face verification method, device and system
CN113177795B (en) * 2021-06-10 2023-04-25 支付宝(杭州)信息技术有限公司 Identity identification method, device, equipment and medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4314016B2 (en) * 2002-11-01 2009-08-12 株式会社東芝 Person recognition device and traffic control device
JP4569190B2 (en) * 2004-06-24 2010-10-27 オムロン株式会社 Suspicious person countermeasure system and suspicious person detection device
JP2006099190A (en) * 2004-09-28 2006-04-13 Mitsubishi Electric Corp Entrance/exit management unit
JP2006099374A (en) * 2004-09-29 2006-04-13 Oki Electric Ind Co Ltd Biological information collation device and biological information collation system
JP4687058B2 (en) * 2004-10-04 2011-05-25 オムロン株式会社 Suspicious person judgment device
JP2009211556A (en) * 2008-03-05 2009-09-17 Fujitsu Ltd Biometric authentication apparatus
JP5042296B2 (en) * 2009-12-02 2012-10-03 本田技研工業株式会社 Gaze determination device

Also Published As

Publication number Publication date
JP2013030078A (en) 2013-02-07

Similar Documents

Publication Publication Date Title
JP5808974B2 (en) Face image authentication device
JP5730095B2 (en) Face image authentication device
US20240020980A1 (en) Active presence detection with depth sensing
US10679443B2 (en) System and method for controlling access to a building with facial recognition
JP6610906B2 (en) Activity detection method and device, and identity authentication method and device
KR102465532B1 (en) Method for recognizing an object and apparatus thereof
JP5390322B2 (en) Image processing apparatus and image processing method
JP2004213087A (en) Device and method for personal identification
Killioğlu et al. Anti-spoofing in face recognition with liveness detection using pupil tracking
JP5127531B2 (en) Image monitoring device
JP2006114018A (en) Security system
JP5766096B2 (en) Face image authentication device
JP2014178862A (en) Feature point extraction device
KR101640014B1 (en) Iris recognition apparatus for detecting false face image
JP2023063314A (en) Information processing device, information processing method, and recording medium
JP2015138449A (en) Personal authentication device, personal authentication method and program
JP7223303B2 (en) Information processing device, information processing system, information processing method and program
JP5955056B2 (en) Face image authentication device
JP5871765B2 (en) Face image authentication device
CN112311949B (en) Image forming apparatus, control method thereof, and storage medium storing computer program
JP5955057B2 (en) Face image authentication device
WO2021215015A1 (en) Authentication device, authentication method, and authentication program
JP2014086042A (en) Face authentication device
US20160188856A1 (en) Authentication device, authentication method, and non-transitory computer readable medium
JP5871764B2 (en) Face recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150910

R150 Certificate of patent or registration of utility model

Ref document number: 5808974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250