JP2006031387A - Image recognition device, image recognition method, image recognition program, and recording medium to which the image recognition program is recorded - Google Patents
Image recognition device, image recognition method, image recognition program, and recording medium to which the image recognition program is recorded Download PDFInfo
- Publication number
- JP2006031387A JP2006031387A JP2004209051A JP2004209051A JP2006031387A JP 2006031387 A JP2006031387 A JP 2006031387A JP 2004209051 A JP2004209051 A JP 2004209051A JP 2004209051 A JP2004209051 A JP 2004209051A JP 2006031387 A JP2006031387 A JP 2006031387A
- Authority
- JP
- Japan
- Prior art keywords
- collation
- individual
- data
- representative
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、画像データを処理して、当該画像データによって表される画像中に含まれる認識対象物を認識するための画像認識装置、画像認識方法、画像認識プログラム、およびこの画像認識プログラムを記録した記録媒体に関する。 The present invention processes image data and records an image recognition apparatus, an image recognition method, an image recognition program, and an image recognition program for recognizing a recognition object included in an image represented by the image data. Relates to the recording medium.
特定の区域への立ち入りを制限する場合、入口での個人認証が行われる。個人認証のために従来から用いられてきた装置の一つの例は、カード読取装置である。この場合、立ち入りが許可された者に予め磁気カードのような識別カードが配布される。立ち入り制限区域に立ち入ろうとする者は、入口に配置されたカード読取装置により、識別カードに記録された識別情報を読み取らせる。読み取られた識別情報が予め登録されている識別情報と一致すれば、立ち入りが許可され、入口に設置されたゲートが開かれるか、またはドアロックが解錠される。 When restricting access to specific areas, personal authentication is performed at the entrance. One example of an apparatus conventionally used for personal authentication is a card reader. In this case, an identification card such as a magnetic card is distributed in advance to those who are permitted to enter. A person who intends to enter the restricted access area causes the card reader arranged at the entrance to read the identification information recorded on the identification card. If the read identification information matches the identification information registered in advance, entry is permitted and the gate installed at the entrance is opened or the door lock is unlocked.
しかし、このようなシステムでは、カードの携行を忘れたり、カードを紛失したりすると、たとえ立ち入りが許可された者であっても、入場ができなくなる。また、カードの盗難により、セキュリティが容易に破られてしまうという問題もある。
個人認証のための従来の装置の他の例は、パスワード入力装置である。この場合、立ち入りが許可された者には、予めパスワードが教示される。立ち入り制限区域に入場しようとする者は、入口に配置されたパスワード入力装置からパスワードを入力する。その入力結果が予め登録されているパスワードと一致すれば、立ち入りが許可され、入口に設置されたゲートが開かれるか、ドアロックが解錠される。
However, in such a system, if a person forgets to carry a card or loses a card, even a person who is permitted to enter cannot enter. Another problem is that security is easily broken due to theft of the card.
Another example of a conventional device for personal authentication is a password input device. In this case, a password is taught in advance to those who are permitted to enter. A person who wants to enter the restricted access area inputs a password from a password input device arranged at the entrance. If the input result matches a pre-registered password, entry is permitted and the gate installed at the entrance is opened or the door lock is unlocked.
このシステムでは、カードの携行忘れや紛失のおそれはない。しかし、立ち入りが許可されている者がパスワードを失念してしまえば、やはりその者の入場が不可能になる。また、パスワードが漏洩すれば、セキュリティが破られてしまう。
最近では、人間の生体情報(バイオメトリクスデータ)を用いた個人認証技術の開発が盛んに行われている。生体情報を用いた個人認証であれば、前述のような問題はいずれも解消される。
With this system, there is no risk of forgetting or losing the card. However, if a person who is allowed access has forgotten his password, that person will not be able to enter. Also, if a password is leaked, security is broken.
Recently, personal authentication technology using human biometric information (biometric data) has been actively developed. If personal authentication using biometric information is used, all of the above-mentioned problems are solved.
生体情報を用いた個人認証技術には、指紋を利用するもの、虹彩を利用するもの、顔画像を利用するものなどがある。ところが、指紋を利用する場合には、指紋を予め登録しておく必要がある。そのため、抵抗感を持つ使用者が少なくない。また、虹彩を利用した個人認証のためには、使用者は、認証時に、カメラに極近接した位置に目の位置を合わさなければならない。したがって、使用者は、個人認証手続を強く意識することになり、煩わしさを感じることになる。顔画像を利用した個人認証にはこのような欠点がなく、抵抗感の少ない個人認証システムを構築できる可能性がある。 Personal authentication techniques using biometric information include those using fingerprints, those using irises, and those using facial images. However, when using a fingerprint, it is necessary to register the fingerprint in advance. Therefore, there are many users who have a sense of resistance. In addition, for personal authentication using an iris, the user must position his eyes at a position in close proximity to the camera at the time of authentication. Therefore, the user is strongly aware of the personal authentication procedure and feels annoyed. Personal authentication using face images does not have such disadvantages, and there is a possibility that a personal authentication system with less resistance can be constructed.
顔画像を用いた個人認証には、顔画像を認識するために、たとえばコンピュータシステムによって構成された画像認識装置が用いられる(特許文献1および特許文献2)。この画像認識装置は、立ち入り制限区域への入場が許可されている人物の顔画像の画像データまたはその画像データの特徴量データを照合データとして予め登録した照合データ記憶手段を備えている。さらに、画像認識装置は、認識対象の人物の顔画像を撮像して画像データに変換する撮像装置と、この撮像装置が出力する画像データと照合データ記憶手段の登録データとを照合する照合手段と、この照合手段による照合結果に基づいて認識結果を出力する判定手段とを有している。 For personal authentication using a face image, for example, an image recognition device configured by a computer system is used to recognize the face image (Patent Document 1 and Patent Document 2). This image recognition apparatus includes collation data storage means in which image data of a face image of a person permitted to enter a restricted access area or feature data of the image data is registered in advance as collation data. Further, the image recognition device includes an imaging device that captures a face image of a person to be recognized and converts the image into image data, a collation unit that collates image data output by the imaging device and registration data in the collation data storage unit, And determining means for outputting a recognition result based on the collation result by the collating means.
照合手段は、撮像装置によって撮像された顔画像と照合データ記憶手段に登録された照合データに対応する顔画像との類似度を演算する。判定手段は、演算された類似度を所定の認識しきい値と比較し、その類似度が認識しきい値を超える場合に、認識対象の人物が照合データ記憶手段に登録されている人物の一人と一致する旨の判定結果を出力する。
前述のような画像認識装置では、認識対象人物の撮像時の照明条件、認識対象人物の姿勢およびその表情のような変動要因が、認識精度に大きく影響する。そこで、照合データ記憶手段には、個々の登録人物について、変動要因を考慮した複数枚(たとえば、一人あたり50枚〜100枚)の画像に対応する照合データが予め登録される。
各人に対する登録画像枚数を増やすほど認識精度は高くなる。しかし、照合手段は、認識辞書に登録された全ての画像と撮像装置によって撮像された顔画像とを照合して類似度を求めるから、登録画像枚数の増加に伴って、認識処理に要する時間が長くなる。
In the image recognition apparatus as described above, variation factors such as the illumination conditions at the time of imaging of the person to be recognized, the posture of the person to be recognized, and the facial expression thereof greatly affect the recognition accuracy. Therefore, collation data corresponding to a plurality of images (for example, 50 to 100 images per person) in consideration of variation factors is registered in advance in the collation data storage unit.
The recognition accuracy increases as the number of registered images for each person increases. However, since the collating unit collates all images registered in the recognition dictionary with the face image captured by the imaging device to obtain the similarity, the time required for the recognition processing increases as the number of registered images increases. become longer.
その結果、使用者が認証手続きのために拘束される時間(立ち入り制限区域の入口での待ち時間)が長くなるから、抵抗感の少ない個人認証システムを構築できない。
つまり、認識対象人物の顔画像を、照合データ記憶手段に登録された全ての顔画像と照合する前述の先行技術では、認識精度の向上と、認識処理のための時間の短縮とが相反する要求となっていて、これらの両立を図ることができなかった。
As a result, the time during which the user is restrained for the authentication procedure (waiting time at the entrance of the restricted access area) becomes long, so that a personal authentication system with little resistance cannot be constructed.
In other words, in the above-described prior art in which the face image of the person to be recognized is collated with all the face images registered in the collation data storage means, there is a conflict between the improvement in recognition accuracy and the reduction in the time for recognition processing. Therefore, it was not possible to achieve both of these.
顔画像の認識に限らず、様々な外観を呈する対象物を画像認識する場合には、同様の問題があり、短時間で正確な画像認識を実現することが技術的課題となっていた。
そこで、この発明の目的は、短時間で精度の高い画像認識を実現することができる画像認識装置、画像認識方法、画像認識プログラムおよびそのプログラムを記録した記録媒体を提供することである。
When recognizing not only a face image but also an object having various appearances, there is a similar problem, and it has been a technical problem to realize accurate image recognition in a short time.
Accordingly, an object of the present invention is to provide an image recognition apparatus, an image recognition method, an image recognition program, and a recording medium on which the program is recorded, which can realize highly accurate image recognition in a short time.
前記の目的を達成するための請求項1記載の発明は、画像データを処理して、当該画像データに対応した画像中の認識対象物を認識するための画像認識装置であって、認識対象物が取り得る複数の個別外観に対応した複数の個別照合データが予め記憶された個別照合データ記憶手段と、前記複数の個別外観を代表する代表外観に対応した代表照合データを生成する代表照合データ生成手段と、処理対象の画像データと前記代表照合データ生成手段が生成する代表照合データとを照合し、当該画像データに対応した画像と前記代表照合データに対応した代表外観との類似度を演算する代表照合手段と、前記処理対象の画像データと前記個別照合データ記憶手段に記憶されている個別照合データとを照合し、当該画像データに対応した画像と当該個別照合データに対応した個別外観との類似度を演算するための個別照合手段と、前記代表照合手段によって演算された類似度に基づいて、前記個別照合データ記憶手段に記憶された複数の個別照合データを前記個別照合手段による照合対象とするか、この個別照合手段による照合対象から除外するかを定める個別照合制御手段とを含むことを特徴とする画像認識装置である。 In order to achieve the above object, an invention according to claim 1 is an image recognition apparatus for processing image data and recognizing a recognition object in an image corresponding to the image data. Individual collation data storage means in which a plurality of individual collation data corresponding to a plurality of individual appearances that can be taken are stored in advance, and representative collation data generation that generates representative collation data corresponding to a representative appearance representing the plurality of individual appearances And the image data to be processed and the representative collation data generated by the representative collation data generating means are collated, and the similarity between the image corresponding to the image data and the representative appearance corresponding to the representative collation data is calculated. Representative collation means, the image data to be processed and the individual collation data stored in the individual collation data storage means are collated, and the image corresponding to the image data Individual collation means for calculating the similarity with the individual appearance corresponding to the different collation data, and a plurality of individual collations stored in the individual collation data storage means based on the similarity calculated by the representative collation means An image recognition apparatus comprising: an individual collation control unit that determines whether data is to be collated by the individual collating unit or excluded from a collation target by the individual collating unit.
「類似度」とは、同一対象物である蓋然性(同一対象物らしさ)、または同種対象物である蓋然性(同種対象物らしさ)の度合いをいう。
この構成によれば、認識対象物の複数の外観を代表する代表外観に対応した代表照合データが生成され、この代表照合データと処理対象の画像データとが照合される。そして、代表外観と処理対象の画像との類似度に基づいて、個別外観を表す個別照合データと処理対象の画像データとの照合を行うかどうかが定められる。
“Similarity” refers to the probability of being the same object (likeness of the same object) or the probability of being the same kind of object (likeness of the same object).
According to this configuration, the representative collation data corresponding to the representative appearance representing the plurality of appearances of the recognition object is generated, and the representative collation data and the image data to be processed are collated. Then, based on the similarity between the representative appearance and the processing target image, it is determined whether or not to perform the verification between the individual verification data representing the individual appearance and the processing target image data.
これにより、高い類似度が得られる蓋然性の低い複数の個別照合データを、代表照合データと処理対象の画像データとの一回の照合処理によって照合対象から一括して除外できるから、照合演算回数を著しく少なくすることができる。とくに、認識対象物が未登録の物(個別照合データ記憶手段に個別照合データが記憶されていないもの)である場合には、代表照合データに対する照合処理のみで認識処理を終えることができる可能性がある。 As a result, a plurality of individual verification data with a low probability of obtaining a high degree of similarity can be collectively excluded from the verification target by a single verification process between the representative verification data and the image data to be processed. It can be significantly reduced. In particular, when the recognition object is an unregistered object (one in which individual collation data is not stored in the individual collation data storage means), there is a possibility that the recognition process can be completed only by the collation process on the representative collation data. There is.
請求項2記載の発明は、前記個別照合制御手段は、前記代表照合手段によって演算された類似度が所定のしきい値よりも大きいときに、前記処理対象の画像データと前記個別照合データ記憶手段に記憶されている複数の個別照合データとを前記個別照合手段によってそれぞれ照合させ、前記代表照合手段によって演算された類似度が前記しきい値以下のときは、前記照合データ記憶手段に記憶されている複数の個別照合データを前記個別照合手段による照合対象から除外するものであることを特徴とする請求項1記載の画像認識装置である。 According to a second aspect of the present invention, the individual collation control means is configured to detect the image data to be processed and the individual collation data storage means when the similarity calculated by the representative collation means is greater than a predetermined threshold value. When the similarity calculated by the representative verification unit is less than or equal to the threshold value, each of the individual verification data stored in is stored in the verification data storage unit. 2. The image recognition apparatus according to claim 1, wherein the plurality of individual collation data are excluded from collation targets by the individual collation means.
この構成によれば、処理対象の画像と代表外観との類似度が所定のしきい値を超えていれば、当該代表外観によって代表される複数の個別外観を表す個別照合データが、処理対象の画像データと照合される。すなわち、処理対象の画像と複数の個別外観との類似度が求められる。一方、代表外観と処理対象の画像との類似度が前記所定のしきい値以下のときには、当該代表外観によって代表される複数の個別照合データは、処理対象の画像データとの個別照合の対象から除外される。 According to this configuration, if the degree of similarity between the image to be processed and the representative appearance exceeds a predetermined threshold value, individual verification data representing a plurality of individual appearances represented by the representative appearance is processed. Matched with image data. That is, the similarity between the image to be processed and a plurality of individual appearances is obtained. On the other hand, when the similarity between the representative appearance and the image to be processed is equal to or less than the predetermined threshold value, the plurality of individual verification data represented by the representative appearance is the target of the individual verification with the image data to be processed. Excluded.
この場合、前記代表照合手段、個別照合手段および個別照合制御手段の機能は、具体的には、処理対象の画像データに対応した画像と代表照合データに対応した代表外観または個別照合データに対応した個別外観との類似度を演算する類似度演算手段と、この類似度演算手段による類似度演算の対象として、はじめに、代表照合データを選択し、次に、この代表照合データに対する類似度の演算結果が所定のしきい値を超えていることを条件に、個別照合データ記憶手段に記憶された複数の個別照合データを順次選択する照合候補選択手段とを含む構成によって実現することができる。 In this case, the functions of the representative collating means, the individual collating means, and the individual collating control means specifically correspond to the image corresponding to the image data to be processed and the representative appearance corresponding to the representative collating data or the individual collating data. Similarity calculation means for calculating the similarity to the individual appearance, and first, the representative collation data is selected as the target of similarity calculation by the similarity calculation means, and then the similarity calculation result for the representative collation data This can be realized by a configuration including collation candidate selection means for sequentially selecting a plurality of individual collation data stored in the individual collation data storage means on the condition that the value exceeds a predetermined threshold value.
「認識対象物」は、それ自体の外観が変化する物であってもよい。外観の変化の要因の例は、対象物自身の形態の変化(動的な変化や経年変化)、照度に依存する見かけ上の変化、付属物(眼鏡や化粧など)の有無による変化を含む。このような認識対象物の例は、動物(とくに人間)の顔および動物の体格を含む。「形態」とは、形状、模様もしくは色彩、またはこれらの任意の組み合わせを含む概念を意味する。 The “recognition object” may be an object whose appearance changes. Examples of changes in appearance include changes in the shape of the object itself (dynamic changes and secular changes), apparent changes depending on illuminance, and changes due to the presence or absence of accessories (such as glasses or makeup). Examples of such recognition objects include animal (especially human) faces and animal physiques. “Form” means a concept including shape, pattern or color, or any combination thereof.
また、認識対象物は、様々な外観を呈する同種物(一定の範囲で形態等が異なる物)であってもよい。このような認識対象物の例は、果物、空き瓶、自動車、機械部品、および航空機から見た地上の物体(建造物等)を含む。
処理対象の画像データは、静止画を表すものであってもよいし、動画を表すものであってもよい。静止画の画像データと照合される個別照合データは、認識対象物の外観の静止画に対応したものであることが好ましく、動画の画像データと照合される個別照合データは、認識対象物の外観の動画に対応したものであることが好ましい。むろん、静止画の画像データは、動画データから抽出(クリップ)した特定シーンの画像データであってもよい。
In addition, the recognition target object may be the same kind of object having various appearances (an object having a different form or the like within a certain range). Examples of such recognition objects include fruits, empty bottles, automobiles, machine parts, and ground objects (such as buildings) viewed from an aircraft.
The image data to be processed may represent a still image or a moving image. It is preferable that the individual collation data to be collated with the still image data corresponds to the still image of the appearance of the recognition object, and the individual collation data to be collated with the video image data is the appearance of the recognition object. It is preferable that the video corresponds to the video. Of course, the image data of the still image may be image data of a specific scene extracted (clip) from the moving image data.
処理対象の画像データは、認識対象物を撮像して画像データを出力する撮像装置(カメラ)から入力されてもよいし、メモリ、光ディスクその他の記録媒体に記録された画像データを再生する画像再生装置から入力されてもよく、通信によって取得されてもよい。
個別照合データ記憶手段に記憶される個別照合データは、認識対象物を予め撮像して得られた画像データであってもよいし、このような画像データから抽出された所定の特徴量データであってもよい。個別照合データ記憶手段には、認識対象物の様々な外観を予め撮像して得られた複数枚の画像に対応する個別照合データが記憶されていることが好ましい。
The image data to be processed may be input from an imaging device (camera) that captures the recognition object and outputs the image data, or image reproduction that reproduces image data recorded in a memory, an optical disk, or other recording medium. It may be input from a device or acquired by communication.
The individual collation data stored in the individual collation data storage means may be image data obtained by capturing an image of the recognition target in advance, or predetermined feature amount data extracted from such image data. May be. The individual collation data storage means preferably stores individual collation data corresponding to a plurality of images obtained by imaging various appearances of the recognition target object in advance.
代表照合データ生成手段が生成する代表照合データは、対応する複数の個別照合データの一部または全部に対して所定の代表値演算(たとえば平均値演算)を施して得られるデータであってもよい。また、代表照合データは、対応する複数の個別照合データから選択した代表的な1つの個別照合データであってもよい。個別照合データの場合と同じく、代表照合データは、画像データであってもよいし、画像データから抽出される特徴量データであってもよい。 The representative collation data generated by the representative collation data generation means may be data obtained by performing a predetermined representative value calculation (for example, average value calculation) on a part or all of the corresponding individual verification data. . The representative collation data may be one representative individual collation data selected from a plurality of corresponding individual collation data. As in the case of the individual verification data, the representative verification data may be image data or feature amount data extracted from the image data.
また、代表照合データ生成手段は、1つの認識対象物(たとえば同一人物)に対して1つの代表照合データを生成するものである必要はなく、1つの認識対象物に対して複数の代表照合データ(たとえば、眼鏡等の付属物の有無に対応した2つの代表照合データ)を生成するものであってもよい。
代表照合データ生成手段は、予め演算された代表照合データを記憶する代表照合データ記憶手段であってもよく、個別照合データ記憶手段に記憶された複数の個別照合データに対して演算を行って代表照合データを生成する代表照合データ演算手段であってもよい。
Further, the representative collation data generation means does not have to generate one representative collation data for one recognition object (for example, the same person), and a plurality of representative collation data for one recognition object. (For example, two representative collation data corresponding to the presence or absence of an accessory such as glasses) may be generated.
The representative collation data generation means may be a representative collation data storage means for storing representative collation data calculated in advance, and the representative collation data generation means performs a computation on a plurality of individual collation data stored in the individual collation data storage means. It may be representative collation data calculation means for generating collation data.
請求項3記載の発明は、画像データを処理して、当該画像データに対応した画像中の認識対象物を認識するための画像認識装置であって、認識対象物が取り得る複数の個別外観に対応した複数の個別照合データが、複数のグループ毎に分類して記憶された個別照合データ記憶手段と、この個別照合データ記憶手段に記憶された複数のグループの個別照合データをそれぞれ代表する複数の代表照合データを生成する代表照合データ生成手段と、処理対象の画像データと前記代表照合データが生成する複数の代表照合データとをそれぞれ照合し、当該画像データに対応した画像と前記複数の代表照合データにそれぞれ対応した複数の代表外観との類似度を演算する代表照合手段と、処理対象の画像データに対応した画像と前記個別照合データ記憶手段に記憶された個別照合データに対応した個別外観との類似度を演算するための個別照合手段と、前記代表照合手段によって前記複数の代表照合データに関してそれぞれ演算された類似度に基づいて、前記個別照合データ記憶手段に記憶された個別照合データの複数のグループのなかから、前記個別照合手段によって前記処理対象の画像データと照合すべき個別照合データのグループを選択し、選択されなかったグループの個別照合データを前記個別照合手段による照合対象から除外する個別照合制御手段とを含むことを特徴とする画像認識装置である。 The invention according to claim 3 is an image recognition apparatus for processing image data and recognizing a recognition object in an image corresponding to the image data, and having a plurality of individual appearances that the recognition object can take. A plurality of corresponding individual collation data is classified and stored for each of a plurality of groups, and a plurality of individual collation data representing a plurality of groups stored in the individual collation data storage means. Representative collation data generating means for generating representative collation data, image data to be processed and a plurality of representative collation data generated by the representative collation data, respectively, and an image corresponding to the image data and the plurality of representative collations Representative collating means for calculating the degree of similarity with a plurality of representative appearances respectively corresponding to the data, an image corresponding to the image data to be processed, and the individual collation data storage Individual collating means for calculating the similarity with the individual appearance corresponding to the individual collation data stored in the stage, and based on the similarity calculated for each of the plurality of representative collation data by the representative collating means, A group of individual collation data to be collated with the image data to be processed by the individual collation means is selected from among a plurality of groups of individual collation data stored in the individual collation data storage means, and An image recognition apparatus comprising: individual collation control means for excluding individual collation data from a collation target by the individual collation means.
この構成によれば、個別照合データ記憶手段には、複数の個別照合データがグループ毎に分類して記憶されており、各グループの個別照合データを代表する代表照合データが代表照合データ生成手段によって生成されるようになっている。そして、代表照合データと処理対象の画像データとの照合により、照合対象とすべき個別照合データと、照合対象から排除すべき個別照合データとが、グループ単位で分別されることになる。 According to this configuration, the individual collation data storage means stores a plurality of individual collation data classified for each group, and representative collation data representing the individual collation data of each group is represented by the representative collation data generation means. It is to be generated. Then, by collating the representative collation data with the image data to be processed, the individual collation data to be collated and the individual collation data to be excluded from the collation target are separated on a group basis.
このようにして、高い類似度が得られる蓋然性の低い複数の個別照合データを、代表照合データと処理対象の画像データとの一回の照合処理によって、グループ単位で一括して照合対象から除外できる。したがって、照合演算回数を著しく少なくすることができるので、多数枚の個別外観に対応した個別照合データを個別照合データ記憶手段に蓄積して認識精度の向上を図る場合でも、照合演算回数が著しく増大することがない。したがって、短時間の照合処理で正確な認識結果を得ることができる。 In this manner, a plurality of individual verification data with a low probability of obtaining a high degree of similarity can be collectively excluded from the verification target in units of groups by a single verification process between the representative verification data and the image data to be processed. . Therefore, the number of collation operations can be remarkably reduced, so that the number of collation operations can be significantly increased even when individual collation data corresponding to a large number of individual appearances are stored in the individual collation data storage means to improve recognition accuracy. There is nothing to do. Therefore, an accurate recognition result can be obtained by a short collation process.
複数の個別照合データのグループ分けは、同一対象物または同種対象物の個別照合データが同一グループに属するようになされていることが好ましい。つまり、たとえば、人物の顔画像が認識対象物である場合には、同一人の顔画像の個別照合データが同一グループに属し、各人の顔画像を代表する代表照合データが生成されることが好ましい。
同一対象物または同種対象物の個別照合データであっても、異なるグループに属するようにグループ分けを行うことが好ましい場合もある。たとえば、人物の顔画像が認識対象物である場合に、眼鏡等の付属物を装着した状態の顔画像の個別照合データと、付属物を装着していない状態の当該人物の顔画像の個別照合データとを別のグループに分類してもよい。また、同じ人物であっても、表情の種類毎に異なるグループに個別照合データを分類することも考えられる。
The grouping of the plurality of individual verification data is preferably performed so that the individual verification data of the same object or the same type of objects belong to the same group. That is, for example, when a person's face image is a recognition target, individual collation data of the same person's face image belongs to the same group, and representative collation data representing each person's face image is generated. preferable.
Even in the case of individual verification data of the same object or the same kind of object, it may be preferable to perform grouping so as to belong to different groups. For example, when a face image of a person is a recognition target, individual verification data of the face image with an accessory such as glasses and an individual verification of the face image of the person with no accessory attached Data may be classified into different groups. It is also conceivable to classify the individual verification data into different groups for each type of facial expression even for the same person.
その他、性別、年齢帯および人種のように、外観の傾向に関連のある特徴事項を指標として、個別照合データを分類することも考えられる。
さらに、個別照合データの分類(グルーピング)は、階層的に行ってもよい(複数階層分類)。具体的には、人物の顔画像が認識対象物である場合に、性別を第1階層(最上位階層)の分類指標とし、年齢帯を第2階層の分類指標とし、個人を第3階層の分類指標とし、付属物の有無、表情の傾向または照度の傾向を第4階層の分類指標とする分類を行ってもよい。この場合には、第1階層の分類に対応して、男性および女性の代表的な顔画像を表す代表照合データが代表照合データ生成手段によって生成される。また、第2階層の分類に対応して、年齢帯毎の男性および女性の代表的な顔画像を表す代表照合データが代表照合データ生成手段によって生成される。さらに、第3階層の分類に対応して、各人の複数の顔画像を代表する代表照合データが代表照合データ生成手段によって生成される。そして、第4階層の分類に対応して、付属物の有無、表情の傾向または照度の傾向などで分類した各人の顔画像毎の代表照合データが代表照合データ生成手段によって生成されることになる。むろん、前記の4階層の分類は一例にすぎず、これらのうちの任意の2階層のみを用いて、個別照合データの複数階層分類を行うこともできるし、さらに他の特徴事項を分類指標として導入して、5階層以上に個別照合データを分類してもよい。
In addition, it is also conceivable to classify the individual verification data by using, as an index, characteristic items related to the appearance tendency such as gender, age range, and race.
Further, the classification (grouping) of the individual verification data may be performed hierarchically (multi-level classification). Specifically, when a person's face image is a recognition target, gender is used as a classification index of the first hierarchy (topmost hierarchy), an age range is set as a classification index of the second hierarchy, and an individual is classified as a third hierarchy. Classification may be performed using the presence / absence of an accessory, the facial expression tendency, or the illuminance tendency as the classification index of the fourth layer. In this case, representative collation data representing representative face images of men and women is generated by the representative collation data generation means corresponding to the classification of the first hierarchy. In addition, representative collation data representing representative face images of men and women for each age range is generated by the representative collation data generation means corresponding to the classification of the second hierarchy. Further, representative collation data representing a plurality of face images of each person is generated by the representative collation data generation means in correspondence with the classification of the third hierarchy. Then, corresponding to the classification of the fourth hierarchy, representative collation data for each face image of each person classified by the presence / absence of an accessory, a tendency of facial expression or a tendency of illuminance is generated by the representative collation data generation means. Become. Of course, the above four-layer classification is only an example, and it is possible to classify multiple levels of individual verification data using only two of these, and to use other feature items as classification indices. It may be introduced to classify the individual verification data into five or more layers.
個別照合データを階層的に分類する場合には、上位階層における代表照合データと処理対象の画像データとの照合が先に行われることが好ましい。そして、当該上位階層の代表照合データに対して求められた類似度に基づき、この代表照合データに対応するグループの個別照合データを照合対象から除外すべきものとされたならば、その下位に属するグループの代表照合データと認識対象の画像データとの照合は省かれてもよい。このようにして、照合演算回数をさらに少なくすることができる。 When the individual verification data is classified hierarchically, it is preferable that the verification of the representative verification data in the upper hierarchy and the image data to be processed are performed first. Then, based on the similarity obtained for the representative collation data of the higher hierarchy, if the individual collation data of the group corresponding to this representative collation data should be excluded from the collation target, the group belonging to the lower group The collation between the representative collation data and the image data to be recognized may be omitted. In this way, the number of collation operations can be further reduced.
請求項4記載の発明は、前記個別照合制御手段が、前記代表照合手段によって演算された類似度が所定のしきい値よりも大きい代表照合データに対応するグループを選択して、このグループに属する個別照合データを前記個別照合手段による照合対象とし、残余のグループの個別照合データを前記個別照合手段による照合対象から除外するものであることを特徴とする請求項3記載の画像認識装置である。 According to a fourth aspect of the present invention, the individual collation control means selects a group corresponding to representative collation data whose similarity calculated by the representative collation means is greater than a predetermined threshold value, and belongs to this group. 4. The image recognition apparatus according to claim 3, wherein the individual collation data is a collation target by the individual collation means, and the individual collation data of the remaining group is excluded from the collation targets by the individual collation means.
この構成によれば、処理対象の画像と代表外観との類似度をしきい値と比較し、その比較結果に応じて、各グループの個別照合データに対して照合演算(類似度演算)を行うかどうかを分別できる。
この場合、前記代表照合手段、個別照合手段および個別照合制御手段の機能は、具体的には、処理対象の画像データに対応した画像と代表照合データに対応した代表外観または個別照合データに対応した個別外観との類似度を演算する類似度演算手段と、この類似度演算手段による類似度演算の対象として、はじめに、前記複数のグループに対応する代表照合データを順次選択し、次に、類似度の演算結果が所定のしきい値を超える代表照合データに対応したグループに属する複数の個別照合データを順次選択する照合候補選択手段とを含む構成によって実現することができる。
According to this configuration, the similarity between the image to be processed and the representative appearance is compared with a threshold value, and a matching operation (similarity calculation) is performed on the individual matching data of each group according to the comparison result. Whether or not
In this case, the functions of the representative collating means, the individual collating means, and the individual collating control means specifically correspond to the image corresponding to the image data to be processed and the representative appearance corresponding to the representative collating data or the individual collating data. First, the similarity calculation means for calculating the similarity to the individual appearance, and the similarity calculation by the similarity calculation means, first, representative matching data corresponding to the plurality of groups is sequentially selected, and then the similarity This can be realized by a configuration including collation candidate selection means for sequentially selecting a plurality of individual collation data belonging to a group corresponding to representative collation data whose calculation result exceeds a predetermined threshold value.
代表照合データに対して求められた類似度と比較されるしきい値は、一定値であってもよいし、たとえば、代表照合手段によって複数の代表外観に対応して求められた複数の類似度に対して所定の演算を行うことにより定められる値であってもよい。
請求項5記載の発明は、前記個別照合制御手段が、前記代表照合手段によって演算された類似度が上位所定順位以内または上位所定割合以内の値をとる代表照合データに対応するグループを選択して、このグループに属する個別照合データを前記個別照合手段による照合対象とし、残余のグループの個別照合データを前記個別照合手段による照合対象から除外するものであることを特徴とする請求項3または4記載の画像認識装置である。
The threshold value to be compared with the similarity obtained for the representative collation data may be a fixed value, for example, a plurality of similarities obtained corresponding to a plurality of representative appearances by the representative collation means. It may be a value determined by performing a predetermined calculation on.
According to a fifth aspect of the present invention, the individual verification control unit selects a group corresponding to representative verification data in which the similarity calculated by the representative verification unit takes a value within the upper predetermined rank or the upper predetermined ratio. 5. The individual collation data belonging to the group is set as a collation target by the individual collation means, and the individual collation data of the remaining group is excluded from the collation targets by the individual collation means. This is an image recognition apparatus.
つまり、個別照合制御手段は、たとえば、複数の代表照合データに対してそれぞれ求められる類似度を順位付け(ソート)し、上位の所定数または所定割合の範囲の代表照合データに対応するグループの個別照合データを照合対象とし、残余の代表照合データに対応する個別照合データは照合対象から除外する。この場合、上位所定順位以内または上位所定割合以内の類似度が抽出されるように、しきい値が設定されたものと把握することができる。 That is, for example, the individual collation control means ranks (sorts) the similarity obtained for each of a plurality of representative collation data, and individually selects the group corresponding to the representative collation data in the upper predetermined number or predetermined range. The verification data is used as a verification target, and the individual verification data corresponding to the remaining representative verification data is excluded from the verification target. In this case, it can be understood that the threshold value is set so that the similarity within the upper predetermined rank or the upper predetermined ratio is extracted.
この請求項5の特徴を請求項4の特徴と組み合わせることも可能である。たとえば、個別照合制御手段は、代表照合データに対して求められた類似度が前記所定順位以内または所定割合以内の値をとる場合であっても、その類似度が一定の下限しきい値以下の場合には、当該代表照合データに対応したグループの個別照合データを個別照合対象から除外するものであってもよい。 The feature of claim 5 can be combined with the feature of claim 4. For example, the individual collation control means, even when the similarity obtained for the representative collation data takes a value within the predetermined rank or within a predetermined ratio, the similarity is equal to or less than a certain lower threshold value. In this case, the individual verification data of the group corresponding to the representative verification data may be excluded from the individual verification targets.
請求項6記載の発明は、複数の個別照合データに対して前記個別照合手段によって演算された複数の類似度の最高値である最高類似度が所定の認識しきい値よりも大きいかどうかを判断する手段と、前記最高類似度が前記認識しきい値よりも大きい場合に、当該最高類似度の個別照合データに対応する認識結果を出力する認識結果出力手段と、前記最高類似度が前記認識しきい値以下の場合に、前記個別照合制御手段によって前記照合対象から除外された個別照合データの少なくとも一部を前記個別照合手段による照合対象に加え、この個別照合手段による個別照合処理を行わせる再個別照合制御手段とをさらに含むことを特徴とする請求項3ないし5のいずれかに記載の画像認識装置である。 According to a sixth aspect of the present invention, it is determined whether or not a maximum similarity that is a maximum value of a plurality of similarities calculated by the individual collating means for a plurality of individual collation data is greater than a predetermined recognition threshold value. And a recognition result output means for outputting a recognition result corresponding to the individual collation data of the highest similarity when the highest similarity is larger than the recognition threshold, and the highest similarity is recognized. When the threshold value is equal to or smaller than the threshold value, at least a part of the individual verification data excluded from the verification target by the individual verification control unit is added to the verification target by the individual verification unit, and the individual verification process by the individual verification unit is performed. 6. The image recognition apparatus according to claim 3, further comprising individual collation control means.
この構成によれば、処理対象の画像データとの間で最高の類似度が得られた個別照合データについて、その類似度(最高類似度)が所定の認識しきい値と比較される。最高類似度が認識しきい値を超える場合には、当該個別照合データに対応する認識結果が出力される。つまり、認識対象画像中に、その個別照合データに対応する認識対象物が含まれていると判定される。 According to this configuration, the similarity (maximum similarity) is compared with the predetermined recognition threshold for the individual collation data that has the highest similarity with the image data to be processed. When the highest similarity exceeds the recognition threshold value, a recognition result corresponding to the individual verification data is output. That is, it is determined that the recognition target image corresponding to the individual verification data is included in the recognition target image.
一方、最高類似度が前記認識しきい値以下の場合には、個別照合制御手段によって個別照合手段による照合対象から一旦除外された個別照合データが、照合対象として復活させられる。これにより、代表照合データとの照合結果に基づく個別照合データの除外に起因して画像認識が不可能となる事態を回避することができる。
請求項7記載の発明は、前記代表照合手段によって求められた複数の類似度を記憶する代表外観類似度記憶手段をさらに含み、前記再個別照合制御手段は、前記個別照合手段による照合対象から除外されている個別照合データのグループのうち、前記代表外観類似度記憶手段に記憶されている類似度が最も高い代表照合データに対応したグループの個別照合データを、前記個別照合手段による照合対象に加えるものであることを特徴とする請求項6記載の画像認識装置である。
On the other hand, when the highest similarity is not more than the recognition threshold value, the individual verification data once excluded from the verification target by the individual verification unit by the individual verification control unit is restored as the verification target. As a result, it is possible to avoid a situation in which image recognition becomes impossible due to the exclusion of the individual collation data based on the collation result with the representative collation data.
The invention according to claim 7 further includes a representative appearance similarity storage unit that stores a plurality of similarities obtained by the representative verification unit, and the re-individual verification control unit is excluded from a verification target by the individual verification unit. Among the groups of individual collation data that have been processed, the individual collation data of the group corresponding to the representative collation data having the highest similarity stored in the representative appearance similarity storage unit is added to the collation target by the individual collation unit The image recognition device according to claim 6, wherein the image recognition device is a device.
この構成によれば、複数のグループの個別照合データを代表する代表照合データと処理対象の画像データとの照合によって得られる複数の類似度が代表外観類似度記憶手段に記憶される。そして、個別照合データについての最高類似度が認識しきい値を超えていないときには、類似度の高い代表照合データから順に選択されて、その代表照合データに対応するグループに属する個別照合データが、個別照合対象として復活させられる。このような処理は、認識しきい値に達する個別照合データが見つかるまで繰り返し実行されることが好ましい。むろん、個別照合データ記憶手段に記憶されたすべての個別照合データについての個別照合が完了すれば、処理対象画像中に認識対象物が含まれていないと判定されて、画像認識処理が終了することになる。 According to this configuration, a plurality of similarities obtained by collating representative collation data representing individual collation data of a plurality of groups with image data to be processed are stored in the representative appearance similarity storage unit. When the maximum similarity for the individual verification data does not exceed the recognition threshold, the individual verification data belonging to the group corresponding to the representative verification data are selected in order from the representative verification data having the highest similarity. It is revived as a verification target. Such processing is preferably executed repeatedly until individual verification data that reaches the recognition threshold is found. Of course, if the individual collation for all the individual collation data stored in the individual collation data storage means is completed, it is determined that the recognition target object is not included in the processing target image, and the image recognition processing is ended. become.
このようにして、代表照合データと処理対象の画像データとの照合の結果として個別照合対象から除外されたグループ中から、効率的に、正解の個別照合データを見いだすことができる。
再個別照合制御手段によって個別認識対象に加えられる個別照合データは、照合対象から一旦除外された個別照合データのグループのうち代表外観に関する類似度が最高のグループの個別データを少なくとも含んでいればよい。すなわち、再個別照合制御手段によって個別照合対象として復活させられる個別照合データは、たとえば、上位所定順位以内または上位所定割合以内の類似度が得られた代表外観のグループに属するものであってもよい。
In this way, it is possible to efficiently find the correct individual collation data from the group excluded from the individual collation targets as a result of collation between the representative collation data and the processing target image data.
The individual collation data added to the individual recognition target by the re-individual collation control means only needs to include at least the individual data of the group having the highest similarity regarding the representative appearance among the groups of the individual collation data once excluded from the collation target. . That is, the individual collation data revived as an individual collation target by the re-individual collation control means may belong to a group of representative appearances having a similarity within the upper predetermined rank or the upper predetermined ratio, for example. .
請求項8記載の発明は、画像データを処理して、当該画像データに対応した画像中の認識対象物を認識するための画像認識方法であって、認識対象物が取り得る複数の個別外観に対応した複数の個別照合データが予め記憶された個別照合データ記憶手段を準備するステップと、前記複数の個別外観を代表する代表外観に対応した代表照合データを生成するステップと、処理対象の画像データと前記生成される代表照合データとを照合し、当該画像データに対応した画像と前記代表照合データに対応した代表外観との類似度を演算する代表照合ステップと、前記処理対象の画像データと前記個別照合データ記憶手段に記憶されている個別照合データとを照合し、当該画像データに対応した画像と当該個別照合データに対応した個別外観との類似度を演算するための個別照合ステップと、前記代表照合手段によって演算された類似度に基づいて、前記個別照合データ記憶手段に記憶された複数の個別照合データを前記個別照合ステップにおける照合対象とするか、この個別照合ステップによる照合対象から除外するかを定める個別照合対象選択ステップとを含むことを特徴とする画像認識方法である。 The invention according to claim 8 is an image recognition method for processing image data and recognizing a recognition object in an image corresponding to the image data, and having a plurality of individual appearances that the recognition object can take. A step of preparing an individual collation data storage means in which a plurality of corresponding individual collation data are stored in advance; a step of generating representative collation data corresponding to a representative appearance representing the plurality of individual appearances; and image data to be processed A representative collation step of collating the generated representative collation data with each other and calculating the similarity between the image corresponding to the image data and the representative appearance corresponding to the representative collation data, the image data to be processed, and the Similarity between the image corresponding to the image data and the individual appearance corresponding to the individual verification data by comparing with the individual verification data stored in the individual verification data storage means Whether to use a plurality of individual verification data stored in the individual verification data storage unit as a verification target in the individual verification step based on the individual verification step for calculating the similarity and the similarity calculated by the representative verification unit And an individual collation target selection step for determining whether to exclude from the collation target in the individual collation step.
この方法により、処理対象の画像データと代表照合データとの類似度に基づいて、当該画像データと複数の個別照合データとの照合の要否が判断されるから、照合が不要な複数の個別照合データを照合対象から一括して除外することができる。
より具体的には、請求項9に記載されているように、前記個別照合対象選択ステップは、前記代表照合ステップで演算された類似度が所定のしきい値よりも大きいときに、前記個別照合データ記憶手段に記憶されている複数の個別照合データを前記個別照合ステップにおける照合対象とし、前記代表照合ステップ演算された類似度が前記しきい値以下のときは、前記照合データ記憶手段に記憶されている複数の個別照合データを前記個別照合ステップにおける照合対象から除外するステップを含むことが好ましい。
By this method, whether or not the image data and the plurality of individual verification data need to be verified is determined based on the similarity between the processing target image data and the representative verification data. Data can be excluded from collation targets at once.
More specifically, as described in claim 9, the individual collation target selecting step includes the individual collation when the similarity calculated in the representative collation step is larger than a predetermined threshold value. A plurality of individual collation data stored in the data storage means are used as collation targets in the individual collation step, and when the similarity calculated in the representative collation step is equal to or less than the threshold value, it is stored in the collation data storage means. Preferably, the method further includes a step of excluding a plurality of individual verification data from the verification target in the individual verification step.
請求項10記載の発明は、画像データを処理して、当該画像データに対応した画像中の認識対象物を認識するための画像認識方法であって、認識対象物が取り得る複数の個別外観に対応した複数の個別照合データが、複数のグループ毎に分類して記憶された個別照合データ記憶手段を準備するステップと、この個別照合データ記憶手段に記憶された複数のグループの個別照合データをそれぞれ代表する複数の代表照合データを生成するステップと、処理対象の画像データと前記生成される複数の代表照合データとをそれぞれ照合し、当該画像データに対応した画像と前記複数の代表照合データにそれぞれ対応した複数の代表外観との類似度を演算する代表照合ステップと、処理対象の画像データに対応した画像と前記個別照合データ記憶手段に記憶された個別照合データに対応した個別外観との類似度を演算するための個別照合ステップと、前記代表照合ステップにおいて前記複数の代表照合データに関してそれぞれ演算された類似度に基づき、前記個別照合データ記憶手段に記憶された個別照合データの複数のグループのなかから、前記個別照合ステップにおいて前記処理対象の画像データと照合すべき個別照合データのグループを選択し、選択されなかったグループの個別照合データを前記個別照合ステップにおける照合対象から除外する個別照合対象選択ステップとを含むことを特徴とする画像認識方法である。 The invention according to claim 10 is an image recognition method for processing image data and recognizing a recognition object in an image corresponding to the image data, and having a plurality of individual appearances that the recognition object can take. A step of preparing individual collation data storage means in which a plurality of corresponding individual collation data are classified and stored for each group, and individual collation data of a plurality of groups stored in the individual collation data storage means, respectively The step of generating a plurality of representative collation data, the image data to be processed and the plurality of generated representative collation data are collated, respectively, and an image corresponding to the image data and the plurality of representative collation data are respectively identified. A representative collation step for calculating a similarity with a plurality of corresponding representative appearances, an image corresponding to the image data to be processed, and the individual collation data storage means An individual verification step for calculating the similarity with the individual appearance corresponding to the stored individual verification data, and the individual verification data based on the similarity calculated for each of the plurality of representative verification data in the representative verification step A group of individual collation data to be collated with the image data to be processed in the individual collation step is selected from a plurality of groups of individual collation data stored in the storage means, and individual collation data of the group not selected Including an individual collation target selection step of excluding from a collation target in the individual collation step.
この方法によれば、処理対象の画像データと代表照合データとの照合によって、個別照合を要する個別照合データと個別照合を要しない個別照合データとをグループ単位で分別することができる。これにより、個別照合データが多い場合でも、個別照合処理演算を少なく抑えることができるから、短時間で正確な画像認識処理が可能になる。
より具体的には、請求項11に記載されているように、前記個別照合対象選択ステップは、前記代表照合ステップにおいて演算された類似度が所定のしきい値よりも大きい代表照合データに対応するグループを選択して、このグループに属する個別照合データを前記個別照合ステップでの照合対象とし、残余のグループの個別照合データを前記個別照合ステップでの照合対象から除外するステップを含むことが好ましい。
According to this method, the individual verification data that requires individual verification and the individual verification data that does not require individual verification can be separated in groups by comparing the image data to be processed with the representative verification data. As a result, even when there is a large amount of individual collation data, it is possible to suppress the individual collation processing calculation to a small amount, thereby enabling accurate image recognition processing in a short time.
More specifically, as described in claim 11, the individual collation target selection step corresponds to representative collation data in which the similarity calculated in the representative collation step is larger than a predetermined threshold value. It is preferable to include a step of selecting a group, setting individual collation data belonging to this group as a collation target in the individual collation step, and excluding individual collation data of the remaining group from the collation target in the individual collation step.
また、請求項12に記載されているように、前記個別照合対象選択ステップは、前記代表照合ステップにおいて演算された類似度が上位所定順位以内または上位所定割合以内の値をとる代表照合データに対応するグループを選択して、このグループに属する個別照合データを前記個別照合ステップでの照合対象とし、残余のグループの個別照合データを前記個別照合ステップでの照合対象から除外するステップを含むことが好ましい。 In addition, as described in claim 12, the individual collation target selection step corresponds to representative collation data in which the similarity calculated in the representative collation step takes a value within the upper predetermined rank or the upper predetermined ratio. It is preferable to include a step of selecting a group to be selected, selecting individual collation data belonging to this group as a collation target in the individual collation step, and excluding individual collation data of the remaining group from a collation target in the individual collation step. .
請求項13記載の発明は、複数の個別照合データに対して前記個別照合ステップにおいて演算された複数の類似度の最高値である最高類似度が所定の認識しきい値よりも大きいかどうかを判断するステップと、前記最高類似度が前記認識しきい値よりも大きい場合に、当該最高類似度の個別照合データに対応する認識結果を出力するステップと、前記最高類似度が前記認識しきい値以下の場合に、前記個別照合対象選択ステップによって前記照合対象から除外された個別照合データの少なくとも一部を前記個別照合ステップでの照合対象に加える個別照合対象再選択ステップとをさらに含むことを特徴とする請求項10ないし12のいずれかに記載の画像認識方法である。 In a thirteenth aspect of the present invention, it is determined whether or not a maximum similarity that is a maximum value of the plurality of similarities calculated in the individual collating step for a plurality of individual collating data is greater than a predetermined recognition threshold value. A step of outputting a recognition result corresponding to the individual collation data of the highest similarity when the highest similarity is larger than the recognition threshold; and the highest similarity is equal to or less than the recognition threshold In this case, the method further includes an individual collation target reselecting step of adding at least a part of the individual collation data excluded from the collation target by the individual collation target selection step to the collation target in the individual collation step. An image recognition method according to any one of claims 10 to 12.
この方法により、個別照合データに関する最高類似度が認識しきい値を超えない場合には、個別照合対象から一旦除外された個別照合データがグループ単位で個別照合対象として復活させられる。これにより、代表照合データに関する照合処理によって正解の個別照合データが個別照合対象から排除されるような事態を回避して、確実な認識処理を実現できる。「正解の個別照合データ」とは、処理対象画像との類似度が認識しきい値を超える個別画像に対応するもの個別照合データである。 By this method, when the maximum similarity regarding the individual collation data does not exceed the recognition threshold value, the individual collation data once excluded from the individual collation target is restored as the individual collation target on a group basis. Accordingly, it is possible to avoid a situation in which correct individual verification data is excluded from the individual verification targets by the verification processing related to the representative verification data, thereby realizing a reliable recognition process. “Correct individual collation data” is individual collation data corresponding to individual images whose similarity to the processing target image exceeds the recognition threshold value.
請求項14記載の発明は、前記個別照合対象再選択ステップは、前記個別照合ステップでの照合対象から除外されている個別照合データのグループのうちで、代表照合ステップで演算された類似度が最も高い代表照合データに対応したグループの個別照合データを、前記個別照合ステップでの照合対象に加えるステップを含むことを特徴とする請求項13記載の画像認識方法である。 In the invention according to claim 14, in the individual collation target reselecting step, the similarity calculated in the representative collation step is the highest among the groups of individual collation data excluded from the collation targets in the individual collation step. 14. The image recognition method according to claim 13, further comprising a step of adding individual collation data of a group corresponding to high representative collation data to a collation target in the individual collation step.
この方法により、個別照合対象から一旦除外された個別照合データをグループ単位で復活させる際に、代表照合データに関して求められた類似度の高いグループが優先的に選択される。これにより、一旦除外された個別照合データのなかから、すみやかに正解の個別照合データを見つけ出すことができる。
請求項15記載の発明は、画像データを処理して、当該画像データに対応した画像中の認識対象物を認識するための画像認識装置としてコンピュータを動作させるためのコンピュータプログラムであって、前記コンピュータは、認識対象物が取り得る複数の個別外観に対応した複数の個別照合データが予め記憶された個別照合データ記憶手段を備え、前記コンピュータプログラムは、前記コンピュータを、前記複数の個別外観を代表する代表外観に対応した代表照合データを生成する代表照合データ生成手段、処理対象の画像データと前記代表照合データ生成手段が生成する代表照合データとを照合し、当該画像データに対応した画像と前記代表照合データに対応した代表外観との類似度を演算する代表照合手段、前記処理対象の画像データと前記個別照合データ記憶手段に記憶されている個別照合データとを照合し、当該画像データに対応した画像と当該個別照合データに対応した個別外観との類似度を演算するための個別照合手段、および前記代表照合手段によって演算された類似度に基づいて、前記個別照合データ記憶手段に記憶された複数の個別照合データを前記個別照合手段による照合対象とするか、この個別照合手段による照合対象から除外するかを定める個別照合制御手段として機能させるものであることを特徴とするコンピュータプログラムである。
By this method, when the individual collation data once excluded from the individual collation targets is restored in units of groups, a group having a high degree of similarity obtained with respect to the representative collation data is preferentially selected. As a result, correct individual verification data can be quickly found out of the individual verification data once excluded.
The invention according to claim 15 is a computer program for operating a computer as an image recognition device for processing image data and recognizing a recognition object in an image corresponding to the image data. Comprises individual collation data storage means in which a plurality of individual collation data corresponding to a plurality of individual appearances that can be taken by the recognition object are stored in advance, and the computer program represents the plurality of individual appearances. Representative collation data generating means for generating representative collation data corresponding to the representative appearance, image data to be processed and representative collation data generated by the representative collation data generation means are collated, and the image corresponding to the image data and the representative Representative collation means for calculating the similarity with the representative appearance corresponding to the collation data, the image data to be processed Individual collation means for collating the individual collation data stored in the individual collation data storage means, and calculating the similarity between the image corresponding to the image data and the individual appearance corresponding to the individual collation data; and Based on the similarity calculated by the representative collating unit, a plurality of individual collation data stored in the individual collation data storage unit are to be collated by the individual collating unit or excluded from collation targets by the individual collating unit. A computer program that functions as an individual collation control means for determining whether or not to perform.
このコンピュータプログラムをコンピュータ上で実行することにより、請求項1の画像認識装置を構成できる。
請求項16記載の発明は、前記個別照合制御手段は、前記代表照合手段によって演算された類似度が所定のしきい値よりも大きいときに、前記処理対象の画像データと前記個別照合データ記憶手段に記憶されている複数の個別照合データとを前記個別照合手段によってそれぞれ照合させ、前記代表照合手段によって演算された類似度が前記しきい値以下のときは、前記照合データ記憶手段に記憶されている複数の個別照合データを前記個別照合手段による照合対象から除外するものであることを特徴とする請求項15記載のコンピュータプログラムである。
By executing this computer program on a computer, the image recognition apparatus of claim 1 can be configured.
According to a sixteenth aspect of the present invention, when the similarity calculated by the representative verification unit is greater than a predetermined threshold, the individual verification control unit is configured to store the image data to be processed and the individual verification data storage unit. When the similarity calculated by the representative verification unit is less than or equal to the threshold value, each of the individual verification data stored in is stored in the verification data storage unit. 16. The computer program according to claim 15, wherein the plurality of individual verification data are excluded from the verification targets by the individual verification means.
このコンピュータプログラムをコンピュータ上で実行することにより、請求項2の画像認識装置を構成できる。
請求項17記載の発明は、画像データを処理して、当該画像データに対応した画像中の認識対象物を認識するための画像認識装置としてコンピュータを動作させるためのコンピュータプログラムであって、前記コンピュータは、認識対象物が取り得る複数の個別外観に対応した複数の個別照合データを複数のグループ毎に分類して記憶した個別照合データ記憶手段を備え、前記コンピュータプログラムは、前記コンピュータを、前記個別照合データ記憶手段に記憶された複数のグループの個別照合データをそれぞれ代表する複数の代表照合データを生成する代表照合データ生成手段、処理対象の画像データと前記代表照合データが生成する複数の代表照合データとをそれぞれ照合し、当該画像データに対応した画像と前記複数の代表照合データにそれぞれ対応した複数の代表外観との類似度を演算する代表照合手段、処理対象の画像データに対応した画像と前記個別照合データ記憶手段に記憶された個別照合データに対応した個別外観との類似度を演算するための個別照合手段、前記代表照合手段によって前記複数の代表照合データに関してそれぞれ演算された類似度に基づいて、前記個別照合データ記憶手段に記憶された個別照合データの複数のグループのなかから、前記個別照合手段によって前記処理対象の画像データと照合すべき個別照合データのグループを選択し、選択されなかったグループの個別照合データを前記個別照合手段による照合対象から除外する個別照合制御手段として機能させるものであることを特徴とするコンピュータプログラムである。
By executing this computer program on a computer, the image recognition apparatus of claim 2 can be configured.
The invention according to claim 17 is a computer program for operating a computer as an image recognition device for processing image data and recognizing a recognition object in an image corresponding to the image data, the computer Comprises individual collation data storage means for classifying and storing a plurality of individual collation data corresponding to a plurality of individual appearances that can be taken by the recognition target object for each of a plurality of groups, and the computer program Representative collation data generating means for generating a plurality of representative collation data representing the individual collation data of a plurality of groups stored in the collation data storage means, a plurality of representative collations generated by the image data to be processed and the representative collation data Data is collated, and the image corresponding to the image data and the plurality of representative collation data are Representative collating means for calculating the degree of similarity with a plurality of representative appearances respectively corresponding to the image, the similarity between the image corresponding to the image data to be processed and the individual appearance corresponding to the individual collation data stored in the individual collation data storage means Individual collating means for calculating the degree, and based on the similarity calculated for each of the plurality of representative collation data by the representative collating means, a plurality of groups of individual collation data stored in the individual collation data storage means Individual collation control for selecting a group of individual collation data to be collated with the image data to be processed by the individual collation means and excluding individual collation data of the unselected group from collation targets by the individual collation means A computer program characterized by functioning as a means.
このコンピュータプログラムをコンピュータ上で実行することにより、請求項3の画像認識装置を構成できる。
請求項18記載の発明は、前記個別照合制御手段は、前記代表照合手段によって演算された類似度が所定のしきい値よりも大きい代表照合データに対応するグループを選択して、このグループに属する個別照合データを前記個別照合手段による照合対象とし、残余のグループの個別照合データを前記個別照合手段による照合対象から除外するものであることを特徴とする請求項17記載のコンピュータプログラムである。
By executing this computer program on a computer, the image recognition apparatus of claim 3 can be configured.
According to an eighteenth aspect of the present invention, the individual verification control unit selects a group corresponding to representative verification data whose similarity calculated by the representative verification unit is larger than a predetermined threshold value, and belongs to this group. 18. The computer program according to claim 17, wherein the individual collation data is a collation target by the individual collation means, and the individual collation data of the remaining group is excluded from the collation targets by the individual collation means.
このコンピュータプログラムをコンピュータ上で実行することにより、請求項4の画像認識装置を構成できる。
請求項19記載の発明は、前記個別照合制御手段は、前記代表照合手段によって演算された類似度が上位所定順位以内または上位所定割合以内の値をとる代表照合データに対応するグループを選択して、このグループに属する個別照合データを前記個別照合手段による照合対象とし、残余のグループの個別照合データを前記個別照合手段による照合対象から除外するものであることを特徴とする請求項17または18記載のコンピュータプログラムである。
By executing this computer program on a computer, the image recognition apparatus of claim 4 can be configured.
According to a nineteenth aspect of the present invention, the individual verification control unit selects a group corresponding to representative verification data in which the similarity calculated by the representative verification unit takes a value within the upper predetermined rank or the upper predetermined ratio. 19. The individual collation data belonging to this group is set as a collation target by the individual collation means, and the individual collation data of the remaining group is excluded from the collation targets by the individual collation means. It is a computer program.
このコンピュータプログラムをコンピュータ上で実行することにより、請求項5の画像認識装置を構成できる。
請求項20記載の発明は、前記コンピュータプログラムは、前記コンピュータを、さらに、複数の個別照合データに対して前記個別照合手段によって演算された複数の類似度の最高値である最高類似度が所定の認識しきい値よりも大きいかどうかを判断する手段、前記最高類似度が前記認識しきい値よりも大きい場合に、当該最高類似度の個別照合データに対応する認識結果を出力する認識結果出力手段、前記最高類似度が前記認識しきい値以下の場合に、前記個別照合制御手段によって前記照合対象から除外された個別照合データの少なくとも一部を前記個別照合手段による照合対象に加え、この個別照合手段による個別照合処理を行わせる再個別照合制御手段として機能させるものであることを特徴とする請求項17ないし19のいずれかに記載のコンピュータプログラムである。
By executing this computer program on a computer, the image recognition apparatus of claim 5 can be configured.
In the invention according to claim 20, the computer program further has a maximum similarity that is a maximum value of a plurality of similarities calculated by the individual verification unit for a plurality of individual verification data. Means for judging whether or not the recognition threshold value is larger than a recognition threshold value, and when the highest similarity is larger than the recognition threshold value, a recognition result output means for outputting a recognition result corresponding to the individual matching data of the highest similarity degree When the highest similarity is less than or equal to the recognition threshold, at least a part of the individual verification data excluded from the verification target by the individual verification control unit is added to the verification target by the individual verification unit, and this individual verification The function as a re-individual collation control means for performing the individual collation processing by the means, Is a computer program according to.
このコンピュータプログラムをコンピュータ上で実行することにより、請求項6の画像認識装置を構成できる。
請求項21記載の発明は、前記コンピュータは、前記代表照合手段によって求められた複数の類似度を記憶する代表外観類似度記憶手段をさらに含み、前記再個別照合制御手段は、前記個別照合手段による照合対象から除外されている個別照合データのグループのうち、前記代表外観類似度記憶手段に記憶されている類似度が最も高い代表照合データに対応したグループの個別照合データを、前記個別照合手段による照合対象に加えるものであることを特徴とする請求項20記載のコンピュータプログラムである。
By executing this computer program on a computer, the image recognition apparatus of claim 6 can be configured.
The invention according to claim 21 is characterized in that the computer further includes representative appearance similarity storage means for storing a plurality of similarities obtained by the representative matching means, and the re-individual matching control means is based on the individual matching means. Among the individual collation data groups excluded from the collation target, individual collation data of the group corresponding to the representative collation data having the highest similarity stored in the representative appearance similarity storage unit is obtained by the individual collation unit. 21. The computer program according to claim 20, wherein the computer program is added to a verification target.
このコンピュータプログラムをコンピュータ上で実行することにより、請求項7の画像認識装置を構成できる。
請求項22記載の発明は、請求項15ないし21のいずれかに記載のコンピュータプログラムが記録されたコンピュータ読取可能な記録媒体である。
この記録媒体に記録されたコンピュータプログラムをコンピュータに実行させることにより、このコンピュータを前述のような画像認識装置として機能させることができる。
By executing this computer program on a computer, the image recognition apparatus of claim 7 can be configured.
A twenty-second aspect of the present invention is a computer-readable recording medium on which the computer program according to any of the fifteenth to twenty-first aspects is recorded.
By causing a computer to execute the computer program recorded on the recording medium, the computer can function as the image recognition apparatus as described above.
コンピュータプログラムは、どのような形式で記録媒体に記録されていてもよく、たとえば、圧縮した形式で記録されていてもよい。記録媒体には、磁気記録媒体、光記録媒体および光磁気記録媒体を含む任意の記録形式のものを適用できる。 The computer program may be recorded on the recording medium in any format, for example, may be recorded in a compressed format. As the recording medium, any recording format including a magnetic recording medium, an optical recording medium, and a magneto-optical recording medium can be applied.
以下では、この発明の実施の形態を、添付図面を参照して詳細に説明する。
図1は、この発明の一実施形態に係る個人認証システムの構成を示す図解的なブロック図である。この個人認証システムは、たとえば、立ち入り制限がされた特定の区域への入場管理のために用いられる。この個人認証システムは、当該立ち入り制限区域への入口に配置され、この入口に現れた者の顔画像を撮像する撮像装置としてのカメラ1と、このカメラ1にケーブル2を介して接続されたコンピュータ3と、入口に配置された表示器4と、入口に設置されたゲートを開閉(またはドアロックを解錠/施錠)するゲート開閉器7とを備えている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a schematic block diagram showing a configuration of a personal authentication system according to an embodiment of the present invention. This personal authentication system is used, for example, for entrance management to a specific area where entry is restricted. This personal authentication system is arranged at the entrance to the restricted access area, and has a camera 1 as an imaging device that captures a face image of a person appearing at the entrance, and a computer connected to the camera 1 via a cable 2. 3, a display 4 disposed at the entrance, and a gate switch 7 that opens and closes a gate installed at the entrance (or unlocks / locks the door lock).
コンピュータ3には、マンマシンインタフェースとしてのディスプレイ5および入力操作部6(たとえば、キーボードおよびマウス)が接続されている。表示器4は、たとえば、コンピュータ3からの指令信号を受けてメッセージを表示することができる二次元表示デバイスであってもよいし、たとえば、コンピュータ3によって制御される複数色のLEDランプを備えたランプ表示デバイスであってもよい。ゲート開閉器7は、コンピュータ3からの制御信号に応じて、ゲートを開閉(またはドアロックを解錠/施錠)し、入口に現れた者の入場を許可したり禁止したりする。 The computer 3 is connected to a display 5 as a man-machine interface and an input operation unit 6 (for example, a keyboard and a mouse). The display device 4 may be a two-dimensional display device that can display a message in response to a command signal from the computer 3, for example, and includes a plurality of color LED lamps controlled by the computer 3. It may be a lamp display device. The gate switch 7 opens and closes the gate (or unlocks / locks the door lock) in accordance with a control signal from the computer 3 to permit or prohibit entry of a person who appears at the entrance.
コンピュータ3は、CPU10、ROM11およびRAM12を備え、これらがバス13に接続された一般的な構成のものである。バス13には、さらに、外部記憶装置としてのハードディスクドライブ(HDD)14、記録媒体の一例であるCD−ROM8に記録されたデータを読み取ることができる記録媒体読取装置としてのCD−ROMドライブ15、ディスプレイ5の制御のためのディスプレイコントローラ16、および入力操作部6の制御のための入力部コントローラ17(たとえば、キーボードコントローラおよびマウスコントローラ)が接続されている。また、カメラ1から生成される撮像画像に対応した画像データを受け入れるための画像入力インタフェース部18、表示器4に制御信号を出力するための表示制御インタフェース部19、およびゲート開閉器7に制御信号を出力するためのゲート開閉制御インタフェース部20が、バス13に接続されている。 The computer 3 includes a CPU 10, a ROM 11 and a RAM 12, and has a general configuration in which these are connected to a bus 13. The bus 13 further includes a hard disk drive (HDD) 14 as an external storage device, a CD-ROM drive 15 as a recording medium reader capable of reading data recorded on a CD-ROM 8 which is an example of a recording medium, A display controller 16 for controlling the display 5 and an input unit controller 17 (for example, a keyboard controller and a mouse controller) for controlling the input operation unit 6 are connected. The image input interface unit 18 for receiving image data corresponding to the captured image generated from the camera 1, the display control interface unit 19 for outputting a control signal to the display 4, and the control signal to the gate switch 7 Is connected to the bus 13.
当該立ち入り制限区域への立ち入りが許可された者の顔画像は、たとえば、予めカメラ1によって撮像され、その顔画像に対応した個別照合データが予めハードディスクドライブ14内の所定の記憶領域である照合データ記憶部25に登録される。この照合データ記憶部25には、後述するように、各人の個別照合データを代表する代表照合データが併せて登録される。 The face image of the person permitted to enter the restricted access area is captured in advance by the camera 1, for example, and the individual verification data corresponding to the face image is a predetermined storage area in the hard disk drive 14 in advance. Registered in the storage unit 25. As will be described later, representative verification data representing individual verification data of each person is also registered in the verification data storage unit 25.
一方、入口に現れた者の画像は、カメラ1によって撮像される。撮像された画像を表す画像データは、コンピュータ3へと伝送され、この画像データからその者の顔画像データが抽出される。この抽出された顔画像データが、ハードディスクドライブ14の照合データ記憶部25に予め登録されている個別照合データと照合される。この照合の結果、個別照合データの形態で登録されたいずれかの顔画像と入口に現れた者の顔画像とが符合すれば、すなわち、両顔画像の類似度が予め定める認識しきい値を超えていれば、コンピュータ3は、ゲート開閉器7によってゲートを開き(またはドアロックを解錠し)、その者の入場を許可する。 On the other hand, an image of a person who appears at the entrance is captured by the camera 1. Image data representing the captured image is transmitted to the computer 3, and the person's face image data is extracted from the image data. The extracted face image data is collated with the individual collation data registered in advance in the collation data storage unit 25 of the hard disk drive 14. As a result of this collation, if any face image registered in the form of the individual collation data matches the face image of the person appearing at the entrance, that is, the recognition threshold value determined by the similarity between both face images is set in advance. If it exceeds, the computer 3 opens the gate (or unlocks the door lock) by the gate switch 7 and permits the person to enter.
コンピュータ3によるこのような働きを実現するためのコンピュータプログラムは、たとえば、記録媒体の一例であるCD−ROM8に記録されて提供されてもよい。この場合、このCD−ROM8をCD−ROMドライブ15に装填し、所定のインストール操作を行って、当該コンピュータプログラムをコンピュータ3にインストールすることによって、コンピュータ3は、前述のような機能を実現可能となる。 A computer program for realizing such an operation by the computer 3 may be provided by being recorded on a CD-ROM 8 which is an example of a recording medium. In this case, by loading the CD-ROM 8 into the CD-ROM drive 15, performing a predetermined installation operation, and installing the computer program in the computer 3, the computer 3 can realize the functions as described above. Become.
インストールされたそのコンピュータプログラムをコンピュータ3上で実行すると、たとえば、図2に示すような画面がディスプレイ5に表示される。前記コンピュータプログラムの実行中のコンピュータ3は、画像認識装置として動作し、立ち入りが許可された者の顔画像を登録するための登録モードと、カメラ1によって撮像された画像から顔画像を抽出して認識処理を行う認識モードとのいずれかのモードで動作する。 When the installed computer program is executed on the computer 3, for example, a screen as shown in FIG. The computer 3 executing the computer program operates as an image recognition device, extracts a face image from a registration mode for registering a face image of a person permitted to enter, and an image captured by the camera 1. It operates in one of the recognition modes for performing recognition processing.
前記立ち入り制限区域への立ち入りが許可された者の顔画像の個別照合データを照合データ記憶部25に登録するときには、操作者は、入力操作部6を操作して、コンピュータ3を登録モードで動作させる。この状態で、立ち入りが許可された者がカメラ1によって撮像される。このときにカメラ1から生成される画像データがコンピュータ3へと伝送され、RAM12内の記憶領域(必要に応じてさらにハードディスクドライブ14内の仮想メモリ領域)で構成される画像メモリ12aに格納される。さらに、その画像データから顔画像データが抽出される。この抽出された顔画像データに対応する個別照合データが照合データ記憶部25に登録される。個別照合データは、顔画像データ自体であってもよいし、顔画像データから抽出された所定の特徴量を表す特徴量データであってもよい。 When registering individual verification data of a face image of a person permitted to enter the restricted access area in the verification data storage unit 25, the operator operates the input operation unit 6 to operate the computer 3 in the registration mode. Let In this state, a person who is permitted to enter is imaged by the camera 1. At this time, the image data generated from the camera 1 is transmitted to the computer 3 and stored in the image memory 12a constituted by a storage area in the RAM 12 (and a virtual memory area in the hard disk drive 14 as necessary). . Further, face image data is extracted from the image data. Individual collation data corresponding to the extracted face image data is registered in the collation data storage unit 25. The individual verification data may be face image data itself or feature amount data representing a predetermined feature amount extracted from the face image data.
人間の顔画像は、表情によって様々に変化し、眼鏡のような付属物の有無によっても大きく変化するうえ、撮像条件(照度等)の影響も受ける。そこで、立ち入りが許可された者の個別照合データの登録時には、その者に様々な表情をさせて顔画像を撮像したり、付属物有りおよび付属物なしの状態でそれぞれ撮像を行ったり、様々な撮像条件での撮像を行ったりする。こうして、各人に対して複数枚(たとえば、50枚〜100枚)の顔画像が撮像され、個々の顔画像に対応した個別照合データが照合データ記憶部25に登録される。 Human face images change in various ways depending on facial expressions, change greatly depending on the presence or absence of accessories such as glasses, and are also affected by imaging conditions (such as illuminance). Therefore, when registering the individual verification data of a person who is allowed to enter, various facial expressions can be taken for the person, and a face image can be taken, and images can be taken with and without accessories. Imaging is performed under imaging conditions. In this way, a plurality of (for example, 50 to 100) face images are captured for each person, and individual matching data corresponding to each face image is registered in the matching data storage unit 25.
以下では、前述のようにして個別照合データの登録を終えた者を、「登録者」といい、個別照合データの登録をしていない者を「未登録者」という。
図3は、前記コンピュータプログラムの実行状態におけるコンピュータ3の機能的な構成を説明するためのブロック図である。コンピュータ3は、CPU10によって前記コンピュータプログラムを実行させることにより、このCPU10がROM11およびRAM12と協働することによって実現される複数の機能処理部を実質的に備えることになる。この複数の機能処理部は、カメラ1が生成した画像データから顔画像の領域を抽出して顔画像データを生成する顔画像検出部30と、この顔画像検出部30が抽出した顔画像データを予め登録された個別照合データと照合する顔認識処理部40とを備えている。
Hereinafter, a person who has completed the registration of the individual verification data as described above is referred to as a “registrant”, and a person who has not registered the individual verification data is referred to as an “unregistered person”.
FIG. 3 is a block diagram for explaining a functional configuration of the computer 3 in the execution state of the computer program. The computer 3 substantially includes a plurality of function processing units realized by the CPU 10 cooperating with the ROM 11 and the RAM 12 by causing the CPU 10 to execute the computer program. The plurality of function processing units extract a face image area from the image data generated by the camera 1 to generate face image data, and the face image data extracted by the face image detection unit 30. A face recognition processing unit 40 for collating with individual collation data registered in advance is provided.
顔画像検出部30は、入力画像データから顔画像領域を切り出し、さらに、サイズおよび傾き(左右の傾き)を正規化した顔画像データを被照合顔画像データとして出力する。切り出される顔画像領域は、たとえば、髪型の影響を受けにくく、かつ、発話時の顎の上下動の影響を受けにくい領域である。より具体的には、たとえば、左右方向に関しては両目尻の間を含み、上下方向に関しては眉から口元までの範囲を含む矩形領域が顔画像領域として切り出される。正規化された顔画像データは、たとえば、32画素×32画素の正方形画像に対応する。 The face image detection unit 30 cuts out a face image area from the input image data, and further outputs face image data normalized in size and inclination (left and right inclination) as face image data to be verified. The face image area to be cut out is an area that is not easily affected by the hairstyle and is not easily affected by the vertical movement of the jaw during speech. More specifically, for example, a rectangular region including the range from the eyebrows to the mouth is included as a face image region including the space between both eyes in the left-right direction and the range from the eyebrows to the mouth in the up-down direction. The normalized face image data corresponds to, for example, a square image of 32 pixels × 32 pixels.
顔認識処理部40は、被照合顔画像データといずれかの個別照合データとの間に一定程度以上の符合が見られれば、被照合顔画像データが当該個別照合データに対応する登録者の顔画像であると判定する。この場合、カメラ1によって撮像された者は登録者であると判定され、コンピュータ3は、ゲート開閉器7によってゲートを開き(または、ドアロックを解錠し)、その者の入場を許可する。一方、顔認識処理部40は、被照合顔画像データと一定程度以上の符合が見られる個別照合データが照合データ記憶部25に登録されていなければ、被照合顔画像は登録者の顔画像ではないと判定する。この場合、カメラ1によって撮像された者は未登録者であると判定され、コンピュータ3は、ゲート開閉器7によってゲートを閉状態に保持(または、ドアロックを施錠状態に保持)し、その者の入場を禁止する。 The face recognition processing unit 40, if a certain degree of agreement is found between the face image data to be collated and any individual collation data, the face of the registrant corresponding to the individual collation data corresponds to the face image data to be collated. Judged to be an image. In this case, it is determined that the person imaged by the camera 1 is a registered person, and the computer 3 opens the gate (or unlocks the door lock) by the gate switch 7 and permits the person to enter. On the other hand, the face recognition processing unit 40 determines that the face image to be checked is the face image of the registrant unless individual matching data that matches a certain degree of matching with the face image data to be checked is registered in the matching data storage unit 25. Judge that there is no. In this case, it is determined that the person imaged by the camera 1 is an unregistered person, and the computer 3 holds the gate in the closed state (or holds the door lock in the locked state) by the gate switch 7. Is prohibited from entering.
顔認識処理部40は、被照合顔画像と照合データ(個別照合データまたは代表照合データ)に対応した顔画像との類似度(同一人物らしさ)を演算する類似度演算部41と、照合データ記憶部25に登録されている照合データのうちいずれの照合データを照合対象とするかを選択する照合データ選択部42と、類似度演算部41によって演算された類似度を所定の認識しきい値と比較することによって被照合顔画像が登録者の顔画像かどうかを判断する判断部43とを有している。 The face recognition processing unit 40 calculates a similarity (similarity of person) between a face image to be verified and a face image corresponding to the verification data (individual verification data or representative verification data), and a verification data storage. A collation data selection unit 42 for selecting which collation data is to be collated among the collation data registered in the unit 25, and the similarity calculated by the similarity calculation unit 41 as a predetermined recognition threshold value. And a determination unit 43 that determines whether the face image to be compared is a face image of the registrant by comparing.
判断部43は、複数の個別照合データに対して求められた類似度のうちの最高値(最高類似度)が前記認識しきい値を超えていれば、被照合顔画像の人物が登録者であると判断し、そのことを表す認識結果データを出力する。認識結果データは、当該最高類似度の個別照合データに対応する登録者を特定するための情報(たとえば、当該登録者の氏名情報や登録番号情報)を含んでいてもよい。この認識結果データを受けて、表示器4には、認識結果が表示される。この表示は、単に、登録者である旨を表す表示であってもよく、登録者の特定情報(たとえば氏名)の表示であってもよい。 If the highest value (highest similarity) among the similarities obtained for the plurality of individual verification data exceeds the recognition threshold, the determination unit 43 determines that the person of the face image to be verified is a registrant. It is judged that there is, and recognition result data indicating that is output. The recognition result data may include information (for example, name information and registration number information of the registrant) for specifying the registrant corresponding to the individual matching data with the highest similarity. Receiving the recognition result data, the display unit 4 displays the recognition result. This display may simply be a display indicating that the user is a registrant, or may be a display of specific information (for example, name) of the registrant.
一方、類似度が前記認識しきい値を超える個別照合データが存在しなければ、判断部43は、被照合顔画像の人物が登録者でないと判断し、その旨を表す識別結果データが出力される。この場合、表示器4は、その人物の登録が確認できない旨を表示する。
類似度演算部41は、照合データ記憶部25に格納された照合データと、ハードディスクドライブ14内の記憶領域で構成された照合用辞書記憶部26に格納された照合用特徴辞書とに基づいて、被照合顔画像と登録された顔画像(照合データの形式で記憶されたもの)との類似度を演算する。照合用特徴辞書は、2つの画像の類似度を演算する際の指標となるデータ(照合用特徴データ)を一定のデータ構造で保持している。類似度演算部41は、照合用特徴辞書に保持された照合用特徴データに基づいて、被照合顔画像データから特徴量を抽出し、かつ照合データと照合する。
On the other hand, if there is no individual verification data whose similarity exceeds the recognition threshold value, the determination unit 43 determines that the person of the face image to be verified is not a registrant, and outputs identification result data indicating that fact. The In this case, the display 4 displays that the person's registration cannot be confirmed.
The similarity calculating unit 41 is based on the collation data stored in the collation data storage unit 25 and the collation feature dictionary stored in the collation dictionary storage unit 26 configured by the storage area in the hard disk drive 14. The similarity between the face image to be collated and the registered face image (stored in the form of collation data) is calculated. The matching feature dictionary holds data (matching feature data) serving as an index when calculating the similarity between two images in a fixed data structure. The similarity calculation unit 41 extracts a feature amount from the face image data to be collated based on the collation feature data held in the collation feature dictionary, and collates it with the collation data.
図4は、照合データ記憶部25における照合データの登録状態を説明するための図解図である。この図4には、m人の登録者があり、各登録者に対してn枚の顔画像に対応したn個の個別照合データを登録した例が示されている。より具体的には、個々の登録者に対して登録番号1,2,……,mが付与され、この登録番号にそれぞれ対応して、登録者の名前(名前1、名前2、……、名前m)と、各1個の代表照合データ(代表照合データ1、代表照合データ2、……、代表照合データm)と、各n個の個別照合データ(個別照合データ1−1,1−2,…,1−n;2−1,2−2,…,2−n;……;m−1,m−2,…,m−n)が登録されている。むろん、登録者毎に個別照合データの数が異なっていても差し支えない。 FIG. 4 is an illustrative view for explaining a registration state of collation data in the collation data storage unit 25. FIG. 4 shows an example in which there are m registrants and n individual verification data corresponding to n face images are registered for each registrant. More specifically, registration numbers 1, 2,..., M are assigned to individual registrants, and registrant names (name 1, name 2,. Name m), each representative collation data (representative collation data 1, representative collation data 2,..., Representative collation data m), and each n individual collation data (individual collation data 1-1, 1- 2, ..., 1-n; 2-1, 2-2, ..., 2-n; ...; m-1, m-2, ..., mn) are registered. Of course, the number of individual verification data may differ for each registrant.
各登録者の代表照合データは、当該登録者に対応したn個の個別照合データを代表する照合データである。より具体的には、各登録者の代表照合データは、当該登録者に対応して登録されたn個の個別照合データの平均値データであってもよい。
このような代表照合データは、個別照合データを照合データ記憶部25に登録する際に、CPU10などの働きによって自動で生成されて照合データ記憶部25に書き込まれてもよい。また、代表照合データは、登録される顔画像の画像データまたは個別照合データを用いた操作者の手動操作によって作成されたうえで、同じく操作者の手動操作によって照合データ記憶部25に書き込まれてもよい。
The representative collation data of each registrant is collation data representing n pieces of individual collation data corresponding to the registrant. More specifically, the representative collation data of each registrant may be average value data of n pieces of individual collation data registered corresponding to the registrant.
Such representative collation data may be automatically generated by the operation of the CPU 10 or the like and written to the collation data storage unit 25 when the individual collation data is registered in the collation data storage unit 25. The representative collation data is created by an operator's manual operation using registered face image data or individual collation data, and is also written into the collation data storage unit 25 by the operator's manual operation. Also good.
図5は、照合データ記憶部25における照合データの登録状態をより直感的に表した図である。この例では、9人の登録者A〜Iに対して、各1枚の代表顔画像データが代表照合データとして登録されており、さらに、各3枚の顔画像データが個別照合データとして登録されている。この例のように、各登録者に対して複数の顔画像データを個別照合データとして登録し、この複数の顔画像データの平均値演算によって得られる代表顔画像データを代表照合データとして登録してもよい。また、画像データ自体ではなく、類似度演算部41による類似度の演算に用いられる特徴量を予め個々の顔画像から抽出し、この特徴量を個別照合データとして照合データ記憶部25に登録しておき、各登録者に対する個別照合データ(特徴量)の平均値を代表照合データとして照合データ記憶部25に登録してもよい。 FIG. 5 is a diagram more intuitively showing the registration state of the collation data in the collation data storage unit 25. In this example, for each of nine registrants A to I, one representative face image data is registered as representative collation data, and each three face image data is registered as individual collation data. ing. As in this example, a plurality of face image data is registered as individual verification data for each registrant, and representative face image data obtained by calculating an average value of the plurality of face image data is registered as representative verification data. Also good. Also, instead of the image data itself, feature amounts used for similarity calculation by the similarity calculation unit 41 are extracted in advance from individual face images, and the feature amounts are registered in the verification data storage unit 25 as individual verification data. Alternatively, the average value of the individual verification data (feature value) for each registrant may be registered in the verification data storage unit 25 as representative verification data.
このように、照合データ記憶部25は、個別照合データを記憶する個別照合データ記憶手段、代表照合データを記憶する代表照合データ記憶手段(代表照合データ生成手段の一例)としての働きを有している。
図6は、顔認識処理部40による処理の一例を説明するためのフローチャートである。被照合顔画像データが顔認識処理部40に入力されると、照合データ選択部42は、照合データ記憶部25を参照して、登録者の代表照合データを順に選択する(ステップS1)。類似度演算部41は、照合データ選択部42によって選択された代表照合データに対応する代表顔画像と、被照合顔画像との類似度を演算し、RAM12内の代表類似度記憶領域12b(図1および図3参照。代表外観類似度記憶手段)に書き込む(ステップS2)。これらのステップS1およびS2で実行される機能が、本願発明の代表照合手段(代表照合ステップ)の機能に相当する。
As described above, the collation data storage unit 25 functions as individual collation data storage means for storing individual collation data and representative collation data storage means for storing representative collation data (an example of representative collation data generation means). Yes.
FIG. 6 is a flowchart for explaining an example of processing by the face recognition processing unit 40. When the face image data to be collated is input to the face recognition processing unit 40, the collation data selection unit 42 refers to the collation data storage unit 25 and sequentially selects the representative collation data of the registrant (step S1). The similarity calculation unit 41 calculates the similarity between the representative face image corresponding to the representative collation data selected by the collation data selection unit 42 and the face image to be collated, and the representative similarity storage area 12b (see FIG. 1 and Fig. 3. Write to representative appearance similarity storage means (step S2). The functions executed in these steps S1 and S2 correspond to the function of the representative verification unit (representative verification step) of the present invention.
こうして、照合データ記憶部25に登録されたすべての登録者の代表照合データに関して類似度が求まると、照合データ選択部42は、被照合顔画像データと照合すべき個別照合データを抽出するための処理を実行する(ステップS3)。この処理は、端的には、被照合顔画像データと明らかに符合しないと考えられる登録者の個別照合データを照合対象から除外するための処理であり、本願発明の個別照合制御手段(個別照合対象選択ステップ)の働きに相当する。 Thus, when the similarity is obtained for the representative collation data of all registrants registered in the collation data storage unit 25, the collation data selection unit 42 extracts individual collation data to be collated with the face image data to be collated. Processing is executed (step S3). This process is simply a process for excluding the individual collation data of the registrant who is considered to be clearly not coincident with the face image data to be collated from the collation target. This corresponds to the operation of the selection step.
照合対象の個別照合データを抽出するための処理内容の1つの具体例は、図7に示されている。この例では、照合データ選択部42は、代表照合データに対して求められた前記の類似度を所定の棄却しきい値と比較する(ステップS11)。照合データ選択部42は、類似度が前記棄却しきい値を超えない代表照合データに対応する登録者については、照合対象から除外(棄却)する(ステップS12)。つまり、その登録者に関して照合データ記憶部25に登録された複数の個別照合データが一括して棄却される。これにより、類似度が棄却しきい値を超える代表照合データに対応する登録者についてのみ、その個別照合データが照合対象とされる(ステップS13)。照合データ選択部42は、全ての代表照合データに関して同様な処理を行って(ステップS14)、照合対象の個別照合データの抽出を終了する。 One specific example of the processing content for extracting the individual collation data to be collated is shown in FIG. In this example, the collation data selection unit 42 compares the similarity obtained for the representative collation data with a predetermined rejection threshold (step S11). The matching data selection unit 42 excludes (rejects) the registrant corresponding to the representative matching data whose similarity does not exceed the rejection threshold (rejected) (step S12). That is, a plurality of individual verification data registered in the verification data storage unit 25 for the registrant are collectively rejected. As a result, only the registrant corresponding to the representative collation data whose similarity exceeds the rejection threshold value is subjected to collation (step S13). The collation data selection unit 42 performs the same process for all the representative collation data (step S14), and ends the extraction of the individual collation data to be collated.
照合対象の個別照合データを抽出するための処理の他の例は、図8に示されている。この例では、照合データ選択部42は、代表類似度記憶領域12bに記憶された全登録者の代表照合データを順位付け(ソート)し、(ステップS15)、上位の所定数または所定割合の登録者については、その個別照合データを照合対象として抽出する(ステップS16)。照合データ選択部42は、残余の登録者の各複数の個別照合データについては、一括して照合対象から除外する(ステップS17)。なお、この場合にも、上位所定数以内または上位所定割合以内の類似度のうち、所定の棄却しきい値を超えないものがあれば、そのような類似度に対応した登録者の個別照合データは照合対象から除外してもよい。 Another example of the process for extracting the individual collation data to be collated is shown in FIG. In this example, the collation data selection unit 42 ranks (sorts) the representative collation data of all registrants stored in the representative similarity storage area 12b (step S15), and registers a predetermined number or a predetermined ratio of the higher rank. For the person, the individual collation data is extracted as a collation target (step S16). The collation data selection unit 42 collectively excludes the plurality of individual collation data of the remaining registrants from the collation target (step S17). In this case as well, if there is a similarity within the upper predetermined number or within the upper predetermined ratio that does not exceed the predetermined rejection threshold, the individual verification data of the registrant corresponding to such similarity May be excluded from verification targets.
照合データ選択部42は、このようにして抽出された一部の登録者の個別照合データを、類似度演算部41による照合演算の対象として、1つずつ順次選択する(図6のステップS4)。類似度演算部41は、選択された個別照合データに対応する顔画像と、被照合顔画像との類似度を演算する。こうして、照合データ選択部42によって抽出された個別照合データのすべてに関して類似度の演算が行われる(ステップS5)。演算された類似度は、RAM12内の個別類似度記憶領域12cに書き込まれる。このように、ステップS4およびS5で実行される機能が、本願発明の個別照合手段(個別照合ステップ)の機能に相当する。 The collation data selection unit 42 sequentially selects the individual collation data of a part of the registrants extracted in this way one by one as the target of the collation calculation by the similarity calculation unit 41 (step S4 in FIG. 6). . The similarity calculation unit 41 calculates the similarity between the face image corresponding to the selected individual verification data and the face image to be verified. Thus, the similarity is calculated for all the individual verification data extracted by the verification data selection unit 42 (step S5). The calculated similarity is written in the individual similarity storage area 12 c in the RAM 12. Thus, the function executed in steps S4 and S5 corresponds to the function of the individual verification means (individual verification step) of the present invention.
次に、判断部43は、個別類似度記憶領域12cを参照して、演算された類似度の最高値(最高類似度)を検索する(ステップS6)。そして、判断部43は、この検索された最高類似度を所定の認識しきい値と比較する(ステップS7)。その結果、その最高類似度が認識しきい値を超えていれば(ステップS6のYES)、判断部43は、被照合顔画画像が登録者の顔画像であると判定し、当該最高類似度の個別照合データに対応する登録者を被照合顔画像の人物であると特定する(ステップS8)。一方、当該最高類似度が前記認識しきい値以下であるときには、被照合顔画像の人物は未登録であると判定する(ステップS9)。判断部43による前記ステップS8の機能は、本願発明の認識結果出力手段の機能に相当する。 Next, the determination unit 43 refers to the individual similarity storage area 12c and searches for the highest value (highest similarity) of the calculated similarity (step S6). Then, the determination unit 43 compares the retrieved maximum similarity with a predetermined recognition threshold value (step S7). As a result, if the highest similarity exceeds the recognition threshold value (YES in step S6), the determination unit 43 determines that the collated face image is a registrant's face image, and the highest similarity is determined. The registrant corresponding to the individual collation data is identified as the person of the face image to be collated (step S8). On the other hand, when the highest similarity is not more than the recognition threshold value, it is determined that the person of the face image to be verified is not registered (step S9). The function of step S8 by the determination unit 43 corresponds to the function of the recognition result output means of the present invention.
このようにして、被照合顔画像データと代表照合データとの照合によって照合対象の個別照合データを絞ることができる。これにより、被照合顔画像データと個別照合データとの照合演算を大幅に削減することができ、認識処理に要する時間を大幅に短縮することができる。また、登録者一人あたりの個別照合データの数を増やして認識精度の向上を図る場合にも、認識に要する時間が大幅に増加することがない。したがって、短時間の処理で正確に顔画像を認識できるようになる。 In this way, the individual collation data to be collated can be narrowed down by collating the face image data to be collated with the representative collation data. Thereby, the collation calculation of the face image data to be collated and the individual collation data can be greatly reduced, and the time required for the recognition process can be greatly shortened. Also, when the number of individual verification data per registrant is increased to improve recognition accuracy, the time required for recognition does not increase significantly. Therefore, the face image can be accurately recognized by a short time process.
図9は、顔認識処理部40による処理の他の例を説明するためのフローチャートである。被照合顔画像データが顔認識処理部40に入力されると、照合データ選択部42は、照合データ記憶部25を参照して、登録者の代表照合データを順に選択する(ステップS21)。類似度演算部41は、照合データ選択部42によって選択された代表照合データに対応する代表画像と被照合顔画像との類似度を演算し、代表類似度記憶領域12bに書き込む(ステップS22)。これらのステップS21およびS22で実行される機能が、本願発明の代表照合手段(代表照合ステップ)の機能に相当する。 FIG. 9 is a flowchart for explaining another example of processing by the face recognition processing unit 40. When the face image data to be collated is input to the face recognition processing unit 40, the collation data selection unit 42 refers to the collation data storage unit 25 and sequentially selects the representative collation data of the registrant (step S21). The similarity calculation unit 41 calculates the similarity between the representative image corresponding to the representative collation data selected by the collation data selection unit 42 and the face image to be collated, and writes it in the representative similarity storage area 12b (step S22). The functions executed in these steps S21 and S22 correspond to the function of the representative verification means (representative verification step) of the present invention.
こうして、照合データ記憶部25に登録されたすべての登録者の代表照合データに関して類似度が求まると、照合データ選択部42は、照合すべき個別照合データを抽出するための処理を実行する。この処理は、端的には、被照合顔画像データと明らかに符合しないと考えられる登録者の個別照合データを照合対象から除外するための処理である。
より具体的には、照合データ選択部42は、前記代表類似度記憶領域12bを参照して、全登録者の代表照合データを類似度によって降順にソートする(ステップS23)。さらに、照合データ選択部42は、類似度の順序に従って、登録者を複数のグループに分ける(ステップS24)。たとえば、図5の例のような照合データが照合データ記憶部25に登録されているとすると、類似度が上位の3人を第1グループに分類し、類似度が中位の3人を第2グループに分類し、類似度が下位の3人を第3グループに分類してもよい。むろん、類似度に基づく登録者のグループ分けは、複数のグループ間で人数が等しくなるようにする必要はない。
Thus, when the similarity is obtained for the representative collation data of all registrants registered in the collation data storage unit 25, the collation data selection unit 42 executes a process for extracting individual collation data to be collated. This process is simply a process for excluding the individual collation data of the registrant who is considered not to agree with the face image data to be collated, from the collation target.
More specifically, the collation data selection unit 42 refers to the representative similarity storage area 12b and sorts the representative collation data of all registrants in descending order according to the similarity (step S23). Furthermore, the collation data selection part 42 divides a registrant into a some group according to the order of similarity (step S24). For example, if collation data as in the example of FIG. 5 is registered in the collation data storage unit 25, the three people with the highest similarity are classified into the first group, and the three people with the middle similarity are the first. You may classify | categorize into 2 groups and classify 3 people with low similarity into a 3rd group. Of course, the grouping of registrants based on similarity does not have to be equal among a plurality of groups.
照合データ選択部42は、さらに、最上位のグループ(たとえば前述の第1グループ)の登録者の個別照合データを照合対象として抽出し(ステップS25)、他のグループ(前述の例では第2および第3グループ)の登録者の個別照合データは、暫定的に、照合対象から除外する(ステップS26)。これらのステップS25,26の処理は、本願発明の個別照合制御手段(個別照合対象選択ステップ)の機能に対応する。 The collation data selection unit 42 further extracts the individual collation data of the registrant of the highest group (for example, the first group described above) as a collation target (step S25), and the other groups (second and second in the above example). Individual collation data of registrants of the third group is provisionally excluded from collation targets (step S26). The processing of these steps S25 and 26 corresponds to the function of the individual collation control means (individual collation target selection step) of the present invention.
照合データ選択部42は、このようにして抽出された最上位のグループの登録者の個別照合データを照合対象として、1つずつ順次選択する(ステップS27)。類似度演算部41は、選択された個別照合データに対応する顔画像と、被照合顔画像との類似度を演算する。こうして、最上位のグループの登録者の個別照合データのすべてに関して類似度の演算が行われる(ステップS28)。演算された類似度は、RAM12内の個別類似度記憶領域12cに書き込まれる。これらのステップS27,28の処理は、本願発明の個別照合手段(個別照合ステップ)の機能に相当する。 The collation data selection unit 42 sequentially selects the individual collation data of the registrants of the highest group extracted in this manner one by one as a collation target (step S27). The similarity calculation unit 41 calculates the similarity between the face image corresponding to the selected individual verification data and the face image to be verified. Thus, the similarity is calculated for all the individual collation data of the registrants in the highest group (step S28). The calculated similarity is written in the individual similarity storage area 12 c in the RAM 12. The processing of these steps S27 and 28 corresponds to the function of the individual verification means (individual verification step) of the present invention.
次に、判断部43は、個別類似度記憶領域12cを参照して、演算された類似度の最大値(最高類似度)を検索する(ステップS29)。そして、この検索された最高類似度を所定の認識しきい値と比較する(ステップS30)。その結果、その最高類似度が認識しきい値を超えていれば(ステップS30のYES)、判断部43は、被照合顔画像が登録者の顔画像であると判定し、当該最高類似度の個別照合データに対応する登録者を、被照合顔画像の人物であると特定する(ステップS31)。このステップS31の処理は、本願発明の認識結果出力手段の機能に相当する。 Next, the determination unit 43 refers to the individual similarity storage area 12c and searches for the maximum value (highest similarity) of the calculated similarity (step S29). Then, the retrieved maximum similarity is compared with a predetermined recognition threshold (step S30). As a result, if the maximum similarity exceeds the recognition threshold value (YES in step S30), the determination unit 43 determines that the face image to be verified is a registrant's face image, and determines the highest similarity. The registrant corresponding to the individual verification data is specified as the person of the face image to be verified (step S31). The processing in step S31 corresponds to the function of the recognition result output means of the present invention.
一方、当該最高類似度が前記認識しきい値以下であるときには(ステップS30のNO)、照合データ選択部42は、照合データ記憶部25に登録されている全登録者に関して個別照合データの照合が完了したかどうかを判断する(ステップS32)。この判断は、登録者を代表照合データの類似度の大小によって分類した前記の全てのグループに関して照合処理を完了したかどうかの判断と等価である。いずれかの登録者についての照合処理が未完了である場合には(ステップS32のNO)、照合データ選択部42は、暫定的に候補から除外していたグループ中で最も最上位のグループ(すなわち、次位のグループ。たとえば前述の例では第2グループ)に属する登録者を照合対象候補とし、ステップS27からの処理を繰り返す。すなわち、当該次位のグループの登録者の個別照合データが順次選択される。このステップS33の処理は、本願発明における再個別照合制御手段(個別照合対象再選択ステップ)の機能に相当する。 On the other hand, when the highest similarity is equal to or less than the recognition threshold value (NO in step S30), the collation data selection unit 42 collates the individual collation data for all registrants registered in the collation data storage unit 25. It is determined whether or not it has been completed (step S32). This determination is equivalent to the determination of whether or not the collation processing has been completed for all the groups in which the registrant is classified according to the similarity of the representative collation data. When the collation process for any registrant is not completed (NO in step S32), the collation data selection unit 42 is the highest group among the groups that have been temporarily excluded from the candidates (that is, The registrant belonging to the next group (for example, the second group in the above example) is set as a candidate for collation, and the processing from step S27 is repeated. That is, the individual verification data of the registrants of the next group are sequentially selected. The process of step S33 corresponds to the function of the re-individual collation control means (individual collation target reselection step) in the present invention.
前述の場合と同様に、類似度演算部41は、選択された個別照合データに対応する顔画像と、被照合顔画像との類似度を演算する。こうして、次位のグループの登録者の照合データのすべてに関して類似度の演算が行われる(ステップS28)。
次に、判断部43は、演算された類似度の最高値(最高類似度)を検索する(ステップS29)。そして、この検索された最高類似度を前記認識しきい値と比較する(ステップS30)。その結果、その最大の類似度が認識しきい値を超えていれば、当該類似度の個別照合データに対応した登録者を、被照合顔画像の人物であると特定する(ステップS31)。
Similar to the case described above, the similarity calculation unit 41 calculates the similarity between the face image corresponding to the selected individual verification data and the face image to be verified. Thus, the similarity is calculated for all the collation data of the registrants of the next group (step S28).
Next, the determination unit 43 searches for the highest calculated similarity (the highest similarity) (step S29). Then, the retrieved maximum similarity is compared with the recognition threshold (step S30). As a result, if the maximum similarity exceeds the recognition threshold value, the registrant corresponding to the individual matching data of the similarity is specified as the person of the face image to be compared (step S31).
このようにして、認識しきい値を超える類似度を有する個別照合データが見つかるまで、同様の処理が行われる。もしも、照合データ記憶部25に格納されたすべての個別照合データに対して照合処理を行ったにもかかわらず、類似度が前記認識しきい値を超える個別照合データが見つからなかった場合には(ステップS32のYES)、判断部43は、被照合顔画像の人物は未登録であると判定する(ステップS34)。 In this way, the same processing is performed until individual collation data having a similarity exceeding the recognition threshold is found. If the individual collation data whose similarity is higher than the recognition threshold value is not found even though the collation processing is performed on all the individual collation data stored in the collation data storage unit 25 ( The determination unit 43 determines that the person of the face image to be verified has not been registered (step S34).
この図9に示した処理では、適切な認識結果が得られない場合には、一旦棄却された個別照合データが照合対象として復活させられる。これにより、登録者が認識されなくなるなどという事態を確実に回避できる。
図9の例では、被照合顔画像の人物が未登録であると判定する場合に、登録者の全てに関して個別照合データに対する照合処理が行われる。しかし、被照合顔画像データと代表照合データとの照合結果として得られる類似度が著しく低い場合には、個別照合データとの照合による認識しきい値よりも高い類似度が得られる確率は低い。したがって、代表顔画像データに対して演算された類似度が所定の棄却しきい値に達しないグループに関しては、登録者の個別照合データを照合対象として復活させないようにしてもよい。
In the process shown in FIG. 9, when an appropriate recognition result cannot be obtained, the individual verification data once rejected is restored as a verification target. As a result, it is possible to reliably avoid a situation in which the registrant is not recognized.
In the example of FIG. 9, when it is determined that the person of the face image to be verified is unregistered, the verification process for the individual verification data is performed for all of the registrants. However, when the similarity obtained as a result of matching between the face image data to be matched and the representative matching data is extremely low, the probability that a similarity higher than the recognition threshold value obtained by matching with the individual matching data is low. Therefore, for the group whose similarity calculated for the representative face image data does not reach the predetermined rejection threshold value, the individual collation data of the registrant may not be revived as a collation target.
なお、この実施形態では、一人の登録者に対して1つの代表照合データが登録される例が示されているが、一人の登録者に対して複数(2つ以上)の代表照合データが照合データ記憶部25に登録されるようにしてもよい。たとえば、眼鏡を使用する登録者の場合に、眼鏡を装着した状態の個別照合データを代表する第1代表照合データと、眼鏡を装着していない状態の個別照合データを代表する第2代表照合データとを登録しておいてもよい。この場合にも、代表照合データに関して求められた類似度に基づいて、代表照合データごとに、対応する一群の個別照合データを照合対象とするか否かを決定すればよい。 In this embodiment, an example is shown in which one representative collation data is registered for one registrant, but a plurality (two or more) of representative collation data are collated for one registrant. It may be registered in the data storage unit 25. For example, in the case of a registrant who uses spectacles, first representative collation data representing individual collation data in the state of wearing spectacles and second representative collation data representing individual collation data in a state of wearing no spectacles. And may be registered. Also in this case, it is only necessary to determine whether or not a corresponding group of individual collation data is to be collated for each representative collation data based on the similarity obtained for the representative collation data.
次に、顔画像の類似度の計算について説明する。
図10に示すように、サイズおよび傾きが正規化された第1顔画像I1および第2顔画像I2の類似度を求める場合について説明する。第1顔画像I1は、たとえば、照合データ記憶部25に格納された個別照合データに対応する登録顔画像であり、第2顔画像I2は、たとえば、カメラ1によって撮像された画像から顔画像検出部30によって抽出された被照合顔画像データに対応する。
Next, calculation of the similarity of face images will be described.
As shown in FIG. 10, a case where the similarity between the first face image I 1 and the second face image I 2 whose size and inclination are normalized will be described. The first face image I 1 is, for example, a registered face image corresponding to the individual collation data stored in the collation data storage unit 25, and the second face image I 2 is a face from an image captured by the camera 1, for example. This corresponds to the face image data to be verified extracted by the image detection unit 30.
まず、サイズ、形状、位置および後述する種類のうちの少なくともいずれか1つが異なるT個(Tは2以上の自然数)の特徴領域Aj(jは1≦j≦Tの自然数)を、順次、第1顔画像I1および第2顔画像I2中に共通に設定する。特徴領域Ajは、少なくとも2画素を含み、かつ、第1および第2顔画像I1,I2と同じ大きさか、またはそれよりも小さな領域である。特徴領域Ajの形状としては、矩形(正方形を含む。)、円形、鉤形など、任意の形状を選択することができ、複数の特徴領域A1〜AT間で形状が異なっていてもよい。 First, T feature regions A j (j is a natural number of 1 ≦ j ≦ T) having different sizes, shapes, positions, and at least one of the types described later (T is a natural number of 2 or more), sequentially, It is set in common in the first face image I 1 and the second face image I 2 . The feature area A j is an area that includes at least two pixels and has the same size as or smaller than the first and second face images I 1 and I 2 . As the shape of the feature region A j , an arbitrary shape such as a rectangle (including a square), a circle, or a bowl shape can be selected, and even if the shape is different among the plurality of feature regions A 1 to AT. Good.
たとえば、特徴領域の形状を正方形とすることにし、第1および第2顔画像I1,I2が32画素×32画素の正方形であるとし、さらに、特徴領域を2分割して分析(すなわち、後述の分割数pjを「2」に固定)する場合を想定すると、最小の特徴領域は2画素×2画素の大きさの正方形であり、最大の特徴領域は32画素×32画素の大きさの正方形であって、さらに、サイズ(正方形領域の一辺にならぶ画素数で表される。)が偶数画素の場合のみが許容される。ただし、2画素×2画素の特徴領域は小さすぎてあまり意味を持たないことが経験的にわかっているので、実際は、最小の特徴領域の大きさは4画素×4画素である。4画素×4画素の特徴領域は32画素×32画素の正方形領域内で29×29個の異なる位置をとることができ、次の大きさの6画素×6画素の特徴領域は32画素×32画素の正方形領域内で27×27個の異なる位置をとることができる。同様の考察により、32画素×32画素の第1および第2顔画像I1,I2中には、合計で4495個の特徴領域が設定可能となる。さらに、位置およびサイズが同じ領域を横方向(水平方向)xに2分して分析する場合と、縦方向(垂直方向)yに2分して分析する場合とを区別して、別の特徴領域とみなすこととすれば、合計で8990個の特徴領域の設定が可能となる。これらの特徴領域の一部または全部が、類似度の計算のための特徴領域Aj(j=1,2,……,T)として用いられる。 For example, assume that the shape of the feature region is a square, the first and second face images I 1 and I 2 are squares of 32 pixels × 32 pixels, and the feature region is divided into two parts for analysis (ie, Assuming a case where the number of divisions p j described later is fixed to “2”), the minimum feature area is a square having a size of 2 pixels × 2 pixels, and the maximum feature area is a size of 32 pixels × 32 pixels. In addition, it is allowed only when the size is the even number of pixels (represented by the number of pixels along one side of the square area). However, since it has been empirically known that the feature area of 2 pixels × 2 pixels is too small to be meaningful, the size of the minimum feature area is actually 4 pixels × 4 pixels. The feature region of 4 pixels × 4 pixels can take 29 × 29 different positions within the square region of 32 pixels × 32 pixels, and the feature region of 6 pixels × 6 pixels of the next size is 32 pixels × 32 27 × 27 different positions can be taken within the square area of the pixel. Based on the same consideration, a total of 4495 feature areas can be set in the first and second face images I 1 and I 2 of 32 pixels × 32 pixels. Further, a separate feature region is distinguished between the case where the region having the same position and size is divided into two in the horizontal direction (horizontal direction) x and the case where the analysis is divided into two in the vertical direction (vertical direction) y. In this case, a total of 8990 feature areas can be set. Some or all of these feature regions are used as feature regions A j (j = 1, 2,..., T) for calculating similarity.
特徴領域Ajが設定されると、次に、第1顔画像I1における特徴領域Aj中のpj個(pjは2以上の自然数)の部分領域ak(kは1≦k≦pjの自然数)内の領域値x1 kおよび前記第2画像I2中の当該特徴領域Aj中の対応するpj個の部分領域ak内の領域値x2 kが求められる。特徴領域Ajの分割数pjは、特徴領域毎に異なる数であってもよく、特徴領域A1〜ATで共通の値p(=p1=p2=……=pT)としてもよい。 When the feature region A j is set, next, p j (p j is a natural number of 2 or more) partial regions a k (k is 1 ≦ k ≦) in the feature region A j in the first face image I 1 . The region value x 1 k in the natural number of p j and the region value x 2 k in the corresponding p j partial regions a k in the feature region A j in the second image I 2 are obtained. The number of divisions p j of the feature area A j may be different for each feature area, and the value p (= p 1 = p 2 = …… = p T ) common to the feature areas A 1 to A T. Also good.
部分領域akは、たとえば、図11(a)に示すように、特徴領域Aj内を水平方向xに沿う水平分割線55で垂直方向にpj個に等分して得られる領域(図11(a)ではx方向に長い矩形領域)であってもよい。また、部分領域akは、図11(b)に示すように特徴領域Aj内を垂直方向yに沿う垂直分割線56で水平方向にpj個に等分して得られる領域(図11(b)ではy方向に長い矩形領域)であってもよい。また、複数の特徴領域A1ないしAT間で、領域の分割方向が異なっていてもよい。以下では、領域分割の方向が異なる特徴領域は、形状および大きさならびに位置が同じであっても、異なる特徴領域として取り扱う。 The partial area a k, for example, FIG. 11 (a), the region (Fig obtained by equally dividing the inside characteristic region A j to p j pieces vertically horizontal dividing line 55 along the horizontal direction x 11 (a) may be a rectangular area long in the x direction). Further, as shown in FIG. 11B, the partial area a k is an area obtained by equally dividing p j in the horizontal direction by a vertical dividing line 56 along the vertical direction y in the characteristic area A j (FIG. 11). (b) may be a rectangular region that is long in the y direction. Further, the division direction of the regions may be different among the plurality of feature regions A 1 to AT . In the following, feature regions with different region division directions are treated as different feature regions even if they have the same shape, size, and position.
部分領域ak内の領域値x1 k,x2 kは、たとえば、当該部分領域ak内に含まれる複数の画素のデータの平均値(平均画素値)であり、当該部分領域akの輝度値に相当する。ただし、当該部分領域akにただ一つの画素が含まれる場合(たとえば、2画素×1画素の特徴領域の場合)には、その画素のデータ自身がその部分領域akの領域値となる。特徴領域Ajの各部分領域akの領域値x1 k,x2 kは、当該特徴領域Ajに関する第1および第2顔画像I1,I2の特徴量である。 Domain values x 1 k in the partial area a k, x 2 k, for example, an average value of data of a plurality of pixels included in the partial area a k (average pixel value) of the partial region a k It corresponds to the luminance value. However, when the partial area ak includes only one pixel (for example, in the case of a feature area of 2 pixels × 1 pixel), the data of the pixel itself becomes the area value of the partial area ak . Domain values x 1 k, x 2 k of the partial regions a k of feature areas A j is the feature amount of the feature region A j first and second face images related to I 1, I 2.
pj個の部分領域akについて前述の領域値x1 k,x2 kが求まると、次に、第1および第2顔画像I1,I2の当該特徴領域Aj内の相関が求められる。より具体的には、次式により、相関値Cjが演算される。 When the above-described region values x 1 k and x 2 k are obtained for the p j partial regions a k , the correlation in the feature region A j of the first and second face images I 1 and I 2 is then obtained. It is done. More specifically, the correlation value C j is calculated by the following equation.
ただし、すべての特徴領域A1〜ATにおける分割数pjがいずれも等しい場合には、右辺の係数1/pjは省かれてもよい。
画像間の相関を求める操作は、特徴領域をx方向およびy方向の2方向について分割(すなわち、格子状に分割)して得られる部分領域を用いて行われてもよい。しかし、この実施形態では、x方向またはy方向のいずれか一方向について特徴領域Ajを分割して得られる部分領域akを用いて、相関を求める操作が行われる。以下では、このようにして求められる相関を「単方向相関」という。
However, when the division numbers p j in all the feature regions A 1 to A T are all equal, the coefficient 1 / p j on the right side may be omitted.
The operation for obtaining the correlation between the images may be performed using a partial region obtained by dividing the feature region in two directions of the x direction and the y direction (that is, dividing in a lattice shape). However, in this embodiment, an operation for obtaining the correlation is performed using the partial region a k obtained by dividing the feature region A j in either the x direction or the y direction. Hereinafter, the correlation obtained in this way is referred to as “unidirectional correlation”.
このような単方向相関を求める操作が、前記複数の特徴領域A1〜ATに関して実行され、これにより、相関値C1,C2,……,CTが求められる。
こうして求められた各特徴領域Ajの相関値Cjは、特徴領域Aj毎に定めた次式の弱識別器(Weak Classifier)hj(I1,I2)にかけられる。
Such unidirectional correlate seek operation, the are performed on a plurality of characteristic regions A 1 to A T, thereby, the correlation values C 1, C 2, ......, C T is determined.
The correlation value C j of each feature area A j thus obtained is applied to a weak classifier (Weak Classifier) h j (I 1 , I 2 ) defined for each feature area A j .
すなわち、各特徴領域Ajに関する相関値Cjは、特徴領域Aj毎に予め定めた所定のしきい値θjと比較される。その結果、相関値Cjがしきい値θjを超えていれば、第1および第2顔画像I1,I2が同一人物の顔画像であることを表す第1識別値「+1」(肯定的結論を表す弱仮説(Weak Hypothesis))が生成される。一方、前記相関値Cjがしきい値θj以下であれば、第1および第2顔画像I1,I2が同一人物の顔画像ではないことを表す第2識別値「−1」(否定的結論を表す弱仮説)が生成される。 That is, the correlation value C j for each feature area A j is compared to a predetermined threshold value theta j determined in advance for each feature region A j. As a result, if the correlation value C j exceeds the threshold value θ j , the first identification value “+1” (1) indicating that the first and second face images I 1 and I 2 are face images of the same person. A weak hypothesis (Weak Hypothesis) is generated. On the other hand, if the correlation value C j is equal to or smaller than the threshold value θ j , the second identification value “−1” (1) indicating that the first and second face images I 1 and I 2 are not the same person's face image. A weak hypothesis representing a negative conclusion) is generated.
前記T個の特徴領域A1〜ATの個々についての前記弱識別器の出力値h1(I1,I2)〜hT(I1,I2)(弱仮説)が求められると、次に、これらは、個々の特徴領域Aj毎に定めた重み付け係数wjを乗じて加算(線形結合)される。これにより、第1および第2顔画像I1,I2の類似度(同一人物らしさ)が求められる。すなわち、類似度は、次式で与えられる。 When the output values h 1 (I 1 , I 2 ) to h T (I 1 , I 2 ) (weak hypothesis) of the weak classifiers for each of the T feature regions A 1 to A T are obtained, Next, these are multiplied by a weighting coefficient w j determined for each feature region A j and added (linear combination). Thereby, the similarity (likeness of the same person) between the first and second face images I 1 and I 2 is obtained. That is, the similarity is given by the following equation.
前記単方向相関値Cjの演算に適用される特徴領域A1〜ATの選択、弱識別器におけるしきい値θj、および重み付け係数wjは、事前の学習によって定められる。この学習には、たとえば、非特許文献1に記載されたブースティング学習アルゴリズム(アダブースト:AdaBoost)が適用される。
具体的には、図12のフローチャートに示すように、予め、同一人物の異なる顔画像データのペアをポジティブサンプル(同一人物であるとの結論が正解となるサンプル)として複数個準備し、また、他人同士の顔画像データのペアをネガティブサンプル(同一人物であるとの結論が不正解となるサンプル)として複数個準備しておき、初期化処理として、これらのサンプルに一律に(均等に)ウエイト(weight)を配分する(ステップS50)。
The selection of the feature regions A 1 to A T applied to the calculation of the unidirectional correlation value C j , the threshold value θ j in the weak classifier, and the weighting coefficient w j are determined by prior learning. For this learning, for example, a boosting learning algorithm (AdaBoost) described in Non-Patent Document 1 is applied.
Specifically, as shown in the flowchart of FIG. 12, a plurality of pairs of different face image data of the same person are prepared in advance as positive samples (samples in which the conclusion that they are the same person is correct), Prepare multiple pairs of face image data of other people as negative samples (samples where the conclusion that they are the same person is incorrect), and as an initialization process, weight these samples uniformly (equally). (Weight) is distributed (step S50).
次に、正規化された顔画像データ中に特徴領域A(たとえば、正方形の特徴領域)を設定し、前記第(1)式で表される単方向相関値Cが、全てのサンプル(ポジティブサンプルおよびネガティブサンプル)に関して演算される。この演算が、正規化された顔画像中に設定可能な全ての特徴領域A(たとえば、位置、大きさおよび領域の分割方向のうちの少なくともいずれか1つが異なる正方形領域)に関して実行される(ステップS51)。そして、T個の特徴領域A1〜ATを選択し、かつT個の弱識別器h1(I1,I2)〜hT(I1,I2)を定めるためのT回の学習(for t=1 to T ループ)が開始される(ステップS52)。 Next, a feature region A (for example, a square feature region) is set in the normalized face image data, and the unidirectional correlation value C expressed by the above equation (1) is set to all samples (positive samples). And negative samples). This calculation is executed with respect to all feature areas A (for example, square areas in which at least one of position, size, and division direction of the areas is different) that can be set in the normalized face image (step). S51). Then, T feature regions A 1 to A T are selected, and T times of learning are performed to determine T weak classifiers h 1 (I 1 , I 2 ) to h T (I 1 , I 2 ). (For t = 1 to T loop) is started (step S52).
具体的には、まず、未選択の個々の特徴領域A(t=1のときは全ての特徴領域A)ごとに、ウエイト(t=1のときは均一なウエイト)が与えられた全ポジティブサンプルおよび全ネガティブサンプルに関し、それぞれ、単方向相関値Cについてのヒストグラム(ウエイトが与えられたサンプルに対応した重み付けヒストグラム)が作成される(ステップS53)。このヒストグラムの例を図13に示す。 Specifically, first, all positive samples in which weights (uniform weights when t = 1) are given to each unselected individual feature area A (all feature areas A when t = 1). With respect to all negative samples, a histogram for each unidirectional correlation value C (weighted histogram corresponding to a sample given a weight) is created (step S53). An example of this histogram is shown in FIG.
一般に、相関値Cの値の比較的小さな範囲にネガティブサンプルの分布が現れ、相関値Cの値の比較的大きな範囲にポジティブサンプルの分布が現れる。しきい値θは、当該しきい値と相関値Cとを比較したときの誤識別率(エラー率)が最小となるように定められる(ステップS54)。
たとえば、しきい値θを大きな値θLに定めると、異なる人物の画像ペア(ネガティブサンプル)を同一人物の画像ペアであるとする誤識別(他人受入れ(False Accept)エラー、フォルスポジティブエラー)は少なくなるが、同一人物の画像ペア(ポジティブサンプル)を異なる人物の画像ペアであるとする誤識別(本人棄却(False Reject)エラー、フォルスネガティブエラー)が多くなる。逆に、しきい値θを小さな値θSに定めると、異なる人物の画像ペア(ネガティブサンプル)を同一人物の画像ペアであるとする誤識別(他人受入れエラー、フォルスポジティブエラー)が多くなる反面、同一人物の画像ペア(ポジティブサンプル)を異なる人物の画像ペアであるとする誤識別(本人棄却エラー、フォルスネガティブエラー)は少なくなる。
In general, the distribution of negative samples appears in a relatively small range of correlation values C, and the distribution of positive samples appears in a relatively large range of correlation values C. The threshold value θ is determined so that the misidentification rate (error rate) when the threshold value and the correlation value C are compared is minimized (step S54).
For example, when the threshold θ is set to a large value θ L , misidentification (False Accept error, false positive error) that an image pair (negative sample) of different persons is an image pair of the same person is Although the number is reduced, misidentification (False Reject error, false negative error) that the image pair (positive sample) of the same person is an image pair of different persons increases. Conversely, if the threshold value θ is set to a small value θ S , misidentification (an error for accepting another person, a false positive error) that images pairs of different persons (negative samples) are image pairs of the same person increases. In addition, misidentification (person rejection error, false negative error) that an image pair (positive sample) of the same person is an image pair of different persons is reduced.
しきい値θは、前記の誤識別が全体として最小となる値に定められる。一般的には、ポジティブサンプルの分布範囲とネガティブサンプルの分布範囲の間、またはそれらの重なり区間の値がしきい値θとされる。このしきい値θとともに、当該しきい値θに対応した誤識別率が求められる。
このようにして未選択の全ての特徴領域Aのしきい値θを定めることによって、全特徴領域Aに対応した弱識別器hが作成されることになる。
The threshold value θ is set to a value that minimizes the erroneous identification as a whole. In general, the threshold θ is a value between the distribution range of the positive sample and the distribution range of the negative sample, or an overlap interval thereof. Along with this threshold value θ, an erroneous identification rate corresponding to the threshold value θ is obtained.
In this way, by determining the threshold value θ of all unselected feature regions A, the weak classifier h corresponding to all the feature regions A is created.
これらの弱識別器hのなかで最も誤識別率(エラー率)の低い弱識別器が第t番目の識別器ht(t=1のときは第1の識別器h1(特徴領域A1に対応))として選択され(ステップS55)、その誤識別率に応じた重み付け係数wt(t=1のときは重み付け係数w1)が定められる(ステップS56)。
次いで、第t弱識別器htにより正解が得られるサンプルには小さなウエイトを与え、第t弱識別器htにより不正解となるサンプルには大きなウエイトを与えるように重みの再配分(re-weighting)を行い、これに対してステップS52以降の学習を実行する(ステップS57)。すなわち、未選択の全ての特徴領域(特徴領域A1〜At以外の特徴領域A)について、前記ウエイトが与えられたサンプルに対する重み付けヒストグラムが作成される(ステップS53)。そして、それらの特徴領域Aに対応した弱識別器のうちで誤識別率が最も小さくなる弱識別器が第(t+1)の識別器ht+1とされる(ステップS55)。つまり、たとえば、第2の識別器h2には、第1の識別器h1が誤識別しやすいサンプルに対して高確率で正解を与える弱識別器が選択される。そして、この第(t+1)の弱識別器ht+1の誤識別率に応じた重み付け係数wt+1が定められる(ステップS56)。
Among these weak classifiers h, the weak classifier having the lowest misclassification rate (error rate) is the t-th classifier h t (when t = 1, the first classifier h 1 (feature area A 1). )) (Step S55), and a weighting coefficient w t (weighting coefficient w 1 when t = 1) corresponding to the misidentification rate is determined (step S56).
Then, the samples correct by the t weak classifier h t is obtained given a small weight, redistribution of the weights so as to provide a large portion in the sample to be incorrect by the t weak classifier h t (re- weighting), and learning from step S52 is performed on this (step S57). That is, the entire feature area unselected (feature region A the non-characteristic regions A 1 to A t), weighted histogram is generated for the sample in which the weight is given (step S53). Of the weak classifiers corresponding to the feature region A, the weak classifier having the smallest misclassification rate is set as the (t + 1) th classifier h t + 1 (step S55). That is, for example, a weak classifier that gives a correct answer with high probability to a sample that is easily misidentified by the first classifier h 1 is selected as the second classifier h 2 . Then, the first (t + 1) weighting factor w t + 1 according to the misidentification rate of weak classifier h t + 1 of is determined (step S56).
同様の操作を、T個の弱識別器h1〜hTが得られるまで繰り返し、T回の学習を行うことにより、類似度の演算に適したT個の特徴領域A1〜ATが選択されることになる。そして、T個の弱識別器h1〜hTに各重み付け係数w1〜wTを乗じて線形結合することにより、前記第(3)式による類似度演算式が得られる。
そして、前記第(3)式によって求められた類似度が所定の認識しきい値Rthと比較される。求められた類似度が認識しきい値Rthを超える場合には、第1および第2顔画像I1,I2が同一人物の顔画像である判定され、認識しきい値Rth以下の場合には、第1および第2顔画像I1,I2は異なる人物の顔画像であると判定される。
The same operation is repeated until T weak classifiers h 1 to h T are obtained, and T feature regions A 1 to A T suitable for calculating similarity are selected by performing T learning. Will be. Then, by multiplying the T weak discriminators h 1 to h T by the respective weighting coefficients w 1 to w T and linearly combining them, the similarity calculation formula according to the above-mentioned formula (3) is obtained.
Then, the similarity obtained by the equation (3) is compared with a predetermined recognition threshold value Rth . When the obtained similarity exceeds the recognition threshold value R th , it is determined that the first and second face images I 1 and I 2 are face images of the same person, and the recognition threshold value R th or less. The first and second face images I 1 and I 2 are determined to be face images of different persons.
つまり、次式により、判定結果が与えられる。 That is, the determination result is given by the following equation.
図14は、照合用辞書記憶部26(図1および図3参照)の保持内容を説明するための図である。照合用辞書記憶部26には、前記第(3)式の類似度演算式に対応した特徴領域A1〜ATの情報が格納されている。すなわち、特徴番号1〜Tに対応して、特徴領域A1〜ATを指定するための特徴領域指定情報と、各特徴領域A1〜ATの相関値C1〜CTに対して適用されるしきい値θ1〜θTと、各特徴領域A1〜ATの弱識別器h1〜hTに対して与えられる重み付け係数w1〜wTとが格納されている。 FIG. 14 is a diagram for explaining the contents held in the collation dictionary storage unit 26 (see FIGS. 1 and 3). The collation dictionary storage unit 26 stores information on the feature areas A 1 to A T corresponding to the similarity calculation expression of the expression (3). That is, corresponding to the feature numbers 1 to T , it is applied to the feature region designation information for designating the feature regions A 1 to AT and the correlation values C 1 to CT of the feature regions A 1 to AT . and threshold theta 1 through? T is, the weighting factor is given and w 1 to w T is stored for weak classifiers h 1 to h T of the feature regions a 1 to a T.
特徴領域指定情報は、特徴領域の位置、形状、サイズおよび種類を指定するための情報である。図14には、特徴領域の形状を一定形状(たとえば正方形)に固定し、かつ、特徴領域の分割数pjを一定値pに固定する場合の例が示されている。したがって、特徴領域指定情報として、位置、サイズおよび種類が登録されている。特徴領域の位置は、照合される2つの顔画像I1,I2中における位置を表す。具体的には、たとえば、図11に示すように、特徴領域が矩形形状の場合、その左下角を原点とみなし、この原点のx座標およびy座標によって、当該特徴領域の位置が表される。サイズは、たとえば正方形の特徴領域の場合における一辺の長さ(画素数)で表される。種類は、特徴領域をx方向(水平方向)に分割(図11(b)参照)するか、y方向(垂直方向)に分割(図11(a)参照)するかを表す情報である。 The feature area designation information is information for designating the position, shape, size, and type of the feature area. FIG. 14 shows an example in which the shape of the feature region is fixed to a fixed shape (for example, a square) and the number of divisions p j of the feature region is fixed to a fixed value p. Therefore, the position, size, and type are registered as the feature area designation information. The position of the feature region represents the position in the two face images I 1 and I 2 to be collated. Specifically, for example, as shown in FIG. 11, when the feature area is rectangular, the lower left corner is regarded as the origin, and the position of the feature area is represented by the x and y coordinates of the origin. The size is represented by, for example, the length of one side (number of pixels) in the case of a square feature region. The type is information indicating whether the feature region is divided in the x direction (horizontal direction) (see FIG. 11B) or divided in the y direction (vertical direction) (see FIG. 11A).
図15は、類似度演算部41(図3参照)の構成例を説明するためのブロック図である。この構成例の類似度演算部41は、照合対象の第1顔画像I1(たとえば、代表照合データに対応した代表顔画像または個別照合データに対応した登録顔画像)および第2顔画像I2(たとえば、カメラ1で撮像された被照合顔画像)に対して共通に特徴領域Ajを設定する特徴領域設定部45と、第1顔画像I1の特徴量を演算する第1特徴量演算部46と、第2顔画像I2の特徴量を演算する第2特徴量演算部47とを備えている。 FIG. 15 is a block diagram for explaining a configuration example of the similarity calculation unit 41 (see FIG. 3). The similarity calculation unit 41 of this configuration example includes a first face image I 1 to be collated (for example, a representative face image corresponding to representative collation data or a registered face image corresponding to individual collation data) and a second face image I 2. A feature region setting unit 45 that sets a feature region A j in common (for example, a face image to be checked captured by the camera 1), and a first feature amount calculation that calculates a feature amount of the first face image I 1 Unit 46 and a second feature amount calculation unit 47 that calculates the feature amount of the second face image I 2 .
特徴領域設定部45は、照合用辞書記憶部26から特徴領域A1〜ATを読み出し、第1および第2顔画像I1,I2中に順次設定する。
第1特徴量演算部46は、照合用辞書記憶部26を参照し、特徴領域設定部45によって設定された第1顔画像I1内の特徴領域Ajについて、その「種類」の情報に従って領域を分割し、その分割された部分領域ak毎の領域値x1 kを特徴量として求める。同様に、第2特徴量演算部47は、照合用辞書記憶部26を参照し、特徴領域設定部45によって設定された第2顔画像I2内の特徴領域Ajについて、その「種類」の情報に従って領域を分割し、その分割された部分領域ak毎の領域値x2 kを特徴量として求める。
The feature region setting unit 45 reads the feature regions A 1 to AT from the collation dictionary storage unit 26 and sequentially sets them in the first and second face images I 1 and I 2 .
The first feature quantity calculation unit 46 refers to the collation dictionary storage unit 26, and sets the region according to the “type” information for the feature region A j in the first face image I 1 set by the feature region setting unit 45. dividing the obtained area value x 1 k of that broken portion each area a k as a feature quantity. Similarly, the second feature amount calculation unit 47 refers to the collation dictionary storage unit 26 and sets the “type” of the feature region A j in the second face image I 2 set by the feature region setting unit 45. dividing the area according to the information, it obtains the domain values x 2 k of that broken portion each area a k as a feature quantity.
類似度演算部41は、さらに、第1および第2特徴量演算部46,47によって求められた領域値x1 k,x2 kに基づいて相関値Cjを演算する相関値演算部48と、この相関値演算部48によって求められた相関値Cjを当該特徴領域Ajに対応したしきい値θjと比較する比較部49と、この比較部49による比較結果hj(I1,I2)に重み付け係数wjを乗じて加算する重み付け加算部50とを備えている。 The similarity calculation unit 41 further includes a correlation value calculation unit 48 that calculates a correlation value C j based on the region values x 1 k and x 2 k obtained by the first and second feature amount calculation units 46 and 47. The comparison unit 49 that compares the correlation value C j obtained by the correlation value calculation unit 48 with the threshold value θ j corresponding to the feature region A j , and the comparison result h j (I 1 , A weighting addition unit 50 that multiplies I 2 ) by a weighting coefficient w j and adds the multiplication result.
比較部49は、照合用辞書記憶部26を参照し、特徴領域Ajに対応したしきい値θjを読み出す。そして、比較部49は、相関値Cjがしきい値θjよりも大きければ第1識別値「+1」(第1および第2顔画像が同一人物の顔画像であることを表す弱仮説)を出力する。一方、相関値Cjがしきい値θj以下であれば、比較部49は、第2識別値「−1」(第1および第2顔画像が他人の顔画像であることを表す弱仮説)を出力する。 The comparison unit 49 reads the threshold value θ j corresponding to the feature region A j with reference to the matching dictionary storage unit 26. If the correlation value C j is larger than the threshold value θ j , the comparison unit 49 has the first identification value “+1” (a weak hypothesis indicating that the first and second face images are face images of the same person). Is output. On the other hand, if the correlation value C j is less than or equal to the threshold value θ j , the comparison unit 49 determines that the second identification value “−1” (a weak hypothesis indicating that the first and second face images are the face images of others). ) Is output.
重み付け加算部50は、比較部49の出力値に対して特徴領域Ajに対応した重み付け係数を乗じ、特徴領域A1〜ATに関する比較部49の出力値を線形結合して、前記(3)式で表される類似度を求めて出力する。すなわち、重み付け加算部50は、比較部49から与えられる特徴領域A1〜ATについての比較結果hj(I1,I2)に対して重み付け係数wjを乗じ、これらを加算する。 The weighting addition unit 50 multiplies the output value of the comparison unit 49 by a weighting coefficient corresponding to the feature region A j , and linearly combines the output values of the comparison unit 49 for the feature regions A 1 to A T to obtain the (3 The similarity represented by the formula is obtained and output. That is, the weighting addition unit 50 multiplies the comparison result h j (I 1 , I 2 ) for the feature regions A 1 to AT given from the comparison unit 49 by the weighting coefficient w j and adds them.
図16は、類似度演算部41の他の構成例を説明するためのブロック図である。この図16において、前述の図15に示された各部と同等の機能部分には、図15の場合と同一の参照符号を付して示す。この図16の構成は、照合データ記憶部25に、顔画像の照合データ(代表照合データおよび個別照合データ)が特徴量の形式で登録されている場合に好適である。この場合、照合データ記憶部25には、各登録顔画像について特徴領域A1〜ATに関する特徴量が個別照合データとして記憶されている。同様に、代表照合データとしては、代表顔画像についての特徴領域A1〜ATに関する特徴量が記憶されている。これら特徴量は、個々の照合データに対して、特徴領域A1〜ATごとに照合データ記憶部25に記憶されている。記憶される特徴量は、各特徴領域Ajを分割して得られる部分領域akの領域値x1 kである。 FIG. 16 is a block diagram for explaining another configuration example of the similarity calculation unit 41. In FIG. 16, the same functional parts as those shown in FIG. 15 are given the same reference numerals as those in FIG. The configuration of FIG. 16 is suitable when face image collation data (representative collation data and individual collation data) are registered in the collation data storage unit 25 in the form of feature amounts. In this case, the collation data storage unit 25 stores the feature amounts related to the feature areas A 1 to AT for each registered face image as individual collation data. Similarly, as representative collation data, feature quantities related to the feature areas A 1 to A T for the representative face image are stored. These feature quantities are stored in the matching data storage unit 25 for each of the matching areas A 1 to AT for each matching data. The stored feature amount is a region value x 1 k of the partial region a k obtained by dividing each feature region A j .
特徴領域設定部45Aは、照合用辞書記憶部26を参照して、第2顔画像I2内に特徴領域A1〜ATを順次設定する。特徴量演算部47は、照合用辞書記憶部26を参照して、第2顔画像I2中に設定された特徴領域Ajについて、その部分領域akごとの領域値x2 kを特徴量として演算する。
この演算された領域値x2 kは、相関値演算部48に与えられる。この相関値演算部48は、照合データ記憶部25から第1顔画像I1の当該特徴領域Ajに対応した領域値x1 kを読み出す。そして、相関値演算部48は、照合データ記憶部25から読み出された領域値x1 kと特徴量演算部47によって演算された領域値x2 kとに基づいて、相関値Cjを演算する。
The feature region setting unit 45A refers to the collation dictionary storage unit 26 and sequentially sets the feature regions A 1 to AT in the second face image I 2 . The feature quantity calculation unit 47 refers to the collation dictionary storage unit 26 and calculates the feature value x 2 k for each partial area a k for the feature area A j set in the second face image I 2 . Calculate as
The calculated region value x 2 k is given to the correlation value calculation unit 48. The correlation value calculation unit 48 reads the region value x 1 k corresponding to the feature region A j of the first face image I 1 from the collation data storage unit 25. The correlation value calculation unit 48 calculates the correlation value C j based on the region value x 1 k read from the collation data storage unit 25 and the region value x 2 k calculated by the feature amount calculation unit 47. To do.
比較部49および重み付け加算部50の働きは、図11の構成の場合と同様である。
この構成例の場合には、第1顔画像I1(登録顔画像または代表顔画像)については、領域値x1 kが予め求められて、照合データとして照合データ記憶部25に登録されている。したがって、類似度の計算のための演算量を少なくすることができる。それに応じて、演算時間を短縮できるから、顔画像の認識に要する時間を短縮できる。
The functions of the comparison unit 49 and the weighting addition unit 50 are the same as those in the configuration of FIG.
In the case of this configuration example, for the first face image I 1 (registered face image or representative face image), the region value x 1 k is obtained in advance and registered as collation data in the collation data storage unit 25. . Therefore, the amount of calculation for calculating the similarity can be reduced. Accordingly, the calculation time can be shortened, so that the time required for recognition of the face image can be shortened.
次に、顔画像検出部30(図3参照)による処理について概説する。
図17は、顔画像検出部30の機能的な構成を説明するための機能ブロック図である。顔画像検出部30は、カメラ1によって撮像された入力画像から顔画像領域を抽出して、サイズおよび傾きが正規化された顔画像データ(被照合顔画像データ)を生成するものである。この顔画像検出部30は、第1段階の処理としての粗検出処理と、第2段階の処理としての精密検出処理とを実行する。粗検出処理は、カメラ1によって撮像された画像の全領域を粗くスキャンして、顔画像が含まれている蓋然性の高い一部の領域を顔画像周辺領域として抽出し、残余の領域を棄却して精密検出処理対象から除外する処理である。すなわち、精密検出処理は、粗検出処理によって抽出された顔画像周辺領域内で、顔画像の領域を抽出して切り出す処理である。
Next, the process by the face image detection unit 30 (see FIG. 3) will be outlined.
FIG. 17 is a functional block diagram for explaining a functional configuration of the face image detection unit 30. The face image detection unit 30 extracts a face image region from an input image captured by the camera 1 and generates face image data (matched face image data) whose size and inclination are normalized. The face image detection unit 30 executes a rough detection process as a first stage process and a fine detection process as a second stage process. In the rough detection process, the entire area of the image captured by the camera 1 is roughly scanned, and a part of the area that is likely to contain a face image is extracted as a peripheral area of the face image, and the remaining area is rejected. This is a process of excluding from the precise detection process target. In other words, the precision detection process is a process of extracting and cutting out a face image area within the face image peripheral area extracted by the rough detection process.
粗検出処理の実行のために、顔画像検出部30には、撮像画像中の部分領域を処理対象領域(粗検出ウィンドウ)として設定する粗検出ウィンドウ設定部31と、この粗検出ウィンドウ設定部31によって設定された粗検出ウィンドウが顔画像を内包する顔画像周辺領域であるかどうかを識別する周辺領域識別部32と、この周辺領域識別部32による判定のための情報を記憶した周辺領域特徴辞書33とが備えられている。周辺領域特徴辞書33は、図1に示すように、ハードディスクドライブ14内の記憶領域に格納されている。 In order to execute the rough detection process, the face image detection unit 30 includes a rough detection window setting unit 31 that sets a partial region in the captured image as a processing target region (rough detection window), and the rough detection window setting unit 31. A peripheral area identification unit 32 for identifying whether the coarse detection window set by the step is a face image peripheral area including a face image, and a peripheral area feature dictionary storing information for determination by the peripheral area identification unit 32 33. The peripheral area feature dictionary 33 is stored in a storage area in the hard disk drive 14 as shown in FIG.
また、精密検出処理の実行のために、顔画像検出部30には、さらに、周辺領域識別部32によって抽出された顔画像周辺領域のなかの部分領域を処理対象領域(精密検出ウィンドウ)として設定する精密検出ウィンドウ設定部34と、この精密検出ウィンドウ設定部34によって設定された精密検出ウィンドウが顔画像領域に該当するかどうかを識別する顔画像識別部35と、この顔画像識別部35による判定のための情報を記憶した顔画像特徴辞書36とが備えられている。顔画像特徴辞書36は、図1に示すように、ハードディスクドライブ14内の記憶領域に格納されている。 In addition, in order to execute the precision detection process, the face image detection unit 30 further sets a partial region of the face image peripheral region extracted by the peripheral region identification unit 32 as a processing target region (precision detection window). The precise detection window setting unit 34 for performing the detection, the face image identifying unit 35 for identifying whether the precise detection window set by the precise detection window setting unit 34 corresponds to the face image region, and the determination by the face image identifying unit 35 And a face image feature dictionary 36 storing information for. The face image feature dictionary 36 is stored in a storage area in the hard disk drive 14 as shown in FIG.
さらに、顔画像検出部30は、顔画像識別部35によって顔画像領域であると判定された精密検出ウィンドウ内の画像を正規化して出力する顔画像出力処理部37を備えている。この顔画像出力処理部37は、当該精密検出ウィンドウ内の画像を、一定のサイズ(たとえば32画素×32画素)に正規化し、かつ、当該精密ウィンドウ内の顔画像の傾きを補正して、被照合顔画像データを生成する。 Further, the face image detection unit 30 includes a face image output processing unit 37 that normalizes and outputs an image in the precision detection window determined to be a face image region by the face image identification unit 35. The face image output processing unit 37 normalizes the image in the precise detection window to a certain size (for example, 32 pixels × 32 pixels), corrects the inclination of the face image in the precise window, and Collation face image data is generated.
撮像画像から抽出して切り出される顔画像は、たとえば、図18の中央列の3つの画像(縦方向にならぶ3つの画像)のように、人の顔の両目尻の内側の所定形状の矩形領域(顔認識処理部40で照合される画像と同形状の領域。たとえば、正方形領域)の画像である。つまり、撮像画像中にさまざまな大きさで含まれる顔画像が、縦横比が一定の矩形領域によって切り出される。図18の中央列中段の顔画像は、両目尻を結ぶ線分が矩形領域の横辺にほぼ平行な場合(0degree)を示し、図18の中央列上段の顔画像は、同列中段の画像に対して5度だけ左回転(−5degrees)されており、図18の中央列下段の顔画像は、同列中段の画像に対して5度だけ右回転(+5degrees)されている。 The face image extracted from the captured image is a rectangular area having a predetermined shape inside the outer corners of the human face, such as three images in the center row of FIG. 18 (three images arranged in the vertical direction). (A region having the same shape as the image to be collated by the face recognition processing unit 40. For example, a square region). That is, face images included in various sizes in the captured image are cut out by a rectangular region having a constant aspect ratio. The face image in the middle row in FIG. 18 shows a case where the line segment connecting both eye corners is substantially parallel to the horizontal side of the rectangular area (0 degree), and the face image in the upper row in the middle row in FIG. In contrast, the face image in the lower row of the center row in FIG. 18 is rotated right (+5 degrees) by 5 degrees with respect to the image in the middle row of the same row.
この場合、顔画像特徴辞書36には、図18の中央列に示されるような矩形の画像を顔画像として識別するための情報が保持されることになる。より具体的には、顔画像の特徴パターンに対応した顔画像検出フィルタに関する情報が顔画像特徴辞書36に保持されている。顔画像検出フィルタは、たとえば、図19に示すように、処理ウィンドウ70内に設定された一対の矩形領域71,72のそれぞれに関して、それらの領域71,72に含まれる各複数画素の平均輝度値を求め、それらの平均輝度値の差を所定のしきい値と比較するものである。 In this case, the face image feature dictionary 36 holds information for identifying a rectangular image as shown in the center column of FIG. 18 as a face image. More specifically, information regarding the face image detection filter corresponding to the feature pattern of the face image is held in the face image feature dictionary 36. For example, as shown in FIG. 19, the face image detection filter has, for each of a pair of rectangular areas 71 and 72 set in the processing window 70, an average luminance value of each of the plurality of pixels included in the areas 71 and 72. And the difference between the average luminance values is compared with a predetermined threshold value.
処理ウィンドウ70内における矩形領域71,72の位置、形状(縦横長)、および平均輝度値に対するしきい値は、学習によって予め定められる。この学習は、多数の画像サンプルを用いて実行される。より具体的には、処理ウィンドウ70と同形状および同サイズの多数の画像サンプルが収集されて、ハードディスクドライブ14(図1参照)の記憶領域内の顔画像サンプル格納部61(図17参照)に格納される。この場合の画像サンプルは、顔画像を含む顔画像サンプル(真サンプル)と、顔画像を含まない非顔画像サンプル(偽サンプル)とを含む。 The positions of the rectangular regions 71 and 72 in the processing window 70, the shape (vertically and horizontally long), and the threshold value for the average luminance value are predetermined by learning. This learning is performed using a large number of image samples. More specifically, a large number of image samples having the same shape and size as the processing window 70 are collected and stored in the face image sample storage unit 61 (see FIG. 17) in the storage area of the hard disk drive 14 (see FIG. 1). Stored. The image samples in this case include a face image sample including a face image (true sample) and a non-face image sample not including a face image (fake sample).
コンピュータ3内の機能処理部である顔画像特徴計算部63は、顔画像サンプル格納部61に格納された画像サンプルに基づいて学習を行い、真偽のサンプルを最もよく分離することができる顔画像検出フィルタを求める。すなわち、処理ウィンドウ70内における矩形領域71,72の位置およびそれら縦横長の組み合わせを様々に設定し、真偽のサンプルを最もよく分離することができる組み合わせが選択される。この場合、「真偽のサンプルを最もよく分離することができる」とは、真サンプルを偽サンプルとする誤識別および偽サンプルを真サンプルとする誤識別が最少となることを意味する。こうして選択された矩形領域71,72の組み合わせに対して、さらに、誤識別率が最小となるしきい値が設定されることにより、顔画像検出フィルタが得られる。この顔画像検出フィルタに関する情報が、顔画像特徴辞書36に予め格納される。 The face image feature calculation unit 63, which is a function processing unit in the computer 3, performs learning based on the image samples stored in the face image sample storage unit 61 and can best separate the true / false samples. Find the detection filter. That is, various combinations of the positions of the rectangular areas 71 and 72 in the processing window 70 and the vertical and horizontal directions are set, and the combination that can best separate the true / false samples is selected. In this case, “being able to best isolate a true / false sample” means that misidentification with a true sample as a false sample and misidentification with a false sample as a true sample are minimized. For the combination of the rectangular regions 71 and 72 selected in this way, a face image detection filter is obtained by setting a threshold value that minimizes the misidentification rate. Information regarding the face image detection filter is stored in the face image feature dictionary 36 in advance.
一方、周辺領域特徴辞書33には、図18の中央列の顔画像のほかに、図18の左列および右列の各3個の顔画像を顔画像周辺領域として識別するための情報が保持されることになる。図18左列の3つの画像は、顔画像の抽出枠を、図18中央列の3つの画像の位置からそれぞれ左方向に所定画素分(図18の例では1画素分。−1pixel)だけシフトさせて得られる画像である。また、図18右列の3つの画像は、顔画像の抽出枠を、図18中央列の3つの画像の位置からそれぞれ右方向に所定画素分(図18の例では1画素分。+1pixel)だけシフトして得られる画像である。 On the other hand, the peripheral area feature dictionary 33 holds information for identifying each of the three face images in the left and right columns in FIG. 18 as the face image peripheral area in addition to the face image in the central line in FIG. Will be. In the three images in the left column of FIG. 18, the face image extraction frame is shifted by a predetermined number of pixels (one pixel in the example of FIG. 18; -1 pixel) to the left from the positions of the three images in the central column of FIG. It is an image obtained by making it. In the three images in the right column of FIG. 18, the face image extraction frame is set to a predetermined number of pixels in the right direction from the position of the three images in the center column of FIG. It is an image obtained by shifting.
周辺領域特徴辞書33には、顔画像検出フィルタの場合と同様な周辺画像検出フィルタに関する情報が保持されている。この周辺画像検出フィルタは、顔画像検出フィルタの場合と同様な学習によって定められる。ただし、この学習には、顔画像周辺領域サンプル(真サンプル)として、図18中央列のような顔画像のほかにその左右列に示されるような顔画像も用いられる。このような真サンプルと、顔画像を含まない偽サンプルとが、ハードディスクドライブ14内の記憶領域である周辺領域画像サンプル格納部62に、予め、多数格納される。 The peripheral area feature dictionary 33 holds information related to the peripheral image detection filter similar to the face image detection filter. This peripheral image detection filter is determined by learning similar to the case of the face image detection filter. However, in this learning, in addition to the face image as shown in the center row of FIG. 18, face images as shown in the left and right rows are used as the face image peripheral region sample (true sample). A large number of such true samples and false samples that do not include a face image are stored in advance in the peripheral area image sample storage unit 62 that is a storage area in the hard disk drive 14.
この周辺領域画像サンプル格納部62に格納された真偽のサンプルを最もよく分離することができる周辺領域検出フィルタが、コンピュータ3内の機能処理部である周辺領域特徴計算部64によって、顔画像検出フィルタの場合と同様な学習によって求められる。この周辺領域検出フィルタの情報が、周辺領域特徴辞書33に予め格納されることになる。
顔画像サンプル格納部61、周辺領域画像サンプル格納部62、顔画像特徴計算部63および周辺領域特徴計算部64は、事前の学習のための構成である。すなわち、これらの機能処理部は、周辺領域特徴辞書33および顔画像特徴辞書36とともに、オフライン実行系51を形成している。
A peripheral region detection filter capable of best separating the genuine samples stored in the peripheral region image sample storage unit 62 is detected by the peripheral region feature calculation unit 64 which is a function processing unit in the computer 3. It is obtained by learning similar to the case of the filter. Information about the surrounding area detection filter is stored in advance in the surrounding area feature dictionary 33.
The face image sample storage unit 61, the peripheral region image sample storage unit 62, the face image feature calculation unit 63, and the peripheral region feature calculation unit 64 are configured for prior learning. That is, these function processing units together with the peripheral area feature dictionary 33 and the face image feature dictionary 36 form an offline execution system 51.
一方、撮像画像中の顔画像の抽出処理は、粗検出ウィンドウ設定部31、周辺領域識別部32、精密検出ウィンドウ設定部34、顔画像識別部35および顔画像出力処理部37によって実行される。すなわち、これらの機能処理部は、周辺領域特徴辞書33および顔画像特徴辞書36とともに、オンライン実行系52を形成している。
粗検出ウィンドウ設定部31は、処理ウィンドウ70と相似形の様々な大きさの粗検出ウィンドウによって撮像画像の全域を走査するように、それらの粗検出ウィンドウを撮像画像中に順次設定する。より具体的には、粗検出ウィンドウ設定部31は、図20に示すように、撮像画像80内の左下角のスタート位置81から開始して、右上角のストップ位置82に至るまで、撮像画像80の全範囲を走査するように粗検出ウィンドウ77を設定していく。つまり、粗検出ウィンドウ設定部31は、最初の粗検出ウィンドウ77をスタート位置81に設定し、以後、右方向に所定の複数画素(たとえば、3画素)ずつ移動させながら順に粗検出ウィンドウ77を設定していく。この粗検出ウィンドウ77が撮像画像80の右端に達すると、粗検出ウィンドウ設定部31は、粗検出ウィンドウの設定位置を左端に戻し、1画素だけ上方に移動して、新たな粗検出ウィンドウ77を設定する。以後、同様の操作が、粗検出ウィンドウ77がストップ位置82に達するまで繰り返される。
On the other hand, the process of extracting the face image from the captured image is executed by the rough detection window setting unit 31, the peripheral region identification unit 32, the fine detection window setting unit 34, the face image identification unit 35, and the face image output processing unit 37. That is, these function processing units together with the peripheral area feature dictionary 33 and the face image feature dictionary 36 form an online execution system 52.
The coarse detection window setting unit 31 sequentially sets the coarse detection windows in the captured image so as to scan the entire area of the captured image with various sizes of coarse detection windows similar in shape to the processing window 70. More specifically, as shown in FIG. 20, the coarse detection window setting unit 31 starts from a start position 81 at the lower left corner in the captured image 80 and reaches a stop position 82 at the upper right corner. The coarse detection window 77 is set so as to scan the entire range. That is, the rough detection window setting unit 31 sets the first rough detection window 77 at the start position 81, and thereafter sets the rough detection window 77 in order while moving the predetermined plurality of pixels (for example, three pixels) to the right. I will do it. When the coarse detection window 77 reaches the right end of the captured image 80, the coarse detection window setting unit 31 returns the set position of the coarse detection window to the left end, moves upward by one pixel, and opens a new coarse detection window 77. Set. Thereafter, the same operation is repeated until the rough detection window 77 reaches the stop position 82.
粗検出ウィンドウ設定部31は、周辺領域検出フィルタによる処理が可能な最小の大きさのウィンドウを初期粗検出ウィンドウ77として前述の操作を実行し、以後、順次、粗検出ウィンドウ77の大きさを所定ステップずつ(たとえば、1画素ずつ)大きくしながら、同様の操作を繰り返す。最終的には、撮像画像80と同じ大きさの粗検出ウィンドウ77が設定される。 The coarse detection window setting unit 31 performs the above-described operation using the window having the minimum size that can be processed by the peripheral region detection filter as the initial coarse detection window 77, and thereafter sequentially sets the size of the coarse detection window 77 to a predetermined size. The same operation is repeated while increasing the size step by step (for example, by one pixel). Finally, a coarse detection window 77 having the same size as the captured image 80 is set.
こうして順次設定される粗検出ウィンドウ77内の部分画像に対して、周辺領域識別部32は、前述の周辺領域検出フィルタによる処理を実行し、各粗検出ウィンドウ77が顔画像周辺領域に該当するか否かを判定する。粗検出ウィンドウ77内の画像に対して周辺領域検出フィルタを適用する際には、当該画像は、周辺領域検出フィルタのウィイドウサイズと一致するように拡大または縮小される。顔画像周辺領域である判定された粗検出ウィンドウ77については、その位置情報および大きさの情報が生成されて、RAM12(図1参照)に格納される。 With respect to the partial images in the coarse detection window 77 sequentially set in this way, the peripheral area identifying unit 32 performs processing by the above-described peripheral area detection filter, and whether each coarse detection window 77 corresponds to the peripheral area of the face image. Determine whether or not. When the surrounding area detection filter is applied to the image in the rough detection window 77, the image is enlarged or reduced so as to match the window size of the surrounding area detection filter. With respect to the determined coarse detection window 77 that is the peripheral area of the face image, position information and size information are generated and stored in the RAM 12 (see FIG. 1).
周辺領域検出フィルタは、前述のとおり、ウィンドウの中央に顔画像が収まっているサンプルだけでなく、左右に1画素ずつずらした顔画像サンプルをも用いて学習を行って求められている。そのため、粗検出ウィンドウ77を3画素以下のシフト幅で撮像画像80内でずらして順次設定していけば、顔画像が含まれる領域を精度よく抽出することができる。むろん、最大のシフト幅である3画素ずつずらして順次粗検出ウィンドウ77を設定すれば、最短時間で顔画像周辺領域の判定を完了できる。 As described above, the peripheral region detection filter is obtained by learning using not only the sample in which the face image is in the center of the window but also the face image sample shifted by one pixel to the left and right. For this reason, if the rough detection window 77 is shifted and sequentially set in the captured image 80 with a shift width of 3 pixels or less, the region including the face image can be accurately extracted. Of course, if the coarse detection window 77 is sequentially set by shifting by 3 pixels, which is the maximum shift width, the determination of the peripheral area of the face image can be completed in the shortest time.
一般に、図18の中央列の顔画像とともに、これらを左右にu画素(ただし、uは自然数)だけそれぞれずらした顔画像を用いた学習によって周辺領域検出フィルタが求められている場合には、2u+1画素以下のシフト幅で粗検出ウィンドウ77をシフトしていくことができる。
精密検出ウィンドウ設定部34は、周辺領域識別部32によって顔画像周辺領域と判定された領域の近傍で精密検出ウィンドウを設定する。たとえば、精密検出ウィンドウ設定部34は、顔画像周辺領域およびその左右に1画素ずつシフトした範囲で、粗検出ウィンドウ77と同サイズの精密検出ウィンドウを設定する。この設定された精密検出ウィンドウに対して、顔画像識別部35による処理、すなわち、顔検出フィルタによる処理が実行される。精密検出ウィンドウ内の画像に対して顔検出フィルタを適用する際には、当該画像は、顔画像検出フィルタのウィンドウサイズと一致するように拡大または縮小される。
In general, in the case where the peripheral area detection filter is obtained by learning using the face image in the center row of FIG. 18 and the face image shifted by u pixels (where u is a natural number) to the left and right, 2u + 1 The coarse detection window 77 can be shifted by a shift width equal to or smaller than the pixels.
The precision detection window setting unit 34 sets a precision detection window in the vicinity of the area determined as the face image peripheral area by the peripheral area identification unit 32. For example, the fine detection window setting unit 34 sets a fine detection window having the same size as the rough detection window 77 within a face image peripheral region and a range shifted by one pixel to the left and right. A process by the face image identification unit 35, that is, a process by a face detection filter is executed on the set precision detection window. When a face detection filter is applied to an image in the precision detection window, the image is enlarged or reduced to match the window size of the face image detection filter.
顔識別処理部35によって顔画像領域であると判定された精密検出ウィンドウについては、その位置およびサイズを表す情報が顔画像識別部35によって出力される。これを受けて、顔画像出力処理部は、当該精密検出ウィンドウ内の画像に対して、サイズおよび傾きの正規化を行って、被照合顔画像データを生成する。この場合、「傾きの正規化」とは、たとえば、図18の上段または下段のような傾きのある画像を、図18中段のように実質的に傾きのない画像に回転することをいう。 For the precision detection window determined to be a face image area by the face identification processing unit 35, information representing the position and size is output by the face image identification unit 35. In response to this, the face image output processing unit normalizes the size and inclination of the image in the precision detection window, and generates the face image data to be verified. In this case, “inclination normalization” refers to, for example, rotating an image having an inclination as shown in the upper or lower part of FIG. 18 to an image having substantially no inclination as shown in the middle part of FIG.
以上、この発明の一実施形態について説明したが、この発明は他の形態で実施することもできる。たとえば、前述の実施形態では、複数人の顔画像の照合データが照合データ記憶部25に登録される例について説明したが、ただ一人の顔画像の照合データが照合データ記憶部25に登録されてもよい。この場合、たとえば、処理対象の画像データと代表照合データとの類似度を所定のしきい値と比較し、その類似度が当該しきい値を超えない場合には、個別照合データとの照合を行わずに認識処理を終了すればよい。これにより、照合対象の顔画像が登録人物の顔画像と明らかに異なる場合には、複数の個別照合データに関する照合処理を省くことができるので、当該照合対象の顔画像の者が未登録者であるとの判定をすみやかに下すことができる。 As mentioned above, although one Embodiment of this invention was described, this invention can also be implemented with another form. For example, in the above-described embodiment, the example in which the collation data of a plurality of face images is registered in the collation data storage unit 25 has been described. However, the collation data of only one face image is registered in the collation data storage unit 25. Also good. In this case, for example, the similarity between the image data to be processed and the representative collation data is compared with a predetermined threshold value, and if the similarity does not exceed the threshold value, collation with the individual collation data is performed. What is necessary is just to complete | finish recognition processing, without performing. As a result, when the face image to be collated is clearly different from the face image of the registered person, it is possible to omit the collation processing for a plurality of individual collation data, so that the person of the face image to be collated is an unregistered person. You can make a quick decision that there is.
また、前記の実施形態では、立ち入り制限区域への入場制限のためのこの発明が適用される例について説明したが、たとえば、家庭用ロボットや接客ロボットのように対人対応の可能なロボットにこの発明の画像認識装置を組み込んで用いることもできる。これにより、ロボットは、登録されている人物の顔を短時間で正確に認識できるから、迅速かつ的確な対人対応が可能になる。たとえば、このようなロボットは、認識した人物に応じた適切な対応を優れた応答性で実行できる。 In the above-described embodiment, the example in which the present invention for restricting entrance to the restricted access area is applied has been described. For example, the present invention is applied to a robot capable of dealing with people such as a home robot and a customer service robot. It is also possible to incorporate and use the image recognition apparatus. As a result, the robot can accurately recognize the face of the registered person in a short time, so that it is possible to deal with the person quickly and accurately. For example, such a robot can execute an appropriate response according to the recognized person with excellent responsiveness.
顔画像の認識は、他にも、膨大な画像データ(静止画または動画)から特定人物の顔画像を抽出したりする処理に用いることもできる。具体的には、犯罪捜査において、ビデオカメラで撮像された映像から容疑者の顔画像を抽出したりする処理に顔画像認識処理を適用できる。
さらに、前記の実施形態では、認識対象物が顔画像である場合について説明したが、既述のとおり、この発明は、顔画像以外の認識対象物の認識にも適用可能である。
The recognition of a face image can also be used for a process of extracting a face image of a specific person from a huge amount of image data (still image or moving image). Specifically, face image recognition processing can be applied to processing of extracting a suspect's face image from video captured by a video camera in a criminal investigation.
Furthermore, although the case where the recognition target object is a face image has been described in the above embodiment, as described above, the present invention can also be applied to recognition of a recognition target object other than a face image.
その他、特許請求の範囲に記載された事項の範囲で種々の設計変更を施すことが可能である。 In addition, various design changes can be made within the scope of the matters described in the claims.
1 カメラ
2 ケーブル
3 コンピュータ
4 表示器
5 ディスプレイ
6 入力操作部
7 ゲート開閉器
8 CD−ROM
10 CPU
11 ROM
12 RAM
12a 画像メモリ
12b 代表類似度記憶領域
12c 個別類似度記憶領域
13 バス
14 ハードディスクドライブ
15 CD−ROMドライブ
16 ディスプレイコントローラ
17 入力部コントローラ
18 画像インタフェース部
19 表示制御インタフェース部
20 ゲート開閉制御インタフェース部
25 照合データ記憶部
26 照合用辞書記憶部
30 顔画像検出部
31 粗検出ウィンドウ設定部
32 周辺領域識別部
33 周辺領域特徴辞書
34 精密検出ウィンドウ設定部
35 顔画像識別部
36 顔画像特徴辞書
37 顔画像出力処理部
40 顔認識処理部
41 類似度演算部
42 照合データ選択部
43 判断部
45 特徴領域設定部
45A 特徴領域設定部
46 第1特徴量演算部
47 第2特徴量演算部
48 相関値演算部
49 比較部
50 重み付け加算部
51 オフライン実行系
52 オンライン実行系
55 水平分割線
56 垂直分割線
61 顔画像サンプル格納部
62 周辺領域画像サンプル格納部
63 顔画像特徴計算部
64 周辺領域特徴計算部
70 処理ウィンドウ
71 矩形領域
72 矩形領域
77 粗検出ウィンドウ
80 撮像画像
Aj 特徴領域
ak 部分領域
x1 k 領域値
x2 k 領域値
Cj 相関値
I1 顔画像
I2 顔画像
1 Camera 2 Cable 3 Computer 4 Display 5 Display 6 Input Operation Unit 7 Gate Switch 8 CD-ROM
10 CPU
11 ROM
12 RAM
12a Image memory 12b Representative similarity storage area 12c Individual similarity storage area 13 Bus 14 Hard disk drive 15 CD-ROM drive 16 Display controller 17 Input controller 18 Image interface unit 19 Display control interface unit 20 Gate open / close control interface unit 25 Reference data Storage unit 26 Collation dictionary storage unit 30 Face image detection unit 31 Coarse detection window setting unit 32 Peripheral region identification unit 33 Peripheral region feature dictionary 34 Precision detection window setting unit 35 Face image identification unit 36 Face image feature dictionary 37 Face image output processing Unit 40 face recognition processing unit 41 similarity calculation unit 42 collation data selection unit 43 determination unit 45 feature region setting unit 45A feature region setting unit 46 first feature amount calculation unit 47 second feature amount calculation unit 48 correlation value calculation unit 49 comparison Part DESCRIPTION OF SYMBOLS 50 Weighting addition part 51 Offline execution system 52 Online execution system 55 Horizontal parting line 56 Vertical parting line 61 Face image sample storage part 62 Peripheral area image sample storage part 63 Face image feature calculation part 64 Peripheral area feature calculation part 70 Processing window 71 Rectangular Area 72 rectangular area 77 coarse detection window 80 captured image A j feature area a k partial area x 1 k area value x 2 k area value C j correlation value I 1 face image I 2 face image
Claims (22)
認識対象物が取り得る複数の個別外観に対応した複数の個別照合データが予め記憶された個別照合データ記憶手段と、
前記複数の個別外観を代表する代表外観に対応した代表照合データを生成する代表照合データ生成手段と、
処理対象の画像データと前記代表照合データ生成手段が生成する代表照合データとを照合し、当該画像データに対応した画像と前記代表照合データに対応した代表外観との類似度を演算する代表照合手段と、
前記処理対象の画像データと前記個別照合データ記憶手段に記憶されている個別照合データとを照合し、当該画像データに対応した画像と当該個別照合データに対応した個別外観との類似度を演算するための個別照合手段と、
前記代表照合手段によって演算された類似度に基づいて、前記個別照合データ記憶手段に記憶された複数の個別照合データを前記個別照合手段による照合対象とするか、この個別照合手段による照合対象から除外するかを定める個別照合制御手段とを含むことを特徴とする画像認識装置。 An image recognition apparatus for processing image data and recognizing a recognition object in an image corresponding to the image data,
Individual collation data storage means in which a plurality of individual collation data corresponding to a plurality of individual appearances that the recognition object can take are stored in advance;
Representative collation data generating means for generating representative collation data corresponding to a representative appearance representing the plurality of individual appearances;
Representative collation means for collating image data to be processed with representative collation data generated by the representative collation data generating means, and calculating a similarity between an image corresponding to the image data and a representative appearance corresponding to the representative collation data When,
The image data to be processed and the individual collation data stored in the individual collation data storage unit are collated, and the degree of similarity between the image corresponding to the image data and the individual appearance corresponding to the individual collation data is calculated. Individual verification means for
Based on the similarity calculated by the representative collating unit, a plurality of individual collation data stored in the individual collation data storage unit are to be collated by the individual collating unit or excluded from collation targets by the individual collating unit. And an individual verification control means for determining whether or not to perform the image recognition.
認識対象物が取り得る複数の個別外観に対応した複数の個別照合データが、複数のグループ毎に分類して記憶された個別照合データ記憶手段と、
この個別照合データ記憶手段に記憶された複数のグループの個別照合データをそれぞれ代表する複数の代表照合データを生成する代表照合データ生成手段と、
処理対象の画像データと前記代表照合データが生成する複数の代表照合データとをそれぞれ照合し、当該画像データに対応した画像と前記複数の代表照合データにそれぞれ対応した複数の代表外観との類似度を演算する代表照合手段と、
処理対象の画像データに対応した画像と前記個別照合データ記憶手段に記憶された個別照合データに対応した個別外観との類似度を演算するための個別照合手段と、
前記代表照合手段によって前記複数の代表照合データに関してそれぞれ演算された類似度に基づいて、前記個別照合データ記憶手段に記憶された個別照合データの複数のグループのなかから、前記個別照合手段によって前記処理対象の画像データと照合すべき個別照合データのグループを選択し、選択されなかったグループの個別照合データを前記個別照合手段による照合対象から除外する個別照合制御手段とを含むことを特徴とする画像認識装置。 An image recognition apparatus for processing image data and recognizing a recognition object in an image corresponding to the image data,
A plurality of individual collation data corresponding to a plurality of individual appearances that can be taken by the recognition object, and individual collation data storage means that is classified and stored for each of a plurality of groups;
Representative collation data generating means for generating a plurality of representative collation data representing the individual collation data of a plurality of groups stored in the individual collation data storage means;
The image data to be processed is collated with a plurality of representative collation data generated by the representative collation data, and the similarity between the image corresponding to the image data and the plurality of representative appearances respectively corresponding to the plurality of representative collation data A representative verification means for calculating
Individual matching means for calculating the similarity between the image corresponding to the image data to be processed and the individual appearance corresponding to the individual matching data stored in the individual matching data storage means;
Based on the similarity calculated for each of the plurality of representative collation data by the representative collation means, the processing by the individual collation means from among a plurality of groups of individual collation data stored in the individual collation data storage means. And an individual collation control unit that selects a group of individual collation data to be collated with target image data and excludes individual collation data of the group that has not been selected from the collation target by the individual collation unit. Recognition device.
前記最高類似度が前記認識しきい値よりも大きい場合に、当該最高類似度の個別照合データに対応する認識結果を出力する認識結果出力手段と、
前記最高類似度が前記認識しきい値以下の場合に、前記個別照合制御手段によって前記照合対象から除外された個別照合データの少なくとも一部を前記個別照合手段による照合対象に加え、この個別照合手段による個別照合処理を行わせる再個別照合制御手段とをさらに含むことを特徴とする請求項3ないし5のいずれかに記載の画像認識装置。 Means for determining whether or not a maximum similarity that is a maximum value of a plurality of similarities calculated by the individual verification means for a plurality of individual verification data is greater than a predetermined recognition threshold;
A recognition result output means for outputting a recognition result corresponding to the individual matching data of the highest similarity when the highest similarity is larger than the recognition threshold;
When the highest similarity is less than or equal to the recognition threshold, at least a part of the individual verification data excluded from the verification target by the individual verification control unit is added to the verification target by the individual verification unit, and this individual verification unit 6. The image recognition apparatus according to claim 3, further comprising a re-individual collation control means for performing an individual collation process according to.
前記再個別照合制御手段は、前記個別照合手段による照合対象から除外されている個別照合データのグループのうち、前記代表外観類似度記憶手段に記憶されている類似度が最も高い代表照合データに対応したグループの個別照合データを、前記個別照合手段による照合対象に加えるものであることを特徴とする請求項6記載の画像認識装置。 Further including representative appearance similarity storage means for storing a plurality of similarities obtained by the representative verification means;
The re-individual collation control means corresponds to representative collation data having the highest similarity stored in the representative appearance similarity storage means among the groups of individual collation data excluded from the collation target by the individual collation means. 7. The image recognition apparatus according to claim 6, wherein the individual collation data of the selected group is added to a collation target by the individual collation means.
認識対象物が取り得る複数の個別外観に対応した複数の個別照合データが予め記憶された個別照合データ記憶手段を準備するステップと、
前記複数の個別外観を代表する代表外観に対応した代表照合データを生成するステップと、
処理対象の画像データと前記生成される代表照合データとを照合し、当該画像データに対応した画像と前記代表照合データに対応した代表外観との類似度を演算する代表照合ステップと、
前記処理対象の画像データと前記個別照合データ記憶手段に記憶されている個別照合データとを照合し、当該画像データに対応した画像と当該個別照合データに対応した個別外観との類似度を演算するための個別照合ステップと、
前記代表照合手段によって演算された類似度に基づいて、前記個別照合データ記憶手段に記憶された複数の個別照合データを前記個別照合ステップにおける照合対象とするか、この個別照合ステップによる照合対象から除外するかを定める個別照合対象選択ステップとを含むことを特徴とする画像認識方法。 An image recognition method for processing image data and recognizing a recognition object in an image corresponding to the image data,
Preparing individual collation data storage means in which a plurality of individual collation data corresponding to a plurality of individual appearances that can be taken by the recognition object are stored in advance;
Generating representative collation data corresponding to a representative appearance representing the plurality of individual appearances;
A representative collation step of collating the image data to be processed and the generated representative collation data, and calculating the similarity between the image corresponding to the image data and the representative appearance corresponding to the representative collation data;
The image data to be processed and the individual collation data stored in the individual collation data storage unit are collated, and the degree of similarity between the image corresponding to the image data and the individual appearance corresponding to the individual collation data is calculated. An individual verification step for
Based on the similarity calculated by the representative collating unit, a plurality of individual collation data stored in the individual collation data storage unit are set as collation targets in the individual collation step or excluded from collation targets in the individual collation step. An image recognition method comprising: an individual verification target selection step for determining whether to perform the verification.
認識対象物が取り得る複数の個別外観に対応した複数の個別照合データが、複数のグループ毎に分類して記憶された個別照合データ記憶手段を準備するステップと、
この個別照合データ記憶手段に記憶された複数のグループの個別照合データをそれぞれ代表する複数の代表照合データを生成するステップと、
処理対象の画像データと前記生成される複数の代表照合データとをそれぞれ照合し、当該画像データに対応した画像と前記複数の代表照合データにそれぞれ対応した複数の代表外観との類似度を演算する代表照合ステップと、
処理対象の画像データに対応した画像と前記個別照合データ記憶手段に記憶された個別照合データに対応した個別外観との類似度を演算するための個別照合ステップと、
前記代表照合ステップにおいて前記複数の代表照合データに関してそれぞれ演算された類似度に基づき、前記個別照合データ記憶手段に記憶された個別照合データの複数のグループのなかから、前記個別照合ステップにおいて前記処理対象の画像データと照合すべき個別照合データのグループを選択し、選択されなかったグループの個別照合データを前記個別照合ステップにおける照合対象から除外する個別照合対象選択ステップとを含むことを特徴とする画像認識方法。 An image recognition method for processing image data and recognizing a recognition object in an image corresponding to the image data,
Preparing individual collation data storage means in which a plurality of individual collation data corresponding to a plurality of individual appearances that can be taken by the recognition object are classified and stored for each of a plurality of groups;
Generating a plurality of representative collation data representing the individual collation data of a plurality of groups stored in the individual collation data storage means;
The image data to be processed is collated with the generated plurality of representative collation data, and the similarity between the image corresponding to the image data and the plurality of representative appearances respectively corresponding to the plurality of representative collation data is calculated. A representative verification step;
An individual collation step for calculating the similarity between the image corresponding to the image data to be processed and the individual appearance corresponding to the individual collation data stored in the individual collation data storage means;
Based on the similarity calculated for each of the plurality of representative collation data in the representative collation step, from among a plurality of groups of individual collation data stored in the individual collation data storage means, the processing target in the individual collation step An individual collation target selecting step of selecting a group of individual collation data to be collated with the image data and excluding the individual collation data of the unselected group from the collation target in the individual collation step. Recognition method.
前記最高類似度が前記認識しきい値よりも大きい場合に、当該最高類似度の個別照合データに対応する認識結果を出力するステップと、
前記最高類似度が前記認識しきい値以下の場合に、前記個別照合対象選択ステップによって前記照合対象から除外された個別照合データの少なくとも一部を前記個別照合ステップでの照合対象に加える個別照合対象再選択ステップとをさらに含むことを特徴とする請求項10ないし12のいずれかに記載の画像認識方法。 Determining whether the highest similarity, which is the highest value of the plurality of similarities calculated in the individual matching step with respect to a plurality of individual matching data, is greater than a predetermined recognition threshold;
Outputting the recognition result corresponding to the individual matching data of the highest similarity when the highest similarity is larger than the recognition threshold;
Individual collation target for adding at least a part of the individual collation data excluded from the collation target by the individual collation target selection step to the collation target in the individual collation step when the highest similarity is not more than the recognition threshold The image recognition method according to claim 10, further comprising a reselection step.
前記コンピュータは、認識対象物が取り得る複数の個別外観に対応した複数の個別照合データが予め記憶された個別照合データ記憶手段を備え、
前記コンピュータプログラムは、前記コンピュータを、
前記複数の個別外観を代表する代表外観に対応した代表照合データを生成する代表照合データ生成手段、
処理対象の画像データと前記代表照合データ生成手段が生成する代表照合データとを照合し、当該画像データに対応した画像と前記代表照合データに対応した代表外観との類似度を演算する代表照合手段、
前記処理対象の画像データと前記個別照合データ記憶手段に記憶されている個別照合データとを照合し、当該画像データに対応した画像と当該個別照合データに対応した個別外観との類似度を演算するための個別照合手段、および
前記代表照合手段によって演算された類似度に基づいて、前記個別照合データ記憶手段に記憶された複数の個別照合データを前記個別照合手段による照合対象とするか、この個別照合手段による照合対象から除外するかを定める個別照合制御手段
として機能させるものであることを特徴とするコンピュータプログラム。 A computer program for operating a computer as an image recognition apparatus for processing image data and recognizing a recognition object in an image corresponding to the image data,
The computer includes individual collation data storage means in which a plurality of individual collation data corresponding to a plurality of individual appearances that can be taken by the recognition object are stored in advance.
The computer program stores the computer,
Representative collation data generating means for generating representative collation data corresponding to a representative appearance representing the plurality of individual appearances;
Representative collation means for collating image data to be processed with representative collation data generated by the representative collation data generating means, and calculating a similarity between an image corresponding to the image data and a representative appearance corresponding to the representative collation data ,
The image data to be processed and the individual collation data stored in the individual collation data storage unit are collated, and the degree of similarity between the image corresponding to the image data and the individual appearance corresponding to the individual collation data is calculated. And a plurality of individual collation data stored in the individual collation data storage unit based on the similarity calculated by the representative collation unit or the individual collation data by the individual collation unit. A computer program which functions as an individual collation control means for determining whether to exclude from a collation target by the collation means.
前記コンピュータは、認識対象物が取り得る複数の個別外観に対応した複数の個別照合データを複数のグループ毎に分類して記憶した個別照合データ記憶手段を備え、
前記コンピュータプログラムは、前記コンピュータを、
前記個別照合データ記憶手段に記憶された複数のグループの個別照合データをそれぞれ代表する複数の代表照合データを生成する代表照合データ生成手段、
処理対象の画像データと前記代表照合データが生成する複数の代表照合データとをそれぞれ照合し、当該画像データに対応した画像と前記複数の代表照合データにそれぞれ対応した複数の代表外観との類似度を演算する代表照合手段、
処理対象の画像データに対応した画像と前記個別照合データ記憶手段に記憶された個別照合データに対応した個別外観との類似度を演算するための個別照合手段、
前記代表照合手段によって前記複数の代表照合データに関してそれぞれ演算された類似度に基づいて、前記個別照合データ記憶手段に記憶された個別照合データの複数のグループのなかから、前記個別照合手段によって前記処理対象の画像データと照合すべき個別照合データのグループを選択し、選択されなかったグループの個別照合データを前記個別照合手段による照合対象から除外する個別照合制御手段
として機能させるものであることを特徴とするコンピュータプログラム。 A computer program for operating a computer as an image recognition apparatus for processing image data and recognizing a recognition object in an image corresponding to the image data,
The computer includes individual collation data storage means that classifies and stores a plurality of individual collation data corresponding to a plurality of individual appearances that can be taken by the recognition target, for each of a plurality of groups,
The computer program stores the computer,
Representative collation data generating means for generating a plurality of representative collation data representing the individual collation data of a plurality of groups stored in the individual collation data storage means,
The image data to be processed is collated with a plurality of representative collation data generated by the representative collation data, and the similarity between the image corresponding to the image data and the plurality of representative appearances respectively corresponding to the plurality of representative collation data Representative verification means for calculating
Individual collating means for calculating the similarity between the image corresponding to the image data to be processed and the individual appearance corresponding to the individual collating data stored in the individual collating data storage means;
Based on the similarity calculated for each of the plurality of representative collation data by the representative collation means, the processing by the individual collation means from among a plurality of groups of individual collation data stored in the individual collation data storage means. A group of individual collation data to be collated with target image data is selected, and the individual collation data of the unselected group is made to function as an individual collation control unit that excludes from the collation target by the individual collation unit. Computer program.
複数の個別照合データに対して前記個別照合手段によって演算された複数の類似度の最高値である最高類似度が所定の認識しきい値よりも大きいかどうかを判断する手段、
前記最高類似度が前記認識しきい値よりも大きい場合に、当該最高類似度の個別照合データに対応する認識結果を出力する認識結果出力手段、
前記最高類似度が前記認識しきい値以下の場合に、前記個別照合制御手段によって前記照合対象から除外された個別照合データの少なくとも一部を前記個別照合手段による照合対象に加え、この個別照合手段による個別照合処理を行わせる再個別照合制御手段
として機能させるものであることを特徴とする請求項17ないし19のいずれかに記載のコンピュータプログラム。 The computer program further includes the computer,
Means for determining whether or not a maximum similarity that is a maximum value of a plurality of similarities calculated by the individual verification means for a plurality of individual verification data is greater than a predetermined recognition threshold;
A recognition result output means for outputting a recognition result corresponding to the individual collation data of the highest similarity when the highest similarity is larger than the recognition threshold;
When the highest similarity is less than or equal to the recognition threshold value, at least a part of the individual verification data excluded from the verification target by the individual verification control unit is added to the verification target by the individual verification unit, and this individual verification unit The computer program according to any one of claims 17 to 19, wherein the computer program functions as a re-individual collation control means for performing the individual collation processing according to the above.
前記再個別照合制御手段は、前記個別照合手段による照合対象から除外されている個別照合データのグループのうち、前記代表外観類似度記憶手段に記憶されている類似度が最も高い代表照合データに対応したグループの個別照合データを、前記個別照合手段による照合対象に加えるものであることを特徴とする請求項20記載のコンピュータプログラム。 The computer further includes representative appearance similarity storage means for storing a plurality of similarities obtained by the representative matching means,
The re-individual collation control means corresponds to representative collation data having the highest similarity stored in the representative appearance similarity storage means among the groups of individual collation data excluded from the collation target by the individual collation means. 21. The computer program according to claim 20, wherein the individual collation data of the selected group is added to a collation target by the individual collation means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004209051A JP2006031387A (en) | 2004-07-15 | 2004-07-15 | Image recognition device, image recognition method, image recognition program, and recording medium to which the image recognition program is recorded |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004209051A JP2006031387A (en) | 2004-07-15 | 2004-07-15 | Image recognition device, image recognition method, image recognition program, and recording medium to which the image recognition program is recorded |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006031387A true JP2006031387A (en) | 2006-02-02 |
Family
ID=35897651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004209051A Pending JP2006031387A (en) | 2004-07-15 | 2004-07-15 | Image recognition device, image recognition method, image recognition program, and recording medium to which the image recognition program is recorded |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006031387A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007226741A (en) * | 2006-02-27 | 2007-09-06 | Mitsubishi Electric Corp | Face collation system |
WO2007105768A1 (en) * | 2006-03-15 | 2007-09-20 | Omron Corporation | Face-image registration device, face-image registration method, face-image registration program, and recording medium |
JP2007249339A (en) * | 2006-03-14 | 2007-09-27 | Fujitsu Ltd | Biometric authentication method and biometric authentication device |
JP2008134937A (en) * | 2006-11-29 | 2008-06-12 | Hitachi Ltd | Method for reissuing ticket and ticket management center |
JP2008269334A (en) * | 2007-04-20 | 2008-11-06 | Yamaha Motor Co Ltd | Vending machine |
JP2010027035A (en) * | 2008-06-16 | 2010-02-04 | Canon Inc | Personal authentication equipment and personal authentication method |
JP2010160757A (en) * | 2009-01-09 | 2010-07-22 | Sony Corp | Subject detection device, image capturing apparatus, subject detection method and program |
JP2010160758A (en) * | 2009-01-09 | 2010-07-22 | Sony Corp | Subject detection device, learning device, subject detection method, and program |
JP2010231455A (en) * | 2009-03-26 | 2010-10-14 | Panasonic Electric Works Co Ltd | Method and device for signal identification |
EP2367139A1 (en) | 2010-03-15 | 2011-09-21 | Omron Corporation | Matching device, digital image processing system, matching device control program, computer-readable recording medium, and matching device control method |
JP2011215883A (en) * | 2010-03-31 | 2011-10-27 | Secom Co Ltd | Object detection device and learning device of the same |
JP2014116033A (en) * | 2008-06-16 | 2014-06-26 | Canon Inc | Personal authentication device, personal authentication method, camera, program, and storage medium |
JP2015106300A (en) * | 2013-11-29 | 2015-06-08 | キヤノン株式会社 | Image search device, control method for image search device, and program |
JP2019175122A (en) * | 2018-03-28 | 2019-10-10 | 株式会社エヌ・ティ・ティ・データ | Information processing system, information processing method and program |
KR102041399B1 (en) * | 2019-04-10 | 2019-11-06 | 푸이완 리옹 | Apparatus and method for price comparison of cosmetic |
WO2019244663A1 (en) * | 2018-06-18 | 2019-12-26 | Necソリューションイノベータ株式会社 | Facial authentication system, terminal device, facial authentication method, and computer-readable recording medium |
JPWO2021229763A1 (en) * | 2020-05-14 | 2021-11-18 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0714011A (en) * | 1993-06-25 | 1995-01-17 | Matsushita Electric Ind Co Ltd | Method and device for character recognition |
JP2000137811A (en) * | 1998-10-30 | 2000-05-16 | Oki Electric Ind Co Ltd | Individual identifier |
JP2001266151A (en) * | 2000-03-17 | 2001-09-28 | Toshiba Corp | Personal identification device and method |
WO2002029720A1 (en) * | 2000-09-29 | 2002-04-11 | Chuo Hatsujo Kabushiki Kaisha | Apparatus and method for verifying fingerprint |
JP2003099776A (en) * | 2001-09-25 | 2003-04-04 | Hitachi Ltd | Image processor |
JP2003346149A (en) * | 2002-05-24 | 2003-12-05 | Omron Corp | Face collating device and bioinformation collating device |
-
2004
- 2004-07-15 JP JP2004209051A patent/JP2006031387A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0714011A (en) * | 1993-06-25 | 1995-01-17 | Matsushita Electric Ind Co Ltd | Method and device for character recognition |
JP2000137811A (en) * | 1998-10-30 | 2000-05-16 | Oki Electric Ind Co Ltd | Individual identifier |
JP2001266151A (en) * | 2000-03-17 | 2001-09-28 | Toshiba Corp | Personal identification device and method |
WO2002029720A1 (en) * | 2000-09-29 | 2002-04-11 | Chuo Hatsujo Kabushiki Kaisha | Apparatus and method for verifying fingerprint |
JP2003099776A (en) * | 2001-09-25 | 2003-04-04 | Hitachi Ltd | Image processor |
JP2003346149A (en) * | 2002-05-24 | 2003-12-05 | Omron Corp | Face collating device and bioinformation collating device |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007226741A (en) * | 2006-02-27 | 2007-09-06 | Mitsubishi Electric Corp | Face collation system |
JP2007249339A (en) * | 2006-03-14 | 2007-09-27 | Fujitsu Ltd | Biometric authentication method and biometric authentication device |
JP4725377B2 (en) * | 2006-03-15 | 2011-07-13 | オムロン株式会社 | Face image registration device, face image registration method, face image registration program, and recording medium |
WO2007105768A1 (en) * | 2006-03-15 | 2007-09-20 | Omron Corporation | Face-image registration device, face-image registration method, face-image registration program, and recording medium |
JP2007249588A (en) * | 2006-03-15 | 2007-09-27 | Omron Corp | Face image registration device, method, program, and storage medium |
KR100996066B1 (en) * | 2006-03-15 | 2010-11-25 | 오므론 가부시키가이샤 | Facial image registration device, facial image registration method, and recording medium |
US8848985B2 (en) | 2006-03-15 | 2014-09-30 | Omron Corporation | Face-image registration device, face-image registration method, face-image registration program, and storage medium |
JP2008134937A (en) * | 2006-11-29 | 2008-06-12 | Hitachi Ltd | Method for reissuing ticket and ticket management center |
JP2008269334A (en) * | 2007-04-20 | 2008-11-06 | Yamaha Motor Co Ltd | Vending machine |
JP2010027035A (en) * | 2008-06-16 | 2010-02-04 | Canon Inc | Personal authentication equipment and personal authentication method |
JP2014116033A (en) * | 2008-06-16 | 2014-06-26 | Canon Inc | Personal authentication device, personal authentication method, camera, program, and storage medium |
US8912885B2 (en) | 2008-06-16 | 2014-12-16 | Canon Kabushiki Kaisha | Personal authentication apparatus and personal authentication method |
JP2010160758A (en) * | 2009-01-09 | 2010-07-22 | Sony Corp | Subject detection device, learning device, subject detection method, and program |
JP4710978B2 (en) * | 2009-01-09 | 2011-06-29 | ソニー株式会社 | Object detection apparatus, imaging apparatus, object detection method, and program |
JP4710979B2 (en) * | 2009-01-09 | 2011-06-29 | ソニー株式会社 | Object detection device, learning device, object detection method and program |
US8547438B2 (en) | 2009-01-09 | 2013-10-01 | Sony Corporation | Apparatus, method and program for recognizing an object in an image |
JP2010160757A (en) * | 2009-01-09 | 2010-07-22 | Sony Corp | Subject detection device, image capturing apparatus, subject detection method and program |
US8391551B2 (en) | 2009-01-09 | 2013-03-05 | Sony Corporation | Object detecting device, learning device, object detecting method, and program |
CN102362282A (en) * | 2009-03-26 | 2012-02-22 | 松下电工神视株式会社 | Signal classification method and signal classification device |
JP2010231455A (en) * | 2009-03-26 | 2010-10-14 | Panasonic Electric Works Co Ltd | Method and device for signal identification |
EP2367139A1 (en) | 2010-03-15 | 2011-09-21 | Omron Corporation | Matching device, digital image processing system, matching device control program, computer-readable recording medium, and matching device control method |
US8929611B2 (en) | 2010-03-15 | 2015-01-06 | Omron Corporation | Matching device, digital image processing system, matching device control program, computer-readable recording medium, and matching device control method |
JP2011215883A (en) * | 2010-03-31 | 2011-10-27 | Secom Co Ltd | Object detection device and learning device of the same |
JP2015106300A (en) * | 2013-11-29 | 2015-06-08 | キヤノン株式会社 | Image search device, control method for image search device, and program |
JP7209472B2 (en) | 2018-03-28 | 2023-01-20 | 株式会社エヌ・ティ・ティ・データ | Information processing system, information processing method, and program |
JP2019175122A (en) * | 2018-03-28 | 2019-10-10 | 株式会社エヌ・ティ・ティ・データ | Information processing system, information processing method and program |
WO2019244663A1 (en) * | 2018-06-18 | 2019-12-26 | Necソリューションイノベータ株式会社 | Facial authentication system, terminal device, facial authentication method, and computer-readable recording medium |
JPWO2019244663A1 (en) * | 2018-06-18 | 2021-06-24 | Necソリューションイノベータ株式会社 | Face recognition system, terminal device, face recognition method, and program |
KR102041399B1 (en) * | 2019-04-10 | 2019-11-06 | 푸이완 리옹 | Apparatus and method for price comparison of cosmetic |
WO2021229763A1 (en) * | 2020-05-14 | 2021-11-18 | 富士通株式会社 | Authentication method, authentication program, and authentication device |
JPWO2021229763A1 (en) * | 2020-05-14 | 2021-11-18 | ||
JP7327662B2 (en) | 2020-05-14 | 2023-08-16 | 富士通株式会社 | Authentication method, authentication program and authentication device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7006671B2 (en) | Personal identification apparatus and method | |
US8150109B2 (en) | Large volume face recognition apparatus and method | |
JP2007206833A (en) | Biological collation method and device | |
Monwar et al. | Multimodal biometric system using rank-level fusion approach | |
JP2006031387A (en) | Image recognition device, image recognition method, image recognition program, and recording medium to which the image recognition program is recorded | |
JP5010905B2 (en) | Face recognition device | |
KR100866792B1 (en) | Method and apparatus for generating face descriptor using extended local binary pattern and method and apparatus for face recognition using same | |
KR100944247B1 (en) | Facial recognition method and system | |
KR101254177B1 (en) | A system for real-time recognizing a face using radial basis function neural network algorithms | |
JP4351982B2 (en) | Personal authentication method, apparatus and program | |
US8914313B2 (en) | Confidence based vein image recognition and authentication | |
JP6111297B2 (en) | Method, apparatus, and program | |
KR101464446B1 (en) | Method for user vertification using face recognition and head pose estimation and apparatus thereof | |
JP4468756B2 (en) | Similarity calculation device, recognition device, similarity calculation method, recognition method, collation program for recording correlation-based similarity of images, and recording medium recording the same | |
KR101087765B1 (en) | Face Recognition Based Crime Suspect Detection and Identification System | |
JP2010152706A (en) | Biometric authentication device | |
Suma et al. | Real time face recognition of human faces by using LBPH and Viola Jones algorithm | |
US9147130B2 (en) | Information processing method, information processing apparatus, and recording medium for identifying a class of an object by using a plurality of discriminators | |
TWI325568B (en) | A method for face varification | |
JP2004078686A (en) | Personal identification device and method, passage control device and method | |
KR102225623B1 (en) | Face recognizing system using keypoint descriptor matching and majority vote and method thereof | |
Yogalakshmi et al. | Review on digital image processing techniques for face recognition | |
US20240046696A1 (en) | System and method for detecting an object within an image | |
KR101116737B1 (en) | Person Identification System of Interest | |
JP7420263B2 (en) | Information processing device, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091126 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100318 |