JP5279007B2 - Verification system, verification method, program, and recording medium - Google Patents
Verification system, verification method, program, and recording medium Download PDFInfo
- Publication number
- JP5279007B2 JP5279007B2 JP2008168931A JP2008168931A JP5279007B2 JP 5279007 B2 JP5279007 B2 JP 5279007B2 JP 2008168931 A JP2008168931 A JP 2008168931A JP 2008168931 A JP2008168931 A JP 2008168931A JP 5279007 B2 JP5279007 B2 JP 5279007B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- communication terminal
- data
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Collating Specific Patterns (AREA)
Abstract
Description
本発明は、照合システム、照合方法、プログラム及び記録媒体に関し、特に、画像撮影機能を備えた携帯通信端末と、前記携帯通信端末の画像撮影機能により撮影して得られた画像情報に基づいて照合処理を行うサーバを備える照合システム等に関するものである。 The present invention relates to a collation system, a collation method, a program, and a recording medium, and in particular, collation based on a portable communication terminal having an image photographing function and image information obtained by photographing with the image photographing function of the portable communication terminal. The present invention relates to a verification system including a server that performs processing.
金融や入出国管理などの高度な安全性が求められる場面において、本人確認を行う機会が増大している。本人確認のためには、人間の生体に関する情報を用いたバイオメトリック認証が特に注目されている。この認証に用いる生体情報としては、身体的な特徴と行動的な特徴の2種類がある。前者は、指紋、掌形、顔、虹彩、静脈等が相当し、後者は、声紋、署名等が代表的である。バイオメトリック認証は、ICカード等の携帯デバイスを所持することやパスワードを覚えることを必要とせず、利用者の負担を軽減できることから、従来の認証方法と比較して利便性が高い。また、全ての人が異なる情報を所持する唯一性という生体情報特有の性質を用いるので、なりすまし等の攻撃に対して有効なシステムを構築しうる。 Opportunities for identity verification are increasing in situations where high security is required, such as finance and immigration. In order to verify the identity, biometric authentication using information related to a human living body has attracted particular attention. There are two types of biometric information used for authentication: physical characteristics and behavioral characteristics. The former corresponds to a fingerprint, a palm shape, a face, an iris, a vein, and the like, and the latter is typically a voice print, a signature, and the like. Biometric authentication is more convenient than conventional authentication methods because it does not require possession of a portable device such as an IC card or remembering a password, and can reduce the burden on the user. In addition, since a unique characteristic of biological information such as uniqueness in which all people have different information is used, a system that is effective against attacks such as impersonation can be constructed.
ただし、生体情報の元となる生体自身は変化させることが困難である。そのため、一度生体情報が漏洩してしまうと、同じ生体情報を安全に利用することができない。これは認証の安全性としての基本的な概念のひとつであるフォールトトレラントの観点からは、単純な秘匿情報を用いた認証より脆弱であるといえる。この問題のうち、特にサービス提供者等の認証者側にあらかじめ登録してある生体情報の漏洩については、生体情報を一方向関数や適切な暗号化を用いて変換することで、登録している情報の取り消しを可能にする解法が提案されている。このアイデアに基づくバイオメトリック認証は取り消し可能であると呼ばれる(非特許文献1参照)。 However, it is difficult to change the living body itself that is the source of the biological information. Therefore, once biometric information leaks, the same biometric information cannot be used safely. From the viewpoint of fault tolerance, which is one of the basic concepts of authentication security, this can be said to be more vulnerable than authentication using simple secret information. Among these problems, in particular, leakage of biometric information registered in advance on the certifier side such as a service provider is registered by converting the biometric information using a one-way function or appropriate encryption. Solutions have been proposed that allow the cancellation of information. Biometric authentication based on this idea is called revocable (see Non-Patent Document 1).
しかしながら、今後、バイオメトリック認証がユビキタスシステムに導入された場合、情報漏洩の可能性が増加することが予想される。 However, if biometric authentication is introduced into the ubiquitous system in the future, the possibility of information leakage is expected to increase.
さらに、従来のバイオメトリック認証は、生体情報の採取条件が一定の範囲内にあることを前提としていた。しかしながら、例えばデジタルカメラや携帯電話などの画像撮影機能を備えた携帯デバイス等により生体情報を撮影してバイオメトリック認証を実現する場合、生体情報は、様々な撮影条件(距離、光量、など)下で撮影される。そのため、情報処理量が増加し、携帯デバイス等の計算資源が制限された環境では実装することは困難となる。他方、単純に情報量を削減して処理を簡略化しても、認証処理の精度が劣化することとなる。これは、生体情報による照合処理において、一般的に存在する課題である。 Furthermore, the conventional biometric authentication is based on the premise that biometric information collection conditions are within a certain range. However, for example, when biometric authentication is realized by capturing biometric information with a portable device having an image capturing function such as a digital camera or a mobile phone, the biometric information is subject to various imaging conditions (distance, light quantity, etc.). Taken at. For this reason, the amount of information processing increases, and it becomes difficult to implement in an environment in which computing resources such as portable devices are limited. On the other hand, even if the amount of information is simply reduced to simplify the process, the accuracy of the authentication process will deteriorate. This is a problem that generally exists in the verification process using biometric information.
そこで、本願発明は、例えば、手相占いサービス等へも応用可能な、画像撮影機能を備えた携帯通信端末を用いたバイオメトリック認証において、生体情報の情報漏洩を防止するとともに、認証の精度保証を行いながら認証処理の負担を軽減して実現可能な照合システム等を提案することを目的とする。 Therefore, the invention of the present application prevents the leakage of biometric information and guarantees the accuracy of authentication in biometric authentication using a portable communication terminal equipped with an image capturing function, which can be applied to, for example, a fortune telling service. The purpose is to propose a collation system that can be realized while reducing the burden of authentication processing.
本願発明の第1の観点は、画像撮影機能を備えた携帯通信端末と前記携帯通信端末の画像撮影機能により撮影して得られた画像情報に基づいて照合処理を行うサーバを備える照合システムにおいて、前記携帯通信端末は、生体情報を画像データとして取得する画像撮影手段と、撮影して得られた画像情報に基づいて特徴データを一方向に生成する画像処理手段と、前記特徴データを前記サーバに送信する特徴データ送信手段、を備え、前記サーバは、前記特徴データを受信する特徴データ受信手段と、前記特徴データ及びデータベースに記憶されたデータに対して近似照合処理を行う近似照合手段、を備える。 A first aspect of the present invention is a collation system including a portable communication terminal having an image photographing function and a server that performs a collation process based on image information obtained by photographing with the image photographing function of the portable communication terminal. The mobile communication terminal includes an image capturing unit that acquires biometric information as image data, an image processing unit that generates feature data in one direction based on image information obtained by capturing, and the feature data to the server. Characteristic data transmitting means for transmitting, and the server includes characteristic data receiving means for receiving the characteristic data, and approximate matching means for performing an approximate matching process on the feature data and data stored in a database. .
本願発明の第2の観点は、第1の観点の照合システムであって、前記画像データは掌紋画像データであり、前記画像処理手段は、前記掌紋画像データによって表わされる画像から特徴点を抽出する特徴点抽出手段と、抽出された特徴点から文字列を生成する文字列生成手段、を有し、前記特徴データ送信手段は、前記特徴データとして前記文字列を前記サーバに送信するものであり、前記近似照合手段は、近似文字列照合処理を行う。 The second aspect of the present invention is the first aspect of the verification system, the image data is palmprint image data, the image processing means extracts a feature point from an image represented by the palm print image data A feature point extraction unit; and a character string generation unit configured to generate a character string from the extracted feature point, wherein the feature data transmission unit transmits the character string as the feature data to the server. The approximate matching means performs an approximate character string matching process.
本願発明の第3の観点は、第2の観点の照合システムであって、前記文字列生成手段は、前記掌紋画像データによって表わされる画像の一点を中心点とし、中心点から時計回り又は反時計回りに特徴点を文字列として並べる。 According to a third aspect of the present invention , there is provided a collation system according to the second aspect , wherein the character string generation means has a point of the image represented by the palmprint image data as a center point, and is clockwise or counterclockwise from the center point. The feature points are arranged around the character string.
本願発明の第4の観点は、第2又は第3の観点の照合システムであって、前記画像処理手段は、前記掌紋画像データをHaar-like特徴により変換して得られた複数の特徴画像を、リフティングパラメータにより重み付けして組み合わせて、新たな特徴画像を生成する。 According to a fourth aspect of the present invention , there is provided a collation system according to the second or third aspect , wherein the image processing means uses a plurality of feature images obtained by converting the palmprint image data using Haar-like features. Then, a new feature image is generated by weighting and combining with the lifting parameters.
本願発明の第5の観点は、第2から第4のいずれかの観点の照合システムであって、前記データベースに記憶されたデータは、前記携帯通信端末の利用者の生体情報を復元可能な情報に基づかない、手相占いサービスに関するものであり、前記サーバは、前記近似照合手段の照合結果を判定する照合結果判定手段と、前記照合結果判定手段による判定結果を前記携帯通信端末に送信する判定結果送信手段、を備え、前記携帯通信端末は、前記判定結果を受信する判定結果受信手段と、表示手段に対して、前記判定結果を表示させる判定結果表示制御手段、を備える。 A fifth aspect of the present invention is the collation system according to any one of the second to fourth aspects , wherein the data stored in the database is information that can restore the biological information of the user of the mobile communication terminal. Is based on a fortune telling service, the server is a collation result determining unit for determining a collation result of the approximate collating unit, and a determination result of transmitting a determination result by the collation result determining unit to the mobile communication terminal The mobile communication terminal includes a determination result receiving unit that receives the determination result, and a determination result display control unit that causes the display unit to display the determination result.
本願発明の第6の観点は、画像撮影機能を備えた携帯通信端末と前記携帯通信端末の画像撮影機能により撮影して得られた画像情報に基づいて照合処理を行うサーバを備える照合システムにおける照合方法であって、前記携帯通信端末の画像処理手段が、画像データとして取得された生体情報に基づいて特徴データを一方向に生成するステップと、前記携帯通信端末の特徴データ送信手段が、前記特徴データを前記サーバに送信するステップと、前記サーバの特徴データ受信手段が、前記特徴データを受信するステップと、前記サーバの近似照合手段が、前記特徴データとデータベースに記憶されたデータに対して近似照合処理を行うステップ、を含む。 A sixth aspect of the present invention is a collation in a collation system comprising a portable communication terminal having an image photographing function and a server that performs collation processing based on image information obtained by photographing with the image photographing function of the portable communication terminal. A method in which image processing means of the mobile communication terminal generates feature data in one direction based on biological information acquired as image data, and the feature data transmitting means of the mobile communication terminal comprises the feature A step of transmitting data to the server; a step of receiving characteristic data of the server; a step of receiving the characteristic data; and an approximate matching unit of the server approximating the characteristic data and data stored in a database. Performing a verification process.
本願発明の第7の観点は、コンピュータを、請求項1から5のいずれかに記載の画像処理手段として機能させるためのプログラムである。 A seventh aspect of the present invention is a program for causing a computer to function as the image processing means according to any one of claims 1 to 5.
本願発明の第8の観点は、第7の観点のプログラムを記録した記録媒体である。 An eighth aspect of the present invention is a recording medium on which a program according to the seventh aspect is recorded.
なお、携帯通信端末に備えられる画像撮影機能は、生体情報を撮影することに限定されるものではなく、多様な撮影条件下で撮影されるものであり、例えば掌紋画像のような生体情報に関する画像を得るものであってもよい。 Note that the image capturing function provided in the mobile communication terminal is not limited to capturing biometric information, but is captured under various imaging conditions. For example, an image related to biometric information such as a palm print image. May be obtained.
また、第1の観点において、画像処理手段は、一方向性関数を用いて特徴データを生成するようにしてもよい。 In the first aspect , the image processing means may generate feature data using a one-way function.
さらに、第2の観点において、特徴点抽出手段は、エッジを検出し、検出したエッジから特徴点を抽出するものであってもよく、また、掌の輪郭の範囲内において、掌のしわの特徴点として、交差点、端点、及び、分岐点の少なくとも一つを抽出するものであってもよい。 Further, in the second aspect, the feature point extracting means may detect an edge and extract a feature point from the detected edge. Also, the feature of the palm wrinkle is within the range of the palm outline. As the point, at least one of an intersection, an end point, and a branch point may be extracted.
さらに、第2の観点において、文字列生成手段は、特徴点のそれぞれにおいて掌のしわの線が水平方向右向きに対して有する角度を量子化した値と、特徴点の種類を示す値とに基づき生成されたラベルを、特徴点の座標に付すことにより、特徴点のそれぞれをラベル付き座標として表した後、特徴点のそれぞれが、中心点から時計回りに並ぶような規則によってラベル付き座標のそれぞれを順に結合し生成された文字列により、前記特徴点の集合を表すようにしてもよい。 Further, in the second aspect , the character string generating means is based on a value obtained by quantizing the angle of the palm wrinkle line with respect to the horizontal right direction in each feature point and a value indicating the type of the feature point. After the generated label is attached to the coordinates of the feature points, each of the feature points is represented as a labeled coordinate, and then each of the labeled coordinates is defined according to a rule that each of the feature points is arranged clockwise from the center point. The set of feature points may be represented by a character string generated by sequentially combining.
さらに、第4の観点において、リフティングパラメータは、Haar-like特徴のそれぞれを分類して構成されるクラスにおいて、クラス内の特徴が近接し、クラス間の特徴が離れるように決定されたものであってもよい。
Further, in the fourth aspect , the lifting parameters are determined so that the features in the class are close and the features between the classes are separated in a class configured by classifying each of the Haar-like features. May be.
本願発明によれば、画像撮影機能を備えた携帯通信端末において撮影された、生体情報に関する画像に基づいて特徴データを一方向に生成し、キャンセラブルなバイオメトリック認証を実現することによって、生体情報そのものを秘匿することが可能となる。このことにより、携帯通信端末の利用者は、撮影した生体情報を自分の携帯通信端末において管理することが可能となり、サーバからの情報漏洩を心配することなく安心してサービスを利用することができる。 According to the present invention, biometric information is generated by generating feature data in one direction based on an image related to biometric information captured by a mobile communication terminal having an image capturing function, thereby realizing cancelable biometric authentication. It becomes possible to conceal itself. As a result, the user of the mobile communication terminal can manage the captured biometric information in his mobile communication terminal, and can use the service without worrying about information leakage from the server.
特に、従来のバイオメトリック認証では、サーバが、少なくとも一度は、利用者の生体情報を復元可能な情報について通知を受けていた。しかし、例えば請求項5に係る発明にある手相占いサービスであれば、携帯通信端末の利用者は、自分の生体情報を復元可能な情報としてサーバに通知する必要がなく、サーバからの情報漏洩を心配せずに、安心してサービスを利用することができる。 In particular, in conventional biometric authentication, the server has been notified at least once about information that can restore the user's biometric information. However, for example, if it is a palm fortune-telling service according to the invention according to claim 5, the user of the mobile communication terminal does not need to notify the server of his / her biometric information as recoverable information, and information leakage from the server is prevented. You can use the service with peace of mind without worrying.
本願発明では、キャンセラブルな認証を実現するために、携帯通信端末に特徴点の抽出・変換処理を移行している。一般に、生体情報の画像採取には曖昧さが含まれている(例えば、位置ずれ、拡大・縮小、回転、ノイズ混入、取りこぼし、抽出ミス、ゆがみ、など)。画像採取時の精度により、必要となる特徴点の抽出・変換処理の量が変わる。携帯通信端末は計算資源が限られており、この処理を軽減することが重要となる。本願発明では、サーバにおいて近似照合処理により緩やかな照合処理を行う。照合処理でなく近似照合処理を用いることにより、計算量は線形から二乗になるが、サーバは計算資源が豊富であり、実現可能である。このことにより、携帯通信端末における計算量を軽減することができる。 In the present invention, feature point extraction / conversion processing is transferred to the mobile communication terminal in order to realize cancelable authentication. In general, ambiguity is included in the collection of images of biological information (for example, misalignment, enlargement / reduction, rotation, noise mixing, missing, extraction error, distortion, etc.). The amount of required feature point extraction / conversion processing varies depending on the accuracy at the time of image collection. Mobile communication terminals have limited computational resources, and it is important to reduce this processing. In the present invention, a gentle matching process is performed by the approximate matching process in the server. By using approximate collation processing instead of collation processing, the calculation amount is changed from linear to square, but the server has abundant calculation resources and can be realized. Thereby, the calculation amount in the mobile communication terminal can be reduced.
従来、画像採取時の精度保証は、専用スキャナを用いて、生体の固定やノイズ削減により行われていた。しかしながら、携帯通信端末においては、専用スキャナは実現困難である。本願発明にあるように、サーバの近似照合により画像採取時の精度保証を実現することにより、携帯通信端末の利用者は、画像の精度を気にすることなく自由に画像を採取して、楽しくサービスを利用することができる。 Conventionally, accuracy guarantee at the time of image acquisition has been performed by fixing a living body or reducing noise using a dedicated scanner. However, in a mobile communication terminal, it is difficult to realize a dedicated scanner. As in the invention of the present application, by realizing the accuracy guarantee at the time of image collection by the approximate matching of the server, the user of the portable communication terminal can freely collect the image without worrying about the accuracy of the image and have fun. You can use the service.
また、請求項2に係る発明にあるように、画像をそのまま用いた2次元情報での照合ではなく、1次元である文字列情報での照合を用いて、例えば、設定された特徴点の種類・順序に基づき、挿入・削除・置換・入れ替えなどを許した近似文字列照合を行うことにより、更に計算量を軽減できる。 Further, as in the invention according to claim 2, for example, the type of the set feature point is used by using the matching with the one-dimensional character string information, instead of the matching with the two-dimensional information using the image as it is. -The amount of calculation can be further reduced by performing approximate character string matching that allows insertion, deletion, replacement, replacement, etc. based on the order.
さらに、請求項4に係る発明にあるように、Haar-like特徴を用いることにより、計算資源の限られた携帯通信端末でも高い精度で特徴点を抽出することができる。 Furthermore, as described in the invention according to claim 4, by using the Haar-like feature, a feature point can be extracted with high accuracy even in a mobile communication terminal with limited calculation resources.
以下では、図面を参照して、本願発明の実施の形態について説明する。なお、本願発明は、これら実施例に限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to these examples.
図1は、本発明の実施の形態の一つである照合システム1の構成と処理の流れを示すブロック図である。 FIG. 1 is a block diagram showing a configuration and processing flow of a collation system 1 which is one embodiment of the present invention.
図1において、照合システム1は、複数の携帯通信端末3l(l=1、・・・、N)と、サーバ5を備える。携帯通信端末3lは、生体情報7(例えば、携帯通信端末3lの利用者の掌など)を撮影して画像情報を取得する画像取得部11と、画像取得部11により取得された画像情報に対して画像処理を行い、特徴データを生成する画像処理部13と、特徴データをサーバ5に送信する特徴データ送信部15を備える。また、サーバ5は、特徴データを受信する特徴データ受信部31と、データベース33と、特徴データとデータベース33に格納される情報とを近似照合する近似照合部35と、近似照合結果を判定する照合結果判定部37と、判定した照合結果を携帯通信端末3lに送信する判定結果送信部39を備える。また、携帯通信端末3lは、判定結果を受信する判定結果受信部17と、表示部21と、表示部21の表示画面に対して判定結果に基づいて表示制御処理を行う判定結果表示制御部19を備える。 In FIG. 1, the verification system 1 includes a plurality of mobile communication terminals 3 l (l = 1,..., N) and a server 5. The mobile communication terminal 3 l captures the biometric information 7 (for example, the palm of the user of the mobile communication terminal 3 l ) and acquires image information, and the image information acquired by the image acquisition unit 11 Are provided with an image processing unit 13 that performs image processing and generates feature data, and a feature data transmission unit 15 that transmits the feature data to the server 5. The server 5 also includes a feature data receiving unit 31 that receives feature data, a database 33, an approximate matching unit 35 that performs approximate matching between the feature data and information stored in the database 33, and a collation that determines an approximate matching result. a result determining section 37, a judging result transmitting unit 39 for transmitting the verification result of the determination to the mobile communication terminal 3 l. The mobile communication terminal 3 l, the judgment result and the determination result receiving unit 17 for receiving, and a display unit 21, the determination result display control unit that performs display control processing based on the determination result to the display screen of the display unit 21 19 is provided.
携帯通信端末3lとサーバ5で行う処理について、それぞれ具体的に説明する。 The processing performed in the mobile communication terminal 3 l and the server 5, each specifically described.
まず、携帯通信端末3lで行う処理について説明する。携帯通信端末3lに備えられる画像撮影機能は、多様な撮影条件下で生体情報(例えば指紋や掌形など)を撮影し、この撮影された画像に基づいて、画像取得部11において画像情報(例えば掌紋画像など)を取得する。 First, a description will be given of a process performed by the mobile communication terminal 3 l. Imaging function provided in the portable communication terminal 3 l captures biometric information (e.g., fingerprint, hand geometry, etc.) in a variety of imaging conditions, on the basis of the captured image, the image information in the image acquisition unit 11 ( For example, a palm print image) is acquired.
以下では、掌紋画像の場合を例にして説明する。携帯通信端末3lに備えられる画像撮影機能は、例えば、一般のデジタルカメラやカメラ付携帯電話などの標準的なカメラを想定しており、生体情報取得のための専用スキャナのようなものを備えるものではない。そのため、画像取得部11により取得された画像情報には、曖昧さが多く含まれている(例えば、位置ずれ、拡大・縮小、回転、ノイズ混入、取りこぼし、抽出ミス、ゆがみ、など)。 Hereinafter, a case of a palm print image will be described as an example. Mobile communication terminal 3 l imaging function provided in, for example, comprises assumes the general standard cameras such as digital cameras and camera-equipped mobile phone, a kind of dedicated scanners for biological information acquisition It is not a thing. For this reason, the image information acquired by the image acquisition unit 11 includes a lot of ambiguity (for example, misalignment, enlargement / reduction, rotation, noise mixing, missing, extraction error, distortion, etc.).
画像処理部13は、掌紋画像に対して特徴量抽出・変換処理を行う。以下では、マニューシャと呼ばれる特徴点を抽出し、抽出したマニューシャを文字列へと変換する処理について具体的に説明する。画像処理部13は、掌紋画像からエッジを抽出し、エッジ情報から特徴点を抽出する特徴点抽出部23と、特徴点情報から文字列を生成する文字列生成部25を備える。 The image processing unit 13 performs feature amount extraction / conversion processing on the palm print image. Below, the process which extracts the feature point called a minutia and converts the extracted minutia into a character string is demonstrated concretely. The image processing unit 13 includes a feature point extraction unit 23 that extracts an edge from a palmprint image and extracts a feature point from the edge information, and a character string generation unit 25 that generates a character string from the feature point information.
マニューシャは、具体的には、手のひらの皺の切れ目を示す端点や、分かれ目である分岐点などの特徴ある点のことである。掌紋の識別において、マニューシャを用いることにより高い精度が得られている。 Specifically, the minutiae is a characteristic point such as an end point indicating a break in the palm of the palm or a branch point which is a bifurcation. High accuracy is obtained by using the minutiae in identifying palm prints.
図2は、実施例1において、マニューシャとして抽出される交差点・端点・分岐点を説明する図(A)、及び、それぞれの点における偏角を示す図(B、C、D)である。 FIG. 2A is a diagram for explaining intersections / end points / branch points extracted as minutiars in the first embodiment, and FIG. 2B is a diagram showing declination angles at the respective points (B, C, D).
本実施例では、マニューシャの抽出を手のひら画像に対して適用し、マニューシャとして、2本の皺の線が交差する部分である交差点、1本の皺の線が途切れる部分である端点、及び、1本の皺の線の途中から他の1本の皺の線が分岐する部分である分岐点の3種類を考える(図2(A)参照)。 In this embodiment, extraction of the maneuver is applied to the palm image, and the minutia is an intersection where two wrinkle lines intersect, an end point where one wrinkle line is interrupted, and 1 Consider three types of branching points, which are portions where another one of the cocoon lines branches from the middle of the cocoon line (see FIG. 2A).
本実施例では、それぞれの種類のマニューシャについて、そのマニューシャを構成する線の水平方向に対する偏角によって、以下のように異なるラベルを割り当てる。すなわち、交差点については、交差する2本の皺の線について、その水平方向右向きに対する偏角(図2(B)の角α、β)を量子化し、量子化された値の組が異なるマニューシャにそれぞれに異なるラベルを与える。端点については、途切れる2本の皺の線について、途切れる点からその線の伸びる方向の水平方向右向きに対する角度(図2(C)の角α)を量子化し、量子化された値が異なるマニューシャにそれぞれに異なるラベルを与える。分岐点については、分岐される線の水平右向きに対する偏角(図2(D)の角α)及び分岐点から分岐する線の伸びる方向の水平方向右向きに対する角度(図2(D)の角β)をそれぞれ量子化し、量子化された値の組が異なるマニューシャにそれぞれに異なるラベルを割り当てる。 In this embodiment, different types of minutiae are assigned different labels as follows depending on the angle of deviation of the lines constituting the minutia with respect to the horizontal direction. That is, with respect to the intersection, for the two wrinkle lines that intersect, the declination angle (angles α and β in FIG. 2B) with respect to the right in the horizontal direction is quantized, and the quantized value sets are changed to different maneuvers. Give each one a different label. As for the end points, for the two wrinkle lines that break, the angle (angle α in FIG. 2C) in the horizontal direction in the direction in which the line extends from the break points is quantized, and the quantized values become different maneuvers. Give each one a different label. For the branch point, the angle of the branched line with respect to the horizontal right direction (angle α in FIG. 2D) and the angle with respect to the horizontal direction in the direction in which the line branched from the branch point extends (angle β in FIG. 2D). ), And assigns different labels to minutiae with different sets of quantized values.
このようにラベル付けを行うことで、マニューシャをラベル付き座標(c,x,y)で表すことができる。ここに、cはラベルのうち1つであり、x、yはそれぞれマニューシャのx、y座標である。 By performing labeling in this way, the minutiae can be expressed by labeled coordinates (c, x, y). Here, c is one of the labels, and x and y are the x and y coordinates of the minutiae, respectively.
図3は、実施例1において、ラベル付き座標として表現されたマニューシャの並べ方を説明する図(A)、及び、異なるマニューシャの配置から同じ文字列が生成されることを説明する図(B)である。 FIG. 3 is a diagram for explaining how to arrange the minutiae expressed as labeled coordinates in the first embodiment (A), and FIG. 3B for explaining that the same character string is generated from the arrangement of different minutiae. is there.
文字列生成部25は、ラベル付き座標の集合となったマニューシャの集合を、そのラベルを特定の規則に従って並べることで文字列にする。具体的には、ある1点を中心点とし、中心点から時計回りに特徴点を文字列として並べていく。図3(A)の左側の図は、マニューシャの配置をラベル付き座標により表現したものである。Oは、中心点を示す。そして、図3(A)の右側の図にあるように、この場合の文字列は、ebadcebaeaとしてコードされる。 The character string generation unit 25 makes a character string by arranging a set of minutiae that is a set of labeled coordinates according to a specific rule. Specifically, a certain point is set as a center point, and feature points are arranged as a character string clockwise from the center point. The diagram on the left side of FIG. 3 (A) represents the arrangement of the minutiae with labeled coordinates. O indicates a center point. Then, as shown in the diagram on the right side of FIG. 3A, the character string in this case is coded as ebadcebaea.
このように文字列とすることにより、画像をそのまま用いた2次元情報での照合ではなく、1次元である文字列情報での照合、更には、近似文字列照合を適用することが可能となり、計算量の少ない手法での照合を実現することができる。 By using character strings in this way, it is possible to apply collation with one-dimensional character string information, as well as approximate character string collation, instead of collation with two-dimensional information using an image as it is, Collation by a method with a small amount of calculation can be realized.
なお、図3(B)は、図3(A)とは異なるマニューシャの配置であるにも関わらず、同じ文字列(コード:ebadcebaea)になるラベル付き座標の集合を示す。このように、同じ文字列になるようなラベル付き座標の集合は無数に存在するため、この文字列から元の手のひらの情報を復元することはできない。よって、この変換は、ラベル付き座標の集合から文字列への変換は可能であるが、文字列からラベル付き座標の集合への変換は不可能であり、一方向性の変換である。 Note that FIG. 3B shows a set of labeled coordinates that have the same character string (code: ebadcebaea) despite the arrangement of minutiae different from that in FIG. In this way, since there are an infinite number of labeled coordinate sets that can be the same character string, the original palm information cannot be restored from this character string. Therefore, this conversion can be performed from a set of labeled coordinates to a character string, but cannot be converted from a character string to a set of labeled coordinates, and is a one-way conversion.
生成された文字列は、特徴データとして、携帯通信端末3lの特徴データ送信部15からサーバ5の特徴データ受信部31へ送信される。 The generated string, as the feature data, is transmitted from the feature data transmitter 15 of the mobile communication terminal 3 l to the feature data receiving unit 31 of the server 5.
文字列は、マニューシャの抽出の際のノイズや抽出漏れ、誤抽出などによって変化する。そのため、単純な文字列の比較によって照合を行うことはできない。本実施例では、サーバ5の近似照合部35は、Wagnerらが提案した文字列に対する編集距離を導出することで近似照合を行い、それによってマニューシャの集合の近似照合に代える。 The character string changes due to noise during extraction of minutiae, extraction omission, erroneous extraction, and the like. Therefore, collation cannot be performed by simple character string comparison. In this embodiment, the approximate matching unit 35 of the server 5 performs the approximate matching by deriving the edit distance for the character string proposed by Wagner et al., Thereby replacing the approximate matching of the set of minutiae.
まず、Wagnerらの編集距離について説明する。 First, the editing distance of Wagner et al. Will be described.
Aを文字からなる有限の文字列とし、Λは空文字列とする。Aの文字列長を|A|で表す。 Let A be a finite character string consisting of characters, and Λ be an empty string. The character string length of A is represented by | A |.
また、1以下の長さでかつ両方同時にΛにはならない文字列の対(a,b)のことを編集操作という。(a,b)をa→bとも表記する。 A character string pair (a, b) having a length of 1 or less and both of which is not simultaneously Λ is called an editing operation. (a, b) is also expressed as a → b.
さらに、文字列BがAに編集操作a→bを適用した結果の文字列であるとは、ある文字列σ,τに対し、A=σaτ,B=σbτが成り立つことをいう。このとき、A⇒B via a→bであると表記する。a→bについて、a≠Λかつb≠Λのとき変更操作、b=Λのとき削除操作、a=Λのとき挿入操作という。 Further, the fact that the character string B is a character string resulting from applying the editing operation a → b to A means that A = σaτ and B = σbτ hold for a certain character string σ, τ. At this time, it is expressed as A⇒B via a → b. Regarding a → b, it is called a change operation when a ≠ Λ and b ≠ Λ, a delete operation when b = Λ, and an insert operation when a = Λ.
さらに、Sを編集操作の列s1,s2,・・・,smとする。A=A0、B=Bmであり、かつ、1≦i≦mについてAi-1⇒Ai via siとなるような文字列の列A1,A2,・・・,Amが存在するとき、A⇒B via Sであると表記する。 In addition, the column s 1, s 2 of the editing operation of the S, ···, and s m. A = A is 0, B = B m, and, 1 ≦ i ≦ m for A i-1 ⇒A i via s column A 1 of i become such string, A 2, ···, A m Is written as A⇒B via S.
さらに、γを、それぞれの編集操作a→bごとに正の実数γ(a→b)を与える任意のコスト関数とする。また、γは、下記の(1)式、(2)式、(3)式を満たす距離関数である。編集操作の列Sに対し、下記の(4)式と表記する。 Further, γ is an arbitrary cost function that gives a positive real number γ (a → b) for each editing operation a → b. Γ is a distance function that satisfies the following expressions (1), (2), and (3). For the column S of editing operations, the following expression (4) is expressed.
さらに、δ(A,B)を下記の(5)式と定義し、これをAとBの編集距離という。 Furthermore, δ (A, B) is defined as the following equation (5), which is called the edit distance between A and B.
さらに、A<i>とB<i>は、それぞれ、AとBのi番目の文字を表すとする。また、A(i)をAの1からi番目までの文字列、B(j)をBの1からj番目までの文字列を表すとし、D(i,j)を下記の(6)式とすると、下記の(7)式が成り立つ(Wagner,R.A.、外1名著,“The String-to-String Correction Problem”,J.ACM,Vol.21,Issue9,pp.168-173(1973)のTheorem7参照)。 Furthermore, A <i> and B <i> represent the i-th characters of A and B, respectively. Also, let A (i) represent the character string from 1 to i of A, B (j) represent the character string from 1 to j of B, and D (i, j) Then, the following equation (7) holds (Wagner, RA, 1 other author, “The String-to-String Correction Problem”, J. ACM, Vol. 21, Issue 9, pp.168-173 ( (See Theorem 7 in 1973)).
図4は、実施例1において、編集距離を求めるアルゴリズムを示す図である。 FIG. 4 is a diagram illustrating an algorithm for obtaining the edit distance in the first embodiment.
編集距離は、図4のアルゴリズムで求めることができる。D[i,j]が求める編集距離である。 The edit distance can be obtained by the algorithm shown in FIG. D [i, j] is an edit distance to be obtained.
近似照合部35は、このような近似文字列照合を用いて、特徴データとデータベース33に格納されたデータとを照合する。そして、照合結果判定部37は、照合結果に基づいて判定を行い、判定結果送信部39は、その判定結果を携帯通信端末3lに送信する。 The approximate collation unit 35 collates the feature data with the data stored in the database 33 using such approximate character string collation. The verification result determining section 37 makes a determination based on the comparison result, the determination result transmitting unit 39 transmits the determination result to the mobile communication terminal 3 l.
携帯通信端末の判定結果受信部17が判定結果を受信すると、判定結果表示制御部19は、表示部21に対して、判定結果に基づいて表示制御処理を行う。 When the determination result receiving unit 17 of the mobile communication terminal receives the determination result, the determination result display control unit 19 performs display control processing on the display unit 21 based on the determination result.
なお、特徴データ送信部15は、識別情報とともに文字列をサーバに送信してもよく、近似照合部35は、データベース33に格納されたデータのうち、識別情報に対応するテンプレートとの照合を行うようにしてもよい。 The feature data transmission unit 15 may transmit the character string together with the identification information to the server, and the approximate matching unit 35 performs matching with the template corresponding to the identification information among the data stored in the database 33. You may do it.
本実施例は、図1の照合システム1が手相占いシステムである場合である。 In this embodiment, the verification system 1 in FIG. 1 is a palm fortune telling system.
手相占いシステムは、実施例1と同様の処理を行うことにより実現可能である。そして、サーバ5は、携帯通信端末3lの利用者の掌紋画像が、手相占いのどの類型に当てはまるかを照合結果に基づいて判定し、その判定結果を携帯通信端末3lに送信する。 The palm fortune-telling system can be realized by performing the same processing as in the first embodiment. Then, the server 5 determines which type of palm fortune telling the palmprint image of the user of the mobile communication terminal 3 l is based on the collation result, and transmits the determination result to the mobile communication terminal 3 l .
手相占いシステムの場合、図1のデータベース33には、携帯通信端末3lの利用者の生体情報を復元可能な情報に基づかないデータが格納されることになる。そのため、本実施例の手相占いシステムの場合、携帯通信端末3lの利用者は、自分の生体情報を復元可能な情報や利用者の識別情報をサーバ5に通知する必要がなく、サーバ5からの情報漏洩を心配せずに、安心してサービスを利用することができる。 For Palmistry system, the database 33 of FIG. 1, the data that is not based biometric information of the user of the mobile communication terminal 3 l in restorable information is stored. Therefore, in the case of Palmistry system of this embodiment, the mobile communication terminal 3 l of a user does not need to notify the identity of the recoverable information and user their biometric information to the server 5, the server 5 You can use the service with confidence without worrying about information leakage.
本実施例は、図1の携帯通信端末3lの画像処理部13の特徴点抽出部23において、Haar-like特徴を用いて特徴点抽出を行うものである。 This embodiment, the feature point extraction unit 23 of the mobile communication terminal 3 l image processing unit 13 in FIG. 1, and performs the feature point extracted using Haar-like features.
Haar-like特徴により、Haarウェーブレット変換により得られる特徴に類似し、かつ、より多くの局所的な特徴を計算することができる。近年、Haar-like特徴を用いた物体認識技術(特に顔画像認識)が盛んに研究されている(例えば、P.Viola、外1名著,“Rapid Object Detection using a Boosted Cascade of Simple Features”, IEEE CVPR,2001参照)。Haar-like特徴に基づき画像の特徴(ベクトル)を算出する既存手法は、訓練データの検出精度が高くなるように、適用するHaar-likeフィルタを機械学習により決定するアプローチが多い。しかしながら、図鑑データベースなど多種多様な物体認識に応用するには、物体ごとのHaar-like特徴を構成する必要があり、検索時間が膨大となる問題がある。 With the Haar-like feature, more local features that are similar to the features obtained by the Haar wavelet transform can be calculated. Recently, object recognition technology using Haar-like features (especially facial image recognition) has been actively studied (for example, P. Viola, 1 other author, “Rapid Object Detection using a Boosted Cascade of Simple Features”, IEEE (See CVPR, 2001). Many of the existing methods for calculating image features (vectors) based on Haar-like features determine the Haar-like filter to be applied by machine learning so that the detection accuracy of training data is high. However, in order to apply to a wide variety of object recognition such as a pictorial book database, it is necessary to construct Haar-like features for each object, and there is a problem that the search time becomes enormous.
発明者らは、これまで、リフティングウェーブレットがもつ自由パラメータを使って、顔画像検出や認識に適切な新しいウェーブレットフィルタの学習法に関する研究に取り組んできた。リフティングウェーブレット変換は、信号・画像の圧縮率の向上および、高速演算技術として使われているものである。 The inventors have been engaged in research on a new wavelet filter learning method suitable for face image detection and recognition using free parameters of a lifting wavelet. The lifting wavelet transform is used for improving the compression ratio of signals and images and as a high-speed calculation technique.
本実施例では、特徴点抽出部23において、多くの特徴を高速計算可能なリフティングHaar-like特徴を用いる。これは、既存のHaar-like特徴により得られた特徴画像を重みパラメータにより、新しい(物体認識に有益な)特徴を抽出することができる特徴抽出法である。 In this embodiment, the feature point extraction unit 23 uses a lifting Haar-like feature capable of calculating many features at high speed. This is a feature extraction method that can extract a new feature (useful for object recognition) from a feature image obtained by an existing Haar-like feature by using a weight parameter.
Haar-like特徴は、フィルタの構成や解像度を変更することにより、画像のさまざまな局所的な特徴を計算することができる。このことは、最適な特徴を抽出するフィルタは、画像の解像度や画像中の物体の種類などにより異なることを意味する。そのため、効率よく画像の特徴を抽出するためには、対象とするデータベース画像に適したフィルタを構成(または発見)する必要がある。 The Haar-like feature can calculate various local features of the image by changing the filter configuration and resolution. This means that the filter for extracting the optimum feature differs depending on the resolution of the image, the type of object in the image, and the like. Therefore, in order to efficiently extract image features, it is necessary to construct (or find) a filter suitable for the target database image.
図5は、実施例3において、Haar-likeフィルタの代表的な例を示す図であり、図5(A)はエッジ特徴(Edge features)であり、図5(B)は線特徴(Line features)であり、図5(C)は中心−周囲特徴(Center-surround features)であり、図5(D)は特別対角線特徴(Special diagonal line features)である。 FIG. 5 is a diagram illustrating a typical example of a Haar-like filter in the third embodiment. FIG. 5A is an edge feature, and FIG. 5B is a line feature. 5 (C) shows center-surround features, and FIG. 5 (D) shows special diagonal line features.
本実施例におけるリフティングHaar-like特徴は、まず、既存のHaar-like特徴により変換された特徴画像を準備する。これらの特徴画像を組み合わせることにより、新しい特徴画像を構成する。このとき、組み合わせに用いる重みパラメータをリフティングパラメータと呼ぶ。ここで、既存のHaar-like特徴とそれにより得られた特徴画像を、それぞれ初期フィルタおよび初期特徴画像とする。リフティングパラメータを使って得られた新しい特徴画像のことをリフティング特徴画像と呼ぶ。 In the lifting Haar-like feature in this embodiment, first, a feature image converted by an existing Haar-like feature is prepared. A new feature image is constructed by combining these feature images. At this time, the weight parameter used for the combination is called a lifting parameter. Here, an existing Haar-like feature and a feature image obtained thereby are assumed to be an initial filter and an initial feature image, respectively. A new feature image obtained using the lifting parameters is called a lifting feature image.
図6は、実施例3において、リフティングパラメータの学習法の概略を示す図である。物体認識に適合するリフティングHaar-like特徴を構成するために、学習によりリフティングパラメータを算出する。ここでいう学習とは、クラス内分散を最小にし、クラス間分散を最大にするような特徴を算出するリフティングパラメータを求めることである。具体的には、例えば、ある花の画像のデータベースがあり、それらが種類(クラス)ごとに分類されているとすると、それらのクラス間の特徴が離れるように、かつクラス内の特徴が接近するように、リフティングパラメータを決めることである。 FIG. 6 is a diagram illustrating an outline of a lifting parameter learning method according to the third embodiment. In order to construct a lifting Haar-like feature suitable for object recognition, a lifting parameter is calculated by learning. Here, learning means obtaining a lifting parameter for calculating a feature that minimizes intra-class variance and maximizes inter-class variance. Specifically, for example, if there is a database of images of certain flowers, and they are classified by type (class), the features within those classes will be separated and the features within the classes will approach Thus, lifting parameters are determined.
続いて、図1の照合システム1の精度の評価について説明する。実験により、手のひら画像による本人確認手法の精度を調べる。まず、本人確認の精度の定式化を行う。そして、手のひら画像からマニューシャが適切に抽出されたとの仮定の下で、近似文字列照合による手法の精度を評価する。 Next, the accuracy evaluation of the verification system 1 in FIG. 1 will be described. Through experiments, we examine the accuracy of the identity verification method using palm images. First, the accuracy of identity verification is formulated. Then, under the assumption that the minutiae is appropriately extracted from the palm image, the accuracy of the method based on the approximate character string matching is evaluated.
本実験では、携帯通信端末3lの利用者は、予め、サーバ5のデータベース33に自分の生体情報をテンプレートとして登録しておくものとする。そして、本人確認の手順として、まず、特徴データ送信部15は、サーバ5に、テンプレートを識別するための識別情報と特徴データを送信し、次に、サーバ5は、識別情報から識別されるテンプレートと受信した特徴データとの距離を調べ、識別情報に対応する人物かどうかを判断するものとする。 In this experiment, the mobile communication terminal 3 l of users, in advance and registering his biometric information in the database 33 of the server 5 as a template. As a procedure for identity verification, first, the feature data transmission unit 15 transmits identification information and feature data for identifying a template to the server 5, and then the server 5 is a template identified from the identification information. And the received feature data are checked to determine whether the person corresponds to the identification information.
本人確認の精度についての指標として、FAR(False Acceptance Rate、他人受入率)とFRR(False Rejection Rate、本人拒否率)を用いる。FARは、ある本人確認の試行において、利用者が、自身に対応しない識別情報を提出したにもかかわらず、その識別情報に対応する人物と判断される確率である。FRRは、ある本人確認の試行において、利用者が、自身に対応する識別情報を提出したにもかかわらず、その識別情報に対応する人物でないと判断される確率である。 FAR (False Acceptance Rate) and FRR (False Rejection Rate) are used as indicators for the accuracy of identity verification. The FAR is a probability that a user is determined to be a person corresponding to the identification information in spite of submitting identification information that does not correspond to himself / herself in a certain identity verification attempt. The FRR is a probability that a user is determined not to be a person corresponding to the identification information even though the identification information corresponding to the user has been submitted in a certain identity verification attempt.
FARとFRRを、下記の(8)式及び(9)式として定式化する。ここで、U={ui|i∈I}は本人確認をされる者の候補となる人物の集合、iとSi={si j|j∈J}を、それぞれ、uiに対応する識別情報と特徴データとする。また、S={Si|i∈I}とする。uiは、本人確認のある試行において、Siから等確率で選ばれたsi jを提出するものとする。ここで、f(i,s)を、サーバ5がsi jの提出によって利用者をiに対応する人物と判断した場合1、それ以外の場合0と定義する。 FAR and FRR are formulated as the following formulas (8) and (9). Here, U = {u i | i∈I} corresponds to a set of persons who are candidates for identity verification, and i and S i = {s i j | j∈J} correspond to u i , respectively. Identification information and feature data. Further, S = {S i | i∈I}. u i shall submit s i j selected with equal probability from S i in a trial with identity verification. Here, f (i, s) is defined as 1 when the server 5 determines that the user is a person corresponding to i by submitting s i j , and is defined as 0 in other cases.
実際に携帯電話で撮影した手のひら画像からマニューシャの検出実験を行った。 We conducted an experiment to detect maneuvers from palm images actually taken with a mobile phone.
図7は、実施例4において、実際に携帯電話で撮影した手のひら画像(原画像(A))からマニューシャを検出する一連の処理の流れを示す図であり、図1の特徴点抽出部23の動作に対応する。図7(A)は、原画像を示す図である。原画像はカラーであり、まず、グレイスケール変換を施す。図7(B)は、グレイスケール画像を示す。次に、Canny法(J.F.Canny著,“A computational approach to edge detection”,IEEE Transaction on Pattern Analysis and Machine Intelligence,pp.679-698参照)を用いて、エッジを抽出する。図7(C)は、抽出されたエッジを示す図である。そして、テンプレートマッチングにより、マニューシャ候補点を検出する。図7(D)は、検出されたマニューシャ候補点を示す図である。図7(D)にて確認できるように、正しいマニューシャではない、疑似マニューシャと呼ばれる点を多く検出している。これは、ノイズを多く含む入力画像を使用していることに起因する。本実験では、マニューシャの集合を抽出した後の処理についての本人確認の精度への影響を調べるため、手のひら画像から目視により検出したマニューシャを使用して実験を行う。 FIG. 7 is a diagram showing a flow of a series of processes for detecting a minutia from a palm image (original image (A)) actually taken with a mobile phone in the fourth embodiment, and the feature point extraction unit 23 of FIG. Corresponds to the action. FIG. 7A shows an original image. The original image is color, and first, grayscale conversion is performed. FIG. 7B shows a grayscale image. Next, the edges are extracted using the Canny method (see J. F. Canny, “A computational approach to edge detection”, IEEE Transaction on Pattern Analysis and Machine Intelligence, pp. 679-698). FIG. 7C is a diagram showing the extracted edges. Then, minutiae candidate points are detected by template matching. FIG. 7D is a diagram illustrating detected minutiae candidate points. As can be confirmed in FIG. 7D, many points called pseudo-maneuvers that are not correct maneuvers are detected. This is caused by using an input image containing a lot of noise. In this experiment, in order to investigate the influence of the processing after extracting a set of minutiae on the accuracy of identity verification, the experiment is performed using a minutiae visually detected from a palm image.
本実験に用いるサンプルとして、20人の異なる人物の手のひら画像を、それぞれ2枚ずつ、計40枚採取した。画像の解像度は、4000×3000pxiである。本実験では、マニューシャのパターンの種類は33種類とし、画像1枚について抽出するマニューシャの数は約20とした。 As samples used in this experiment, 40 palm images of 20 different persons were collected in total, 2 each. The image resolution is 4000 × 3000 pxi. In this experiment, the number of types of minutiae was 33, and the number of minutiae extracted for one image was about 20.
抽出されたマニューシャの集合を特徴点集合として、文字列変換を行い、各人物の手のひら画像のうちひとつについての文字列をテンプレートとし、提出された文字列とテンプレートの編集距離が閾値以下の場合に、そのテンプレートに対応する人物と判断するものとした。ただし、正規化のため、編集距離の値は長い方の文字列の長さで割り、閾値は長い方の文字列の長さに対する割合で表した。閾値を変化させ、(8)式及び(9)式によって、FARとFRRを求めた。 When the extracted minutiae set is used as a feature point set, character string conversion is performed, and a character string for one of the palm images of each person is used as a template, and the edit distance between the submitted character string and the template is less than the threshold The person corresponding to the template is determined. However, for normalization, the value of the edit distance is divided by the length of the longer character string, and the threshold value is expressed as a ratio to the length of the longer character string. By changing the threshold value, FAR and FRR were obtained by the equations (8) and (9).
図8は、実施例4において、照合システム1の精度の評価につき、FARとFRRの実験結果を示す図である。横軸は閾値、縦軸はFAR,FRRをそれぞれ示している。このことから、FARとFRRはトレードオフ関係にあり、閾値が0.5のときにFAR=0.042、FRR=0.05と、FAR、FRRともに最小の時の精度が明らかになった。また、なりすまし等の攻撃に対してはFARの値が重要となるので、FARを重視する場合、閾値が0.4の場合にFAR=0.000、FRR=0.15となり、この時が理想的な精度となる。このことから、本発明を用いたバイオメトリック認証は、特徴点が適切に抽出された場合は実用可能である、ということが明らかになった。 FIG. 8 is a diagram illustrating experimental results of FAR and FRR for the accuracy evaluation of the matching system 1 in the fourth embodiment. The horizontal axis represents the threshold value, and the vertical axis represents FAR and FRR. From this, FAR and FRR are in a trade-off relationship, and when the threshold value is 0.5, FAR = 0.042 and FRR = 0.05, and the accuracy when FAR and FRR are minimum is clarified. Further, since the FAR value is important for attacks such as impersonation, when the FAR is important, when the threshold value is 0.4, FAR = 0.000 and FRR = 0.15, and this time is ideal accuracy. From this, it became clear that biometric authentication using the present invention is practical when feature points are extracted appropriately.
1 照合システム、31,・・・,3n 携帯通信端末、5 サーバ、11 画像取得部、13 画像処理部、15 特徴データ送信部、17 判定結果受信部、19 判定結果表示制御部、31 特徴データ受信部、33 データベース、35 近似照合部、37 照合結果判定部、39 判定結果送信部 DESCRIPTION OF SYMBOLS 1 Collation system, 3 1 ,..., 3 n mobile communication terminal, 5 server, 11 image acquisition unit, 13 image processing unit, 15 feature data transmission unit, 17 determination result reception unit, 19 determination result display control unit, 31 Feature data reception unit, 33 database, 35 approximate collation unit, 37 collation result determination unit, 39 determination result transmission unit
Claims (7)
前記携帯通信端末は、
生体情報を画像データとして取得する画像取得手段と、
撮影して得られた画像データを、Haar-like特徴により変換して複数の特徴画像とし、リフティングパラメータにより重み付けして組み合わせて新たな特徴画像を生成し、前記新たな特徴画像に基づいて特徴データを一方向に生成する画像処理手段と、
前記特徴データを前記サーバに送信する特徴データ送信手段、を備え、
前記サーバは、
前記特徴データを受信する特徴データ受信手段と、
前記特徴データ及びデータベースに記憶されたデータに対して近似照合処理を行う近似照合手段、を備える
照合システム。 In a collation system comprising a portable communication terminal having an image photographing function and a server for performing a collation process based on image information obtained by photographing with the image photographing function of the portable communication terminal,
The mobile communication terminal is
Image acquisition means for acquiring biological information as image data;
Image data obtained by shooting is converted into Haar-like features into a plurality of feature images, combined with weighted lifting parameters to generate new feature images , and feature data based on the new feature images Image processing means for generating the image in one direction;
Feature data transmitting means for transmitting the feature data to the server,
The server
Feature data receiving means for receiving the feature data;
A collation system comprising approximate collation means for performing an approximate collation process on the feature data and data stored in a database.
前記画像処理手段は、
前記掌紋画像データによって表わされる画像から特徴点を抽出する特徴点抽出手段と、
抽出された特徴点から文字列を生成する文字列生成手段、を有し、
前記特徴データ送信手段は、前記特徴データとして前記文字列を前記サーバに送信するものであり、
前記近似照合手段は、近似文字列照合処理を行う、
請求項1記載の照合システム。 The image data is palm print image data,
The image processing means includes
Feature point extraction means for extracting feature points from the image represented by the palmprint image data;
A character string generation means for generating a character string from the extracted feature points;
The feature data transmitting means transmits the character string to the server as the feature data.
The approximate matching means performs an approximate character string matching process.
The collation system according to claim 1.
前記サーバは、
前記近似照合手段の照合結果を判定する照合結果判定手段と、
前記照合結果判定手段による判定結果を前記携帯通信端末に送信する判定結果送信手段、を備え、
前記携帯通信端末は、
前記判定結果を受信する判定結果受信手段と、
表示手段に対して、前記判定結果を表示させる判定結果表示制御手段、を備える
請求項2又は3に記載の照合システム。 The data stored in the database is not based on information capable of restoring the biological information of the user of the mobile communication terminal, and relates to a fortune telling service,
The server
Verification result determination means for determining the verification result of the approximate verification means;
A determination result transmitting means for transmitting the determination result by the collation result determining means to the mobile communication terminal,
The mobile communication terminal is
Determination result receiving means for receiving the determination result;
The collation system according to claim 2 or 3 , further comprising determination result display control means for displaying the determination result on a display means.
前記携帯通信端末の画像処理手段が、生体情報を撮影して取得された画像データを、Haar-like特徴により変換して複数の特徴画像とし、リフティングパラメータにより重み付けして組み合わせて新たな特徴画像を生成し、前記新たな特徴画像に基づいて特徴データを一方向に生成するステップと、
前記携帯通信端末の特徴データ送信手段が、前記特徴データを前記サーバに送信するステップと、
前記サーバの特徴データ受信手段が、前記特徴データを受信するステップと、
前記サーバの近似照合手段が、前記特徴データとデータベースに記憶されたデータに対して近似照合処理を行うステップ、を含む照合方法。 A collation method in a collation system comprising a mobile communication terminal having an image photographing function and a server that performs collation processing based on image information obtained by photographing with the image photographing function of the mobile communication terminal,
The image processing means of the portable communication terminal converts the image data obtained by photographing biometric information into Haar-like features to form a plurality of feature images, weighted with lifting parameters, and combined to create a new feature image Generating and generating feature data in one direction based on the new feature image ;
The feature data transmitting means of the mobile communication terminal transmits the feature data to the server;
The feature data receiving means of the server receives the feature data;
A matching method, comprising: an approximate matching unit of the server performing an approximate matching process on the feature data and data stored in a database.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008168931A JP5279007B2 (en) | 2008-06-27 | 2008-06-27 | Verification system, verification method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008168931A JP5279007B2 (en) | 2008-06-27 | 2008-06-27 | Verification system, verification method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010009377A JP2010009377A (en) | 2010-01-14 |
JP5279007B2 true JP5279007B2 (en) | 2013-09-04 |
Family
ID=41589784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008168931A Expired - Fee Related JP5279007B2 (en) | 2008-06-27 | 2008-06-27 | Verification system, verification method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5279007B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108153809A (en) * | 2017-11-23 | 2018-06-12 | 努比亚技术有限公司 | Picture identification method, recognition methods, terminal and computer readable storage medium |
CN110634173A (en) * | 2019-09-05 | 2019-12-31 | 北京无限光场科技有限公司 | Picture mark information adding method and device, electronic equipment and readable medium |
CN112906637B (en) * | 2021-03-18 | 2023-11-28 | 北京海鑫科金高科技股份有限公司 | Fingerprint image identification method and device based on deep learning and electronic equipment |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1166005A (en) * | 1997-08-25 | 1999-03-09 | Sharp Corp | Password generation device and password communication system |
JP2004129872A (en) * | 2002-10-10 | 2004-04-30 | Office Ozawa:Kk | Fortune information providing system |
JP4697939B2 (en) * | 2005-04-06 | 2011-06-08 | 大日本印刷株式会社 | User authentication system and user authentication method |
CN101055620B (en) * | 2006-04-12 | 2011-04-06 | 富士通株式会社 | Shape comparison device and method |
-
2008
- 2008-06-27 JP JP2008168931A patent/JP5279007B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010009377A (en) | 2010-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11443559B2 (en) | Facial liveness detection with a mobile device | |
US11587341B2 (en) | Method of detecting at least one element of interest visible in an input image by means of a convolutional neural network | |
Elhoseny et al. | Multimodal biometric personal identification and verification | |
CN112132099A (en) | Identity recognition method, palm print key point detection model training method and device | |
Zhang et al. | Advanced biometrics | |
Yadav et al. | Fingerprint recognition based on minutiae information | |
Shawkat et al. | The new hand geometry system and automatic identification | |
JP5279007B2 (en) | Verification system, verification method, program, and recording medium | |
CN103700151A (en) | Morning run check-in method | |
Vinothkanna et al. | A multimodal biometric approach for the recognition of finger print, palm print and hand vein using fuzzy vault | |
JP4588577B2 (en) | Palmprint authentication apparatus, palmprint authentication program, palmprint authentication method, palmprint image extraction method, and mobile phone terminal provided with palmprint authentication apparatus | |
Patil | A study of biometric, multimodal biometric systems: Fusion techniques, applications and challenges | |
El-Bakry et al. | Personal identification through biometric technology | |
Kubanek et al. | Intelligent Identity Authentication, Using Face and Behavior Analysis | |
Omolewa et al. | Border Control via Passport Verification using Fingerprint Authentication Technique | |
SulaimanAlshebli et al. | The cyber security biometric authentication based on liveness face-iris images and deep learning classifier | |
Parihar et al. | Palm vein recognition system for human authentication: A review | |
Ameer et al. | BIOMETRIC AUTHENTICATION BASED MEDICAL DATA MANAGEMENT IN CLOUD SYSTEMS. | |
Kumar et al. | An Advance Approach of Face Recognition using PCA and Region Base Color Segmentation | |
Sharma et al. | Fingerprint matching Using Minutiae Extraction Techniques | |
Al-Ani | Biometric Security | |
Grafilon et al. | A signature comparing android mobile application utilizing feature extracting algorithms | |
Sinha et al. | Introduction to Biometrics and Special Emphasis on Myanmar Sign Language Recognition | |
Malhotra et al. | User authentication via finger-selfies | |
Majeed et al. | Biometric Identification Criminal, Terrorist, and individual Identification System It ‘sa New Wine & Taste |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110407 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20110407 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121211 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130516 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |