[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2004171577A - Personal identification device and method for the same - Google Patents

Personal identification device and method for the same Download PDF

Info

Publication number
JP2004171577A
JP2004171577A JP2003401003A JP2003401003A JP2004171577A JP 2004171577 A JP2004171577 A JP 2004171577A JP 2003401003 A JP2003401003 A JP 2003401003A JP 2003401003 A JP2003401003 A JP 2003401003A JP 2004171577 A JP2004171577 A JP 2004171577A
Authority
JP
Japan
Prior art keywords
finger
image
vein pattern
personal authentication
finger image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003401003A
Other languages
Japanese (ja)
Other versions
JP4555561B2 (en
JP2004171577A5 (en
Inventor
Naoto Miura
直人 三浦
Akio Nagasaka
晃朗 長坂
Takafumi Miyatake
孝文 宮武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003401003A priority Critical patent/JP4555561B2/en
Publication of JP2004171577A publication Critical patent/JP2004171577A/en
Publication of JP2004171577A5 publication Critical patent/JP2004171577A5/ja
Application granted granted Critical
Publication of JP4555561B2 publication Critical patent/JP4555561B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Lock And Its Accessories (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide personal identification of high precision while using a blurred finger vein pattern image which has misregistration regarding the personal identification under circumstances non-contact is required. <P>SOLUTION: The device is provided with: a means for obtaining the finger vein pattern image with no contact; a means for performing rotation compensation by using the contour of the finger as a method of retrieving the vein pattern included in the obtained image; a means for normalizing the position of the finger image with a fingertip as a reference; a means for obtaining the overall vein pattern statistically by repeating tracing of parts where a luminance value is low just for an arbitrary length from an arbitrary position on the image; a matching means for comparing only parts where distinctive characteristics appear in the blood vessel patterns; and a means for dividing the image into small areas, performing matching for every small area independently and evaluating the amount of misregistration when they are matched. <P>COPYRIGHT: (C)2004,JPO

Description

本発明は、人間の指を透過した光を撮像して得られる静脈パターンを利用して個人認証を行う装置、および方法に関する。   The present invention relates to an apparatus and a method for performing personal authentication using a vein pattern obtained by imaging light transmitted through a human finger.

個人認証技術には、指紋、虹彩、音声、手の甲の静脈などに基づく方法が存在する。指紋に基づく個人認証装置は、すでに複数の企業から製品化、販売されている。これらの製品は、指紋を指紋センサ上に接触させることで指紋を読み取り、指紋の端点や分岐点を特徴点として認識し、登録されている指紋の特徴点と照合することによって個人認証を行っている。   Personal authentication techniques include methods based on fingerprints, irises, voice, veins in the back of the hand, and the like. Personal identification devices based on fingerprints have already been commercialized and sold by a plurality of companies. These products read fingerprints by contacting them with a fingerprint sensor, recognize the end points and branch points of the fingerprints as feature points, and perform personal authentication by comparing them with feature points of registered fingerprints. I have.

また、特開平10-295674号公報には、手の甲の静脈に基づく個人認証装置が開示されている。これによると、手の甲を撮像カメラに向け、そこから出射される光の反射光を利用して血管パターンを取り込み、認証を行う。このとき、固定された棒状のガイドを握ることによって、認証ごとに撮像する手の位置がずれないように工夫されている。
また、特開平7-21373号公報には、指静脈を用いた個人認証装置が開示され、特に、撮影する際の光量のロスを少なくするため、光ファイバーを指に密着させて指画像を撮影することが開示されている。
Japanese Patent Application Laid-Open No. 10-295674 discloses a personal authentication device based on the vein of the back of the hand. According to this, the back of the hand is pointed at the imaging camera, and the reflected light of the light emitted therefrom is used to capture the blood vessel pattern to perform authentication. At this time, by holding the fixed rod-shaped guide, the position of the hand to be imaged for each authentication is not deviated.
Also, Japanese Patent Application Laid-Open No. 7-21373 discloses a personal authentication device using a finger vein. In particular, in order to reduce a loss of light amount during imaging, an optical fiber is brought into close contact with a finger to capture a finger image. It is disclosed.

特開平10-295674号公報JP-A-10-295674

特開平7-21373号公報JP 7-21373 A

従来の技術では、認証の際に指紋を採取する、もしくは目の中に光を入れるなど、心理的抵抗感の大きい方法を採用している。また前記従来の個人認証装置では、人間の体を認証装置に接触させる必要があり、衛生面を重視する医療現場等では利用することが適当でない場合がある。また体の外側にさらされている特徴を利用するため、偽造される可能性がある。   In the related art, a method that has a large psychological resistance, such as collecting a fingerprint at the time of authentication or putting light into the eyes, is adopted. Further, in the above-described conventional personal authentication device, it is necessary to bring a human body into contact with the authentication device, and it may not be appropriate to use the device in a medical site where hygiene is important. They can be counterfeited because they take advantage of features that are exposed outside the body.

本発明は、医療現場などの非接触性が求められる環境下でセキュリティシステムを構築することを目的とする。このため、本発明では非接触で指画像を撮影し、この指画像から指静脈パターンを抽出して個人認証を行う装置及び方法を提供する。
さらに、本発明では非接触で指を撮影する場合、回転や輝度むらが生じやすく高精度な個人認証結果が得にくいという新たな課題に着目した。そこで、本発明では、非接触のため回転や輝度むらが生じやすい指静脈パターン画像を用いながらも高精度な個人認証を行う個人認証装置および方法を提供する。
An object of the present invention is to construct a security system in an environment where non-contact is required, such as a medical site. Therefore, the present invention provides an apparatus and a method for capturing a finger image in a non-contact manner, extracting a finger vein pattern from the finger image and performing personal authentication.
Furthermore, in the present invention, attention has been paid to a new problem that when a finger is photographed in a non-contact manner, rotation or uneven brightness is likely to occur, and it is difficult to obtain a highly accurate personal authentication result. Therefore, the present invention provides a personal authentication apparatus and method for performing highly accurate personal authentication while using a finger vein pattern image that is likely to cause rotation and uneven brightness due to non-contact.

上記の目的を達成するため、本発明の個人認証装置は、登録指画像の静脈パターンを格納する記憶装置と、光源及び指透過光を撮影するカメラを備えたインターフェースと、撮影された指透過光画像に含まれる静脈パターンを抽出し、抽出した静脈パターンを前記登録指画像の静脈パターンと照合して個人認証を行う手段とを有し、前記インターフェースは、指を非接触で挿入する溝を有し、前記光源と前記カメラは、該溝を挟んで対向するように配置することを特徴とする。   In order to achieve the above object, a personal authentication device of the present invention comprises: a storage device for storing a vein pattern of a registered finger image; an interface including a light source and a camera for photographing finger transmitted light; Means for extracting a vein pattern included in the image, collating the extracted vein pattern with the vein pattern of the registered finger image and performing personal authentication, wherein the interface has a groove for inserting a finger in a non-contact manner. The light source and the camera are disposed so as to face each other with the groove interposed therebetween.

また、前記個人認証を行う手段は、撮影された指画像について、前記指が前記インターフェースに挿入される際に生じる撮像平面上の回転を補正し、回転補正した前記指画像に含まれる静脈パターンを抽出して個人認証を行うことを特徴とする。   Further, the means for performing personal authentication corrects a rotation on an imaging plane that occurs when the finger is inserted into the interface with respect to the photographed finger image, and extracts a vein pattern included in the rotation-corrected finger image. It is characterized by extracting and performing personal authentication.

本発明によれば、装置への接触を必要とせず、また認証時の心理的抵抗感も低く、かつ偽造のされにくい生体内部の特徴を用いた認証ができる。また非接触特有の位置ずれがあり不鮮明な画像を用いながらも高精度な個人認証が実現できる
ADVANTAGE OF THE INVENTION According to this invention, the authentication using the inside of the living body which does not require contact with an apparatus, has low psychological resistance at the time of authentication, and is hard to forge. In addition, highly accurate personal authentication can be realized while using an unclear image with a positional shift peculiar to non-contact.

以下、本発明の1実施例を詳細に説明する。図1は、本発明を実現するためのシステム構成の概略ブロック図である。指を挿入する部分にあたる静脈パターン入力インターフェース1の中には、光源2と光学フィルタ3、CCDカメラ4がある。光源2と光学フィルタ3の間に指を挿入することで静脈パターンを獲得する。指を透過した光は光学フィルタ3を通してCCDカメラ4で撮像される。CCDカメラ4で撮像された画像信号は画像キャプチャボード5を用いてPC6に取り込まれる。PC6内部では、取り込まれた画像信号はインターフェース7を通してメモリ8に格納される。また外部記憶装置10に保存されている登録画像がメモリ8に格納される。そしてメモリ8に格納されているプログラムに従い、CPU9によって取り込まれた画像と登録画像が一致するか否かの判断がなされる。なおこのプログラムは、外部の記憶媒体を用いて装置に供給してもよい。記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。   Hereinafter, one embodiment of the present invention will be described in detail. FIG. 1 is a schematic block diagram of a system configuration for realizing the present invention. The vein pattern input interface 1 corresponding to a part into which a finger is inserted includes a light source 2, an optical filter 3, and a CCD camera 4. A vein pattern is obtained by inserting a finger between the light source 2 and the optical filter 3. Light transmitted through the finger is imaged by the CCD camera 4 through the optical filter 3. An image signal captured by the CCD camera 4 is captured by the PC 6 using the image capture board 5. Inside the PC 6, the captured image signal is stored in the memory 8 through the interface 7. The registered image stored in the external storage device 10 is stored in the memory 8. Then, according to the program stored in the memory 8, the CPU 9 determines whether or not the captured image matches the registered image. Note that this program may be supplied to the device using an external storage medium. As the storage medium, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, and the like can be used.

図2は、非接触な方法で指静脈パターン画像を獲得する指静脈パターン入力インターフェース1の構造の一例である。インターフェースには溝状の隙間である指挿入口22があり、その部分に指20を通すことで静脈パターンを獲得する。このとき装置自体に指を接触させる必要がない。また、溝の中に複数本の指を通すことによって複数の指の静脈パターンを撮像することができる。さらに、肩、肘、手首等を中心に円の軌道を描いて指を振り下ろすことで複数本の指20を連続的に指挿入口22に通し、指画像を撮像することも可能である。このような非接触な撮像方法をとる場合、撮像された指画像は撮像平面に対する回転が生じる。従って、撮像された指画像には、必然的に回転補正を行う必要がある。
なお、溝の方向は、地面に対してどのような方向であっても良いが、特に地面に対して垂直方向の溝を設けた場合、ユーザは重力に従って手を振り下ろすという自然な運動で、パターン画像の獲得ができるので、使い勝手がよいという効果がある。
また、このように溝に指を通すようなインターフェースの構造は、指の中心軸を中心とした回転が生じにくくなるため、認証の精度が高くなるという効果がある
FIG. 2 shows an example of the structure of the finger vein pattern input interface 1 for acquiring a finger vein pattern image by a non-contact method. The interface has a finger insertion port 22 which is a groove-shaped gap, and a vein pattern is obtained by passing the finger 20 through that part. At this time, there is no need to bring a finger into contact with the device itself. Also, by passing a plurality of fingers through the groove, vein patterns of the plurality of fingers can be imaged. Furthermore, it is also possible to continuously draw the plurality of fingers 20 through the finger insertion opening 22 by swinging the fingers down in a circular orbit around the shoulders, elbows, wrists, and the like, thereby capturing a finger image. When such a non-contact imaging method is used, the captured finger image rotates with respect to the imaging plane. Therefore, it is necessary to inevitably perform rotation correction on the captured finger image.
In addition, the direction of the groove may be any direction with respect to the ground, especially when a groove is provided in a direction perpendicular to the ground, the user is a natural motion of waving his hand according to gravity, Since the pattern image can be obtained, there is an effect that the usability is good.
In addition, such an interface structure in which a finger is passed through the groove has the effect of increasing the accuracy of authentication because rotation around the central axis of the finger is less likely to occur.

図3は、指静脈パターン入力インターフェース1の別の例である。これは穴状の指の挿入口22がある入力インターフェースの例である。指20を指の挿入口22に挿入し、その内部にある一つまたは複数の光源・撮像素子によって指の静脈を獲得する。このとき指の中心軸に対し同心円方向に指を回転させることで多方向からの静脈パターンを獲得することもできる。   FIG. 3 is another example of the finger vein pattern input interface 1. This is an example of an input interface having a hole-like finger insertion port 22. The finger 20 is inserted into the insertion slot 22 of the finger, and a vein of the finger is obtained by one or a plurality of light sources / image sensors inside the finger. At this time, a vein pattern can be obtained from multiple directions by rotating the finger in a concentric direction with respect to the center axis of the finger.

図4は、認証の際及びインターフェース設置場所付近を通行する際の安全性を考慮した、上記の非接触型の指静脈パターン入力インターフェースの一例である。(a)は指静脈パターン入力インターフェースの角を面取りして、指、手、腕などが接触した場合でも安全な形状にしたものである。また、設置場所によっては装置が突出していると危険な場合もある。その場合は(b)に示すように溝を横向きに設けることでインターフェースの突出の幅を狭める、もしくは(c)に示すように設置する壁面自体に指の挿入口を設ける。ただし(c)においては腕を振り下ろして通すのに十分な幅の溝を有する。また、腕を振り下ろして指を撮像することに対応するために、(d)に示すように指の挿入口の奥を指の軌道に合わせて円弧状にする。このような構造にすることで、腕の円運動に対して指が装置に接触しにくい構造となる。また、装置の表面及び指の挿入口の内部をクッションのような柔らかい材質のもので覆うことで、指の接触に対する安全性を高めることができる。この図では、円弧状の部分にクッション38が並べて貼り付けられている様子が示されている。なお、上述した指静脈パターン入力インターフェースは、溝が縦方向に開けられ、上下方向に指を動かすことで静脈パターンを獲得する例であるが、装置の設置条件により溝の開けられる向き及び指を動かす向きは任意とすることができる。   FIG. 4 is an example of the above-mentioned non-contact type finger vein pattern input interface in consideration of security at the time of authentication and at the time of passing near the interface installation location. (a) is a shape in which a corner of the finger vein pattern input interface is chamfered so that a finger, a hand, an arm, or the like comes into contact with a safe shape. Also, depending on the installation location, there is a case where it is dangerous that the device protrudes. In this case, the width of the protrusion of the interface is reduced by providing a groove horizontally as shown in (b), or a finger insertion port is provided in the wall surface itself to be installed as shown in (c). However, in (c), the arm has a groove having a width sufficient to allow the arm to swing down. In addition, in order to cope with imaging of the finger by swinging the arm down, the depth of the insertion slot of the finger is formed in an arc shape in accordance with the trajectory of the finger as shown in (d). With such a structure, the finger is hardly brought into contact with the device with respect to the circular movement of the arm. In addition, by covering the surface of the apparatus and the inside of the finger insertion port with a soft material such as a cushion, safety against finger contact can be enhanced. This figure shows a state in which the cushions 38 are arranged and attached to the arc-shaped portions. Note that the above-described finger vein pattern input interface is an example in which a groove is opened in the vertical direction and a vein pattern is obtained by moving the finger in the vertical direction. The direction of movement can be arbitrary.

図5は、上記指静脈パターン入力インターフェース1内部における、複数の光源・撮像素子によって多方向から静脈パターンを撮像するための構成の一例である。指20の中心軸に対して同心円状に、お互いが対面する位置に光源2と光学フィルタ3の付いたCCDカメラ4が複数個並んでいる。指20が入力インターフェース1に挿入されるとそれらの撮像素子が多方向から指画像を撮像する。この構成では指を回転させることなく多方向からの静脈パターンが撮像できるという効果がある。光源同士の干渉によって撮影画像が乱れる場合には、光源の動作する時間をずらして逐次撮像してもよい。   FIG. 5 shows an example of a configuration for capturing a vein pattern from multiple directions by a plurality of light sources / image sensors in the finger vein pattern input interface 1. A plurality of CCD cameras 4 each having the light source 2 and the optical filter 3 are arranged concentrically with respect to the center axis of the finger 20 at positions facing each other. When the finger 20 is inserted into the input interface 1, those image sensors capture finger images from multiple directions. This configuration has the effect that vein patterns from multiple directions can be imaged without rotating the finger. When the captured image is disturbed due to interference between the light sources, the images may be sequentially captured while the operation time of the light sources is shifted.

図6は、上記の非接触型の指静脈パターン入力インターフェースと非接触型の自動ドアを組み合わせ、認証を含めた入退室を非接触で行うことができるシステムの一例である。指静脈パターン入力インターフェース20が自動ドア42の横の壁面に設置され、ここに指20を挿入する。認証請求者40の静脈パターンがシステムに登録されている静脈パターンと一致した場合、自動ドア42が自動的に開く。このとき、認証から扉の開閉までのすべてが非接触で行えることが大きな特徴である。この場合の、入力インターフェースとしては、図4に記載の種々の構成が用いられる。   FIG. 6 shows an example of a system in which the above-mentioned non-contact type finger vein pattern input interface and a non-contact type automatic door are combined to enable non-contact entry and exit including authentication. The finger vein pattern input interface 20 is installed on a wall surface next to the automatic door 42, and the finger 20 is inserted therein. When the vein pattern of the authentication claimant 40 matches the vein pattern registered in the system, the automatic door 42 is automatically opened. At this time, a major feature is that everything from authentication to opening and closing of the door can be performed without contact. In this case, various configurations shown in FIG. 4 are used as the input interface.

図7は、静脈パターンと指紋、虹彩、音声、筆跡、顔などを複数組み合わせた個人認証装置の一例である。認証請求者40は認証を受けるべき場所に設置してある認証装置によって認証を受ける。静脈パターンを撮像する入力インターフェース1により静脈を撮像するが、それに前後してその他の個人特徴を各種入力インターフェースによって入力する。たとえば暗証番号を暗証番号入力キー43によって入力し、それから指を静脈パターン入力インターフェース1に挿入して認証を受ける。さらに認証の精度を高めるために、指紋入力インターフェース44によって指紋を入力し、虹彩撮像カメラ46、顔画像撮像カメラ48によって被認証者の虹彩と顔画像を撮像する。そして筆跡確認のため筆跡入力ペン50によって筆跡入力タブレット52の上に文字を書き、さらに音声を発することでマイク54がその音声を拾う。これらの様々な個人の特徴をPC6によって解析し、最終的に認証されるか否かが決定される。静脈パターンによる認証と併用して用いられる個人の特徴情報の組み合わせ方は任意であり、当然すべてを用いる必要はないが、この例ではより認証精度を高めるために多くの特徴情報を利用している。また、指紋の入力装置と静脈パターン撮像装置とを一体化して、所定の場所に1回指を置くだけで両方の入力が同時にできるようにしてもよい。これによって、ユーザの手間を省くと共に、より高精度な個人認証が可能となる。   FIG. 7 is an example of a personal authentication device in which a plurality of vein patterns and fingerprints, irises, voices, handwritings, faces, and the like are combined. The authentication requester 40 is authenticated by an authentication device installed at a place to be authenticated. A vein is imaged by the input interface 1 for imaging a vein pattern, and before and after that, other personal characteristics are input by various input interfaces. For example, the personal identification number is input by the personal identification number input key 43, and then the finger is inserted into the vein pattern input interface 1 to be authenticated. In order to further improve the accuracy of authentication, a fingerprint is input by the fingerprint input interface 44, and an iris and a face image of the person to be authenticated are captured by the iris image capturing camera 46 and the face image capturing camera 48. Then, a character is written on the handwriting input tablet 52 with the handwriting input pen 50 for handwriting confirmation, and a voice is emitted, so that the microphone 54 picks up the voice. The characteristics of these various individuals are analyzed by the PC 6, and it is finally determined whether or not to be authenticated. The method of combining personal characteristic information used in combination with vein pattern authentication is arbitrary, and it is not necessary to use all of them, but in this example, a lot of characteristic information is used to further increase the authentication accuracy. . Alternatively, the fingerprint input device and the vein pattern imaging device may be integrated so that both inputs can be performed simultaneously by placing a finger once in a predetermined place. This saves time and effort for the user and enables more accurate personal authentication.

図8はICカードを利用して暗証番号や個人の特徴情報を認証装置に与えるシステムの一例である。認証請求者40は暗証番号や本人の静脈パターン、指紋、音声、虹彩、筆跡、顔などの個人の特徴情報が記録されているICカード60を保持している。この図は被接触型のICカードを使用した例であるが、接触型ICカードを使用することも可能である。ICカード60に記録されている情報はICカードリーダ62に近づくと自動的にICカードリーダ62によって読み込まれる。このとき個人の特徴情報が個人認証装置に送られるが、個人を識別する番号だけを装置に送り、あらかじめ外部記憶装置10に記憶されている個人の特徴情報のうちその番号に応じたものを読み出すことで個人の特徴情報を獲得してもよい。この図の例では静脈パターンを個人の特徴情報として与えている。その後指静脈パターン入力インターフェース1に指を挿入することで静脈パターンを獲得、ICカード60もしくは外部記憶装置10から読み出された静脈パターンとのマッチングをとり、認証が行われる。この図では静脈パターンとICカードの組み合わせだけを示したが、図7で示した様々な個人の特徴情報を併用することも可能である。   FIG. 8 shows an example of a system for providing a personal identification number and personal characteristic information to an authentication device using an IC card. The authentication claimant 40 holds an IC card 60 in which personal characteristic information such as a personal identification number, a person's vein pattern, fingerprint, voice, iris, handwriting, and face are recorded. Although this drawing shows an example using a contact type IC card, a contact type IC card can also be used. The information recorded on the IC card 60 is automatically read by the IC card reader 62 when approaching the IC card reader 62. At this time, the personal characteristic information is sent to the personal authentication device, but only the number for identifying the individual is sent to the device, and the personal characteristic information corresponding to the number is read out of the personal characteristic information stored in the external storage device 10 in advance. By doing so, personal characteristic information may be obtained. In the example of this figure, a vein pattern is given as personal characteristic information. Thereafter, a finger is inserted into the finger vein pattern input interface 1 to acquire a vein pattern, and the authentication is performed by matching the vein pattern with the vein pattern read from the IC card 60 or the external storage device 10. In this figure, only the combination of the vein pattern and the IC card is shown, but it is also possible to use various personal characteristic information shown in FIG. 7 together.

以下では、上記ハードウェア、特にCPU9によって実行される、先述の課題を解決するソフトウェアソフトウェアフローについて詳細に説明する。なおこのフローを実現するソフトウェアプログラムは、外部の記憶媒体を用いて装置に供給してもよい。
記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。 図9は、指画像が取り込まれてから認証が行われるまでの概略フローチャートである。静脈パターンによる個人認証を行うためには、取り込まれた指画像から静脈パターンを抽出し、登録されている静脈パターンとの比較を行う必要がある。従って撮像された指画像はいくつかの段階を経て登録画像と比較できる形の静脈パターンへ変換されなければならない。まず各種の初期化(200)を行った後、画像内の指部分だけを取り出すために指の輪郭検出(202)を行う。この時点で指がどのような角度、位置で撮像されているかが検出できる。どのような角度や位置で撮像されていても正しく認識できるように指の傾きを水平にする回転補正(204)を行った後、認識に必要な部分だけを取り出す指画像の切り出し(206)を行う。このときに得られる画像は静脈パターンだけでなく認証に不要な影や輝度むらなどが存在する。そこで静脈パターンだけを取り出すために、血管追跡(208)を行う。この結果を利用して、登録画像と取り込まれた指画像との静脈パターンのマッチング(210)を行い、画像間の相関を評価値として算出する。評価値の大きさによって本人もしくは他人であると判断されるが、どちらとも決めがたい評価値であった場合(212)、さらに、画像を小領域に分割してマッチングを行いマッチした位置ずれを評価する分割マッチング(214)を行う。そして最終的に本人であるか否かを判定する(216)。
In the following, a detailed description will be given of a software flow executed by the above-mentioned hardware, in particular, the CPU 9 for solving the above-mentioned problem. The software program for realizing this flow may be supplied to the device using an external storage medium.
As the storage medium, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, and the like can be used. FIG. 9 is a schematic flowchart from when a finger image is captured to when authentication is performed. In order to perform personal authentication using a vein pattern, it is necessary to extract a vein pattern from the captured finger image and compare it with a registered vein pattern. Therefore, the captured finger image must be converted into a vein pattern that can be compared with the registered image through several steps. First, after performing various initializations (200), the outline of the finger is detected (202) to extract only the finger portion in the image. At this point, it is possible to detect at what angle and position the finger is being imaged. After performing a rotation correction (204) to make the inclination of the finger horizontal so that the image can be correctly recognized even if the image is captured at any angle or position, cut out the finger image (206) to extract only a part necessary for recognition. Do. The image obtained at this time has not only vein patterns but also shadows and uneven brightness which are unnecessary for authentication. Then, in order to extract only the vein pattern, blood vessel tracking (208) is performed. Using this result, matching (210) of the vein pattern between the registered image and the captured finger image is performed, and the correlation between the images is calculated as an evaluation value. It is determined that the subject is the person or the other person according to the magnitude of the evaluation value. However, if the evaluation value is indeterminate for both (212), the image is further divided into small areas and matching is performed. A division matching (214) to be evaluated is performed. Then, it is finally determined whether or not the user is himself (216).

以下では、図9に示されたフローチャートの各項目ついて詳細に説明する。
図10は指の輪郭検出処理の一例を示したものである。(a)は撮像された画像の模式図である。ここでは指が画像左側から水平方向に撮像され、指先が右側に位置している場合について説明する。初めに指20と背景部分の境界を強調するためにコントラストの調整を行う。ただし、画像全体のコントラストを調整する必要はなく、たとえば下側の輪郭が不鮮明である場合には画像下側だけのコントラストを調整すればよい。この処理によって指のエッジが強調される。(a)における指20のエッジが鮮明になっている様子を(b)に示す。
Hereinafter, each item of the flowchart shown in FIG. 9 will be described in detail.
FIG. 10 shows an example of a finger outline detection process. (a) is a schematic diagram of a captured image. Here, a case where the finger is imaged horizontally from the left side of the image and the fingertip is located on the right side will be described. First, the contrast is adjusted to emphasize the boundary between the finger 20 and the background. However, it is not necessary to adjust the contrast of the whole image. For example, when the lower contour is unclear, the contrast of only the lower part of the image may be adjusted. This process emphasizes the edge of the finger. (b) shows a state in which the edge of the finger 20 in (a) is sharp.

続いて、実際に指の輪郭検出を行う。まず、画像100の中心に追跡点104を置く。この位置から上下別々に1ピクセルずつ移動し、指の輪郭部分を検出する出発位置を求める。画像の中心には指部分が写っているため、その位置の上下数ピクセルはすべて比較的明るい輝度値を持つ。上下に移動していくとやがて指部分と背景部分の境界に到達する。このとき、画像内側(指側)にある数ピクセルの輝度値は比較的高いが、画像外側(背景側)にある数ピクセルの輝度値は低いはずである。従って、追跡点104の現在位置における内側nピクセルの輝度値の和から、外側nピクセルの輝度値の和を減じて差分を求め、画像の上端または下端まで追跡点104を移動した中で、最も高い差分値を示した位置が背景と指との境界であると判断することができる。
(c)は追跡点104が上下に移動し、指と背景の境界にたどり着いたところを表している。次にこの位置から指の輪郭をたどる。この場合は右方向と左方向の2通りについてたどる必要がある。左方向をたどる場合は、現在位置の左、左上、左下の3点について、上方nピクセルと下方nピクセルの輝度値の差分を計算し、最も大きい差分値を持つ位置を次の位置とする。このようにして画像の左端までたどっていくと、その軌跡が輪郭となる。右方向については、指先部分をたどる必要があるため、上側の輪郭追跡については現在位置の右下のさらに下数ピクセル、かつ現在位置の真下についても探索範囲とし、下側の輪郭追跡については現在位置の右上のさらに上数ピクセル、かつ現在位置の真上についても探索範囲とした。これにより、指先の曲率の高いカーブまで検出できることになる。
(d)は最終的に追跡点104が指の輪郭をたどった結果を表している。尚、上記では撮像画像が定型的に決められているため単純な追跡方法を採用したが、画像処理で利用される他の様々な輪郭追跡方法を利用して精度を向上できることはいうまでもない。
Subsequently, the outline of the finger is actually detected. First, the tracking point 104 is placed at the center of the image 100. From this position, the starting position at which the outline of the finger is detected is obtained by moving one pixel upward and downward separately. Since the finger portion is shown in the center of the image, all pixels above and below that position have relatively bright luminance values. As it moves up and down, it eventually reaches the boundary between the finger and the background. At this time, the luminance value of several pixels inside the image (finger side) should be relatively high, but the luminance value of several pixels outside the image (background side) should be low. Therefore, the difference is obtained by subtracting the sum of the luminance values of the outer n pixels from the sum of the luminance values of the inner n pixels at the current position of the tracking point 104, and the difference is obtained by moving the tracking point 104 to the upper or lower end of the image. It can be determined that the position showing the high difference value is the boundary between the background and the finger.
(c) indicates that the tracking point 104 has moved up and down and has reached the boundary between the finger and the background. Next, the contour of the finger is traced from this position. In this case, it is necessary to follow two directions, rightward and leftward. When following the left direction, the difference between the luminance values of the upper n pixels and the lower n pixels is calculated for the three points, left, upper left, and lower left of the current position, and the position having the largest difference value is set as the next position. When the image is traced to the left end, the locus becomes an outline. In the right direction, since it is necessary to follow the fingertip portion, the upper contour tracking is a few pixels below and to the right of the current position, and the search range is directly below the current position. A few pixels above and to the upper right of the position and directly above the current position were also used as the search range. As a result, it is possible to detect even a curve having a high curvature at the fingertip.
(d) finally shows the result of the tracking point 104 following the outline of the finger. In the above description, a simple tracking method is adopted because the captured image is fixed, but it goes without saying that the accuracy can be improved by using various other contour tracking methods used in image processing. .

図11は先述の方法で得られた指の輪郭情報を用いた指の回転補正処理の一例を示している。(a)は指の回転補正前の画像を表している。撮像されたときの指の傾きはその輪郭の形状を調べることで分かる。すべての指画像においてその傾きが一定となるように補正することで、カメラの撮影平面に対する二次元的な回転に対する正規化がなされる。
指の傾きは、指を直線で近似したときの線と水平線とのなす角と考えられるが、ここではその一例として上側の輪郭線を利用した回転補正方法について説明する。指の輪郭線は、同じ指の場合、挿入の傾きが異なっていてもその形状は同じである。ここでその輪郭線の近似直線を求める。一般的に、曲線とその近似直線との相対的位置関係は常に一定である。従って、傾きが異なり、かつ同じ形状の輪郭線は、その近似直線によって傾きの正規化ができる。このときできるだけ直線に近い状態の曲線から近似直線を求めた方がより精度が上がるため、直線的な上側の輪郭線から近似的な直線を求める。具体的には、たとえば指先から16ピクセルほど指の根元方向へ進んだ位置から、同方向へ128ピクセル進んだ位置の間にある輪郭だけを利用する。あえて指先を避けるようにしたのは、曲率の高い部分を避けるためである。
FIG. 11 shows an example of a finger rotation correction process using the finger contour information obtained by the above-described method. (a) shows an image before finger rotation correction. The inclination of the finger when the image is captured can be determined by examining the shape of the contour. Correction is performed so that the inclination is constant in all the finger images, thereby normalizing the two-dimensional rotation with respect to the photographing plane of the camera.
The inclination of the finger can be considered as an angle between a line when the finger is approximated by a straight line and a horizontal line. Here, as an example, a rotation correction method using an upper contour line will be described. In the case of the same finger, the contours of the fingers have the same shape even when the insertion inclination is different. Here, an approximate straight line of the outline is obtained. Generally, the relative positional relationship between a curve and its approximate straight line is always constant. Therefore, contour lines having different slopes and the same shape can be normalized by an approximate straight line. At this time, the accuracy is more improved when an approximate straight line is obtained from a curve that is as close to a straight line as possible. Therefore, an approximate straight line is obtained from a straight upper contour line. Specifically, for example, only a contour located between a position advanced by 128 pixels in the same direction from a position advanced by 16 pixels from the fingertip in the root direction of the finger is used. The reason for avoiding fingertips is to avoid high curvature portions.

次に、利用する輪郭部分のピクセルを等間隔に数点ほど取り出し、最小二乗法によって上側輪郭の近似直線106を求める。最後にこの直線が画像に対して水平になるように全体を回転する。ただし回転中心は仮にこの直線と画像の左端との交点とする。また位置の正規化については後述する。(b)は上側輪郭の近似直線106を水平に回転補正した結果である。図12は回転補正した指画像から認証に必要となる部分を切り出す処理の一例を示している。通常、指の撮像されている水平・垂直方向の位置は指を撮像するたびに異なる。従って指画像をマッチングに利用しやすくするために、指の位置を正規化する必要がある。一方、認識を行うには画像内に静脈パターンが撮像されていればよく、その他の不要な部分は保持しておく必要は無い。そこで、元画像より小さなサイズの画像を元画像から切り出す。このとき、切り出す位置を常に指の同じ部分に合わせれば、指の位置を正規化したことになる。切り出し部分の位置決めには指の輪郭情報を利用する。まず左右方向の位置は、輪郭情報から得られる指先110を利用して、たとえば指先110が切り出す画像の右端に一致する位置と決める。次に、上下方向の位置は、指の上下の輪郭を利用して指の中心軸108を求め、その中心軸108が、切り出す画像の中心を通るような位置とする。このような位置決めにより、切り出し画像114が得られる。この切り出し画像114は画像100のどの位置に指20が撮像されていても毎回同じ指部分を切り出すことになり、指位置の正規化がなされたことになる。   Next, several pixels of the contour portion to be used are extracted at equal intervals, and an approximate straight line 106 of the upper contour is obtained by the least squares method. Finally, the whole is rotated so that this straight line is horizontal to the image. However, the center of rotation is assumed to be the intersection of this straight line and the left end of the image. The position normalization will be described later. (b) is the result of horizontal rotation correction of the approximate straight line 106 of the upper contour. FIG. 12 shows an example of a process of cutting out a portion required for authentication from a finger image whose rotation has been corrected. Normally, the position of the finger in the horizontal and vertical directions at which the image is taken differs every time the finger is taken. Therefore, it is necessary to normalize the position of the finger in order to easily use the finger image for matching. On the other hand, in order to perform recognition, it is sufficient that a vein pattern is captured in an image, and it is not necessary to hold other unnecessary parts. Therefore, an image smaller in size than the original image is cut out from the original image. At this time, if the cutout position is always set to the same part of the finger, the finger position is normalized. The outline information of the finger is used for positioning the cutout portion. First, using the fingertip 110 obtained from the outline information, the position in the left-right direction is determined to be, for example, a position corresponding to the right end of an image cut out by the fingertip 110. Next, the position in the vertical direction is determined such that the center axis 108 of the finger is obtained by using the upper and lower contours of the finger, and the center axis 108 passes through the center of the image to be cut out. With such positioning, a cut-out image 114 is obtained. Regardless of the position where the finger 20 is picked up in the image 100, the same finger portion is cut out from the cutout image 114 every time, and the finger position is normalized.

図13は切り出された指画像に対する血管追跡処理の流れを示すフローチャートである。CCDカメラにより撮像された指画像には、認証に必要な静脈パターンが鮮明に映し出されている訳ではない。得られる画像には、背景のノイズ、指の骨や肉の厚さが不均一なために不規則に生じる影、輝度むらなど、認証に不要な情報が多く含まれている。従って、このような画像を認証に用いるためには、画像から静脈パターンだけを取り出す、あるいは静脈パターンを強調する必要がある。指画像は指を透過した光を撮像したものである。透過光は血中ヘモグロビンに吸収される波長であるため、血管部分は暗い輝度値となる。また関節部分からは明るい光が漏れ出している。従って、バックグラウンドの輝度は空間的に大きく変化しており、単純にエッジを強調することで血管だけを強調することができない。しかし、空間的に局所的な範囲に限れば血管部分は周囲よりも暗い。従って、ある位置からより暗い部分へ移動し続けたときの軌跡が血管である可能性は高い。通常血管は1本ではなく複数本存在し、さらにその本数や長さは事前に知ることはできない。そこで、本実施例では、様々な位置で、様々な長さの軌跡を多数求め、それらを重ね合わせることで統計的に血管パターンを浮かび上がらせることとする。
このような考えに基づいて、以下のような方法で血管を追跡した。まず初めに血管を追跡した経歴を保持するための、画像と同じ大きさの得点表を用意し、そのすべてを0に初期化する(300)。全体の血管パターンを浮かび上がらせるために必要な回数jだけ繰り返し実行される血管追跡のループ(302)の中においては、まず1回分の血管追跡を行う追跡点の出発位置を乱数によって決定(304)する。ただし背景、指先、指の根元、指の輪郭付近を出発点とすると血管を正しくたどることができなくなるため、指の輪郭情報を利用して、それらが出発点とならないようにする。
FIG. 13 is a flowchart showing the flow of the blood vessel tracking process for the clipped finger image. The finger image captured by the CCD camera does not clearly show a vein pattern required for authentication. The obtained image contains a lot of information unnecessary for authentication, such as background noise, irregular shadows due to uneven thickness of finger bones and flesh, and uneven brightness. Therefore, in order to use such an image for authentication, it is necessary to extract only the vein pattern from the image or to enhance the vein pattern. The finger image is obtained by capturing light transmitted through the finger. Since the transmitted light has a wavelength that is absorbed by blood hemoglobin, the blood vessel portion has a dark luminance value. Bright light is leaking from the joints. Therefore, the luminance of the background changes greatly spatially, and it is not possible to emphasize only the blood vessel by simply enhancing the edge. However, the blood vessel portion is darker than the surroundings only in a spatially local range. Therefore, there is a high possibility that the trajectory when moving from a certain position to a darker part is a blood vessel. Usually, not one blood vessel exists but a plurality of blood vessels, and the number and length of the blood vessels cannot be known in advance. Therefore, in the present embodiment, a large number of trajectories having various lengths are obtained at various positions, and by superimposing the trajectories, a blood vessel pattern is statistically made to emerge.
Based on this idea, blood vessels were tracked by the following method. First, a score table of the same size as an image is prepared to hold a history of tracking blood vessels, and all of them are initialized to 0 (300). In a blood vessel tracking loop (302) that is repeatedly executed by the number of times j necessary to make the entire blood vessel pattern emerge, first, a starting position of a tracking point for performing one blood vessel tracking is determined by a random number (304). I do. However, if the starting point is the background, the fingertip, the root of the finger, or the vicinity of the contour of the finger, the blood vessel cannot be correctly traced. Therefore, the information is used as the starting point by using the contour information of the finger.

また出発点は血管上に配置したほうがより血管をたどりやすい。そこで複数の出発点候補を決め、その中で最も暗い輝度値のピクセルを出発点とする。ただし常にこの条件で出発点を決定すると明るい部分に存在する血管が追跡されにくくなるため、複数の出発点候補のうちで最も暗い輝度値のピクセルを常に出発点とするのでなく、一定の確率で最も明るい輝度値を持つピクセルを出発点とする。この確率は乱数によって決定する。次にこの追跡点の移動しやすい向きを決定する(306)。この性質は後述の移動可能点の決定に用いられる。この決定法の一例として、乱数によって、右または左、かつ上または下へ移動しやすい性質を持つと決定する。続い「寿命」を決定(308)し、同時にその値を初期値として追跡点に与える。追跡は、上記寿命により定まる距離だけ追跡した時点で打ち切る。つまり、追跡の長さを追跡点の寿命とて、追跡点の追跡の長さを表すし、1ピクセルをたどるごとに寿命を減らし寿命が尽きた時点で追跡を終了させる。この寿命は乱数を用いて決定される。   In addition, it is easier to follow the blood vessel when the starting point is arranged on the blood vessel. Therefore, a plurality of starting point candidates are determined, and a pixel having the darkest luminance value among them is set as a starting point. However, if the starting point is always determined under these conditions, it will be difficult to track the blood vessels present in the bright part, so the pixel with the darkest luminance value among the multiple starting point candidates will not always be the starting point, but with a certain probability. The pixel having the brightest luminance value is the starting point. This probability is determined by a random number. Next, the direction in which the tracking point is easy to move is determined (306). This property is used for determining a movable point described later. As an example of this determination method, a random number is determined to have a property of easily moving right or left and up or down. Subsequently, "life" is determined (308), and at the same time, the value is given to the tracking point as an initial value. The tracking is terminated when the tracking is performed for the distance determined by the life. In other words, the tracking length is defined as the life of the tracking point, and the tracking length of the tracking point is represented. The life is reduced each time one pixel is traced, and the tracking is terminated when the life has expired. This lifetime is determined using random numbers.

続いてこの追跡点を移動させる。はじめに、追跡点が次に移動することのできる点を決定(310)する。血管の多くは指の長軸方向を走っているが、追跡点の移動する傾向を血管の走る方向の傾向に合わせることで血管がより強調される。そこで、次に移動することのできる点の候補にある傾向をもたせることで、移動点の移動の傾向を制御する。
移動の傾向の一例として、50%の確率で左右の長軸方向に移動しやすくするため左または右の3近傍を移動可能点とし、残りの50%のうち30%については指の短軸方向に移動しやすくするため上または下の3近傍を移動可能点とする。
それ以外は8近傍を移動可能点とする。ただし、いずれの場合も今までたどってきた軌跡や指の外側へは移動できない。このようにして移動可能点を求めるが、もし移動可能点が存在しない場合(312)は現在の追跡点での追跡を終了する。
続いて移動可能点のうち、最も暗い輝度値を持つピクセルへ移動(314)する。そして現在の追跡点が過去にたどってきた軌跡を再びたどらないよう、現在の位置を軌跡情報として登録、更新(316)する。このとき、そのピクセルの座標に対応した得点表の位置に、得点を加算(318)する。ここでは例として5点を加算する。さらにこの追跡点の追跡の長さである寿命を1つ減らす(320)。この追跡点の寿命の有無を判定(322)し、寿命があるならば再び移動可能点の決定(310)へ戻り、移動、得点の加算、軌跡情報の更新を繰り返す。寿命が尽きた場合、たどった軌跡の情報を初期化(324)し、現在の追跡点での追跡が終了する。このような血管追跡のプロセスを多数繰り返し実行する。この繰り返しがすべて終了したとき、たどった回数が多いピクセル、すなわち血管である確率が高い部分であるほどその位置に対応する得点表の得点は高くなっている。逆に得点の低い位置は血管でない確率が高いことになる。従って、この得点表には静脈パターンそのものが現れていることになる。従って、この得点表を画像として捉えることで、静脈パターンだけを取り出した画像が得られることになる。
Subsequently, the tracking point is moved. First, a point to which the tracking point can move next is determined (310). Although many blood vessels run in the long axis direction of the finger, the blood vessels are emphasized more by adjusting the tendency of the tracking point to move in accordance with the tendency of the blood vessels in the running direction. Therefore, the tendency of the movement of the moving point is controlled by giving a tendency to the candidate for the next moveable point.
As an example of the tendency of movement, in order to make it easy to move in the left and right major axis directions with a probability of 50%, the left or right three neighborhoods are set as movable points, and for the remaining 50%, 30% of the finger short axis direction. In order to make it easy to move, the upper and lower three neighborhoods are set as movable points.
In other cases, the vicinity of 8 is a movable point. However, in either case, the user cannot move to the outside of the trajectory or finger that has been followed. In this way, the movable point is obtained. If there is no movable point (312), the tracking at the current tracking point ends.
Subsequently, among the movable points, the pixel is moved to the pixel having the darkest luminance value (314). Then, the current position is registered and updated as trajectory information (316) so that the current tracking point does not follow the trajectory traced in the past again. At this time, the score is added to the position of the score table corresponding to the coordinates of the pixel (318). Here, five points are added as an example. Further, the life, which is the tracking length of the tracking point, is reduced by one (320). It is determined whether or not the tracking point has a lifetime (322), and if it has, the process returns to the determination of the movable point (310) again, and the movement, the addition of the score, and the update of the trajectory information are repeated. When the life has expired, the information of the traced path is initialized (324), and the tracking at the current tracking point ends. Such a blood vessel tracking process is repeatedly executed. When all the repetitions are completed, the score of the score table corresponding to the position is higher as the pixel has been traversed a larger number, that is, the portion having a higher probability of being a blood vessel. Conversely, a position with a low score has a high probability of not being a blood vessel. Therefore, the vein pattern itself appears in this score table. Therefore, by capturing this score table as an image, an image obtained by extracting only the vein pattern can be obtained.

このようにして得られた静脈パターンをマッチングに利用しやすい形にするために、静脈パターンとしての得点表の各欄をその得点に応じて分類する。ここでは例として4種に分類する(328)。まず得点の低いピクセル位置には全く血管が存在しないものとする。また得点の高いピクセル位置は血管である可能性が高いとする。そして中間的な得点を持つピクセル位置は、血管である可能性はあるが確実に血管であるとは言いがたいあいまいな領域であるとする。さらに指の輪郭の外側に位置するピクセルを背景とする。これら4種類を輝度値に対応させることで、静脈パターンの画像が得られる。
最後に、偶然追跡されなかったピクセルの穴を埋めるために、血管部分、そしてあいまいな部分に対して膨張処理(330)を施した。膨張処理は、画像中に存在するすべてのピクセルについて、血管部分またはあいまいな部分のピクセルの8近傍を調べ、血管でない部分のピクセルの個数が4つ以下ならば、それらの血管でない部分をあいまいな部分に変換することで行われる。
In order to make the vein pattern obtained in this manner easy to use for matching, each column of the score table as a vein pattern is classified according to the score. Here, it is classified into four types as examples (328). First, it is assumed that no blood vessel exists at a pixel position having a low score. It is also assumed that a pixel position with a high score is highly likely to be a blood vessel. Then, it is assumed that the pixel position having an intermediate score is an ambiguous region that may be a blood vessel but cannot be definitely called a blood vessel. Further, a pixel located outside the outline of the finger is set as a background. By associating these four types with luminance values, an image of a vein pattern can be obtained.
Finally, dilation (330) was performed on the blood vessel portion and the ambiguous portion to fill in the holes of the pixels that were not accidentally tracked. The dilation process examines the 8 neighborhoods of the pixels in the blood vessel portion or the ambiguous portion for all the pixels present in the image, and if the number of pixels in the non-blood vessel portion is four or less, the non-vascular portion is unclear. This is done by converting to parts.

以上のような手順により得点表が静脈パターンの画像へ変換され、同時にマッチングに利用しやすい形に変換された。図14は上述の手法により得られた静脈パターンが登録された静脈パターンと一致するか否かを判定する手法の一例を示したフローチャートである。2枚の画像を比較するアルゴリズムにはSSDA(sequential similarity detection algorithm)を採用した。これはミスマッチが単調増加する性質を利用し、ある閾値を越えた時点で計算を打ち切る手法である。初めに各種の初期化(400)を行う。続いて比較する2枚の静脈パターン画像の片方について画像の外周nピクセルを切り落とし(402)、画像サイズを小さくする。次にこの2枚の画像の中心部分を一致させて重ねあわせ、重なったピクセル同士の輝度値を比較する(404)。このとき、血管である可能性が高いピクセルと、血管でない可能性が高いピクセルが重なった場合、このピクセルはミスマッチする、という。このミスマッチするピクセルの個数を、画像全体について数え上げる。ただし、大きい方の画像について、小さい方の画像と重ならなかったピクセルは無視する。このときのミスマッチ数を最小ミスマッチ数の初期値とする。続いて、サイズを小さくした方の画像が大きい画像からはみ出ない範囲(画像中央を基点に上下左右nピクセル)において画像を1ピクセルもしくは数ピクセル単位でずらし、各位置それぞれについてミスマッチの個数を数え上げる。その際、現在の重なりにおけるミスマッチを画像全体において1ピクセル単位で数え上げる(410)が、ミスマッチの数え上げの途中でも、現在の最小ミスマッチ数を越えた場合、より小さなミスマッチ数を得ることができないためミスマッチの数え上げを中止する(412)。現時点のミスマッチ数が最小ミスマッチ数を超えなかった場合、過去の最小ミスマッチ数を現在のミスマッチ数に書き換える(416)。全範囲で画像を重ねあわせ、最終的に得られた最小ミスマッチ数が、この2枚の画像のミスマッチ数となる。   According to the above procedure, the score table was converted into an image of a vein pattern, and at the same time, was converted into a form easily usable for matching. FIG. 14 is a flowchart showing an example of a method for determining whether or not the vein pattern obtained by the above-described method matches a registered vein pattern. As an algorithm for comparing two images, SSDA (sequential similarity detection algorithm) was adopted. This is a method of stopping the calculation when a certain threshold is exceeded, using the property that the mismatch monotonically increases. First, various initializations (400) are performed. Subsequently, n pixels on the outer periphery of one of the two vein pattern images to be compared are cut off (402) to reduce the image size. Next, the central portions of the two images are matched and overlapped, and the luminance values of the overlapping pixels are compared (404). At this time, if a pixel having a high possibility of being a blood vessel and a pixel having a high possibility of not being a blood vessel overlap, this pixel is said to be mismatched. The number of mismatched pixels is counted for the entire image. However, pixels of the larger image that did not overlap with the smaller image are ignored. The number of mismatches at this time is set as the initial value of the minimum number of mismatches. Subsequently, the image is shifted by one pixel or several pixels in a range in which the image having the reduced size does not protrude from the large image (n pixels at the top, bottom, left, and right with respect to the center of the image), and the number of mismatches at each position is counted. At this time, mismatches in the current overlap are counted in units of one pixel in the entire image (410). However, if the current minimum mismatch number is exceeded during the counting of mismatches, a smaller mismatch number cannot be obtained. Is stopped (412). If the current mismatch number does not exceed the minimum mismatch number, the past minimum mismatch number is rewritten to the current mismatch number (416). The images are superimposed over the entire range, and the minimum number of mismatches finally obtained is the number of mismatches between these two images.

最後に、この結果からミスマッチ率を求める。まず2枚の画像の血管である可能性が高いピクセルの個数の総和を求める(420)。ただし、大きい方の画像については、外周nピクセルの部分を無視する。この結果とミスマッチ数を利用して、2枚の静脈パターンのミスマッチ率を求めることができる(422)。ここで、ミスマッチ率を(ミスマッチ数)/(2枚の画像における血管である可能性が高いピクセルの総数)と定義する。2つの静脈パターンが同じ場合、ミスマッチ率は0もしくは非常に小さな値となる。しかし、静脈パターンが異なる場合はミスマッチ率が非常に大きくなる。この数値がある閾値より小さい場合を本人、大きい場合を他人と判定する。   Finally, the mismatch rate is determined from the result. First, the sum of the number of pixels likely to be blood vessels in two images is obtained (420). However, for the larger image, the portion of the outer n pixels is ignored. Using this result and the number of mismatches, the mismatch rate of the two vein patterns can be determined (422). Here, the mismatch rate is defined as (number of mismatches) / (total number of pixels likely to be blood vessels in two images). If the two vein patterns are the same, the mismatch rate is 0 or a very small value. However, when the vein patterns are different, the mismatch rate becomes very large. If this numerical value is smaller than a certain threshold value, it is determined that the person is a person, and if it is larger, it is determined to be another person.

図15は上述したマッチング手法におけるミスマッチ率では本人か他人か決めがたいものについて、別の手法にてマッチングを行う手法の一例をフローチャートに示したものである。画像全体のミスマッチを求める手法は多くのケースにおいて安定して本人と他人を区別することができる。しかし、中には閾値付近のあいまいなデータも存在する。そこで閾値近傍のデータを別のマッチング手法によって認証することができれば、全体としてさらに認識率の向上が見込まれる。   FIG. 15 is a flowchart showing an example of a method of performing matching by another method for a case where it is difficult to determine whether the person is an individual or another person with a mismatch rate in the above-described matching method. In many cases, the method of obtaining the mismatch of the entire image can stably distinguish the subject from others. However, some data is ambiguous near the threshold. Therefore, if data near the threshold can be authenticated by another matching method, the recognition rate can be further improved as a whole.

分割マッチングの方法は次のとおりである。2枚の画像の片方について、画像を2つ以上のm個の小領域に分割する(502)。各小領域のそれぞれについて、もう一方の画像とのマッチングを取る(506)。ここでは単純にピクセルの輝度値が一致した個数を数える。最もマッチしたピクセルの個数の多い位置をマッチした位置とする。このとき位置的に明らかにマッチし得ない部分と偶然マッチすることのないよう、移動する範囲を限定しておく。そして小領域が最もマッチした位置の情報を得る(508)。すなわち、各小領域において初期位置からどれだけずれた位置でマッチしたかを2次元ベクトルの形で保持する。すべての小領域についてマッチングが終了したら、m個のマッチ位置の情報を平面にプロット(512)し、各点の密集度を評価する。これらの点が密集している場合は2枚の画像に大きな相関があり、逆にまばらな場合はほとんど相関はないと考えられる。   The method of division matching is as follows. For one of the two images, the image is divided into two or more m small areas (502). Each of the small areas is matched with the other image (506). Here, the number of pixels whose brightness values match is simply counted. The position with the largest number of matched pixels is set as the matched position. At this time, the moving range is limited so as not to accidentally match a portion that cannot be clearly matched in position. Then, information on the position where the small area most closely matches is obtained (508). That is, in each of the small areas, how much the position is shifted from the initial position is stored in the form of a two-dimensional vector. When the matching has been completed for all the small areas, the information of the m matching positions is plotted on a plane (512), and the density of each point is evaluated. When these points are dense, there is a large correlation between the two images. Conversely, when these points are sparse, there is almost no correlation.

密集度の評価のために、プロットした点に重みp、その点から1ピクセル離れるごとにΔpだけ小さな値を加算(514)する。プロットした点が密集している場合はその重み値が繰り返し加算されるため、より大きな値が平面上に現れる。m個の小領域のマッチ位置がすべて同じである場合、加算される重み値の最大値はm*pとなる。逆に、マッチ位置がまばらである場合、評価値の最大値はpとなる。偶然マッチ位置が重なる場合もあるため、無相関の画像でも評価値の最大値はpより大きくなる。このように平面に得点を付け、最も大きい得点を探す(516)。この値が2つの静脈パターンの相関となる。この値が大きい場合は本人である確率が高く、逆に小さい場合は他人である確率が高い。ただし、偶然マッチ位置が一致したために大きな相関を持つ場合もある。このときは他人を本人であると間違える確率が大きくなってしまう。そのため、評価値の最大値を生じる位置からある半径の円内にプロットされた点が少ない場合は、偶然評価値が高くなったものと判断(518)し、他人であると判定する(520)。   For the evaluation of the density, a weight p is added to the plotted point, and a value smaller by Δp is added every time a pixel is separated from the point (514). If the plotted points are dense, their weight values are repeatedly added, so a larger value appears on the plane. If the match positions of the m small areas are all the same, the maximum value of the added weight values is m * p. Conversely, if the match positions are sparse, the maximum evaluation value is p. Since the match positions may be accidentally overlapped, the maximum value of the evaluation value is larger than p even in an uncorrelated image. The plane is scored in this way, and the largest score is searched (516). This value is the correlation between the two vein patterns. If this value is large, the probability of being the person is high, and if it is small, the probability of being another person is high. However, there may be a case where there is a large correlation due to the coincidence of the match positions. In this case, the probability that the other person is mistaken for the person is increased. Therefore, if there are few points plotted within a circle of a certain radius from the position where the maximum value of the evaluation value occurs, it is determined that the evaluation value has accidentally increased (518), and it is determined that the user is another person (520). .

図16は本発明を実施した際の性能評価と別方式による性能評価の比較結果である。別方式とは、指画像を獲得してから認証が終了するまでの手法が本発明とは異なる。その手法とは、獲得した画像に対して一様にフィルタをかけることで静脈パターンを強調し、登録テンプレートと画像の2次元畳み込み演算を行い、指の短軸方向におけるピークの鋭さを評価する方法である。性能評価にあたり、678人の被験者の小指を各人4枚ずつ撮像し、そのうちの1枚を登録テンプレートと見做し、本人及び他人の指画像との照合を行った。照合の方法は、全被験者の登録テンプレートすべての組み合わせを照合することで本人と他人の静脈パターンの照合を行う。また登録テンプレートではない指画像とその同一人物の登録テンプレートとの照合を行う。   FIG. 16 is a comparison result of performance evaluation when the present invention is implemented and performance evaluation by another method. The method from the acquisition of the finger image to the end of the authentication is different from that of the present invention. The method is to apply a uniform filter to the acquired image to emphasize the vein pattern, perform a two-dimensional convolution operation between the registered template and the image, and evaluate the sharpness of the peak in the short axis direction of the finger. It is. In the performance evaluation, four fingers of each of 678 subjects were imaged, and one of them was regarded as a registered template, and collation was performed with finger images of the subject and others. The matching method matches the vein patterns of the subject and another person by matching all combinations of the registered templates of all subjects. In addition, a finger image that is not a registered template is compared with a registered template of the same person.

照合の結果、本人を他人と誤る本人拒否率(FRR: False Reject Rate)と、他人を本人と誤る他人受入率(FAR: False Accept Rate)が求められる。ここでは性能評価として、FRRとFARの関係を用いる。(a)は登録テンプレートとその同一人物の別画像の照合において、別画像を1枚だけ利用した場合の性能評価の比較結果である。FRRとFARは共に小さいほど良いが、本発明におけるFRRとFARは、全体マッチングを行った時点で既に別手法による結果よりも10分の1程度に小さくなっていることが分かる。さらに、分割マッチングまで行った場合はさらに良い結果が生じている。(b)は登録テンプレートとその同一人物の別画像の照合において、別画像の3枚のうち最も良い結果を生じる画像を選んだ場合の性能評価の比較結果である。別手法による結果では、依然として本人と他人を正しく区別できないデータが存在するが、本発明による手法では完全に本人と他人を正しく区別することができる。これらの結果より、本発明の効果は大きいことが結論付けられる。   As a result of the collation, a false reject rate (FRR: False Reject Rate) in which the person is mistaken for another person and a false accept rate (FAR: False Accept Rate) in which the false person is mistaken for the person are obtained. Here, the relationship between FRR and FAR is used as performance evaluation. (a) is a comparison result of the performance evaluation when only one different image is used in matching the registered template with another image of the same person. It is clear that the smaller the FRR and the FAR, the better, but it is understood that the FRR and the FAR in the present invention are already about 10 times smaller than the result obtained by another method when the overall matching is performed. Further, even better results are obtained when the division matching is performed. (b) is a comparison result of the performance evaluation when the image that gives the best result among the three different images is selected in the comparison between the registered template and another image of the same person. As a result of another method, there is still data that cannot correctly distinguish a person from another, but the method according to the present invention can completely correctly distinguish a person from another. From these results, it is concluded that the effect of the present invention is great.

本発明を実現するためのシステム構成の一例である。1 is an example of a system configuration for realizing the present invention. 指の静脈を獲得するための入力インターフェース構成の一例である。It is an example of an input interface configuration for acquiring a finger vein. 指の静脈を獲得するための入力インターフェース構成の一例である。It is an example of an input interface configuration for acquiring a finger vein. 安全性を配慮した指静脈パターン入力インターフェース構成の一例である。It is an example of a finger vein pattern input interface configuration in consideration of safety. 多方向から静脈パターンを撮像するための、入力インターフェース内での光源とCCDカメラの配置の一例である。5 is an example of an arrangement of a light source and a CCD camera in an input interface for imaging a vein pattern from multiple directions. 認証を含めた入退出が非接触で行えるシステム構成の一例である。This is an example of a system configuration in which entry and exit including authentication can be performed without contact. 静脈パターンのほかに、暗証番号、指紋、虹彩、音声、筆跡、顔といった個人の特徴情報を組み合わせて認証を行うシステム構成の一例である。This is an example of a system configuration for performing authentication by combining personal characteristic information such as a password, a fingerprint, an iris, a voice, a handwriting, and a face, in addition to a vein pattern. ICカードを利用して静脈パターンのテンプレート画像を獲得するシステム構成の一例である。1 is an example of a system configuration for acquiring a template image of a vein pattern using an IC card. 本発明を実現するためのソフトウェアによる処理の概要を示したフローチャートである。5 is a flowchart showing an outline of processing by software for realizing the present invention. 指画像の輪郭追跡方法を示したイメージ図である。FIG. 7 is an image diagram showing a contour tracking method of a finger image. 指画像の傾きを回転補正する方法を示したイメージ図である。FIG. 9 is an image diagram showing a method of rotationally correcting the inclination of a finger image. 指画像の切り出し部分を正規化する方法を示したイメージ図である。FIG. 7 is an image diagram showing a method of normalizing a cut-out portion of a finger image. 指画像から静脈パターンを取り出すためのフローチャートの一例である。It is an example of a flowchart for extracting a vein pattern from a finger image. 2つの静脈パターンのミスマッチ率を求めるためのフローチャートの一例である。It is an example of a flowchart for calculating the mismatch rate of two vein patterns. 2つの静脈パターンの部分画像を利用して静脈パターンの相関を求めるためのフローチャートの一例である。9 is an example of a flowchart for calculating a correlation between vein patterns using partial images of two vein patterns. 認証システムの他人受入率(FAR)と本人拒否率(FRR)の関係における、本発明による手法と別手法との性能比較である。5 is a performance comparison between the method according to the present invention and another method in the relationship between the false acceptance rate (FAR) and the false rejection rate (FRR) of the authentication system.

符号の説明Explanation of reference numerals

1…指静脈パターン入力インターフェース、2…光源、3…光学フィルタ、4…CCDカメラ、5…画像キャプチャボード、6…計算機、7…インターフェース、
8…メモリ、9…CPU、10…外部記憶装置、20…指、22…指挿入口、30
…角を面取りした指静脈パターン入力インターフェース、32…横向きに指挿入口の開いている指静脈パターン入力インターフェース、33…壁、34…壁面に指挿入口を開けた指静脈パターン入力インターフェース、36…指挿入口の奥が円弧状の指静脈パターン入力インターフェース、38…クッション、40…認証請求者、42…自動ドア、43…暗証番号入力キー、44…指紋入力インターフェース、46…虹彩撮像カメラ、48…顔画像撮像カメラ、50…筆跡入力ペン
、52…筆跡入力タブレット、54…マイク、60…ICカード、62…ICカードリーダ、100…指画像、104…追跡点、106…指の上側輪郭の近似直線、108…指の中心軸、110…指先、112…切り出す指画像の中心、114…切り出された指画像。
1. Finger vein pattern input interface, 2. Light source, 3. Optical filter, 4. CCD camera, 5. Image capture board, 6. Computer, 7. Interface,
8 memory, 9 CPU, 10 external storage device, 20 finger, 22 finger insertion port, 30
... A finger vein pattern input interface with chamfered corners, 32. A finger vein pattern input interface with a finger insertion opening sideways, 33... Wall, 34. Finger vein pattern input interface with an arc-shaped finger insertion port inside, 38 ... Cushion, 40 ... Authenticator, 42 ... Automatic door, 43 ... Personal number input key, 44 ... Fingerprint input interface, 46 ... Iris imaging camera, 48 ... Face image capturing camera, 50 ... Handwriting input pen, 52 ... Handwriting input tablet, 54 ... Microphone, 60 ... IC card, 62 ... IC card reader, 100 ... Finger image, 104 ... Tracking point, 106 ... Finger upper contour Approximate straight line, 108: center axis of finger, 110: fingertip, 112: center of finger image to be cut out, 114: finger image cut out.

Claims (18)

登録指画像の静脈パターンを格納する記憶装置と、
光源及び指透過光を撮影するカメラを備えたインターフェースと、
撮影された指透過光画像に含まれる静脈パターンを抽出し、抽出した静脈パターンを前記登録指画像の静脈パターンと照合して個人認証を行う手段とを有し、
前記インターフェースは、指を挿入する溝を有し、前記光源と前記カメラは、該溝を挟んで対向するように配置されていることを特徴とする個人認証装置。
A storage device for storing the vein pattern of the registered finger image,
An interface with a light source and a camera that captures light transmitted through the finger,
Means for extracting a vein pattern included in the photographed finger transmitted light image, performing personal authentication by comparing the extracted vein pattern with the vein pattern of the registered finger image,
The personal identification device, wherein the interface has a groove into which a finger is inserted, and the light source and the camera are arranged to face each other with the groove interposed therebetween.
請求項1において、前記インターフェースの溝は、被認証者の指が、肩、肘、又は手首を中心とした円弧状の軌跡を描きながら挿入できるように形成されていることを特徴とする個人認証装置。   2. The personal authentication according to claim 1, wherein the groove of the interface is formed so that a finger of the person to be authenticated can be inserted while drawing an arc-shaped trajectory centered on a shoulder, elbow, or wrist. apparatus. 請求項2において、前記インターフェースの溝は、手を挿入する軌道に合わせた円弧状に形成されていることを特徴とする   The groove of the interface according to claim 2, wherein the groove of the interface is formed in an arc shape corresponding to a trajectory for inserting a hand. 請求項2において、前記インターフェースの溝は、地面に対して垂直方向に設けられていることを特徴とする個人認証装置。   The personal identification device according to claim 2, wherein the groove of the interface is provided in a direction perpendicular to the ground. 請求項1から4のいずれかにおいて、前記個人認証を行う手段は、撮影された指画像について、前記指が前記インターフェースに挿入される際に生じる撮像平面上の回転を補正し、回転補正した前記指画像に含まれる静脈パターンを抽出して個人認証を行うことを特徴とする個人認証装置。   5. The device according to claim 1, wherein the means for performing personal authentication corrects rotation of the captured finger image on an imaging plane that occurs when the finger is inserted into the interface, and performs the rotation correction. A personal authentication device for extracting a vein pattern included in a finger image and performing personal authentication. 登録指画像の静脈パターンを格納する記憶装置と、
光源及び指透過光を撮影するカメラを備え指が挿入されるインターフェースと、撮影された指画像について、前記指が前記インターフェースに挿入される際に生じる撮像平面上の回転を補正し、回転補正した前記指画像に含まれる静脈パターンを抽出し、抽出した静脈パターンを前記登録指画像の静脈パターンと照合して個人認証を行う手段とを有することを特徴とする個人認証装置。
A storage device for storing the vein pattern of the registered finger image,
An interface including a light source and a camera that captures light transmitted through the finger, an interface into which a finger is inserted, and for a captured finger image, a rotation on an imaging plane that occurs when the finger is inserted into the interface is corrected, and the rotation is corrected. Means for extracting a vein pattern included in the finger image and performing personal authentication by comparing the extracted vein pattern with the vein pattern of the registered finger image.
請求項5あるいは6において、前記個人認証を行う手段は、回転補正した指画像について、指先及び指の中心軸を基準として指画像を切り出し、この切り出した指画像に含まれる静脈パターンを抽出して個人認証を行うことを特徴とする個人認証装置。   7. The personal authentication device according to claim 5, wherein the means for performing personal authentication cuts a finger image of the rotation-corrected finger image based on a fingertip and a center axis of the finger, and extracts a vein pattern included in the cut finger image. A personal authentication device for performing personal authentication. 請求項5あるいは6において、前記個人認証を行う手段は、前記指画像の任意の位置から任意の長さだけ、現在位置の周辺で最も輝度値の低い部分をたどることを1回以上繰り返すことで、静脈パターンを抽出することを特徴とする個人認証装置。   7. The method according to claim 5, wherein the means for performing personal authentication repeats at least once from an arbitrary position of the finger image to a portion having the lowest luminance value around the current position by an arbitrary length. A personal authentication apparatus for extracting a vein pattern. 請求項8において、輝度値の低い部分をたどりはじめる位置は乱数によって決定することを特徴とする個人認証装置。   9. The personal authentication apparatus according to claim 8, wherein a position at which the portion having a low luminance value starts to be traced is determined by a random number. 請求項8において、輝度値の低い部分をたどる長さは乱数によって決定されることを特徴とする個人認証装置。   9. The personal authentication device according to claim 8, wherein the length of the portion following the low luminance value is determined by a random number. 請求項8において、前記個人認証を行う手段は、静脈パターンを照合する際に
、前記指画像を血管部分、血管でない部分、どちらともいえない部分に分類し、登録指画像と重ね合わせたときに、前記血管部分と前記血管でない部分の重なりを評価し、どちらともいえない部分との重なりは評価しないことを特徴とする個人認証装置。
9. The method according to claim 8, wherein the means for performing personal authentication classifies the finger image into a blood vessel part, a non-blood vessel part, or a part that cannot be said when comparing the vein pattern, and superimposes the finger image on a registered finger image. A personal authentication apparatus that evaluates an overlap between the blood vessel part and the non-blood vessel part, and does not evaluate an overlap between a part that cannot be said to be neither.
請求項8において、前記個人認証を行う手段は、抽出した静脈パターンを照合する際に、指画像および登録指画像を小領域に分割し、各小領域ごとに独立して照合を行うことを特徴とする個人認証装置。   9. The method according to claim 8, wherein the means for performing personal authentication divides the finger image and the registered finger image into small regions when performing matching on the extracted vein pattern, and performs matching independently for each small region. Personal authentication device. 請求項1あるいは6において、前記登録指画像の静脈パターンは被認証者が保持するICカードに登録され、認証時に前記記憶装置に入力されることを特徴とする個人認証装置。   7. The personal authentication device according to claim 1, wherein the vein pattern of the registered finger image is registered in an IC card held by a person to be authenticated and is input to the storage device at the time of authentication. 請求項1あるいは6において、被認証者が保持するICカードから該被認証者を識別する識別情報を読み出し、前記識別情報に対応する登録指画像の静脈パターンを前記記憶装置から読み出して照合に用いることを特徴とする個人認証装置。   7. The identification device according to claim 1, wherein identification information for identifying the user is read from an IC card held by the user, and a vein pattern of a registered finger image corresponding to the identification information is read from the storage device and used for comparison. A personal authentication device, characterized in that: 請求項1あるいは6において、前記インターフェースは、指画像を撮影する際に、前記カメラを回転させる手段、または複数のカメラを有し、多方向から撮影した指画像を用いて個人認証を行うことを特徴とする個人認証装置。   7. The interface according to claim 1, wherein the interface has means for rotating the camera or a plurality of cameras when photographing a finger image, and performs personal authentication using the finger images photographed from multiple directions. Characteristic personal identification device. 請求項1あるいは6において、複数の指の静脈パターンを用いて個人認証を行うことを特徴とする個人認証装置。   7. The personal authentication device according to claim 1, wherein personal authentication is performed using a plurality of finger vein patterns. 登録指画像の静脈パターンを格納する記憶装置と、
光源及び挿入された指透過光を非接触で撮影するカメラを備えたインターフェースと、
撮影された指透過光画像に含まれる静脈パターンを抽出し、抽出した静脈パターンを前記登録指画像の静脈パターンと照合して個人認証を行う手段と、
ドアとを有し、
前記個人認証を行う手段が、抽出した静脈パターンと登録指画像の静脈パターンと一致すると判断した場合は、前記ドアを開けることを特徴とするセキュリティシステム。
A storage device for storing the vein pattern of the registered finger image,
An interface with a light source and a camera that captures the inserted finger transmitted light without contact,
Means for extracting a vein pattern included in the photographed finger transmitted light image, performing personal authentication by comparing the extracted vein pattern with the vein pattern of the registered finger image,
With a door,
When the means for performing personal authentication determines that the extracted vein pattern matches the vein pattern of the registered finger image, the security system opens the door.
指の透過光画像を撮影し、
撮影した指画像について前記指を撮像装置に挿入する際に生じる撮像平面上の回転を補正し、
前記指画像に含まれる静脈パターンを登録された指画像の静脈パターンと照合して、個人認証を行うことを特徴とする個人認証方法。
Take a transmitted light image of your finger,
Correct the rotation on the imaging plane that occurs when inserting the finger into the imaging device for the captured finger image,
A personal authentication method, wherein personal authentication is performed by matching a vein pattern included in the finger image with a vein pattern of a registered finger image.
JP2003401003A 2003-12-01 2003-12-01 Personal authentication system and device Expired - Lifetime JP4555561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003401003A JP4555561B2 (en) 2003-12-01 2003-12-01 Personal authentication system and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003401003A JP4555561B2 (en) 2003-12-01 2003-12-01 Personal authentication system and device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000274987A Division JP3558025B2 (en) 2000-09-06 2000-09-06 Personal authentication device and method

Publications (3)

Publication Number Publication Date
JP2004171577A true JP2004171577A (en) 2004-06-17
JP2004171577A5 JP2004171577A5 (en) 2007-10-18
JP4555561B2 JP4555561B2 (en) 2010-10-06

Family

ID=32709326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003401003A Expired - Lifetime JP4555561B2 (en) 2003-12-01 2003-12-01 Personal authentication system and device

Country Status (1)

Country Link
JP (1) JP4555561B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008047934A1 (en) * 2006-10-17 2008-04-24 Sony Corporation Registration device, collating device, authenticating method and authenticating program
WO2008047935A1 (en) * 2006-10-19 2008-04-24 Sony Corporation Pattern identifying method, registration device, collating device and program
WO2008111340A1 (en) * 2007-03-12 2008-09-18 Oki Electric Industry Co., Ltd. Biometric authentication device, biometric authentication method, and program
CN112257675A (en) * 2020-11-18 2021-01-22 深圳市坶坭普电子科技有限公司 Non-contact fingerprint acquisition device of rotatory shooting

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH025190A (en) * 1988-06-24 1990-01-10 Fujitsu Ltd Finger print sensor
JPH02144685A (en) * 1988-11-25 1990-06-04 Fujitsu Ltd Organism identifying device
JPH0896135A (en) * 1994-09-29 1996-04-12 Mitsubishi Electric Corp Passage control unit
JPH11203452A (en) * 1998-01-19 1999-07-30 Hitachi Ltd Personal feature pattern detector and personal identification device using the detector
WO1999052060A2 (en) * 1998-04-07 1999-10-14 Black Gerald R Identification confirmation system
JP2000148985A (en) * 1998-11-17 2000-05-30 Hitachi Ltd Personal authentication system
JP2001273498A (en) * 2000-03-24 2001-10-05 Matsushita Electric Ind Co Ltd Device, system, card and method for personal identification based on biometric

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH025190A (en) * 1988-06-24 1990-01-10 Fujitsu Ltd Finger print sensor
JPH02144685A (en) * 1988-11-25 1990-06-04 Fujitsu Ltd Organism identifying device
JPH0896135A (en) * 1994-09-29 1996-04-12 Mitsubishi Electric Corp Passage control unit
JPH11203452A (en) * 1998-01-19 1999-07-30 Hitachi Ltd Personal feature pattern detector and personal identification device using the detector
WO1999052060A2 (en) * 1998-04-07 1999-10-14 Black Gerald R Identification confirmation system
JP2000148985A (en) * 1998-11-17 2000-05-30 Hitachi Ltd Personal authentication system
JP2001273498A (en) * 2000-03-24 2001-10-05 Matsushita Electric Ind Co Ltd Device, system, card and method for personal identification based on biometric

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008047934A1 (en) * 2006-10-17 2008-04-24 Sony Corporation Registration device, collating device, authenticating method and authenticating program
EP2075759A1 (en) * 2006-10-17 2009-07-01 Sony Corporation Registration device, collating device, authenticating method and authenticating program
US8325991B2 (en) 2006-10-17 2012-12-04 Sony Corporation Device and method for biometrics authentication
CN101529469B (en) * 2006-10-17 2013-01-02 索尼株式会社 Registration device, collating device, authenticating method and authenticating program
EP2075759A4 (en) * 2006-10-17 2013-03-06 Sony Corp Registration device, collating device, authenticating method and authenticating program
WO2008047935A1 (en) * 2006-10-19 2008-04-24 Sony Corporation Pattern identifying method, registration device, collating device and program
JP2008102780A (en) * 2006-10-19 2008-05-01 Sony Corp Pattern discrimination method, registration device, collation device, and program
WO2008111340A1 (en) * 2007-03-12 2008-09-18 Oki Electric Industry Co., Ltd. Biometric authentication device, biometric authentication method, and program
CN112257675A (en) * 2020-11-18 2021-01-22 深圳市坶坭普电子科技有限公司 Non-contact fingerprint acquisition device of rotatory shooting

Also Published As

Publication number Publication date
JP4555561B2 (en) 2010-10-06

Similar Documents

Publication Publication Date Title
JP3558025B2 (en) Personal authentication device and method
US8126216B2 (en) Personal identification device and method
JP4251067B2 (en) Personal authentication device and blood vessel pattern extraction device for personal authentication
JP4389505B2 (en) Personal authentication device and blood vessel pattern extraction device
JP5134655B2 (en) Personal authentication system, personal authentication device, and blood vessel image capturing device
JP5789691B2 (en) Personal authentication device and blood vessel image capturing device
JP4555561B2 (en) Personal authentication system and device
KR100937800B1 (en) System and apparatus for personal identification
JP2012128868A (en) Feature image photographing device and personal identification device
JP4603609B2 (en) Personal authentication device
JP4603610B2 (en) Entrance / exit management system
JP6082766B2 (en) Blood vessel imaging device
JP4961492B2 (en) Personal authentication apparatus and method
JP5752175B2 (en) Blood vessel imaging device
JP2013168171A (en) Biological imaging device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070904

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100629

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100716

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4555561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term