[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3705938B2 - Fingerprint registration device, fingerprint verification device, and fingerprint verification method - Google Patents

Fingerprint registration device, fingerprint verification device, and fingerprint verification method Download PDF

Info

Publication number
JP3705938B2
JP3705938B2 JP28747098A JP28747098A JP3705938B2 JP 3705938 B2 JP3705938 B2 JP 3705938B2 JP 28747098 A JP28747098 A JP 28747098A JP 28747098 A JP28747098 A JP 28747098A JP 3705938 B2 JP3705938 B2 JP 3705938B2
Authority
JP
Japan
Prior art keywords
fingerprint
ridge
feature point
point
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28747098A
Other languages
Japanese (ja)
Other versions
JPH11195119A (en
Inventor
勇作 藤井
卓 新崎
乾 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP28747098A priority Critical patent/JP3705938B2/en
Publication of JPH11195119A publication Critical patent/JPH11195119A/en
Application granted granted Critical
Publication of JP3705938B2 publication Critical patent/JP3705938B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、指紋登録装置、指紋照合装置及び指紋照合方法に関し、特に、個人を識別する場合に適用して好適なものである。
【0002】
【従来の技術】
近年、コンピュータが広範な社会システムの中に導入されるのに伴い、システム・セキュリティに関心が集まっている。例えば、コンピュータルームへの入室や端末利用の際の本人確認手段として、IDカードやパスワードを用いる方法があるが、これらの方法は、セキュリティ確保の面から問題があった。
【0003】
そこで、IDカードやパスワードを用いる方法に代わって、生体情報を利用した個人照合技術が求められている。個人照合に、各個人固有の生体情報を用いると、本人以外の者はその生体情報を持つことはできないので、本人であることを確実に保証することができる。
【0004】
個人照合に用いることのできる生体情報として、指紋、声紋、虹彩・網膜血管分布図・サイン等がある。これらの生体情報は、CCDカメラなどの各種センサで画像などの電子情報に変換される。その後、センサで得られた生体情報に種々の情報処理を行い、生体照合に必要なキーとなる情報を抽出する。その後、予め登録されてある各個人の生体キー情報と、入力された生体キー情報を照合し、個人認証を行う。
【0005】
以下、生体情報として、指紋を例にとって説明する。
指紋は、『万人不同』・『終生不変』という二大特徴を持ち、本人確認の最も有力な手段と考えられている。このため、指紋を用いた簡便な個人照合システムに関して多くの研究開発が行われている。
【0006】
人間の指先には、細かな凹凸がある。凸部の連なりを隆線という。隆線は個人に固有な様々な紋様を形成している。隆線をたどっていくと、二つに分かれる点(分岐点)や、行き止まりの点(端点)にぶつかる。この分岐点や端点の分布は各個人ごとに全て異なるため、これらの点は指紋の特徴点と呼ばれる。特徴点は、個人を特定するための有力な手段として用いられている。なお、犯罪捜査の分野では、この特徴点が12個以上一致した時に本人と特定できることが裁判所の判例で確立している。指紋照合では、これらの特徴点の位置、種類、方向が一致するかどうかを確かめることにより、同一な指紋かどうかを調べている。
【0007】
図33は、従来の指紋登録処理及び指紋照合処理を示すフローチャートである。
指紋登録処理では、まず、登録対象となる指紋画像を指紋センサで採取し(ステップS191)、採取した指紋画像を二値化する(ステップS192)。
【0008】
次に、二値化した指紋画像を細線化し(ステップS193)、隆線幅が1画素の指紋細線画像を得る。
次に、指紋細線画像上で指紋の特徴点位置を特定することにより、指紋細線画像から指紋の特徴点を抽出する(ステップS194)。抽出された特徴点には、一般に誤特徴点が含まれているので、誤特徴点除去を行う(ステップS195)。この誤特徴点除去では、2つの端点が短い間隔で互いに向かい合っている場合、元々1本の隆線であったものが、画像採取の途中で途切れたものとみなし、その間の隆線を復元することにより、2つの端点を除去する。また、互いに平行な2本の隆線が途中の一点でくっついたために分岐点となっている場合、この分岐点は画像採取の途中で癒着したものとみなし、くっついた隆線を分離することにより、分岐点を除去する。
【0009】
次に、指紋画像から抽出された各特徴点の指紋情報を収集し(ステップS196)、登録指紋データとして指紋データ登録部110に保存する。
指紋照合処理では、照合対象となる指紋画像を指紋センサで採取し(ステップS197)、採取した指紋画像を二値化する(ステップS198)。
【0010】
次に、二値化した指紋画像を細線化し(ステップS199)、隆線幅が1画素の指紋細線画像を得る。
次に、指紋細線画像上で指紋の特徴点位置を特定することにより、指紋細線画像から指紋の特徴点を抽出する(ステップS200)。抽出された特徴点には、一般に誤特徴点が含まれているので、誤特徴点除去を行う(ステップS201)。
【0011】
次に、指紋画像から抽出された各特徴点の指紋情報を収集する(ステップS202)。そして、指紋データ登録部101から登録指紋データを読み出し、入力指紋画像と登録指紋画像との位置合わせを行う(ステップS203)。
【0012】
次に、入力指紋画像の指紋情報と、指紋データ登録部101から読み出した指紋登録データとを比較することにより、入力指紋画像と登録指紋画像との照合を行う。すなわち、入力指紋画像と登録指紋画像との間で、指紋情報が一致する特徴点の数を計数し(ステップS204)、指紋情報が一致する特徴点の数が予め決められた値を超えた場合(ステップS205)、登録指紋画像の指紋と入力指紋画像の指紋とは同一の指紋であると判断する(ステップS106)。一方、指紋情報が一致する特徴点の数が予め決められた値に満たない場合(ステップS205)、登録指紋画像の指紋と入力指紋画像の指紋とは異なる指紋であると判断する(ステップS207)。
【0013】
ここで、特徴点の特徴点情報として、それぞれの特徴点の位置(座標)と種類と方向とが一般的に用いられる。そして、入力指紋画像と登録指紋画像との間で、それぞれの特徴点の位置と種類と方向が一致するかどうかを確かめることにより、同一指紋であるかどうかの判断を行う。
【0014】
【発明が解決しようとする課題】
しかしながら、特徴点の位置と種類と方向だけの比較では、高い照合率が期待できない。これは、指の皮膚の部分的な伸び縮みや回転のため、指紋画像の採取の度に指紋に歪みが発生し、特徴点の位置や方向が微妙に異なってしまうためである。また、指紋センサに対する指の置き方、指の指紋センサに対する押圧のし過ぎ、指紋センサの汚れ、または、かさついた指などが原因で、指紋画像の採取の度に端点/分岐点の判定が不安定になり、照合率が低下するという問題もあった。
【0015】
そこで、本発明の目的は、高精度な指紋照合を安定して行うことが可能な指紋照合装置及び指紋照合方法を提供することである。
【0016】
【課題を解決するための手段】
上述した課題を解決するために、本発明によれば、指紋データから隆線上の特徴点を抽出し、隆線に対する特徴点の配置状態に基づいて、指紋照合を行うようにしている。
【0017】
このことにより、指の皮膚の部分的な伸び縮みや回転などにより指紋に歪みが発生した場合においても、特徴点の隆線上への配置状態は変化しないため、高精度な指紋照合を安定して行うことが可能となる。
【0018】
また、本発明の一態様によれば、指紋データから抽出された隆線上に仮想的な特徴点を設定し、この仮想的な特徴点の指紋情報に基づいて、指紋照合を行うようにしている。
【0019】
このことにより、採取された指紋の隆線構造を変化させることなく、指紋を特定する手がかりとなる情報を増やすことが可能となり、高精度な指紋照合を安定して行うことが可能となる。
【0020】
また、本発明の一態様によれば、隆線上に実在する特徴点を他の隆線上に投影することにより、仮想的な特徴点を隆線上に生成するようにしている。
このことにより、2次元的な隆線構造を、特定の隆線上に反映させることが可能となり、隆線上の1次元的な探索を行うことにより、指紋を特定することが可能となることから、高精度な指紋照合を高速に行うことが可能となる。
【0021】
また、本発明の一態様によれば、隆線上の特徴点あるい仮想的な特徴点の間の道のりに基づいて、指紋照合を行うようにしている。
このことにより、特徴点あるい仮想的な特徴点の位置で隆線を区切った時の隆線の長さに基づいて、指紋照合を行うことが可能となり、特徴点あるい仮想的な特徴点の位置で隆線を区切った時の隆線の長さは、指紋に歪みが発生した場合においてもほとんど変化しないことから、高精度な指紋照合を安定して行うことが可能となる。
【0022】
また、本発明の一態様によれば、隆線上の特徴点あるい仮想的な特徴点の間の距離に基づいて、指紋照合を行うようにしている。
このことにより、隆線に沿った道のりの計測が直線距離の計測になり、指紋情報を生成する際の演算を簡単にすることが可能となる。
【0023】
また、本発明の一態様によれば、隆線上の特徴点あるいは仮想的な特徴点への接続方向に基づいて、指紋照合を行うようにしている。
このことにより、特徴点あるいは仮想的な特徴点を基準とした複数方向への接続状態を考慮しながら、指紋照合を行うことが可能となり、指紋照合を精度よく行うことが可能となる。
【0024】
また、本発明の一態様によれば、隆線上に存在している特徴点及び仮想的な特徴点の個数に基づいて、指紋照合を行うようにしている。
このことにより、隆線上に存在している特徴点及び仮想的な特徴点の個数は、指紋に歪みが発生した場合においても変化しないことから、指紋照合を安定して行うことが可能となるとともに、特徴点及び仮想的な特徴点の個数は容易に算出することが可能なため、指紋照合を高速に行うことが可能となる。
【0025】
また、本発明の一態様によれば、隆線上に存在している特徴点の種類に基づいて、指紋照合を行うようにしている。
このことにより、隆線上に存在している特徴点の種類は、指紋に歪みが発生した場合においてもほとんど変化しないことから、指紋照合を安定して行うことが可能となるとともに、特徴点及び仮想的な特徴点の個数だけを用いて指紋照合を行う場合に比べて、照合精度をより向上させることが可能となる。 また、本発明の一態様によれば、隆線の接続先の投影特徴点に対する投影元特徴点の種類情報に基づいて、指紋照合を行うようにしている。
【0026】
このことにより、仮想的な特徴点に種類情報を付加することが可能となり、仮想的な特徴点の種類情報も考慮して指紋照合を行うことが可能となることから、指紋照合を精度よく行うことが可能となる。 また、本発明の一態様によれば、特徴点及び仮想的な特徴点の隆線上への配列順序に基づいて、指紋照合を行うようにしている。
【0027】
このことにより、隆線上に存在している特徴点及び仮想的な特徴点の配列順序は、指紋に歪みが発生した場合においても変化しないことから、指紋照合を安定して行うことが可能となるとともに、特徴点及び仮想的な特徴点の個数や種類を用いて指紋照合を行う場合に比べて、照合精度をより向上させることが可能となる。
【0028】
また、本発明の一態様によれば、隆線上の特徴点の種類を仮想的に変更するようにしている。
このことにより、特徴点の種類の検出が不安定な場合においても、指紋照合を正確に行うことが可能となる。
【0029】
また、本発明の一態様によれば、隆線の端点とその端点に対応する投影点とを統合することにより、隆線上に仮想的な分岐点を生成するようにしている。
このことにより、指紋センサへの指圧の差などが原因で隆線に亀裂が入ったために、分岐点を端点と間違えて検出した場合においても、元の隆線構造を復元して指紋照合を行うことが可能となり、指紋照合を安定して行うことが可能となる。
【0030】
また、本発明の一態様によれば、特徴点から他の特徴点へ至る道のりと、その特徴点から仮想的な特徴点へ至る道のりとを比較することにより、指紋照合を行うようにしている。
【0031】
このことにより、元々同一の隆線上に存在していた特徴点が、異なる隆線上に存在するものとして抽出された場合や、元々異なる隆線上に存在していた特徴点が、同一の隆線上に存在するものとして抽出された場合においても、それらの特徴点の間の道のりを比較することが可能となり、指紋照合を安定して行うことが可能となる。
【0032】
また、本発明の一態様によれば、隆線を分岐点で分離することにより、仮想的な端点とその端点に対応する投影点とを生成するようにしている。
このことにより、指紋センサへの指圧の差などが原因で隆線が癒着したために、端点を分岐点と間違えて検出した場合においても、元の隆線構造を復元して指紋照合を行うことが可能となり、指紋照合を安定して行うことが可能となる。
【0033】
また、本発明の一態様によれば、仮想的な特徴点から他の特徴点へ至る道のりと、その仮想的な特徴点から他の仮想的な特徴点へ至る道のりとを比較することにより、指紋照合を行うようにしている。
【0034】
このことにより、元々同一の隆線上に存在していた特徴点と仮想的な特徴点とが、異なる隆線上に存在するものとして抽出された場合や、元々異なる隆線上に存在していた特徴点と仮想的な特徴点とが、同一の隆線上に存在するものとして抽出された場合においても、それらの特徴点と仮想的な特徴点との間の道のりを比較することが可能となり、指紋照合を安定して行うことが可能となる。
【0035】
また、本発明の一態様によれば、異なる隆線上の特徴点の指紋情報を比較するようにしている。
このことにより、隆線に亀裂が入ったり隆線が癒着したために隆線の本数が増減した場合においても、指紋情報を比較することが可能となり、指紋照合を精度良く行うことが可能となる。
【0036】
また、本発明の一態様によれば、第1の隆線上の特徴点を基準として、第1の隆線上の他の特徴点または第1の隆線上の仮想的な特徴点への道のりを算出するようにしている。
【0037】
このことにより、隆線上の道のりを比較することで特徴点が一致するかどうかを判定することが可能となり、隆線上の道のりは、指紋が歪んだ場合においてもほとんど変化しないことから、特徴点の照合を安定して行うことが可能となる。
【0038】
また、本発明の一態様によれば、第1の隆線上の特徴点に対応させて第2の隆線上に仮想的な特徴点を生成し、この仮想的な特徴点を基準として、第2の隆線上の特徴点または第2の隆線上の他の仮想的な特徴点への道のりを算出するようにしている。
【0039】
このことにより、第1の隆線上の特徴点の指紋情報に対し、第2の隆線上の指紋情報を付加することが可能となり、未接続の隆線構造も考慮して1つの特徴点の照合を行うことが可能となることから、特徴点の照合を精度良く行うことが可能となる。
【0040】
また、本発明の一態様によれば、照合対象となる特徴点と関係する他の特徴点または投影元特徴点の指紋情報に基づいて、特徴点が一致しているかどうかを判定するようにしている。
【0041】
このことにより、1つの特徴点の照合を行う際に、広範囲の隆線構造を考慮することが可能となり、特徴点の照合を精度良く行うことが可能となる。
また、本発明の一態様によれば、特徴点の隆線接続状態が求められない理由を抽出し、その理由を隆線接続状態に含めるようにしている。
【0042】
このことにより、後の照合で隆線接続状態が求められた時、その正当性を考慮した特徴点の照合を行うことが可能となる。
また、本発明の一態様によれば、各指紋情報に重み付けを行い、特徴点の接続状態の照合に重点を置く評価方式と、特徴点の位置、種類または方向の照合に重点を置く評価方式とを切り換える、または、両方の評価方式を用いる。
【0043】
このことにより、複数の評価基準を設けることが可能となり、皮膚の伸び縮みや回転による照合困難性と隆線の亀裂・癒着による照合困難性の両方の照合困難性に対応することができる。
【0044】
また、本発明の一態様によれば、隆線の谷線部と山線部とを反転させるようにしている。
このことにより、端点と分岐点の位置を逆転することができ、例えば、端点についての画像処理機能を備えるだけで、分岐点の画像処理を実行できるようになる。
【0045】
【発明の実施の形態】
以下、本発明の実施例について図面を参照しながら説明する。
図1は、本発明の第1実施例に係わる指紋照合装置の構成を示すブロック図である。
【0046】
図1において、指紋データ入力手段1は、指紋データを入力する。ここで、指紋データは、指紋画像データや圧縮画像データなどである。また、2値化や細線化などを行った画像処理後のデータでもよい。
【0047】
隆線抽出手段2は、指紋データ入力手段1から入力された指紋データに基づいて、指紋上の隆線を抽出する。
特徴点抽出手段3は、指紋データ入力手段1から入力された指紋データに基づいて、隆線抽出手段2により抽出された隆線上の特徴点を抽出する。
【0048】
配置状態検出手段4は、特徴点抽出手段3により抽出された特徴点の隆線上での配置状態を検出する。
照合手段5は、配置状態検出手段4により検出された特徴点の隆線上での配置状態に基づいて、指紋照合を行う
ここで、隆線上での特徴点の配置状態を検出することにより、特徴点と特徴点とが隆線を介してどのように接続し合っているかを照合対象とすることが可能となる。このため、特徴点の種類・位置・方向が指紋登録時と指紋照合時とで変化した場合においても、特徴点同士の隆線による接続状態はほとんど変化しないことから、同一指紋を正しく識別することが可能となる。すなわち、特徴点と特徴点が隆線を介してどのように接続し合っているかを調べることにより、指紋の紋様がどのような幾何構造を構成しているかを判別し、登録指紋と入力指紋とを照合する。
【0049】
なお、各特徴点のもつ指紋情報は、特徴点の位置・種類・方向の他に、隆線を介してその特徴点に接続している他の特徴点や、特徴点近辺にある隆線上に存在する他の特徴点の情報(隆線接続関係情報)なども併せ持つことが可能なものである。
【0050】
このように、特徴点と隆線の隆線接続関係を照合対象とすることにより、指紋画像の採取の度に発生する特徴点の移動、方向・種類の変化などによる照合率の低下を抑えることができる。これは、皮膚が部分的に伸び縮みしたり回転したりしても特徴点と隆線の接続関係は不変だからである。
【0051】
図2は、本発明の第2実施例に係わる指紋照合装置の構成を示すブロック図である。
図2において、指紋データ入力手段11は、指紋データを入力する。
【0052】
仮想特徴点設定手段12は、指紋データ入力手段11により入力された指紋データに基づいて、隆線上に仮想的な特徴点を設定する。
指紋情報算出手段13は、仮想特徴点設定手段12により設定された仮想的な特徴点の指紋情報を算出する。
【0053】
照合手段14は、指紋情報算出手段13により算出された指紋情報に基づいて、指紋照合を行う
ここで、仮想的な特徴点は、隆線上に実在している特徴点を、近接する隆線上に投影することにより生成することができる。
【0054】
図3は、指紋の特徴点を示す図である。
図3において、細線指紋画像から隆線R1〜R11が抽出されている。隆線R1は隆線R3と分岐点P1で接続している。隆線R2は隆線R3と分岐点P3で接続し、端点P2で途切れている。隆線R4は隆線R5と分岐点P5で接続し、端点P4、P6で途切れている。隆線R5は隆線R6と分岐点P7で接続している。隆線R7は隆線R8と分岐点P8で接続するとともに、隆線R9と分岐点P9で接続している。これらの分岐点P1、P3、P5、P7、P8、P9及び端点P2、P4、P6はそれぞれ、指紋の特徴点に対応している。
【0055】
ここで、分岐点P5から近傍特徴点への隆線接続関係(幾何構造)を考える。隆線を介して分岐点P5に接続している他の特徴点は、端点P6、分岐点P7、画像の終点による端点P4がある。また、分岐点P5からそれぞれの特徴点までの隆線上の道のりは、端点P6<分岐点P7<端点P4の関係がある。
【0056】
分岐点P5の両隣の隆線に注目する。指先側の隆線R2には、分岐点P3と端点P2が存在している。付け根側の隆線R8には、分岐点P8が存在している。分岐点P5に対する隆線接続関係は、分岐点P5を基準として何本となりの隆線にどのような特徴点がどのような位置に存在しているかを示すものである。以下、特徴点P1〜P4、P5〜P9を特徴点P5に対する近傍特徴点と呼ぶ。
【0057】
指紋の各特徴点P1〜P9に上記の隆線接続関係情報を持たせるが、その隆線接続関係情報には、投影特徴点情報を含めることができる。ここで、投影特徴点とは、特徴点P1〜P9を周辺の隆線R1〜R11に投影した投影点のことである。
【0058】
図4(a)は、特徴点の投影方法を示す図である。
図4(a)において、指紋画像から隆線R21〜R26が抽出され、隆線R21上には、端点P21が存在し、隆線R22上には、端点P22が存在し、隆線R23及び隆線R24上には、分岐点P23が存在し、隆線R26上には、端点P26が存在している。ここで、分岐点P23及び端点P21、P22、P26は、指紋の特徴点に対応している。
【0059】
また、端点P21を投影することにより、投影特徴点Q21が隆線R22上に生成され、端点P22を投影することにより、投影特徴点Q22が隆線R21上に生成されるとともに、投影特徴点Q22’が隆線R23上に生成され、分岐点P23を投影することにより、投影特徴点Q23が隆線R22上に生成されるとともに、投影特徴点Q23’が隆線R25上に生成され、端点P26を投影することにより、投影特徴点Q26が隆線R25上に生成されている。
【0060】
図4(b)は、投影方向の一例を示す図である。
図4(b)において、隆線R32上の端点P32を隆線R31、R33に投影する場合、端点P32において隆線R32から垂線を引き、その垂線と隆線R31、R33との交点を投影特徴点Q32、Q32’とすることができる。なお、投影方向は、端点P32における隆線R32の方向と垂直な方向が好ましいが、それ以外の方向でもよい。
【0061】
以下、隆線接続関係情報について具体的に説明する。
地点Aと地点Bとの接続関係を表現するものとして、例えば、道のりがある。道のりとは、地点Aと地点Bが隆線で結ばれており、その隆線に沿って計測した区間AB間の長さを意味している。なお、地点Aと地点Bとを直線で結んだ時の長さ、すなわち、地点Aと地点Bとの最短距離を用いることにより、地点Aと地点Bとの接続関係を表現することもできる。
【0062】
図5は、道のりの例及び道のりの算出方法を示す図である。
図5(a)及び図5(b)において、指紋画像から隆線R41〜R44が抽出され、端点P41が隆線R41上に存在し、端点P42が隆線R42上に存在し、分岐点P43が隆線R42、R43上に存在し、端点P44が隆線R44上に存在している。なお、端点P41、P42、P44及び分岐点P43は、指紋の特徴点に対応している。
【0063】
また、端点P42を投影することにより、投影特徴点Q42が隆線R41上に生成され、分岐点P43を投影することにより、投影特徴点Q43が隆線R41上に生成され、端点P44を投影することにより、投影特徴点Q44が隆線R42上に生成されている。
【0064】
ここで、端点P42に注目した場合の道のりとして、隆線R42を通って端点P42から分岐点P43へ至る道のり(第0次主距離)、隆線R42を通って端点P42から投影特徴点Q44へ至る道のり(第0次副距離)、隆線R41を通って投影特徴点Q42から端点P41へ至る道のり(第1次主距離)及び隆線R41を通って投影特徴点Q42から投影特徴点Q43へ至る道のり(第1次副距離)を算出する。
【0065】
このように、端点P42を隆線R41に投影することにより、隆線R42から分離している隆線R41上の特徴点や投影特徴点の道のり情報も、端点P42についての道のり情報に取り込むことが可能となる。
【0066】
道のりの算出は、指紋画像の細線画像上で行うことができる。この指紋画像の細線画像では、1画素幅の線により隆線が与えられている。このため、道のりの値は、2点間の細線の画素数で表すことができる。例えば、図5(c)において、隆線R51、R52が細線画像上に存在している場合、隆線R51上の端点P51と分岐点P52との間の道のりは、20画素となる。
【0067】
また、画素が対角線方向に繋がっている場合には、その画素についての道のりを√2(2の平方根)倍すれば、道のりをより正確に求めることができる。これは、各画素の形状が正方形の場合、各画素の対角線の長さは、各画素の辺の長さの√2倍となるからである。例えば、図5(c)において、隆線R51上の端点P51と分岐点P52との間の道のりは、16+4√2画素となる。
【0068】
また、隆線上の道のりは、実際の指紋上の物理的な長さで表せば、倍率の違う指紋画像の間でも照合が可能となる。この方法では、道のりを画素数で表現する代わりに、5ミリメートルなどの長さで表現する。
【0069】
この道のりを分類すると、以下の4通りに分けることができる。
1)隆線を介して注目特徴点に接続する他の特徴点までの道のり(特徴点と特徴点との間の道のり)。以後、この道のりを第0次主距離と呼ぶ。なお、注目特徴点から他の特徴点への方向情報も隆線接続関係情報に加える場合がある。
【0070】
2)隆線を介して注目特徴点に接続する他の投影特徴点までの道のり(特徴点と投影特徴点との間の道のり)。以後、この道のりを第0次副距離と呼ぶ。なお、注目特徴点から他の投影特徴点への方向情報も隆線接続関係情報に加える場合がある。
【0071】
3)注目特徴点のn本となりにある隆線上に注目特徴点を投影した点を計測起点とした場合において、この計測起点から測定した他の特徴点までの道のり(投影特徴点と特徴点との間の道のり)。以後、この道のりを第n次主距離(nは、0以外の整数)と呼ぶ。なお、計測起点から他の特徴点への方向情報も隆線接続関係情報に加える場合がある。
【0072】
4)注目特徴点のn本となりにある隆線上に注目特徴点を投影した点を計測起点とした場合において、この計測起点から測定した投影特徴点までの道のり(投影特徴点と投影特徴点との間の道のり)。以後、この道のりを第n次副距離(nは、0以外の整数)と呼ぶ。なお、計測起点から投影特徴点への方向情報も隆線接続関係情報に加える場合がある。
【0073】
隆線接続関係を隆線上に存在する特徴点や投影特徴点の個数で表現することもできる。すなわち、
1)隆線を介して注目特徴点に接続する他の特徴点までの道のり上に存在する投影特徴点の個数。以後、この投影特徴点数を第0次投影特徴点数と呼ぶ。なお、注目特徴点から他の特徴点への方向情報も隆線接続関係情報に加える場合がある。
【0074】
2)注目特徴点のn本となりにある隆線上に注目特徴点を投影した点を計測起点とした場合において、この計測起点から他の特徴点までの道のり上に存在する投影特徴点の個数。以後、この投影特徴点数を第n次投影特徴点数(nは、0以外の整数)と呼ぶ。なお、計測起点から投影特徴点への方向情報も隆線接続関係情報に加える場合がある。
【0075】
各特徴点は、少なくとも2つ以上の近傍特徴点への隆線接続関係情報を持つことができる。1つの特徴点(注目特徴点)が持つ隆線接続関係情報は、主に以上に述べた情報、または、その組み合わせで構成することができる。
【0076】
指紋照合では、隆線接続関係情報の一致を確認する。この時、特徴点の種類が登録時と照合時で異なる場合を想定した指紋照合も行う。登録指紋と照合指紋との間で特徴点の種類が異なる場合、特徴点の種類が同じになるように隆線構造を変形し、その隆線構造の下での照合結果が良好であれば、同一特徴点と判断することができる。
【0077】
指紋照合は、まず、個々の特徴点毎に照合を行う。最終的に登録指紋と入力指紋との間で、同一特徴点と判断された特徴点の割合が高ければ、登録指紋と入力指紋は同一指紋であると判断する。
【0078】
個々の特徴点の照合方法として、隆線接続関係情報が、予め決められた基準を満たしているかを判断する方法がある。
この方法では、2つの特徴点の隆線接続関係情報が一致した場合、同一特徴点とみなす。隆線接続関係の一致または不一致の度合いは、隆線接続関係一致度を定義し、その値より判断する。隆線接続関係一致度とは、隆線接続関係の一致具合を示す評価値である。この評価値が高い値の場合、隆線接続関係の一致の度合いが良いことを示す。二つの特徴点の隆線接続関係一致度が予め決められた値を超えた場合、同一特徴点とみなす。
【0079】
隆線接続関係一致度は、例えば、加点方式で求めることができる。すなわち、特徴点の第n次主距離/副距離の一致具合により配点を決め、その合計点を二つの特徴点の隆線接続関係一致度とする。また、照合する二つの特徴点の種類が同じかどうかにより、隆線接続関係一致度の求め方を分けることにより、特徴点の種類の検出が不安定である場合の照合を可能とする。
【0080】
図6は、指紋に歪みが発生した時に、道のりがどのように変化するかを説明する図である。
図6(a)において、端点P42の注目した場合の道のりとして、端点P42と分岐点P43との間の道のりL1、端点P42と投影特徴点Q44との間の道のりL2、投影特徴点Q42と端点P41との間の道のりL3及び投影特徴点Q42と投影特徴点Q43との間の道のりL4が登録されているものとする。
【0081】
そして、図6(b)に示すように、照合時の指紋に歪みが発生し、端点P42の注目した場合の道のりとして、端点P42と分岐点P43との間の道のりL1’、端点P42と投影特徴点Q44との間の道のりL2’、投影特徴点Q42と端点P41との間の道のりL3’及び投影特徴点Q42と投影特徴点Q43との間の道のりL4’が得られたものとする。この場合、皮膚が部分的に伸び縮みしたり回転したりして、指紋に歪みが発生した場合においても、隆線自体の長さはほとんど変化しないことから、L1=L1’、L2=L2’、L3=L3’、L4=L4’となる。このため、指紋に発生した歪みの影響を受けることなく、指紋照合を行うことが可能となる。
【0082】
このことは、例えば、隆線を紐とみなし、特徴点を紐の結び目または紐の切れ目とみなし、指紋に歪みが発生した場合を紐が弛んだ場合とみなすことにより、容易に理解することができる。すなわち、紐が弛んだ場合、紐の結び目の空間上の座標や紐の切れ目の空間上の座標は変化しても、紐の長さは変化しないことは明らかである。このため、紐の結び目や紐の切れ目の間の道のりは変化しない。これと同様の関係が隆線構造にも当てはまると考えることができ、指紋に歪みが発生した場合においても、隆線上の特徴点の間の道のりはほとんど変化しない。この結果、隆線接続関係として特徴点の間の道のりを用いることにより、精度の高い指紋照合を行うことが可能となる。
【0083】
このように、隆線接続関係を用いて指紋照合を行うことにより、隆線の何本か隣りにある隆線上の特徴点の位置関係も考慮しながら隆線構造の照合を行うことが可能となり、照合精度を向上させることが可能となる。また、登録時に分岐点であった特徴点が、照合時では端点に変化してしまうなど、特徴点の検出が不安定な場合でも、的確に照合することが可能となる。
【0084】
なお、個々の特徴点の照合方法として、特徴点の種類・位置・方向が一致しているかを判断する方法もある。
この方法では、特徴点の位置・種類・方向の一致具合を調べて、特徴点の照合を行う。2つの特徴点間で以下の条件を全て満たした時、それらは同一特徴点とみなす。
1)特徴点の種類が同じ
2)特徴点の方向の差が予め決められた閾値以下
3)特徴点間の距離が予め決められた閾値以下、または、共通座標系上での特徴点の座標の差が、予め決められた閾値以下
また、個々の特徴点の照合方法として、特徴点の種類・位置・方向が一致し、かつ、隆線接続関係情報が予め決められた基準を満たしているかを判断する方法もある
この方法では、特徴点の位置・種類・方向及び隆線接続関係の一致具合を調べて、特徴点の照合を行う。2つの特徴点間で以下の条件を全て満たした時、それらは同一特徴点とみなす。
【0085】
1)特徴点の種類が同じ
2)特徴点の方向の差が予め決められた閾値以下
3)特徴点間の距離が予め決められた閾値以下、または、共通座標系上での特徴点の座標の差が、予め決められた閾値以下
4)隆線接続関係一致度が予め決められた閾値以上
図7は、本発明の一実施例に係わる指紋照合装置のシステム構成を示すブロック図である。
【0086】
図7において、21は全体的な処理を行う中央演算処理ユニット(CPU)、22はリードオンリメモリ(ROM)、23はランダムアクセスメモリ(RAM)、24は入出力インターフェイス、25は指紋画像や照合結果などを表示するディスプレイ、26は指紋画像や照合結果などを印刷するプリンタ、27はスキャナ28により読み取られたデータを一時的に格納するメモリ、28は指紋を読み取るスキャナ、29は通信インターフェイス、30は通信ネットワーク、31は記憶媒体を駆動するドライバ、32はハードディスク、33はICメモリカード、34は磁気テープ、35はフロッピーディスク、36はCD−ROMやDVD−ROMなどの光ディスク、37はバス、38はキーボードである。
【0087】
指紋登録処理を行うプログラムや指紋照合処理を行うプログラム、あるいは隆線接続関係情報などを、ハードディスク32、ICメモリカード33、磁気テープ34、フロッピーディスク35、光ディスク36などの記憶媒体に格納する。そして、これらの記憶媒体から指紋登録処理を行うプログラムをRAM23に読み出すことにより、指紋登録を行うことができる。また、これらの記憶媒体からや指紋照合処理を行うプログラムや隆線接続関係情報などをRAM23に読み出すことにより、指紋照合を行うことができる。また、指紋登録処理を行うプログラムや指紋照合処理を行うプログラム、あるいは隆線接続関係情報などを、ROM22に格納しておくこともできる。
【0088】
さらに、指紋登録処理を行うプログラムや指紋照合処理を行うプログラム、あるいは隆線接続関係情報などを、通信インターフェイス29を介して通信ネットワーク30から取り出すことをできる。通信インターフェイス29に接続される通信ネットワーク30として、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、アナログ電話網、デジタル電話網(ISDN:Integral Service Digital Network)、PHS(パーソナルハンディシステム)や衛星通信などの無線通信網を用いることができる。
【0089】
CPU21は、指紋登録処理を行うプログラムが起動されると、スキャナ28で読み取られた指紋画像データを受信する。そして、スキャナ28で読み取られた指紋画像データを受信すると、指紋画像データから隆線接続関係情報を抽出し、抽出した隆線接続関係情報を各個人ごとに格納する。
【0090】
CPU21は、指紋照合処理を行うプログラムが起動されると、スキャナ28で読み取られた指紋画像データを受信する。そして、スキャナ28で読み取られた指紋画像データを受信すると、この指紋画像データから隆線接続関係情報を抽出する。また、記憶媒体や通信ネットワーク30から隆線接続関係情報を獲得し、獲得した隆線接続関係情報と、抽出した隆線接続関係情報とを照合する。この照合結果は、ディスプレイ25やプリンタ26に出力される。
【0091】
図8は、本発明の第3実施例に係わる指紋照合装置の構成を示すブロック図である。この第3実施例では、各特徴点の第n次主距離(n=−m,…,−1,0,1,…,m)を、指指紋登録時に記録する。ただし、特徴点で区切られた隆線の1つにつき、1つの主距離を記録する。そして、各特徴点の第n次主距離を比較することにより、指紋照合を行う。
【0092】
図8において、指紋センサ41は、人間または動物の指から指紋画像データを採取する。画像記憶部42は、指紋センサ41により採取された指紋画像データを保持したり、画像処理を行った画像データを保持したりする。画像二値化部43は、画像記憶部42に格納されている多値画像を二値画像に変換する。画像細線化部44は、画像二値化部43で二値化された二値画像を細線化し、指紋隆線の細線画像データを生成する。特徴点抽出部45は、指紋細線画像より特徴点位置を検出し、その結果を特徴点位置記憶部46に保持する。特徴点位置記憶部46は、指紋画像中の特徴点位置を保持する。誤特徴点除去部47は、指紋細線画像と抽出された特徴点から誤特徴点を検出することにより、特徴点位置記憶部46から誤特徴点情報を取り除く。また、指紋細線画像修正部48に誤特徴点情報を伝達する。指紋細線画像修正部48は、誤特徴点除去部47から送られた誤特徴点情報により、指紋細線画像の修正を行う。主距離情報抽出部49は、画像記憶部42に保持されている指紋細線画像と特徴点位置記憶部46に保持されている特徴点位置とから、各特徴点の隆線接続関係情報(指紋情報)を抽出し、指紋情報記憶部50に出力する。指紋情報記憶部50は、主距離情報抽出部49で抽出された各特徴点の隆線接続関係情報を記憶する。登録指紋情報記憶部51は、指紋照合装置に登録された指紋の指紋情報を保持する。指紋照合部52は、入力指紋より得られた指紋情報と登録指紋情報記憶部51に記憶されている登録指紋の指紋情報とを照合し、指紋照合結果を照合結果表示部53に伝達する。照合結果表示部53は、ディスプレイや音声などで指紋照合装置利用者に指紋照合結果を伝達する。
【0093】
ここで、主距離情報抽出部49は、隆線接続関係情報として、各特徴点の第n次主距離(n=−m,…,−1,0,1,…,m)を算出する。
図9は、端点を基準とした時の第n次主距離の算出方法を説明する図である。
【0094】
図9において、指紋画像から隆線R51〜R59が抽出され、分岐点P53が隆線R52、R53上に存在し、端点P54が隆線R54上に存在し、分岐点P55が隆線R54、R55上に存在し、分岐点P57が隆線R56、R57上に存在し、端点P58が隆線R58上に存在している。なお、端点P54、P58及び分岐点P53、P55、P57は、指紋の特徴点に対応している。
【0095】
また、端点P54を投影することにより、投影特徴点Q54が隆線R53上に生成され、投影特徴点Q54’が隆線R52上に生成され、投影特徴点Q54’’が隆線R56上に生成され、投影特徴点Q54’’’が隆線R58上に生成されている。
【0096】
ここで、端点P54に注目した場合の道のりとして、端点P54と分岐点P55との間の道のり(第0次主距離)、投影特徴点Q54と分岐点P53との間の道のり(第1次主距離)、投影特徴点Q54’と分岐点P53との間の道のり(第2次主距離)、投影特徴点Q54’’と分岐点P57との間の道のり(−1次主距離)及び投影特徴点Q54’’’と端点P58との間の道のり(−2次主距離)が算出される。
【0097】
なお、第0次主距離は、注目特徴点と隆線を介してそれに接続している他の特徴点までの道のりを表す。第n次主距離(nは、0以外の整数)は、注目特徴点からn本目の隆線に注目特徴点を投影し、その投影点を道のりの計測起点として、その隆線上に存在する他の近傍特徴点までの道のりを表す。次数nは、注目特徴点のどちら側の隆線を対象にしているかにより、プラス/マイナスの値を取ることができる。
【0098】
図10は、分岐点を基準とした時の第n次主距離の算出方法を説明する図である。
図10において、指紋画像から隆線R61〜R70が抽出され、分岐点P63が隆線R62、R63上に存在し、分岐点P64が隆線R64、R65上に存在し、分岐点P65が隆線R64、R66上に存在し、端点P66、P67が隆線R66上に存在し、分岐点P68が隆線R67、R68上に存在し、端点P69が隆線R69上に存在している。なお、端点P66、P67、P69及び分岐点P63、P64、P65、P68は、指紋の特徴点に対応している。
【0099】
また、分岐点P65を投影することにより、投影特徴点Q65が隆線R63上に生成され、投影特徴点Q65’が隆線R62上に生成され、投影特徴点Q65’’が隆線R67上に生成され、投影特徴点Q65’’’が隆線R69上に生成されている。
【0100】
ここで、分岐点P65に注目した場合の道のりとして、分岐点P65と分岐点P64との間の道のり(第0次主距離)、分岐点P65と分岐点P67との間の道のり(第0次主距離)、分岐点P65と端点P66との間の道のり(第0次主距離)、投影特徴点Q65と分岐点P63との間の道のり(第1次主距離)、投影特徴点Q65’と分岐点P63との間の道のり(第2次主距離)、投影特徴点Q65’’と分岐点P68との間の道のり(−1次主距離)及び投影特徴点Q65’’’と端点P69との間の道のり(−2次主距離)が算出される。
【0101】
このように、分岐点P65については、3つの第0次主距離を持つことができる。
図11は、図8の指紋照合装置の指紋登録処理を示すフローチャートである。
【0102】
図11において、まず、指紋センサ41などを用いることにより、指紋画像データを取得する(ステップS1)。次に、画像二値化部43は、得られた指紋画像を二値化し、指紋二値化画像を得る(ステップS2)。次に、画像細線化部44は、指紋二値化画像を細線化し、指紋細線化画像を得る(ステップS3)。次に、特徴点抽出部45は、指紋細線化画像より、指紋特徴点位置を抽出する(ステップS4)。抽出された指紋特徴点には、一般に誤特徴点が含まれている。そのため、誤特徴点除去部47は、得られた指紋特徴点から誤特徴点の除去を行う(ステップS5)。誤特徴点部分は、指紋細線化画像の誤り(隆線の亀裂や連結)によって生じているので、指紋細線画像修正部48は、指紋細線化画像の修正を行う(ステップS6)。次に、主距離情報抽出部49は、各特徴点毎に第n次主距離(n=−m,…,−1,0,1,…,m)を計測する(ステップS7)。この主距離情報を指紋情報として登録指紋情報記憶部51に保存する(ステップS8)。
【0103】
図12は、図8の指紋照合装置において特徴点を計測起点とした時の道のり算出処理を示すフローチャートである。
図12において、特徴点を道のり計測開始位置に設定し(ステップS10)、計測値Lengthを0に設定する(ステップS11)。
【0104】
次に、細線指紋画像上で隆線上を1画素分だけ進み(ステップS12)、他の特徴点に到達した場合(ステップS13)、計測値Lengthを第0次主距離とする(ステップS14)。また、細線指紋画像上で隆線上を1画素分だけ進んだ結果、画像の端に到達した場合(ステップS15)、第0次主距離情報は、「画像の外」とする(ステップS16)。さらに、細線指紋画像上で隆線上を1画素分だけ進んだ結果、誤特徴点に到達した場合(ステップS17)、第0次主距離情報は、「不明」とする(ステップS18)。
【0105】
一方、細線指紋画像上で隆線上を1画素分だけ進んだ結果、以上の条件に当てはまらない場合、計測値Lengthを1つだけ増加させ(ステップS19)、ステップS12に戻ることにより、探索を続ける。
【0106】
図13は、図8の指紋照合装置において投影特徴点を計測起点とした時の道のり算出処理を示すフローチャートである。
図13において、注目特徴点からn本目の隆線上への投影特徴点を道のり計測開始位置に設定し(ステップS20)、計測値Lengthを0に設定する(ステップS21)。
【0107】
次に、細線指紋画像上で隆線上を1画素分だけ進み(ステップS22)、他の特徴点に到達した場合(ステップS23)、計測値Lengthを第n次主距離とする(ステップS24)。また、細線指紋画像上で隆線上を1画素分だけ進んだ結果、画像の端に到達した場合(ステップS25)、第n次主距離情報は、「画像の外」とする(ステップS26)。さらに、細線指紋画像上で隆線上を1画素分だけ進んだ結果、誤特徴点に到達した場合(ステップS27)、第n次主距離情報は、「不明」とする(ステップS28)。
【0108】
一方、細線指紋画像上で隆線上を1画素分だけ進んだ結果、以上の条件に当てはまらない場合、計測値Lengthを1つだけ増加させ(ステップS29)、ステップS22に戻ることにより、探索を続ける。
【0109】
図14は、図8の指紋照合装置の指紋照合処理を示すフローチャートである。
図14において、まず、指紋センサ41などを用いることにより、指紋画像データを取得する(ステップS30)。次に、画像二値化部43は、得られた指紋画像を二値化し、指紋二値化画像を得る(ステップS31)。次に、画像細線化部44は、指紋二値化画像を細線化し、指紋細線化画像を得る(ステップS32)。次に、特徴点抽出部45は、指紋細線化画像より、指紋特徴点位置を抽出する(ステップS33)。抽出された指紋特徴点には、一般に誤特徴点が含まれている。そのため、誤特徴点除去部47は、得られた指紋特徴点から誤特徴点の除去を行う(ステップS34)。誤特徴点部分は、指紋細線化画像の誤り(隆線の亀裂や連結)によって生じているので、指紋細線画像修正部48は、指紋細線化画像の修正を行う(ステップS35)。次に、主距離情報抽出部49は、各特徴点毎に第n次主距離(n=−m,…,−1,0,1,…,m)を計測する(ステップS36)。
【0110】
次に、登録指紋情報記憶部51に保存されている主距離情報を読み出す(ステップS37)。そして、登録指紋と入力指紋の全ての特徴点の組み合わせにおいて、隆線接続関係一致度を計算し、それが予め決められた所定値を超える組み合わせの数をカウントする(ステップS38)。なお、第3実施例では、指紋情報に副距離情報がないので、隆線接続関係一致度は、単に同じ次数の主距離が、所定の誤差範囲で一致しているかどうかを示している。
【0111】
次に、登録指紋と入力指紋中に存在する全特徴点数を調べ、同一特徴点数を全特徴点数で規格化し、指紋一致率を算出する(ステップS39)。そして、指紋一致率が所定の値を超えた場合、同一指紋とする(ステップS40)。一方、指紋一致率が所定の値以下の場合、異指紋とする(ステップS41)。
【0112】
このように、登録指紋と入力指紋の特徴点照合において、特徴点の位置・種類・方向を照合する代わりに、特徴点と隆線との接続関係を照合することにより、皮膚の伸びや縮みや回転に影響されることなく、正しい特徴点照合を達成することができる。
【0113】
また、隆線接続関係情報を特徴点間の道のりで表現することにより、一つの特徴点の周辺の隆線構造を簡単に表現することができ、その照合もグラフ理論などを必要とせずに簡単に達成することができる。
【0114】
さらに、隆線接続関係情報を表現するものとして、投影特徴点の概念を新たに導入し、特徴点と投影特徴点との間の道のりで隆線構造を表現することにより、より詳細な隆線構造を簡単に表現することができる。また、その照合も簡単に達成することができる。
【0115】
なお、指紋中心座標、各特徴点の座標、種類、方向を指紋情報に付け加え、指紋照合の高速化、精度の向上化を図ってもよい。例えば、指紋中心座標を用いて、登録指紋と入力指紋間のおおよその位置合わせを行っておく。そして、二つの特徴点間の隆線接続関係情報の照合を行う時、その特徴点の座標が所定の誤差より大きく離れていた場合は、隆線接続関係一致度に関わらず異なる特徴点と判断し、隆線接続関係一致度の計算を省略する。このようにすれば、照合時間の短縮化が図れる。また、二つの特徴点の照合を行う時、特徴点の種類や方向の照合も用いることで精度の高い照合が達成される。
【0116】
図15は、本発明の第4実施例に係わる指紋照合装置の構成を示すブロック図である。この第4実施例では、指紋登録時に記録する指紋情報を以下の通りとする。
【0117】
1)各特徴点の第n次主距離(n=−m,…,−1,0,1,…,m)
ただし、特徴点で区切られた隆線一つにつき、一つの主距離を記録するものとする。
【0118】
2)各特徴点の第n次副距離(n=−m,…,−1,0,1,…,m)
ただし、特徴点で区切られた隆線一つにつき、一つの副距離を記録するものとする。
【0119】
そして、各特徴点の第n次主距離及び第n次副距離を比較することにより、指紋照合を行う。
図15において、指紋センサ61は、人間または動物の指から指紋画像データを採取する。画像記憶部62は、指紋センサ61により採取された指紋画像データを保持したり、画像処理を行った画像データを保持したりする。画像二値化部63は、画像記憶部62に格納されている多値画像を二値画像に変換する。画像細線化部64は、画像二値化部63で二値化された二値画像を細線化し、指紋隆線の細線画像データを生成する。特徴点抽出部65は、指紋細線画像より特徴点位置を検出し、その結果を特徴点・投影特徴点位置記憶部66に保持する。特徴点・投影特徴点位置記憶部66は、特徴点抽出部65で抽出された特徴点位置を保持するとともに、投影特徴点生成部69で生成された投影特徴点の位置情報を記憶する。誤特徴点除去部67は、指紋細線画像と抽出された特徴点から誤特徴点を検出することにより、特徴点・投影特徴点位置記憶部66から誤特徴点情報を取り除く。また、指紋細線画像修正部68に誤特徴点情報を伝達する。指紋細線画像修正部68は、誤特徴点除去部67から送られた誤特徴点情報により、指紋細線画像の修正を行う。
【0120】
投影特徴点生成部69は、誤特徴点が除かれた修正指紋細線画像と特徴点位置とから全特徴点に関する投影特徴点を生成する。主距離・副距離情報抽出部70は、画像記憶部62に保持されている指紋細線画像と特徴点・投影特徴点位置記憶部66に保持されている特徴点・投影特徴点位置から、各特徴点の隆線接続関係情報を取得し、指紋情報記憶部71に出力する。
【0121】
指紋情報記憶部71は、主距離・副距離情報抽出部70で抽出された各特徴点及び投影特徴点の隆線接続関係情報を記憶する。登録指紋情報記憶部72は、指紋照合装置に登録された指紋の指紋情報を保持する。指紋照合部73は、入力指紋より得られた指紋情報と登録指紋情報記憶部72に記憶されている登録指紋の指紋情報とを照合し、指紋照合結果を照合結果表示部74に伝達する。照合結果表示部74は、ディスプレイや音声などで指紋照合装置利用者に指紋照合結果を伝達する。
【0122】
図16は、端点を基準とした時の副距離の算出方法を説明する図である。
図16において、指紋画像から隆線R51〜R59が抽出され、端点P51が隆線R51上に存在し、分岐点P53が隆線R52、R53上に存在し、端点P54が隆線R54上に存在し、分岐点P55が隆線R54、R55上に存在し、分岐点P57が隆線R56、R57上に存在し、端点P58が隆線R58上に存在し、端点P59が隆線R59上に存在している。なお、端点P51、P54、P58、P59及び分岐点P53、P55、P57は、指紋の特徴点に対応している。
【0123】
また、端点P54を投影することにより、投影特徴点Q54が隆線R53上に生成され、投影特徴点Q54’が隆線R52上に生成され、投影特徴点Q54’’が隆線R56上に生成され、投影特徴点Q54’’’が隆線R58上に生成されている。
端点P51を投影することにより、投影特徴点Q51が隆線R52上に生成され、分岐点P53を投影することにより、投影特徴点Q53が隆線R51上に生成されるとともに、投影特徴点Q53’が隆線R54上に生成され、分岐点P55を投影することにより、投影特徴点Q55が隆線R52上に生成されるとともに、投影特徴点Q55’が隆線R56上に生成され、分岐点P57を投影することにより、投影特徴点Q57が隆線R53上に生成されるとともに、投影特徴点Q57’が隆線R58上に生成され、端点P58を投影することにより、投影特徴点Q58が隆線R56上に生成されるとともに、投影特徴点Q58’が隆線R59上に生成され、端点P59を投影することにより、投影特徴点Q59が隆線R58上に生成されている。
【0124】
ここで、端点P54に注目した場合の道のりとして、端点P54と投影特徴点Q53’との間の道のり(第0次副距離)、投影特徴点Q54と投影特徴点Q57との間の道のり(第1次副距離)、投影特徴点Q54’と投影特徴点Q51との間の道のり(第2次副距離)、投影特徴点Q54’’と投影特徴点Q58との間の道のり(−1次副距離)及び投影特徴点Q54’’’と投影特徴点Q57’との間の道のり(−2次副距離)が算出される。
【0125】
なお、第0次副距離は、注目特徴点と隆線を介してそれに接続している投影特徴点までの道のりを表す。第n次副距離(nは、0以外の整数)は、第n次主距離と同様に、n本隣にある隆線に注目特徴点を投影し、その投影点を道のり計測起点として、その隆線上に存在する他の投影特徴点までの道のりを表す。次数nは、プラス/マイナスの両方の値を取ることができる。
【0126】
図17は、分岐点を基準とした時の副距離の算出方法を説明する図である。
図17において、指紋画像から隆線R61〜R70が抽出され、端点P61が隆線R61上に存在し、分岐点P63が隆線R62、R63上に存在し、分岐点P64が隆線R64、R65上に存在し、分岐点P65が隆線R64、R66上に存在し、端点P66、P67が隆線R66上に存在し、分岐点P68が隆線R67、R68上に存在し、端点P69が隆線R69上に存在し、端点P70が隆線R70上に存在している。なお、端点P61、P66、P67、P69、P70及び分岐点P63、P64、P65、P68は、指紋の特徴点に対応している。
【0127】
また、分岐点P65を投影することにより、投影特徴点Q65が隆線R63上に生成され、投影特徴点Q65’が隆線R62上に生成され、投影特徴点Q65’’が隆線R67上に生成され、投影特徴点Q65’’’が隆線R69上に生成されている。
【0128】
端点P61を投影することにより、投影特徴点Q61が隆線R62上に生成され、分岐点P63を投影することにより、投影特徴点Q63が隆線R61上に生成されるとともに、投影特徴点Q63’が隆線R64上に生成され、分岐点P64を投影することにより、投影特徴点Q64が隆線R62上に生成されるとともに、投影特徴点Q64’が隆線R66上に生成され、端点P66を投影することにより、投影特徴点Q66が隆線R63上に生成されるとともに、投影特徴点Q66’が隆線R67上に生成され、端点P67を投影することにより、投影特徴点Q67が隆線R65上に生成されるとともに、投影特徴点Q67’が隆線R674上に生成され、分岐点P68を投影することにより、投影特徴点Q68が隆線R66上に生成されるとともに、投影特徴点Q68’が隆線R69上に生成され、端点P69を投影することにより、投影特徴点Q69が隆線R67上に生成されるとともに、投影特徴点Q69’が隆線R70上に生成され、端点P70を投影することにより、投影特徴点Q70が隆線R69上に生成されている。
【0129】
ここで、分岐点P65に注目した場合の道のりとして、分岐点P65と投影特徴点Q63’との間の道のり(第0次副距離)、分岐点P65と投影特徴点Q64’との間の道のり(第0次副距離)、分岐点P65と投影特徴点Q68との間の道のり(第0次副距離)、投影特徴点Q65と投影特徴点Q66との間の道のり(第1次副距離)、投影特徴点Q65’と投影特徴点Q61との間の道のり(第2次副距離)、投影特徴点Q65’’と投影特徴点Q69との間の道のり(−1次副距離)及び投影特徴点Q65’’’と投影特徴点Q68’との間の道のり(−2次副距離)が算出される。
図18は、図15の指紋照合装置の指紋登録処理を示すフローチャートである。
【0130】
図18において、まず、指紋センサ61などを用いることにより、指紋画像データを取得する(ステップS51)。次に、画像二値化部63は、得られた指紋画像を二値化し、指紋二値化画像を得る(ステップS52)。次に、画像細線化部64は、指紋二値化画像を細線化し、指紋細線化画像を得る(ステップS53)。次に、特徴点抽出部65は、指紋細線化画像より、指紋特徴点位置を抽出する(ステップS54)。抽出された指紋特徴点には、一般に誤特徴点が含まれている。そのため、誤特徴点除去部67は、得られた指紋特徴点から誤特徴点の除去を行う(ステップS55)。誤特徴点部分は、指紋細線化画像の誤り(隆線の亀裂や連結)によって生じているので、指紋細線画像修正部68は、指紋細線化画像の修正を行う(ステップS56)。
【0131】
次に、投影特徴点生成部69は、特徴点抽出部65で抽出された全ての特徴点に関する投影特徴点を生成する(ステップS57)。次に、主距離・副距離情報抽出部70は、各特徴点毎に第n次主距離・第n次副距離(n=−m,…,−1,0,1,…,m)を計測する(ステップS58)。この主距離・副距離情報を指紋情報として、登録指紋情報記憶部72に保存する(ステップS59)。
【0132】
図19は、図15の指紋照合装置において特徴点を計測起点とした時の道のり算出処理を示すフローチャートである。
図19において、特徴点を道のり計測開始位置に設定し(ステップS61)、計測値Lengthを0に設定する(ステップS62)。
【0133】
次に、細線指紋画像上で隆線上を1画素分だけ進み(ステップS63)、他の投影特徴点に到達した場合(ステップS64)、計測値Lengthを第0次副距離とする(ステップS65)。また、細線指紋画像上で隆線上を1画素分だけ進んだ結果、他の特徴点に到達した場合(ステップS66)、第0次副距離はないものとする(ステップS67)。
【0134】
また、細線指紋画像上で隆線上を1画素分だけ進んだ結果、画像の端に到達した場合(ステップS68)、第0次副距離情報は、「画像の外」とする(ステップS69)。さらに、細線指紋画像上で隆線上を1画素分だけ進んだ結果、誤特徴点に到達した場合(ステップS70)、第0次主距離情報は、「不明」とする(ステップS71)。
【0135】
一方、細線指紋画像上で隆線上を1画素分だけ進んだ結果、以上の条件に当てはまらない場合、計測値Lengthを1つだけ増加させ(ステップS72)、ステップS63に戻ることにより、探索を続ける。
【0136】
図20は、図15の指紋照合装置において投影特徴点を計測起点とした時の道のり算出処理を示すフローチャートである。
図20において、注目特徴点からn本目の隆線上への投影特徴点を道のり計測開始位置に設定し(ステップS81)、計測値Lengthを0に設定する(ステップS82)。
【0137】
次に、細線指紋画像上で隆線上を1画素分だけ進み(ステップS83)、他の投影特徴点に到達した場合(ステップS84)、計測値Lengthを第n次副距離とする(ステップS85)。また、細線指紋画像上で隆線上を1画素分だけ進んだ結果、他の特徴点に到達した場合(ステップS86)、第n次副距離はないものとする(ステップS68)。
【0138】
また、細線指紋画像上で隆線上を1画素分だけ進んだ結果、画像の端に到達した場合(ステップS88)、第n次副距離情報は、「画像の外」とする(ステップS89)。さらに、細線指紋画像上で隆線上を1画素分だけ進んだ結果、誤特徴点に到達した場合(ステップS90)、第n次副距離情報は、「不明」とする(ステップS91)。
【0139】
一方、細線指紋画像上で隆線上を1画素分だけ進んだ結果、以上の条件に当てはまらない場合、計測値Lengthを1つだけ増加させ(ステップS92)、ステップS83に戻ることにより、探索を続ける。
【0140】
図21は、図15の指紋照合装置の指紋照合処理を示すフローチャートである。
図21において、まず、指紋センサ61などを用いることにより、指紋画像データを取得する(ステップS101)。次に、画像二値化部63は、得られた指紋画像を二値化し、指紋二値化画像を得る(ステップS102)。次に、画像細線化部64は、指紋二値化画像を細線化し、指紋細線化画像を得る(ステップS103)。次に、特徴点抽出部65は、指紋細線化画像より、指紋特徴点位置を抽出する(ステップS104)。抽出された指紋特徴点には、一般に誤特徴点が含まれている。そのため、誤特徴点除去部67は、得られた指紋特徴点から誤特徴点の除去を行う(ステップS105)。誤特徴点部分は、指紋細線化画像の誤り(隆線の亀裂や連結)によって生じているので、指紋細線画像修正部68は、指紋細線化画像の修正を行う(ステップS106)。次に、投影特徴点生成部69は、特徴点抽出部65で抽出された全ての特徴点に関する投影特徴点を生成する(ステップS107)。次に、主距離・副距離情報抽出部70は、各特徴点毎に第n次主距離・第n次副距離(n=−m,…,−1,0,1,…,m)を計測する(ステップS108)。
【0141】
次に、登録指紋情報記憶部72に保存されている主距離・副距離情報を読み出す(ステップS109)。そして、登録指紋と入力指紋の全ての特徴点の組み合わせにおいて、隆線接続関係一致度を計算し、それが予め決められた所定値を超える組み合わせの数をカウントする(ステップS110)。第4実施例では、指紋情報に主距離・副距離情報の両方を用いているので、各特徴点の種類(端点/分岐点)の検出が不安定な場合でも、特徴点毎の照合を行うことができる。
【0142】
次に、登録指紋と入力指紋中に存在する全特徴点数を調べ、同一特徴点数を全特徴点数で規格化し、指紋一致率を算出する(ステップS111)。指紋一致率が所定の値を超えた場合、同一指紋とする(ステップS112)。一方、指紋一致率が所定の値以下の場合、異なる指紋とする(ステップS113)。
【0143】
このように、登録指紋と入力指紋の特徴点照合において、特徴点の位置・種類・方向の照合を行う代わりに、投影特徴点と隆線との接続関係を照合することにより、皮膚の伸び縮みや回転に影響されることなく、正しい特徴点照合が達成される。また、投影特徴点の概念を導入することで、照合対象の特徴点に接続している隆線の構造ではなく、その隆線の周辺の隆線構造の照合を達成することができる。
【0144】
また、特徴点と投影特徴点との道のりで隆線接続関係情報を表現することにより、特徴点の周辺の隆線構造を簡単に表現することができ、その照合も簡単に達成することができる。
【0145】
さらに、一つの特徴点の隆線接続関係情報をその特徴点の投影特徴点と他の特徴点の投影特徴点との間の道のりで表現することにより、特徴点に接続している隆線の隆線構造ではなく、周辺の広範囲な隆線構造を簡単に表現することができ、その照合も簡単に達成される。
【0146】
なお、指紋中心座標、各特徴点の座標・種類、方向を指紋情報に付け加え、指紋照合の高速化、精度の向上化を図ってもよい。すなわち、指紋中心座標を用いて、登録指紋と入力指紋間のおおよその位置合わせを行っておく。そして、二つの特徴点間の隆線接続関係情報の照合を行うとき、その特徴点の座標が所定の誤差より大きく離れていた場合は、隆線接続関係一致度に関わらず異なる特徴点と判断し、隆線接続関係一致度の計算を省略する。このようにすれば、照合時間の短縮化が図れる。また、二つの特徴点の照合を行う時、特徴点の種類や方向の照合も用いることで精度の高い照合が達成される。さらに、隆線接続関係情報にその隆線接続関係に用いた接続先投影特徴点の投影元特徴点の種類の照合を加えることによって、より精度の高い照合が達成される。
【0147】
隆線接続関係情報の副距離を用いる代わりに、第n次投影特徴点数を用いてもよい。投影特徴点数を用いることにより、隆線接続関係情報の表現が簡単になり、登録指紋データの容量を小さくすることができる。
【0148】
次に、図15の指紋照合装置の指紋照合方法について、より詳細に説明する。
同一特徴点であれば、それぞれの特徴点における第n次主距離・副距離は一致するはずである。そこで、各主距離同士と副距離同士が一致した場合、隆線接続関係一致度の評価点を高くする。すなわち、一つの主距離同士の一致、副距離同士の一致の配点を高く設定する。
【0149】
一方、指紋画像の採取時の指の押圧の差により、近傍の特徴点の種類が異なって検出される場合がある。この場合、特徴点の主距離が副距離になったり、副距離が主距離になったりする。
【0150】
図22は、特徴点の種類が変化した時の主距離と副距離の変化を説明する図である。
図22(a)において、指紋画像から隆線R81〜R84が抽出され、端点P81が隆線R81上に存在し、分岐点P82が隆線R82、R83上に存在し、分岐点P83が隆線R83、R84上に存在している。なお、端点P81及び分岐点P82、P83は、指紋の特徴点に対応している。また、端点P81を投影することにより、投影特徴点Q81が隆線R82上に生成されている。
【0151】
ここで、分岐点P82に注目した場合の道のりとして、分岐点P82と分岐点P83との間の道のり(第0次主距離)、分岐点P82と投影特徴点Q81との間の道のり(第0次副距離)が登録されているものとする。
【0152】
そして、この登録されている指紋と同一の指紋について、指紋採取時の押圧の差などにより、図22(b)の指紋画像が得られたものとする。
図22(b)において、隆線R81が隆線R81’に変形し、隆線R81’が隆線R82にくっつくことにより、端点P81が分岐点P81’に変化している。また、隆線R84が隆線R84’に変形し、隆線R84’が隆線R83と分離することにより、分岐点P83が端点P83’に変化し、端点P83’を投影した投影特徴点Q83が隆線R83上に生成されている。
【0153】
このため、分岐点P82に注目した場合の道のりとして、分岐点P82と投影特徴点Q83との間の道のり(第0次副距離)、分岐点P82と分岐点P81’との間の道のり(第0次主距離)が算出される。
【0154】
このように、近傍の特徴点の種類が異なって検出されると、特徴点の主距離が副距離になったり、副距離が主距離になったりする。そこで、主距離と副距離が一致する場合も、隆線接続関係一致度の評価点を高くする。ただし、主距離同士、副距離同士が一致した場合よりは配点を低くする。このことにより、指紋画像の採取時の指の押圧の差などにより、近傍の特徴点の種類が異なって検出された場合においても、指紋照合を的確に行うことが可能となる。
【0155】
図23は、接続先特徴点の種類の誤検出を考慮した指紋照合処理の一例を示すフローチャートである。なお、H0、H1、H2は、隆線接続関係一致度の評価する際に配点で、H0>H1>H2とする。
【0156】
図23において、まず、隆線接続関係一致度を0に設定し(ステップS121)、照合する主距離及び副距離の次数iを−mに設定する(ステップS122)。
【0157】
次に、登録指紋と入力指紋との間で、i次の主距離同士が一致し、かつ、副距離同士も一致する場合(ステップS123)、隆線接続関係一致度を配点H0だけ増加させて(ステップS124)、ステップS125に進む、
次に、登録指紋と入力指紋との間で、i次の主距離同士が一致するが、副距離同士は一致しない場合(ステップS127)、隆線接続関係一致度を配点H1だけ増加させて(ステップS128)、ステップS125に進む、
次に、登録指紋と入力指紋との間で、i次の副距離同士が一致するが、主距離同士は一致しない場合(ステップS129)、隆線接続関係一致度を配点H1だけ増加させて(ステップS128)、ステップS125に進む、
次に、登録指紋のi次の主距離と入力指紋のi次の副距離が一致する場合(ステップS130)、隆線接続関係一致度を配点H2だけ増加させて(ステップS131)、ステップS132に進む、
次に、登録指紋のi次の副距離と入力指紋のi次の主距離が一致する場合(ステップS132)、隆線接続関係一致度を配点H2だけ増加させて(ステップS133)、ステップS125に進む、
次に、照合する主距離及び副距離の次数iを1だけ増加させ(ステップS125)、照合する主距離及び副距離の次数iがmを越えるまで(ステップS126)、以上の処理を繰り返す。
【0158】
このように、特徴点の隆線接続関係情報を照合する場合、登録指紋と照合指紋との間で、特徴点と特徴点との間の道のり及び特徴点と投影特徴点との間の道のりを比較することにより、隆線接続関係情報の接続先特徴点/投影特徴点の種類が異なった場合においても、隆線構造の照合を正確に行うことが可能となる。
【0159】
また、特徴点の隆線接続関係情報の照合する場合、登録指紋と照合指紋との間で、接続元投影特徴点(道のり計測起点)と特徴点との間の道のり及び接続元投影特徴点(道のり計測起点)と投影特徴点との間の道のりを比較することにより、隆線接続関係情報の接続先特徴点/投影特徴点の種類が異なった場合においても、隆線構造の照合を正確に行うことが可能となる。
【0160】
なお、近傍の特徴点の種類が異なって検出される場合のほか、注目特徴点の種類が異なって検出される場合もある。この場合、登録指紋と照合指紋との間で各々の特徴点における主距離・副距離の次数がずれるようになる。
【0161】
図24は、端点を分岐点と間違って検出した時の次数の変化を説明する図である。
図24(a)において、指紋画像から隆線R51〜R58が抽出され、分岐点P53が隆線R52、R53上に存在し、端点P54が隆線R54上に存在し、分岐点P55が隆線R54、R55上に存在し、分岐点P57が隆線R56、R57上に存在し、端点P58が隆線R58上に存在している。なお、端点P54、P58及び分岐点P53、P55、P57は、指紋の特徴点に対応している。
【0162】
また、端点P54を投影することにより、投影特徴点Q54が隆線R53上に生成され、投影特徴点Q54’が隆線R52上に生成され、投影特徴点Q54’’が隆線R56上に生成され、投影特徴点Q54’’’が隆線R58上に生成されている。
【0163】
ここで、端点P54に注目した場合の道のりとして、端点P54と分岐点P55との間の道のり(第0次主距離)、投影特徴点Q54と分岐点P53との間の道のり(第1次主距離)、投影特徴点Q54’と分岐点P53との間の道のり(第2次主距離)、投影特徴点Q54’’と分岐点P57との間の道のり(−1次主距離)及び投影特徴点Q54’’’と端点P58との間の道のり(−2次主距離)が登録されているものとする。
【0164】
そして、この登録されている指紋と同一の指紋について、指紋採取時の押圧の差などにより、図24(b)の指紋画像が得られたものとする。
図24(b)において、隆線R54が隆線R54’に変形し、隆線R54’が隆線R53にくっつくことにより、端点P54が分岐点P54’に変化している。
【0165】
このため、分岐点P54’に注目した場合の道のりとして、分岐点P54’と分岐点P53との間の道のり(第0次主距離)、分岐点P54’と分岐点P55との間の道のり(第0次主距離)、投影特徴点Q54’と分岐点P53との間の道のり(第1次主距離)、投影特徴点Q54’’と分岐点P57との間の道のり(−1次主距離)及び投影特徴点Q54’’’と端点P58との間の道のり(−2次主距離)が算出される。
【0166】
そこで、特徴点照合を行う二つの特徴点のうち、端点が隣の隆線にくっついて分岐点になった場合、照合する二つの特徴点の種類を強制的に一致させ、隆線接続関係一致度を求める。
【0167】
まず、端点がプラス1次側の隆線にくっついた場合を考える。この場合、隆線接続関係情報のうち、主距離/副距離の正の次数は全て1つずつ下がる。
そこで、端点側の主距離/副距離の正の次数を全て1つずつ下げ、特徴点の種類が同じ場合と同じ方法で、隆線接続関係一致度を求める。
【0168】
次に、端点がマイナス1次側の隆線にくっついている場合を考える。この場合、端点側の主距離/副距離の負の次数は全て1つずつ上がる。そこで、端点側の主距離/副距離の負の次数を全て1つずつ上げ、隆線接続関係一致度を求める。この求めた二つの隆線接続関係一致度の中で、高い方を最終的な隆線接続関係一致度とする。
【0169】
図25は、接続元特徴点の種類の誤検出を考慮した指紋照合処理の一例を示すフローチャートである。
図25において、まず、特徴点の種類が端点を示す特徴点をTとする(ステップS141)。
【0170】
次に、特徴点Tの1次以上の主距離と副距離の全ての次数を1つだけ下げる(ステップS142)。例えば、1次の主距離及び副距離の次数を0次とし、2次の主距離及び副距離の次数を1次とする。
【0171】
次に、特徴点の種類が同じ場合の方法で、隆線接続関係一致度W1を求め(ステップS143)、特徴点Tの主距離と副距離の次数を元に戻す(ステップS134)。
【0172】
次に、特徴点Tの−1次以下の主距離と副距離の全ての次数を1つだけ上げる(ステップS145)。例えば、−1次の主距離及び副距離の次数を0次とし、−2次の主距離及び副距離の次数を−1次とする。
【0173】
次に、特徴点の種類が同じ場合の方法で、隆線接続関係一致度W2を求め(ステップS146)、特徴点Tの主距離と副距離の次数を元に戻す(ステップS147)。
【0174】
次に、隆線接続関係一致度W1と隆線接続関係一致度W2のうち、大きい方の値を、特徴点照合における隆線接続関係一致度とする(ステップS148)。
このように、隆線接続関係情報の照合する場合、照合対象の特徴点とその特徴点の投影特徴点のと間に存在する隆線の本数を±1づつ増減させて照合を行うことにより、登録指紋と入力指紋との間で特徴点の種類が異なった場合においても、隆線構造の照合を正確に行うことが可能となる。
【0175】
次に、本発明の第5実施例に係わる指紋照合装置について説明する。
この第5実施例では、指紋登録時に記録する指紋情報を以下の通りにする。
1)各特徴点の第n次主距離(n=−m,−1,0,1,…,m)と注目特徴点/計測起点から他の特徴点への方向情報
ただし、特徴点で区切られた隆線一つにつき少なくとも一つ以上の主距離を記録するものとする。
【0176】
2)各特徴点の第n次副距離(n=−m,…,−1,0,1,m)と注目特徴点/計測起点から投影特徴点への方向情報
ただし、特徴点で区切られた隆線一つにつき少なくとも一つ以上の副距離を記録するものとする。
【0177】
そして、各特徴点の第n次主距離、第n次副距離及び方向情報を比較することにより、指紋照合を行う。
図26は、主距離に方向情報を付加した例を説明する図である。
【0178】
図26において、指紋画像から隆線R91〜R101が抽出され、分岐点P92が隆線R92、R93上に存在し、分岐点P93が隆線R93、R94上に存在し、端点P95が隆線R95上に存在し、分岐点P96が隆線R95、R96上に存在し、分岐点P97が隆線R97、R98上に存在し、端点P99、P100が隆線R99上に存在し、分岐点P101が隆線R100、R101上に存在している。なお、端点P95、P99、P100及び分岐点P92、P93、P96、P97、P101は、指紋の特徴点に対応している。
【0179】
また、端点P95を投影することにより、投影特徴点Q95が隆線R94上に生成され、投影特徴点Q95’が隆線R93上に生成され、投影特徴点Q95’’が隆線R97上に生成され、投影特徴点Q95’’’が隆線R99上に生成されている。
【0180】
ここで、端点P95に注目した場合の主距離として、端点P95と分岐点P96との間の道のり(第0次主距離)が算出される。
投影特徴点Q95を起算点とした場合、左方向の道のりとして、投影特徴点Q95と分岐点P93との間の道のり(第1次主距離)が算出され、道のり情報に方向情報が付加される。また、右方向には、画像端まで特徴点が存在しないため、右方向に進んだ場合、画像端まで存在しないという情報が道のり情報に付加される。
【0181】
投影特徴点Q95’を起算点とした場合、左方向の道のりとして、投影特徴点Q95’と分岐点P93との間の道のり(第2次主距離)が算出され、道のり情報に方向情報が付加される。また、右方向の道のりとして、投影特徴点Q95’と分岐点P92との間の道のり(第2次主距離)が算出され、道のり情報に方向情報が付加される。
【0182】
投影特徴点Q95’’を起算点とした場合、左方向には、画像端まで特徴点が存在しないため、左方向に進んだ場合、画像端まで存在しないという情報が道のり情報に付加される。また、右方向の道のりとして、投影特徴点Q95’’と分岐点P97との間の道のり(−1次主距離)が算出され、道のり情報に方向情報が付加される。
【0183】
投影特徴点Q95’’’を起算点とした場合、左方向の道のりとして、投影特徴点Q95’’’と端点P99との間の道のり(−2次主距離)が算出され、道のり情報に方向情報が付加される。また、右方向の道のりとして、投影特徴点Q95’’’と端点P100との間の道のり(−2次主距離)が算出され、道のり情報に方向情報が付加される。
【0184】
なお、隆線構造によっては、主距離が求められない場合がある。主距離が求められない理由として、以下のものがある。
(1)注目特徴点/計測起点から指紋画像の端まで、特徴点が存在しない。
(2)隆線構造が正しく求められていないため、明らかに正しく主距離が求められない。これは、隆線に亀裂が多発していたり、癒着の影響で隆線が網の目状になっている場合に発生する。
【0185】
これらの原因で主距離が求められない場合もその理由を隆線接続関係情報とする。
図27は、副距離に方向情報を付加した例を説明する図である。
【0186】
図27において、指紋画像から隆線R91〜R101が抽出され、端点P91が隆線R91上に存在し、分岐点P92が隆線R92、R93上に存在し、分岐点P93が隆線R93、R94上に存在し、端点P95が隆線R95上に存在し、分岐点P96が隆線R95、R96上に存在し、分岐点P97が隆線R97、R98上に存在し、端点P99が隆線R99上に存在し、分岐点P101が隆線R100、R101上に存在し、端点P102が隆線R100上に存在している。なお、端点P91、P95、P99、P102及び分岐点P92、P93、P96、P97、P101は、指紋の特徴点に対応している。
【0187】
また、端点P95を投影することにより、投影特徴点Q95が隆線R94上に生成され、投影特徴点Q95’が隆線R93上に生成され、投影特徴点Q95’’が隆線R97上に生成され、投影特徴点Q95’’’が隆線R99上に生成されている。
【0188】
端点P91を投影することにより、投影特徴点Q91が隆線R93上に生成され、分岐点P93を投影することにより、投影特徴点Q93が隆線R91上に生成されるとともに、投影特徴点Q93’が隆線R95上に生成され、分岐点P96を投影することにより、投影特徴点Q96が隆線R93上に生成されるとともに、投影特徴点Q96’が隆線R97上に生成され、分岐点P97を投影することにより、投影特徴点Q97が隆線R94上に生成されるとともに、投影特徴点Q97’が隆線R99上に生成され、端点P99を投影することにより、投影特徴点Q99が隆線R97上に生成されるとともに、投影特徴点Q99’が隆線R100上に生成され、端点P102を投影することにより、投影特徴点Q102が隆線R99上に生成されている。
【0189】
ここで、端点P95に注目した場合の副距離として、端点P95と投影特徴点Q93’との間の道のり(第0次副距離)が算出される。なお、この第0次副距離として、端点P95を基点として左方向に隆線R95を探索し、最初にぶつかった投影特徴点Q93’との間の道のりを算出するようにしている。
【0190】
投影特徴点Q95を起算点とした場合、左方向には、投影特徴点Q95と分岐点P93との間に他の投影特徴点が存在しないため、左方向に進んだ場合、副距離が存在しないという情報が道のり情報に付加される。ここで、分岐点P93にぶつかった時に、それ以降の探索を打ち切るのは、分岐点P93からの探索方向が複数あるため、どの方向に進めばよいかが不明だからである。なお、分岐点P93からの探索方向を予め決めておき、それ以降の探索を続行することにより、投影特徴点を探索するようにしても良い。また、右方向の道のりとして、投影特徴点Q95と投影特徴点Q97との間の道のり(第1次副距離)が算出され、道のり情報に方向情報が付加される。
【0191】
投影特徴点Q95’を起算点とした場合、左方向には、投影特徴点Q95’と分岐点P93との間に他の投影特徴点が存在しないため、左方向に進んだ場合、副距離が存在しないという情報が道のり情報に付加される。また、右方向の道のりとして、投影特徴点Q95’と投影特徴点Q91との間の道のり(第2次副距離)が算出され、道のり情報に方向情報が付加される。
【0192】
投影特徴点Q95’’を起算点とした場合、左方向の道のりとして、投影特徴点Q95’’と投影特徴点Q99との間の道のり(−1次副距離)が算出され、道のり情報に方向情報が付加される。なお、この−1次副距離として、投影特徴点Q95’’を基点として左方向に隆線R97を探索し、最初にぶつかった投影特徴点Q99との間の道のりを算出するようにしている。また、右方向には、投影特徴点Q95’’と分岐点P97との間に他の投影特徴点が存在しないため、右方向に進んだ場合、副距離が存在しないという情報が道のり情報に付加される。
【0193】
投影特徴点Q95’’’を起算点とした場合、左方向の道のりとして、投影特徴点Q95’’’と投影特徴点Q101との間の道のり(−2次副距離)が算出され、道のり情報に方向情報が付加される。また、右方向の道のりとして、投影特徴点Q95’’’と投影特徴点Q97’との間の道のり(−2次副距離)が算出され、道のり情報に方向情報が付加される。
【0194】
このように、道のり情報に方向情報を付加することにより、同一次数の隆線において、複数の道のり情報を持つことが可能となる。
なお、隆線構造によっては、副距離が求められない場合がある。副距離が求められない理由に、
(1)注目特徴点または計測起点から他の特徴点までの道のり上に投影特徴点が存在しない。
【0195】
(2)隆線構造が正しく求められていないため、明らかに正しく副距離が求められない。これは、隆線に亀裂が多発していたり、癒着の影響で隆線が網の目状になっている場合に発生する。
【0196】
これらの原因で副距離が求められない場合もその理由を隆線接続関係情報とする。
指紋登録時は、上記の隆線接続関係情報を抽出し、指紋登録データとして記録する。
【0197】
また、主距離・副距離の方向情報を隆線接続関係情報に用いた場合は、その一致も確認する。方向情報が一致した場合のみ配点を与えるものとする。主距離・副距離が、何らかの理由で求められない場合は、その求められない理由が一致した場合も、配点を与えるようにしてもよい。以上のようにして、各n次における主距離・副距離の一致具合を調べ、隆線接続関係一致度を求めることが可能となる。
【0198】
以下、第5実施例の指紋登録方法について説明する。
図15において、まず、指紋センサ61などを用いることにより、指紋画像データを取得する。次に、画像二値化部63は、得られた指紋画像を二値化し、指紋二値化画像を得る。次に、画像細線化部64は、指紋二値化画像を細線化し、指紋細線化画像を得る。次に、特徴点抽出部65は、指紋細線化画像より、指紋特徴点位置を抽出する。抽出された指紋特徴点には、一般に誤特徴点が含まれている。そのため、誤特徴点除去部67は、得られた指紋特徴点から誤特徴点の除去を行う。誤特徴点部分は、指紋細線化画像の誤り(隆線の亀裂や連結)によって生じているので、指紋細線画像修正部68は、指紋細線化画像の修正を行う。
【0199】
次に、投影特徴点生成部69は、特徴点抽出部65で抽出された全ての特徴点に関する投影特徴点を生成する。次に、主距離・副距離情報抽出部70は、各特徴点毎に第n次主距離・第n次副距離(n=−m,…,−1,0,1,…,m)を計測する。ここで、主距離・副距離情報抽出部70は、各特徴点の1つの次数について、複数の主距離・副距離を算出することができる。例えば、図26に示すように、各主距離・副距離について、1つ、または2つの主距離情報と副距離情報が算出される。また、各主距離情報・副距離情報は、道のり計測起点から接続先特徴点・投影特徴点の方向情報も併せ持つ。そして、この主距離・副距離情報及び方向情報を指紋情報として、登録指紋情報記憶部72に保存する。
【0200】
次に、第5実施例の指紋照合方法について説明する。この第5実施例では、1つの次数について、複数の主距離・副距離の照合が行われる。
図15において、まず、指紋センサ61などを用いることにより、指紋画像データを取得する。次に、画像二値化部63は、得られた指紋画像を二値化し、指紋二値化画像を得る。次に、画像細線化部64は、指紋二値化画像を細線化し、指紋細線化画像を得る。次に、特徴点抽出部65は、指紋細線化画像より、指紋特徴点位置を抽出する。抽出された指紋特徴点には、一般に誤特徴点が含まれている。そのため、誤特徴点除去部67は、得られた指紋特徴点から誤特徴点の除去を行う。誤特徴点部分は、指紋細線化画像の誤り(隆線の亀裂や連結)によって生じているので、指紋細線画像修正部68は、指紋細線化画像の修正を行う。次に、投影特徴点生成部69は、特徴点抽出部65で抽出された全ての特徴点に関する投影特徴点を生成する。次に、主距離・副距離情報抽出部70は、各特徴点毎に第n次主距離・第n次副距離(n=−m,…,−1,0,1,…,m)及び方向を計測する。
【0201】
次に、登録指紋情報記憶部72に保存されている主距離・副距離情報及び方向情報を読み出す。そして、登録指紋と入力指紋の全ての特徴点の組み合わせにおいて、隆線接続関係一致度を計算し、それが予め決められた所定値を超える組み合わせの数をカウントする。ここで、隆線接続関係一致度の計算は、複数ある主距離/副距離の内、同じ方向情報を持つものを比較対象として算出する。なお、各特徴点の種類(端点・分岐点)が登録指紋と入力指紋との間で異なって検出されることを想定した隆線接続関係一致度の計算も行うようにしてもよい。
【0202】
次に、登録指紋と入力指紋中に存在する全特徴点数を調べ、同一特徴点数を全特徴点数で規格化し、指紋一致率を算出する。指紋一致率が所定の値を超えた場合、同一指紋とする。一方、指紋一致率が所定の値以下の場合、異なる指紋とする。
【0203】
このように、接続元特徴点、または、接続元投影特徴点から接続先投影特徴点への方向情報を、隆線接続関係情報に付加することにより、複数の接続先投影特徴点の情報を持つことができ、広範囲で精度の高い特徴点照合が達成される。
【0204】
なお、指紋中心座標、各特徴点の座標・種類・方向を指紋情報に付け加え、指紋照合の高速化、精度の向上化を図ってもよい。すなわち、指紋中心座標を用いて、登録指紋と入力指紋間のおおよその位置合わせを行っておく。そして、2つの特徴点間の隆線接続関係情報の照合を行う時、その特徴点の座標が所定の誤差より大きく離れていた場合は、隆線接続関係一致度に関わらず異なる特徴点と判断し、隆線接続関係一致度の計算を省略する。このようにすれば、照合時間の短縮化が図れる。また、二つの特徴点の照合を行う時、特徴点の種類や方向の照合も用いることにより、精度の高い照合が達成される。 隆線接続関係情報の副距離の代わりに、第n次投影特徴点数を用いてもよい。投影特徴点数を用いれば、登録指紋データの容量も小さくすることができる。
【0205】
次に、本発明の第6実施例に係わる指紋照合装置について説明する。
この第6実施例では、指紋登録時に記録する指紋情報を以下の通りとする。
1)各特徴点の第n次主距離(n=−m,…,−1,0,1,m)
ただし、特徴点で区切られた隆線一つにつき一つの主距離を記録するものとする。
【0206】
2)各特徴点の第n次主距離に用いた接続先特徴点自身の隆線接続関係情報
3)各特徴点の第n次副距離(n=−m,…,−1,0,1,m)
ただし、特徴点で区切られた隆線一つにつき一つの副距離を記録するものとする。
【0207】
4)各特徴点の第n次副距離に用いた接続先投影特徴点の投影元特徴点自身の隆線接続情報
そして、各特徴点の第n次主距離、第n次副距離、接続先特徴点の隆線接続関係情報及び投影元特徴点の隆線接続情報を比較することにより、指紋照合を行う。
【0208】
以下、第6実施例の指紋登録方法について説明する。
図15において、まず、指紋センサ61などを用いることにより、指紋画像データを取得する。次に、画像二値化部63は、得られた指紋画像を二値化し、指紋二値化画像を得る。次に、画像細線化部64は、指紋二値化画像を細線化し、指紋細線化画像を得る。次に、特徴点抽出部65は、指紋細線化画像より、指紋特徴点位置を抽出する。抽出された指紋特徴点には、一般に誤特徴点が含まれている。そのため、誤特徴点除去部67は、得られた指紋特徴点から誤特徴点の除去を行う。誤特徴点部分は、指紋細線化画像の誤り(隆線の亀裂や連結)によって生じているので、指紋細線画像修正部68は、指紋細線化画像の修正を行う。
【0209】
次に、投影特徴点生成部69は、特徴点抽出部65で抽出された全ての特徴点に関する投影特徴点を生成する。次に、主距離・副距離情報抽出部70は、各特徴点毎に第n次主距離・第n次副距離(n=−m,…,−1,0,1,…,m)を計測する。ここで、主距離・副距離情報抽出部70は、各特徴点ごとに第n次主距離、副距離を算出するとともに、その主距離・副距離の接続先特徴点/投影特徴点自身の隆線接続関係も算出することができる。そして、この主距離・副距離情報及びその主距離・副距離の接続先特徴点/投影特徴点自身の隆線接続関係を指紋情報として、登録指紋情報記憶部72に保存する。
【0210】
次に、第6実施例の指紋照合方法について説明する。この第6実施例では、2段階の隆線接続関係情報の照合が行われる。第1段階は、接続元特徴点/投影特徴点についての隆線接続関係の照合、第2段階は、接続先特徴点/投影特徴点についての隆線接続関係の照合である。
【0211】
図15において、まず、指紋センサ61などを用いることにより、指紋画像データを取得する。次に、画像二値化部63は、得られた指紋画像を二値化し、指紋二値化画像を得る。次に、画像細線化部64は、指紋二値化画像を細線化し、指紋細線化画像を得る。次に、特徴点抽出部65は、指紋細線化画像より、指紋特徴点位置を抽出する。抽出された指紋特徴点には、一般に誤特徴点が含まれている。そのため、誤特徴点除去部67は、得られた指紋特徴点から誤特徴点の除去を行う。誤特徴点部分は、指紋細線化画像の誤り(隆線の亀裂や連結)によって生じているので、指紋細線画像修正部68は、指紋細線化画像の修正を行う。次に、投影特徴点生成部69は、特徴点抽出部65で抽出された全ての特徴点に関する投影特徴点を生成する。次に、主距離・副距離情報抽出部70は、各特徴点毎に第n次主距離・第n次副距離(n=−m,…,−1,0,1,…,m)及びその主距離・副距離の接続先特徴点/投影特徴点自身の隆線接続関係を計測する。
【0212】
次に、登録指紋情報記憶部72に保存されている主距離・副距離情報及びその主距離・副距離の接続先特徴点/投影特徴点自身の隆線接続関係を読み出す。そして、登録指紋と入力指紋の全ての特徴点の組み合わせにおいて、隆線接続関係一致度を計算し、それが予め決められた所定値を超える組み合わせの数をカウントする。ここで、接続元特徴点/投影特徴点の隆線接続関係情報に加えて、接続先特徴点/投影特徴点の隆線接続関係情報も一致した場合、接続元特徴点/投影特徴点の隆線接続関係情報だけが一致した場合に比べて、隆線接続関係一致度の値をより高く設定する。なお、各特徴点の種類(端点・分岐点)が登録指紋と入力指紋との間で異なって検出されることを想定した隆線接続関係一致度の計算も行うようにしてもよい。
【0213】
次に、登録指紋と入力指紋中に存在する全特徴点数を調べ、同一特徴点数を全特徴点数で規格化し、指紋一致率を算出する。指紋一致率が所定の値を超えた場合、同一指紋とする。一方、指紋一致率が所定の値以下の場合、異なる指紋とする。
【0214】
このように、主距離・副距離の接続先の特徴点/投影特徴点自身の隆線接続関係も照合対象に加えることにより、1組の特徴点の照合を行うだけで、広範囲な隆線構造の照合を達成することができる。また、接続先投影特徴点の投影元特徴点自身の隆線接続関係情報を、接続元特徴点の隆線接続関係情報に加えることによって、広範囲な隆線構造の照合を簡単に達成することができる。
【0215】
また、指紋中心座標、各特徴点の座標・種類・方向を指紋情報にさらに付け加え、指紋照合の高速化、精度の向上化を図ってもよい。指紋中心座標を用いて、登録指紋と入力指紋間のおおよその位置合わせを行っておく。そして、二つの特徴点間の隆線接続関係情報の照合を行う時、その特徴点の座標が所定の誤差より大きく離れていた場合は、隆線接続関係一致度に関わらず異なる特徴点と判断し、隆線接続関係一致度の計算を省略する。このようにすれば、照合時間の短縮化が図れる。また、二つの特徴点の照合を行う時、特徴点の種類や方向の照合も用いることにより、精度の高い照合が達成される。
【0216】
隆線接続関係情報の副距離の代わりに、第n次投影特徴点数を用いてもよい。投影特徴点数を用いれば、登録指紋データの容量も小さくすることができる。
図28は、本発明の第7実施例に係わる指紋照合装置の構成を示すブロック図である。
【0217】
この第7実施例では、指紋登録時に記録する指紋情報を以下の通りとする。
1)指紋の中心座標
2)各特徴点の種類
3)各特徴点の座標
4)各特徴点の方向
5)各特徴点の第n次主距離(n=−m,…,−1,0,1,…,m)
ただし、特徴点で区切られた隆線一つにつき、一つの主距離を記録するものとする。
【0218】
6)各特徴点の第n次副距離(n=−m,…,−1,0,1,…,m)
ただし、特徴点で区切られた隆線一つにつき、一つの副距離を記録するものとする。
【0219】
図28において、指紋センサ81は、人間または動物の指から指紋画像データを採取する。画像記憶部82は、指紋センサ81により採取された指紋画像データを保持したり、画像処理を行った画像データを保持したりする。画像二値化部83は、画像記憶部82に格納されている多値画像を二値画像に変換する。画像細線化部84は、画像二値化部83で二値化された二値画像を細線化し、指紋隆線の細線画像データを生成する。特徴点抽出部85は、指紋細線画像より特徴点位置を検出し、その結果を特徴点・投影特徴点位置記憶部86に保持する。特徴点・投影特徴点位置記憶部86は、特徴点抽出部85で抽出された特徴点位置を保持するとともに、投影特徴点生成部89で生成された投影特徴点の位置情報を記憶する。誤特徴点除去部87は、指紋細線画像と抽出された特徴点から誤特徴点を検出することにより、特徴点・投影特徴点位置記憶部86から誤特徴点情報を取り除く。また、指紋細線画像修正部88に誤特徴点情報を伝達する。指紋細線画像修正部88は、誤特徴点除去部87から送られた誤特徴点情報により、指紋細線画像の修正を行う。
【0220】
投影特徴点生成部89は、誤特徴点が除かれた修正指紋細線画像と特徴点位置とから全特徴点に関する投影特徴点を生成する。主距離・副距離情報抽出部90は、画像記憶部82に保持されている指紋細線画像と特徴点・投影特徴点位置記憶部86に保持されている特徴点・投影特徴点位置から、各特徴点の隆線接続関係情報(指紋情報)を取得し、指紋情報記憶部93に出力する。
【0221】
指紋中心位置検出部91は、指紋画像より指紋中心位置を検出する。特徴点情報検出部92は、各特徴点の座標・種類・方向についての特徴点情報を検出する。
【0222】
指紋情報記憶部93は、主距離・副距離情報抽出部90で抽出された各特徴点及び投影特徴点の隆線接続関係情報に加え、各特徴点の座標・種類・方向についての特徴点情報を記憶する。登録指紋情報記憶部94は、指紋照合装置に登録された指紋の指紋情報を保持する。指紋照合部95は、入力指紋より得られた指紋情報と登録指紋情報記憶部94に記憶されている登録指紋の指紋情報とを照合し、指紋照合結果を照合結果表示部96に伝達する。照合結果表示部96は、ディスプレイや音声などで指紋照合装置利用者に指紋照合結果を伝達する。
【0223】
図29(a)は、登録指紋画像を示す図である。
図29(a)において、登録対象となる指紋は、隆線R111〜R120を備えている。ここで、隆線R111は隆線R113と分岐点P111で接続している。隆線R112は隆線R113と分岐点P113で接続し、端点P112で途切れている。隆線R114は隆線R115と分岐点P115で接続し、端点P114で途切れている。隆線R116は隆線R117と分岐点P116で接続している。隆線R117は隆線R118と分岐点P117で接続している。そして、分岐点P111、P113、P115、P116、P117及び端点P112、P114が指紋画像から抽出され、指紋中心C1を基準とした時の位置及び方向が、特徴点の種類とともに登録される。
【0224】
また、分岐点P111、P113、P115、P116、P117及び端点P112、P114についての隆線接続関係や、これらの特徴点及び投影特徴点についての隆線接続関係も登録される。
【0225】
図29(b)は、入力指紋画像を示す図である。
図29(b)において、照合対象となる指紋は、隆線R111’〜R120’を備えている。ここで、隆線R111’は隆線R113’と分岐点P111’で接続している。隆線R112’は隆線R113’と分岐点P113’で接続し、端点P112’で途切れている。隆線R114’は隆線R115’と分岐点P11’5で接続し、端点P114’で途切れている。隆線R116’は隆線R117’と分岐点P116’で接続している。隆線R117’は隆線R118’と分岐点P117で接続している。
【0226】
このように、登録指紋画像の範囲と入力指紋画像の範囲とは異なっていることから、登録指紋画像と入力指紋画像との共有領域100を切り出す。そして、この共有領域100について、指紋照合を行う。
【0227】
すなわち、この共有領域100において、分岐点P111’、P113’、P115’、分岐点P116’、P117’及び端点P112’、P114’が入力指紋画像から抽出され、入力指紋画像から抽出されたこれらの特徴点について、指紋中心C1’を基準とした時の位置及び方向が算出される。
【0228】
また、分岐点P111’、P113’、P115’、P116’、P117’及び端点P112’、P114’についての隆線接続関係や、これらの特徴点及び投影特徴点についての隆線接続関係も算出される。
【0229】
そして、分岐点P111、P113、P115、P116、P117及び端点P112、P114に関する種類・位置・方向及び隆線接続関係が、分岐点P111’、P113’、P115’、P116’、P117’及び端点P112’、P114’に関する種類・位置・方向及び隆線接続関係と一致するかどうかを調べることにより、図29(a)の登録指紋画像と図29(b)の入力指紋画像とを照合する。
【0230】
以下、第7実施例の指紋登録処理を説明する。
図30は、図28の指紋照合装置の指紋登録処理を示すフローチャートである。
【0231】
図30において、まず、指紋センサ81などを用いることにより、指紋画像データを取得する(ステップS150)。次に、画像二値化部83は、得られた指紋画像を二値化し、指紋二値化画像を得る(ステップS151)。次に、画像細線化部84は、指紋二値化画像を細線化し、指紋細線化画像を得る(ステップS152)。次に、特徴点抽出部85は、指紋細線化画像より、指紋特徴点位置を抽出する(ステップS153)。抽出された指紋特徴点には、一般に誤特徴点が含まれている。そのため、誤特徴点除去部87は、得られた指紋特徴点から誤特徴点の除去を行う(ステップS154)。誤特徴点部分は、指紋細線化画像の誤り(隆線の亀裂や連結)によって生じているので、指紋細線画像修正部88は、指紋細線化画像の修正を行う(ステップS155)。
【0232】
次に、投影特徴点生成部89は、特徴点抽出部85で抽出された全ての特徴点に関する投影特徴点を生成する(ステップS156)。次に、指紋中心位置検出部91は、指紋中心位置を検出する(ステップS157)。次に、特徴点情報検出部92は、各特徴点の特徴点情報(座標・種類・方向)を検出する(ステップS158)。次に、主距離・副距離情報抽出部90は、各特徴点毎に第n次主距離・第n次副距離(n=−m,…,−1,0,1,…,m)を計測する(ステップS159)。すなわち、指紋情報は全部で、指紋中心位置情報、各特徴点毎の特徴点情報、各特徴点毎の第n次主距離・副距離情報となる。そして、これらの指紋情報を登録指紋情報記憶部94に保存する(ステップS160)。
【0233】
次に、第7実施例の指紋照合方法について説明する。
図31及び図32は、図28の指紋照合装置の指紋照合処理を示すフローチャートである。
【0234】
図31において、まず、指紋センサ81などを用いることにより、指紋画像データを取得する(ステップS161)。次に、画像二値化部83は、得られた指紋画像を二値化し、指紋二値化画像を得る(ステップS162)。次に、画像細線化部84は、指紋二値化画像を細線化し、指紋細線化画像を得る(ステップS163)。次に、特徴点抽出部85は、指紋細線化画像より、指紋特徴点位置を抽出する(ステップS164)。抽出された指紋特徴点には、一般に誤特徴点が含まれている。そのため、誤特徴点除去部87は、得られた指紋特徴点から誤特徴点の除去を行う(ステップS165)。誤特徴点部分は、指紋細線化画像の誤り(隆線の亀裂や連結)によって生じているので、指紋細線画像修正部88は、指紋細線化画像の修正を行う(ステップS166)。次に、投影特徴点生成部89は、特徴点抽出部85で抽出された全ての特徴点に関する投影特徴点を生成する(ステップS167)。
【0235】
次に、指紋中心位置検出部91は、指紋中心位置を検出する(ステップS168)。次に、特徴点情報検出部92は、各特徴点の特徴点情報(座標・種類・方向)を検出する(ステップS169)。次に、主距離・副距離情報抽出部90は、各特徴点毎に第n次主距離・第n次副距離(n=−m,…,−1,0,1,…,m)を計測する(ステップS170)。
【0236】
次に、登録指紋情報記憶部94に保存されている指紋情報を読み出し(ステップS171)、登録指紋と入力指紋のそれぞれにおいて、指紋中心に近い特徴点を1つずつ選ぶ。そして、選んだ特徴点の位置を一致させることにより、指紋の位置合わせを行う(ステップS172)。ここで、指紋の位置合わせに特徴点を用いるのは、指紋中心は測定の度にずれる場合があるからである。
【0237】
次に、登録指紋と入力指紋との特徴点の全ての組み合わせの中から、特徴点間の距離が所定値以下の特徴点を選択する。そして、選択した特徴点の全ての組み合わせについて、隆線接続関係一致度を計算する(ステップS173)。
【0238】
次に、図32において、隆線接続関係一致度が所定値を超える特徴点対の数を数える(ステップS174)。次に、隆線接続関係一致度が所定値を超えなかった特徴点対に対し、特徴点間の距離が所定値(上記の特徴点間距離による隆線接続関係一致度の計算対象の削減に用いた所定値より小さな値)以下、かつ、特徴点の種類が同じ、かつ、方向の差が所定値以下の条件を満たす特徴点対の数を数える(ステップS175)。次に、登録指紋と入力指紋の共有領域内に存在する全特徴点の数を数える。そして、同一特徴点数と共有領域内の全特徴点数により、登録指紋と入力指紋との指紋一致度を計算する(ステップS176)。
【0239】
指紋一致率が所定値を超えた場合(ステップS177)、登録指紋と入力指紋とは、同一指紋であると判断する(ステップS178)。指紋一致率が所定値を超えない場合、位置合わせの再調整の回数が所定の回数を超えたかどうかを判断する(ステップS179)。そして、位置合わせの再調整の回数が所定の回数を超えた場合、登録指紋と入力指紋は異指紋と判断する(ステップS180)。
【0240】
一方、位置合わせの再調整の回数が所定の回数以下の場合、登録指紋と入力指紋とにおいて、指紋中心に近い特徴点の組を新たに選択することにより、位置合わせに用いる特徴点の組み合わせを変更し、位置合わせを再度行う(ステップS181)。そして、ステップS173に戻り、指紋一致率を再び計算する。
【0241】
なお、隆線接続関係情報の副距離の代わりに、第n次投影特徴点数を用いてもよい。投影特徴点数を用いれば、登録指紋データの容量を小さくすることができる。
【0242】
以上、本発明の実施例について説明したが、本発明は上述した実施例に限定されることなく、本発明の技術的思想の範囲内で他の様々の変更が可能である。例えば、上述した実施例では、指紋照合を例にとって説明したが、血管分布の照合や文字認識などを行う場合に適用してもよい。
【0243】
また、特徴点の種類として、端点と分岐点を例に取って説明したが、隆線が途中で折れ曲がった屈曲点などを特徴点として抽出するようにしてもよい。
また、上述した実施例では、隆線に沿った道のりを特徴点情報として用いる場合について説明したが、道のりを距離に置き換えるようにしてもよい。このことにより、隆線に沿った道のりの計測が直線距離の計測になり、簡単に隆線接続関係情報を作成することができる。
【0244】
また、上述した実施例では、特徴点で区切られた隆線上の一つの区間について、一つの主距離または副距離を記録する場合について説明したが、特徴点で区切られた隆線上の一つの区間に対し、複数の主距離または副距離を記録するようにしてもよい。
【0245】
【発明の効果】
以上説明したように、本発明によれば、隆線に対する特徴点の配置状態に基づいて、指紋照合を行うことにより、指の皮膚の部分的な伸び縮みや回転などにより指紋に歪みが発生した場合においても、高精度な指紋照合を安定して行うことが可能となる。
【0246】
また、本発明の一態様によれば、隆線上に設定された仮想的な特徴点の指紋情報に基づいて、指紋照合を行うことにより、採取された指紋の隆線構造を変化させることなく、指紋を特定する手がかりとなる情報を増やすことが可能となり、高精度な指紋照合を安定して行うことが可能となる。
【0247】
また、本発明の一態様によれば、隆線上に実在する特徴点を他の隆線上に投影することにより、2次元的な隆線構造を、隆線上で1次元的に表現するすることが可能となり、隆線上を1次元的にたどるだけで、2次元的な隆線構造の特徴を把握することがが可能となることから、高精度な指紋照合を高速に行うことが可能となる。
【0248】
また、本発明の一態様によれば、特徴点あるい仮想的な特徴点の位置で隆線を区切った時の隆線の長さに基づいて指紋照合を行うことにより、指紋に歪みが発生した場合においても、元の指紋の特徴を保存することが可能となり、高精度な指紋照合を安定して行うことが可能となる。
【0249】
また、本発明の一態様によれば、隆線上の特徴点あるい仮想的な特徴点の間の距離に基づいて、指紋照合を行うことにより、隆線に沿った道のりの計測が直線距離の計測になり、指紋情報を生成する際の演算を簡単にすることが可能となる。
【0250】
また、本発明の一態様によれば、隆線上の特徴点あるいは仮想的な特徴点への接続方向に基づいて、指紋照合を行うことにより、特徴点あるいは仮想的な特徴点を基準とした複数方向への接続状態を考慮しながら、指紋照合を行うことが可能となり、指紋照合を精度よく行うことが可能となる。
【0251】
また、本発明の一態様によれば、隆線上に存在している特徴点及び仮想的な特徴点の個数に基づいて、指紋照合を行うことにより、指紋照合を安定して高速に行うことが可能となる。
【0252】
また、本発明の一態様によれば、隆線上に存在している特徴点の種類に基づいて、指紋照合を行うことにより、指紋照合を安定して行うことが可能となるとともに、特徴点及び仮想的な特徴点の個数だけを用いて指紋照合を行う場合に比べて、照合精度をより向上させることが可能となる。
【0253】
また、本発明の一態様によれば、隆線の接続先の投影特徴点に対する投影元特徴点の種類を、投影特徴点の種類情報とすることにより、仮想的な特徴点の種類情報も考慮した指紋照合を行うことが可能となる。
【0254】
また、本発明の一態様によれば、特徴点及び仮想的な特徴点の隆線上への配列順序に基づいて指紋照合を行うことにより、照合精度をより向上させることが可能となる。
【0255】
また、本発明の一態様によれば、隆線上の特徴点の種類を仮想的に変更することにより、特徴点の種類の検出が不安定な場合においても、指紋照合を正確に行うことが可能となる。
【0256】
また、本発明の一態様によれば、隆線の端点と投影点とを統合して分岐点を生成することにより、分岐点を端点と間違えて検出した場合においても、元の隆線構造を考慮した指紋照合を行うことが可能となり、指紋照合を安定して行うことが可能となる。
【0257】
また、本発明の一態様によれば、特徴点と特徴点との間の道のりと、特徴点と仮想的な特徴点との間の道のりとを比較することにより、接続先の特徴点または仮想的な特徴点の種類が誤って検出された場合においても、道のりを比較することが可能となり、指紋照合を安定して行うことが可能となる。
【0258】
また、本発明の一態様によれば、隆線を分岐点で分離して端点と投影点とを生成することにより、端点を分岐点と間違えて検出した場合においても、元の隆線構造を考慮した指紋照合を行うことが可能となり、指紋照合を安定して行うことが可能となる。
【0259】
また、本発明の一態様によれば、仮想的な特徴点と特徴点との間の道のりと、仮想的な特徴点と他の仮想的な特徴点との間の道のりを比較することにより、接続先の特徴点または仮想的な特徴点の種類が誤って検出された場合においても、道のりを比較することが可能となり、指紋照合を安定して行うことが可能となる。
【0260】
また、本発明の一態様によれば、異なる隆線上の特徴点の指紋情報を比較することにより、道のりを算出する起点となる特徴点の種類が誤って検出された場合においても、指紋情報を比較することが可能となり、指紋照合を精度良く行うことが可能となる。
【0261】
また、本発明の一態様によれば、同一隆線上の道のりを比較することで特徴点が一致するかどうかを判定することにより、指紋が歪んだ場合においても、特徴点の照合を安定して行うことが可能となる。 また、本発明の一態様によれば、異なる隆線上の道のり情報を指紋情報に付加することにより、未接続の隆線構造も考慮して1つの特徴点の照合を行うことが可能となり、特徴点の照合を精度良く行うことが可能となる。
【0262】
また、本発明の一態様によれば、1つの特徴点の照合を行う際に、照合対象となる特徴点と関係する他の特徴点または投影元特徴点の指紋情報を考慮することにより、広範囲の隆線構造を考慮することが可能となり、特徴点の照合を精度良く行うことが可能となる。
【0263】
また、本発明の一態様によれば、特徴点の隆線接続状態が求められない理由を隆線接続状態に含めることにより、後の照合で隆線接続状態が求められた時、その正当性を考慮した特徴点の照合を行うことが可能となる。
【0264】
また、本発明の一態様によれば、複数の評価基準を設けることにより、皮膚の伸び縮みや回転による照合困難性と隆線の亀裂・癒着による照合困難性の両方の照合困難性に対応することができる。
【0265】
また、本発明の一態様によれば、隆線の谷線部と山線部とを反転させることにより、端点と分岐点の位置を逆転することができ、例えば、端点についての画像処理機能を備えるだけで、分岐点の画像処理を実行できるようになる。
【図面の簡単な説明】
【図1】本発明の第1実施例に係わる指紋照合装置の構成を示すブロック図である。
【図2】本発明の第2実施例に係わる指紋照合装置の構成を示すブロック図である。
【図3】本発明の一実施例に係わる指紋の特徴点の分布を示す図である。
【図4】(a)は、本発明の一実施例に係わる投影特徴点の生成方法を説明する図、(b)は、投影特徴点の生成方向を示す図である。
【図5】(a)は、隆線上の第0次距離の例を示す図、(b)は、隆線上の第1次距離の例を示す図、(c)は道のりの算出方法を説明する図である。
【図6】指紋に歪みが発生した時に、道のりがどのように変化するかを説明する図である。
【図7】本発明の一実施例に係わる指紋照合装置のシステム構成を示すブロック図である。
【図8】本発明の第3実施例に係わる指紋照合装置の構成を示すブロック図である。
【図9】端点を基準とした時の主距離の算出方法を説明する図である。
【図10】分岐点を基準とした時の主距離の算出方法を説明する図である。
【図11】図8の指紋照合装置の指紋登録処理を示すフローチャートである。
【図12】図8の指紋照合装置の特徴点を計測起点とした時の道のり算出処理を示すフローチャートである。
【図13】図8の指紋照合装置の投影特徴点を計測起点とした時の道のり算出処理を示すフローチャートである。
【図14】図8の指紋照合装置の指紋照合処理を示すフローチャートである。
【図15】本発明の第4実施例に係わる指紋照合装置の構成を示すブロック図である。
【図16】端点を基準とした時の副距離の算出方法を説明する図である。
【図17】分岐点を基準とした時の副距離の算出方法を説明する図である。
【図18】図15の指紋照合装置の指紋登録処理を示すフローチャートである。
【図19】図15の指紋照合装置の特徴点を計測起点とした時の道のり算出処理を示すフローチャートである。
【図20】図15の指紋照合装置の投影特徴点を計測起点とした時の道のり算出処理を示すフローチャートである。
【図21】図15の指紋照合装置の指紋照合処理を示すフローチャートである。
【図22】特徴点の種類が変化した時の主距離と副距離の変化を説明する図である。
【図23】接続先特徴点の種類の誤検出を考慮した指紋照合処理を示すフローチャートである。
【図24】端点を分岐点と間違えて検出した時の次数の変化を説明する図である。
【図25】接続元特徴点の種類の誤検出を考慮した指紋照合処理を示すフローチャートである。
【図26】主距離に方向情報を付加した例を説明する図である。
【図27】副距離に方向情報を付加した例を説明する図である。
【図28】本発明の第7実施例に係わる指紋照合装置の構成を示すブロック図である。
【図29】(a)は登録指紋画像を示す図、(b)は入力指紋画像を示す図である。
【図30】図28の指紋照合装置の指紋登録処理を示すフローチャートである。
【図31】図28の指紋照合装置の指紋照合処理を示すフローチャートである。
【図32】図28の指紋照合装置の指紋照合処理を示すフローチャートである(図31の続き)。
【図33】従来の指紋登録処理及び指紋照合処理を示すフローチャートである。
【符号の説明】
1、11 指紋データ入力手段
2 隆線抽出手段
3 特徴点抽出手段
4 配置状態検出手段
5、14 照合手段
12 仮想特徴点設定手段
13 指紋情報算出手段
21 CPU
22 ROM
23 RAM
24 入出力インターフェイス
25 ディスプレイ
26 プリンタ
27 メモリ
28 スキャナ
29 通信インターフェイス
30 通信ネットワーク
31 ドライバ
32 ハードディスク
33 ICメモリカード
34 磁気テープ
35 フロッピーディスク
36 光ディスク
37 バス
38 キーボード
41、61、81 指紋センサ
42、62、82 画像記憶部
43、63、83 画像二値化部
44、64、84 画像細線化部
45、65、85 特徴点抽出部
46 特徴点位置記憶部
47、67、87 誤特徴点除去部
48、68、88 指紋細線画像修正部
49 主距離情報抽出部
50、71、93 指紋情報記憶部
51、72、94 登録指紋情報記憶部
52、73、95 指紋照合部
53、74、96 照合結果表示部
66、86 特徴点・投影特徴点位置記憶部
69、89 投影特徴点生成部
70、90 主距離・副距離情報抽出部
91 指紋中心位置検出部
92 特徴点情報検出部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a fingerprint registration device, a fingerprint collation device, and a fingerprint collation method, and is particularly suitable for application when identifying an individual.
[0002]
[Prior art]
In recent years, with the introduction of computers into a wide range of social systems, there has been an interest in system security. For example, there is a method of using an ID card or a password as an identity verification means when entering a computer room or using a terminal. However, these methods have problems in terms of security.
[0003]
Therefore, instead of using an ID card or a password, a personal verification technique using biometric information is required. If biometric information unique to each individual is used for personal verification, a person other than the person cannot have the biometric information, so that the person can be reliably assured.
[0004]
Biometric information that can be used for personal verification includes fingerprints, voiceprints, iris / retinal blood vessel distribution maps / signs, and the like. Such biological information is converted into electronic information such as images by various sensors such as a CCD camera. Thereafter, various information processing is performed on the biometric information obtained by the sensor, and information that is a key necessary for biometric matching is extracted. Thereafter, the biometric key information of each individual registered in advance and the input biometric key information are collated to perform personal authentication.
[0005]
Hereinafter, a fingerprint will be described as an example of biometric information.
Fingerprints are considered to be the most powerful means of identity verification because they have two major characteristics: “everyone's unidentified” and “lifetime unchanged”. For this reason, much research and development has been conducted on a simple personal verification system using fingerprints.
[0006]
The human fingertip has fine irregularities. A series of protrusions is called a ridge. The ridges form various patterns that are unique to individuals. As you follow the ridges, you will encounter points that split in two (branch points) and dead ends (end points). Since the distribution of branch points and end points is different for each individual, these points are called fingerprint feature points. The feature points are used as an effective means for specifying an individual. In the field of criminal investigation, it has been established in court precedent that it can be identified as the person when 12 or more of these feature points match. In fingerprint collation, whether or not the same fingerprints are the same is checked by checking whether the positions, types, and directions of these feature points match.
[0007]
FIG. 33 is a flowchart showing conventional fingerprint registration processing and fingerprint collation processing.
In the fingerprint registration process, first, a fingerprint image to be registered is collected by a fingerprint sensor (step S191), and the collected fingerprint image is binarized (step S192).
[0008]
Next, the binarized fingerprint image is thinned (step S193), and a fingerprint fine line image having a ridge width of one pixel is obtained.
Next, by identifying the position of the feature point of the fingerprint on the fingerprint thin line image, the feature point of the fingerprint is extracted from the fingerprint thin line image (step S194). Since the extracted feature points generally include erroneous feature points, erroneous feature points are removed (step S195). In this feature point removal, when two end points face each other at a short interval, it is considered that the original ridge was interrupted during image acquisition, and the ridge between them is restored. To remove the two endpoints. In addition, if two parallel ridges are joined at one point in the middle to become a branching point, this branching point is considered to have adhered in the middle of image acquisition, and by separating the stuck ridges Remove the branch point.
[0009]
Next, fingerprint information of each feature point extracted from the fingerprint image is collected (step S196) and stored in the fingerprint data registration unit 110 as registered fingerprint data.
In the fingerprint collation process, a fingerprint image to be collated is collected by a fingerprint sensor (step S197), and the collected fingerprint image is binarized (step S198).
[0010]
Next, the binarized fingerprint image is thinned (step S199) to obtain a fingerprint thin line image having a ridge width of one pixel.
Next, the feature point of the fingerprint is extracted from the fingerprint thin line image by specifying the feature point position of the fingerprint on the fingerprint thin line image (step S200). Since the extracted feature points generally include erroneous feature points, erroneous feature points are removed (step S201).
[0011]
Next, fingerprint information of each feature point extracted from the fingerprint image is collected (step S202). Then, the registered fingerprint data is read from the fingerprint data registration unit 101, and the input fingerprint image and the registered fingerprint image are aligned (step S203).
[0012]
Next, by comparing the fingerprint information of the input fingerprint image with the fingerprint registration data read from the fingerprint data registration unit 101, the input fingerprint image and the registered fingerprint image are collated. That is, the number of feature points with matching fingerprint information is counted between the input fingerprint image and the registered fingerprint image (step S204), and the number of feature points with matching fingerprint information exceeds a predetermined value. (Step S205), it is determined that the fingerprint of the registered fingerprint image and the fingerprint of the input fingerprint image are the same fingerprint (Step S106). On the other hand, if the number of feature points that match the fingerprint information is less than a predetermined value (step S205), it is determined that the fingerprint of the registered fingerprint image is different from the fingerprint of the input fingerprint image (step S207). .
[0013]
Here, as the feature point information of the feature points, the position (coordinates), type, and direction of each feature point are generally used. Then, by checking whether the position, type and direction of each feature point match between the input fingerprint image and the registered fingerprint image, it is determined whether or not they are the same fingerprint.
[0014]
[Problems to be solved by the invention]
However, a high collation rate cannot be expected by comparing only the position, type, and direction of feature points. This is because the fingerprint skin is distorted each time a fingerprint image is collected due to partial expansion / contraction and rotation of the finger skin, and the position and direction of the feature points differ slightly. In addition, the endpoint / branch point is determined each time a fingerprint image is taken due to the way the finger is placed on the fingerprint sensor, excessive pressing of the finger against the fingerprint sensor, dirt on the fingerprint sensor, or a thick finger. There is also a problem that the verification rate is lowered due to instability.
[0015]
Accordingly, an object of the present invention is to provide a fingerprint collation apparatus and a fingerprint collation method capable of stably performing high-precision fingerprint collation.
[0016]
[Means for Solving the Problems]
In order to solve the above-described problem, according to the present invention, feature points on a ridge are extracted from fingerprint data, and fingerprint matching is performed based on the arrangement state of the feature points with respect to the ridge.
[0017]
As a result, even when the fingerprint is distorted due to partial stretching, rotation, or rotation of the finger skin, the arrangement state of the feature points on the ridges does not change. Can be done.
[0018]
According to one aspect of the present invention, a virtual feature point is set on a ridge extracted from fingerprint data, and fingerprint matching is performed based on fingerprint information of the virtual feature point. .
[0019]
As a result, it is possible to increase information used as a clue to specify a fingerprint without changing the ridge structure of the collected fingerprint, and it is possible to stably perform high-precision fingerprint matching.
[0020]
Further, according to one aspect of the present invention, virtual feature points are generated on ridges by projecting feature points that are actually present on ridges onto other ridges.
As a result, a two-dimensional ridge structure can be reflected on a specific ridge, and a fingerprint can be specified by performing a one-dimensional search on the ridge. High-precision fingerprint collation can be performed at high speed.
[0021]
Further, according to one aspect of the present invention, fingerprint collation is performed based on a path between feature points on the ridge or virtual feature points.
This makes it possible to perform fingerprint matching based on the length of the ridge when the ridge is divided at the position of the feature point or virtual feature point, and the feature point or virtual feature point Since the length of the ridge when the ridge is divided at the position is almost unchanged even when the fingerprint is distorted, highly accurate fingerprint collation can be performed stably.
[0022]
In addition, according to one aspect of the present invention, fingerprint matching is performed based on the distance between feature points on the ridge or virtual feature points.
As a result, the measurement of the road along the ridge becomes the measurement of the linear distance, and the calculation when generating fingerprint information can be simplified.
[0023]
Further, according to one aspect of the present invention, fingerprint collation is performed based on the connection direction to the feature point on the ridge or the virtual feature point.
As a result, fingerprint collation can be performed while considering connection states in a plurality of directions with reference to feature points or virtual feature points, and fingerprint collation can be performed with high accuracy.
[0024]
According to one aspect of the present invention, fingerprint matching is performed based on the number of feature points and virtual feature points existing on the ridge.
As a result, since the number of feature points and virtual feature points existing on the ridge does not change even when the fingerprint is distorted, fingerprint matching can be performed stably. Since the number of feature points and virtual feature points can be easily calculated, fingerprint matching can be performed at high speed.
[0025]
According to one aspect of the present invention, fingerprint matching is performed based on the types of feature points present on the ridge.
As a result, the types of feature points present on the ridges hardly change even when the fingerprint is distorted, so that fingerprint matching can be performed stably, and the feature points and virtual points Compared with the case where fingerprint collation is performed using only the number of characteristic feature points, collation accuracy can be further improved. Further, according to one aspect of the present invention, fingerprint collation is performed based on the type information of the projection source feature point with respect to the projection feature point to which the ridge is connected.
[0026]
This makes it possible to add type information to virtual feature points, and to perform fingerprint matching in consideration of virtual feature point type information. It becomes possible. Further, according to one aspect of the present invention, fingerprint matching is performed based on the arrangement order of feature points and virtual feature points on a ridge.
[0027]
As a result, the arrangement order of the feature points and the virtual feature points existing on the ridge does not change even when the fingerprint is distorted, so that fingerprint matching can be performed stably. At the same time, it is possible to further improve the collation accuracy as compared with the case where fingerprint collation is performed using the number and types of feature points and virtual feature points.
[0028]
Moreover, according to one aspect of the present invention, the type of feature points on the ridge is virtually changed.
This makes it possible to accurately perform fingerprint collation even when detection of the type of feature point is unstable.
[0029]
Further, according to one aspect of the present invention, a virtual branch point is generated on the ridge by integrating the end point of the ridge and the projection point corresponding to the end point.
As a result, since the ridge has cracked due to the difference in the finger pressure to the fingerprint sensor, etc., even when the branch point is mistakenly detected as an end point, the original ridge structure is restored and fingerprint verification is performed. Therefore, fingerprint collation can be performed stably.
[0030]
In addition, according to one aspect of the present invention, fingerprint collation is performed by comparing a route from a feature point to another feature point and a route from the feature point to a virtual feature point. .
[0031]
As a result, when feature points that originally existed on the same ridge are extracted as existing on different ridges, or feature points that originally existed on different ridges, Even when extracted as existing, it is possible to compare the distances between the feature points, and to perform fingerprint collation stably.
[0032]
In addition, according to one aspect of the present invention, virtual end points and projection points corresponding to the end points are generated by separating ridges at branch points.
As a result, the ridges are fused due to differences in the finger pressure to the fingerprint sensor, etc., and even when the end points are mistakenly detected as branch points, the original ridge structure can be restored to perform fingerprint verification. It becomes possible, and fingerprint collation can be performed stably.
[0033]
In addition, according to one aspect of the present invention, by comparing a path from a virtual feature point to another feature point and a path from the virtual feature point to another virtual feature point, Fingerprint verification is performed.
[0034]
As a result, when feature points that originally existed on the same ridge and virtual feature points are extracted as existing on different ridges, or feature points that originally existed on different ridges. And virtual feature points are extracted as existing on the same ridge, the path between these feature points and virtual feature points can be compared, and fingerprint verification Can be performed stably.
[0035]
In addition, according to one aspect of the present invention, fingerprint information of feature points on different ridges is compared.
This makes it possible to compare fingerprint information even when the number of ridges increases or decreases due to cracks in the ridges or adhesion of ridges, and fingerprint collation can be performed with high accuracy.
[0036]
According to another aspect of the present invention, a path to another feature point on the first ridge or a virtual feature point on the first ridge is calculated based on the feature point on the first ridge. Like to do.
[0037]
This makes it possible to determine whether the feature points match by comparing the roads on the ridge, and the road on the ridge hardly changes even when the fingerprint is distorted. Verification can be performed stably.
[0038]
According to one aspect of the present invention, a virtual feature point is generated on the second ridge corresponding to the feature point on the first ridge, and the second feature is used based on the virtual feature point. The path to the feature point on the ridge of the second or another virtual feature point on the second ridge is calculated.
[0039]
This makes it possible to add the fingerprint information on the second ridge to the fingerprint information on the feature point on the first ridge, and check one feature point in consideration of the unconnected ridge structure. Therefore, the feature points can be collated with high accuracy.
[0040]
Also, according to one aspect of the present invention, it is determined whether or not the feature points match based on the fingerprint information of another feature point related to the feature point to be collated or the projection source feature point. Yes.
[0041]
Accordingly, when collating one feature point, it is possible to consider a wide range of ridge structures, and it is possible to accurately collate feature points.
Further, according to one aspect of the present invention, the reason why the ridge connection state of the feature point is not obtained is extracted, and the reason is included in the ridge connection state.
[0042]
As a result, when the ridge connection state is obtained in the subsequent collation, it is possible to collate the feature points in consideration of the validity.
In addition, according to one aspect of the present invention, each fingerprint information is weighted, and an evaluation method that focuses on matching of connection states of feature points, and an evaluation method that focuses on matching of the position, type, or direction of feature points Or use both evaluation methods.
[0043]
This makes it possible to provide a plurality of evaluation criteria, and to cope with both the difficulty of matching due to the expansion and contraction and rotation of the skin and the difficulty of matching due to cracks and adhesion of the ridges.
[0044]
Moreover, according to one aspect of the present invention, the valley line portion and the mountain line portion of the ridge are reversed.
As a result, the positions of the end points and the branch points can be reversed. For example, the image processing of the branch points can be executed only by providing an image processing function for the end points.
[0045]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing the configuration of the fingerprint collation apparatus according to the first embodiment of the present invention.
[0046]
In FIG. 1, a fingerprint data input unit 1 inputs fingerprint data. Here, the fingerprint data is fingerprint image data, compressed image data, or the like. Further, it may be data after image processing that has been binarized or thinned.
[0047]
The ridge extraction unit 2 extracts ridges on the fingerprint based on the fingerprint data input from the fingerprint data input unit 1.
The feature point extraction unit 3 extracts the feature points on the ridge extracted by the ridge extraction unit 2 based on the fingerprint data input from the fingerprint data input unit 1.
[0048]
The arrangement state detection unit 4 detects the arrangement state on the ridge of the feature points extracted by the feature point extraction unit 3.
The collation unit 5 performs fingerprint collation based on the arrangement state on the ridge of the feature points detected by the arrangement state detection unit 4.
Here, by detecting the arrangement state of the feature points on the ridge, it is possible to make it a target to be verified how the feature points and the feature points are connected via the ridges. For this reason, even when the type, position, and direction of feature points change between fingerprint registration and fingerprint verification, the connection state by ridges between feature points hardly changes. Is possible. That is, by examining how feature points and feature points are connected via ridges, it is possible to determine what geometric structure the fingerprint pattern constitutes, Is matched.
[0049]
In addition to the position, type, and direction of the feature point, the fingerprint information of each feature point is displayed on other feature points connected to the feature point via the ridge and on the ridge near the feature point. Information on other feature points that exist (ridge connection information) can also be included.
[0050]
In this way, by using the ridge connection relation between feature points and ridges as a target of collation, it is possible to suppress a decrease in collation rate due to movement of feature points, changes in direction / type, etc. that occur each time a fingerprint image is collected. Can do. This is because the connection relationship between the feature points and the ridges remains unchanged even when the skin partially stretches or contracts or rotates.
[0051]
FIG. 2 is a block diagram showing the configuration of the fingerprint collation apparatus according to the second embodiment of the present invention.
In FIG. 2, fingerprint data input means 11 inputs fingerprint data.
[0052]
The virtual feature point setting unit 12 sets a virtual feature point on the ridge based on the fingerprint data input by the fingerprint data input unit 11.
The fingerprint information calculation unit 13 calculates the fingerprint information of the virtual feature point set by the virtual feature point setting unit 12.
[0053]
The collation unit 14 performs fingerprint collation based on the fingerprint information calculated by the fingerprint information calculation unit 13.
Here, a virtual feature point can be generated by projecting a feature point existing on a ridge onto an adjacent ridge.
[0054]
FIG. 3 is a diagram showing feature points of a fingerprint.
In FIG. 3, ridges R1 to R11 are extracted from the fine line fingerprint image. The ridge R1 is connected to the ridge R3 at the branch point P1. The ridge R2 is connected to the ridge R3 at the branch point P3 and is disconnected at the end point P2. The ridge R4 is connected to the ridge R5 at the branch point P5, and is disconnected at the end points P4 and P6. The ridge R5 is connected to the ridge R6 at the branch point P7. The ridge R7 is connected to the ridge R8 at the branch point P8 and is connected to the ridge R9 at the branch point P9. These branch points P1, P3, P5, P7, P8, P9 and end points P2, P4, P6 respectively correspond to the feature points of the fingerprint.
[0055]
Here, the ridge connection relationship (geometric structure) from the branch point P5 to the neighboring feature points is considered. Other feature points connected to the branch point P5 through the ridge line include an end point P6, a branch point P7, and an end point P4 due to the end point of the image. Further, the road on the ridge from the branch point P5 to each feature point has a relationship of end point P6 <branch point P7 <end point P4.
[0056]
Note the ridges on both sides of the branch point P5. A branch point P3 and an end point P2 exist on the ridge R2 on the fingertip side. A branch point P8 exists on the ridge R8 on the base side. The ridge connection relationship with respect to the branch point P5 indicates how many feature points exist in which position on the ridge line with respect to the branch point P5. Hereinafter, the feature points P1 to P4 and P5 to P9 are referred to as neighboring feature points with respect to the feature point P5.
[0057]
Each of the feature points P1 to P9 of the fingerprint has the ridge connection relation information described above, and the projection feature point information can be included in the ridge connection relation information. Here, the projected feature points are projected points obtained by projecting the feature points P1 to P9 onto the surrounding ridges R1 to R11.
[0058]
FIG. 4A is a diagram illustrating a method of projecting feature points.
In FIG. 4A, ridges R21 to R26 are extracted from the fingerprint image, the end point P21 exists on the ridge R21, the end point P22 exists on the ridge R22, the ridge R23 and the ridge A branch point P23 exists on the line R24, and an end point P26 exists on the ridge R26. Here, the branch point P23 and the end points P21, P22, and P26 correspond to the feature points of the fingerprint.
[0059]
Further, by projecting the end point P21, the projection feature point Q21 is generated on the ridge R22, and by projecting the end point P22, the projection feature point Q22 is generated on the ridge R21 and the projection feature point Q22. 'Is generated on the ridge R23, and by projecting the branch point P23, the projection feature point Q23 is generated on the ridge R22, and the projection feature point Q23' is generated on the ridge R25, and the end point P26. , The projected feature point Q26 is generated on the ridge R25.
[0060]
FIG. 4B is a diagram illustrating an example of the projection direction.
In FIG. 4B, when the end point P32 on the ridge R32 is projected onto the ridges R31, R33, a perpendicular is drawn from the ridge R32 at the end point P32, and the intersection of the perpendicular and the ridges R31, R33 is projected. Points Q32 and Q32 ′ can be obtained. The projection direction is preferably a direction perpendicular to the direction of the ridge R32 at the end point P32, but may be other directions.
[0061]
Hereinafter, the ridge connection information will be specifically described.
An example of expressing the connection relationship between the point A and the point B is a road. The road means that the point A and the point B are connected by a ridge, and the length between the sections AB measured along the ridge. Note that the connection relationship between the points A and B can also be expressed by using the length when the points A and B are connected by a straight line, that is, the shortest distance between the points A and B.
[0062]
FIG. 5 is a diagram illustrating a route example and a route calculation method.
5A and 5B, ridges R41 to R44 are extracted from the fingerprint image, the end point P41 exists on the ridge R41, the end point P42 exists on the ridge R42, and the branch point P43. Exists on the ridges R42 and R43, and the end point P44 exists on the ridge R44. Note that the end points P41, P42, P44 and the branch point P43 correspond to the feature points of the fingerprint.
[0063]
Further, by projecting the end point P42, a projection feature point Q42 is generated on the ridge R41, and by projecting the branch point P43, a projection feature point Q43 is generated on the ridge R41, and the end point P44 is projected. Thus, the projection feature point Q44 is generated on the ridge R42.
[0064]
Here, as a path when paying attention to the end point P42, a path from the end point P42 to the branch point P43 through the ridge R42 (0th-order main distance), and from the end point P42 to the projection feature point Q44 through the ridge R42. The path to reach the end point P41 from the projection feature point Q42 through the ridge R41 (first-order sub-distance) and the projection feature point Q42 from the projection feature point Q42 to the projection feature point Q43 through the ridge R41. The distance to be reached (first sub-distance) is calculated.
[0065]
In this way, by projecting the end point P42 onto the ridge R41, the feature point on the ridge R41 separated from the ridge R42 and the route information of the projected feature point can also be taken into the route information about the end point P42. It becomes possible.
[0066]
The distance can be calculated on the fine line image of the fingerprint image. In the fine line image of the fingerprint image, a ridge is given by a line having a width of one pixel. For this reason, the distance value can be expressed by the number of pixels of a thin line between two points. For example, in FIG. 5C, when the ridges R51 and R52 exist on the thin line image, the distance between the end point P51 and the branch point P52 on the ridge R51 is 20 pixels.
[0067]
Further, when the pixel is connected in the diagonal direction, the path can be obtained more accurately by multiplying the path for the pixel by √2 (square root of 2). This is because when the shape of each pixel is a square, the diagonal length of each pixel is √2 times the length of the side of each pixel. For example, in FIG. 5C, the distance between the end point P51 on the ridge R51 and the branch point P52 is 16 + 4√2 pixels.
[0068]
Further, if the road on the ridge is represented by the physical length on the actual fingerprint, it is possible to collate between fingerprint images having different magnifications. In this method, the distance is expressed by a length such as 5 millimeters instead of the number of pixels.
[0069]
If this route is classified, it can be divided into the following four types.
1) A route to another feature point connected to the feature point of interest via a ridge (a route between feature points). Hereinafter, this route is referred to as the 0th principal distance. Note that direction information from the feature point of interest to other feature points may be added to the ridge connection relation information.
[0070]
2) A route to another projected feature point connected to the feature point of interest via a ridge (a route between the feature point and the projected feature point). Hereinafter, this route is referred to as the 0th sub-distance. Note that direction information from the feature point of interest to other projected feature points may be added to the ridge connection relation information.
[0071]
3) In the case where the point of projection of the feature point of interest on the ridge that is the n number of feature points of interest is used as the measurement start point, the distance from this measurement start point to the other feature points measured (projection feature point and feature point and The way between). Hereinafter, this route is referred to as an n-th principal distance (n is an integer other than 0). Note that direction information from the measurement starting point to other feature points may be added to the ridge connection relation information.
[0072]
4) In the case where the point of projection of the feature point of interest on the n ridges that are the number of feature points of interest is used as the measurement start point, the path from the measurement start point to the measured projection feature point (projection feature point and projection feature point and The way between). Hereinafter, this route is referred to as an nth sub-distance (n is an integer other than 0). In addition, direction information from the measurement starting point to the projection feature point may be added to the ridge connection relation information.
[0073]
The ridge connection relationship can also be expressed by the number of feature points and projected feature points existing on the ridge. That is,
1) The number of projected feature points existing on the road to other feature points connected to the feature point of interest via ridges. Hereinafter, this number of projection feature points is referred to as the 0th-order projection feature point number. Note that direction information from the feature point of interest to other feature points may be added to the ridge connection relation information.
[0074]
2) The number of projected feature points existing on the road from this measurement starting point to other feature points when a point that has been projected on the ridges that are n feature points is used as the measurement starting point. Hereinafter, this number of projection feature points is referred to as the n-th projection feature point number (n is an integer other than 0). In addition, direction information from the measurement starting point to the projection feature point may be added to the ridge connection relation information.
[0075]
Each feature point can have ridge connection relation information to at least two or more neighboring feature points. The ridge connection relation information possessed by one feature point (attention feature point) can be mainly composed of the information described above or a combination thereof.
[0076]
In fingerprint collation, the coincidence of the ridge connection relation information is confirmed. At this time, fingerprint matching is also performed assuming that the types of feature points differ between registration and matching. If the type of feature points is different between the registered fingerprint and the matching fingerprint, transform the ridge structure so that the type of feature points is the same, and if the matching result under the ridge structure is good, The same feature point can be determined.
[0077]
In fingerprint verification, first, verification is performed for each feature point. If the ratio of the feature points determined to be the same feature point is high between the registered fingerprint and the input fingerprint finally, it is determined that the registered fingerprint and the input fingerprint are the same fingerprint.
[0078]
As a method for collating individual feature points, there is a method for determining whether the ridge connection relation information satisfies a predetermined criterion.
In this method, when the ridge connection relation information of two feature points matches, it is regarded as the same feature point. The degree of coincidence or disagreement between ridge connection relationships is determined from the value of the ridge connection relationship coincidence. The ridge connection relationship coincidence is an evaluation value indicating the degree of coincidence of the ridge connection relationship. When this evaluation value is a high value, it indicates that the degree of coincidence of the ridge connection relation is good. When the ridge connection relationship coincidence of two feature points exceeds a predetermined value, it is regarded as the same feature point.
[0079]
The ridge connection relationship coincidence can be obtained, for example, by a point addition method. That is, the points are determined according to the matching degree of the n-th principal distance / sub-distance of the feature points, and the sum of the points is defined as the ridge connection relationship coincidence between the two feature points. Further, by dividing the method of obtaining the ridge connection relationship coincidence depending on whether or not the two feature points to be collated are the same, collation is possible when the detection of the feature point type is unstable.
[0080]
FIG. 6 is a diagram for explaining how the path changes when the fingerprint is distorted.
In FIG. 6A, as the path when the end point P42 is focused, the path L1 between the end point P42 and the branch point P43, the path L2 between the end point P42 and the projection feature point Q44, the projection feature point Q42 and the end point It is assumed that a path L3 between P41 and a path L4 between the projection feature point Q42 and the projection feature point Q43 are registered.
[0081]
Then, as shown in FIG. 6B, distortion occurs in the fingerprint at the time of collation, and as a path when attention is paid to the end point P42, the path L1 ′ between the end point P42 and the branch point P43, the end point P42 and the projection It is assumed that a path L2 ′ between the feature point Q44, a path L3 ′ between the projection feature point Q42 and the end point P41, and a path L4 ′ between the projection feature point Q42 and the projection feature point Q43 are obtained. In this case, since the length of the ridge itself hardly changes even when the fingerprint is distorted due to partial stretching or rotation of the skin, L1 = L1 ′, L2 = L2 ′. , L3 = L3 ′ and L4 = L4 ′. For this reason, fingerprint collation can be performed without being affected by distortion generated in the fingerprint.
[0082]
This can be easily understood, for example, by regarding the ridge as a string, the feature point as a knot of the string or a break of the string, and assuming that the distortion occurs in the fingerprint as the case where the string is slack. it can. That is, when the string is slack, it is clear that the length of the string does not change even if the coordinates on the string knot space or the coordinates on the string break space change. For this reason, the path | route between the knot of a string and the break of a string does not change. It can be considered that the same relationship applies to the ridge structure, and even when the fingerprint is distorted, the path between the feature points on the ridge hardly changes. As a result, it is possible to perform highly accurate fingerprint collation by using the path between feature points as the ridge connection relationship.
[0083]
In this way, by performing fingerprint collation using ridge connection relationships, it is possible to collate ridge structures while taking into account the positional relationships of feature points on ridges that are adjacent to several ridges. It is possible to improve the collation accuracy. Further, even when the feature point that is a branch point at the time of registration is changed to an end point at the time of collation, the feature point can be accurately collated even when the detection of the feature point is unstable.
[0084]
As a method for collating individual feature points, there is a method for determining whether the types, positions, and directions of the feature points match.
In this method, the matching of the position / type / direction of the feature points is examined, and the feature points are collated. When the following conditions are all satisfied between two feature points, they are regarded as the same feature point.
1) Types of feature points are the same
2) Difference in direction of feature points is below a predetermined threshold
3) The distance between feature points is equal to or less than a predetermined threshold value, or the difference in coordinates of feature points on the common coordinate system is equal to or less than a predetermined threshold value.
In addition, as a method for collating individual feature points, there is also a method for determining whether the types, positions, and directions of feature points match and the ridge connection relation information satisfies a predetermined criterion.
In this method, the feature points are collated by checking the coincidence of the position / type / direction of the feature points and the ridge connection relation. When the following conditions are all satisfied between two feature points, they are regarded as the same feature point.
[0085]
1) Types of feature points are the same
2) Difference in direction of feature points is below a predetermined threshold
3) The distance between feature points is equal to or less than a predetermined threshold value, or the difference in coordinates of feature points on the common coordinate system is equal to or less than a predetermined threshold value.
4) Ridge connection relationship coincidence is greater than a predetermined threshold
FIG. 7 is a block diagram showing a system configuration of a fingerprint collation apparatus according to an embodiment of the present invention.
[0086]
In FIG. 7, 21 is a central processing unit (CPU) that performs overall processing, 22 is a read only memory (ROM), 23 is a random access memory (RAM), 24 is an input / output interface, and 25 is a fingerprint image or collation. A display for displaying a result, 26 is a printer for printing a fingerprint image or a collation result, 27 is a memory for temporarily storing data read by the scanner 28, 28 is a scanner for reading a fingerprint, 29 is a communication interface, 30 Is a communication network, 31 is a driver for driving a storage medium, 32 is a hard disk, 33 is an IC memory card, 34 is a magnetic tape, 35 is a floppy disk, 36 is an optical disk such as a CD-ROM or DVD-ROM, 37 is a bus, Reference numeral 38 denotes a keyboard.
[0087]
A program for performing fingerprint registration processing, a program for performing fingerprint collation processing, or ridge connection information is stored in a storage medium such as the hard disk 32, IC memory card 33, magnetic tape 34, floppy disk 35, and optical disk 36. Then, fingerprint registration can be performed by reading a program for performing fingerprint registration processing from these storage media into the RAM 23. Also, fingerprint collation can be performed by reading a program for performing fingerprint collation processing or ridge connection relation information from these storage media into the RAM 23. In addition, a program for performing fingerprint registration processing, a program for performing fingerprint collation processing, or ridge connection relation information can be stored in the ROM 22.
[0088]
Furthermore, a program for performing fingerprint registration processing, a program for performing fingerprint collation processing, or ridge connection relation information can be extracted from the communication network 30 via the communication interface 29. The communication network 30 connected to the communication interface 29 includes, for example, a LAN (Local Area Network), a WAN (Wide Area Network), the Internet, an analog telephone network, a digital telephone network (ISDN: Integrated Service Digital Network), and a PHS (Personal Handy Network). System) and satellite communication.
[0089]
When the program for performing fingerprint registration processing is activated, the CPU 21 receives fingerprint image data read by the scanner 28. When the fingerprint image data read by the scanner 28 is received, the ridge connection relation information is extracted from the fingerprint image data, and the extracted ridge connection relation information is stored for each individual.
[0090]
The CPU 21 receives the fingerprint image data read by the scanner 28 when a program for performing fingerprint collation processing is started. When the fingerprint image data read by the scanner 28 is received, the ridge connection relation information is extracted from the fingerprint image data. Further, the ridge connection relation information is acquired from the storage medium or the communication network 30, and the acquired ridge connection relation information is collated with the extracted ridge connection relation information. The collation result is output to the display 25 and the printer 26.
[0091]
FIG. 8 is a block diagram showing the configuration of the fingerprint collation apparatus according to the third embodiment of the present invention. In the third embodiment, the n-th principal distance (n = −m,..., −1, 0, 1,..., M) of each feature point is recorded at the time of finger fingerprint registration. However, one main distance is recorded for each ridge line separated by feature points. And fingerprint collation is performed by comparing the n-th principal distance of each feature point.
[0092]
In FIG. 8, a fingerprint sensor 41 collects fingerprint image data from a human or animal finger. The image storage unit 42 holds fingerprint image data collected by the fingerprint sensor 41 or holds image data that has undergone image processing. The image binarizing unit 43 converts the multi-valued image stored in the image storage unit 42 into a binary image. The image thinning unit 44 thins the binary image binarized by the image binarizing unit 43 and generates thin line image data of a fingerprint ridge. The feature point extraction unit 45 detects the feature point position from the fingerprint thin line image, and holds the result in the feature point position storage unit 46. The feature point position storage unit 46 holds the feature point position in the fingerprint image. The erroneous feature point removal unit 47 removes erroneous feature point information from the feature point position storage unit 46 by detecting an erroneous feature point from the fingerprint thin line image and the extracted feature point. Further, erroneous feature point information is transmitted to the fingerprint thin line image correction unit 48. The fingerprint thin line image correcting unit 48 corrects the fingerprint thin line image based on the erroneous feature point information sent from the erroneous feature point removing unit 47. The main distance information extraction unit 49 uses the fingerprint thin line image held in the image storage unit 42 and the feature point position held in the feature point position storage unit 46 to obtain ridge connection relation information (fingerprint information) of each feature point. ) Are extracted and output to the fingerprint information storage unit 50. The fingerprint information storage unit 50 stores ridge connection relation information of each feature point extracted by the main distance information extraction unit 49. The registered fingerprint information storage unit 51 holds the fingerprint information of the fingerprint registered in the fingerprint verification device. The fingerprint collation unit 52 collates the fingerprint information obtained from the input fingerprint with the fingerprint information of the registered fingerprint stored in the registered fingerprint information storage unit 51, and transmits the fingerprint collation result to the collation result display unit 53. The collation result display unit 53 transmits the fingerprint collation result to the user of the fingerprint collation device using a display or voice.
[0093]
Here, the main distance information extraction unit 49 calculates the n-th main distance (n = −m,..., −1, 0, 1,..., M) of each feature point as ridge connection relation information.
FIG. 9 is a diagram for explaining a method of calculating the n-th principal distance when the end point is used as a reference.
[0094]
In FIG. 9, ridges R51 to R59 are extracted from the fingerprint image, the branch point P53 is present on the ridges R52 and R53, the end point P54 is present on the ridge R54, and the branch point P55 is the ridges R54 and R55. The branch point P57 exists on the ridges R56 and R57, and the end point P58 exists on the ridge R58. Note that the end points P54, P58 and the branch points P53, P55, P57 correspond to the feature points of the fingerprint.
[0095]
Further, by projecting the end point P54, a projection feature point Q54 is generated on the ridge R53, a projection feature point Q54 ′ is generated on the ridge R52, and a projection feature point Q54 ″ is generated on the ridge R56. Thus, the projection feature point Q54 ″ ′ is generated on the ridge R58.
[0096]
Here, as a path when paying attention to the end point P54, a path between the end point P54 and the branch point P55 (0th-order main distance), and a path between the projection feature point Q54 and the branch point P53 (first-order main path). Distance), a path between the projection feature point Q54 ′ and the branch point P53 (secondary main distance), a path between the projection feature point Q54 ″ and the branch point P57 (−1st main distance), and the projection feature A distance (−secondary main distance) between the point Q54 ′ ″ and the end point P58 is calculated.
[0097]
Note that the 0th-order main distance represents a path to the feature point of interest and another feature point connected to the feature point via a ridge. The n-th principal distance (n is an integer other than 0) is calculated by projecting a feature point from the feature point to the n-th ridge, and using the projected point as a starting point for measurement of the road. Represents the path to the neighborhood feature point. The order n can take a plus / minus value depending on which side of the target feature point is a ridge.
[0098]
FIG. 10 is a diagram for explaining a method of calculating the n-th principal distance when the branch point is used as a reference.
In FIG. 10, ridges R61 to R70 are extracted from the fingerprint image, the branch point P63 is present on the ridges R62 and R63, the branch point P64 is present on the ridges R64 and R65, and the branch point P65 is the ridgeline. R64 and R66 are present, end points P66 and P67 are present on the ridge R66, a branch point P68 is present on the ridges R67 and R68, and an end point P69 is present on the ridge R69. Note that the end points P66, P67, and P69 and the branch points P63, P64, P65, and P68 correspond to the feature points of the fingerprint.
[0099]
Further, by projecting the branch point P65, a projection feature point Q65 is generated on the ridge R63, a projection feature point Q65 ′ is generated on the ridge R62, and a projection feature point Q65 ″ is on the ridge R67. As a result, the projection feature point Q65 ′ ″ is generated on the ridge R69.
[0100]
Here, as a path when paying attention to the branch point P65, a path between the branch point P65 and the branch point P64 (0th-order main distance), a path between the branch point P65 and the branch point P67 (0th-order). Main distance), a path between the branch point P65 and the end point P66 (0th-order main distance), a path between the projection feature point Q65 and the branch point P63 (first main distance), and a projection feature point Q65 ′. The distance between the branch point P63 (secondary main distance), the distance between the projection feature point Q65 ″ and the branch point P68 (−1st order main distance), the projection feature point Q65 ′ ″ and the end point P69. The distance (−secondary main distance) between is calculated.
[0101]
Thus, the branch point P65 can have three 0th-order main distances.
FIG. 11 is a flowchart showing the fingerprint registration process of the fingerprint collation apparatus of FIG.
[0102]
In FIG. 11, first, fingerprint image data is acquired by using the fingerprint sensor 41 or the like (step S1). Next, the image binarization unit 43 binarizes the obtained fingerprint image to obtain a fingerprint binarized image (step S2). Next, the image thinning unit 44 thins the fingerprint binarized image to obtain a fingerprint thinned image (step S3). Next, the feature point extraction unit 45 extracts a fingerprint feature point position from the fingerprint thinned image (step S4). The extracted fingerprint feature points generally include erroneous feature points. Therefore, the erroneous feature point removing unit 47 removes erroneous feature points from the obtained fingerprint feature points (step S5). Since the erroneous feature point portion is caused by an error in the fingerprint thinned image (ridge crack or connection), the fingerprint thin line image correcting unit 48 corrects the fingerprint thinned image (step S6). Next, the main distance information extraction unit 49 measures the n-th main distance (n = −m,..., −1, 0, 1,..., M) for each feature point (step S7). This main distance information is stored in the registered fingerprint information storage unit 51 as fingerprint information (step S8).
[0103]
FIG. 12 is a flowchart showing a route calculation process when a feature point is a measurement starting point in the fingerprint collation apparatus of FIG.
In FIG. 12, the feature point is set as the road measurement start position (step S10), and the measurement value Length is set to 0 (step S11).
[0104]
Next, on the fine line fingerprint image, the ridge is advanced by one pixel (step S12). When another feature point is reached (step S13), the measured value Length is set as the 0th-order main distance (step S14). In addition, when the edge of the image is reached as a result of proceeding on the ridge on the fine line fingerprint image by one pixel (step S15), the 0th-order main distance information is set to “outside image” (step S16). Further, when an erroneous feature point is reached as a result of proceeding on the ridge on the fine line fingerprint image by one pixel (step S17), the 0th principal distance information is set to “unknown” (step S18).
[0105]
On the other hand, if the above condition is not satisfied as a result of proceeding by one pixel on the ridge on the thin line fingerprint image, the measurement value Length is increased by one (step S19), and the search is continued by returning to step S12. .
[0106]
FIG. 13 is a flowchart showing a route calculation process when the projected feature point is used as a measurement starting point in the fingerprint collation apparatus of FIG.
In FIG. 13, the projected feature point on the nth ridge from the feature point of interest is set as the road measurement start position (step S20), and the measurement value Length is set to 0 (step S21).
[0107]
Next, the ridge line is advanced by one pixel on the thin fingerprint image (step S22). When another feature point is reached (step S23), the measured value Length is set as the nth main distance (step S24). Further, when the edge of the image is reached as a result of proceeding by one pixel on the ridge on the fine line fingerprint image (step S25), the nth main distance information is set to “outside image” (step S26). Further, when an erroneous feature point is reached as a result of proceeding on the ridge on the fine line fingerprint image by one pixel (step S27), the n-th principal distance information is set to “unknown” (step S28).
[0108]
On the other hand, if the above condition is not satisfied as a result of proceeding by one pixel on the ridge on the fine line fingerprint image, the measurement value Length is increased by one (step S29), and the search is continued by returning to step S22. .
[0109]
FIG. 14 is a flowchart showing fingerprint collation processing of the fingerprint collation apparatus of FIG.
In FIG. 14, first, fingerprint image data is obtained by using the fingerprint sensor 41 or the like (step S30). Next, the image binarization unit 43 binarizes the obtained fingerprint image to obtain a fingerprint binarized image (step S31). Next, the image thinning unit 44 thins the fingerprint binarized image to obtain a fingerprint thinned image (step S32). Next, the feature point extraction unit 45 extracts a fingerprint feature point position from the fingerprint thinned image (step S33). The extracted fingerprint feature points generally include erroneous feature points. Therefore, the erroneous feature point removing unit 47 removes erroneous feature points from the obtained fingerprint feature points (step S34). Since the erroneous feature point portion is caused by an error in the fingerprint thinned image (ridge crack or connection), the fingerprint thin line image correcting unit 48 corrects the fingerprint thinned image (step S35). Next, the main distance information extraction unit 49 measures the n-th main distance (n = −m,..., −1, 0, 1,..., M) for each feature point (step S36).
[0110]
Next, the main distance information stored in the registered fingerprint information storage unit 51 is read (step S37). Then, the ridge connection relationship matching degree is calculated for all combinations of the feature points of the registered fingerprint and the input fingerprint, and the number of combinations exceeding the predetermined value is counted (step S38). In the third embodiment, since there is no sub-distance information in the fingerprint information, the ridge connection relation matching degree simply indicates whether or not the main distances of the same order match within a predetermined error range.
[0111]
Next, the total number of feature points present in the registered fingerprint and the input fingerprint is checked, the same number of feature points is normalized by the total number of feature points, and the fingerprint matching rate is calculated (step S39). If the fingerprint coincidence rate exceeds a predetermined value, the fingerprints are the same (step S40). On the other hand, when the fingerprint coincidence rate is equal to or lower than a predetermined value, it is determined as a different fingerprint (step S41).
[0112]
In this way, in the comparison of feature points between registered fingerprints and input fingerprints, instead of verifying the position, type, and direction of feature points, by comparing the connection relation between feature points and ridges, Correct feature point matching can be achieved without being affected by rotation.
[0113]
Also, by expressing the ridge connection relation information with the path between feature points, the ridge structure around one feature point can be expressed easily, and the matching is also easy without the need for graph theory. Can be achieved.
[0114]
Furthermore, by introducing a new concept of projected feature points to express ridge connection relation information, and expressing the ridge structure with the path between feature points and projected feature points, more detailed ridges The structure can be expressed easily. Moreover, the collation can be achieved easily.
[0115]
Note that the fingerprint center coordinates, the coordinates of each feature point, the type, and the direction may be added to the fingerprint information so as to increase the speed and accuracy of the fingerprint collation. For example, the approximate registration between the registered fingerprint and the input fingerprint is performed using the fingerprint center coordinates. When the ridge connection relationship information between the two feature points is collated, if the coordinates of the feature points are more than a predetermined error, the feature points are determined to be different regardless of the ridge connection relationship matching degree. Therefore, the calculation of the ridge connection relationship coincidence is omitted. In this way, the verification time can be shortened. In addition, when collating two feature points, collation with high accuracy is achieved by using collation of the type and direction of the feature points.
[0116]
FIG. 15 is a block diagram showing the configuration of the fingerprint collation apparatus according to the fourth embodiment of the present invention. In the fourth embodiment, the fingerprint information recorded at the time of fingerprint registration is as follows.
[0117]
1) The n-th principal distance (n = −m,..., −1, 0, 1,..., M) of each feature point
However, one main distance shall be recorded for each ridge separated by feature points.
[0118]
2) The nth sub-distance of each feature point (n = −m,..., −1, 0, 1,..., M)
However, one sub-distance is recorded for each ridge separated by feature points.
[0119]
Then, fingerprint collation is performed by comparing the nth main distance and the nth subdistance of each feature point.
In FIG. 15, a fingerprint sensor 61 collects fingerprint image data from a human or animal finger. The image storage unit 62 holds fingerprint image data collected by the fingerprint sensor 61 or holds image data subjected to image processing. The image binarization unit 63 converts the multivalued image stored in the image storage unit 62 into a binary image. The image thinning unit 64 thins the binary image binarized by the image binarizing unit 63 and generates fine line image data of a fingerprint ridge. The feature point extraction unit 65 detects the feature point position from the fingerprint thin line image and holds the result in the feature point / projection feature point position storage unit 66. The feature point / projection feature point position storage unit 66 holds the feature point position extracted by the feature point extraction unit 65 and stores the position information of the projection feature point generated by the projection feature point generation unit 69. The erroneous feature point removing unit 67 removes erroneous feature point information from the feature point / projected feature point position storage unit 66 by detecting an erroneous feature point from the fingerprint thin line image and the extracted feature point. Further, erroneous feature point information is transmitted to the fingerprint thin line image correction unit 68. The fingerprint thin line image correcting unit 68 corrects the fingerprint thin line image based on the erroneous feature point information sent from the erroneous feature point removing unit 67.
[0120]
The projection feature point generation unit 69 generates projection feature points for all feature points from the corrected fingerprint thin line image from which the erroneous feature points are removed and the feature point positions. The main distance / sub-distance information extraction unit 70 uses the fingerprint thin line image held in the image storage unit 62 and the feature points / projection feature point positions held in the feature point / projection feature point position storage unit 66 to display each feature. The ridge connection relation information of the points is acquired and output to the fingerprint information storage unit 71.
[0121]
The fingerprint information storage unit 71 stores ridge line connection relation information of each feature point and projection feature point extracted by the main distance / sub-distance information extraction unit 70. The registered fingerprint information storage unit 72 holds the fingerprint information of the fingerprint registered in the fingerprint verification device. The fingerprint collation unit 73 collates the fingerprint information obtained from the input fingerprint with the fingerprint information of the registered fingerprint stored in the registered fingerprint information storage unit 72 and transmits the fingerprint collation result to the collation result display unit 74. The collation result display unit 74 transmits the fingerprint collation result to the user of the fingerprint collation device using a display or voice.
[0122]
FIG. 16 is a diagram for explaining a sub-distance calculation method with the end point as a reference.
In FIG. 16, ridges R51 to R59 are extracted from the fingerprint image, the end point P51 is present on the ridge R51, the branch point P53 is present on the ridges R52 and R53, and the end point P54 is present on the ridge R54. The branch point P55 exists on the ridges R54 and R55, the branch point P57 exists on the ridges R56 and R57, the end point P58 exists on the ridge line R58, and the end point P59 exists on the ridge line R59. are doing. Note that the end points P51, P54, P58, and P59 and the branch points P53, P55, and P57 correspond to the feature points of the fingerprint.
[0123]
Further, by projecting the end point P54, a projection feature point Q54 is generated on the ridge R53, a projection feature point Q54 ′ is generated on the ridge R52, and a projection feature point Q54 ″ is generated on the ridge R56. Thus, the projection feature point Q54 ″ ′ is generated on the ridge R58.
By projecting the end point P51, the projection feature point Q51 is generated on the ridge R52, and by projecting the branch point P53, the projection feature point Q53 is generated on the ridge R51 and the projection feature point Q53 ′. Is generated on the ridge R54, and by projecting the branch point P55, the projection feature point Q55 is generated on the ridge R52, and the projection feature point Q55 ′ is generated on the ridge R56, and the branch point P57. , The projected feature point Q57 is generated on the ridge R53, and the projected feature point Q57 ′ is generated on the ridge R58. By projecting the end point P58, the projected feature point Q58 is the ridge. In addition to being generated on R56, a projected feature point Q58 ′ is generated on a ridge R59, and a projected feature point Q59 is generated on a ridge R58 by projecting the end point P59.
[0124]
Here, as a path when paying attention to the end point P54, a path between the end point P54 and the projection feature point Q53 ′ (0th sub-distance) and a path between the projection feature point Q54 and the projection feature point Q57 (first) Primary subdistance), a path between the projection feature point Q54 ′ and the projection feature point Q51 (secondary subdistance), a path between the projection feature point Q54 ″ and the projection feature point Q58 (−1st order subdistance). Distance) and the distance between the projection feature point Q54 ′ ″ and the projection feature point Q57 ′ (−secondary sub-distance).
[0125]
Note that the 0th sub-distance represents the distance from the feature point of interest to the projected feature point connected to it through the ridge. The n-th sub-distance (n is an integer other than 0) is the same as the n-th main distance, in which the feature point of interest is projected onto the n adjacent ridges, and the projected point is used as the starting point of the road measurement. Represents the path to other projected feature points on the ridge. The order n can take both plus / minus values.
[0126]
FIG. 17 is a diagram for explaining a sub-distance calculation method using a branch point as a reference.
In FIG. 17, ridges R61 to R70 are extracted from the fingerprint image, the end point P61 is present on the ridge R61, the branch point P63 is present on the ridges R62 and R63, and the branch point P64 is present on the ridges R64 and R65. The branch point P65 exists on the ridges R64, R66, the end points P66, P67 exist on the ridge R66, the branch point P68 exists on the ridges R67, R68, and the end point P69 rises. It exists on the line R69, and the end point P70 exists on the ridge line R70. Note that the end points P61, P66, P67, P69, and P70 and the branch points P63, P64, P65, and P68 correspond to the feature points of the fingerprint.
[0127]
Further, by projecting the branch point P65, a projection feature point Q65 is generated on the ridge R63, a projection feature point Q65 ′ is generated on the ridge R62, and a projection feature point Q65 ″ is on the ridge R67. As a result, the projection feature point Q65 ′ ″ is generated on the ridge R69.
[0128]
By projecting the end point P61, the projection feature point Q61 is generated on the ridge R62, and by projecting the branch point P63, the projection feature point Q63 is generated on the ridge R61 and the projection feature point Q63 ′. Is generated on the ridge R64, and by projecting the branch point P64, a projection feature point Q64 is generated on the ridge R62, and a projection feature point Q64 ′ is generated on the ridge R66. By projecting, a projection feature point Q66 is generated on the ridge R63, and a projection feature point Q66 ′ is generated on the ridge R67. By projecting the end point P67, the projection feature point Q67 is generated by the ridge R65. When the projection feature point Q67 ′ is generated on the ridge R674 and the projection feature point Q68 is generated on the ridge R66 by projecting the branch point P68. Furthermore, a projection feature point Q68 ′ is generated on the ridge R69, and by projecting the end point P69, a projection feature point Q69 is generated on the ridge R67, and a projection feature point Q69 ′ is on the ridge R70. The projected feature point Q70 is generated on the ridge R69 by projecting the end point P70.
[0129]
Here, as a path when paying attention to the branch point P65, a path between the branch point P65 and the projection feature point Q63 ′ (0th-order sub-distance), a path between the branch point P65 and the projection feature point Q64 ′. (0th order sub-distance), path between branch point P65 and projection feature point Q68 (0th order sub-distance), path between projection feature point Q65 and projection feature point Q66 (first order sub-distance) The path between the projection feature point Q65 ′ and the projection feature point Q61 (secondary sub-distance), the path between the projection feature point Q65 ″ and the projection feature point Q69 (−1st-order sub-distance), and the projection feature A distance (−secondary sub-distance) between the point Q65 ′ ″ and the projection feature point Q68 ′ is calculated.
FIG. 18 is a flowchart showing the fingerprint registration process of the fingerprint collation apparatus of FIG.
[0130]
In FIG. 18, first, fingerprint image data is acquired by using the fingerprint sensor 61 or the like (step S51). Next, the image binarization unit 63 binarizes the obtained fingerprint image to obtain a fingerprint binarized image (step S52). Next, the image thinning unit 64 thins the fingerprint binarized image to obtain a fingerprint thinned image (step S53). Next, the feature point extraction unit 65 extracts a fingerprint feature point position from the fingerprint thinned image (step S54). The extracted fingerprint feature points generally include erroneous feature points. Therefore, the erroneous feature point removing unit 67 removes erroneous feature points from the obtained fingerprint feature points (step S55). Since the erroneous feature point portion is caused by an error in the fingerprint thinned image (ridge crack or connection), the fingerprint thin line image correcting unit 68 corrects the fingerprint thinned image (step S56).
[0131]
Next, the projection feature point generation unit 69 generates projection feature points related to all the feature points extracted by the feature point extraction unit 65 (step S57). Next, the main distance / sub-distance information extraction unit 70 calculates the n-th main distance / n-th sub-distance (n = −m,..., −1, 0, 1,..., M) for each feature point. Measurement is performed (step S58). The main distance / sub distance information is stored in the registered fingerprint information storage unit 72 as fingerprint information (step S59).
[0132]
FIG. 19 is a flowchart showing a route calculation process when a feature point is a measurement starting point in the fingerprint collation apparatus of FIG.
In FIG. 19, the feature point is set as the road measurement start position (step S61), and the measurement value Length is set to 0 (step S62).
[0133]
Next, the ridge line is advanced by one pixel on the thin line fingerprint image (step S63). When another projected feature point is reached (step S64), the measurement value Length is set as the 0th sub-distance (step S65). . In addition, when another feature point is reached as a result of proceeding by one pixel on the ridge on the thin line fingerprint image (step S66), it is assumed that there is no 0th sub-distance (step S67).
[0134]
If the edge of the image is reached as a result of having advanced by one pixel on the ridge on the fine line fingerprint image (step S68), the 0th sub-distance information is set to “outside image” (step S69). Further, when an erroneous feature point is reached as a result of proceeding on the ridge on the fine line fingerprint image by one pixel (step S70), the 0th principal distance information is set to “unknown” (step S71).
[0135]
On the other hand, if the above condition is not satisfied as a result of proceeding by one pixel on the ridge on the fine line fingerprint image, the measurement value Length is increased by one (step S72), and the search is continued by returning to step S63. .
[0136]
FIG. 20 is a flowchart showing a route calculation process when the projected feature point is used as a measurement starting point in the fingerprint collation apparatus of FIG.
In FIG. 20, the projected feature point on the nth ridge from the feature point of interest is set as the road measurement start position (step S81), and the measurement value Length is set to 0 (step S82).
[0137]
Next, the ridge line is advanced by one pixel on the thin line fingerprint image (step S83). When another projected feature point is reached (step S84), the measured value Length is set as the nth sub-distance (step S85). . In addition, when another feature point is reached as a result of proceeding by one pixel on the ridge on the fine line fingerprint image (step S86), it is assumed that there is no nth sub-distance (step S68).
[0138]
Further, when the edge of the image is reached as a result of proceeding by one pixel on the ridge on the fine line fingerprint image (step S88), the nth sub-distance information is set to “outside image” (step S89). Further, when an erroneous feature point is reached as a result of proceeding on the ridge on the fine line fingerprint image by one pixel (step S90), the nth sub-distance information is set to “unknown” (step S91).
[0139]
On the other hand, if the above condition is not satisfied as a result of proceeding by one pixel on the ridge on the thin line fingerprint image, the measurement value Length is increased by one (step S92), and the search is continued by returning to step S83. .
[0140]
FIG. 21 is a flowchart showing fingerprint collation processing of the fingerprint collation apparatus of FIG.
In FIG. 21, first, fingerprint image data is acquired by using the fingerprint sensor 61 or the like (step S101). Next, the image binarization unit 63 binarizes the obtained fingerprint image to obtain a fingerprint binarized image (step S102). Next, the image thinning unit 64 thins the fingerprint binarized image to obtain a fingerprint thinned image (step S103). Next, the feature point extraction unit 65 extracts a fingerprint feature point position from the fingerprint thinned image (step S104). The extracted fingerprint feature points generally include erroneous feature points. Therefore, the erroneous feature point removing unit 67 removes erroneous feature points from the obtained fingerprint feature points (step S105). Since the erroneous feature point portion is caused by an error in the fingerprint thinned image (ridge crack or connection), the fingerprint thin line image correcting unit 68 corrects the fingerprint thinned image (step S106). Next, the projection feature point generation unit 69 generates projection feature points related to all the feature points extracted by the feature point extraction unit 65 (step S107). Next, the main distance / sub-distance information extraction unit 70 calculates the n-th main distance / n-th sub-distance (n = −m,..., −1, 0, 1,..., M) for each feature point. Measurement is performed (step S108).
[0141]
Next, main distance / sub-distance information stored in the registered fingerprint information storage unit 72 is read (step S109). Then, the ridge connection relationship matching degree is calculated for all combinations of the feature points of the registered fingerprint and the input fingerprint, and the number of combinations exceeding the predetermined value is counted (step S110). In the fourth embodiment, since both the main distance and the sub distance information are used for the fingerprint information, even if the detection of each feature point type (end point / branch point) is unstable, collation for each feature point is performed. be able to.
[0142]
Next, the total number of feature points present in the registered fingerprint and the input fingerprint is examined, the same number of feature points is normalized by the total number of feature points, and a fingerprint matching rate is calculated (step S111). If the fingerprint coincidence rate exceeds a predetermined value, the fingerprints are the same (step S112). On the other hand, when the fingerprint coincidence rate is equal to or lower than the predetermined value, different fingerprints are set (step S113).
[0143]
In this way, in the feature point matching between the registered fingerprint and the input fingerprint, instead of matching the position, type, and direction of the feature point, by comparing the connection relation between the projected feature point and the ridge, Correct feature point matching is achieved without being affected by rotation or rotation. In addition, by introducing the concept of projected feature points, it is possible to achieve collation of the ridge structure around the ridge instead of the structure of the ridge connected to the feature point to be collated.
[0144]
Also, by expressing the ridge connection relation information with the path between the feature point and the projected feature point, the ridge structure around the feature point can be easily expressed, and the matching can be easily achieved. .
[0145]
Furthermore, by expressing the ridge connection relation information of one feature point with the distance between the projected feature point of the feature point and the projected feature point of the other feature point, the ridge line connected to the feature point is displayed. A wide range of surrounding ridge structures can be easily expressed instead of the ridge structure, and the matching is easily achieved.
[0146]
Note that the fingerprint center coordinates, the coordinates / types, and directions of each feature point may be added to the fingerprint information to speed up the fingerprint collation and improve the accuracy. That is, the approximate alignment between the registered fingerprint and the input fingerprint is performed using the fingerprint center coordinates. When the ridge connection relation information between the two feature points is collated, if the coordinates of the feature points are separated by more than a predetermined error, it is determined as a different feature point regardless of the ridge connection relation coincidence. Therefore, the calculation of the ridge connection relationship coincidence is omitted. In this way, the verification time can be shortened. In addition, when collating two feature points, collation with high accuracy is achieved by using collation of the type and direction of feature points. Furthermore, collation with higher accuracy is achieved by adding collation of the type of the projection source feature point of the connection destination projection feature point used for the ridge connection relationship to the ridge connection relationship information.
[0147]
Instead of using the sub-distance of the ridge connection relation information, the n-th projected feature point number may be used. By using the number of projected feature points, the expression of ridge connection relation information can be simplified, and the capacity of registered fingerprint data can be reduced.
[0148]
Next, the fingerprint verification method of the fingerprint verification apparatus in FIG. 15 will be described in more detail.
If they are the same feature point, the n-th main distance and sub-distance at each feature point should match. Therefore, when the main distances coincide with the sub-distances, the evaluation score of the ridge connection relationship coincidence is increased. That is, a high score is set for matching one main distance and matching sub distances.
[0149]
On the other hand, there are cases where the types of nearby feature points are detected differently due to the difference in finger pressure when collecting fingerprint images. In this case, the main distance of the feature point becomes the sub distance, or the sub distance becomes the main distance.
[0150]
FIG. 22 is a diagram illustrating changes in the main distance and the sub-distance when the type of feature point changes.
In FIG. 22A, ridges R81 to R84 are extracted from the fingerprint image, the end point P81 is on the ridge R81, the branch point P82 is on the ridges R82 and R83, and the branch point P83 is the ridge line. It exists on R83 and R84. Note that the end point P81 and the branch points P82 and P83 correspond to the feature points of the fingerprint. Further, the projected feature point Q81 is generated on the ridge R82 by projecting the end point P81.
[0151]
Here, as a path when paying attention to the branch point P82, a path between the branch point P82 and the branch point P83 (0th principal distance), a path between the branch point P82 and the projection feature point Q81 (0th). Next sub-distance) is registered.
[0152]
Then, for the same fingerprint as the registered fingerprint, it is assumed that the fingerprint image of FIG. 22B is obtained due to the difference in pressing at the time of fingerprint collection.
In FIG. 22B, the ridge R81 is transformed into a ridge R81 ′ and the ridge R81 ′ is attached to the ridge R82, whereby the end point P81 is changed to a branch point P81 ′. Further, the ridge line R84 is transformed into the ridge line R84 ′, and the ridge line R84 ′ is separated from the ridge line R83, whereby the branch point P83 is changed to the end point P83 ′, and the projection feature point Q83 projected from the end point P83 ′ is obtained. It is generated on the ridge R83.
[0153]
For this reason, as a path when paying attention to the branch point P82, a path between the branch point P82 and the projection feature point Q83 (0th sub-distance) and a path between the branch point P82 and the branch point P81 ′ (first order). 0th-order main distance) is calculated.
[0154]
As described above, when the types of nearby feature points are detected differently, the main distance of the feature points becomes the sub-distance or the sub-distance becomes the main distance. Therefore, even when the main distance and the sub-distance match, the evaluation score of the ridge connection relation matching degree is increased. However, the score is set lower than when the main distances and the sub-distances match. As a result, even when the types of nearby feature points are detected differently due to a difference in finger press at the time of fingerprint image collection, fingerprint matching can be accurately performed.
[0155]
FIG. 23 is a flowchart illustrating an example of fingerprint collation processing in consideration of erroneous detection of the type of the connection destination feature point. H0, H1, and H2 are stipulation points when evaluating the degree of coincidence of ridge connection relationships, and H0>H1> H2.
[0156]
In FIG. 23, first, the ridge connection relation matching degree is set to 0 (step S121), and the order i of the main distance and the sub distance to be collated is set to -m (step S122).
[0157]
Next, when the i-th principal distances match and the sub-distances also match between the registered fingerprint and the input fingerprint (step S123), the ridge connection relationship matching degree is increased by the stipulation H0. (Step S124), proceed to Step S125,
Next, if the i-th principal distances match between the registered fingerprint and the input fingerprint, but the sub-distances do not match (step S127), the degree of ridge connection relationship coincidence is increased by a score H1 ( Go to step S128), step S125,
Next, if the i-th sub-distances match between the registered fingerprint and the input fingerprint, but the main distances do not match (step S129), the ridge connection relationship matching degree is increased by a stipple H1 ( Go to step S128), step S125,
Next, when the i-th main distance of the registered fingerprint matches the i-th sub-distance of the input fingerprint (step S130), the ridge connection relationship matching degree is increased by the stipple H2 (step S131), and the process proceeds to step S132. move on,
Next, when the i-th sub-distance of the registered fingerprint matches the i-th main distance of the input fingerprint (step S132), the ridge connection relationship coincidence is increased by the scoring H2 (step S133), and the process proceeds to step S125. move on,
Next, the order i of the main distance and the sub distance to be collated is increased by 1 (step S125), and the above processing is repeated until the order i of the main distance and the sub distance to be collated exceeds m (step S126).
[0158]
Thus, when collating the ridge connection relation information of feature points, the path between the feature point and the feature point and the path between the feature point and the projected feature point are registered between the registered fingerprint and the collation fingerprint. By comparing, even when the types of connection destination feature points / projection feature points of the ridge connection relation information are different, the ridge structure can be accurately verified.
[0159]
Also, when collating the ridge connection relation information of feature points, the path between the connection source projection feature point (path measurement starting point) and the feature point and the connection source projection feature point ( By comparing the distance between the path measurement origin) and the projected feature point, it is possible to accurately verify the ridge structure even when the type of connection destination feature point / projection feature point in the ridge connection relation information is different. Can be done.
[0160]
In addition to the case where the types of nearby feature points are detected differently, the types of feature points of interest may be detected differently. In this case, the order of the main distance and the sub-distance at each feature point is shifted between the registered fingerprint and the verification fingerprint.
[0161]
FIG. 24 is a diagram for explaining the change in the order when an end point is mistakenly detected as a branch point.
In FIG. 24A, ridges R51 to R58 are extracted from the fingerprint image, the branch point P53 is present on the ridges R52 and R53, the end point P54 is present on the ridge R54, and the branch point P55 is the ridge line. It exists on R54, R55, the branch point P57 exists on the ridges R56, R57, and the end point P58 exists on the ridge R58. Note that the end points P54, P58 and the branch points P53, P55, P57 correspond to the feature points of the fingerprint.
[0162]
Further, by projecting the end point P54, a projection feature point Q54 is generated on the ridge R53, a projection feature point Q54 ′ is generated on the ridge R52, and a projection feature point Q54 ″ is generated on the ridge R56. Thus, the projection feature point Q54 ″ ′ is generated on the ridge R58.
[0163]
Here, as a path when paying attention to the end point P54, a path between the end point P54 and the branch point P55 (0th-order main distance), a path between the projection feature point Q54 and the branch point P53 (first-order main path). Distance), a path between the projection feature point Q54 ′ and the branch point P53 (secondary main distance), a path between the projection feature point Q54 ″ and the branch point P57 (−1st main distance), and the projection feature It is assumed that a road (secondary main distance) between the point Q54 ′ ″ and the end point P58 is registered.
[0164]
Then, for the same fingerprint as the registered fingerprint, it is assumed that the fingerprint image of FIG. 24B is obtained due to the difference in pressing at the time of fingerprint collection.
In FIG. 24B, the ridge line R54 is transformed into a ridge line R54 ′, and the ridge line R54 ′ is attached to the ridge line R53, whereby the end point P54 is changed to a branch point P54 ′.
[0165]
For this reason, as a path when paying attention to the branch point P54 ′, a path between the branch point P54 ′ and the branch point P53 (0th-order main distance), a path between the branch point P54 ′ and the branch point P55 ( 0th-order main distance), a path between the projection feature point Q54 ′ and the branch point P53 (first-order main distance), a path between the projection feature point Q54 ″ and the branch point P57 (−1st-order main distance) ) And a path (−secondary main distance) between the projection feature point Q54 ′ ″ and the end point P58.
[0166]
Therefore, if the end point of two feature points that match feature points is connected to the adjacent ridge and becomes a bifurcation point, the types of the two feature points to be matched are forcibly matched to match the ridge connection relationship. Find the degree.
[0167]
First, consider a case where an end point is attached to a ridge on the plus primary side. In this case, all the positive orders of the main distance / sub distance in the ridge connection relation information are lowered by one.
Therefore, all the positive orders of the main distance / sub distance on the end point side are lowered one by one, and the ridge connection relationship matching degree is obtained by the same method as in the case where the types of feature points are the same.
[0168]
Next, consider a case where the end point is attached to a ridge on the minus primary side. In this case, the negative orders of the main distance / sub distance on the end point side are all increased by one. Therefore, all negative orders of the main distance / sub-distance on the end point side are increased by one to obtain the ridge connection relationship coincidence. Among the obtained two ridge connection relation coincidence, the higher one is set as the final ridge connection relation coincidence.
[0169]
FIG. 25 is a flowchart illustrating an example of fingerprint collation processing in consideration of erroneous detection of the type of connection source feature point.
In FIG. 25, first, a feature point whose feature point type indicates an end point is defined as T (step S141).
[0170]
Next, all the orders of the primary and higher-order main distances and sub-distances of the feature point T are lowered by one (step S142). For example, the order of the primary main distance and sub-distance is 0th order, and the order of the secondary main distance and sub-distance is primary.
[0171]
Next, a ridge connection relationship matching degree W1 is obtained by a method in the case where the types of feature points are the same (step S143), and the orders of the main distance and the sub-distance of the feature point T are restored (step S134).
[0172]
Next, all the orders of the main distance and sub-distance below the −1st order of the feature point T are increased by one (step S145). For example, the order of the −1st order main distance and the sub-distance is 0th order, and the order of the −2nd order main distance and the subdistance is −1st order.
[0173]
Next, a ridge connection relationship matching degree W2 is obtained by a method when the types of feature points are the same (step S146), and the orders of the main distance and the sub-distance of the feature point T are restored (step S147).
[0174]
Next, the larger value of the ridge connection relationship coincidence W1 and the ridge connection relationship coincidence W2 is set as the ridge connection relationship coincidence in the feature point matching (step S148).
In this way, when collating the ridge connection relation information, by collating by increasing / decreasing the number of ridges existing between the feature point to be collated and the projected feature point of the feature point by ± 1, Even when the types of feature points differ between the registered fingerprint and the input fingerprint, it is possible to accurately check the ridge structure.
[0175]
Next, a fingerprint collation apparatus according to a fifth embodiment of the present invention is described.
In the fifth embodiment, fingerprint information recorded at the time of fingerprint registration is as follows.
1) The n-th principal distance (n = −m, −1, 0, 1,..., M) of each feature point and direction information from the feature point of interest / measurement origin to other feature points
However, at least one or more main distances are recorded for each ridge separated by feature points.
[0176]
2) The nth sub-distance (n = −m,..., −1, 0, 1, m) of each feature point and direction information from the target feature point / measurement origin to the projected feature point
However, at least one sub-distance is recorded for each ridge separated by feature points.
[0177]
Then, fingerprint comparison is performed by comparing the n-th main distance, n-th sub-distance, and direction information of each feature point.
FIG. 26 is a diagram illustrating an example in which direction information is added to the main distance.
[0178]
In FIG. 26, the ridges R91 to R101 are extracted from the fingerprint image, the branch point P92 exists on the ridges R92 and R93, the branch point P93 exists on the ridges R93 and R94, and the end point P95 has the ridge line R95. The branch point P96 exists on the ridges R95 and R96, the branch point P97 exists on the ridges R97 and R98, the end points P99 and P100 exist on the ridge R99, and the branch point P101 exists. It exists on ridges R100 and R101. Note that the end points P95, P99, and P100 and the branch points P92, P93, P96, P97, and P101 correspond to the feature points of the fingerprint.
[0179]
Further, by projecting the end point P95, a projection feature point Q95 is generated on the ridge R94, a projection feature point Q95 ′ is generated on the ridge R93, and a projection feature point Q95 ″ is generated on the ridge R97. As a result, the projection feature point Q95 ″ ′ is generated on the ridge R99.
[0180]
Here, as the main distance when attention is paid to the end point P95, the distance (0th-order main distance) between the end point P95 and the branch point P96 is calculated.
When the projection feature point Q95 is used as a starting point, a route (primary main distance) between the projection feature point Q95 and the branch point P93 is calculated as a leftward route, and the direction information is added to the route information. . In addition, since there are no feature points in the right direction to the edge of the image, information that does not exist until the edge of the image is added to the road information when proceeding to the right.
[0181]
When the projected feature point Q95 ′ is used as a starting point, a route (secondary main distance) between the projected feature point Q95 ′ and the branch point P93 is calculated as a leftward route, and direction information is added to the route information. Is done. In addition, as a right direction road, a road (secondary main distance) between the projection feature point Q95 ′ and the branch point P92 is calculated, and the direction information is added to the road information.
[0182]
When the projected feature point Q95 ″ is used as the starting point, no feature point exists in the left direction up to the image end. Therefore, information indicating that the image does not exist up to the image end is added to the road information when the image proceeds in the left direction. In addition, as a right direction road, a road (−first principal distance) between the projection feature point Q95 ″ and the branch point P97 is calculated, and the direction information is added to the road information.
[0183]
When the projected feature point Q95 ′ ″ is the starting point, a route (−secondary main distance) between the projected feature point Q95 ′ ″ and the end point P99 is calculated as a leftward route, and the direction is indicated in the route information. Information is added. In addition, as the right direction road, the road (−secondary main distance) between the projection feature point Q95 ′ ″ and the end point P100 is calculated, and the direction information is added to the road information.
[0184]
Note that the main distance may not be obtained depending on the ridge structure. Reasons why the main distance is not required include the following.
(1) No feature point exists from the feature point of interest / measurement starting point to the edge of the fingerprint image.
(2) Since the ridge structure is not correctly determined, the main distance is clearly not correctly determined. This occurs when there are many cracks in the ridges, or when the ridges are mesh-like due to adhesion.
[0185]
Even when the main distance cannot be obtained due to these causes, the reason is used as ridge connection relation information.
FIG. 27 is a diagram illustrating an example in which direction information is added to the sub-distance.
[0186]
In FIG. 27, ridges R91 to R101 are extracted from the fingerprint image, the end point P91 is present on the ridge R91, the branch point P92 is present on the ridges R92 and R93, and the branch point P93 is present on the ridges R93 and R94. The end point P95 exists on the ridge R95, the branch point P96 exists on the ridges R95 and R96, the branch point P97 exists on the ridges R97 and R98, and the end point P99 has the ridge line R99. The branch point P101 exists on the ridges R100 and R101, and the end point P102 exists on the ridge R100. Note that the end points P91, P95, P99, and P102 and the branch points P92, P93, P96, P97, and P101 correspond to the feature points of the fingerprint.
[0187]
Further, by projecting the end point P95, a projection feature point Q95 is generated on the ridge R94, a projection feature point Q95 ′ is generated on the ridge R93, and a projection feature point Q95 ″ is generated on the ridge R97. As a result, the projection feature point Q95 ″ ′ is generated on the ridge R99.
[0188]
By projecting the end point P91, the projection feature point Q91 is generated on the ridge R93, and by projecting the branch point P93, the projection feature point Q93 is generated on the ridge R91 and the projection feature point Q93 ′. Is generated on the ridge R95, and by projecting the branch point P96, the projection feature point Q96 is generated on the ridge R93, and the projection feature point Q96 ′ is generated on the ridge R97. , The projected feature point Q97 is generated on the ridge R94, the projected feature point Q97 ′ is generated on the ridge R99, and the projected feature point Q99 is projected by projecting the end point P99. A projection feature point Q99 ′ is generated on the ridge R100, and the projection feature point Q102 is generated on the ridge R99 by projecting the end point P102. Yes.
[0189]
Here, as a sub-distance when attention is paid to the end point P95, a distance (0th-order sub-distance) between the end point P95 and the projection feature point Q93 ′ is calculated. As the 0th sub-distance, the ridge R95 is searched in the left direction with the end point P95 as a base point, and the distance to the projection feature point Q93 ′ that is first encountered is calculated.
[0190]
When the projection feature point Q95 is used as a starting point, there is no other projection feature point between the projection feature point Q95 and the branch point P93 in the left direction. Is added to the route information. Here, the reason why the subsequent search is aborted when it hits the branch point P93 is that there is a plurality of search directions from the branch point P93. Note that the projection feature point may be searched for by previously determining the search direction from the branch point P93 and continuing the subsequent search. In addition, as a rightward route, a route (first sub-distance) between the projection feature point Q95 and the projection feature point Q97 is calculated, and the direction information is added to the route information.
[0191]
When the projection feature point Q95 ′ is used as the starting point, there is no other projection feature point between the projection feature point Q95 ′ and the branch point P93 in the left direction. Information that it does not exist is added to the road information. Further, as the right direction road, the road (secondary sub-distance) between the projection feature point Q95 ′ and the projection feature point Q91 is calculated, and the direction information is added to the road information.
[0192]
When the projection feature point Q95 ″ is used as a starting point, a route (−1st order sub-distance) between the projection feature point Q95 ″ and the projection feature point Q99 is calculated as a leftward route, and the direction is indicated in the route information. Information is added. Note that, as the −1st order sub-distance, the ridge R97 is searched in the left direction with the projection feature point Q95 ″ as a base point, and the distance to the projection feature point Q99 that first hits is calculated. In addition, since there is no other projection feature point between the projection feature point Q95 ″ and the branch point P97 in the right direction, information indicating that there is no sub-distance is added to the route information when proceeding to the right direction. Is done.
[0193]
When the projected feature point Q95 ′ ″ is the starting point, a route (−secondary sub-distance) between the projected feature point Q95 ′ ″ and the projected feature point Q101 is calculated as the leftward route, and the route information Direction information is added to the. In addition, as a right direction road, a road (−secondary sub-distance) between the projection feature point Q95 ′ ″ and the projection feature point Q97 ′ is calculated, and the direction information is added to the road information.
[0194]
In this way, by adding the direction information to the route information, it is possible to have a plurality of route information in the ridges of the same order.
Note that the sub-distance may not be obtained depending on the ridge structure. The reason why sub-distance is not required
(1) There is no projected feature point on the road from the feature point of interest or the measurement starting point to another feature point.
[0195]
(2) Since the ridge structure is not correctly determined, the sub-distance is clearly not correctly determined. This occurs when there are many cracks in the ridges, or when the ridges are mesh-like due to adhesion.
[0196]
Even when the sub-distance cannot be obtained due to these causes, the reason is used as the ridge connection relation information.
At the time of fingerprint registration, the above ridge connection relation information is extracted and recorded as fingerprint registration data.
[0197]
If the direction information of the main distance and the sub distance is used for the ridge connection relation information, the coincidence is also confirmed. Scoring is given only when the direction information matches. When the main distance and the sub-distance are not obtained for some reason, a score may be given even when the reason why the main distance and the sub-distance are not found matches. As described above, the degree of coincidence of the main distance and the sub-distance in each n-th order can be checked, and the ridge connection relationship coincidence can be obtained.
[0198]
The fingerprint registration method according to the fifth embodiment will be described below.
In FIG. 15, first, fingerprint image data is acquired by using the fingerprint sensor 61 or the like. Next, the image binarization unit 63 binarizes the obtained fingerprint image to obtain a fingerprint binarized image. Next, the image thinning unit 64 thins the fingerprint binarized image to obtain a fingerprint thinned image. Next, the feature point extraction unit 65 extracts a fingerprint feature point position from the fingerprint thinned image. The extracted fingerprint feature points generally include erroneous feature points. Therefore, the erroneous feature point removing unit 67 removes erroneous feature points from the obtained fingerprint feature points. Since the erroneous feature point portion is caused by an error in the fingerprint thinned image (cracking or connection of ridges), the fingerprint thin line image correcting unit 68 corrects the fingerprint thinned image.
[0199]
Next, the projection feature point generation unit 69 generates projection feature points for all the feature points extracted by the feature point extraction unit 65. Next, the main distance / sub-distance information extraction unit 70 calculates the n-th main distance / n-th sub-distance (n = −m,..., −1, 0, 1,..., M) for each feature point. measure. Here, the main distance / sub-distance information extraction unit 70 can calculate a plurality of main distances / sub-distances for one order of each feature point. For example, as shown in FIG. 26, one or two pieces of main distance information and sub distance information are calculated for each main distance and sub distance. Each main distance information / sub-distance information also includes direction information from the way measurement starting point to the connection destination feature point / projection feature point. Then, the main distance / sub distance information and direction information are stored in the registered fingerprint information storage unit 72 as fingerprint information.
[0200]
Next, a fingerprint collation method according to the fifth embodiment will be described. In the fifth embodiment, a plurality of main distances and sub-distances are collated for one order.
In FIG. 15, first, fingerprint image data is acquired by using the fingerprint sensor 61 or the like. Next, the image binarization unit 63 binarizes the obtained fingerprint image to obtain a fingerprint binarized image. Next, the image thinning unit 64 thins the fingerprint binarized image to obtain a fingerprint thinned image. Next, the feature point extraction unit 65 extracts a fingerprint feature point position from the fingerprint thinned image. The extracted fingerprint feature points generally include erroneous feature points. Therefore, the erroneous feature point removing unit 67 removes erroneous feature points from the obtained fingerprint feature points. Since the erroneous feature point portion is caused by an error in the fingerprint thinned image (cracking or connection of ridges), the fingerprint thin line image correcting unit 68 corrects the fingerprint thinned image. Next, the projection feature point generation unit 69 generates projection feature points for all the feature points extracted by the feature point extraction unit 65. Next, the main distance / sub-distance information extraction unit 70 performs the n-th main distance / n-th sub-distance (n = −m,..., −1, 0, 1,..., M) for each feature point and Measure the direction.
[0201]
Next, the main distance / sub distance information and direction information stored in the registered fingerprint information storage unit 72 are read out. Then, the ridge connection relation matching degree is calculated for all the combinations of the feature points of the registered fingerprint and the input fingerprint, and the number of combinations that exceeds a predetermined value determined in advance is counted. Here, the ridge connection relation coincidence is calculated as a comparison target for a plurality of main distances / sub distances having the same direction information. Note that the ridge connection relationship matching degree may be calculated assuming that the types of feature points (end points / branch points) are detected differently between the registered fingerprint and the input fingerprint.
[0202]
Next, the total number of feature points present in the registered fingerprint and the input fingerprint is examined, the same number of feature points is normalized by the total number of feature points, and the fingerprint matching rate is calculated. If the fingerprint matching rate exceeds a predetermined value, the same fingerprint is assumed. On the other hand, when the fingerprint matching rate is equal to or lower than a predetermined value, the fingerprints are different.
[0203]
As described above, by adding the connection source feature point or the direction information from the connection source projection feature point to the connection destination projection feature point to the ridge connection relation information, information on a plurality of connection destination projection feature points is obtained. And feature point matching over a wide range and with high accuracy is achieved.
[0204]
Note that the fingerprint center coordinates and the coordinates, type, and direction of each feature point may be added to the fingerprint information to speed up the fingerprint collation and improve the accuracy. That is, the approximate alignment between the registered fingerprint and the input fingerprint is performed using the fingerprint center coordinates. When the ridge connection relation information between the two feature points is collated, if the coordinates of the feature points are larger than a predetermined error, it is determined as a different feature point regardless of the ridge connection relation coincidence. Therefore, the calculation of the ridge connection relationship coincidence is omitted. In this way, the verification time can be shortened. Moreover, when collating two feature points, collation with high accuracy is achieved by using collation of the type and direction of the feature points. Instead of the sub-distance in the ridge connection relation information, the n-th projected feature point number may be used. If the number of projected feature points is used, the capacity of registered fingerprint data can be reduced.
[0205]
Next, a fingerprint collation apparatus according to a sixth embodiment of the present invention is described.
In the sixth embodiment, fingerprint information recorded at the time of fingerprint registration is as follows.
1) The n-th principal distance (n = −m,..., −1, 0, 1, m) of each feature point
However, one main distance shall be recorded for each ridge separated by feature points.
[0206]
2) Ridge connection relation information of the connected feature point itself used for the nth principal distance of each feature point
3) The nth sub-distance of each feature point (n = −m,..., −1, 0, 1, m)
However, one sub-distance is recorded for each ridge separated by feature points.
[0207]
4) Ridge connection information of the projection source feature point itself of the connection destination projection feature point used for the nth sub-distance of each feature point
Then, fingerprint comparison is performed by comparing the n-th principal distance, the n-th sub-distance, the ridge connection relation information of the connection destination feature point, and the ridge connection information of the projection source feature point of each feature point.
[0208]
The fingerprint registration method according to the sixth embodiment will be described below.
In FIG. 15, first, fingerprint image data is acquired by using the fingerprint sensor 61 or the like. Next, the image binarization unit 63 binarizes the obtained fingerprint image to obtain a fingerprint binarized image. Next, the image thinning unit 64 thins the fingerprint binarized image to obtain a fingerprint thinned image. Next, the feature point extraction unit 65 extracts a fingerprint feature point position from the fingerprint thinned image. The extracted fingerprint feature points generally include erroneous feature points. Therefore, the erroneous feature point removing unit 67 removes erroneous feature points from the obtained fingerprint feature points. Since the erroneous feature point portion is caused by an error in the fingerprint thinned image (cracking or connection of ridges), the fingerprint thin line image correcting unit 68 corrects the fingerprint thinned image.
[0209]
Next, the projection feature point generation unit 69 generates projection feature points for all the feature points extracted by the feature point extraction unit 65. Next, the main distance / sub-distance information extraction unit 70 calculates the n-th main distance / n-th sub-distance (n = −m,..., −1, 0, 1,..., M) for each feature point. measure. Here, the main distance / sub-distance information extraction unit 70 calculates the nth-order main distance and sub-distance for each feature point, and the connected feature point / projection feature point of the main distance / sub-distance itself. Line connection relationships can also be calculated. Then, the main distance / sub-distance information and the ridge connection relationship of the connection destination feature point / projection feature point itself of the main distance / sub-distance are stored in the registered fingerprint information storage unit 72 as fingerprint information.
[0210]
Next, a fingerprint collation method according to the sixth embodiment will be described. In the sixth embodiment, the two-stage ridge connection relation information is collated. The first stage is a collation of ridge connection relations for connection source feature points / projection feature points, and the second stage is a collation of ridge connection relations for connection destination feature points / projection feature points.
[0211]
In FIG. 15, first, fingerprint image data is acquired by using the fingerprint sensor 61 or the like. Next, the image binarization unit 63 binarizes the obtained fingerprint image to obtain a fingerprint binarized image. Next, the image thinning unit 64 thins the fingerprint binarized image to obtain a fingerprint thinned image. Next, the feature point extraction unit 65 extracts a fingerprint feature point position from the fingerprint thinned image. The extracted fingerprint feature points generally include erroneous feature points. Therefore, the erroneous feature point removing unit 67 removes erroneous feature points from the obtained fingerprint feature points. Since the erroneous feature point portion is caused by an error in the fingerprint thinned image (cracking or connection of ridges), the fingerprint thin line image correcting unit 68 corrects the fingerprint thinned image. Next, the projection feature point generation unit 69 generates projection feature points for all the feature points extracted by the feature point extraction unit 65. Next, the main distance / sub-distance information extraction unit 70 performs the n-th main distance / n-th sub-distance (n = −m,..., −1, 0, 1,..., M) for each feature point and The ridge connection relation of the connection destination feature point / projection feature point of the main distance and sub distance is measured.
[0212]
Next, the main distance / sub-distance information stored in the registered fingerprint information storage unit 72 and the ridge line connection relationship of the connection destination feature point / projection feature point of the main distance / sub-distance are read. Then, the ridge connection relation matching degree is calculated for all the combinations of the feature points of the registered fingerprint and the input fingerprint, and the number of combinations that exceeds a predetermined value determined in advance is counted. Here, when the ridge connection relation information of the connection destination feature point / projection feature point matches in addition to the ridge connection relation information of the connection source feature point / projection feature point, the ridge of the connection source feature point / projection feature point Compared with the case where only the line connection relationship information matches, the value of the ridge connection relationship matching degree is set higher. Note that the ridge connection relationship matching degree may be calculated assuming that the types of feature points (end points / branch points) are detected differently between the registered fingerprint and the input fingerprint.
[0213]
Next, the total number of feature points present in the registered fingerprint and the input fingerprint is examined, the same number of feature points is normalized by the total number of feature points, and the fingerprint matching rate is calculated. If the fingerprint matching rate exceeds a predetermined value, the same fingerprint is assumed. On the other hand, when the fingerprint matching rate is equal to or lower than a predetermined value, the fingerprints are different.
[0214]
In this way, by adding the ridge connection relationship of the feature point / projection feature point itself of the connection destination of the main distance and the sub-distance to the object to be verified, a wide range of ridge structures can be obtained simply by matching a set of feature points. Can be verified. In addition, by adding the ridge connection relation information of the projection source feature point itself of the connection destination projection feature point to the ridge connection relation information of the connection source feature point, it is possible to easily achieve a wide range of ridge structure matching. it can.
[0215]
Further, the fingerprint center coordinates and the coordinates / type / direction of each feature point may be further added to the fingerprint information to increase the speed and accuracy of the fingerprint collation. Using the fingerprint center coordinates, approximate registration between the registered fingerprint and the input fingerprint is performed. When the ridge connection relationship information between the two feature points is collated, if the coordinates of the feature points are more than a predetermined error, the feature points are determined to be different regardless of the ridge connection relationship matching degree. Therefore, the calculation of the ridge connection relationship coincidence is omitted. In this way, the verification time can be shortened. Moreover, when collating two feature points, collation with high accuracy is achieved by using collation of the type and direction of the feature points.
[0216]
Instead of the sub-distance in the ridge connection relation information, the n-th projected feature point number may be used. If the number of projected feature points is used, the capacity of registered fingerprint data can be reduced.
FIG. 28 is a block diagram showing the configuration of the fingerprint collation apparatus according to the seventh embodiment of the present invention.
[0217]
In the seventh embodiment, the fingerprint information recorded at the time of fingerprint registration is as follows.
1) Fingerprint center coordinates
2) Types of feature points
3) Coordinates of each feature point
4) Direction of each feature point
5) The n-th principal distance (n = −m,..., −1, 0, 1,..., M) of each feature point
However, one main distance shall be recorded for each ridge separated by feature points.
[0218]
6) The nth sub-distance of each feature point (n = −m,..., −1, 0, 1,..., M)
However, one sub-distance is recorded for each ridge separated by feature points.
[0219]
In FIG. 28, a fingerprint sensor 81 collects fingerprint image data from a human or animal finger. The image storage unit 82 holds fingerprint image data collected by the fingerprint sensor 81 or holds image data that has undergone image processing. The image binarization unit 83 converts the multivalued image stored in the image storage unit 82 into a binary image. The image thinning unit 84 thins the binary image binarized by the image binarization unit 83 and generates thin line image data of a fingerprint ridge. The feature point extraction unit 85 detects a feature point position from the fingerprint thin line image, and holds the result in the feature point / projection feature point position storage unit 86. The feature point / projection feature point position storage unit 86 holds the feature point position extracted by the feature point extraction unit 85 and stores the position information of the projection feature point generated by the projection feature point generation unit 89. The erroneous feature point removing unit 87 removes erroneous feature point information from the feature point / projected feature point position storage unit 86 by detecting an erroneous feature point from the fingerprint thin line image and the extracted feature point. Further, the erroneous feature point information is transmitted to the fingerprint thin line image correcting unit 88. The fingerprint thin line image correcting unit 88 corrects the fingerprint thin line image based on the erroneous feature point information sent from the erroneous feature point removing unit 87.
[0220]
The projected feature point generation unit 89 generates projected feature points for all feature points from the corrected fingerprint thin line image from which the erroneous feature points are removed and the feature point positions. The main distance / sub-distance information extracting unit 90 extracts each feature from the fingerprint thin line image held in the image storage unit 82 and the feature point / projection feature point position held in the feature point / projection feature point position storage unit 86. The ridge connection relation information (fingerprint information) of the point is acquired and output to the fingerprint information storage unit 93.
[0221]
The fingerprint center position detection unit 91 detects the fingerprint center position from the fingerprint image. The feature point information detection unit 92 detects feature point information regarding the coordinates, type, and direction of each feature point.
[0222]
The fingerprint information storage unit 93 includes feature point information about the coordinates, type, and direction of each feature point in addition to the ridge connection relation information of each feature point and projection feature point extracted by the main distance / sub-distance information extraction unit 90 Remember. The registered fingerprint information storage unit 94 holds the fingerprint information of the fingerprint registered in the fingerprint verification device. The fingerprint collation unit 95 collates the fingerprint information obtained from the input fingerprint with the fingerprint information of the registered fingerprint stored in the registered fingerprint information storage unit 94, and transmits the fingerprint collation result to the collation result display unit 96. The collation result display unit 96 transmits the fingerprint collation result to the user of the fingerprint collation device using a display or voice.
[0223]
FIG. 29A shows a registered fingerprint image.
In FIG. 29A, the fingerprint to be registered has ridges R111 to R120. Here, the ridge R111 is connected to the ridge R113 at the branch point P111. The ridge R112 is connected to the ridge R113 at the branch point P113, and is interrupted at the end point P112. The ridge R114 is connected to the ridge R115 at the branch point P115, and is interrupted at the end point P114. The ridge R116 is connected to the ridge R117 at the branch point P116. The ridge line R117 is connected to the ridge line R118 at the branch point P117. Then, the branch points P111, P113, P115, P116, P117 and the end points P112, P114 are extracted from the fingerprint image, and the position and direction with respect to the fingerprint center C1 are registered together with the type of feature point.
[0224]
Also registered are ridge connection relationships for branch points P111, P113, P115, P116, P117 and end points P112, P114, and ridge connection relationships for these feature points and projection feature points.
[0225]
FIG. 29B shows an input fingerprint image.
In FIG. 29B, the fingerprint to be collated includes ridges R111 ′ to R120 ′. Here, the ridge R111 ′ is connected to the ridge R113 ′ at the branch point P111 ′. The ridge R112 ′ is connected to the ridge R113 ′ at the branch point P113 ′, and is disconnected at the end point P112 ′. The ridge R114 ′ is connected to the ridge R115 ′ at the branch point P11′5, and is disconnected at the end point P114 ′. The ridge R116 ′ is connected to the ridge R117 ′ at the branch point P116 ′. The ridge line R117 ′ is connected to the ridge line R118 ′ at the branch point P117.
[0226]
As described above, since the range of the registered fingerprint image and the range of the input fingerprint image are different, the shared area 100 between the registered fingerprint image and the input fingerprint image is cut out. Then, fingerprint verification is performed for the shared area 100.
[0227]
That is, in this shared area 100, branch points P111 ′, P113 ′, P115 ′, branch points P116 ′, P117 ′, and end points P112 ′, P114 ′ are extracted from the input fingerprint image and these extracted from the input fingerprint image. For the feature point, the position and direction with respect to the fingerprint center C1 ′ are calculated.
[0228]
Also, ridge connection relations for branch points P111 ′, P113 ′, P115 ′, P116 ′, P117 ′ and end points P112 ′, P114 ′, and ridge connection relations for these feature points and projection feature points are calculated. The
[0229]
The types / positions / directions and ridge connection relations regarding the branch points P111, P113, P115, P116, P117 and the end points P112, P114 are the branch points P111 ′, P113 ′, P115 ′, P116 ′, P117 ′ and the end points P112. The registered fingerprint image of FIG. 29A is collated with the input fingerprint image of FIG. 29B by checking whether the type, position, direction and ridge connection relation regarding “, P114” match.
[0230]
Hereinafter, the fingerprint registration process of the seventh embodiment will be described.
FIG. 30 is a flowchart showing the fingerprint registration process of the fingerprint collation apparatus of FIG.
[0231]
In FIG. 30, first, fingerprint image data is acquired by using the fingerprint sensor 81 or the like (step S150). Next, the image binarization unit 83 binarizes the obtained fingerprint image to obtain a fingerprint binarized image (step S151). Next, the image thinning unit 84 thins the fingerprint binarized image to obtain a fingerprint thinned image (step S152). Next, the feature point extraction unit 85 extracts a fingerprint feature point position from the fingerprint thinned image (step S153). The extracted fingerprint feature points generally include erroneous feature points. Therefore, the erroneous feature point removing unit 87 removes erroneous feature points from the obtained fingerprint feature points (step S154). Since the erroneous feature point portion is caused by an error in the fingerprint thinned image (ridge crack or connection), the fingerprint thin line image correcting unit 88 corrects the fingerprint thinned image (step S155).
[0232]
Next, the projection feature point generation unit 89 generates projection feature points related to all the feature points extracted by the feature point extraction unit 85 (step S156). Next, the fingerprint center position detection unit 91 detects the fingerprint center position (step S157). Next, the feature point information detection unit 92 detects feature point information (coordinates / type / direction) of each feature point (step S158). Next, the main distance / sub-distance information extraction unit 90 calculates the n-th main distance / n-th sub-distance (n = −m,..., −1, 0, 1,..., M) for each feature point. Measurement is performed (step S159). That is, the fingerprint information in total is fingerprint center position information, feature point information for each feature point, and nth-order main distance / sub-distance information for each feature point. The fingerprint information is stored in the registered fingerprint information storage unit 94 (step S160).
[0233]
Next, a fingerprint collation method according to the seventh embodiment will be described.
31 and 32 are flowcharts showing the fingerprint collation processing of the fingerprint collation apparatus of FIG.
[0234]
In FIG. 31, first, fingerprint image data is acquired by using the fingerprint sensor 81 or the like (step S161). Next, the image binarization unit 83 binarizes the obtained fingerprint image to obtain a fingerprint binarized image (step S162). Next, the image thinning unit 84 thins the fingerprint binarized image to obtain a fingerprint thinned image (step S163). Next, the feature point extraction unit 85 extracts a fingerprint feature point position from the fingerprint thinned image (step S164). The extracted fingerprint feature points generally include erroneous feature points. Therefore, the erroneous feature point removing unit 87 removes erroneous feature points from the obtained fingerprint feature points (step S165). Since the erroneous feature point portion is caused by an error in the fingerprint thinned image (ridge crack or connection), the fingerprint thin line image correcting unit 88 corrects the fingerprint thinned image (step S166). Next, the projection feature point generation unit 89 generates projection feature points related to all the feature points extracted by the feature point extraction unit 85 (step S167).
[0235]
Next, the fingerprint center position detector 91 detects the fingerprint center position (step S168). Next, the feature point information detection unit 92 detects feature point information (coordinates / type / direction) of each feature point (step S169). Next, the main distance / sub-distance information extraction unit 90 calculates the n-th main distance / n-th sub-distance (n = −m,..., −1, 0, 1,..., M) for each feature point. Measurement is performed (step S170).
[0236]
Next, the fingerprint information stored in the registered fingerprint information storage unit 94 is read (step S171), and a feature point close to the fingerprint center is selected one by one for each of the registered fingerprint and the input fingerprint. Then, the fingerprints are aligned by matching the positions of the selected feature points (step S172). Here, the feature point is used for the alignment of the fingerprint because the center of the fingerprint may be shifted at every measurement.
[0237]
Next, a feature point whose distance between feature points is a predetermined value or less is selected from all combinations of feature points of the registered fingerprint and the input fingerprint. Then, the ridge connection relationship coincidence is calculated for all combinations of the selected feature points (step S173).
[0238]
Next, in FIG. 32, the number of feature point pairs whose ridge connection relationship matching degree exceeds a predetermined value is counted (step S174). Next, for a feature point pair whose ridge connection relationship matching degree does not exceed a predetermined value, the distance between the feature points is a predetermined value (to reduce the ridge connection relation matching degree calculation target based on the distance between the feature points described above). The number of feature point pairs satisfying the conditions that are equal to or smaller than the predetermined value used, the same feature point type, and the direction difference equal to or smaller than the predetermined value is counted (step S175). Next, the number of all feature points existing in the shared area of the registered fingerprint and the input fingerprint is counted. Then, the fingerprint matching degree between the registered fingerprint and the input fingerprint is calculated from the same feature number and the total number of feature points in the shared area (step S176).
[0239]
If the fingerprint matching rate exceeds a predetermined value (step S177), it is determined that the registered fingerprint and the input fingerprint are the same fingerprint (step S178). If the fingerprint matching rate does not exceed the predetermined value, it is determined whether or not the number of alignment readjustments has exceeded the predetermined number (step S179). If the number of readjustments of alignment exceeds a predetermined number, the registered fingerprint and the input fingerprint are determined as different fingerprints (step S180).
[0240]
On the other hand, if the number of alignment readjustments is less than or equal to a predetermined number, a combination of feature points used for alignment is selected by newly selecting a set of feature points close to the fingerprint center in the registered fingerprint and the input fingerprint. The position is changed and alignment is performed again (step S181). Then, the process returns to step S173, and the fingerprint matching rate is calculated again.
[0241]
Note that the number of n-th projection feature points may be used instead of the sub-distance in the ridge connection relation information. If the number of projected feature points is used, the capacity of registered fingerprint data can be reduced.
[0242]
As mentioned above, although the Example of this invention was described, this invention is not limited to the Example mentioned above, Various other changes are possible within the range of the technical idea of this invention. For example, in the above-described embodiment, the fingerprint collation has been described as an example.
[0243]
Moreover, although the end point and the branch point have been described as examples of types of feature points, a bending point where a ridge is bent in the middle may be extracted as a feature point.
In the above-described embodiment, the case where a road along a ridge is used as feature point information has been described. However, the road may be replaced with a distance. Thus, the measurement of the road along the ridge becomes the measurement of the linear distance, and the ridge connection relation information can be easily created.
[0244]
In the above-described embodiment, the case where one main distance or sub-distance is recorded for one section on the ridge divided by the feature points has been described. However, one section on the ridge divided by the feature points is described. On the other hand, a plurality of main distances or sub-distances may be recorded.
[0245]
【The invention's effect】
As described above, according to the present invention, fingerprints are distorted due to partial expansion or contraction or rotation of the finger skin by performing fingerprint matching based on the arrangement state of feature points with respect to the ridges. Even in this case, highly accurate fingerprint collation can be performed stably.
[0246]
Moreover, according to one aspect of the present invention, by performing fingerprint matching based on fingerprint information of virtual feature points set on the ridge, without changing the ridge structure of the collected fingerprint, It becomes possible to increase information serving as a clue for specifying a fingerprint, and to perform highly accurate fingerprint collation stably.
[0247]
In addition, according to one aspect of the present invention, a two-dimensional ridge structure can be expressed one-dimensionally on a ridge by projecting feature points that exist on the ridge onto another ridge. This makes it possible to grasp the characteristics of a two-dimensional ridge structure by simply following the ridge one-dimensionally, so that high-precision fingerprint matching can be performed at high speed.
[0248]
According to one aspect of the present invention, fingerprints are distorted by performing fingerprint matching based on the length of a ridge when a ridge is divided at the position of a feature point or a virtual feature point. Even in this case, it is possible to preserve the characteristics of the original fingerprint, and it is possible to stably perform high-precision fingerprint matching.
[0249]
Further, according to one embodiment of the present invention, by performing fingerprint matching based on the distance between feature points on the ridge line or virtual feature points, the distance along the ridge line can be measured as a linear distance. It becomes measurement and it becomes possible to simplify the calculation at the time of generating fingerprint information.
[0250]
Further, according to one aspect of the present invention, a plurality of fingerprints based on feature points or virtual feature points are obtained by performing fingerprint matching based on the connection direction to the feature points on the ridges or the virtual feature points. Fingerprint matching can be performed while considering the connection state in the direction, and fingerprint matching can be performed with high accuracy.
[0251]
Further, according to one aspect of the present invention, fingerprint matching can be performed stably and at high speed by performing fingerprint matching based on the number of feature points and virtual feature points existing on the ridge. It becomes possible.
[0252]
In addition, according to one aspect of the present invention, fingerprint matching can be performed stably by performing fingerprint matching based on the types of feature points existing on the ridge, and the feature points and Compared with the case where fingerprint verification is performed using only the number of virtual feature points, the verification accuracy can be further improved.
[0253]
Further, according to one aspect of the present invention, the type information of the projection source point with respect to the projection feature point to which the ridge is connected is used as the type information of the projection feature point, so that the type information of the virtual feature point is also taken into consideration. It is possible to perform fingerprint verification.
[0254]
Further, according to one aspect of the present invention, it is possible to further improve collation accuracy by performing fingerprint collation based on the arrangement order of feature points and virtual feature points on a ridge.
[0255]
In addition, according to one aspect of the present invention, it is possible to accurately perform fingerprint matching even when detection of a feature point type is unstable by virtually changing a feature point type on a ridge. It becomes.
[0256]
In addition, according to one aspect of the present invention, by generating the branch point by integrating the end point of the ridge and the projection point, the original ridge structure can be obtained even when the branch point is mistakenly detected as the end point. It is possible to perform fingerprint collation in consideration, and fingerprint collation can be performed stably.
[0257]
Further, according to one aspect of the present invention, a feature point or a virtual point of a connection destination is compared by comparing a route between a feature point and a feature point with a virtual feature point. Even when a characteristic feature type is detected by mistake, it is possible to compare the distances and to perform fingerprint collation stably.
[0258]
In addition, according to one aspect of the present invention, the original ridge structure is obtained even when the end point is mistakenly detected as the branch point by separating the ridge line at the branch point and generating the end point and the projection point. It is possible to perform fingerprint collation in consideration, and fingerprint collation can be performed stably.
[0259]
Further, according to one aspect of the present invention, by comparing the path between the virtual feature point and the feature point and the path between the virtual feature point and the other virtual feature point, Even when the type of the feature point of the connection destination or the virtual feature point is erroneously detected, it becomes possible to compare the paths and to perform fingerprint collation stably.
[0260]
In addition, according to one aspect of the present invention, fingerprint information can be obtained even when the type of feature point serving as a starting point for calculating a path is erroneously detected by comparing fingerprint information of feature points on different ridges. Comparison can be made and fingerprint collation can be performed with high accuracy.
[0261]
In addition, according to one aspect of the present invention, it is possible to stably check the feature points even when the fingerprint is distorted by determining whether the feature points match by comparing the distances on the same ridge. Can be done. In addition, according to one aspect of the present invention, it is possible to collate one feature point in consideration of an unconnected ridge structure by adding route information on different ridges to fingerprint information. It is possible to perform point matching with high accuracy.
[0262]
In addition, according to one aspect of the present invention, when matching one feature point, fingerprint information of other feature points or projection source feature points related to the feature point to be collated is taken into consideration. It is possible to take into account the ridge structure, and it is possible to accurately match feature points.
[0263]
Further, according to one aspect of the present invention, when the ridge connection state is obtained in a later verification by including the reason why the ridge connection state of the feature point is not obtained in the ridge connection state, the validity It is possible to perform matching of feature points in consideration of the above.
[0264]
In addition, according to one aspect of the present invention, by providing a plurality of evaluation criteria, it is possible to deal with both the difficulty of collation due to skin expansion / contraction and rotation and the difficulty of collation due to cracks and adhesion of ridges. be able to.
[0265]
Further, according to one aspect of the present invention, the positions of the end points and the branch points can be reversed by reversing the valley line portions and the mountain line portions of the ridges. The image processing of the branch point can be executed only by providing.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a fingerprint collation apparatus according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of a fingerprint collation apparatus according to a second embodiment of the present invention.
FIG. 3 is a diagram showing a distribution of fingerprint feature points according to an embodiment of the present invention.
4A is a diagram illustrating a method for generating projected feature points according to an embodiment of the present invention, and FIG. 4B is a diagram illustrating a generation direction of projected feature points.
FIG. 5A is a diagram showing an example of a zeroth-order distance on a ridge, FIG. 5B is a diagram showing an example of a first-order distance on a ridge, and FIG. It is a figure to do.
FIG. 6 is a diagram for explaining how the path changes when a fingerprint is distorted;
FIG. 7 is a block diagram showing a system configuration of a fingerprint collation apparatus according to an embodiment of the present invention.
FIG. 8 is a block diagram showing a configuration of a fingerprint collation apparatus according to a third embodiment of the present invention.
FIG. 9 is a diagram illustrating a method of calculating a main distance when an end point is used as a reference.
FIG. 10 is a diagram for explaining a method of calculating a main distance when a branch point is used as a reference.
11 is a flowchart showing fingerprint registration processing of the fingerprint collation apparatus of FIG.
FIG. 12 is a flowchart showing a route calculation process when the feature point of the fingerprint collation apparatus of FIG. 8 is a measurement starting point.
13 is a flowchart showing a process for calculating a road when the projected feature point of the fingerprint collation apparatus of FIG. 8 is used as a measurement starting point.
14 is a flowchart showing fingerprint collation processing of the fingerprint collation apparatus of FIG. 8. FIG.
FIG. 15 is a block diagram showing a configuration of a fingerprint collation apparatus according to a fourth embodiment of the present invention.
FIG. 16 is a diagram for explaining a sub-distance calculation method using an end point as a reference;
FIG. 17 is a diagram for explaining a sub-distance calculation method using a branch point as a reference.
18 is a flowchart showing fingerprint registration processing of the fingerprint collation apparatus of FIG.
FIG. 19 is a flowchart showing a route calculation process when a feature point of the fingerprint collation device of FIG. 15 is a measurement starting point.
20 is a flowchart showing a process for calculating a road when the projected feature point of the fingerprint collation apparatus of FIG. 15 is used as a measurement starting point.
FIG. 21 is a flowchart showing fingerprint collation processing of the fingerprint collation apparatus of FIG. 15;
FIG. 22 is a diagram for explaining changes in the main distance and the sub-distance when the type of feature point changes.
FIG. 23 is a flowchart showing fingerprint collation processing in consideration of erroneous detection of the type of connection destination feature point.
FIG. 24 is a diagram for explaining a change in order when an end point is mistakenly detected as a branch point;
FIG. 25 is a flowchart showing fingerprint collation processing in consideration of erroneous detection of the type of connection source feature point.
FIG. 26 is a diagram illustrating an example in which direction information is added to the main distance.
FIG. 27 is a diagram illustrating an example in which direction information is added to the sub-distance.
FIG. 28 is a block diagram showing a configuration of a fingerprint collation apparatus according to a seventh embodiment of the present invention.
29A is a diagram showing a registered fingerprint image, and FIG. 29B is a diagram showing an input fingerprint image.
30 is a flowchart showing fingerprint registration processing of the fingerprint collation device of FIG. 28. FIG.
FIG. 31 is a flowchart showing fingerprint collation processing of the fingerprint collation device of FIG. 28;
32 is a flowchart showing fingerprint collation processing of the fingerprint collation device of FIG. 28 (continuation of FIG. 31).
FIG. 33 is a flowchart showing a conventional fingerprint registration process and fingerprint collation process.
[Explanation of symbols]
1,11 Fingerprint data input means
2 Ridge extraction means
3 Feature point extraction means
4 Arrangement state detection means
5,14 Verification means
12 Virtual feature point setting means
13 Fingerprint information calculation means
21 CPU
22 ROM
23 RAM
24 I / O interface
25 display
26 Printer
27 memory
28 Scanner
29 Communication interface
30 Communication network
31 drivers
32 hard disk
33 IC memory card
34 Magnetic tape
35 floppy disk
36 optical disc
37 bus
38 keyboard
41, 61, 81 Fingerprint sensor
42, 62, 82 Image storage unit
43, 63, 83 Image binarization unit
44, 64, 84 Image thinning section
45, 65, 85 Feature point extraction unit
46 Feature Point Location Storage Unit
47, 67, 87 Erroneous feature point removal unit
48, 68, 88 Fingerprint fine line image correction part
49 Main distance information extractor
50, 71, 93 Fingerprint information storage unit
51, 72, 94 Registered fingerprint information storage unit
52, 73, 95 Fingerprint verification unit
53, 74, 96 Verification result display
66, 86 Feature point / projection feature point position storage unit
69, 89 Projected feature point generator
70, 90 Main distance / sub distance information extraction unit
91 Fingerprint center position detector
92 Feature point information detector

Claims (33)

指紋データを入力する指紋データ入力手段と、
前記指紋データに基づいて、指紋の隆線を抽出する隆線抽出手段と、
前記指紋データに基づいて、前記隆線上の特徴点を抽出する特徴点抽出手段と、
前記特徴点の前記隆線上への配置状態を検出する配置状態検出手段と、
前記特徴点抽出手段により抽出された特徴点に対応させて、隆線上に仮想的な特徴点を設定する仮想特徴点設定手段と、
前記仮想的な特徴点についての指紋情報を算出する指紋情報算出手段と、
前記配置状態および前記指紋情報算出手段により算出された指紋情報を個人情報として登録する登録手段とを備え、
前記仮想的な特徴点は、隆線上に実在する特徴点を他の隆線上に投影した投影点である
ことを特徴とする指紋登録装置。
Fingerprint data input means for inputting fingerprint data;
A ridge extracting means for extracting a ridge of a fingerprint based on the fingerprint data;
Feature point extraction means for extracting feature points on the ridges based on the fingerprint data;
An arrangement state detecting means for detecting an arrangement state of the feature points on the ridges;
Virtual feature point setting means for setting a virtual feature point on the ridge in correspondence with the feature point extracted by the feature point extraction means;
Fingerprint information calculating means for calculating fingerprint information about the virtual feature point;
Registration means for registering the placement state and the fingerprint information calculated by the fingerprint information calculation means as personal information,
The said virtual feature point is a projection point which projected the feature point which exists on a ridge on another ridge. The fingerprint registration apparatus characterized by the above-mentioned.
前記配置状態は、前記隆線上に存在している特徴点の個数、前記隆線上に存在している特徴点の種類、前記特徴点の前記隆線上への配列順序、前記隆線上に設定された基準点から前記特徴点への距離あるいは道のり、または前記基準点から前記特徴点への接続方向のうちの少なくとも1つである
ことを特徴とする請求項1に記載の指紋登録装置。
The arrangement state is set on the ridge, the number of feature points existing on the ridge, the type of feature points existing on the ridge, the arrangement order of the feature points on the ridge, The fingerprint registration apparatus according to claim 1, wherein the fingerprint registration apparatus is at least one of a distance or a path from a reference point to the feature point, or a connection direction from the reference point to the feature point.
前記特徴点の種類は、端点または分岐点である
ことを特徴とする請求項2に記載の指紋登録装置。
The fingerprint registration apparatus according to claim 2, wherein the type of the feature point is an end point or a branch point.
前記指紋情報は、前記隆線上に存在している特徴点及び仮想的な特徴点の個数、前記隆線上に存在している特徴点の種類、前記特徴点及び仮想的な特徴点の前記隆線上への配列順序、前記隆線上の特徴点あるいは仮想的な特徴点の間の距離あるいは道のり、または前記隆線上の特徴点あるいは仮想的な特徴点への接続方向のうちの少なくとも1つである
ことを特徴とする請求項1に記載の指紋登録装置。
The fingerprint information includes the number of feature points and virtual feature points existing on the ridge, the type of feature points existing on the ridge, and the feature points and virtual feature points on the ridge. At least one of the order of arrangement, the distance or path between feature points or virtual feature points on the ridge, or the connection direction to the feature points or virtual feature points on the ridge The fingerprint registration apparatus according to claim 1.
指紋データを入力する指紋データ入力手段と、
前記指紋データに基づいて、指紋の隆線を抽出する隆線抽出手段と、
前記指紋データに基づいて、前記隆線上の特徴点を抽出する特徴点抽出手段と、
前記特徴点の前記隆線上での配置状態を検出する配置状態検出手段と、
前記指紋データに基づいて、隆線上に仮想的な特徴点を設定する仮想特徴点設定手段と、
前記仮想特徴点設定手段により設定された仮想的な特徴点の指紋情報を算出する指紋情報算出手段と、
前記配置状態および指紋情報に基づいて、指紋照合を行う照合手段を備え、
前記仮想的な特徴点は、隆線上に実在する特徴点を他の隆線上に投影した投影点である
ことを特徴とする指紋照合装置。
Fingerprint data input means for inputting fingerprint data;
A ridge extracting means for extracting a ridge of a fingerprint based on the fingerprint data;
Feature point extraction means for extracting feature points on the ridges based on the fingerprint data;
An arrangement state detecting means for detecting an arrangement state of the feature points on the ridge;
Virtual feature point setting means for setting a virtual feature point on the ridge based on the fingerprint data;
Fingerprint information calculation means for calculating fingerprint information of virtual feature points set by the virtual feature point setting means;
Based on the arrangement state and fingerprint information, comprising a collation means for performing fingerprint collation ,
The virtual feature point is a projected point obtained by projecting a feature point existing on a ridge onto another ridge.
前記配置状態は、前記隆線上に存在している特徴点の個数、前記隆線上に存在している特徴点の種類、前記特徴点の前記隆線上への配列順序、前記隆線上に設定された基準点から前記特徴点への距離あるいは道のり、または前記基準点から前記特徴点への接続方向のうちの少なくとも1つである
ことを特徴とする請求項5に記載の指紋照合装置。
The arrangement state is set on the ridge, the number of feature points existing on the ridge, the type of feature points existing on the ridge, the arrangement order of the feature points on the ridge, The fingerprint collation device according to claim 5, wherein at least one of a distance or a path from a reference point to the feature point, or a connection direction from the reference point to the feature point.
前記特徴点の種類は、端点または分岐点である
ことを特徴とする請求項5または6に記載の指紋照合装置。
The fingerprint collation apparatus according to claim 5 or 6, wherein the type of the feature point is an end point or a branch point.
前記仮想特徴点設定手段は、前記隆線上に実在する特徴点を他の隆線上に投影した投影点を生成する投影点生成手段を備える
ことを特徴とする請求項5に記載の指紋照合装置。
The fingerprint collation apparatus according to claim 5, wherein the virtual feature point setting unit includes a projection point generation unit configured to generate a projection point obtained by projecting a feature point existing on the ridge onto another ridge.
前記仮想特徴点設定手段は、前記隆線の端点と前記端点に対応する投影点とを統合することにより、前記隆線上に仮想的な分岐点を生成する仮想分岐点生成手段を備える
ことを特徴とする請求項8に記載の指紋照合装置。
The virtual feature point setting means includes virtual branch point generation means for generating a virtual branch point on the ridge by integrating an end point of the ridge and a projection point corresponding to the end point. The fingerprint collation apparatus according to claim 8.
前記仮想特徴点設定手段は、前記隆線を分岐点で分離することにより、仮想的な端点と前記端点に対応する投影点とを生成する仮想端点生成手段を備える
ことを特徴とする請求項8または9に記載の指紋照合装置。
The virtual feature point setting unit includes a virtual end point generation unit that generates a virtual end point and a projection point corresponding to the end point by separating the ridge line at a branch point. Or the fingerprint collation apparatus of 9.
前記照合手段は、第1の隆線上に存在する第1の特徴点および第2の隆線上に存在する第2の特徴点の位置および種類を比較することにより照合処理を行う第1の比較手段を備える
ことを特徴とする請求項5、8〜10のいずれか1項に記載の指紋照合装置。
The collation means performs first collation processing by comparing the positions and types of the first feature points existing on the first ridge and the second feature points existing on the second ridge. The fingerprint collation device according to any one of claims 5 and 8 to 10.
前記照合手段は、所定の隆線上に存在する第1の特徴点から上記所定の隆線上に存在する第2の特徴点へ至る道のり、または上記第1の特徴点から上記所定の隆線上に投影された仮想的な特徴点へ至る道のりを利用して照合処理を行う第2の比較手段を備える
ことを特徴とする請求項5、8〜10のいずれか1項に記載の指紋照合装置。
The collating means projects from the first feature point existing on the predetermined ridge to the second feature point existing on the predetermined ridge, or projected from the first feature point onto the predetermined ridge. The fingerprint collation device according to claim 5, further comprising: a second comparison unit that performs collation processing using a route to the virtual feature point that has been made.
前記照合手段は、所定の隆線上に投影された第1の仮想的な特徴点から上記所定の隆線上に存在する特徴点へ至る道のり、または上記第1の仮想的な特徴点から所定の隆線上に投影された第2の仮想的な特徴点へ至る道のりを利用して照合処理を行う第3の比較手段を備える
ことを特徴とする請求項5、8〜10のいずれか1項に記載の指紋照合装置。
The collating unit is configured to travel from the first virtual feature point projected on the predetermined ridge to the feature point existing on the predetermined ridge, or from the first virtual feature point to the predetermined ridge. 11. The apparatus according to claim 5, further comprising: a third comparison unit configured to perform a matching process using a path to the second virtual feature point projected on the line. Fingerprint verification device.
指紋データを入力する指紋データ入力手段と、
前記指紋データに基づいて、第1の特徴点を抽出する第1の特徴点抽出手段と、
前記指紋データに基づいて、第2の特徴点を抽出する第2の特徴点抽出手段と、
前記第1の特徴点を他の隆線上に投影することにより仮想的な特徴点を生成する仮想特徴点生成手段と、
前記第2の特徴点及び前記仮想的な特徴点の隆線による接続状態を検出する接続状態検出手段と、
前記接続状態に基づいて、指紋照合を行う照合手段を備え、
前記接続状態は、前記第2の特徴点と前記仮想的な特徴点との間の距離または道のりである
ことを特徴とする指紋照合装置。
Fingerprint data input means for inputting fingerprint data;
First feature point extracting means for extracting a first feature point based on the fingerprint data;
Second feature point extracting means for extracting a second feature point based on the fingerprint data;
Virtual feature point generation means for generating a virtual feature point by projecting the first feature point onto another ridge ;
A connection state detection means for detecting a connection state by a ridge of the second feature point and the virtual feature point;
Based on the connection state, comprising a collation means for performing fingerprint collation ,
The fingerprint collation apparatus characterized in that the connection state is a distance or a path between the second feature point and the virtual feature point .
前記接続状態検出手段は、さらに、前記第1の特徴点及びその第1の特徴点と同一隆線上に存在する第3の特徴点の隆線による接続状態としてそれら2点間の距離または道のりを検出する
ことを特徴とする請求項14に記載の指紋照合装置。
The connection state detection means further determines the distance or path between the first feature point and the third feature point existing on the same ridge as the first feature point as a connection state. The fingerprint collation apparatus according to claim 14, wherein the fingerprint collation apparatus is detected.
指紋データを入力する指紋データ入力手段と、
前記指紋データに基づいて、第1の特徴点を抽出する第1の特徴点抽出手段と、
前記指紋データに基づいて、第2の特徴点を抽出する第2の特徴点抽出手段と、
前記第1の特徴点に対応させて、第1の仮想的な特徴点を生成する第1の仮想特徴点生成手段と、
前記第2の特徴点に対応させて、第2の仮想的な特徴点を生成する第2の仮想特徴点生成手段と、
前記第1の仮想的な特徴点及び前記第2の仮想的な特徴点の隆線による接続状態を検出する接続状態検出手段と、
前記接続状態に基づいて、指紋照合を行う照合手段を備え、
前記第1および第2の仮想的な特徴点は、それぞれ、前記第1および第2の特徴点を他の隆線上に投影した投影点であり、
前記接続状態は、前記第1および第2の仮想的な特徴点間の距離または道のりである
ことを特徴とする指紋照合装置。
Fingerprint data input means for inputting fingerprint data;
First feature point extracting means for extracting a first feature point based on the fingerprint data;
Second feature point extracting means for extracting a second feature point based on the fingerprint data;
First virtual feature point generating means for generating a first virtual feature point corresponding to the first feature point;
Second virtual feature point generation means for generating a second virtual feature point in correspondence with the second feature point;
A connection state detecting means for detecting a connection state by a ridge of the first virtual feature point and the second virtual feature point;
Based on the connection state, comprising a collation means for performing fingerprint collation ,
The first and second virtual feature points are projection points obtained by projecting the first and second feature points on other ridges, respectively.
The fingerprint collation apparatus, wherein the connection state is a distance or a path between the first and second virtual feature points .
指紋画像を入力する指紋画像入力手段と、
前記指紋画像を二値化する二値化手段と、
二値化された指紋画像を細線化する細線化手段と、
細線化された指紋画像から隆線を抽出する隆線抽出手段と、
前記隆線上の特徴点を抽出する特徴点抽出手段と、
前記特徴点の前記隆線による接続状態を抽出する特徴点接続情報抽出手段と、
前記特徴点を周辺の隆線に投影した投影特徴点を生成する投影特徴点生成手段と、
前記隆線による前記特徴点の接続状態および前記投影特徴点に基づいて、前記指紋画像を照合する照合手段と、
を備えることを特徴とする指紋照合装置。
A fingerprint image input means for inputting a fingerprint image;
Binarization means for binarizing the fingerprint image;
A thinning means for thinning a binarized fingerprint image;
A ridge extracting means for extracting a ridge from a thinned fingerprint image;
Feature point extracting means for extracting feature points on the ridge;
Feature point connection information extracting means for extracting a connection state of the feature points by the ridges;
Projected feature point generating means for generating a projected feature point by projecting the feature point onto a surrounding ridge;
Collating means for collating the fingerprint image based on the connection state of the feature points by the ridges and the projected feature points;
A fingerprint collation apparatus comprising:
前記特徴点接続情報抽出手段は、前記特徴点間の隆線上の道のりまたは距離を算出する第1の算出手段を備え、
前記照合手段は、前記特徴点間の隆線上の道のりまたは距離が所定値以内で一致している場合、隆線構造が一致しているとみなす第1の判定手段を備えることを特徴とする請求項17に記載の指紋照合装置。
The feature point connection information extraction means includes first calculation means for calculating a road or distance on a ridge between the feature points,
The said collation means is provided with the 1st determination means which considers that a ridge structure is in agreement, when the path | route or distance on the ridge between the said feature points corresponds within a predetermined value. Item 18. The fingerprint collation device according to Item 17.
前記特徴点接続情報抽出手段は、前記特徴点と前記投影特徴点との間の隆線上の道のりまたは距離を算出する第2の算出手段を備え、
前記照合手段は、前記特徴点と前記投影特徴点との間の隆線上の道のりまたは距離が、他の指紋画像と所定値以内で一致している場合、隆線構造が一致しているとみなす第2の判定手段を備えることを特徴とする請求項17または18に記載の指紋照合装置。
The feature point connection information extraction means includes second calculation means for calculating a road or distance on a ridge between the feature point and the projected feature point,
The collation means considers that the ridge structure is coincident when a path or distance on the ridge between the feature point and the projected feature point coincides with another fingerprint image within a predetermined value. The fingerprint collation apparatus according to claim 17 or 18, further comprising a second determination unit.
前記特徴点接続情報抽出手段は、
前記特徴点を近辺の隆線へ投影した投影特徴点を計測起点に設定する計測起点設定手段と、
前記計測起点に接続する隆線上の他の特徴点あるいは他の投影特徴点までの道のりまたは距離を算出する第3の算出手段を備え、
前記照合手段は、前記計測起点に接続する隆線上の他の特徴点あるいは他の投影特徴点までの道のりまたは距離が、所定値以内で一致している場合、隆線構造が一致しているとみなす第3の判定手段を備える
ことを特徴とする請求項17〜19のいずれか1項に記載の指紋照合装置。
The feature point connection information extracting means includes:
A measurement origin setting means for setting a projection feature point obtained by projecting the feature point onto a nearby ridge line as a measurement origin;
A third calculating means for calculating a road or distance to another feature point on the ridge connected to the measurement origin or another projected feature point;
The collation means, when the distance or distance to another feature point on the ridge connected to the measurement origin or another projected feature point is matched within a predetermined value, the ridge structure is matched The fingerprint verification apparatus according to any one of claims 17 to 19, further comprising: a third determination unit that is regarded.
前記特徴点接続情報抽出手段は、前記隆線上に存在する特徴点及び投影特徴点の数を算出する第4の算出手段を備え、
前記照合手段は、前記隆線上に存在する特徴点及び投影特徴点の数が、所定値以内で一致している場合、隆線構造が一致しているとみなす第4の判定手段を備える
ことを特徴とする請求項17〜20のいずれか1項に記載の指紋照合装置。
The feature point connection information extraction means includes fourth calculation means for calculating the number of feature points and projected feature points existing on the ridge,
The collation means includes fourth determination means that, when the number of feature points and projection feature points existing on the ridge line match within a predetermined value, the ridge structure is regarded as matching. The fingerprint collation apparatus according to any one of claims 17 to 20, wherein the fingerprint collation apparatus is any one of claims 17 to 20.
前記特徴点接続情報抽出手段は、前記特徴点と関係する他の特徴点または投影元特徴点の指紋情報を抽出する指紋情報抽出手段を備え、
前記照合手段は、前記指紋情報に基づいて、隆線構造が一致しているかどうかを判定する第5の判定手段を備える
ことを特徴とする請求項17〜21のいずれか1項に記載の指紋照合装置。
The feature point connection information extracting means includes fingerprint information extracting means for extracting fingerprint information of other feature points related to the feature points or projection source feature points,
The fingerprint according to any one of claims 17 to 21, wherein the collating unit includes a fifth determining unit that determines whether or not the ridge structures match based on the fingerprint information. Verification device.
前記特徴点接続情報抽出手段は、前記隆線の接続先の投影特徴点に対する投影元特徴点の種類情報を抽出する第2の種類情報抽出手段を備える
ことを特徴とする請求項17〜22のいずれか1項に記載の指紋照合装置。
The feature point connection information extraction unit includes a second type information extraction unit that extracts type information of a projection source feature point with respect to a projection feature point to which the ridge is connected. The fingerprint collation apparatus according to any one of the above.
前記特徴点接続情報抽出手段は、接続元の特徴点または投影特徴点から、接続先の特徴点または投影特徴点への方向情報を抽出する方向情報抽出手段を備える
ことを特徴とする請求項17〜23のいずれか1項に記載の指紋照合装置。
The feature point connection information extracting means comprises direction information extracting means for extracting direction information from a connection source feature point or projection feature point to a connection destination feature point or projection feature point. 24. The fingerprint collation device according to any one of items 23 to 23.
前記照合手段は、
照合対象の特徴点と前記特徴点を投影した投影特徴点との間に存在する隆線の本数を増減する隆線増減手段と、
前記隆線増減手段により増減された隆線構造が一致しているかどうかを判定する第7の判定手段とを備える
ことを特徴とする請求項17〜24のいずれか1項に記載の指紋照合装置。
The verification means includes
Ridge increase / decrease means for increasing / decreasing the number of ridges existing between the feature point to be collated and the projected feature point obtained by projecting the feature point;
The fingerprint collation device according to any one of claims 17 to 24, further comprising: a seventh determination unit that determines whether or not the ridge structures increased or decreased by the ridge increase / decrease unit match. .
前記照合手段は、所定の隆線上に存在する第1の特徴点から上記所定の隆線上に存在する第2の特徴点へ至る道のり、または上記第1の特徴点から上記所定の隆線上に投影された仮想的な特徴点へ至る道のりを利用して照合処理を行う比較手段を備える
ことを特徴とする請求項17〜25のいずれか1項に記載の指紋照合装置。
The collating means projects from the first feature point existing on the predetermined ridge to the second feature point existing on the predetermined ridge, or projected from the first feature point onto the predetermined ridge. The fingerprint collation apparatus according to any one of claims 17 to 25, further comprising a comparison unit that performs collation processing using a route to the virtual feature point that has been made.
前記照合手段は、所定の隆線上に投影された第1の仮想的な特徴点から上記所定の隆線上に存在する特徴点へ至る道のり、または上記第1の仮想的な特徴点から所定の隆線上に投影された第2の仮想的な特徴点へ至る道のりを利用して照合処理を行う比較手段を備える
ことを特徴とする請求項17〜26のいずれか1項に記載の指紋照合装置。
The collating unit is configured to travel from the first virtual feature point projected on the predetermined ridge to the feature point existing on the predetermined ridge, or from the first virtual feature point to the predetermined ridge. 27. The fingerprint collation apparatus according to any one of claims 17 to 26, further comprising a comparison unit that performs collation processing using a path to the second virtual feature point projected on the line.
指紋画像を入力する指紋画像入力手段と、
前記指紋画像を二値化する二値化手段と、
二値化された指紋画像を細線化する細線化手段と、
細線化された指紋画像から隆線を抽出する隆線抽出手段と、
第1の隆線上から第1の特徴点を抽出するとともに、第2の隆線の端点である第2の特徴点を抽出する特徴点抽出手段と、
前記第2の特徴点を前記第1の隆線上に投影することにより仮想的な分岐点を生成する特徴点仮想変更手段と、
前記第1の特徴点と前記仮想的な分岐点の前記第1の隆線による接続状態を抽出する特徴点接続情報抽出手段と、
記接続状態に基づいて、前記指紋画像を照合する照合手段、を備え、
前記接続状態は、前記第1特徴点と前記仮想的な分岐点との間の距離または道のりである
ことを特徴とする指紋照合装置。
A fingerprint image input means for inputting a fingerprint image;
Binarization means for binarizing the fingerprint image;
A thinning means for thinning a binarized fingerprint image;
A ridge extracting means for extracting a ridge from a thinned fingerprint image;
A feature point extracting means for extracting a first feature point from the first ridge and extracting a second feature point that is an end point of the second ridge ;
Feature point virtual changing means for generating a virtual branch point by projecting the second feature point onto the first ridge ;
Feature point connection information extracting means for extracting a connection state of the first feature point and the virtual branch point by the first ridge;
Based on prior Kise' connection state, it comprises a collating means for collating the fingerprint image,
The connection state is a distance or a path between the first feature point and the virtual branch point .
指紋画像を入力する指紋画像入力手段と、
前記指紋画像を二値化する二値化手段と、
二値化された指紋画像を細線化する細線化手段と、
細線化された指紋画像から隆線を抽出する隆線抽出手段と、
第1の隆線上から第1特徴点を抽出するとともに、前記第1の隆線とその第1の隆線に隣接する第2の隆線との分岐点である第2の特徴点を抽出する特徴点抽出手段と、
前記第2の特徴点の種類を、仮想的に、前記第2の隆線の端点を前記第1の隆線上に投影することにより得られる投影点に変更する特徴点仮想変更手段と、
前記第1の特徴点と前記投影点の前記第1の隆線による接続状態を抽出する特徴点接続情報抽出手段と、
記接続状態に基づいて、前記指紋画像を照合する照合手段、を備え、
前記接続状態は、前記第1特徴点と前記投影点との間の距離または道のりである
ことを特徴とする指紋照合装置。
A fingerprint image input means for inputting a fingerprint image;
Binarization means for binarizing the fingerprint image;
A thinning means for thinning a binarized fingerprint image;
A ridge extracting means for extracting a ridge from a thinned fingerprint image;
A first feature point is extracted from the first ridge, and a second feature point that is a branch point between the first ridge and the second ridge adjacent to the first ridge is extracted. Feature point extraction means;
A feature point virtual changing means for virtually changing the type of the second feature point to a projection point obtained by projecting an end point of the second ridge onto the first ridge ;
Feature point connection information extracting means for extracting a connection state of the first feature point and the projection point by the first ridge;
Based on prior Kise' connection state, it comprises a collating means for collating the fingerprint image,
The fingerprint collation apparatus , wherein the connection state is a distance or a path between the first feature point and the projection point .
前記指紋画像の隆線は、谷線部と山線部とを反転させたものであることを特徴とする請求項5〜29のいずれか1項に記載の指紋照合装置。The ridge of the fingerprint image, the fingerprint collating apparatus according to any one of claims 5-29, characterized in that is obtained by inverting the valley portion and Yamasen portion. 指紋データを入力するステップと、
前記指紋データに基づいて、隆線上に実在する特徴点を他の隆線上に投影した投影点である仮想的な特徴点を設定するステップと、
前記仮想的な特徴点の指紋情報を算出するステップと、
前記指紋情報に基づいて、指紋照合を行うステップ
を備えることを特徴とする指紋照合方法。
Inputting fingerprint data; and
Based on the fingerprint data, setting a virtual feature point that is a projection point obtained by projecting a feature point existing on the ridge onto another ridge ;
Calculating fingerprint information of the virtual feature points;
A fingerprint collation method comprising: performing fingerprint collation based on the fingerprint information.
指紋データを入力する機能と、
前記指紋データに基づいて、隆線上に実在する特徴点を他の隆線上に投影した投影点である仮想的な特徴点を設定する機能と、
前記仮想的な特徴点の指紋情報を算出する機能と、
前記指紋情報に基づいて、指紋照合を行う機能
をコンピュータに実現させるプログラムを格納したコンピュータ読み取り可能な記憶媒体。
A function to input fingerprint data;
Based on the fingerprint data, a function for setting a virtual feature point that is a projection point obtained by projecting a feature point existing on the ridge onto another ridge ;
A function of calculating fingerprint information of the virtual feature point;
A computer-readable storage medium storing a program for causing a computer to perform a fingerprint verification function based on the fingerprint information.
前記指紋データに基づいて、指紋の隆線を抽出する機能と、
前記指紋データに基づいて、前記隆線上の特徴点を抽出する機能と、
前記特徴点の前記隆線上への配置状態を検出する機能と、
前記配置状態に基づいて、指紋照合を行う機能
をコンピュータに実現させるプログラムを格納したコンピュータ読み取り可能な請求項32に記載の記憶媒体。
A function of extracting fingerprint ridges based on the fingerprint data;
A function of extracting feature points on the ridge based on the fingerprint data;
A function of detecting an arrangement state of the feature points on the ridge;
The computer-readable storage medium according to claim 32 , wherein a computer-readable program storing a program for causing a computer to perform a fingerprint collation function based on the arrangement state.
JP28747098A 1997-10-20 1998-10-09 Fingerprint registration device, fingerprint verification device, and fingerprint verification method Expired - Fee Related JP3705938B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28747098A JP3705938B2 (en) 1997-10-20 1998-10-09 Fingerprint registration device, fingerprint verification device, and fingerprint verification method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP9-285919 1997-10-20
JP28591997 1997-10-20
JP28747098A JP3705938B2 (en) 1997-10-20 1998-10-09 Fingerprint registration device, fingerprint verification device, and fingerprint verification method

Publications (2)

Publication Number Publication Date
JPH11195119A JPH11195119A (en) 1999-07-21
JP3705938B2 true JP3705938B2 (en) 2005-10-12

Family

ID=26556083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28747098A Expired - Fee Related JP3705938B2 (en) 1997-10-20 1998-10-09 Fingerprint registration device, fingerprint verification device, and fingerprint verification method

Country Status (1)

Country Link
JP (1) JP3705938B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3725998B2 (en) 1999-10-14 2005-12-14 富士通株式会社 Fingerprint verification device and verification method
JP5015390B2 (en) * 2001-07-04 2012-08-29 川澄化学工業株式会社 Personal identification device and personal identification information verification method
JP4030829B2 (en) 2002-08-13 2008-01-09 日本電気株式会社 Striped pattern image matching apparatus and striped pattern image matching method
EP1589480B1 (en) 2003-01-28 2013-08-21 Fujitsu Limited Biometrics information registration apparatus, biometrics information matching apparatus, biometrics information registration/matching system, and biometrics information registration program
WO2005069221A1 (en) 2004-01-15 2005-07-28 Nec Corporation Pattern identifying system, pattern identifying method, and pattern identifying program
JP4340618B2 (en) 2004-10-08 2009-10-07 富士通株式会社 Biometric information authentication apparatus and method, biometric information authentication program, and computer-readable recording medium recording the biometric information authentication program
JP4423557B2 (en) 2004-11-19 2010-03-03 ソニー株式会社 Authentication device, authentication method and program, and authentication information registration device
JP2007207009A (en) 2006-02-02 2007-08-16 Fujitsu Ltd Image processing method and image processor
CN101911115B (en) 2007-12-26 2012-08-08 日本电气株式会社 Inter-pattern feature corresponding device, and inter-pattern feature corresponding method used for the same
JP4683312B2 (en) * 2009-07-28 2011-05-18 ソニー株式会社 Authentication apparatus, authentication method, and program
WO2012111095A1 (en) 2011-02-15 2012-08-23 富士通株式会社 Biometric authentication device, biometric authentication method, and computer program for biometric authentication
JP6835224B2 (en) 2017-07-06 2021-02-24 日本電気株式会社 Feature generator, system, feature generation method and program

Also Published As

Publication number Publication date
JPH11195119A (en) 1999-07-21

Similar Documents

Publication Publication Date Title
JP3705938B2 (en) Fingerprint registration device, fingerprint verification device, and fingerprint verification method
EP1467308B1 (en) Image identification system
JP3725998B2 (en) Fingerprint verification device and verification method
KR100824733B1 (en) Method for concealment and authentication of fingerprint data using 3d fuzzy vault, apparatus for concealment of fingerprint data using 3d fuzzy vault and system for authentication of fingerprint data using 3d fuzzy vault
US20110123072A1 (en) Fingerprint verification method and apparatus with high security
US20080101662A1 (en) Print matching method and apparatus using pseudo-ridges
WO2002098053A2 (en) Biometric value generation apparatus and method
CN101794386A (en) Fingerprint identification system and method for resisting remaining fingerprint
CN111027404A (en) Fingerprint identification method based on fingerprint protection template
JP4912011B2 (en) Biometric information verification device
KR20100041562A (en) Method and system for performing user authentication by face recognizing and fingerprint recognizing of user needing an authentication
CN110765856B (en) Convolution-based low-quality finger vein image edge detection algorithm
KR100647362B1 (en) Method for acknowledging fingerprint
Sha et al. Orientation-improved minutiae for fingerprint matching
CN110633384B (en) High-resolution fingerprint retrieval method, device and system based on sweat pore and multi-image matching and storage medium
Rajan et al. Multi-biometric cryptosystem using graph for secure cloud authentication
JP2001076142A (en) Method and device for collating fingerprint image and recording medium with this method recorded thereon
Butt et al. Correlation-resistant fuzzy vault for fingerprints
JP2833314B2 (en) Fingerprint collation device
JP2912759B2 (en) Fingerprint matching method
Cao et al. Fingerprint matching based on neighboring information and penalized logistic regression
JPH04313167A (en) Location confirmation system for characteristic point of picture
Nomir et al. Combining matching algorithms for human identification using dental X-ray radiographs
Champaneria et al. A Secure Template Protection Technique for Robust Biometric Systems
US9268992B2 (en) Signup and biometric verification methods, and related systems and devices

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050727

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090805

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090805

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100805

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110805

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120805

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120805

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130805

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees