[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6167861B2 - Biological information extraction device, biological information extraction method, and biological information program - Google Patents

Biological information extraction device, biological information extraction method, and biological information program Download PDF

Info

Publication number
JP6167861B2
JP6167861B2 JP2013232109A JP2013232109A JP6167861B2 JP 6167861 B2 JP6167861 B2 JP 6167861B2 JP 2013232109 A JP2013232109 A JP 2013232109A JP 2013232109 A JP2013232109 A JP 2013232109A JP 6167861 B2 JP6167861 B2 JP 6167861B2
Authority
JP
Japan
Prior art keywords
linear pattern
unit
biological
end points
information extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013232109A
Other languages
Japanese (ja)
Other versions
JP2015094967A (en
Inventor
智明 松濤
智明 松濤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013232109A priority Critical patent/JP6167861B2/en
Publication of JP2015094967A publication Critical patent/JP2015094967A/en
Application granted granted Critical
Publication of JP6167861B2 publication Critical patent/JP6167861B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、生体情報抽出装置、生体情報抽出方法、および生体情報プログラムに関する。   The present invention relates to a biological information extraction device, a biological information extraction method, and a biological information program.

特許文献1では、同一の生体部位を複数の方向から撮像して得た静脈画像から1枚の画像を合成する方法が開示されている。また、特許文献2では、静脈画像から、血管パターンの湾曲成分と方向成分とを抽出し、それらを特徴量として照合を行う方法が開示されている。   Patent Document 1 discloses a method of synthesizing one image from a vein image obtained by imaging the same living body part from a plurality of directions. Further, Patent Document 2 discloses a method of extracting a curved component and a directional component of a blood vessel pattern from a vein image and performing matching using these as feature amounts.

国際公開第2006/134669号International Publication No. 2006/134669 特開2007−249339号公報JP 2007-249339 A

手のひら静脈や指静脈等の3次元の線状パターンを2次元画像に投影したとき、2次元画像においては、ねじれの位置にある静脈どうしが分岐、交差点等を含む複雑な領域として現れる。しかしながら、特許文献1,2の技術では、ユーザが生体センサに生体部位をかざすときの姿勢変動等の影響によって、2次元画像における分岐、交差点等の位置が変動したときに、本来繋がるべき箇所が切断されたり、本来繋がっていない箇所が接続したりする場合があり、線状パターンの切断、接続を適切に抽出出来ない。その結果、認証精度が低下するという課題があった。   When a three-dimensional linear pattern such as a palm vein or a finger vein is projected onto a two-dimensional image, the veins at the position of twist appear as complex areas including branches, intersections, etc. in the two-dimensional image. However, in the techniques of Patent Documents 1 and 2, when a position of a branch, an intersection, or the like in a two-dimensional image changes due to an influence of a posture change or the like when the user holds a living body part over a living body sensor, there is a place that should be connected originally It may be disconnected or a portion that is not originally connected may be connected, and it is not possible to appropriately extract the cutting and connection of the linear pattern. As a result, there has been a problem that authentication accuracy is lowered.

1つの側面では、本件は、生体の3次元の線状パターンで分岐、交差点等を含む複雑な領域において、線状パターンの切断、接続等の抽出精度を向上させることができる、生体情報抽出装置、生体情報抽出方法、および生体情報プログラムを提供することを目的とする。   In one aspect, the present invention provides a biological information extraction device that can improve the extraction accuracy of cutting, connecting, and the like of a linear pattern in a complex region including a branch, an intersection, and the like in a three-dimensional linear pattern of a living body Another object is to provide a biological information extraction method and a biological information program.

1つの態様では、生体情報抽出装置は、生体の3次元の線状パターンを撮像した生体画像を取得する取得部と、前記取得部が取得した前記生体画像から前記線状パターンを抽出する抽出部と、前記抽出部が抽出した線状パターンを、当該線状パターンの特徴に応じて複数に分離する分離部と、前記分離部によって分離された各線状パターンにおいて、所定の条件を満たす場合に端点どうしを接続する補正部と、前記補正部による補正後の各線状パターンを合成する合成部と、を備える。   In one aspect, the biological information extraction apparatus includes an acquisition unit that acquires a biological image obtained by imaging a three-dimensional linear pattern of a biological body, and an extraction unit that extracts the linear pattern from the biological image acquired by the acquisition unit. And a separation unit that separates the linear pattern extracted by the extraction unit into a plurality according to the characteristics of the linear pattern, and each linear pattern separated by the separation unit when the predetermined condition is satisfied A correction unit that connects the two to each other, and a synthesis unit that combines the linear patterns corrected by the correction unit.

生体における3次元の線状パターンにおいて、分岐、交差点等を含む複雑な領域でも、線状パターンの切断、接続等の抽出精度を向上させることができる。   In a three-dimensional linear pattern in a living body, the extraction accuracy of the cutting and connection of the linear pattern can be improved even in a complicated region including branches, intersections, and the like.

(a)は実施例1に係る生体情報抽出装置のハードウェア構成を説明するためのブロック図であり、(b)は生体センサの模式図である。(A) is a block diagram for demonstrating the hardware constitutions of the biometric information extraction apparatus which concerns on Example 1, (b) is a schematic diagram of a biosensor. (a)および(b)は生体センサの撮像によって得られた生体画像の一例である。(A) And (b) is an example of the biometric image obtained by the imaging of the biosensor. 生体情報抽出プログラムの実行によって実現される各機能のブロック図である。It is a block diagram of each function implement | achieved by execution of a biometric information extraction program. 登録処理の一例を表すフローチャートである。It is a flowchart showing an example of a registration process. (a)は静脈パターンの一部の例であり、(b)〜(e)は分離された各成分の例である。(A) is an example of a part of vein pattern, (b)-(e) is an example of each component isolate | separated. 補正処理を表す図である。It is a figure showing a correction process. (a)〜(d)は補正処理後の静脈パターンであり、(e)は合成された静脈パターンである。(A) to (d) are vein patterns after correction processing, and (e) is a synthesized vein pattern. 認証処理の一例を表すフローチャートである。It is a flowchart showing an example of an authentication process. (a)は静脈パターンの一部の例であり、(b)〜(e)は分離された各成分の例である。(A) is an example of a part of vein pattern, (b)-(e) is an example of each component isolate | separated. 登録処理の一例を表すフローチャートである。It is a flowchart showing an example of a registration process. (a)および(b)は補正処理を表す図である。(A) And (b) is a figure showing a correction process. 生体情報抽出プログラムの実行によって実現される各機能のブロック図である。It is a block diagram of each function implement | achieved by execution of a biometric information extraction program. 生体情報抽出プログラムの実行によって実現される各機能のブロック図である。It is a block diagram of each function implement | achieved by execution of a biometric information extraction program. 細線化処理によって細線化された静脈パターンの例を表す。The example of the vein pattern thinned by the thinning process is represented.

以下、図面を参照しつつ、実施例について説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1(a)は、実施例1に係る生体情報抽出装置100のハードウェア構成を説明するためのブロック図である。図1(b)は、後述する生体センサ105の模式図である。図1(a)を参照して、生体情報抽出装置100は、CPU101、RAM102、記憶装置103、表示装置104、生体センサ105などを備える。これらの各機器は、バスなどによって接続されている。   FIG. 1A is a block diagram for explaining a hardware configuration of the biological information extracting apparatus 100 according to the first embodiment. FIG. 1B is a schematic diagram of the biosensor 105 described later. Referring to FIG. 1A, the biological information extracting apparatus 100 includes a CPU 101, a RAM 102, a storage device 103, a display device 104, a biological sensor 105, and the like. Each of these devices is connected by a bus or the like.

CPU(Central Processing Unit)101は、中央演算処理装置である。CPU101は、1以上のコアを含む。RAM(Random Access Memory)102は、CPU101が実行するプログラム、CPU101が処理するデータなどを一時的に記憶する揮発性メモリである。   A CPU (Central Processing Unit) 101 is a central processing unit. The CPU 101 includes one or more cores. A RAM (Random Access Memory) 102 is a volatile memory that temporarily stores programs executed by the CPU 101, data processed by the CPU 101, and the like.

記憶装置103は、不揮発性記憶装置である。記憶装置103として、例えば、ROM(Read Only Memory)、フラッシュメモリなどのソリッド・ステート・ドライブ(SSD)、ハードディスクドライブに駆動されるハードディスクなどを用いることができる。本実施例に係る生体情報抽出プログラムは、記憶装置103に記憶されている。表示装置104は、液晶ディスプレイ、エレクトロルミネッセンスパネル等であり、生体情報抽出装置100の処理結果などを表示する。   The storage device 103 is a nonvolatile storage device. As the storage device 103, for example, a ROM (Read Only Memory), a solid state drive (SSD) such as a flash memory, a hard disk driven by a hard disk drive, or the like can be used. The biometric information extraction program according to the present embodiment is stored in the storage device 103. The display device 104 is a liquid crystal display, an electroluminescence panel, or the like, and displays a processing result of the biological information extraction device 100 and the like.

生体センサ105は、ユーザの生体の3次元の線状パターンを撮像することによって生体画像を取得するセンサである。生体センサ105が取得する生体画像は、2次元画像である。3次元の線状パターンとして、血管パターンなどが挙げられる。例えば、手のひらの静脈、指の静脈、網膜の血管パターンなどが挙げられる。本実施例においては、生体センサ105は、一例として、手のひらの静脈を撮像するセンサであり、CMOS(Complementary Metal Oxide Semiconductor)カメラなどである。例えば、生体センサ105は、近赤外線を利用することによって、静脈を撮像することができる。   The biological sensor 105 is a sensor that acquires a biological image by imaging a three-dimensional linear pattern of a user's biological body. The biological image acquired by the biological sensor 105 is a two-dimensional image. Examples of the three-dimensional linear pattern include a blood vessel pattern. Examples include palm veins, finger veins, retinal blood vessel patterns, and the like. In the present embodiment, the biometric sensor 105 is, for example, a sensor that images a palm vein, such as a CMOS (Complementary Metal Oxide Semiconductor) camera. For example, the biosensor 105 can image a vein by using near infrared rays.

図2(a)および図2(b)は、生体センサ105の撮像によって得られた生体画像の一例である。図2(a)および図2(b)で例示されるように、3次元の線状パターンである静脈パターンが2次元画像化されている。2次元画像においては、ねじれの位置にある静脈どうしが分岐、交差点等を含む複雑な領域として投影される。また、ユーザが生体センサ105に生体部位をかざすときの姿勢変動の影響によって、これらの分岐、交差点等の位置が変動する。この場合、本来繋がるべき箇所が途切れたり、本来繋がっていない箇所が接続したりすることで、線状パターンの分断、接続等を適切に抽出できないおそれがある。そこで、本実施例においては、生体の3次元の線状パターンにおいて、分岐、交差点等を含む複雑な領域でも、線状パターンが接続、切断しているかを抽出する精度を向上させる。   FIG. 2A and FIG. 2B are examples of biological images obtained by imaging with the biological sensor 105. As illustrated in FIGS. 2A and 2B, a vein pattern that is a three-dimensional linear pattern is formed into a two-dimensional image. In a two-dimensional image, veins at twisted positions are projected as a complex area including branches, intersections, and the like. Further, the position of these branches, intersections, and the like fluctuate due to the influence of posture fluctuation when the user holds the biological part over the biological sensor 105. In this case, there is a possibility that the portions that should originally be connected are interrupted or the portions that are not originally connected are connected, so that it is not possible to appropriately extract the division or connection of the linear pattern. Therefore, in the present embodiment, the accuracy of extracting whether the linear pattern is connected or disconnected in a complicated region including a branch, an intersection, etc. in the three-dimensional linear pattern of the living body is improved.

記憶装置103に記憶されている生体情報抽出プログラムは、実行可能にRAM102に展開される。CPU101は、RAM102に展開された生体情報抽出プログラムを実行する。それにより、生体情報抽出装置100による各処理が実行される。   The biometric information extraction program stored in the storage device 103 is expanded in the RAM 102 so as to be executable. The CPU 101 executes a biometric information extraction program developed in the RAM 102. Thereby, each process by the biometric information extraction device 100 is executed.

図3は、生体情報抽出プログラムの実行によって実現される各機能のブロック図である。図3で例示するように、生体情報抽出プログラムの実行によって、生体情報抽出装置100は、特徴抽出部10、分離処理部20、補正処理部30、合成処理部40、登録処理部50、認証処理部60、およびデータベース70として機能する。   FIG. 3 is a block diagram of each function realized by executing the biometric information extraction program. As illustrated in FIG. 3, by executing the biometric information extraction program, the biometric information extraction device 100 causes the feature extraction unit 10, the separation processing unit 20, the correction processing unit 30, the synthesis processing unit 40, the registration processing unit 50, and the authentication process. The unit 60 and the database 70 function.

特徴抽出部10は、生体センサ105が取得した生体画像から、手のひらの静脈パターンを抽出する。分離処理部20は、静脈パターンの特徴に応じて、当該静脈パターンを複数に分離する。静脈パターンの特徴として、静脈の方向、静脈の太さなどを用いることができる。補正処理部30は、分離処理部20によって分離された各静脈パターンに対して補正処理を行う。合成処理部40は、補正処理部30による補正処理後の各静脈パターンを1枚の画像に合成する。登録処理部50は、登録処理の実行時には、合成処理部40が合成した画像から得られるデータを登録データとしてデータベース70にユーザのIDと関連付けて登録する。認証処理部60は、認証処理の実行時には、合成処理部40が合成した画像から得られるデータを照合データとし、データベース70に登録されている登録データとの照合を行う。以下、各部の詳細について説明する。   The feature extraction unit 10 extracts a palm vein pattern from the biological image acquired by the biological sensor 105. The separation processing unit 20 separates the vein pattern into a plurality according to the feature of the vein pattern. As the characteristics of the vein pattern, the direction of the vein, the thickness of the vein, and the like can be used. The correction processing unit 30 performs correction processing on each vein pattern separated by the separation processing unit 20. The synthesis processing unit 40 synthesizes each vein pattern after the correction processing by the correction processing unit 30 into one image. When executing the registration process, the registration processing unit 50 registers data obtained from the image synthesized by the synthesis processing unit 40 as registration data in the database 70 in association with the user ID. At the time of executing the authentication process, the authentication processing unit 60 uses the data obtained from the image synthesized by the synthesis processing unit 40 as collation data, and collates with registered data registered in the database 70. Details of each part will be described below.

図4は、登録処理の一例を表すフローチャートである。図4で例示するように、生体センサ105は、ユーザの手のひらの生体画像を取得する(ステップS1)。次に、特徴抽出部10は、生体センサ105が取得した生体画像から、静脈パターンを抽出する(ステップS2)。この静脈パターンは、3次元の静脈パターンを2次元画像に投影したものである。   FIG. 4 is a flowchart illustrating an example of the registration process. As illustrated in FIG. 4, the biometric sensor 105 acquires a biometric image of the user's palm (step S1). Next, the feature extraction unit 10 extracts a vein pattern from the biological image acquired by the biological sensor 105 (step S2). This vein pattern is a projection of a three-dimensional vein pattern onto a two-dimensional image.

次に、分離処理部20は、ステップS2で抽出された静脈パターンの成分を方向ごとにD(≧2)個に分離する(ステップS3)。図5(a)は、ステップS2で抽出された静脈パターンの一部の例である。図5(a)で例示するように、各静脈が線または線分で表される。例えば、分離処理部20は、画像の水平右方向を0°とし、0°方向成分と、45°方向成分と、90°方向成分と、135°方向成分とに分離する。各成分には範囲を持たせてもよい。例えば、0°±22.5°を向いている成分(図5(b))と、45°±22.5°を向いている成分(図5(c))と、90°±22.5°を向いている成分(図5(d))と、135°±22.5°を向いている成分(図5(e))とに分離してもよい。なお、ここでいう分離とは、生体画像から特定の成分を抽出して同サイズの画像を複数生成することと同義である。   Next, the separation processing unit 20 separates the vein pattern components extracted in step S2 into D (≧ 2) pieces for each direction (step S3). FIG. 5A is an example of a part of the vein pattern extracted in step S2. As illustrated in FIG. 5A, each vein is represented by a line or a line segment. For example, the separation processing unit 20 sets the horizontal right direction of the image to 0 °, and separates the image into a 0 ° direction component, a 45 ° direction component, a 90 ° direction component, and a 135 ° direction component. Each component may have a range. For example, a component facing 0 ° ± 22.5 ° (FIG. 5B), a component facing 45 ° ± 22.5 ° (FIG. 5C), and 90 ° ± 22.5 You may isolate | separate into the component (FIG.5 (d)) which faces (degree), and the component (FIG.5 (e)) which faces 135 degrees +/- 22.5 degrees. Here, the separation is synonymous with extracting a specific component from a biological image and generating a plurality of images of the same size.

次に、補正処理部30は、分離処理部20によって分離された各静脈パターンに対して補正処理を行う。具体的には、補正処理部30は、分離された各静脈パターンにおいて、静脈が途切れている端点を抽出する(ステップS4)。次に、補正処理部30は、端点どうしを接続するか否かを判定する。例えば、補正処理部30は、図6で例示されるように、抽出された全ての端点どうしの距離dを求め、距離dが所定のしきい値Th1以下であるか否かを判定する(ステップS5)。なお、図6の例は、図5(b)の0°方向成分である。   Next, the correction processing unit 30 performs correction processing on each vein pattern separated by the separation processing unit 20. Specifically, the correction processing unit 30 extracts an end point where the vein is interrupted in each separated vein pattern (step S4). Next, the correction processing unit 30 determines whether to connect the end points. For example, as illustrated in FIG. 6, the correction processing unit 30 obtains the distance d between all the extracted end points, and determines whether the distance d is equal to or less than a predetermined threshold Th <b> 1 (step S <b> 1). S5). Note that the example of FIG. 6 is the 0 ° direction component of FIG.

ステップS5で「Yes」と判定された場合、補正処理部30は、当該端点どうしを接続する(ステップS6)。ステップS5で「No」と判定された場合、ステップS6は実行されない。しきい値Th1の値は、一例として3ピクセル程度の固定値を用いてもよく、端点を含む静脈の太さの平均値といった動的な値を用いてもよい。端点どうしの接続については、例えば下記式(1)を用いて内挿してもよい。なお、下記式(1)において、I(x,y)は座標(x,y)の画素値を示し、γは、Σγ=1を満たす定数である。

Figure 0006167861
When it is determined as “Yes” in step S5, the correction processing unit 30 connects the end points (step S6). If it is determined “No” in step S5, step S6 is not executed. As an example of the value of the threshold Th1, a fixed value of about 3 pixels may be used, or a dynamic value such as an average value of the thickness of veins including the end points may be used. The connection between the end points may be interpolated using, for example, the following formula (1). In the following formula (1), I (x, y) represents a pixel value at coordinates (x, y), and γ i is a constant that satisfies Σγ i = 1.
Figure 0006167861

図7(a)は、図5(b)の補正処理後の静脈パターンである。図7(b)は、図5(c)の補正処理後の静脈パターンである。図7(c)は、図5(d)の補正処理後の静脈パターンである。図7(d)は、図5(e)の補正処理後の静脈パターンである。これらの例においては、図5(b)の一部の端点どうしの距離が小さいため、図7(a)において当該2つの端点が接続されている。   FIG. 7A shows a vein pattern after the correction process of FIG. FIG. 7B shows a vein pattern after the correction process of FIG. FIG. 7C shows a vein pattern after the correction process of FIG. FIG. 7D shows a vein pattern after the correction process of FIG. In these examples, since the distance between some of the end points in FIG. 5B is small, the two end points are connected in FIG. 7A.

分離された全ての静脈パターンにおいて全ての端点についてステップS5〜S6の処理が終了した後、合成処理部40は、分離された静脈パターンから1枚の生体補正画像を合成する(ステップS7)。例えば、合成処理部40は、分離された各静脈パターンのORをとり、複数の静脈パターンに共通して静脈が存在する領域は各画素の平均値をとってもよい。図7(e)は、合成後の静脈パターンである。次に、登録処理部50は、ステップS7で合成された画像から得られるデータを登録データとしてデータベース70にユーザのIDと関連付けて登録する(ステップS8)。以上の処理によって、登録処理が終了する。   After the processing in steps S5 to S6 is completed for all end points in all separated vein patterns, the composition processing unit 40 composes one biological correction image from the separated vein patterns (step S7). For example, the composition processing unit 40 may take OR of each separated vein pattern, and take an average value of each pixel in a region where veins are common to a plurality of vein patterns. FIG. 7E shows a vein pattern after synthesis. Next, the registration processing unit 50 registers the data obtained from the image combined in step S7 as registration data in association with the user ID in the database 70 (step S8). With the above process, the registration process ends.

本実施例によれば、静脈パターンの成分を方向ごとに分離することによって、方向が近い成分ごとに静脈パターンを分離することができる。この分離された静脈パターンにおいて距離が近い端点どうしを接続することから、分岐、交差点等の複雑な領域が存在しても、静脈パターンの切断、接続等を安定して抽出することができる。すなわち、静脈パターンの抽出精度を向上させることができる。   According to the present embodiment, by separating the vein pattern components for each direction, the vein patterns can be separated for each component having a similar direction. Since the end points that are close to each other in the separated vein pattern are connected to each other, even when there are complex regions such as branches and intersections, the vein pattern can be stably disconnected and connected. That is, the extraction accuracy of the vein pattern can be improved.

図8は、認証処理の一例を表すフローチャートである。図8で例示するように、ステップS11〜ステップS17までは、図4のステップS1〜ステップS7と同様の処理が行われる。次に、認証処理部60は、ステップS17で合成された画像から得られる照合データと、データベース70に登録されている各登録データとの照合を行う(ステップS18)。具体的には、認証処理部60は、照合データと各登録データとの類似度を算出する。次に、認証処理部60は、類似度がしきい値以上となる登録データがあるか否かを判定する(ステップS19)。認証処理部60は、ステップS19で「Yes」と判定された場合、認証成功と判定し(ステップS20)、ステップS19で「No」と判定された場合、認証失敗と判定する(ステップS21)。本実施例においては、静脈パターンの抽出精度が向上することから、認証精度も向上する。   FIG. 8 is a flowchart illustrating an example of the authentication process. As illustrated in FIG. 8, processes similar to steps S <b> 1 to S <b> 7 in FIG. 4 are performed from step S <b> 11 to step S <b> 17. Next, the authentication processing unit 60 collates the collation data obtained from the image synthesized in step S17 with each registered data registered in the database 70 (step S18). Specifically, the authentication processing unit 60 calculates the similarity between the verification data and each registered data. Next, the authentication processing unit 60 determines whether there is registration data whose similarity is equal to or greater than a threshold value (step S19). If it is determined “Yes” in step S19, the authentication processing unit 60 determines that authentication is successful (step S20). If it is determined “No” in step S19, the authentication processing unit 60 determines that authentication is unsuccessful (step S21). In the present embodiment, since the extraction accuracy of the vein pattern is improved, the authentication accuracy is also improved.

(変形例)
上記例では、静脈パターンの成分を方向ごとに分離したが、他の特徴を用いてもよい。例えば、静脈パターンの成分を太さに応じて分離してもよい。例えば、分離処理部20は、静脈パターン(図9(a))を、6ピクセル以上の太さの成分(図9(b))と、3ピクセル以上6ピクセル未満の太さの成分(図9(c))と、3ピクセル未満の太さの成分(図9(d))とに分離してもよい。この場合においては、太さが近い成分ごとに静脈パターンを分離することができる。この分離された静脈パターンにおいて距離が近い端点どうしを接続することから、分岐、交差点等の複雑な領域が存在しても、静脈パターンの切断、接続等を安定して抽出することができる。すなわち、静脈パターンの抽出精度を向上させることができる。
(Modification)
In the above example, the vein pattern components are separated for each direction, but other features may be used. For example, the vein pattern components may be separated according to thickness. For example, the separation processing unit 20 converts the vein pattern (FIG. 9A) into a component having a thickness of 6 pixels or more (FIG. 9B) and a component having a thickness of 3 pixels to less than 6 pixels (FIG. 9). (C)) and a component having a thickness of less than 3 pixels (FIG. 9D) may be separated. In this case, the vein pattern can be separated for each component having a similar thickness. Since the end points that are close to each other in the separated vein pattern are connected to each other, even when there are complex regions such as branches and intersections, the vein pattern can be stably disconnected and connected. That is, the extraction accuracy of the vein pattern can be improved.

実施例2においては、端点どうしの接続の可否を判断する際に、結合信頼度Cを考慮する。結合信頼度Cとは、端点どうしの接続をすべきか否かを表す尺度のことである。例えば、端点どうしの距離が近いとともに、端点における静脈の角度差が小さいほど信頼性が高いといえる。そこで、本実施例においては、結合信頼度Cとして、端点どうしの距離および端点での静脈の角度差を用いる。図10は、本実施例に係る登録処理の一例を表すフローチャートである。図10で例示するように、ステップS31〜ステップS35は、図4のステップS1〜ステップS5と同様である。   In the second embodiment, the coupling reliability C is considered when determining whether or not the end points can be connected. The joint reliability C is a scale that represents whether or not the end points should be connected. For example, it can be said that the reliability is higher as the distance between the end points is shorter and the angle difference of the veins at the end points is smaller. Therefore, in this embodiment, the distance between the end points and the angular difference of the veins at the end points are used as the coupling reliability C. FIG. 10 is a flowchart illustrating an example of a registration process according to the present embodiment. As illustrated in FIG. 10, steps S31 to S35 are the same as steps S1 to S5 in FIG.

ステップS35において「Yes」と判定された場合、補正処理部30は、対象としている端点どうしの結合信頼度Cを算出する(ステップS36)。例えば、補正処理部30は、図11(a)および図11(b)で例示されるように、端点間の距離dと、端点での静脈の角度差θとから結合信頼度Cを算出する。例えば、結合信頼度Cは、下記式(2)で表すことができる。なお、α,βは正の定数であり、距離dおよび角度差θの重みを表す。結合信頼度Cは、距離dおよび角度差θが小さいほど、大きい値となる。
C=α/d+β(1+sinθ) (2)
When it determines with "Yes" in step S35, the correction | amendment process part 30 calculates the coupling | bonding reliability C of the target endpoints (step S36). For example, as illustrated in FIGS. 11A and 11B, the correction processing unit 30 calculates the coupling reliability C from the distance d between the end points and the angular difference θ of the veins at the end points. . For example, the coupling reliability C can be expressed by the following formula (2). Α and β are positive constants and represent the weights of the distance d and the angle difference θ. The coupling reliability C becomes larger as the distance d and the angle difference θ are smaller.
C = α / d + β (1 + sin θ) (2)

次に、補正処理部30は、算出された結合信頼度Cがしきい値Th2以上であるか否かを判定する(ステップS37)。ステップS37で「Yes」と判定された場合、補正処理部30は、当該端点どうしを接続する(ステップS38)。端点どうしの接続については、上記式(1)を用いて内挿してもよい。なお、なお、ステップS35で「No」と判定された場合、ステップS36〜S38は実行されない。ステップS37で「No」と判定された場合、ステップS38は実行されない。   Next, the correction processing unit 30 determines whether or not the calculated coupling reliability C is greater than or equal to the threshold value Th2 (step S37). When it is determined as “Yes” in step S37, the correction processing unit 30 connects the end points (step S38). The connection between the end points may be interpolated using the above equation (1). In addition, when it determines with "No" by step S35, step S36-S38 is not performed. If it is determined “No” in step S37, step S38 is not executed.

分離された全ての静脈パターンにおいて全ての端点についてステップS35〜S38の処理が終了した後、合成処理部40は、分離された静脈パターンから1枚の生体補正画像を合成する(ステップS39)。次に、登録処理部50は、ステップS39で合成された生体補正画像から得られるデータを登録データとしてデータベース70にユーザのIDと関連付けて登録する(ステップS40)。以上の処理によって、登録処理が終了する。認証処理時には、認証処理部60は、ステップS39で得られた生体補正画像から得られるデータを照合データとし、図8のステップS18〜S21と同様の処理により照合を行う。   After the processing in steps S35 to S38 is completed for all end points in all separated vein patterns, the composition processing unit 40 composes one biological correction image from the separated vein patterns (step S39). Next, the registration processing unit 50 registers the data obtained from the biometric correction image synthesized in step S39 as registration data in association with the user ID in the database 70 (step S40). With the above process, the registration process ends. At the time of the authentication process, the authentication processing unit 60 uses the data obtained from the biometric correction image obtained in step S39 as collation data and performs collation by the same process as in steps S18 to S21 in FIG.

本実施例によれば、分離された静脈パターンにおいて、結合信頼度の高い端点どうしが接続されることから、分岐、交差点等の複雑な領域が存在しても、静脈パターンの切断、接続等を安定して抽出することができる。すなわち、静脈パターンの抽出精度を向上させることができる。なお、結合信頼度には、他のパラメータを考慮してもよい。例えば、端点における静脈の太さの差が小さいほど結合信頼度が高くなるようにしてもよい。   According to this embodiment, the separated vein patterns are connected with the endpoints having high coupling reliability. Therefore, even if there are complicated areas such as branches and intersections, the vein patterns can be cut and connected. It can be extracted stably. That is, the extraction accuracy of the vein pattern can be improved. Note that other parameters may be taken into account for the coupling reliability. For example, the coupling reliability may be increased as the difference in the thickness of the veins at the end points is smaller.

実施例3においては、静脈パターンの抽出の際に、二値化処理を行う。図12は、本実施例に係る生体情報抽出プログラムの実行によって実現される各機能のブロック図である。図12で例示するように、図3と異なる点は、二値化処理部80がさらに設けられている点である。二値化処理部80は、特徴抽出部10が抽出した静脈パターンにおいて、静脈が存在する領域を「1」、静脈が存在しない領域を「0」とした生体二値化画像を生成する。分離処理部20は、生体二値化画像に対して、静脈パターンの特徴に応じて成分ごとに複数に分離する。   In the third embodiment, binarization processing is performed when a vein pattern is extracted. FIG. 12 is a block diagram of each function realized by executing the biometric information extraction program according to the present embodiment. As illustrated in FIG. 12, the difference from FIG. 3 is that a binarization processing unit 80 is further provided. In the vein pattern extracted by the feature extraction unit 10, the binarization processing unit 80 generates a biological binarized image in which a region where a vein is present is “1” and a region where no vein is present is “0”. The separation processing unit 20 separates the biological binarized image into a plurality of components for each component according to the characteristics of the vein pattern.

実施例4においては、静脈パターン抽出の際に、二値化処理と細線化処理を行う。細線化処理とは、抽出された静脈パターンの太さを全て1とする処理を指す。図13は、本実施例に係る生体情報抽出プログラムの実行によって実現される各機能のブロック図である。図13で例示するように、図12と異なる点は、細線化処理部90がさらに設けられている点である。細線化処理部90は、二値化処理部80が二値化した静脈パターンの各静脈の太さを1ピクセルに修正する。図14は、細線化処理によって細線化された静脈パターンの例を表す。   In the fourth embodiment, binarization processing and thinning processing are performed at the time of vein pattern extraction. The thinning process refers to a process in which all the extracted vein pattern thicknesses are set to 1. FIG. 13 is a block diagram of each function realized by executing the biometric information extraction program according to the present embodiment. As illustrated in FIG. 13, the difference from FIG. 12 is that a thinning processing unit 90 is further provided. The thinning processing unit 90 corrects the thickness of each vein of the vein pattern binarized by the binarization processing unit 80 to 1 pixel. FIG. 14 shows an example of a vein pattern thinned by thinning processing.

上記各例においては、3次元の線状パターンとして手のひら静脈を用いたが、それに限られない。手のひらの静脈以外の3次元線状パターンとして、手のひらの静脈、指の静脈、網膜の血管パターンなどを用いることができる。上記各例の各部は、プログラムの実行によって実現されているが、専用の回路などのハードウェアを用いてもよい。   In each of the above examples, a palm vein is used as a three-dimensional linear pattern, but the present invention is not limited to this. As a three-dimensional linear pattern other than the palm vein, a palm vein, finger vein, retinal blood vessel pattern, or the like can be used. Each unit in each of the above examples is realized by executing a program, but hardware such as a dedicated circuit may be used.

上記各例において、生体センサ105が、生体の3次元の線状パターンを撮像した生体画像を取得する取得部として機能する。特徴抽出部10が、取得部が取得した生体画像から線状パターンを抽出する抽出部として機能する。分離処理部20が、抽出部が抽出した線状パターンを、当該線状パターンの特徴に応じて複数に分離する分離部として機能する。補正処理部30が、分離部によって分離された各線状パターンにおいて、所定の条件を満たす場合に端点どうしを接続する補正部として機能する。合成処理部40が、補正部による補正後の各線状パターンを合成する合成部として機能する。   In each of the above examples, the biometric sensor 105 functions as an acquisition unit that acquires a biometric image obtained by imaging a three-dimensional linear pattern of a living organism. The feature extraction unit 10 functions as an extraction unit that extracts a linear pattern from the biological image acquired by the acquisition unit. The separation processing unit 20 functions as a separation unit that separates the linear pattern extracted by the extraction unit into a plurality of pieces according to the feature of the linear pattern. In each linear pattern separated by the separation unit, the correction processing unit 30 functions as a correction unit that connects the end points when a predetermined condition is satisfied. The synthesis processing unit 40 functions as a synthesis unit that synthesizes the linear patterns corrected by the correction unit.

以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims. It can be changed.

10 特徴抽出部
20 分離処理部
30 補正処理部
40 合成処理部
50 登録処理部
60 認証処理部
70 データベース
100 生体情報抽出装置
105 生体センサ
DESCRIPTION OF SYMBOLS 10 Feature extraction part 20 Separation processing part 30 Correction processing part 40 Composition processing part 50 Registration processing part 60 Authentication processing part 70 Database 100 Biometric information extraction apparatus 105 Biometric sensor

Claims (10)

生体の3次元の線状パターンを撮像した生体画像を取得する取得部と、
前記取得部が取得した前記生体画像から前記線状パターンを抽出する抽出部と、
前記抽出部が抽出した線状パターンを、当該線状パターンの特徴に応じて複数に分離する分離部と、
前記分離部によって分離された各線状パターンにおいて、所定の条件を満たす場合に端点どうしを接続する補正部と、
前記補正部による補正後の各線状パターンを合成する合成部と、を備えることを特徴とする生体情報抽出装置。
An acquisition unit that acquires a biological image obtained by imaging a three-dimensional linear pattern of the biological body;
An extraction unit for extracting the linear pattern from the biological image acquired by the acquisition unit;
A separation unit that separates the linear pattern extracted by the extraction unit into a plurality according to the characteristics of the linear pattern;
In each linear pattern separated by the separation unit, a correction unit that connects end points when a predetermined condition is satisfied,
A biometric information extraction apparatus comprising: a synthesizing unit that synthesizes the linear patterns corrected by the correction unit.
前記分離部は、前記線状パターンを構成する成分の方向に応じて、前記線状パターンを分離することを特徴とする請求項1記載の生体情報抽出装置。   The biological information extraction apparatus according to claim 1, wherein the separation unit separates the linear pattern in accordance with a direction of a component constituting the linear pattern. 前記分離部は、前記線状パターンを構成する成分の太さに応じて、前記線状パターンを分離することを特徴とする請求項1記載の生体情報抽出装置。   The biological information extracting apparatus according to claim 1, wherein the separation unit separates the linear pattern according to a thickness of a component constituting the linear pattern. 前記補正部は、前記分離部によって分離された各線状パターンにおいて、2つの端点の距離がしきい値以下である場合に、当該2つの端点を接続することを特徴とする請求項1〜3のいずれか一項に記載の生体情報抽出装置。   The correction unit connects the two end points when the distance between the two end points is equal to or less than a threshold value in each linear pattern separated by the separation unit. The biological information extraction device according to any one of the above. 前記補正部は、前記分離部によって分離された各線状パターンにおいて、2つの端点の距離が前記しきい値以下でありかつ当該2つの端点における線どうしの角度差がしきい値以下である場合に、当該2つの端点を接続することを特徴とする請求項4記載の生体情報抽出装置。   In the linear patterns separated by the separation unit, the correction unit is configured such that the distance between two end points is equal to or less than the threshold value and the angle difference between the lines at the two end points is equal to or less than the threshold value. 5. The biological information extracting apparatus according to claim 4, wherein the two end points are connected. 前記線状パターンは、静脈パターンであることを特徴とする請求項1〜5のいずれか一項に記載の生体情報抽出装置。   The biological information extracting apparatus according to claim 1, wherein the linear pattern is a vein pattern. 前記抽出部が抽出した線状パターンに対して二値化処理を行う二値化処理部を備え、
前記分離部は、二値化された前記線状パターンを、当該線状パターンの特徴に応じて複数に分離することを特徴とする請求項1〜6のいずれか一項に記載の生体情報抽出装置。
A binarization processing unit that performs binarization processing on the linear pattern extracted by the extraction unit;
The biological information extraction according to any one of claims 1 to 6, wherein the separation unit separates the binarized linear pattern into a plurality according to the characteristics of the linear pattern. apparatus.
前記二値化処理部で生成した二値化された前記線状パターンに対して、前記線状パターンの太さを1ピクセルとする細線化処理部を備えることを特徴とする請求項7記載の生体情報抽出装置。   8. The thinning processing unit according to claim 7, further comprising a thinning processing unit that sets the thickness of the linear pattern to 1 pixel with respect to the binarized linear pattern generated by the binarization processing unit. Biological information extraction device. 生体の3次元の線状パターンを撮像した生体画像を取得し、
前記生体画像から前記線状パターンを抽出し、
前記線状パターンを、当該線状パターンの特徴に応じて複数に分離し、
分離された各線状パターンにおいて、所定の条件を満たす場合に端点どうしを接続する補正処理を行い、
前記補正処理後の各線状パターンを合成する、ことを特徴とする生体情報抽出方法。
Obtaining a biological image obtained by imaging a three-dimensional linear pattern of the biological body;
Extracting the linear pattern from the biological image;
Separating the linear pattern into a plurality according to the characteristics of the linear pattern;
In each separated linear pattern, when a predetermined condition is satisfied, a correction process for connecting the end points is performed,
A biometric information extraction method comprising combining the linear patterns after the correction processing.
生体の3次元の線状パターンを撮像した生体画像を取得し、
前記生体画像から前記線状パターンを抽出し、
前記線状パターンを、当該線状パターンの特徴に応じて複数に分離し、
分離された各線状パターンにおいて、所定の条件を満たす場合に端点どうしを接続する補正処理を行い、
前記補正処理後の各線状パターンを合成する、処理をコンピュータに実行させることを特徴とする生体情報抽出プログラム。
Obtaining a biological image obtained by imaging a three-dimensional linear pattern of the biological body;
Extracting the linear pattern from the biological image;
Separating the linear pattern into a plurality according to the characteristics of the linear pattern;
In each separated linear pattern, when a predetermined condition is satisfied, a correction process for connecting the end points is performed,
A biometric information extraction program for causing a computer to execute a process of synthesizing the linear patterns after the correction process.
JP2013232109A 2013-11-08 2013-11-08 Biological information extraction device, biological information extraction method, and biological information program Expired - Fee Related JP6167861B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013232109A JP6167861B2 (en) 2013-11-08 2013-11-08 Biological information extraction device, biological information extraction method, and biological information program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013232109A JP6167861B2 (en) 2013-11-08 2013-11-08 Biological information extraction device, biological information extraction method, and biological information program

Publications (2)

Publication Number Publication Date
JP2015094967A JP2015094967A (en) 2015-05-18
JP6167861B2 true JP6167861B2 (en) 2017-07-26

Family

ID=53197356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013232109A Expired - Fee Related JP6167861B2 (en) 2013-11-08 2013-11-08 Biological information extraction device, biological information extraction method, and biological information program

Country Status (1)

Country Link
JP (1) JP6167861B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7338799B2 (en) 2020-10-13 2023-09-05 東芝三菱電機産業システム株式会社 Two-fluid nozzle spray device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5110983B2 (en) * 2007-06-29 2012-12-26 日立オムロンターミナルソリューションズ株式会社 Biometric authentication processing system
JP5263995B2 (en) * 2011-03-18 2013-08-14 富士フイルム株式会社 Network construction apparatus and method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7338799B2 (en) 2020-10-13 2023-09-05 東芝三菱電機産業システム株式会社 Two-fluid nozzle spray device

Also Published As

Publication number Publication date
JP2015094967A (en) 2015-05-18

Similar Documents

Publication Publication Date Title
US11176406B2 (en) Edge-based recognition, systems and methods
JP6167733B2 (en) Biometric feature vector extraction device, biometric feature vector extraction method, and biometric feature vector extraction program
WO2018032861A1 (en) Finger vein recognition method and device
JP5873442B2 (en) Object detection apparatus and object detection method
JP5061645B2 (en) Information extraction method, information extraction device, program, registration device, and verification device
US20160162673A1 (en) Technologies for learning body part geometry for use in biometric authentication
JP2017515182A5 (en)
JP6648639B2 (en) Biological information processing apparatus, biological information processing method, and biological information processing program
KR20170092533A (en) A face pose rectification method and apparatus
JP6658188B2 (en) Image processing apparatus, image processing method, and image processing program
KR20130090563A (en) Apparatus and method for obtainning a symmetry information of objects
CN108875549B (en) Image recognition method, device, system and computer storage medium
JP6167861B2 (en) Biological information extraction device, biological information extraction method, and biological information program
JP6978665B2 (en) Bioimage processing device, bioimage processing method and bioimage processing program
JP2019028532A (en) Image processing apparatus, image processing method, and image processing program
JP2011258209A5 (en) Authentication device for back of hand and authentication method for back of hand
JP2017157095A (en) Device, method, and program for processing biological image
JP2016057793A (en) Information processing apparatus, information processing method, and program
EP3125193B1 (en) Biometric authentication device, biometric authentication method, and program
JP2008203995A (en) Object shape generation method, object shape generation device and program
JP6388744B1 (en) Ranging device and ranging method
EP3125192B1 (en) Biometric authentication device, biometric authentication method, and program
JP6242726B2 (en) Biometric information registration method, biometric authentication method, biometric information registration device, biometric authentication device, and program
US20240104963A1 (en) Determination method, determination program, and information processing apparatus
CN111428665B (en) Information determination method, equipment and computer readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170612

R150 Certificate of patent or registration of utility model

Ref document number: 6167861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees