[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101939936B1 - 지문 융기부 지점 인식 방법 및 장치 - Google Patents

지문 융기부 지점 인식 방법 및 장치 Download PDF

Info

Publication number
KR101939936B1
KR101939936B1 KR1020177035024A KR20177035024A KR101939936B1 KR 101939936 B1 KR101939936 B1 KR 101939936B1 KR 1020177035024 A KR1020177035024 A KR 1020177035024A KR 20177035024 A KR20177035024 A KR 20177035024A KR 101939936 B1 KR101939936 B1 KR 101939936B1
Authority
KR
South Korea
Prior art keywords
pixel
target pixel
ridge
fingerprint
gray scale
Prior art date
Application number
KR1020177035024A
Other languages
English (en)
Other versions
KR20180003595A (ko
Inventor
훙파 왕
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20180003595A publication Critical patent/KR20180003595A/ko
Application granted granted Critical
Publication of KR101939936B1 publication Critical patent/KR101939936B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • G06K9/0008
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06K9/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1353Extracting features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Image Analysis (AREA)

Abstract

지문 융기부 지점 인식 방법이 개시된다. 이러한 방법은, 입력 지문 이미지를 수신하고, 지문 이미지에 방향 필드 추정을 수행하는 단계; 지문 이미지에서의 픽셀 지점을 타겟 픽셀 지점으로서 횡단하고, 방향 필드 추정에 따라 획득되는 타겟 픽셀 지점의 융기부 방향 및 융기부 방향에 수직인 법선 방향을 취득하는 단계; 타겟 픽셀 지점을 중심 지점으로서 취하여 직사각형 영역을 분할하는 단계- 직사각형 영역의 길이 및 폭 연장 방향들은 타겟 픽셀 지점의 융기부 방향 및 법선 방향에 각각 대응하고, 직사각형 영역은 법선 방향을 따라 배열되는 복수의 픽셀 지점 행들을 포함함 -; 및 다양한 픽셀 지점 행들에서의 픽셀 지점들의 그레이-스케일 값들의 합을 계산하고, 타겟 픽셀 지점을 포함하는 픽셀 지점 행에 대응하는 그레이-스케일 값들의 합이 최소일 때, 타겟 픽셀 지점이 지문 융기부 지점이라고 결정하는 단계를 포함한다. 지문 융기부 지점 인식 장치가 또한 개시된다. 본 발명에서의 지문 융기부 인식 방법 및 장치는 인식의 정확도를 향상시킬 수 있다.

Description

지문 융기부 지점 인식 방법 및 장치
본 출원은 2015년 9월 8일자로 출원된 발명의 명칭이 "FINGERPRINT RIDGE POINT RECOGNITION METHOD AND APPARATUS"인 중국 특허 출원 제201510566721.3호에 대한 우선권을 주장하며, 이는 그 전문이 참조로 원용된다.
본 개시내용은 이미지 인식 기술들의 분야, 특히, 지문 융기부 지점(fingerprint ridge point)을 인식하기 위한 방법 및 장치에 관련된다.
지문들은 고유하고, 편리하며, 개인의 수명에 걸쳐 내구적이고, 따라서, 거의 생체측정 식별에 대한 동의어가 되고 있다. 수세기의 개발 이후, 지문 인식은 신분 인증의 가장 중요한 기술이 되고 있다. 지문은 사람의 손가락의 단부에 있는 표피 상의 융기부들이다. 2개의 지문들은 동일한 일반적 특징들을 보통 갖지만, 2개의 지문들의 상세 특징들은 동일할 수 없다. 지문 융기부들은 연속적이거나, 매끄럽거나 직선이 아니며, 대신, 빈번히 끊어지거나, 분기되거나 또는 굴곡된다. 이러한 융기부 종결부들, 분기 지점들, 및 굴곡 지점들은 "특징 지점들(feature points)"이라고 지칭된다. 지문 인식은 상이한 지문들의 특징 지점들을 비교함으로써 신분 인증을 수행하는 기술이다.
종래의 기술에서는, 지문 인식에 있어서 특징 지점들의 검출이 지문 융기부들에 의존한다. 즉, 특징 지점들은 지문 융기부들을 분석함으로써 획득된다. 수집된 지문 이미지는 지문 이미지에 따른 지문 융기부들을 획득하도록 2진화된다. 즉, 지문 융기부 지점들에 대해 블랙 픽셀들이 사용되고, 지문 융기부들의 2개 측부들 상의 배경 영역들에 대해 화이트 픽셀들이 사용되며, 그에 의해 지문의 특징 지점들의 인식을 용이하게 한다.
종래의 기술에서, 통상의 2진화 방법들은 가버 필터들(Gabor filters) 등에 기초하는 국소 2진화 방법을 일반적으로 포함한다. 가버 필터들에 기초하는 방법이 사용될 때, 국소 방향들 및 융기부 빈도수가 정확히 계산될 필요가 있다. 그러나, 일부 저-품질 지문 이미지들의 전처리에 있어서 국소 방향들 및 융기부 빈도수를 정확히 계산하는 것은 상대적으로 어렵다. 결과적으로, 강건성이 상대적으로 낮고, 결국 인식 성능이 영향을 받는다. 결과적으로, 지문 인식의 정확도가 상대적으로 낮다.
이러한 것에 기초하여, 종래의 기술에서 가버 필터들에 기초하여 지문 이미지를 2진화하는 방법에서는 2진 이미지의 강건성이 상대적으로 낮기 때문에 지문 인식의 정확도가 상대적으로 낮은 전술한 기술적 문제점을 해결하기 위해서, 지문 융기부 지점을 인식하기 위한 방법이 특별히 제공된다.
지문 융기부 지점을 인식하기 위한 방법은,
입력 지문 이미지를 수신하고, 지문 이미지에 배향 필드 추정을 수행하는 단계;
지문 이미지에서의 픽셀을 타겟 픽셀로서 횡단하고, 타겟 픽셀의, 배향 필드 추정에 따라 획득되는, 융기부 방향 및 융기부 방향에 수직인 법선 방향을 취득하는 단계;
타겟 픽셀을 중심 지점으로서 사용하여 직사각형 영역을 정의하는 단계- 직사각형 영역의 길이 및 폭 연장 방향들은 타겟 픽셀의 융기부 방향 및 법선 방향에 각각 대응하고, 직사각형 영역은 법선 방향으로 배열되는 다수의 픽셀 행들을 포함함 -; 및
각각의 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합을 계산하고, 타겟 픽셀을 포함하는 픽셀 행에 대응하는 그레이스케일 값들의 합이 최소일 때 타겟 픽셀이 지문 융기부 지점이라고 결정하는 단계를 포함한다.
또한, 종래의 기술에서 가버 필터들에 기초하여 지문 이미지를 2진화하는 방법에서는 2진 이미지의 강건성이 상대적으로 낮기 때문에 지문 인식의 정확도가 상대적으로 낮은 전술한 기술적 문제점을 해결하기 위해서, 지문 융기부 지점을 인식하기 위한 장치가 특히 제공된다.
지문 융기부 지점을 인식하기 위한 장치는,
지문 이미지를 수신하기 위한 모듈- 입력 지문 이미지를 수신하도록, 그리고 지문 이미지에 배향 필드 추정을 수행하도록 구성됨 -;
픽셀 방향을 취득하기 위한 모듈- 지문 이미지에서의 픽셀을 타겟 픽셀로서 횡단하도록, 그리고 타겟 픽셀의, 배향 필드 추정에 따라 획득되는, 융기부 방향 및 융기부 방향에 수직인 법선 방향을 취득하도록 구성됨 -;
기준 픽셀을 선택하기 위한 모듈- 타겟 픽셀을 중심 지점으로서 사용하여 직사각형 영역을 정의하도록 구성되고, 직사각형 영역의 길이 및 폭 연장 방향들은 타겟 픽셀의 융기부 방향 및 법선 방향에 각각 대응하고, 직사각형 영역은 법선 방향으로 배열되는 다수의 픽셀 행들을 포함함 -; 및
지문 융기부 지점을 결정하기 위한 모듈- 각각의 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합을 계산하도록, 그리고 타겟 픽셀을 포함하는 픽셀 행에 대응하는 그레이스케일 값들의 합이 최소일 때 타겟 픽셀이 지문 융기부 지점이라고 결정하도록 구성됨 -을 포함한다.
본 발명의 실시예들을 구현함으로써, 다음과 같은 유익한 효과들이 획득된다.
지문 융기부 지점을 인식하기 위한 전술한 방법 및 장치에 의하면, 지문 이미지의 2진화 동안, 지문 이미지에서의 픽셀들이 횡단된다. 직사각형 영역은 횡단된 픽셀을 중심 지점으로서 사용하여 정의된다. 직사각형 영역의 길이 및 폭 연장 방향들은 타겟 픽셀의 융기부 방향 및 법선 방향에 각각 대응하고, 직사각형 영역은 법선 방향으로 배열되는 다수의 픽셀 행들을 포함한다. 각각의 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합이 계산되고, 타겟 픽셀을 포함하는 픽셀 행에 대응하는 그레이스케일 값들의 합이 최소일 때 타겟 픽셀이 지문 융기부 지점이라고 결정된다. 종래의 기술에서 필터 또는 임계값 필터링을 사용하는 방법과 비교하여, 횡단된 픽셀의 그레이스케일 값 및 횡단된 픽셀의 인접한 위치에 있는 픽셀의 그레이스케일 값 양자 모두가 기준들로서 사용되어, 잘못 결정된 노이즈가 효과적으로 제거되고, 인식 정확도가 향상된다.
본 발명의 실시예들 또는 기존 기술의 기술적 해결책들을 보다 명확하게 설명하기 위해, 이하 실시예들 또는 기존 기술을 설명하는데 요구되는 첨부 도면들을 간략히 소개한다. 명백이, 이하의 설명에서의 첨부 도면들은 본 발명의 일부 실시예들만을 도시하고, 관련분야에서의 통상의 기술자는 창의적인 노력 없이도 이러한 첨부 도면들로부터 다른 도면들을 여전히 도출할 수 있다.
도 1은 실시예에 따른 지문 융기부 지점을 인식하기 위한 방법의 흐름도이다.
도 2는 실시예에 따른 타겟 픽셀을 중심 지점으로서 사용하여 직사각형 영역을 정의하는 개략도이다.
도 3은 실시예에 따른 직사각형 영역에서의 픽셀 행에서의 각각의 픽셀의 그레이스케일 값의 개략도이다.
도 4는 실시예에 따른 수신된 지문 이미지의 개략도이다.
도 5는 실시예에 따라 수행된 2진화된 지문 융기부 이미지의 개략도이다.
도 6은 실시예에 따른 융기부 거리의 정의를 나타내는 개략도이다.
도 7은 실시예에 따른 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합으로서 가중 합을 계산하는 프로세스의 흐름도이다.
도 8은 실시예에 따른 지문 융기부 지점을 인식하기 위한 장치의 개략도이다.
도 9는 실시예에 따른 지문 융기부 지점을 인식하기 위한 전술한 방법을 수행하기 위한 컴퓨터 디바이스의 개략 구조도이다.
이하, 본 발명의 실시예들에 있어서의 기술적 해결책들을, 본 발명의 실시예들에 있어서의 첨부 도면들을 참조하여 명확하고 완전하게 설명한다. 명백히, 설명되는 실시예들은 본 발명의 실시예들의 전부가 아니라 그 일부이다. 창의적인 노력없이 본 발명의 실시예들에 기초하여 관련분야에서의 통상의 기술자에 의해 획득되는 다른 모든 실시예들은 본 개시내용의 보호 범위에 속할 것이다.
종래의 기술에서 가버 필터들에 기초하여 지문 이미지를 2진화하는 방법에서는 2진 이미지의 강건성이 상대적으로 낮기 때문에 지문 인식의 정확도가 상대적으로 낮은 전술한 기술적 문제점을 해결하기 위해서, 실시예에서는, 지문 융기부 지점을 인식하기 위한 방법이 제공된다. 본 방법은 컴퓨터를 사용하여 구현될 수 있고, 폰 노이만(von Neumann) 아키텍처에 기초하는 컴퓨터 시스템 상에서 수행될 수 있다. 컴퓨터 프로그램은 지문 인식 프로그램일 수 있다. 컴퓨터 시스템은 지문 센서가 설치되는 스마트폰, 태블릿 컴퓨터, 팜톱 컴퓨터, 노트북 컴퓨터 또는 개인용 컴퓨터와 같은 단말 디바이스일 수 있다.
구체적으로, 도 1에 도시되는 바와 같이, 본 방법은 다음을 포함한다:
단계 S102: 입력 지문 이미지를 수신하고, 지문 이미지에 배향 필드 추정을 수행함.
단계 S104: 지문 이미지에서의 픽셀을 타겟 픽셀로서 횡단하고, 타겟 픽셀의, 배향 필드 추정에 따라 획득되는, 융기부 방향 및 융기부 방향에 수직인 법선 방향을 취득함.
이러한 실시예에서는, 지문 이미지가 카메라를 사용하여 수집될 수 있다. 사용자는 지문 센서의 유리 패널 상에 손가락을 대고, 유리 패널 아래에 위치되는 이미지 수집 디바이스가 손가락의 지문 이미지를 획득할 수 있다. 다른 실시예에서는, 다른 디바이스에 의해 촬영된 지문 이미지가 수신될 수 있고, 획득된 지문 이미지에 지문 인식이 수행될 수 있다.
바람직하게는, 지문 이미지가 수집된 후, 지문 이미지에 조명 정규화가 먼저 수행된다. 조명 정규화의 목적은 지문 이미지의 수집 동안 지문 이미지에 대한 빛의 영향을 제거하는 것이다. 즉, 지문 이미지의 수집 동안, 상이한 광원 위치들 또는 광도들로 인해, 수집된 지문 이미지의 일부 영역들은 상대적으로 밝고 다른 일부 영역들은 상대적으로 어둡거나, 또는 전체 지문 이미지가 상대적으로 밝거나 또는 어둡다. 조명 정규화가 수행된 후, 상대적으로 밝거나 또는 어두운 영역이 보정될 수 있고, 그렇게 함으로써 수집된 지문 이미지에 대한 빛의 영향을 제거한다. 이러한 실시예에서, 조명 정규화는 특징 부분 공간에 기초하는 방법 또는 히스토그램 등화에 기초하는 보정 방법을 사용하여 구현될 수 있다.
지문 이미지의 배향 필드 추정은 지문 이미지에서 각각의 픽셀을 통과하는 융기부의 방향 정보를 취득하는 것이다. 이러한 실시예에서, 각각의 지점의 방향 정보는 픽셀들의 그레이스케일 값들의 기울기 분포에 기초하여 계산될 수 있다. 예를 들어, 픽셀의 그레이스케일 값과 좌측 또는 우측에서 그 픽셀에 인접한 픽셀의 그레이스케일 값의 차이가 상대적으로 작고, 픽셀의 그레이스케일 값과 상측 또는 하측에서 그 픽셀에 인접한 픽셀의 그레이스케일 값의 차이가 상대적으로 크면, 융기부 방향은 그 픽셀의 좌측으로부터 우측으로의 수평 방향이고, 융기부 방향에 수직인 법선 방향은 그 픽셀의 상측으로부터 하측으로의 수직 방향이다.
단계 S106: 타겟 픽셀을 중심 지점으로서 사용하여 직사각형 영역을 정의함- 직사각형 영역의 길이 및 폭 연장 방향들은 타겟 픽셀의 융기부 방향 및 법선 방향에 각각 대응하고, 직사각형 영역은 법선 방향으로 배열되는 다수의 픽셀 행들을 포함함 -.
도 2에 도시되는 바와 같이, 지문 이미지는 다수의 픽셀들을 포함한다. 픽셀 A가 횡단될 때, 픽셀 A가 타겟 픽셀로서 사용된다. 픽셀 A1, A2, A, A3, 및 A4를 연결하여 형성되는 방향은 픽셀 A에 배향 필드 추정을 수행함으로써 획득되는 픽셀 A의 융기부 방향이다. E, D, C, B, F, G, H, 및 I를 연결하여 형성되는 방향은 픽셀 A에 배향 필드 추정을 수행함으로써 획득되는 픽셀 A의 법선 방향이다. 픽셀 A의 융기부 방향은 픽셀 A의 법선 방향에 수직이다.
이러한 실시예에서, 픽셀 A를 중심 지점으로서 사용하여 정의되는 직사각형 영역은 E1, E4, I4, 및 I1을 꼭지점들로서 사용하여 형성되는 직사각형 영역이다. 직사각형 영역의 네 변들은 다음과 같다: 픽셀들 E1, D1, C1, B1, F1, G1, H1, 및 I1을 연결하여 형성되는 긴 변, 픽셀들 E1, E2, E, E3, 및 E4를 연결하여 형성되는 짧은 변, 픽셀들 E4, D4, C4, B4, F4, G4, H4, 및 I4를 연결하여 형성되는 긴 변, 및 픽셀들 I1, I2, E, I3, 및 I4를 연결하여 형성되는 짧은 변.
도 2에 도시되는 바와 같이, 직사각형(E1, E4, I4, I1)의 픽셀 A의 법선 방향으로 배열되는 다수의 픽셀 행들은 다음을 포함한다:
제1 픽셀 행: E1, E2, E, E3, 및 E4;
제2 픽셀 행: D1, D2, D, D3, 및 D4;
제3 픽셀 행: C1, C2, C, C3, 및 C4;
......
제9 픽셀 행: I1, I2, I, I3, 및 I4.
단계 S108: 각각의 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합을 계산하고, 타겟 픽셀을 포함하는 픽셀 행에 대응하는 그레이스케일 값들의 합이 최소일 때 타겟 픽셀이 지문 융기부 지점이라고 결정함.
도 3에 도시되는 바와 같이, 도 3은 도 2에서의 직사각형(E1, E4, I4, I1)에 포함되는 픽셀들의 그레이스케일 값들을 도시하고, 각각의 픽셀 행의 그레이스케일 값들의 합이 산출된다:
제1 픽셀 행 E1, E2, E, E3, 및 E4의 그레이스케일 값들의 합은 79+45+83+84+51=342이고;
제2 픽셀 행 D1, D2, D, 및 D3의 그레이스케일 값들의 합은 42+80+49+97+96=364이고;
제3 픽셀 행 C1, C2, C, C3, 및 C4의 그레이스케일 값들의 합은 43+46+88+50+58=285이고;
......
제5 픽셀 행 A1, A2, A, A3, 및 A4의 그레이스케일 값들의 합은 12+11+7+23+4=57이고;
......
제9 픽셀 행 I1, I2, I, I3, 및 I4의 그레이스케일 값들의 합은 98+54+48+49+53=302이다.
비교에 의해, 제5 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합이 57이고, 제5 픽셀이 타겟 픽셀 A를 포함하는 것을 알 수 있다. 즉, 타겟 픽셀 A를 포함하는 픽셀 행에 대응하는 그레이스케일 값들의 합은 모든 픽셀 행들에 대응하는 그레이스케일 값들의 합들 중 최소이다. 따라서, 타겟 픽셀 A가 지문 융기부 지점이라고 결정된다.
제5 픽셀 행에서의 픽셀 A1, A2, A3, 및 A4는 모두 타겟 픽셀 A의 융기부 방향에서의 픽셀들이다. 다른 픽셀 행에서의 픽셀들, 예를 들어, 제4 픽셀 행에서의 B1, B2, B, B3, 및 B4 또한 융기부 방향에 있고, 법선 방향으로 제5 픽셀 행에 인접하고 평행한 픽셀 행을 형성한다. 제5 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합이 제4 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합보다 작으면, 제5 픽셀 행에서의 픽셀들의 컬러가 제4 픽셀 행에서의 픽셀들의 컬러보다 일반적으로 더 어두워서, 제5 픽셀 행은 지문 융기부의 특징을 더 잘 충족시킨다는 것을 나타낸다. 따라서, 제5 픽셀 행에 의해 형성되는 후보 지문 융기부는 제4 픽셀 행에 의해 형성되는 지문 융기부 후보에 비해 지문 융기부로서 확실히 선택된다. 타겟 픽셀 A는 지문 융기부에서의 지문 융기부 지점으로서 결정될 수 있다.
또한, 이러한 실시예에서는, 직사각형 영역이 정의되고, 픽셀 행들의 그레이스케일 값들의 합들이 계산되고 비교된다. 따라서, 지문 융기부 지점을 결정하는 동안, 타겟 픽셀 A의 그레이스케일 값이 결정 기반으로서 사용될 뿐만 아니라, 융기부 방향으로 타겟 픽셀 A에 인접한 픽셀의 그레이스케일 값 또한 기준으로서 사용된다 . 예를 들어, 타겟 픽셀의 그레이스케일 값이 상대적으로 크지만, A1, A2, A3, 및 A4의 그레이스케일 값들이 상대적으로 작으면, 제5 픽셀 행의 그레이스케일 값들의 총합은 상대적으로 작다. 이것은 타겟 픽셀 A가 노이즈일 수 있지만, 타겟 픽셀은 여전히 지문 융기부 지점으로서 결정될 수 있다는 것을 나타낸다. 따라서, 노이즈로부터의 간섭이 제거되고, 인식 정확도가 향상된다.
위에 논의된 바와 같이, 전체 지문 이미지에서의 픽셀들이 횡단될 때까지 단계 S104 내지 단계 S108이 순차적으로 수행된 후, 지문 이미지에 포함되는 지문 융기부 지점들이 결정될 수 있다. 지문 융기부 지점들의 그레이스케일 값들은 상대적으로 큰 값(예를 들어, 255)으로 설정되고, 지문 이미지에서의 비-지문 융기부 지점들인 픽셀들의 그레이스케일 값들은 상대적으로 작은 값(예를 들어, 0)으로 설정되어, 지문 이미지가 2진화되고, 그렇게 함으로써 지문 이미지에 포함되는 특징들의 다음 인식 프로세스를 용이하게 한다. 예를 들어, 도 4 및 도 5에 도시되는 바와 같이, 도 4는 입력 지문 이미지를 도시하고, 도 5는 입력 지문 이미지에서의 모든 픽셀들을 횡단하여 생성되는 2진화된 이미지이다. 지문 융기부 지점의 그레이스케일 값은 255이고, 비-지문 융기부 지점의 그레이스케일 값은 0이다(즉, 컬러 네거티브 처리가 수행된다).
또한, 이러한 실시예에서는, 직사각형의 긴 변의 길이가 미리 설정될 수 있다. 구체적으로, 타겟 픽셀을 중심 지점으로서 사용하여 직사각형 영역을 정의하는 단계는, 지문 이미지의 평균 융기부 거리를 계산하는 단계; 및 평균 융기부 거리에 따라 픽셀 행들의 제1 양을 설정하는 단계이다.
도 6에 도시되는 바와 같이, 지문의 융기부와 인접한 고랑부 사이의 거리가 지문 융기부 거리로서 일반적으로 정의된다. 기술 구현의 관점에서, 융기부의 중심과 고랑부의 중심 사이의 길이가 융기부 거리로서 일반적으로 계산된다. 폭들이 각각 w1, ..., wn인 n개의 융기부들이 지문 이미지에 존재한다고 가정되고, 이러한 융기부들은 폭들이 v1, ..., vn인 n-1개 고랑부들에 의해 분리되어 정의된다. 도 6에 도시되는 바와 같이, 융기부 거리는 다음과 같이 계산된다:
ri=wi/2+vi+wi+1/2.
지문 이미지의 평균 융기부 거리(이하 간략히 융기부 거리) 는 특정 영역에서의 융기부 거리들의 평균 값을 지칭한다. 일반적으로, 융기부 거리의 크기는 지문의 구조 및 이미지 수집의 해상도에 의존한다. 지문 이미지에서, 융기부 거리가 더 클 때, 그것은 융기부이 더 희박하다는 것을 나타낸다. 대조적으로, 융기부 거리가 더 작을 때, 이것은 융기부들이 더 조밀하다는 것을 나타낸다. 대안적으로, 평균 융기부 거리는 융기부 빈도수를 추정함으로써 획득될 수 있다. 융기부 거리를 추정하기 위한 방법들은 기하학적 방법 및 스펙트럼 분석 방법을 포함한다. Yilong Yin에 의해 제안된 방법이 사용될 수 있고, 이러한 방법에서는, 통계 윈도우에 기초하여 융기부 거리가 추정된다. 대안적으로, En Zhu에 의해 제안된 방법이 사용될 수 있고, 이러한 방법에서는, 모든 지점들의 접선 방향들이 융기부 방향에 수직인, 영역들의 중심들을 통과하는 곡선 상에 국소 영역들이 투영된다. 이러한 방식으로, 전체 이미지의 평균 융기부 거리가 계산된다.
이러한 실시예에서, 평균 융기부 거리가 추정된 후(평균 융기부 거리는 픽셀들의 양을 사용하여 표기될 수 있음), 평균 융기부 거리에 따른 픽셀 행들의 제1 양을 설정하는 단계는 구체적으로, 픽셀 행들의 제1 양을 평균 융기부 거리에 대응하는 픽셀들의 양보다 작게 설정하는 단계일 수 있다.
도 2, 도 3, 및 도 6에 도시되는 바와 같이, 픽셀 행들의 제1 양이 상대적으로 크게 설정되면, 정의된 직사각형 영역은 타겟 픽셀 A의 법선 방향으로 크게 연장된다. 이러한 경우, 직사각형 영역은 2개의 융기부들을 가로질러 연장될 수 있다. 결과적으로, 평행한 지문 융기부에서의 픽셀들은 타겟 픽셀 A의 결정에 영향을 미친다. 픽셀 행들의 제1 양이 평균 융기부 거리에 대응하는 픽셀들의 양으로서 설정된 후, 정의된 직사각형 영역은 타겟 픽셀 A의 법선 방향으로 다수의 융기부들을 커버하지 않을 수 있다. 따라서, 다른 융기부로부터의 간섭이 제거되고, 2진화된 이미지의 정확도가 향상된다.
이에 대응하여, 이러한 실시예에서는, 융기부 간격 길이에 따라 픽셀 행들의 양을 설정하는 단계 이후, 각각의 픽셀 행에 포함되는 픽셀들의 제2 양이 픽셀 행들의 양에 따라 설정될 수 있다. 제2 양의 값은 제1 양의 것의 1/3 내지 2/3이다.
즉, 직사각형 영역이 타겟 픽셀에 따라 정의될 때, 타겟 픽셀의 융기부 방향으로 선택되는 픽셀들의 양은 타겟 픽셀의 법선 방향으로 선택되는 픽셀들보다 적을 수 있다. 즉, 직사각형 영역의, 타겟 픽셀의 법선 방향으로 연장되는, 변이 직사각형 영역의 긴 변이고, 직사각형 영역의, 타겟 픽셀의 융기부 방향으로 연장되는, 변이 직사각형 영역의 짧은 변이다. 짧은 변의 길이는 긴 변의 길이의 1/3과 2/3 사이에서 선택된다.
제2 양이 상대적으로 크게 설정되면, 지문 융기부가 급격하게 구부러지는 위치에 있는 타겟 픽셀의 결정은, 구부러진 융기부에서의 다른 지문 융기부 지점에 의해 쉽게 간섭된다. 제2 양이 상대적으로 작게 설정되면, 노이즈로서 잘못 수집되는 타겟 픽셀의 결정이 의존하는 인접한 기준 픽셀들의 양이 감소된다. 따라서, 디지털 노이즈로서 잘못 수집되는 타겟 픽셀이 쉽게 무시된다. 제2 양의 값이 제1 양의 것의 1/3 내지 2/3로 설정되면, 제1 양과 제2 양 사이의 균형이 도달될 수 있어, 2진화의 정확도가 향상된다.
바람직하게는, 각각의 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합의 계산 동안, 대수 합 방법을 사용하여 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합을 계산하는 대신에, 대응하는 가중 계수가 픽셀 행에서의 각각의 픽셀에 대해 설정되고, 가중 합계는 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합으로서 가중 계수들에 따라 계산된다. 구체적으로는, 도 7에 도시되는 바와 같이, 이러한 방법은 다음을 포함한다:
단계 S202: 픽셀 행들을 횡단하고, 횡단된 픽셀 행을 타겟 픽셀 행으로서 취득함.
단계 S204: 타겟 픽셀 행으로서 사용되는 횡단된 픽셀 행에서의 픽셀들의 그레이스케일 값들 및 대응하는 가중 계수들을 취득함.
단계 S206: 횡단된 픽셀 행에서의 픽셀들의 그레이스케일 값들을 대응하는 가중 계수들과 곱셈하고, 그 결과들을 덧셈하여 가중 합을 획득함.
예를 들어, 도 3에 도시되는 바와 같이, 제1 픽셀 행 E1, E2, E, E3, 및 E4에 대해, E1 및 E4에 대응하는 가중 계수가 b1이고, E2 및 E3에 대응하는 가중 계수가 b2이고, E에 대응하는 가중 계수가 b3이면, 제1 픽셀 행 E1, E2, E, E3, 및 E4의 그레이스케일 값들의 합은,
79×b1+45×b2+83×b3+84×b2+51×b1이다.
픽셀 행에서의 각각의 위치에 있는 픽셀에 대해 적절한 가중 계수가 미리 설정되어, 픽셀 행의 그레이스케일 값들의 계산된 합에서 각각의 픽셀의 그레이스케일 값에 의해 설명되는 비율들이 변경될 수 있고, 픽셀 행에서의 일부 위치들에 있는 픽셀들은 전체 픽셀 행의 그레이스케일 값들의 합에 더 큰 영향을 미칠 수 있다.
바람직하게는, 타겟 픽셀 행에서의 픽셀들의 가중 계수들이 타겟 픽셀 행에서의 중심 픽셀로부터의 거리에 따라 감소한다.
전술한 예에서는, E1 및 E4와 비교하여, E2 및 E3은 E가 지문 융기부 지점인지 결정하는데 상대적으로 강한 영향을 미친다. 따라서, E1 및 E4에 대응하는 가중 계수 b1은 E2 및 E3에 대응하는 가중 계수 b2보다 작게 설정될 수 있다. E2 및 E3과 비교하여, E의 그레이스케일 값은 E가 지문 융기부 지점인지 결정하는데 상대적으로 강한 영향을 미친다. 따라서, E2 및 E3에 대응하는 가중 계수 b2는 E에 대응하는 가중 계수 b3보다 작게 설정될 수 있다.
타겟 픽셀 행에서의 각각의 픽셀의 가중 계수는 타겟 픽셀 행에서의 중심 픽셀로부터의 거리에 따라 가중 계수들이 감소하는 방식으로 설정된다. 이러한 경우, 타겟 픽셀 행에서의 중심 픽셀에 상대적으로 가까운 픽셀(즉, 그 픽셀 및 타겟 픽셀이 양자 모두 타겟 픽셀의 법선 방향에 있음)의 그레이스케일 값은 타겟 픽셀 행의 그레이스케일 값들의 합에 상대적으로 큰 영향을 미칠 수 있고, 타겟 픽셀 행에서의 중심 픽셀로부터 상대적으로 먼 픽셀의 그레이스케일 값은 타겟 픽셀 행의 그레이스케일 값들의 합에 상대적으로 작은 영향을 미치게 될 수 있어, 결정 정확도를 향상시킨다.
바람직하게는, 지문 이미지에서의 픽셀을 타겟 픽셀로서 횡단하는 단계 이후, 타겟 픽셀의 그레이스케일 값이 취득될 수 있다. 타겟 픽셀의 그레이스케일 값이 임계값보다 큰지 결정된다. 그레이스케일 값이 임계값보다 크면, 타겟 픽셀은 비-지문 융기부 지점이라고 결정된다.
즉, 상대적으로 큰 그레이스케일 값을 분명히 갖는 픽셀이 비-지문 융기부 지점이라고 직접 결정하기 위해 지문 이미지에 사전 추정이 수행될 수 있다. 따라서, 직사각형 영역을 정의하는 단계가 생략되고, 그렇게 함으로써 인식 속도를 향상시킨다.
종래의 기술에서 가버 필터들에 기초하여 지문 이미지를 2진화하는 방법에서는 2진 이미지의 강건성이 상대적으로 낮기 때문에 지문 인식의 정확도가 상대적으로 낮은 전술한 기술적 문제점을 해결하기 위해서, 실시예에서는, 도 8에 도시되는 바와 같이, 지문 융기부 지점을 인식하기 위한 장치가 추가로 제공된다. 이러한 장치는 지문 이미지를 수신하기 위한 모듈(102), 픽셀 방향을 취득하기 위한 모듈(104), 기준 픽셀을 선택하기 위한 모듈(106), 및 지문 융기부 지점을 결정하기 위한 모듈(108)을 포함한다.
지문 이미지를 수신하기 위한 모듈(102)은, 입력 지문 이미지를 수신하도록, 그리고 지문 이미지에 배향 필드 추정을 수행하도록 구성된다.
픽셀 방향을 취득하기 위한 모듈(104)은, 지문 이미지에서의 픽셀을 타겟 픽셀로서 횡단하도록, 그리고 타겟 픽셀의, 배향 필드 추정에 따라 획득되는, 융기부 방향 및 융기부 방향에 수직인 법선 방향을 취득하도록 구성된다.
기준 픽셀을 선택하기 위한 모듈(106)은, 타겟 픽셀을 중심 지점으로서 사용하여 직사각형 영역을 정의하도록- 직사각형 영역의 길이 및 폭 연장 방향들은 타겟 픽셀의 융기부 방향 및 법선 방향에 각각 대응하고, 직사각형 영역은 법선 방향으로 배열되는 다수의 픽셀 행들을 포함함 - 구성된다.
지문 융기부 지점을 결정하기 위한 모듈(108)은, 각각의 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합을 계산하도록, 그리고 타겟 픽셀을 포함하는 픽셀 행에 대응하는 그레이스케일 값들의 합이 최소일 때 타겟 픽셀이 지문 융기부 지점이라고 결정하도록 구성된다.
이러한 실시예에서, 기준 픽셀을 선택하기 위한 모듈(106)은, 지문 이미지의 평균 융기부 거리를 계산하도록, 그리고 평균 융기부 거리에 따라 픽셀 행들의 제1 양을 설정하도록 추가로 구성된다.
이러한 실시예에서, 기준 픽셀을 선택하기 위한 모듈(106)은, 픽셀 행들의 양에 따라, 각각의 픽셀 행에 포함되는 픽셀들의 제2 양을 설정하도록 추가로 구성되며, 제2 양의 값은 제1 양의 것의 1/3 내지 2/3이다.
이러한 실시예에서, 지문 융기부 지점을 결정하기 위한 모듈(108)은, 픽셀 행들을 횡단하도록, 그리고 횡단된 픽셀 행을 타겟 픽셀 행으로서 취득하도록; 타겟 픽셀 행으로서 사용되는 횡단된 픽셀 행에서의 픽셀들의 그레이스케일 값들 및 대응하는 가중 계수들을 취득하도록; 그리고 횡단된 픽셀 행에서의 픽셀들의 그레이스케일 값들을 대응하는 가중 계수들과 곱셈하도록, 그리고 그 결과들을 덧셈하여 가중 합을 획득하도록 추가로 구성된다.
이러한 실시예에서, 도 8에 도시되는 바와 같이, 지문 융기부 지점을 인식하기 위한 장치는 프리-필터링 모듈(110)을 추가로 포함하고, 이는, 타겟 픽셀의 그레이스케일 값을 취득하도록; 타겟 픽셀의 그레이스케일 값이 임계값보다 큰지 결정하도록; 그리고 그레이스케일 값이 임계값보다 크면, 타겟 픽셀이 비-지문 융기부 지점이라고 결정하도록 구성된다.
본 발명의 실시예들을 구현함으로써, 다음과 같은 유익한 효과들이 획득된다.
지문 융기부 지점을 인식하기 위한 방법 및 장치에 의하면, 지문 이미지의 2진화하는 동안, 지문 이미지에서의 픽셀들이 횡단된다. 직사각형 영역은 횡단된 픽셀을 중심 지점으로서 사용하여 정의된다. 직사각형 영역의 길이 및 폭 연장 방향들은 타겟 픽셀의 융기부 방향 및 법선 방향에 각각 대응하고, 직사각형 영역은 법선 방향으로 배열되는 다수의 픽셀 행들을 포함한다. 각각의 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합이 계산되고, 타겟 픽셀을 포함하는 픽셀 행에 대응하는 그레이스케일 값들의 합이 최소일 때 타겟 픽셀이 지문 융기부 지점이라고 결정된다. 종래의 기술에서 필터 또는 임계값 필터링을 사용하는 방법과 비교하여, 횡단된 픽셀의 그레이스케일 값 및 횡단된 픽셀의 인접한 위치에 있는 픽셀의 그레이스케일 값 양자 모두가 기준들로서 사용되어, 잘못 결정된 노이즈가 효과적으로 제거되고, 인식 정확도가 향상된다.
실시예에서, 도 9에 도시되는 바와 같이, 도 9는 폰 노이만 아키텍처에 기초하고 사용자 리스트에서의 다수의 사용자들에게 메시지를 전송하기 위해 전술한 방법을 수행하는 컴퓨터 시스템(10)을 도시한다. 컴퓨터 시스템(10)은 스마트폰, 태블릿 컴퓨터, 팜톱 컴퓨터, 노트북 컴퓨터 또는 개인용 컴퓨터와 같은 단말 디바이스일 수 있다. 구체적으로, 컴퓨터 시스템(10)은 시스템 버스를 통해 접속되는 외부 입력 인터페이스(1001), 프로세서(1002), 메모리(1003), 및 출력 인터페이스(1004)를 포함할 수 있다. 외부 입력 인터페이스(1001)는 마우스(10012), 키보드(10014), 터치 패드(10016) 또는 네트워크 인터페이스(10018) 중 적어도 하나를 선택적으로 포함할 수 있다. 메모리(1003)는 외부 메모리(10032)(예를 들어, 하드 디스크, 광 디스크 또는 플로피 디스크) 및 내부 메모리(10034)를 포함할 수 있다. 출력 인터페이스(1004)는 디스플레이 스크린(10042) 및 라우드스피커(10044)와 같은 디바이스들을 포함할 수 있다.
이러한 실시예에서, 본 방법은 컴퓨터 프로그램에 기초하여 수행된다. 컴퓨터 프로그램의 프로그램 파일은 폰 노이만 아키텍처에 기초하는 컴퓨터 시스템(10)의 외부 메모리(10032)에 저장되고, 실행될 때 내부 메모리(10034)에 로드된다. 다음으로 프로그램 파일은 머신 코드로 컴파일되고, 머신 코드는 프로세서(1002)에 송신되어 프로세서(1002)에 의해 실행된다. 이러한 방식으로, 폰 노이만 아키텍처에 기초하는 컴퓨터 시스템(10)에 논리 명령어 수신 모듈(102), 제1 타겟 속성 파라미터 취득 모듈(104), 그룹 생성 모듈(106), 및 그룹 채팅 모듈(108)이 형성된다. 또한, 사용자 리스트에서의 다수의 사용자들에게 메시지를 전송하기 위해 본 방법을 수행하는 과정에서, 입력 파라미터들은 외부 입력 인터페이스(1001)를 사용하여 모두 수신되고, 메모리(1003)에 송신되어 캐시되며, 프로세서(1002)에 입력되어 처리된다. 처리의 결과 데이터는 후속 처리를 위해 메모리(1003)에 캐시될 수 있거나, 또는 출력을 위해 출력 인터페이스(1004)에 송신될 수 있다.
위에 설명된 것은 단지 본 발명의 바람직한 실시예들이고, 본 개시내용의 보호 범위를 제한하려고 의도되는 것은 아니다. 따라서, 본 개시내용의 청구항들에 따라 이루어지는 균등한 변형들은 본 개시내용의 범위 내에 속할 것이다.

Claims (11)

  1. 지문 융기부 지점을 인식하기 위한 방법으로서,
    입력 지문 이미지를 수신하는 단계;
    상기 입력 지문 이미지에 조명 정규화를 수행하는 단계;
    상기 지문 이미지에 배향 필드 추정을 수행하는 단계;
    상기 지문 이미지에서의 픽셀을 타겟 픽셀로서 횡단하고, 상기 타겟 픽셀의, 배향 필드 추정에 따라 획득되는, 융기부 방향 및 상기 융기부 방향에 수직인 법선 방향을 취득하는 단계;
    상기 타겟 픽셀을 중심 지점으로서 사용하여 직사각형 영역을 정의하는 단계- 상기 직사각형 영역의 길이 및 폭 연장 방향들은 상기 타겟 픽셀의 상기 융기부 방향 및 상기 법선 방향에 각각 대응하고, 상기 직사각형 영역은 상기 법선 방향으로 배열되는 다수의 픽셀 행들을 포함함 -; 및
    각각의 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합을 계산하고, 상기 타겟 픽셀을 포함하는 픽셀 행에 대응하는 그레이스케일 값들의 합이 최소일 때 상기 타겟 픽셀이 지문 융기부 지점이라고 결정하는 단계
    를 포함하고,
    상기 타겟 픽셀을 중심 지점으로서 사용하여 직사각형 영역을 정의하는 단계는,
    상기 지문 이미지의 평균 융기부 거리를 계산하고, 상기 평균 융기부 거리에 따라 상기 픽셀 행들의 제1 양을 설정하는 단계; 및
    상기 평균 융기부 거리에 따라 상기 픽셀 행들의 제1 양을 설정하는 단계 이후에, 상기 픽셀 행들의 제1 양에 따라, 각각의 픽셀 행에 포함되는 픽셀들의 제2 양을 설정하는 단계
    를 추가로 포함하고,
    상기 제2 양의 값은 상기 제1 양의 것의 1/3 내지 2/3인 지문 융기부 지점을 인식하기 위한 방법.
  2. 삭제
  3. 제1항에 있어서,
    각각의 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합을 계산하는 단계는,
    픽셀 행들을 횡단하고, 횡단된 픽셀 행을 타겟 픽셀 행으로 취득하는 단계;
    상기 타겟 픽셀 행으로서 사용되는 상기 횡단된 픽셀 행에서의 픽셀들의 그레이스케일 값들 및 대응하는 가중 계수들을 취득하는 단계; 및
    상기 횡단된 픽셀 행에서의 픽셀들의 그레이스케일 값들을 상기 대응하는 가중 계수들과 곱셈하고, 그 결과들을 덧셈하여 가중 합을 획득하는 단계
    를 포함하는 지문 융기부 지점을 인식하기 위한 방법.
  4. 제3항에 있어서,
    상기 타겟 픽셀 행에서의 픽셀들의 가중 계수들이 상기 타겟 픽셀 행에서의 중심 픽셀로부터의 거리에 따라 감소하는 지문 융기부 지점을 인식하기 위한 방법.
  5. 제1항, 제3항 또는 제4항 중 어느 한 항에 있어서,
    상기 지문 이미지에서의 픽셀을 타겟 픽셀로서 횡단하는 단계 이후, 상기 방법은,
    상기 타겟 픽셀의 그레이스케일 값을 취득하는 단계; 상기 타겟 픽셀의 그레이스케일 값이 임계값보다 큰지 결정하는 단계; 및 상기 그레이스케일 값이 상기 임계값보다 크면, 상기 타겟 픽셀이 비-지문 융기부 지점이라고 결정하는 단계를 추가로 포함하는 지문 융기부 지점을 인식하기 위한 방법.
  6. 지문 융기부 지점을 인식하기 위한 장치로서,
    지문 이미지를 수신하기 위한 모듈- 입력 지문 이미지를 수신하도록, 상기 입력 지문 이미지에 조명 정규화를 수행하도록, 그리고 상기 지문 이미지에 배향 필드 추정을 수행하도록 구성됨 -;
    픽셀 방향을 취득하기 위한 모듈- 상기 지문 이미지에서의 픽셀을 타겟 픽셀로서 횡단하도록, 그리고 상기 타겟 픽셀의, 배향 필드 추정에 따라 획득되는, 융기부 방향 및 상기 융기부 방향에 수직인 법선 방향을 취득하도록 구성됨 -;
    기준 픽셀을 선택하기 위한 모듈- 상기 타겟 픽셀을 중심 지점으로서 사용하여 직사각형 영역을 정의하도록 구성되고, 상기 직사각형 영역의 길이 및 폭 연장 방향들은 상기 타겟 픽셀의 상기 융기부 방향 및 상기 법선 방향에 각각 대응하고, 상기 직사각형 영역은 상기 법선 방향으로 배열되는 다수의 픽셀 행들을 포함함 -; 및
    지문 융기부 지점을 결정하기 위한 모듈- 각각의 픽셀 행에서의 픽셀들의 그레이스케일 값들의 합을 계산하도록, 그리고 상기 타겟 픽셀을 포함하는 픽셀 행에 대응하는 그레이스케일 값들의 합이 최소일 때 상기 타겟 픽셀이 지문 융기부 지점이라고 결정하도록 구성됨 -
    을 포함하고,
    기준 픽셀을 선택하기 위한 상기 모듈은, 상기 지문 이미지의 평균 융기부 거리를 계산하도록, 상기 평균 융기부 거리에 따라 상기 픽셀 행들의 제1 양을 설정하도록, 그리고 상기 픽셀 행들의 제1 양에 따라, 각각의 픽셀 행에 포함되는 픽셀들의 제2 양을 설정도록 추가로 구성되고, 상기 제2 양의 값은 상기 제1 양의 것의 1/3 내지 2/3인 지문 융기부 지점을 인식하기 위한 장치.
  7. 삭제
  8. 제6항에 있어서,
    상기 지문 융기부 지점을 결정하기 위한 모듈은, 픽셀 행들을 횡단하도록, 그리고 횡단된 픽셀 행을 타겟 픽셀 행으로서 취득하도록; 상기 타겟 픽셀 행으로서 사용되는 상기 횡단된 픽셀 행에서의 픽셀들의 그레이스케일 값들 및 대응하는 가중 계수들을 취득하도록; 그리고 상기 횡단된 픽셀 행에서의 픽셀들의 그레이스케일 값들을 상기 대응하는 가중 계수들과 곱셈하도록, 그리고 그 결과들을 덧셈하여 가중 합을 획득하도록 추가로 구성되는 지문 융기부 지점을 인식하기 위한 장치.
  9. 제6항 또는 제8항에 있어서,
    상기 장치는 프리-필터링 모듈- 상기 타겟 픽셀의 그레이스케일 값을 취득하도록; 상기 타겟 픽셀의 그레이스케일 값이 임계값보다 큰지 결정하도록; 그리고 상기 그레이스케일 값이 상기 임계값보다 크면, 상기 타겟 픽셀이 비-지문 융기부 지점이라고 결정하도록 구성됨 -을 추가로 포함하는 지문 융기부 지점을 인식하기 위한 장치.
  10. 삭제
  11. 삭제
KR1020177035024A 2015-09-08 2016-04-18 지문 융기부 지점 인식 방법 및 장치 KR101939936B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510566721.3A CN106503609B (zh) 2015-09-08 2015-09-08 指纹纹线点的识别方法及装置
CN201510566721.3 2015-09-08
PCT/CN2016/079584 WO2017041488A1 (zh) 2015-09-08 2016-04-18 指纹纹线点的识别方法及装置

Publications (2)

Publication Number Publication Date
KR20180003595A KR20180003595A (ko) 2018-01-09
KR101939936B1 true KR101939936B1 (ko) 2019-01-17

Family

ID=58239186

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177035024A KR101939936B1 (ko) 2015-09-08 2016-04-18 지문 융기부 지점 인식 방법 및 장치

Country Status (6)

Country Link
US (1) US10558841B2 (ko)
EP (1) EP3349140B1 (ko)
JP (1) JP6487576B2 (ko)
KR (1) KR101939936B1 (ko)
CN (1) CN106503609B (ko)
WO (1) WO2017041488A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341482B (zh) * 2017-07-13 2020-07-10 海信视像科技股份有限公司 指纹识别方法、装置及计算机可读存储介质
CN109426795A (zh) * 2017-09-05 2019-03-05 比亚迪股份有限公司 指纹识别方法和装置
EP3813015A4 (en) * 2018-06-19 2021-08-18 Sony Group Corporation INFORMATION PROCESSING DEVICE, PORTABLE EQUIPMENT, INFORMATION PROCESSING PROCESS, AND PROGRAM
CN109976615B (zh) * 2019-03-28 2021-03-12 Oppo广东移动通信有限公司 指纹图像处理方法及相关装置
KR102223320B1 (ko) * 2019-08-13 2021-03-05 숭실대학교산학협력단 인접 그레이스케일 비교에 기초한 차량 led 조명 상태 판단 방법 및 장치
JP6927611B1 (ja) * 2020-03-16 2021-09-01 Necプラットフォームズ株式会社 特徴量抽出装置、特徴量抽出方法、及び、プログラム
CN113408416B (zh) * 2021-06-18 2023-04-07 展讯通信(上海)有限公司 指纹频率估计方法及装置、指纹信息提取方法及装置
CN113361448A (zh) * 2021-06-23 2021-09-07 浙江中正智能科技有限公司 一种指纹图像中干扰直线的检测方法
KR102614078B1 (ko) * 2021-12-22 2023-12-15 주식회사 라이프사이언스테크놀로지 생체 신호를 이용한 개인 인증 장치 및 방법
CN114445867B (zh) * 2022-02-21 2024-07-23 厦门天马微电子有限公司 一种指纹识别器及显示装置
CN116935493B (zh) * 2023-09-13 2024-01-02 成都市青羊大数据有限责任公司 一种教育管理系统
CN117496560B (zh) * 2023-12-29 2024-04-19 深圳市魔力信息技术有限公司 一种基于多维向量的指纹纹线识别方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100391182B1 (ko) * 2000-09-25 2003-07-16 주식회사 디토정보기술 직접 골 추적을 이용한 지문 특징 추출방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2833313B2 (ja) * 1992-01-10 1998-12-09 富士通株式会社 指紋特徴点の真偽判定装置
JP2725599B2 (ja) * 1994-06-21 1998-03-11 日本電気株式会社 隆線方向抽出装置
US6233348B1 (en) * 1997-10-20 2001-05-15 Fujitsu Limited Fingerprint registering apparatus, fingerprint identifying apparatus, and fingerprint identifying method
US7142718B2 (en) * 2002-10-28 2006-11-28 Lee Shih-Jong J Fast pattern searching
JP3952293B2 (ja) * 2003-01-06 2007-08-01 ソニー株式会社 指紋照合装置および方法、記録媒体、並びに、プログラム
JP4020202B2 (ja) * 2003-06-16 2007-12-12 三菱電機株式会社 縞状パターン抽出システムおよび縞状パターン抽出方法
US7426020B2 (en) * 2003-06-17 2008-09-16 Cross Match Technologies, Inc. System for print imaging with prism illumination optics
KR20050094228A (ko) * 2004-03-22 2005-09-27 엘지전자 주식회사 지문 인식 방법
JP4403513B2 (ja) * 2005-08-09 2010-01-27 日本電気株式会社 指紋隆線認識装置、指紋隆線認識方法、及びプログラム
CN101079102A (zh) * 2007-06-28 2007-11-28 中南大学 基于统计方法的指纹识别方法
CN100470579C (zh) * 2007-09-21 2009-03-18 清华大学 指纹识别中确定性编码方法与系统
JP5007953B2 (ja) * 2008-03-14 2012-08-22 日本電気株式会社 画像処理装置、画像処理方法およびプログラム
JP5273801B2 (ja) * 2009-05-13 2013-08-28 Necソフト株式会社 指紋特徴点決定システム、指紋特徴点決定方法、指紋特徴点決定プログラム
CN101996321A (zh) * 2009-08-24 2011-03-30 北京易创科技有限公司 一种指纹识别预处理的方法及装置
CN102510330B (zh) * 2011-11-02 2014-07-09 杭州电子科技大学 一种基于指纹特征数据与匹配算法的新型模糊金库方法
US9542585B2 (en) * 2013-06-06 2017-01-10 Apple Inc. Efficient machine-readable object detection and tracking
US9104940B2 (en) * 2013-08-30 2015-08-11 Konica Minolta Laboratory U.S.A., Inc. Line segmentation method applicable to document images containing handwriting and printed text characters or skewed text lines
CN105205802B (zh) * 2015-02-13 2017-04-12 比亚迪股份有限公司 纹线距离的计算方法和装置
WO2016159052A1 (ja) * 2015-03-31 2016-10-06 日本電気株式会社 生体パターン情報処理装置、生体パターン情報処理方法、およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100391182B1 (ko) * 2000-09-25 2003-07-16 주식회사 디토정보기술 직접 골 추적을 이용한 지문 특징 추출방법

Also Published As

Publication number Publication date
EP3349140A4 (en) 2019-04-24
JP6487576B2 (ja) 2019-03-20
KR20180003595A (ko) 2018-01-09
CN106503609A (zh) 2017-03-15
EP3349140B1 (en) 2023-06-28
US20180101710A1 (en) 2018-04-12
EP3349140A1 (en) 2018-07-18
CN106503609B (zh) 2019-07-16
US10558841B2 (en) 2020-02-11
JP2018524663A (ja) 2018-08-30
WO2017041488A1 (zh) 2017-03-16

Similar Documents

Publication Publication Date Title
KR101939936B1 (ko) 지문 융기부 지점 인식 방법 및 장치
US10896349B2 (en) Text detection method and apparatus, and storage medium
CN110209273B (zh) 手势识别方法、交互控制方法、装置、介质与电子设备
CN110163219B (zh) 基于图像边缘识别的目标检测方法
CN110516577B (zh) 图像处理方法、装置、电子设备及存储介质
US7965874B2 (en) Biological information detecting device
US6111978A (en) System and method for determining ridge counts in fingerprint image processing
EP0887745A2 (en) Characterization of corners of curvilinear segment
CN109308465B (zh) 表格线检测方法、装置、设备及计算机可读介质
US11475707B2 (en) Method for extracting image of face detection and device thereof
US8995730B2 (en) Image processing apparatus for analyzing and enhancing fingerprint images
WO2016086877A1 (zh) 一种文本检测的方法和装置
KR20130072073A (ko) 영상 윤곽선 추출 장치 및 방법
CN109543686B (zh) 基于自适应多阈值的字符识别预处理二值化方法
CN112733823B (zh) 手势姿态识别关键帧提取方法、装置及可读存储介质
CN108280448B (zh) 指静脉按压图的判别方法及装置、指静脉识别方法
CN110443184A (zh) 身份证信息提取方法、装置及计算机存储介质
US10216973B2 (en) Method for improving images applicable to fingerprint images
WO2017128646A1 (zh) 一种图像处理的方法及装置
CN108280425B (zh) 一种基于屏下式光学指纹传感器的快速测光实现方法
JP5424694B2 (ja) 画像認識装置、及びプログラム
CN114140620A (zh) 一种物体直线轮廓检测方法
US20050271260A1 (en) Device, method and program for removing pores
CN116109957A (zh) 一种运动检测方法、装置、存储介质及电子设备
CN115880730A (zh) 一种指纹采集方法、系统、指纹采集设备及可读存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)