[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20150069989A - Apparatus for simultaneously detecting and recognizing a face using local block texture feature - Google Patents

Apparatus for simultaneously detecting and recognizing a face using local block texture feature Download PDF

Info

Publication number
KR20150069989A
KR20150069989A KR1020140065748A KR20140065748A KR20150069989A KR 20150069989 A KR20150069989 A KR 20150069989A KR 1020140065748 A KR1020140065748 A KR 1020140065748A KR 20140065748 A KR20140065748 A KR 20140065748A KR 20150069989 A KR20150069989 A KR 20150069989A
Authority
KR
South Korea
Prior art keywords
face
texture feature
feature map
input image
local block
Prior art date
Application number
KR1020140065748A
Other languages
Korean (ko)
Inventor
노용만
이승호
김형일
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of KR20150069989A publication Critical patent/KR20150069989A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method for detecting and recognizing a face for an automated recognition system such as artificial intelligence and an intelligent surveillance system. The method includes the steps of: extracting a local block texture feature map from an input image; detecting a face area from the extracted local block texture feature map; and recognizing the face by using the detected face. According to an embodiment of the present invention, when a face is detected and recognized, detection and recognition of a face are executed at the same time by using an integrated local block texture feature vector, extracted from the input image. Accordingly, detection and recognition of a face can be more efficiently executed even in an environment with a little resource.

Description

국부 블록 질감 특징 벡터를 이용한 얼굴 검출 및 인식 장치{APPARATUS FOR SIMULTANEOUSLY DETECTING AND RECOGNIZING A FACE USING LOCAL BLOCK TEXTURE FEATURE}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a face detection and recognition apparatus using a local block texture feature vector,

본 발명은 얼굴 인식에 관한 것으로, 특히 입력 영상으로부터 얼굴을 검출하고 인식함에 있어서, 입력 영상으로부터 추출되는 국부 블록 질감(local block texture) 특징 벡터를 사용하여 얼굴 검출과 얼굴 인식을 동시에 수행함으로써, 적은 리소스(resource) 환경에서도 얼굴 검출과 인식을 효율적으로 수행할 수 있는 얼굴 검출 및 인식 장치에 관한 것이다.
The present invention relates to face recognition. More particularly, in detecting and recognizing a face from an input image, face detection and face recognition are simultaneously performed using a local block texture feature vector extracted from an input image, And more particularly, to a face detection and recognition apparatus capable of effectively performing face detection and recognition even in a resource environment.

최근 얼굴 인식 기술은 인공지능, 사생활 보호 및 지능형 감시시스템 응용에서의 요소 기술로 각광받고 있다. 이에 따라 얼굴 인식을 위한 요소 기술에 대한 연구가 많이 진행되어 왔다. 기본적으로 얼굴 인식 기술은 입력 영상에 대해 얼굴 영역을 검출하게 되고, 검출된 얼굴 영역에 대해 훈련 집합과 비교하여 얼굴을 인식하게 된다. Recently, face recognition technology has attracted attention as an element technology in artificial intelligence, privacy protection and intelligent surveillance system application. As a result, many researches on element technology for face recognition have been conducted. Basically, the face recognition technology detects the face region with respect to the input image, and recognizes the face by comparing the detected face region with the training set.

이러한, 기존 얼굴 인식과 관련한 연구는 얼굴 검출에 대한 연구와 얼굴 인식에 대한 연구로 나뉘어져 검출과 인식에 대해 각기 다른 특징 벡터에 의해 수행되었다. 하지만 얼굴검출과 인식이 동시에 필요한 시스템에서 검출과 인식이 서로 다른 특징 벡터에 의해 수행되는 것은 최종 시스템 속도와 시스템에 필요한 계산 량을 생각하면 효율적이지 못하다. The research on the conventional face recognition is divided into the research on the face detection and the study on the face recognition, and is performed by different feature vectors for detection and recognition. However, in a system that requires simultaneous face detection and recognition, detection and recognition are performed by different feature vectors is not efficient considering the final system speed and the amount of calculation required for the system.

시스템 속도와 계산 량을 줄이기 위해, 다양한 검출 및 인식 알고리즘의 경량화에 대한 요구가 증가하고 있고, 실제 환경에서 얼굴 검출 및 인식에 대해 높은 성능을 얻기 위해 얼굴 특징 또는 인식시스템이 필요로 되고 있다. 하지만 여전히 계산 측면에서의 효율성과 얼굴 검출 및 인식 성능을 높이기 위한 비용 사이의 트레이드 오프(trade off)가 존재하게 된다. 이에 따라, 이 트레이드 오프 사이의 최적의 얼굴 검출 및 얼굴 인식 시스템을 개발하는 것이 숙제이다.
In order to reduce the system speed and calculation amount, there is an increasing demand for light weight of various detection and recognition algorithms, and a facial feature or recognition system is required to obtain high performance for face detection and recognition in a real environment. However, there still exists a trade-off between efficiency in terms of calculation and cost for enhancing face detection and recognition performance. Accordingly, it is a task to develop an optimal face detection and face recognition system between trade-offs.

(특허문헌)(Patent Literature)

대한민국 등록특허번호 10-0795160호 (등록일자 2008년 01월 09일)
Korean Registered Patent No. 10-0795160 (Registered Date Jan. 09, 2008)

따라서, 본 발명은 입력 영상으로부터 얼굴을 검출하고 인식함에 있어서, 입력 영상으로부터 추출되는 국부 블록 질감 특징 벡터를 사용하여 얼굴 검출과 얼굴 인식을 동시에 수행함으로써, 적은 리소스 환경에서도 얼굴 검출과 인식을 효율적으로 수행할 수 있는 얼굴 검출 및 인식 장치를 제공하고자 한다.
Therefore, in detecting and recognizing a face from an input image, the present invention simultaneously performs face detection and face recognition using a local block texture feature vector extracted from an input image, thereby efficiently performing face detection and recognition in a small resource environment And a face detection and recognition apparatus capable of performing face detection and recognition.

상술한 본 발명은 얼굴 검출 및 인식 장치로서, 카메라로부터 입력되는 입력 영상을 수신하는 영상 입력부와, 상기 영상 입력부를 통해 입력되는 영상에서 질감 특징 맵을 추출하는 질감 특징맵 추출부와, 상기 추출된 상기 질감 특징 맵을 기초로 상기 입력 영상에서 얼굴 영역을 검출하는 얼굴 검출부와, 상기 검출된 상기 얼굴 영역을 기초로 상기 얼굴 영역내에서 얼굴을 인식하는 얼굴 인식부를 포함한다.The present invention relates to a face detection and recognition apparatus, comprising: an image input unit for receiving an input image input from a camera; a texture feature map extracting unit for extracting a texture feature map from an image input through the image input unit; A face detection unit for detecting a face area in the input image based on the texture feature map; and a face recognition unit for recognizing a face in the face area based on the detected face area.

또한, 상기 질감 특징맵 추출부는, 상기 입력 영상을 다수의 국부 영역으로 분할하고, 각 국부 영역에 대해 중심과 이웃하는 픽셀 값들 사이의 크기 비교를 통해 이진 부호를 생성하고, 생성된 이진 부호의 십진화를 통해 질감 특징값을 계산하며, 상기 입력 영상에 대해 상기 질감 특징값으로 표현한 질감 특징 맵을 산출하는 것을 특징으로 한다.The texture feature map extraction unit may divide the input image into a plurality of local regions, generate a binary code by comparing magnitudes between pixel values centered and neighboring to each local region, And calculating a texture feature value through the evolution, and calculating a texture feature map expressed by the texture feature value with respect to the input image.

또한, 상기 얼굴 검출부는, 상기 질감 특징 맵에 기반하여 상기 입력 영상에서 얼굴 검출을 위하여 스캔하는 일정 크기의 원도우에 대한 국부 블록 질감 특징 벡터를 산출하고, 상기 국부 블록 질감 특징 벡터를 기설정된 기준 특징 벡터와 매칭하여 상기 입력 영상에서 얼굴 영역을 검출하는 것을 특징으로 한다.The face detection unit may calculate a local block texture feature vector for a window having a predetermined size scanned for face detection in the input image based on the texture feature map, And a face region is detected in the input image.

또한, 상기 얼굴 검출부는, 상기 질감 특징 맵으로부터 이진맵을 생성하고, 상기 이진맵을 적분하여 적분 특징 맵을 추출하며, 상기 적분 특징맵으로부터 상기 입력 영상의 모든 국부 블록에 대한 국부 블록 질감 특징 벡터를 산출하는 것을 특징으로 한다.The face detection unit may generate a binary map from the texture feature map, extract an integral feature map by integrating the binary map, extract a local block texture feature vector for all local blocks of the input image from the integral feature map, Is calculated.

또한, 상기 얼굴 검출부는, 상기 질감 특징 맵에 기반하여 각 히스토그램 빈에 해당하는 값이 있는지 여부를 검사하고, 상기 검사결과를 바탕으로 상기 질감 특징 맵을 상기 각 히스토그램 빈에 해당하는 값이 있는지 여부를 나타내는 상기 이진맵으로 생성하는 것을 특징으로 한다.The face detection unit may check whether there is a value corresponding to each histogram bin based on the texture feature map and determine whether the texture feature map has a value corresponding to each histogram bin based on the inspection result As the binary map.

또한, 상기 얼굴 검출부는, 상기 적분 특징맵을 기반으로 각각의 입력 영상에 대해서 일정 크기의 윈도우를 스캔하면서 각 윈도우 내에서 미리 정의된 n개의 국부 블록에 대해 국부 블록 질감 특징값의 빈도를 세어 각 국부 블록에 해당하는 히스토그램 벡터를 생성하고, 각 국부 블록에 대한 히스토그램 벡터를 연결시켜 상기 윈도우에 해당하는 국부 블록 질감 특징 벡터를 산출하는 것을 특징으로 한다.The face detector may scan a window of a predetermined size for each input image based on the integration feature map, count the frequency of the local block texture feature value for n local block predefined within each window, A histogram vector corresponding to a local block is generated, and a histogram vector for each local block is concatenated to calculate a local block texture feature vector corresponding to the window.

또한, 상기 얼굴 검출부는, 상기 윈도우에 대한 국부 블록 질감 특징 벡터와 상기 기준 특징 벡터 사이의 유클리드 거리를 계산하여 기설정된 임계값과 비교한 후, 상기 비교결과를 바탕으로 상기 입력 영상에서 얼굴 영역을 검출하는 것을 특징으로 한다.The face detection unit may calculate a Euclidean distance between the local block texture feature vector for the window and the reference feature vector, and compare the Euclidean distance with a preset threshold value. Then, based on the comparison result, Is detected.

또한, 상기 얼굴 인식부는, 상기 국부 블록 질감 특징 벡터와 인식 대상 얼굴들의 템플릿 특징벡터가 저장된 얼굴 데이터 베이스 사이의 매칭을 통해 상기 국부 블록 질감 특징 벡터와 각각의 템플릿 특징벡터간 유클리드 거리를 계산하여 기설정된 임계값과 비교한 후, 상기 비교결과를 바탕으로 상기 얼굴 영역에서 얼굴을 인식하는 것을 특징으로 한다.The face recognition unit may calculate the Euclidean distance between the local block texture feature vector and each template feature vector through matching between the local block texture feature vector and the face database stored in the template feature vector of the recognition target faces, Comparing the threshold value with the set threshold value, and recognizing the face in the face area based on the comparison result.

또한, 본 발명은 얼굴 검출 및 인식 방법으로서, 카메라로부터 입력되는 입력 영상을 수신하는 단계와, 상기 입력 영상에서 질감 특징 맵을 추출하는 단계와, 상기 추출된 상기 질감 특징 맵을 기초로 상기 입력 영상에서 얼굴 영역을 검출하는 단계와, 상기 검출된 상기 얼굴 영역을 기초로 상기 얼굴 영역내에서 얼굴을 인식하는 단계를 포함한다.According to another aspect of the present invention, there is provided a face detection and recognition method comprising: receiving an input image input from a camera; extracting a texture feature map from the input image; Detecting a face region in the face region based on the detected face region;

또한, 상기 질감 특징 맵을 추출하는 단계는, 상기 입력 영상을 다수의 국부 영역으로 분할하는 단계와, 각 국부 영역에 대해 중심과 이웃하는 픽셀 값들 사이의 크기 비교를 통해 이진 부호를 생성하는 단계와, 상기 생성된 이진 부호의 십진화를 통해 질감 특징값을 계산하는 단계와, 상기 입력 영상에 대해 상기 질감 특징값으로 표현한 질감 특징 맵을 산출하는 단계를 포함하는 것을 특징으로 한다.The extracting of the texture feature map may further include dividing the input image into a plurality of local regions, generating a binary code by comparing magnitudes between pixel values adjacent to the center of each local region, Calculating a texture feature value through decimation of the generated binary code, and calculating a texture feature map expressed by the texture feature value with respect to the input image.

또한, 상기 얼굴 영역을 검출하는 단계는, 상기 질감 특징 맵에 기반하여 상기 입력 영상에서 얼굴 검출을 위하여 스캔하는 일정 크기의 원도우에 대한 국부 블록 질감 특징 벡터를 산출하는 단계와, 상기 국부 블록 질감 특징 벡터를 기설정된 기준 특징 벡터와 매칭하여 상기 입력 영상에서 얼굴 영역을 검출하는 단계를 포함하는 것을 특징으로 한다.The step of detecting the face region may include calculating a local block texture feature vector for a window having a predetermined size scanned for face detection in the input image based on the texture feature map, And detecting a face region in the input image by matching a vector with a predetermined reference feature vector.

또한, 상기 국부 블록 질감 특징 벡터를 산출하는 단계는, 상기 질감 특징 맵으로부터 이진맵을 생성하는 단계와, 상기 이진맵을 적분하여 적분 특징 맵을 추출하는 단계와, 상기 적분 특징맵으로부터 상기 입력 영상의 모든 국부 블록에 대한 국부 블록 질감 특징 벡터를 산출하는 단계를 포함하는 것을 특징으로 한다.The step of calculating the local block texture feature vector may further include generating a binary map from the texture feature map, integrating the binary map to extract an integration feature map, And calculating a local block texture feature vector for all local blocks of the block.

또한, 상기 이진맵을 생성하는 단계는, 상기 질감 특징 맵에 기반하여 각 히스토그램 빈에 해당하는 값이 있는지 여부를 검사하는 단계와, 상기 검사결과를 바탕으로 상기 질감 특징 맵을 상기 각 히스토그램 빈에 해당하는 값이 있는지 여부를 나타내는 상기 이진맵으로 생성하는 단계를 포함하는 것을 특징으로 한다.The generating of the binary map may include: checking whether there is a value corresponding to each histogram bin based on the texture feature map; and determining whether the texture feature map is included in each of the histogram bins And generating the binary map indicating whether there is a corresponding value.

또한, 상기 국부 블록 질감 특징 벡터를 산출하는 단계는, 상기 적분 특징맵을 기반으로 각각의 입력 영상에 대해서 일정 크기의 윈도우를 스캔하는 단계와, 각 윈도우 내에서 미리 정의된 n개의 국부 블록에 대해 국부 블록 질감 특징값의 빈도를 세어 각 국부 블록에 해당하는 히스토그램 벡터를 생성하는 단계와, 각 국부 블록에 대한 히스토그램 벡터를 연결시켜 상기 윈도우에 해당하는 국부 블록 질감 특징 벡터를 산출하는 단계를 포함하는 것을 특징으로 한다.The calculating of the local block texture feature vector may include scanning a window of a predetermined size for each input image based on the integration feature map, Generating a histogram vector corresponding to each local block by counting the frequency of the local block texture feature value; and calculating a local block texture feature vector corresponding to the window by concatenating the histogram vectors for each local block .

또한, 상기 얼굴을 인식하는 단계는, 상기 국부 블록 질감 특징 벡터와 얼굴 데이터 베이스 사이의 매칭을 수행하여 상기 검출된 얼굴 영역에서 얼굴을 인식하는 단계인 것을 특징으로 한다.The recognizing of the face is a step of recognizing a face in the detected face region by performing matching between the local block texture feature vector and the face database.

또한, 상기 얼굴을 인식하는 단계는, 상기 국부 블록 질감 특징 벡터와 인식 대상 얼굴들의 템플릿 특징벡터가 저장된 얼굴 데이터 베이스 사이의 매칭을 수행하는 단계와, 상기 매칭을 통해 상기 국부 블록 질감 특징 벡터와 각각의 템플릿 특징벡터간 유클리드 거리를 계산하는 단계와, 상기 계산된 유클리드 거리를 기설정된 임계값과 비교하여 상기 얼굴 영역에서 얼굴을 인식하는 단계를 포함하는 것을 특징으로 한다.
The step of recognizing the face may further include performing matching between the local block texture feature vector and the stored face database of template feature vectors of recognized faces, Calculating a Euclidean distance between the template feature vectors of the Euclidean distance and a face value of the face region by comparing the calculated Euclidean distance with a preset threshold value.

본 발명의 실시예에 따르면, 얼굴을 검출하고 인식함에 있어서, 입력 영상으로부터 추출되는 통합된 국부 블록 질감 특징 벡터를 사용하여 얼굴 검출과 얼굴 인식을 동시에 수행함으로써, 적은 리소스 환경에서도 얼굴 검출과 인식을 보다 효율적으로 수행할 수 있는 이점이 있다.
According to the embodiment of the present invention, in detecting and recognizing a face, face detection and face recognition are simultaneously performed using an integrated local block texture feature vector extracted from an input image, thereby enabling face detection and recognition There is an advantage that it can be performed more efficiently.

도 1은 본 발명의 일 실시예에 따라 국부 블록 질감 특징 맵을 이용하여 얼굴 검출과 인식을 동시에 수행하는 시스템 구성도,
도 2는 본 발명의 일 실시예에 따라 질감 특징 맵 추출부의 내부 구성도,
도 3은 본 발명의 일 실시예에 따라 질감 특징 맵으로부터 얼굴을 검출하는 동작 제어 흐름도,
도 4는 본 발명의 일 실시예에 따라 질감 특징 맵으로부터 얼굴을 인식하는 동작 제어 흐름도,
도 5는 본 발명의 일 실시예에 따른 국부 이진 패턴의 예를 도시한 도면,
도 6은 본 발명의 일 실시예에 따라 질감 특징 값을 이용한 히스토그램 벡터 생성 예시도,
도 7은 본 발명의 일 실시예에 따라 입력 영상으로부터 적분 특징 맵을 도출하는 과정을 도시한 도면,
도 8은 본 발명의 일 실시예에 따른 피부색상을 결정하는 R, G, B 컬러 픽셀값들의 관계 예시도,
도 9는 본 발명의 일 실시예에 따라 질감 특징 맵의 특징 값들을 이용해서 입력 크기보다 더 작은 크기의 질감 특징 맵을 생성하는 동작 개념도.
1 is a block diagram of a system for simultaneously performing face detection and recognition using a local block texture feature map according to an embodiment of the present invention;
FIG. 2 is an internal configuration diagram of a texture feature map extracting unit according to an embodiment of the present invention;
3 is a flowchart of an operation control for detecting a face from a texture feature map according to an embodiment of the present invention;
FIG. 4 is a flowchart of an operation control for recognizing a face from a texture feature map according to an embodiment of the present invention;
Figure 5 illustrates an example of a localized binary pattern according to an embodiment of the present invention,
6 is a diagram illustrating an example of generating a histogram vector using texture feature values according to an embodiment of the present invention.
FIG. 7 illustrates a process of deriving an integral feature map from an input image according to an embodiment of the present invention; FIG.
8 is an exemplary diagram illustrating the relationship of R, G, and B color pixel values that determine skin color according to an embodiment of the present invention;
9 is a conceptual diagram illustrating an operation of generating a texture feature map having a size smaller than an input size using feature values of a texture feature map according to an exemplary embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예에 대해 살펴보기로 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따라 국부 블록 질감 특징 맵을 이용하여 얼굴 검출과 인식을 동시에 수행하는 장치의 블록 구성도로, 영상 입력부(100), 질감 특징맵 추출부(200), 얼굴 검출부(300), 얼굴 인식부(400) 등을 포함할 수 있다.FIG. 1 is a block diagram of an apparatus for simultaneously performing face detection and recognition using a local block texture feature map according to an embodiment of the present invention. The image input unit 100, the texture feature map extraction unit 200, (300), a face recognition unit (400), and the like.

이하, 도 1을 참조하여, 본 발명의 얼굴 인식 장치의 각 구성요소에서의 동작을 상세히 설명하기로 한다.Hereinafter, the operation of each component of the facial recognition apparatus of the present invention will be described in detail with reference to FIG.

먼저, 영상 입력부(100)는 카메라로부터 검출과 인식의 대상이 되는 얼굴을 포함한 영상을 입력 받는다. 이러한 영상 입력부(100)는 CCTV나 블랙박스의 영상을 온라인 영상으로 입력 받거나 임의의 원격 또는 지역 저장장치에 저장된 콘텐츠를 입력 받는 것을 포함한다. 본 발명의 미디어 콘텐츠의 파일 타입으로 현재 널리 쓰이고 있는 JPEG, BMP, GIF 등의 콘텐츠 파일 타입을 기본으로 포함하고 있으나, 상기 예의 콘텐츠 파일 타입에 한정되지는 않는다.First, the image input unit 100 receives an image including a face to be detected and recognized by the camera. The video input unit 100 includes a CCTV or a black box video input to an on-line video or a content stored in an arbitrary remote or local storage device. The content file type of JPEG, BMP, GIF, etc., which are currently widely used as the file type of the media content of the present invention, is basically included, but is not limited to the content file type of the above example.

질감 특징 맵 추출부(200)는 영상 입력부(100)를 통해 입력되는 영상에서의 국부 질감 특징 맵을 추출한다. The texture feature map extracting unit 200 extracts a local texture feature map from the image input through the image input unit 100.

도 2는 질감 특징 맵 추출부(200)의 내부 구성을 도시한 것이다. 도 2에서 보여지는 바와 같이, 질감 특징 맵 추출부(200)에서는 카메라 영상 입력부(100)를 통해서 입력된 영상이 있을 경우에, 영상의 질감 특징을 추출하기 위하여, 국부 블록 질감 특징 패턴을 기반으로 질감 특징 값(202)이 추출되게 된다. FIG. 2 shows the internal structure of the texture feature map extracting unit 200. 2, in the texture feature map extracting unit 200, in order to extract a texture feature of an image input through the camera image input unit 100, based on a local block texture feature pattern, The texture feature value 202 is extracted.

이때, 대표적인 국부 블록 질감 패턴의 예로서 국부 이진 패턴(local binary pattern)이 있다. 이러한 국부 이진 패턴 값을 이용하여 질감 특징 맵을 생성하기 위해 도 5에서 보여지는 바와 같이 입력 영상에서 각각의 국부 영역에 대해 중심과 이웃하는 픽셀 값들 사이의 크기 비교를 통해 이진 부호를 얻게 되고, 이진 부호의 십진화를 통해서 특징 값이 계산되게 된다. 이때, 질감 특징 맵은 입력 영상으로부터 얻은 질감 특징 값을 갖는 영상을 의미한다. 질감 특징 값 연산 후에 모든 입력 영상의 픽셀 값에 대해 질감 특징 값을 갖는 영상을 얻게 되고 이러한 질감 특징 값으로 이루어지는 질감 특징 맵은 얼굴 검출부(300) 및 얼굴 인식부(400)의 입력으로 들어가게 된다. At this time, an example of a typical local block texture pattern is a local binary pattern. In order to generate the texture feature map using the local binary pattern values, as shown in FIG. 5, a binary code is obtained by comparing magnitudes between center values and neighboring pixel values for each local region in the input image, The feature value is calculated through decimation of the sign. At this time, the texture feature map means an image having a texture feature value obtained from the input image. After the calculation of the texture feature value, an image having a texture feature value is obtained with respect to pixel values of all the input images. The texture feature map including the texture feature values is input to the face detection unit 300 and the face recognition unit 400.

얼굴 검출부(300)는 질감 특징 맵을 기초로 입력 영상에서 얼굴 영역을 검출한다. 즉, 얼굴 검출부(300)는 질감 특징 맵에 기반하여 상기 입력 영상에서 얼굴 검출을 위하여 스캔하는 일정 크기의 원도우(window)에 대한 국부 블록 질감 특징 벡터를 산출하고, 국부 블록 질감 특징 벡터를 기설정된 기준 특징 벡터와 매칭하여 입력 영상에서 얼굴 영역을 검출한다.The face detecting unit 300 detects a face region in the input image based on the texture feature map. That is, the face detection unit 300 calculates a local block texture feature vector for a window of a predetermined size scanned for face detection on the input image based on the texture feature map, and sets a local block texture feature vector And the face region is detected from the input image by matching with the reference feature vector.

또한, 얼굴 검출부(300)는, 질감 특징 맵으로부터 이진맵을 생성하고, 이와 같이 생성된 이진맵을 적분하여 적분 특징 맵을 추출하며, 추출된 적분 특징맵으로부터 입력 영상의 모든 국부 블록에 대한 국부 블록 질감 특징 벡터를 산출한다. In addition, the face detection unit 300 generates a binary map from the texture feature map, integrates the generated binary map to extract an integral feature map, extracts an integral feature map from the extracted integral feature map, The block texture feature vector is calculated.

이때, 얼굴 검출부(300)는 적분 특징맵을 기반으로 각각의 입력 영상에 대해서 일정 크기의 윈도우를 스캔하면서 각 윈도우 내에서 미리 정의된 n개의 국부 블록에 대해 국부 블록 질감 특징값의 빈도를 세어 각 국부 블록에 해당하는 히스토그램 벡터를 생성하고, 각 국부 블록에 대한 히스토그램 벡터를 연결시켜 윈도우에 해당하는 국부 블록 질감 특징 벡터를 산출한다.At this time, the face detector 300 scans a window of a predetermined size for each input image based on the integration feature map, counts the frequency of local block texture feature values for n local blocks defined in each window, A histogram vector corresponding to a local block is generated, and a histogram vector for each local block is concatenated to calculate a local block texture feature vector corresponding to the window.

도 3은 본 발명의 일 실시예에 따라 얼굴 검출부에서 질감 특징 맵을 이용하여 입력 영상에서 얼굴을 검출하는 동작 제어 흐름을 도시한 것이다.3 illustrates an operation control flow for detecting a face in an input image using a texture feature map in a face detection unit according to an embodiment of the present invention.

이하, 도 3을 참조하여 얼굴 검출부(300)에서의 동작을 보다 상세히 설명하기로 한다.Hereinafter, the operation of the face detecting unit 300 will be described in more detail with reference to FIG.

먼저, 얼굴 검출부(300)는 질감 특징 맵 추출부(200)로부터 질감 특징 맵을 수신하고(S3000), 질감 특징 맵에 기반하여 얼굴 검출을 위하여 스캔하는 모든 블록에 대해 질감 특징 벡터를 만들게 된다(S3100). 이때, 얼굴 영역을 효과적으로 검출하고, 얼굴의 구조적 정보를 충분히 활용함과 동시에 포즈 변화 등에 강인하게 하기 위해 도 6과 같이 미리 정의된 j 개의 중첩된 국부블록(L1, L2, ... Lj)에 대해 질감 특징 값들의 빈도를 셈에 따라 히스토그램 벡터를 만들 수 있다. 위 도 6에서는 블록 j=3인 경우를 표현하도록 하였다. First, the face detecting unit 300 receives a texture feature map from the texture feature map extracting unit 200 (S3000), and creates a texture feature vector for all the scanned blocks for face detection based on the texture feature map ( S3100). In order to effectively detect the face region and fully utilize the structural information of the face and to make the pose change robust, j predefined j number of overlapped local blocks (L 1 , L 2 , ... L j ), the histogram vector can be generated by calculating the frequency of the texture feature values. In Fig. 6, the block j = 3 is expressed.

이 특징 벡터를 효율적으로 계산하기 위해서 도 7과 같이 입력 영상(

Figure pat00001
)에 대해 얻은 질감 특징 맵(
Figure pat00002
)을 입력받고, 이러한 질감 특징 맵에 기반하여 각 히스토그램 빈(bin, n)에 해당하는 값이 있는지 여부를 [수학식 1]과 같이 나타내는 이진 맵(binary map,
Figure pat00003
)을 얻게 된다. 이때,
Figure pat00004
함수는
Figure pat00005
값이 n 과 같을 때 1을 반환하는 이진 함수로 정의된다.In order to efficiently calculate this feature vector,
Figure pat00001
) ≪ / RTI >
Figure pat00002
), And determines whether or not there is a value corresponding to each of the histogram bin (bin, n ) based on the texture feature map as a binary map (binary map)
Figure pat00003
). At this time,
Figure pat00004
The function
Figure pat00005
It is defined as a binary function that returns 1 when the value is equal to n .

Figure pat00006
Figure pat00006

Figure pat00007
Figure pat00007

이 이진 맵에 대해 적분 영상 (

Figure pat00008
)을 위의 [수학식 2]에 의해 얻게 되어 적분 특징 맵을 추출한다. 이어, 적분 특징 맵을 기반으로 일정 크기의 윈도우를 스캔하면서 각 윈도우 내에서 미리 정의된 j개의 블록(
Figure pat00009
)에 대해 국부 블록 질감 특징 값의 빈도를 각 히스토그램 빈에 대해 단순히 2번의 덧셈과 뺄셈 연산을 이용하여 각 블록에 해당하는 히스토그램 벡터(
Figure pat00010
)를 얻게 된다. 만약 i번째 블록
Figure pat00011
을 이루는 좌표가
Figure pat00012
그리고
Figure pat00013
라면, 히스토그램 벡터는 다음 [수학식 3]에 의해 얻어지게 된다. 이 때의 연산은 벡터의 전치(transpose)를 의미한다. 히스토그램 벡터에서의 각 성분은
Figure pat00014
에 의해 얻어진다.For this binary map, the integral image (
Figure pat00008
) Is obtained by the above expression (2), and the integral feature map is extracted. Next, a predetermined size window is scanned based on the integral feature map, and j blocks (
Figure pat00009
), The frequency of the local block texture feature value is added to the histogram vector corresponding to each block by simply adding and subtracting two times to each histogram bin
Figure pat00010
). If the i- th block
Figure pat00011
The coordinates that make up
Figure pat00012
And
Figure pat00013
, The histogram vector is obtained by the following equation (3). The operation at this time is the transpose of the vector. Each component in the histogram vector
Figure pat00014
Lt; / RTI >

Figure pat00015
Figure pat00015

최종적으로 각 블록에 대한 히스토그램 벡터를 연결시킴으로써 스캔하는 윈도우에 해당하는 질감 특징 벡터(

Figure pat00016
)는 [수학식 4]와 같이 계산된다. Finally, by connecting the histogram vectors for each block, the texture feature vector corresponding to the window to be scanned
Figure pat00016
) Is calculated as shown in Equation (4).

Figure pat00017
Figure pat00017

이어, 얼굴 검출부(300)는 이러한 질감 특징벡터를 기반으로 매칭에 의해 얼굴영역을 검출한다(S3300). 이러한 매칭에 있어서는 가장 간단한 방법으로 템플릿 매칭의 예를 들면 [수학식 5]와 같이 질감 특징벡터와 사전에 정의된 템플릿의 특징 벡터(

Figure pat00018
) 사이의 유클리드 거리(
Figure pat00019
)를 계산하고, 계산된 유클리드 거리를 미리 정의된 임계값과 비교하여 얼굴 영역인지 아닌지 판단하게 된다.Then, the face detecting unit 300 detects the face region by matching based on the texture feature vector (S3300). In this matching, as the simplest method, for example, template matching is performed using a texture feature vector and a feature vector of a template defined in advance
Figure pat00018
) Between the Euclidean distance
Figure pat00019
), And compares the calculated Euclidean distance with a predefined threshold to determine whether or not it is a face region.

Figure pat00020
Figure pat00020

위 [수학식 5]에서의

Figure pat00021
연산은 벡터의
Figure pat00022
을 의미한다. In Equation (5) above,
Figure pat00021
The operation
Figure pat00022
.

이어, 얼굴 검출부(300)는 최종적으로 검출된 후보영역들 중에서 오검출(false positive(FP))로 판단된 후보영역들을 제거하고(S340), 최종 얼굴검출 결과를 출력한다(S3500). 이때, 후보영역의 오검출 여부를 판단하는 기준을 설정하기 위해 예를 들어 도 8에 정의된 피부색상을 결정하는 R, G, B 컬러 픽셀 값들의 관계를 이용할 수 있다. Then, the face detecting unit 300 removes candidate regions judged as false positives (FP) among the finally detected candidate regions (S340), and outputs the final face detection result (S3500). At this time, in order to set a criterion for judging whether or not the candidate region is erroneously detected, for example, a relation of R, G, B color pixel values which determine the skin color defined in FIG. 8 can be used.

이때, 얼굴 영역 판단을 위한 인식기는 앞서 언급한 템플릿 매칭이나 AdaBoost(adaptive boosting) 인식기로 유연하게 대체될 수 있는 부분이다. At this time, the recognizer for determining the face region can be flexibly replaced by the template matching or AdaBoost (adaptive boosting) recognizer.

한편, 도 3을 참조하면 입력영상을 가지고 다양한 크기의 영상에 대한 스캔을 통해 다양한 크기의 얼굴 영역을 검출할 수 있게 되는데, 다양한 크기에 대해 영상 크기 조절 및 조절된 영상에 대해 매번 질감 특징 맵을 추출하는 것은 계산적인 측면에서 효율적이지 못하다. Referring to FIG. 3, it is possible to detect various sizes of facial regions by scanning an image having various sizes using an input image. For each size, Extraction is not computationally efficient.

따라서, 얼굴 검출부(300)는 입력 크기의 질감 특징 맵의 특징 값들만을 이용하여 입력 크기보다 더 작은 크기의 질감 특징 맵을 생성하는 특징 맵의 스케일링 방법을 사용할 수 있다. 이러한 방법은 도 9에서 도시된 바와 같이 추정할 작은 크기의 특징 맵의 영상 좌표를 입력 크기의 질감 특징 맵으로 투영된 점 주변의 특징 값들을 활용한다. 이때, 주변 특징 값들은 이진 부호로 표현될 수 있는데 이진 부호의 각 비트에 대해 1 또는 0의 과반 투표에 의해 작은 크기에 해당하는 특징 맵의 특징 값이 추정된다. 따라서 다양한 크기에 대해 추정된 질감 특징 맵을 생성함으로써 다양한 크기에 대한 질감 특징 맵을 추출할 필요가 없기 때문에 효율적인 연산이 가능하다. Accordingly, the face detecting unit 300 can use a feature map scaling method that generates a texture feature map having a size smaller than the input size by using only the feature values of the texture feature map of the input size. In this method, as shown in FIG. 9, the image coordinates of the small-sized feature map to be estimated are used as feature values around the point projected into the texture feature map of the input size. At this time, the neighboring feature values can be represented by a binary code. Feature values of feature maps corresponding to a small size are estimated by a majority vote of 1 or 0 for each bit of the binary code. Therefore, it is not necessary to extract a texture feature map for various sizes by generating an estimated texture feature map for various sizes, so that efficient computation is possible.

도 4는 본 발명의 일 실시예에 따라 얼굴 인식부(400)에서 얼굴 검출시 사용된 질감 특징 벡터를 재사용하여 얼굴을 인식하는 동작 제어 흐름을 도시한 것이다.FIG. 4 illustrates an operation control flow for recognizing a face by reusing a texture feature vector used in face detection in the face recognition unit 400 according to an embodiment of the present invention.

즉, 얼굴 인식부(400)는 얼굴 인식을 수행하여야 하는 입력 영상에 대해 질감특징맵 추출부(200)로부터 질감 특징맵을 수신하고(S4000), 얼굴 검출부(300)로부터 해당 입력 영상에 대한 질감 특징 벡터를 수신한다(S4100).That is, the face recognition unit 400 receives the texture feature map from the texture feature map extraction unit 200 for the input image to be subjected to the face recognition (S4000) The feature vector is received (S4100).

이어, 얼굴 인식부(400)는 질감 특징맵과 얼굴 검출부(300)에서 얼굴영역의 검출을 위해 산출된 질감특징벡터를 재사용하여 얼굴인식을 수행한다(S4200). Next, the face recognition unit 400 performs face recognition by reusing the texture feature map and the texture feature vector calculated for the face area detection in the face detection unit 300 (S4200).

즉, 얼굴 인식부(400)는 특징벡터와 사전에 마련된 얼굴 데이터베이스(data base)사이의 매칭을 통해 얼굴인식을 수행하게 되고, 매칭 결과에 따라 가장 가까운 신원 정보에 해당하는 얼굴 인식 결과를 출력하게 된다(S4300). 이때, 얼굴 데이터베이스 상에는 예를 들어 인식하고자 하는 대상 얼굴들의 템플릿 특징 벡터가 저장되어 있을 수 있으며, 얼굴 검출시에 마찬가지로 질감 특징 벡터와 템플릿 특징 벡터간 유클리드 거리를 미리 정의된 임계값과 비교하여 상기 얼굴 영역에서 얼굴을 인식할 수 있다.That is, the face recognition unit 400 performs face recognition through matching between a feature vector and a previously prepared data base, and outputs a face recognition result corresponding to the closest identity information according to the matching result (S4300). At this time, for example, the template feature vector of the target faces to be recognized may be stored on the face database. In the face detection, the Euclidean distance between the texture feature vector and the template feature vector is compared with a predetermined threshold value, The face can be recognized in the area.

한편, 이러한 얼굴 인식부(400)는 도 3에서 설명된 얼굴 검출부(400)에서와 마찬가지로 얼굴 인식 성능을 높이기 위해서 다른 인식기로 유연하게 채택될 수 있다.The face recognizing unit 400 can be flexibly adopted as another recognizing unit to enhance the face recognizing performance as in the face detecting unit 400 described in FIG.

상기한 바와 같이, 본 발명의 실시예에 따르면, 얼굴 검출과 인식을 위해 통합된 국부 블록 질감(local block texture) 특징 벡터를 사용함으로써 얼굴 검출과 인식을 동시에 효율적으로 수행할 수 있다.As described above, according to the embodiment of the present invention, the face detection and recognition can be efficiently performed simultaneously by using the integrated local block texture feature vector for face detection and recognition.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
The foregoing description is merely illustrative of the technical idea of the present invention and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100: 영상 입력부 200: 질감 특징 맵 추출부
300: 얼굴 검출부 400: 얼굴 인식부
100: image input unit 200: texture feature map extracting unit
300: face detecting unit 400: face recognizing unit

Claims (3)

카메라로부터 입력되는 입력 영상을 수신하는 영상 입력부와,
상기 영상 입력부를 통해 입력되는 영상에서 질감 특징 맵을 추출하는 질감 특징맵 추출부와,
상기 추출된 상기 질감 특징 맵을 기초로 상기 입력 영상에서 얼굴 영역을 검출하는 얼굴 검출부와,
상기 검출된 상기 얼굴 영역을 기초로 상기 얼굴 영역내에서 얼굴을 인식하는 얼굴 인식부
를 포함하는 얼굴 검출 및 인식 장치.
An image input unit for receiving an input image input from a camera,
A texture feature map extracting unit for extracting a texture feature map from an image input through the image input unit,
A face detection unit for detecting a face region in the input image based on the extracted texture feature map;
A face recognition unit for recognizing a face in the face area based on the detected face area,
And a face detection and recognition device.
제 1 항에 있어서,
상기 질감 특징맵 추출부는,
상기 입력 영상을 다수의 국부 영역으로 분할하고, 각 국부 영역에 대해 중심과 이웃하는 픽셀 값들 사이의 크기 비교를 통해 이진 부호를 생성하고, 생성된 이진 부호의 십진화를 통해 질감 특징값을 계산하며, 상기 입력 영상에 대해 상기 질감 특징값으로 표현한 질감 특징 맵을 산출하는 것을 특징으로 하는 얼굴 인식 장치.
The method according to claim 1,
The texture feature map extracting unit extracts,
The input image is divided into a plurality of local regions, a binary code is generated by comparing magnitudes between pixel values centered and neighbor to each local region, a texture feature value is calculated through decimation of the generated binary code And calculates a texture feature map expressed by the texture feature value with respect to the input image.
제 1 항에 있어서,
상기 얼굴 검출부는,
상기 질감 특징 맵에 기반하여 상기 입력 영상에서 얼굴 검출을 위하여 스캔하는 일정 크기의 원도우에 대한 국부 블록 질감 특징 벡터를 산출하고, 상기 국부 블록 질감 특징 벡터를 기설정된 기준 특징 벡터와 매칭하여 상기 입력 영상에서 얼굴 영역을 검출하는 것을 특징으로 하는 얼굴 검출 및 인식 장치.
The method according to claim 1,
Wherein the face detection unit comprises:
Calculating a local block texture feature vector for a window having a predetermined size scanned for face detection in the input image based on the texture feature map, matching the local block texture feature vector with a preset reference feature vector, And the face detection unit detects the face area in the face detection unit.
KR1020140065748A 2013-12-16 2014-05-30 Apparatus for simultaneously detecting and recognizing a face using local block texture feature KR20150069989A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130156758 2013-12-16
KR20130156758 2013-12-16

Publications (1)

Publication Number Publication Date
KR20150069989A true KR20150069989A (en) 2015-06-24

Family

ID=53516964

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140065748A KR20150069989A (en) 2013-12-16 2014-05-30 Apparatus for simultaneously detecting and recognizing a face using local block texture feature

Country Status (1)

Country Link
KR (1) KR20150069989A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956098A (en) * 2019-11-13 2020-04-03 深圳和而泰家居在线网络科技有限公司 Image processing method and related equipment
CN113095310A (en) * 2021-06-10 2021-07-09 杭州魔点科技有限公司 Face position detection method, electronic device and storage medium
CN113826144A (en) * 2019-07-18 2021-12-21 索尼集团公司 Facial texture map generation using a single color image and depth information

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113826144A (en) * 2019-07-18 2021-12-21 索尼集团公司 Facial texture map generation using a single color image and depth information
CN113826144B (en) * 2019-07-18 2023-11-21 索尼集团公司 Facial texture map generation using single color image and depth information
CN110956098A (en) * 2019-11-13 2020-04-03 深圳和而泰家居在线网络科技有限公司 Image processing method and related equipment
CN110956098B (en) * 2019-11-13 2023-05-12 深圳数联天下智能科技有限公司 Image processing method and related equipment
CN113095310A (en) * 2021-06-10 2021-07-09 杭州魔点科技有限公司 Face position detection method, electronic device and storage medium

Similar Documents

Publication Publication Date Title
Arth et al. Real-time license plate recognition on an embedded DSP-platform
CN109325964B (en) Face tracking method and device and terminal
CN107093172B (en) Character detection method and system
KR101724658B1 (en) Human detecting apparatus and method
TWI686774B (en) Human face live detection method and device
CN112001902A (en) Defect detection method and related device, equipment and storage medium
WO2011114736A1 (en) Feature-amount calculation apparatus, feature-amount calculation method, and program
US20170262723A1 (en) Method and system for detection and classification of license plates
CN109145742A (en) A kind of pedestrian recognition method and system
JP6095817B1 (en) Object detection device
KR102195940B1 (en) System and Method for Detecting Deep Learning based Human Object using Adaptive Thresholding Method of Non Maximum Suppression
CN111382637B (en) Pedestrian detection tracking method, device, terminal equipment and medium
KR20150069989A (en) Apparatus for simultaneously detecting and recognizing a face using local block texture feature
US12020510B2 (en) Person authentication apparatus, control method, and non-transitory storage medium
US9167129B1 (en) Method and apparatus for segmenting image into halftone and non-halftone regions
Zhang et al. Corruptencoder: Data poisoning based backdoor attacks to contrastive learning
TWI628623B (en) All-weather thermal image type pedestrian detection method
Piérard et al. A probabilistic pixel-based approach to detect humans in video streams
Gou et al. License plate recognition using MSER and HOG based on ELM
KR20150101205A (en) Pedestrian Recognition Apparatus and the Method of Using Integral Vertical Edge
CN117854160A (en) Human face living body detection method and system based on artificial multi-mode and fine-granularity patches
Gu et al. A new vision system for traffic sign recognition
Diamantatos et al. Binarization: a Tool for Text Localization
Jo et al. Pothole detection based on the features of intensity and motion
Fatichah et al. Optical flow feature based for fire detection on video data

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid