WO2020015076A1 - 人脸图像比对方法、装置、计算机设备及存储介质 - Google Patents
人脸图像比对方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- WO2020015076A1 WO2020015076A1 PCT/CN2018/104049 CN2018104049W WO2020015076A1 WO 2020015076 A1 WO2020015076 A1 WO 2020015076A1 CN 2018104049 W CN2018104049 W CN 2018104049W WO 2020015076 A1 WO2020015076 A1 WO 2020015076A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- standard
- compared
- face image
- vector
- cosine similarity
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Definitions
- the present application relates to the field of image processing, and in particular, to a face image comparison method, device, computer device, and storage medium.
- Face image comparison refers to comparing the features of the face image in the database by extracting the features of the face image to determine the identity of the face image, including a 1: 1 face image comparison and 1: N face image comparison.
- 1: N face image comparison refers to comparing the feature vector of the input face image with N feature vectors in the database system. It is used in 1: N face recognition applications that require a large N library. China can play a role, such as the VIP personnel identification system of banks and airports. Because there are many feature vectors in the database system, the comparison process is very time-consuming, which affects the speed of face image comparison.
- a face image comparison method includes:
- the standard normalized vector is obtained by obtaining N standard face images in the base database, extracting the standard feature vectors of the N standard face images in the base database, and It is obtained by normalizing the standard feature vector described above, and N is a positive integer greater than or equal to 2;
- a cosine similarity value with the largest value is retrieved from the N cosine similarity values, and a comparison result is obtained according to the cosine similarity value with the largest value and a preset similarity threshold.
- a face image comparison device includes:
- a feature vector to be compared module for obtaining a face image to be compared, and extracting a feature vector from the face image to be compared to obtain a feature vector to be compared;
- a comparison normalization vector acquisition module configured to perform normalization processing on the feature vectors to be compared to obtain a comparison normalization vector
- a standard normalization vector acquisition module is used to obtain a standard normalization vector, wherein the standard normalization vector is obtained by obtaining N standard face images in a base library, and extracting N standards in the base library.
- a similarity calculation module configured to calculate a cosine similarity between the feature vector to be compared and the N standard feature vectors in the base library based on the compared normalized vector and the standard normalized vector, Get N cosine similarity values;
- a comparison module is configured to retrieve a cosine similarity value with the largest value among the N cosine similarity values, and obtain a comparison result according to the cosine similarity value with the largest value and a preset similarity threshold.
- a computer device includes a memory, a processor, and computer-readable instructions stored in the memory and executable on the processor.
- the processor executes the computer-readable instructions, the following steps are implemented:
- the standard normalized vector is obtained by obtaining N standard face images in the base database, extracting the standard feature vectors of the N standard face images in the base database, and It is obtained by normalizing the standard feature vector described above, and N is a positive integer greater than or equal to 2;
- a cosine similarity value with the largest value is retrieved from the N cosine similarity values, and a comparison result is obtained according to the cosine similarity value with the largest value and a preset similarity threshold.
- One or more non-volatile readable storage media storing computer-readable instructions, which when executed by one or more processors, cause the one or more processors to perform the following steps:
- the standard normalized vector is obtained by obtaining N standard face images in the base database, extracting the standard feature vectors of the N standard face images in the base database, and It is obtained by normalizing the standard feature vector described above, and N is a positive integer greater than or equal to 2;
- a cosine similarity value with the largest value is retrieved from the N cosine similarity values, and a comparison result is obtained according to the cosine similarity value with the largest value and a preset similarity threshold.
- FIG. 1 is a schematic diagram of an application environment of a face image comparison method according to an embodiment of the present application
- FIG. 2 is an implementation flowchart of a face image comparison method provided by an embodiment of the present application
- FIG. 3 is a flowchart of implementing step S40 in the face image comparison method provided by an embodiment of the present application
- step S10 is a face image comparison method provided by an embodiment of the present application
- FIG. 5 is a flowchart of implementing step S50 in the face image comparison method provided by an embodiment of the present application.
- FIG. 6 is a schematic diagram of a face image comparison device provided by an embodiment of the present application.
- FIG. 7 is a schematic diagram of a computer device according to an embodiment of the present application.
- the face image comparison method provided in this application can be applied in the application environment as shown in FIG. 1, where the client communicates with the server through the network, and the server receives the face image to be compared sent by the client, and then extracts The feature vector of each face image and the feature vectors of N standard face images stored in the base library of the server beforehand, and then the face image comparison is performed according to the extracted feature vector, and the comparison result is sent to the client.
- the client may be, but is not limited to, various personal computers, notebook computers, smart phones, tablet computers, and portable wearable devices.
- the server can be implemented by an independent server or a server cluster composed of multiple servers.
- the method is applied to the server in FIG. 1 as an example for description, and includes the following steps:
- S10 Obtain a face image to be compared, extract feature vectors from the face image to be compared, and obtain a feature vector to be compared.
- the face image to be compared refers to a face image that needs to be compared to determine the identity of the face image.
- the feature vector to be compared refers to the feature vector of the face image to be compared, a vector used to characterize the image information features of the face image to be compared, for example, a projection-based feature vector (such as PCA (Principal Component Analysis), principal component (Analysis) feature vectors), direction-based feature vectors (such as HOG (Histogram of Oriented Gradient, gradient direction histogram) feature vectors) and deep learning-based feature vectors (such as convolutional neural network feature vectors).
- the feature vector can represent the image information with simple data, and the subsequent comparison process can be simplified by extracting the feature vector of the face image.
- deep learning-based feature vectors of face images to be compared may be extracted.
- Use deep convolutional neural network for feature extraction Because deep learning can automatically learn from the data of the face image, it can be applied to a variety of environments, and it eliminates the need for complex preprocessing operations. Instead, it uses features based on projection, direction, and center of gravity. Vectors can often only extract one feature, such as color features or shape features, which are difficult to apply to realistic and complex environments. Therefore, extracting feature vectors based on deep learning of face images to be compared can improve the accuracy of subsequent face comparisons.
- the face image to be compared may be a face image in a commonly used face database that the server obtains directly from the internal memory after being collected by the client and sent to the server.
- the normalization process is a process in which the data to be processed is limited to a certain range by an algorithm.
- the comparison normalization vector refers to the normalization vector obtained by normalizing the comparison feature vectors.
- the normalization process refers to a process of dividing each element in a feature vector of a face image to be compared by the same value, so that the length of the feature vector is a unit length.
- the feature vector to be compared is calculated using the following formula to obtain the normalized vector of the comparison:
- A is the feature vector to be compared
- is the modulus of the feature vector to be compared
- a ′ is the normalized vector for comparison.
- normalizing the feature vector refers to performing a division operation on the feature vectors of the face images to be compared to obtain a unit vector of the feature vector, that is, the normalization vector for comparison. More specifically, A ′ is essentially a unit vector of the feature vector A to be compared. Understandably, the normalized data is limited to a certain range, which makes subsequent data processing more convenient, and at the same time ensures that the face has faster convergence than the program running.
- normalization processing is performed on the feature vectors to be compared, which simplifies the subsequent similarity calculation process of the face image, and accelerates the speed of face image comparison.
- N is a positive integer greater than or equal to 2.
- the base database refers to a face database composed of N standard face images
- the standard face image refers to a face image stored in the base database in advance and used as a reference image set in the face image comparison process.
- the N standard face images in the base library are manually entered in advance by manual or automatic methods. For example, in a face comparison system applied at an airport or bank, the corresponding images on the passenger's ID card can be entered as the faces in the base library. image.
- the entry of the standard face image in the base library is determined by the business of the application system, which is not limited here.
- the standard normalized vector also uses a formula Calculated. Understandably, the standard feature vector B i of the standard face image in the base library is invariant, so it can be normalized (ie, divided) in advance. Direct calculation Value, so the standard normalized vector is a certain vector, more specifically, the result is essentially a unit vector of B i .
- the feature vectors of the N standard face images in the base database are the same as the feature vector extraction method to be compared.
- the feature vector to be compared and the standard normalized vector are both feature vectors based on deep learning.
- the feature vectors of the N standard face images in the base database are determined. Are both definite and will not change, so normalization can be performed in advance, and formulas are treated by comparing the feature vectors Performing calculations to obtain normalized feature vectors, simplifying the feature vector data, facilitating subsequent face image similarity calculations, and improving the calculation efficiency, so that subsequent comparisons can save the workload of repeated calculations and increase the computing speed of computers Speed up the face image comparison process.
- the cosine similarity is a distance measure to measure the similarity between two images.
- the cosine similarity value is between 0 and 1 and can be used to directly indicate the similarity of two face images without further conversion.
- Cosine similarity uses the cosine value of the angle between two vectors as a measure of the difference between two individuals. It focuses on the difference between the two vectors in direction.
- the cosine similarity has a clear physical meaning and good clustering effect, so using cosine similarity can It better reflects the similarity between the feature vectors of two face images, and the calculation of the cosine similarity is simple and convenient.
- the cosine similarity value is a value that measures the similarity of the face image to be compared with the standard face image. The closer the cosine similarity value is to 1, the more similar the face image to be compared with the standard face image is.
- the cosine similarity value can be calculated by comparing the normalized vector and the standard normalized vector according to the calculation formula of the cosine similarity.
- one compared the normalized feature vector and the N standard. Normalize the vector, and perform N calculations on the aligned normalized vector and N standard normalized vectors to obtain N cosine similarity values.
- S50 retrieve the cosine similarity value with the largest value among the N cosine similarity values, and obtain a comparison result according to the cosine similarity value with the largest value and a preset similarity threshold.
- the preset similarity threshold refers to a preset threshold value for determining whether there are standard face images in the N standard face images in the base library that match the face images to be compared.
- the similarity between the standard face image corresponding to the largest cosine similarity value and the face image to be compared is the closest, but the standard face image and the face image to be compared cannot be simply obtained. Matching results. Because when the values of the N cosine similarity values are very low, for example, if the cosine similarity value with the largest value is 0.3, it means that the face image to be compared does not match all the standard face images in the base library. . In this case, the comparison result is that there are no standard face images matching the face images to be compared among the N standard face images in the base library.
- the comparison result refers to a result indicating whether any of the standard face images in the N standard face images in the face image to be compared with the base database are the same person, including the face image to be compared with the base database.
- a comparison result of a standard face image of the N standard face images in the same person and a comparison of the N standard face images in the base library with the same face image to be compared result is first retrieved, and then the magnitude of the cosine similarity value with the largest value is compared with the preset similarity threshold.
- the comparison result between the standard face image with the largest cosine similarity value and the face image to be compared is the same person. If the cosine similarity value with the largest value is less than the preset similarity threshold, then There are no comparison results in the N standard face images in the base library that are the same person as the face images to be compared. Understandably, the above comparison result is only an explanatory description of the underlying logic.
- the specific comparison result can be presented in different ways according to the above comparison logic. For example, different symbols, letters, numbers, or words can be used to reflect the difference.
- the comparison result is not specifically limited here.
- the preset similarity threshold is also between 0 and 1.
- the preset similarity threshold is 0.85.
- the comparison result is the standard face image corresponding to the cosine similarity value with the largest value and the target face to be compared.
- the face image is the same person, and the largest cosine similarity value is less than 0.85, then there are no standard face images of the same person in the N standard face images in the base library.
- the retrieval methods that retrieve the cosine similarity value with the largest value include but are not limited to the hypothesis method, the sort method of the array, and the Math function method .
- the sort method of the array is used to retrieve the cosine similarity value with the largest value among the N cosine similarity values.
- the feature vectors to be compared for the face images to be compared are first extracted, and then the feature vectors for each face image are subjected to normalization processing in order to simplify the data calculation process of the subsequent feature vectors and improve the running speed of the computer.
- calculate the cosine similarity between the normalized normalized vector and the normalized normalized vector after the normalization process which better reflects the similarity between the feature vectors of the two face images, and the calculation is simple and convenient, which is beneficial to Speed up the comparison of face images and improve the comparison efficiency of face images.
- the comparison result is obtained according to the cosine similarity value and the preset similarity threshold, and the accuracy of the face comparison result is improved by the preset similarity threshold.
- step S40 the cosine similarity between the feature vector to be compared and the N standard feature vectors in the base library is calculated to obtain N cosine similarity values, which are specifically:
- An inner product operation is performed between the comparison normalized vector and the standard normalized vector to obtain N cosine similarity values of the feature vector to be compared and the N standard feature vectors in the base library.
- the inner product is an exponential product and a dot product, which refers to a binary operation that accepts two vectors on the real number R and returns a real-valued scalar. Understandably, the inner product operation is a vector operation in a mathematical sense, and the result is a certain value. Specifically, the calculation formula of the cosine similarity is:
- A is the feature vector of the face image to be compared
- B i is the standard feature vector of the i-th standard face image in the N standard feature vectors in the base library
- s i is the feature of the face image to be compared
- the cosine similarity value between the vector and the standard feature vector of the i-th standard face image in the base library is a specific value in the closed interval [0,1], and the larger s i is, the more the two feature vectors are similar.
- the symbol ".” Indicates that the two vectors are multiplied, that is, the inner product of the feature vector of the face image to be compared with the standard feature vector of the standard face image in the base library.
- represents the modulus (ie, length) of the vector, and the result is a specific value, so the cosine similarity value s i is a specific value.
- N inner product operations and N modulus operations are required. Since the feature vectors in the base database are all determined and do not change, it is possible to Normalize the standard feature vector and the feature vector to be compared in advance.
- the feature vector A of the face image to be compared is normalized to obtain
- the standard feature vector B i is normalized to obtain
- the standard normalized vector and the comparison normalized vector are subjected to an inner product operation. Cosine similarity value.
- the N cosine similarity values in this embodiment are obtained by performing N inner product calculations on the normalized vector and N standard normalized feature vectors by comparison, thereby eliminating N modulo operations, and The workload of repeated calculations is eliminated, which greatly improves the computing speed of the computer and the efficiency of face image comparison.
- an inner product operation is performed on the standard normalization vector and the comparison normalization vector.
- the standard normalization vector and the comparison normalization vector are then performed.
- One internal product operation saves the workload of repeated calculations, so that the computer's operation speed can be improved during subsequent comparisons.
- step S40 based on the comparison normalized vector and the standard normalized vector, the cosine similarity between the feature vector to be compared and the N standard feature vectors in the base library is calculated.
- N cosine similarity values including the following steps:
- merging refers to combining two or more vectors according to the arrangement rule. Understandably, a single vector can be regarded as a 1xM (1 row and M column) matrix, and N feature vectors can be merged into one N * A matrix of M (N rows and M columns). Specifically, the standard normalized vectors can be merged into a base library matrix through the vector merge tool in Matlab:
- the standard normalized vectors of column M are obtained through the sym function, namely E 1 , E 2 ... E M
- the eval function is used to find E 1 , E 2 ... E M in
- the elements in the matrix form of N * M are worth the base library matrix X.
- there are 3 standard normalized feature vectors, respectively: E 1 [a 1 , a 2 , a 3 ... a M ] T
- E 2 [b 1 , b 2 , b 3 ... b M ] T
- E 3 [c 1 , c 2 , c 3 ... c M ] T
- the resulting matrix X expression is:
- S42 Perform an inner product operation between the comparison normalized vector and the base library matrix to obtain N cosine similarity values of the feature vector to be compared with the N standard feature vectors in the base library.
- the result of comparing the inner product between the normalized vector and the base library matrix X is an N-dimensional vector, and the N elements in the N-dimensional vector are the N in the base library.
- the N standard normalized feature vectors are expressed in a more concise matrix form, and then directly Calculate the inner product of the matrix and the comparison normalized vector to obtain an N-dimensional vector with N cosine similarity values as elements.
- the operation data is optimized by combining the standard normalized vector into a base library matrix. , Improve the computing efficiency of the computer, and speed up the process of face image comparison.
- step S10 feature vector extraction is performed on a face image to be compared to obtain a feature vector to be compared, which specifically includes the following steps:
- S11 Use a face detection algorithm to perform face localization on the comparison face image to obtain a localized face image.
- the face detection algorithm refers to locating a face region in a given original image containing a face image of a person to obtain a rectangular frame of the face area, and obtaining a human face according to the size of the rectangular frame and the coordinate system.
- the position coordinates of the rectangle For example, in an image containing a pedestrian, a face region is selected through a face detection algorithm frame, and the region where the pedestrian's body and legs are located is not considered.
- the face detection algorithm can be a dlib face detection algorithm or an opencv library face detection algorithm.
- S12 The key point coordinates for locating the face image are extracted through a facial feature point extraction algorithm.
- facial feature point extraction refers to the location of key areas of the face in a rectangular frame of the face area, including eyebrows, eyes, nose, mouth, face contour, etc.
- the N standard face images in the base library are obtained and the coordinate positions of five key points (left eye, right eye, nose tip, left mouth corner, right mouth corner) are obtained through a facial feature point extraction algorithm.
- the face alignment refers to calibrating the face image to eliminate the interference of the face image comparison caused by the posture change.
- the positioning face image can be calibrated according to the coordinates of the key points.
- the positioning face image is subjected to affine transformation according to five standard coordinates on the template face image, and the positioning face image and the template face image are aligned, that is, five key points are calibrated to match the template face.
- the five standard coordinates of the face image correspond.
- the template face image refers to the coordinates of the key points of the human face that are introduced during the face alignment process, and are used as a face image to evaluate the degree of alignment.
- the standard coordinates are five coordinates corresponding to the key point coordinates in the template face image.
- Deep artificial neural network refers to the neural network topology with more hidden layers, which is used for learning methods such as classification, regression and clustering. Understandably, features need to be extracted before classification, so a trained deep artificial neural network can also be used to extract clustering and classification features.
- the features of the input face image can be extracted, that is, the aligned face image is input to a pre-trained deep artificial neural network, and the feature vector of the face image will be output.
- the trained deep artificial neural network performs feature extraction. Since deep learning can automatically learn from the data of the aligned face images, it can be applied to a variety of environments, and complex preprocessing operations are omitted, making this embodiment
- the feature vector to be compared is more abundant and accurate, which improves the accuracy of subsequent face comparisons.
- the standard feature vector in this embodiment may also be obtained by extracting the method from step S11 to step S14, which is not repeated here.
- first obtain a face image area then obtain key point coordinates, perform face alignment based on the key point coordinates, and finally use a pre-trained neural network to extract features from the aligned face images to obtain the features to be compared.
- the feature vector to be compared can be adapted to more complex environments and contains richer face feature information, which improves the accuracy of subsequent face comparisons.
- step S50 the largest cosine similarity value is retrieved from the N cosine similarity values, and a comparison is obtained according to the largest cosine similarity value and a preset similarity threshold.
- S51 Sort the N cosine similarity values in descending order to obtain a similarity sequence.
- the similarity sequence refers to a group of data formed by arranging a series of similarity values as elements in a predetermined order.
- the similarity sequence is obtained by sorting the N cosine similarity values in descending order.
- the array sort method is used to sort the cosine similarity values in descending order.
- a similarity sequence is obtained. It is easy to understand that if the two images are more similar, the remaining cosine similarity value will be larger. Therefore, the higher the cosine similarity value is, the higher the position, the better the performance of the algorithm and the more accurate ratio To the result.
- the standard face image corresponding to the element is the comparison result of the same person with the face image to be compared, and then the comparison result is generated.
- the value of the first element in the similarity sequence is less than the preset similarity threshold, it indicates that the value of the first element does not satisfy the condition that the two face images are the same person, so that the first element can be determined.
- the standard face image and the face image to be compared are not the same person's comparison result. Because the value of the first element is the largest, it is still less than the preset similarity threshold, and the values of the remaining N-1 elements are inevitable. It is also less than the preset similarity threshold, so it can be determined that there are no standard face images in the base library that match the face images to be compared. By comparing with the preset similarity threshold, it improves the The accuracy of the comparison results.
- the similarity sequence is obtained by sorting the N cosine similarity values in descending order, which enhances the performance of the comparison algorithm and improves the cosine similarity of the first element in the obtained similarity sequence.
- the efficiency of the value is compared, and the cosine similarity value is compared with a preset similarity threshold to obtain a comparison result, which improves the accuracy of the comparison result.
- a face image comparison device corresponds to the face image comparison method in the above embodiment in a one-to-one correspondence.
- the face image comparison device includes a feature vector acquisition module 10, a comparison normalization vector acquisition module 20, a standard normalization vector acquisition module 30, a similarity calculation module 40, and a comparison. Module 50.
- the detailed description of each function module is as follows:
- the feature vector to be compared acquisition module 10 is configured to obtain a face image to be compared, extract feature vectors from the face image to be compared, and obtain a feature vector to be compared.
- the comparison normalization vector obtaining module 20 is configured to perform normalization processing on a comparison feature vector to obtain a comparison normalization vector.
- the standard normalized vector acquisition module 30 is configured to obtain a standard normalized vector, where the standard normalized vector is obtained by obtaining N standard face images in the base library and extracting N standard face images in the base library. Is obtained by normalizing the standard feature vector, and N is a positive integer greater than or equal to 2.
- a similarity calculation module 40 configured to calculate the cosine similarity between the feature vector to be compared and the N standard feature vectors in the base library based on the comparison normalized vector and the standard normalized vector, to obtain N cosine similarity values .
- the comparison module 50 is configured to retrieve the cosine similarity value with the largest value among the N cosine similarity values, and obtain a comparison result according to the cosine similarity value with the largest value and a preset similarity threshold.
- the similarity calculation module 40 includes a similarity calculation unit 41.
- the similarity calculation unit 41 is configured to perform an inner product operation between the comparison normalized vector and the standard normalized vector to obtain N cosine similarity values of the feature vector to be compared and the N standard feature vectors in the base library.
- the similarity calculation module 40 includes a base library matrix synthesis unit 41 'and a similarity acquisition unit 42'.
- Base library matrix synthesis unit 41 is used to combine standard normalized vectors into a base library matrix.
- a similarity obtaining unit 42 ' is configured to perform an inner product operation between the comparison normalized vector and the base library matrix to obtain N cosine similarity values of the feature vector to be compared and the N standard feature vectors in the base library.
- the feature vector obtaining module 10 includes a positioning face image obtaining unit 11, a key point coordinate obtaining unit 12, an aligned face image obtaining unit 13, and a to-be-compare feature vector obtaining unit 14.
- a positioning face image obtaining unit 11 is configured to use a face detection algorithm to perform face positioning on a comparison face image to obtain a positioning face image.
- the key point coordinate acquiring unit 12 is configured to extract a key point coordinate for locating a face image through a facial feature point extraction algorithm.
- An aligned face image obtaining unit 13 is configured to perform face alignment on a positioning face image based on key point coordinates to obtain an aligned face image.
- the feature vector to be compared acquisition unit 14 is configured to input the aligned face image into a pre-trained deep artificial neuron network for calculation to obtain the feature vector to be compared.
- the comparison module 50 includes a similarity sequence acquisition unit 51, a first comparison result acquisition unit 52, and a second comparison result acquisition unit 53.
- the similarity sequence acquisition unit 51 is configured to sort the N cosine similarity values in descending order to obtain a similarity sequence.
- a first comparison result obtaining unit 52 is configured to obtain a standard person in the base library corresponding to the first element in the similarity sequence if the value of the first element in the similarity sequence is greater than or equal to a preset similarity threshold.
- a face image, and a comparison result is generated based on the standard face image.
- a second comparison result obtaining unit 53 is configured to: if the value of the first element in the similarity sequence is less than a preset similarity threshold, the N standard face images in the base library do not exist with the face to be compared Image matching standard face image.
- Each module in the above-mentioned face image comparison device may be implemented in whole or in part by software, hardware, and a combination thereof.
- the above-mentioned modules may be embedded in the hardware form or independent of the processor in the computer device, or may be stored in the memory of the computer device in the form of software, so that the processor calls and performs the operations corresponding to the above modules.
- a computer device is provided.
- the computer device may be a server, and its internal structure diagram may be as shown in FIG. 7.
- the computer device includes a processor, a memory, a network interface, and a database connected through a system bus.
- the processor of the computer device is used to provide computing and control capabilities.
- the memory of the computer device includes a non-volatile storage medium and an internal memory.
- the non-volatile storage medium stores an operating system, computer-readable instructions, and a database.
- the internal memory provides an environment for operating the operating system and computer-readable instructions in a non-volatile storage medium.
- the database of the computer equipment is used to store the comparison normalized feature vector and the standard normalized feature vector.
- the network interface of the computer device is used to communicate with an external terminal through a network connection.
- the computer-readable instructions are executed by a processor to implement a method for comparing facial images.
- a computer device including a memory, a processor, and computer-readable instructions stored on the memory and executable on the processor.
- the processor executes the computer-readable instructions, the following steps are implemented:
- the standard normalized vector is obtained by obtaining N standard face images in the base database, extracting the standard feature vectors of the N standard face images in the base database, and It is obtained by normalizing the standard feature vector described above, and N is a positive integer greater than or equal to 2;
- a cosine similarity value with the largest value is retrieved from the N cosine similarity values, and a comparison result is obtained according to the cosine similarity value with the largest value and a preset similarity threshold.
- One or more non-volatile readable storage media storing computer readable instructions, the one or more non-volatile readable storage media storing computer readable instructions, and the computer readable instructions are stored in one or more
- the processor executes one or more processors are caused to execute the steps of the face image comparison method in the foregoing embodiment, or, when computer-readable instructions are executed by one or more processors, the face image comparison device in the above embodiment is implemented
- the functions of each module / unit are omitted here to avoid repetition.
- Non-volatile memory may include read-only memory (ROM), programmable ROM (PROM), electrically programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), or flash memory.
- Volatile memory can include random access memory (RAM) or external cache memory.
- RAM is available in various forms, such as static RAM (SRAM), dynamic RAM (DRAM), synchronous DRAM (SDRAM), dual data rate SDRAM (DDRSDRAM), enhanced SDRAM (ESDRAM), synchronous chain Synchlink DRAM (SLDRAM), memory bus (Rambus) direct RAM (RDRAM), direct memory bus dynamic RAM (DRDRAM), and memory bus dynamic RAM (RDRAM).
- SRAM static RAM
- DRAM dynamic RAM
- SDRAM synchronous DRAM
- DDRSDRAM dual data rate SDRAM
- ESDRAM enhanced SDRAM
- SLDRAM synchronous chain Synchlink DRAM
- Rambus direct RAM
- DRAM direct memory bus dynamic RAM
- RDRAM memory bus dynamic RAM
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种人脸图像比对方法、装置、终端设备及存储介质,所述方法包括:获取待比对人脸图像,并进行进行特征向量提取,得到待比对特征向量;对该待比对特征向量进行归一化处理,得到比对归一化向量;获取标准归一化向量,基于比对归一化向量和标准归一化向量,计算待比对特征向量与底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值;在N个余弦相似度值中检索出数值最大的余弦相似度值,并根据数值最大的余弦相似度值和预设相似度阈值得到比对结果。所述人脸图像比对方法通过预先对人脸图像的特征向量进行归一化处理,提高了获取比对结果的速度,提高了人脸图像比对的效率。
Description
本申请以2018年7月18日提交的申请号为201810788116.4,名称为“人脸图像比对方法、装置、计算机设备及存储介质”的中国发明专利申请为基础,并要求其优先权。
本申请涉及图像处理领域,尤其涉及一种人脸图像比对方法、装置、计算机设备及存储介质。
人脸图像比对是指通过提取人脸图像的特征,与数据库中的人脸图像的特征进行比对,用于判断该人脸图像的身份,包括1:1人脸图像比对和1:N人脸图像比对。其中,1:N人脸图像比对是指将输入的人脸图像的特征向量与数据库系统中的N个特征向量进行比对,其在需要使用较大N库的1:N人脸识别应用中都可以起到作用,比如银行、机场的VIP人员识别系统等。由于数据库系统中的特征向量较多,比对的过程非常耗时,从而影响了人脸图像比对的速度。
发明内容
基于此,有必要针对上述技术问题,提供一种可以提高人脸图像比对效率的方法、装置、计算机设备及存储介质。
一种人脸图像比对方法,包括:
获取待比对人脸图像,对所述待比对人脸图像进行特征向量提取,得到待比对特征向量;
对所述待比对特征向量进行归一化处理,得到比对归一化向量;
获取标准归一化向量,其中,所述标准归一化向量是通过获取底库中的N个标准人脸图像,提取所述底库中的N个标准人脸图像的标准特征向量并对所述标准特征向量进行归一化处理得到的,N是大于或等于2的正整数;
基于所述比对归一化向量和所述标准归一化向量,计算所述待比对特征向量与所述底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值;
在所述N个余弦相似度值中检索出数值最大的余弦相似度值,并根据所述数值最大的余弦相似度值和预设相似度阈值得到比对结果。
一种人脸图像比对装置,包括:
待比对特征向量获取模块,用于获取待比对人脸图像,对所述待比对人脸图像进行特征向量提取,得到待比对特征向量;
比对归一化向量获取模块,用于对所述待比对特征向量进行归一化处理,得到比对归一化向量;
标准归一化向量获取模块,用于获取标准归一化向量,其中,所述标准归一化向量是通过获取底库中的N个标准人脸图像,提取所述底库中的N个标准人脸图像的标准特征向 量并对所述标准特征向量进行归一化处理得到的,N是大于或等于2的正整数;
相似度计算模块,用于基于所述比对归一化向量和所述标准归一化向量,计算所述待比对特征向量与所述底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值;
比对模块,用于在所述N个余弦相似度值中检索出数值最大的余弦相似度值,并根据所述数值最大的余弦相似度值和预设相似度阈值得到比对结果。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,所述处理器执行所述计算机可读指令时实现如下步骤:
获取待比对人脸图像,对所述待比对人脸图像进行特征向量提取,得到待比对特征向量;
对所述待比对特征向量进行归一化处理,得到比对归一化向量;
获取标准归一化向量,其中,所述标准归一化向量是通过获取底库中的N个标准人脸图像,提取所述底库中的N个标准人脸图像的标准特征向量并对所述标准特征向量进行归一化处理得到的,N是大于或等于2的正整数;
基于所述比对归一化向量和所述标准归一化向量,计算所述待比对特征向量与所述底库的N个标准特征向量的余弦相似度,得到N个余弦相似度值;
在所述N个余弦相似度值中检索出数值最大的余弦相似度值,并根据所述数值最大的余弦相似度值和预设相似度阈值得到比对结果。
一个或多个存储有计算机可读指令的非易失性可读存储介质,所述计算机可读指令被一个或多个处理器执行时,使得所述一个或多个处理器执行如下步骤:
获取待比对人脸图像,对所述待比对人脸图像进行特征向量提取,得到待比对特征向量;
对所述待比对特征向量进行归一化处理,得到比对归一化向量;
获取标准归一化向量,其中,所述标准归一化向量是通过获取底库中的N个标准人脸图像,提取所述底库中的N个标准人脸图像的标准特征向量并对所述标准特征向量进行归一化处理得到的,N是大于或等于2的正整数;
基于所述比对归一化向量和所述标准归一化向量,计算所述待比对特征向量与所述底库的N个标准特征向量的余弦相似度,得到N个余弦相似度值;
在所述N个余弦相似度值中检索出数值最大的余弦相似度值,并根据所述数值最大的余弦相似度值和预设相似度阈值得到比对结果。
本申请的一个或多个实施例的细节在下面的附图和描述中提出。本申请的其它特征和优点将从说明书、附图以及权利要求书变得更加明显。
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的人脸图像比对方法的应用环境示意图;
图2是本申请实施例提供的人脸图像比对方法的实现流程图;
图3是本申请实施例提供的人脸图像比对方法中步骤S40的实现流程图;
图4是本申请实施例提供的人脸图像比对方法中步骤S10的实现流程图;
图5是本申请实施例提供的人脸图像比对方法中步骤S50的实现流程图;
图6是本申请实施例提供的人脸图像比对装置的示意图;
图7是本申请实施例提供的计算机设备的示意图。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请提供的人脸图像比对方法,可应用在如图1的应用环境中,其中,客户端通过网络与服务端进行通信,服务端接收客户端发送的待比对人脸图像,然后提取各个人脸图像的特征向量以及预先存储在服务端的底库中的N个标准人脸图像的特征向量,进而根据提取的特征向量进行人脸图像比对,将比对结果发送至客户端。其中,客户端可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务端可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,以该方法应用于图1中的服务端为例进行说明,包括如下步骤:
S10:获取待比对人脸图像,对待比对人脸图像进行特征向量提取,得到待比对特征向量。
其中,待比对人脸图像是指需要通过比对以确定该人脸图像身份的人脸图像。待比对特征向量是指待比对人脸图像的特征向量,用于表征待比对人脸图像的图像信息特征的向量,例如:基于投影的特征向量(如PCA(Principal Component Analysis,主成分分析)特征向量)、基于方向的特征向量(如HOG HOG(Histogram of Oriented Gradient,梯度方向直方图)特征向量)和基于深度学习的特征向量(如卷积神经网络特征向量)等。特征向量能够以简单的数据表征图像信息,通过提取人脸图像的特征向量可以简化后续的比对过程。
在一个实施例中,可以提取待比对人脸图像的基于深度学习的特征向量。采用深度卷积神经网络进行特征提取,由于深度学习能够自动从人脸图像的数据中学习,因此能够适用多种环境,并且省去了复杂的预处理操作,而基于投影、方向和重心的特征向量往往只能提取一种特征如颜色特征或形状特征等,这些特征很难应用到现实复杂环境。因此,提取待比对人脸图像的基于深度学习的特征向量能够提高后续人脸比对的准确率。
待比对人脸图像可以是客户端采集之后发送到服务端,或者是服务端直接从内部存储器获取的常用人脸库中的人脸图像。
S20:对待比对特征向量进行归一化处理,得到比对归一化向量。
其中,归一化处理就是要把需要处理的数据通过某种算法限制在的一定范围内的处理过程。比对归一化向量是指待比对特征向量进行归一化处理后得到归一化向量。在一具体实施方式中,归一化处理是指把待比对人脸图像的特征向量里的各个元素都除以同个数 值,以使得该特征向量的长度为单位长度的处理。
在一具体实施方式中,对待比对特征向量采用如下公式进行计算,得到比对归一化向量:
式中,A为待比对特征向量,|A|为待比对特征向量的模,A'为比对归一化向量。
其中,对特征向量进行归一化是指将待比对人脸图像的特征向量进行除模运算,得到该特征向量的单位向量,即比对归一化向量。更具体地,A'实质上就是待比对特征向量A的单位向量。可以理解地,由于归一化处理后的数据都被限制在了一定范围,从而使得后面数据处理更加方便,同时也保证人脸比对程序运行时收敛加快。
本实施例中,通过对待比对特征向量进行归一化处理,简化了后续人脸图像相似度计算过程,加快了人脸图像比对的速度。
S30:获取标准归一化向量,其中,标准归一化向量是通过获取底库中的N个标准人脸图像,提取底库中的N个标准人脸图像的标准特征向量并对标准特征向量进行归一化处理得到的,N是大于或等于2的正整数。
其中,底库是指N个标准人脸图像组成的人脸数据库,标准人脸图像是指预先存储在底库中用于作为人脸图像比对过程中的参考图像集中的人脸图像。底库中的N个标准人脸图像通过手动或自动方法事先录入,例如,应用在机场或者银行的人脸比对系统中,可录入乘客的身份证上对应的图像作为底库中的人脸图像。具体地,底库中标准人脸图像的录入由应用系统的业务决定,此处不作限定。
值得说明的是,标准归一化向量也是采用公式
进行计算得到。可以理解地,底库中标准人脸图像的标准特征向量B
i是不变的,所以可以预先对其做归一化(即除模)处理。即直接计算
的值,因此标准归一化向量是一个确定的向量,更具体地,其结果实质上就是B
i的单位向量。
需要说明的是,底库中的N个标准人脸图像的特征向量即标准特征向量与待比对特征向量提取方法相同。在一个具体实施方式中,待比对特征向量和标准归一化向量都是基于深度学习的特征向量。
本实施例中,由于底库中的N个标准人脸图像通过手动或自动方法事先录入,因此,底库中的N个标准人脸图像的特征向量是确定的,由于底库中的特征向量都是确定的,并且不会变化,因此可以预先进行归一化处理,通过对待比对特征向量采用公式
进行计算得到比对归一化特征向量,简化特征向量数据,方便后续人脸图像相似度计算,提 高了计算效率,以便后续比对时,省去重复计算的工作量,提高计算机的运算速度,加快人脸图像比对过程。
S40:基于比对归一化向量和标准归一化向量,计算待比对特征向量与底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值。
其中,余弦相似度是一种衡量两幅图像相似性的距离度量,余弦相似度值介于0到1之间,可直接用于表示两张人脸图像的相似程度,无需进一步转化。余弦相似度使用两个向量夹角的余弦值作为衡量两个个体间差异的大小注重两个向量在方向上的差异,余弦相似度物理意义明确,并且聚类效果好,所以使用余弦相似度能够较好得反映两个人脸图像特征向量之间的相似度,同时余弦相似度的计算简单方便。余弦相似度值是衡量待比对人脸图像与标准人脸图像相似程度的数值,余弦相似度值越接近1,表明待比对人脸图像与标准人脸图像越相似。
具体地,余弦相似度值可通过比对归一化向量和标准归一化向量按照余弦相似度的计算公式进行计算得到,本实施例中,1个比对归一化特征向量和N个标准归一化向量,将该比对归一化向量与N个标准归一化向量进行N次计算,得到N个余弦相似度值。
S50:在N个余弦相似度值中检索出数值最大的余弦相似度值,并根据数值最大的余弦相似度值和预设相似度阈值得到比对结果。
其中,预设相似度阈值是指预先设置用于判断底库中的N个标准人脸图像中是否存在与待比对人脸图像匹配的标准人脸图像的临界值。
值得说明的是,数值最大的余弦相似度值对应的标准人脸图像与待比对的人脸图像相似度最为接近,但是,不能简单地得出该标准人脸图像与待比对人脸图像匹配的比对结果。因为,当N个余弦相似度值的数值都很低,例如,若数值最大的余弦相似度值为0.3,此时说明待比对人脸图像和底库中的所有标准人脸图像都不匹配。这种情况下,比对的结果为底库中的N个标准人脸图像中不存在与待比对人脸图像匹配的标准人脸图像的。因此,可以通过预设相似度阈值,通过比较数值最大的余弦相似度值和预设相似度阈值来进一步判断底库中的N个标准人脸图像中是否存在与待比对人脸图像匹配的标准人脸图像,如此有利于获取更加全面准确的比对结果。
其中,比对结果是指说明待比对人脸图像与底库中的N个标准人脸图像中的任一标准人脸图像是否是同一人的结果,包括待比对人脸图像与底库中的N个标准人脸图像中的某一标准人脸图像是同一人的比对结果和底库中的N个标准人脸图像中不存在与待比对人脸图像为同一人的比对结果。具体地,首先检索出数值最大的余弦相似度值,然后比较该数值最大的余弦相似度值与预设相似度阈值的大小,若该数值最大的余弦相似度值大于等于预设相似度阈值,则得出数值最大的余弦相似度值对应的标准人脸图像与待比对人脸图像是同一人的比对结果,若该数值最大的余弦相似度值小于预设相似度阈值,则得出底库中的N个标准人脸图像中不存在与待比对人脸图像为同一人的比对结果。可以理解地,上述比对结果只是对底层逻辑的一个解释性说明,具体的比对结果可以根据上述比对逻辑采用不同的方式呈现,例如可以采用不同的符号、字母、数字或文字来体现不同的比对结果,在此不作具体限定。
具体地,由于本实施例中是采用余弦相似度作为图像比对的相似性距离度量,而且余弦相似度介于0到1之间,因此预设相似度阈值也是介于0到1之间,优选地,预设相似 度阈值为0.85,例如,当数值最大的余弦相似度值大于或等于0.85时,那么比对结果即为数值最大的余弦相似度值对应的标准人脸图像与待比对人脸图像是同一个人,数值最大的余弦相似度值小于0.85时,那么底库中的N个标准人脸图像不存在与待比对人脸图像为同一人的标准人脸图像。
可以理解地,余弦相似度值越大表明两幅人脸图像的相似性越大,因此检索出数值最大的余弦相似度值的检索方法包括但不限于假设法、数组的sort方法和Math函数法。优选地,本实施例采用数组的sort方法在N个余弦相似度值中检索出数值最大的余弦相似度值。
本实施例中,首先提取待比对人脸图像的待比对特征向量,然后对各个人脸图像特征向量进行归一化处理,以便简化后续特征向量的数据计算过程,提高计算机的运行速度。接下来计算归一化处理后的比对归一化向量和标准归一化向量的余弦相似度,更好地反映了两个人脸图像特征向量之间的相似度,并且计算简单方便,有利于加快人脸图像比对速度,提高人脸图像的比对效率。最后根据余弦相似度值和预设相似度阈值得到比对结果,通过预设相似度阈值提高了人脸比对结果的准确度。
在一实施例中,步骤S40中,计算待比对特征向量与底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值,具体为:
将比对归一化向量与标准归一化向量进行内积运算,得到待比对特征向量与底库中的N个标准特征向量的N个余弦相似度值。
其中,内积运算(inner product)是指数量积、点积,是指接受在实数R上的两个向量并返回一个实数值标量的二元运算。可以理解地,内积运算在数学意义上是一种向量运算,其结果为某一数值。具体地,余弦相似度的计算公式为:
其中,A是待比对人脸图像的特征向量,B
i为底库中N个标准特征向量中的第i个标准人脸图像的标准特征向量,s
i是待比对人脸图像的特征向量与底库中的第i个标准人脸图像的标准特征向量的余弦相似度值,是一个具体数值,范围在闭区间[0,1]中,且s
i越大,两个特征向量越相似。符号“.”表示两个向量进行点乘的运算,即待比对人脸图像的特征向量与底库中的标准人脸图像的标准特征向量的内积,且两个向量点乘后结果是一个具体数值,符号||表示求取向量的模(即长度),其结果也是具体数值,因此余弦相似度值s
i是一个具体数值。
对于底库中的N个标准人脸图像的标准特征向量,那么需要进行N次内积运算和N 次取模运算,由于底库中的特征向量都是确定的,并且不会变化,因此可以预先对标准特征向量和待比对特征向量进行归一化处理,本实施例中,待比对人脸图像的特征向量A进行归一化处理后得到
同样地,标准特征向量B
i进行归一化处理后得到
并且在保证余弦相似度计算准确的前提下,然后将标准归一化向量与比对归一化向量进行一次内积运算即
即余弦相似度值。进一步地,本实施例中的N个余弦相似度值是通过对比对归一化向量和N个标准归一化特征向量进行N次内积计算得到,从而省去N次求模运算,进而省去了重复计算的工作量,大大提高了计算机的运算速度,提高了人脸图像比对的效率。
本实施例中,将标准归一化向量与比对归一化向量进行一次内积运算,在保证余弦相似度计算准确的前提下,然后将标准归一化向量与比对归一化向量进行一次内积运算,省去了重复计算的工作量,以便后续比对时,提高计算机的运算速度。
在一实施例中,如图3所示,步骤S40中,基于比对归一化向量和标准归一化向量,计算待比对特征向量与底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值,具体包括如下步骤:
S41:将标准归一化向量合并成一个底库矩阵。
其中,合并是指将两个及以上的向量按照排列规则结合到一起,可以理解地,单个向量可以看作一个1x M(1行M列)的矩阵,N个特征向量可以合并成一个N*M(N行M列)的矩阵。具体地,可通过Matlab中的向量合并工具将标准归一化向量合并成一个底库矩阵:
E
j=sym('E
j',[1,M]),(j=1,2...M);
X=eval(E
j);
其中,第一行代码中通过sym函数获取M列的标准归一化向量即E
1、E
2...E
M,第二行代码通过eval函数求E
1、E
2...E
M在N*M(N行M列)的矩阵形式下的元素值得到底库矩阵X。例如,有3个标准归一化特征向量,分别为:E
1=[a
1,a
2,a
3...a
M]
T,E
2=[b
1,b
2,b
3...b
M]
T,E
3=[c
1,c
2,c
3...c
M]
T,那么合成的矩阵X表达式为:
通过将N个标准归一化向量合并成底库矩阵,省去了重复对N个标准归一化向量进行N次循环计算工作,只需要对底库矩阵进行一次运算,使用矩阵简化了计算形式,大大提高了计算效率。
S42:将比对归一化向量与底库矩阵进行内积运算,得到待比对特征向量与底库中的N个标准特征向量的N个余弦相似度值。
具体地,由余弦相似度变换公式可知:比对归一化向量与底库矩阵X这二者的内积结果是一个N维向量,N维向量中的N个元素即为底库中N个标准人脸图像对应的N个余弦相似度值。
本实施例中,在计算待比对人脸图像与底库中的N个标准人脸图像的余弦相似度值过程中,采用更简洁的矩阵形式表示N个标准归一化特征向量,然后直接计算该矩阵与比对归一化向量的内积,从而得到由N个余弦相似度的数值作为元素的N维向量,通过将标准归一化向量合并成一个底库矩阵的方式优化了运算数据,提高了计算机运算效率,加快了人脸图像比对过程。
在一实施例中,如图4所示,步骤S10中,对待比对人脸图像进行特征向量提取,得到待比对特征向量,具体包括如下步骤:
S11:采用人脸检测算法对待比对人脸图像进行人脸定位,得到定位人脸图像。
其中,人脸检测算法是指对给定的包含有人脸图像的原始图像中定位出人脸所在的区域,以得到脸部区域的矩形框,并根据矩形框的尺寸和坐标系,得到人脸矩形框的位置坐标。例如一幅包含有行人的图像,通过人脸检测算法框选出脸部区域,行人的身体、腿的所在的区域不做考虑。其中的人脸检测算法可以是dlib人脸检测算法或者opencv库人脸检测算法。
S12:通过人脸特征点提取算法提取出定位人脸图像的关键点坐标。
其中,人脸特征点提取是指在人脸区域的矩形框中定位出人脸面部的关键区域位置,包括眉毛、眼睛、鼻子、嘴巴、脸部轮廓等。在一具体实施方式中,获取底库中的N个标准人脸图像通过人脸特征点提取算法得出五个关键点(左眼,右眼,鼻尖,左嘴角,右嘴角)的坐标位置。
S13:基于关键点坐标对定位人脸图像进行人脸对齐,得到对齐后的人脸图像。
其中,人脸对齐是指对人脸图像进行校准,用于消除姿态变化对人脸图像比对产生干扰。
得到人脸关键点坐标后,眼睛和嘴巴的位置也就确定了,可以理解地,依据关键点坐标可以对定位人脸图像进行校准。在一具体实施方式中,将定位人脸图像根据模板人脸图像上的五个标准坐标进行仿射变换,将定位人脸图像和模板人脸图像对齐,即将五个关键 点校准至与模板人脸图像的五个标准坐标对应。其中,模板人脸图像是指在人脸对齐过程中引入的标记有人脸关键点坐标,作为评价对齐程度的人脸图像。而标准坐标是模板人脸图像中和关键点坐标对应的五个坐标。
S14:将对齐后的人脸图像输入预先训练好的深度人工神经元网络进行计算,得到待比对特征向量。
深度人工神经元网络是指具有较多隐藏层的神经网络拓扑,用于分类、回归和聚类等的学习方法。可以理解地,在进行分类之前还需要提取特征,因此训练好的深度人工神经元网络还可以用来提取聚类和分类的特征。
深度人工神经元网络训练好后,可以提取出输入人脸图像的特征,即输入对齐后的人脸图像到预先训练好的深度人工神经元网络中,会输出人脸图像的特征向量,采用预先训练好的深度人工神经元网络进行特征提取,由于深度学习能够自动从对齐后的人脸图像的数据中学习,因此能够适用多种环境,并且省去了复杂的预处理操作,使得本实施例中的待比对特征向量更为丰富准确,提高了后续人脸比对的准确度。
需要说明的是,本实施例中的标准特征向量也可以采用步骤S11至步骤S14的方法进行提取得到的,此处不再赘述。
本实施例中,首先获取人脸图像区域,然后获取关键点坐标,根据关键点坐标进行人脸对齐,最后采用预先训练好的神经网络对对齐后人脸图像进行特征提取,得到待比对特征向量,且该待比对特征向量能够适应较多复杂环境且包含的人脸特征信息更为丰富,提高了后续人脸比对的准确度。
在一实施例中,如图5所示,步骤S50中,在N个余弦相似度值中检索出最大的余弦相似度值,并根据最大的余弦相似度值和预设相似度阈值得到比对结果,具体包括如下步骤:
S51:对N个余弦相似度值按照由大到小的顺序进行排序,得到相似度序列。
其中,相似度序列是指将一系列相似度数值作为元素按照预定顺序排列形成的一组数据。在一具体实施方式中,相似度序列是对N个余弦相似度值按照由大到小的顺序进行排序得到的,具体地,通过数组sort方法按照余弦相似度值从大到小顺序进行排序,得到相似度序列。容易理解地,如果两幅图像越相似,其余弦相似度值会越大,因此,将余弦相似度值大的排在越靠前位置,算法的性能越好,并且方便获取更为准确的比对结果。
S52:若相似度序列中的第一个元素的数值大于或等于预设相似度阈值,则获取相似度序列中第一个元素对应的底库中的标准人脸图像,且根据该标准人脸图像生成比对结果。
具体地,底库中有N个标准人脸图像,那么相似度序列中有N个对应的元素。并且在相似度序列中的位置越靠前,表明该元素对应的标准人脸图像与待比对人脸图像越近,即相似度序列中的第一个元素的数值对应的标准人脸图像与待比对人脸图像最为相似,当相似度序列中的第一个元素的数值大于或等于预设相似度阈值时,说明第一个元素的数值满足两幅人脸图像为同一人的条件,从而可以确定第一个元素的数值对应的标准人脸图像与待比对人脸图像是同一个人的比对结果,进而生成该比对结果。
S53:若相似度序列中的第一个元素的数值小于预设相似度阈值,则底库中的N个标准人脸图像中不存在与待比对人脸图像匹配的标准人脸图像。
具体地,当相似度序列中的第一个元素的数值小于预设相似度阈值时,说明第一个元素的数值不满足两幅人脸图像为同一人的条件,从而可以确定第一个元素的数值对应的标准人脸图像与待比对人脸图像不是同一个人的比对结果,由于第一个元素的数值最大,仍然小于预设相似度阈值,其余的N-1个元素的数值必然也小于预设相似度阈值,因而能够确定底库中的N个标准人脸图像中不存在与待比对人脸图像匹配的标准人脸图像,通过与预设相似度阈值进行比较,提高了比对结果的准确性。
本实施例中,通过将N个余弦相似度值按照由大到小的顺序进行排序得到相似度序列,增强了比较算法的性能,提高了获取相似度序列中的第一个元素的余弦相似度数值的效率,并将该余弦相似度数值与预设相似度阈值进行比较,进而得到比对结果,提高了比对结果的准确性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
在一实施例中,提供一种人脸图像比对装置,该人脸图像比对装置与上述实施例中人脸图像比对方法一一对应。如图6所示,该人脸图像比对装置包括待比对特征向量获取模块10、比对归一化向量获取模块20、标准归一化向量获取模块30、相似度计算模块40和比对模块50。各功能模块详细说明如下:
待比对特征向量获取模块10,用于获取待比对人脸图像,对待比对人脸图像进行特征向量提取,得到待比对特征向量。
比对归一化向量获取模块20,用于对待比对特征向量进行归一化处理,得到比对归一化向量。
标准归一化向量获取模块30,用于获取标准归一化向量,其中,标准归一化向量是通过获取底库中的N个标准人脸图像,提取底库中的N个标准人脸图像的标准特征向量并对标准特征向量进行归一化处理得到的,N是大于或等于2的正整数。
相似度计算模块40,用于基于比对归一化向量和标准归一化向量,计算待比对特征向量与底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值。
比对模块50,用于在N个余弦相似度值中检索出数值最大的余弦相似度值,并根据数值最大的余弦相似度值和预设相似度阈值得到比对结果。
具体地,相似度计算模块40包括相似度计算单元41。
相似度计算单元41,用于将比对归一化向量与标准归一化向量进行内积运算,得到待比对特征向量与底库中的N个标准特征向量的N个余弦相似度值。
具体地,相似度计算模块40包括底库矩阵合成单元41’和相似度获取单元42’。
底库矩阵合成单元41’,用于将标准归一化向量合并成一个底库矩阵。
相似度获取单元42’,用于将比对归一化向量与底库矩阵进行内积运算,得到待比对特征向量与底库中的N个标准特征向量的N个余弦相似度值。
具体地,待比对特征向量获取模块10包括定位人脸图像获取单元11、关键点坐标获取单元12、对齐人脸图像获取单元13和待比对特征向量获取单元14。
定位人脸图像获取单元11,用于采用人脸检测算法对待比对人脸图像进行人脸定位,得到定位人脸图像。
关键点坐标获取单元12,用于通过人脸特征点提取算法提取出定位人脸图像的关键点 坐标。
对齐人脸图像获取单元13,用于基于关键点坐标对定位人脸图像进行人脸对齐,得到对齐后的人脸图像。
待比对特征向量获取单元14,用于将对齐后的人脸图像输入预先训练好的深度人工神经元网络进行计算,得到待比对特征向量。
具体地,比对模块50包括相似度序列获取单元51、第一比对结果获取单元52和第二比对结果获取单元53。
相似度序列获取单元51,用于对N个余弦相似度值按照由大到小的顺序进行排序,得到相似度序列。
第一比对结果获取单元52,用于若相似度序列中的第一个元素的数值大于或等于预设相似度阈值,则获取相似度序列中第一个元素对应的底库中的标准人脸图像,且根据该标准人脸图像生成比对结果。
第二比对结果获取单元53,用于若相似度序列中的第一个元素的数值小于预设相似度阈值,则底库中的N个标准人脸图像中不存在与待比对人脸图像匹配的标准人脸图像。
关于人脸图像比对装置的具体限定可以参见上文中对于人脸图像比对方法的限定,在此不再赘述。上述人脸图像比对装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机可读指令和数据库。该内存储器为非易失性存储介质中的操作系统和计算机可读指令的运行提供环境。该计算机设备的数据库用于保存比对归一化特征向量和标准归一化特征向量。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机可读指令被处理器执行时以实现一种人脸图像比对方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机可读指令,处理器执行计算机可读指令时实现以下步骤:
获取待比对人脸图像,对所述待比对人脸图像进行特征向量提取,得到待比对特征向量;
对所述待比对特征向量进行归一化处理,得到比对归一化向量;
获取标准归一化向量,其中,所述标准归一化向量是通过获取底库中的N个标准人脸图像,提取所述底库中的N个标准人脸图像的标准特征向量并对所述标准特征向量进行归一化处理得到的,N是大于或等于2的正整数;
基于所述比对归一化向量和所述标准归一化向量,计算所述待比对特征向量与所述底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值;
在所述N个余弦相似度值中检索出数值最大的余弦相似度值,并根据所述数值最大的余弦相似度值和预设相似度阈值得到比对结果。
一个或多个存储有计算机可读指令的非易失性可读存储介质,该一个或多个存储有计算机可读指令的非易失性可读存储介质,计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述实施例人脸图像比对方法的步骤,或者,计算机可读指令被一个或多个处理器执行时实现上述实施例人脸图像比对装置的各模块/单元的功能,为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一非易失性计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (20)
- 一种人脸图像比对方法,其特征在于,所述人脸图像比对方法包括:获取待比对人脸图像,对所述待比对人脸图像进行特征向量提取,得到待比对特征向量;对所述待比对特征向量进行归一化处理,得到比对归一化向量;获取标准归一化向量,其中,所述标准归一化向量是通过获取底库中的N个标准人脸图像,提取所述底库中的N个标准人脸图像的标准特征向量并对所述标准特征向量进行归一化处理得到的,N是大于或等于2的正整数;基于所述比对归一化向量和所述标准归一化向量,计算所述待比对特征向量与所述底库的N个标准特征向量的余弦相似度,得到N个余弦相似度值;在所述N个余弦相似度值中检索出数值最大的余弦相似度值,并根据所述数值最大的余弦相似度值和预设相似度阈值得到比对结果。
- 如权利要求1所述的人脸图像比对方法,其特征在于,所述计算所述待比对特征向量与所述底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值,包括:将所述比对归一化向量与所述标准归一化向量进行内积运算,得到所述待比对特征向量与所述底库中的N个标准特征向量的N个余弦相似度值。
- 如权利要求1所述的人脸图像比对方法,其特征在于,所述基于所述比对归一化向量和所述标准归一化向量,计算所述待比对特征向量与所述底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值,包括:将所述标准归一化向量合并成一个底库矩阵;将所述比对归一化向量与所述底库矩阵进行内积运算,得到所述待比对特征向量与所述底库中的N个标准特征向量的N个余弦相似度值。
- 如权利要求1所述的人脸图像比对方法,其特征在于,所述对所述待比对人脸图像进行特征向量提取,得到待比对特征向量,包括:采用人脸检测算法对所述待比对人脸图像进行人脸定位,得到定位人脸图像;通过人脸特征点提取算法提取出所述定位人脸图像的关键点坐标;基于所述关键点坐标对所述定位人脸图像进行人脸对齐,得到对齐后的人脸图像;将所述对齐后的人脸图像输入预先训练好的深度人工神经元网络进行计算,得到所述待比对特征向量。
- 如权利要求1所述的人脸图像比对方法,其特征在于,所述在所述N个余弦相似度值中检索出最大的余弦相似度值,并根据所述最大的余弦相似度值和预设相似度阈值得到比对结果,包括:对所述N个余弦相似度值按照由大到小的顺序进行排序,得到相似度序列;若所述相似度序列中的第一个元素的数值大于或等于预设相似度阈值,则获取相似度序列中第一个元素对应的底库中的标准人脸图像,且根据该标准人脸图像生成所述比对结果;若所述相似度序列中的第一个元素的数值小于预设相似度阈值,则所述底库中的N个标准人脸图像中不存在与所述待比对人脸图像匹配的标准人脸图像。
- 一种人脸图像比对装置,其特征在于,所述人脸图像比对装置包括:待比对特征向量获取模块,用于获取待比对人脸图像,对所述待比对人脸图像进行特征向量提取,得到待比对特征向量;比对归一化向量获取模块,用于对所述待比对特征向量进行归一化处理,得到比对归一化向量;标准归一化向量获取模块,用于获取标准归一化向量,其中,所述标准归一化向量是通过获取底库中的N个标准人脸图像,提取所述底库中的N个标准人脸图像的标准特征向量并对所述标准特征向量进行归一化处理得到的,N是大于或等于2的正整数;相似度计算模块,用于基于所述比对归一化向量和所述标准归一化向量,计算所述待比对特征向量与所述底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值;比对模块,用于在所述N个余弦相似度值中检索出数值最大的余弦相似度值,并根据所述数值最大的余弦相似度值和预设相似度阈值得到比对结果。
- 如权利要求6所述的人脸图像比对装置,其特征在于,所述相似度计算模块,包括:相似度计算单元,用于将所述比对归一化向量与所述标准归一化向量进行内积运算,得到所述待比对特征向量与所述底库中的N个标准特征向量的N个余弦相似度值。
- 如权利要求6所述的人脸图像比对装置,其特征在于,所述相似度计算模块,包括:底库矩阵合成单元,用于将所述标准归一化向量合并成一个底库矩阵;相似度获取单元,用于将所述比对归一化向量与所述底库矩阵进行内积运算,得到所述待比对特征向量与所述底库中的N个标准特征向量的N个余弦相似度值。
- 如权利要求6所述的人脸图像比对装置,其特征在于,所述待比对特征向量获取模块,包括:定位人脸图像获取单元,用于采用人脸检测算法对所述待比对人脸图像进行人脸定位,得到定位人脸图像;关键点坐标获取单元,用于通过人脸特征点提取算法提取出所述定位人脸图像的关键点坐标;对齐人脸图像获取单元,用于基于所述关键点坐标对所述定位人脸图像进行人脸对齐,得到对齐后的人脸图像;待比对特征向量获取单元,用于将所述对齐后的人脸图像输入预先训练好的深度人工神经元网络进行计算,得到所述待比对特征向量。
- 如权利要求6所述的人脸图像比对装置,其特征在于,所述比对模块,包括:相似度序列获取单元,用于对所述N个余弦相似度值按照由大到小的顺序进行排序,得到相似度序列;第一比对结果获取单元,用于若所述相似度序列中的第一个元素的数值大于或等于预设相似度阈值,则获取相似度序列中第一个元素对应的底库中的标准人脸图像,且根据该标准人脸图像生成所述比对结果;第二比对结果获取单元,用于若所述相似度序列中的第一个元素的数值小于预设相似度阈值,则所述底库中的N个标准人脸图像中不存在与所述待比对人脸图像匹配的标准人脸图像。
- 一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理 器上运行的计算机可读指令,其特征在于,所述处理器执行所述计算机可读指令时实现如下步骤:获取待比对人脸图像,对所述待比对人脸图像进行特征向量提取,得到待比对特征向量;对所述待比对特征向量进行归一化处理,得到比对归一化向量;获取标准归一化向量,其中,所述标准归一化向量是通过获取底库中的N个标准人脸图像,提取所述底库中的N个标准人脸图像的标准特征向量并对所述标准特征向量进行归一化处理得到的,N是大于或等于2的正整数;基于所述比对归一化向量和所述标准归一化向量,计算所述待比对特征向量与所述底库的N个标准特征向量的余弦相似度,得到N个余弦相似度值;在所述N个余弦相似度值中检索出数值最大的余弦相似度值,并根据所述数值最大的余弦相似度值和预设相似度阈值得到比对结果。
- 如权利要求11所述的计算机设备,其特征在于,所述计算所述待比对特征向量与所述底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值,包括:将所述比对归一化向量与所述标准归一化向量进行内积运算,得到所述待比对特征向量与所述底库中的N个标准特征向量的N个余弦相似度值。
- 如权利要求11所述的计算机设备,其特征在于,所述基于所述比对归一化向量和所述标准归一化向量,计算所述待比对特征向量与所述底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值,包括:将所述标准归一化向量合并成一个底库矩阵;将所述比对归一化向量与所述底库矩阵进行内积运算,得到所述待比对特征向量与所述底库中的N个标准特征向量的N个余弦相似度值。
- 如权利要求11所述的计算机设备,其特征在于,所述对所述待比对人脸图像进行特征向量提取,得到待比对特征向量,包括:采用人脸检测算法对所述待比对人脸图像进行人脸定位,得到定位人脸图像;通过人脸特征点提取算法提取出所述定位人脸图像的关键点坐标;基于所述关键点坐标对所述定位人脸图像进行人脸对齐,得到对齐后的人脸图像;将所述对齐后的人脸图像输入预先训练好的深度人工神经元网络进行计算,得到所述待比对特征向量。
- 如权利要求11所述的计算机设备,其特征在于,所述在所述N个余弦相似度值中检索出最大的余弦相似度值,并根据所述最大的余弦相似度值和预设相似度阈值得到比对结果,包括:对所述N个余弦相似度值按照由大到小的顺序进行排序,得到相似度序列;若所述相似度序列中的第一个元素的数值大于或等于预设相似度阈值,则获取相似度序列中第一个元素对应的底库中的标准人脸图像,且根据该标准人脸图像生成所述比对结果;若所述相似度序列中的第一个元素的数值小于预设相似度阈值,则所述底库中的N个标准人脸图像中不存在与所述待比对人脸图像匹配的标准人脸图像。
- 一个或多个存储有计算机可读指令的非易失性可读存储介质,其特征在于,所述 计算机可读指令被一个或多个处理器执行时,使得所述一个或多个处理器执行如下步骤:获取待比对人脸图像,对所述待比对人脸图像进行特征向量提取,得到待比对特征向量;对所述待比对特征向量进行归一化处理,得到比对归一化向量;获取标准归一化向量,其中,所述标准归一化向量是通过获取底库中的N个标准人脸图像,提取所述底库中的N个标准人脸图像的标准特征向量并对所述标准特征向量进行归一化处理得到的,N是大于或等于2的正整数;基于所述比对归一化向量和所述标准归一化向量,计算所述待比对特征向量与所述底库的N个标准特征向量的余弦相似度,得到N个余弦相似度值;在所述N个余弦相似度值中检索出数值最大的余弦相似度值,并根据所述数值最大的余弦相似度值和预设相似度阈值得到比对结果。
- 如权利要求16所述的非易失性可读存储介质,其特征在于,所述计算所述待比对特征向量与所述底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值,包括:将所述比对归一化向量与所述标准归一化向量进行内积运算,得到所述待比对特征向量与所述底库中的N个标准特征向量的N个余弦相似度值。
- 如权利要求16所述的非易失性可读存储介质,其特征在于,所述基于所述比对归一化向量和所述标准归一化向量,计算所述待比对特征向量与所述底库中的N个标准特征向量的余弦相似度,得到N个余弦相似度值,包括:将所述标准归一化向量合并成一个底库矩阵;将所述比对归一化向量与所述底库矩阵进行内积运算,得到所述待比对特征向量与所述底库中的N个标准特征向量的N个余弦相似度值。
- 如权利要求16所述的非易失性可读存储介质,其特征在于,所述对所述待比对人脸图像进行特征向量提取,得到待比对特征向量,包括:采用人脸检测算法对所述待比对人脸图像进行人脸定位,得到定位人脸图像;通过人脸特征点提取算法提取出所述定位人脸图像的关键点坐标;基于所述关键点坐标对所述定位人脸图像进行人脸对齐,得到对齐后的人脸图像;将所述对齐后的人脸图像输入预先训练好的深度人工神经元网络进行计算,得到所述待比对特征向量。
- 如权利要求16所述的非易失性可读存储介质,其特征在于,所述在所述N个余弦相似度值中检索出最大的余弦相似度值,并根据所述最大的余弦相似度值和预设相似度阈值得到比对结果,包括:对所述N个余弦相似度值按照由大到小的顺序进行排序,得到相似度序列;若所述相似度序列中的第一个元素的数值大于或等于预设相似度阈值,则获取相似度序列中第一个元素对应的底库中的标准人脸图像,且根据该标准人脸图像生成所述比对结果;若所述相似度序列中的第一个元素的数值小于预设相似度阈值,则所述底库中的N个标准人脸图像中不存在与所述待比对人脸图像匹配的标准人脸图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810788116.4A CN108985232A (zh) | 2018-07-18 | 2018-07-18 | 人脸图像比对方法、装置、计算机设备及存储介质 |
CN201810788116.4 | 2018-07-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020015076A1 true WO2020015076A1 (zh) | 2020-01-23 |
Family
ID=64549150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2018/104049 WO2020015076A1 (zh) | 2018-07-18 | 2018-09-05 | 人脸图像比对方法、装置、计算机设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108985232A (zh) |
WO (1) | WO2020015076A1 (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339990A (zh) * | 2020-03-13 | 2020-06-26 | 乐鑫信息科技(上海)股份有限公司 | 一种基于人脸特征动态更新的人脸识别系统和方法 |
CN112149517A (zh) * | 2020-08-31 | 2020-12-29 | 三盟科技股份有限公司 | 一种人脸考勤方法、系统、计算机设备及存储介质 |
CN112464808A (zh) * | 2020-11-26 | 2021-03-09 | 成都睿码科技有限责任公司 | 一种基于计算机视觉的跳绳姿态及个数识别方法 |
CN113361366A (zh) * | 2021-05-27 | 2021-09-07 | 北京百度网讯科技有限公司 | 人脸标注方法、装置、电子设备和存储介质 |
CN113743176A (zh) * | 2021-01-29 | 2021-12-03 | 北京沃东天骏信息技术有限公司 | 一种图像识别方法、设备和计算机可读存储介质 |
CN114429663A (zh) * | 2022-01-28 | 2022-05-03 | 北京百度网讯科技有限公司 | 人脸底库的更新方法、人脸识别方法、装置及系统 |
CN115035556A (zh) * | 2021-03-03 | 2022-09-09 | 北京迈格威科技有限公司 | 人脸检索方法、装置、电子设备及存储介质 |
CN115599791A (zh) * | 2022-11-15 | 2023-01-13 | 以萨技术股份有限公司(Cn) | 一种Milvus数据库参数确定方法、设备及存储介质 |
WO2023240991A1 (zh) * | 2022-06-14 | 2023-12-21 | 青岛云天励飞科技有限公司 | 聚类连接图的构建方法、装置、设备及可读存储介质 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109657652A (zh) * | 2019-01-16 | 2019-04-19 | 平安科技(深圳)有限公司 | 一种人脸识别方法和装置 |
CN109903474A (zh) * | 2019-01-17 | 2019-06-18 | 平安科技(深圳)有限公司 | 一种基于人脸识别的智能开柜方法及装置 |
CN110084268A (zh) * | 2019-03-18 | 2019-08-02 | 浙江大华技术股份有限公司 | 图像比对方法、人脸识别方法及装置、计算机存储介质 |
CN110135268A (zh) * | 2019-04-17 | 2019-08-16 | 深圳和而泰家居在线网络科技有限公司 | 人脸比对方法、装置、计算机设备和存储介质 |
CN110196926A (zh) * | 2019-06-10 | 2019-09-03 | 北京字节跳动网络技术有限公司 | 对象处理方法、装置、电子设备及计算机可读存储介质 |
CN110458007B (zh) * | 2019-07-03 | 2023-10-27 | 平安科技(深圳)有限公司 | 匹配人脸的方法、装置、计算机设备和存储介质 |
CN110377774B (zh) * | 2019-07-15 | 2023-08-01 | 腾讯科技(深圳)有限公司 | 进行人物聚类的方法、装置、服务器和存储介质 |
CN111198963A (zh) * | 2019-12-11 | 2020-05-26 | 智慧眼科技股份有限公司 | 基于平均特征的目标检索方法、装置及其相关设备 |
CN113221596A (zh) * | 2020-01-21 | 2021-08-06 | 上海依图信息技术有限公司 | 人像实时聚类推送方法、装置、电子设备及存储介质 |
CN113361300A (zh) * | 2020-03-04 | 2021-09-07 | 阿里巴巴集团控股有限公司 | 标识信息识别方法、装置、设备和存储介质 |
CN111310743B (zh) * | 2020-05-11 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 人脸识别方法、装置、电子设备及可读存储介质 |
CN111710424A (zh) * | 2020-06-19 | 2020-09-25 | 浙江新芮信息科技有限公司 | 餐饮人员健康监测方法、设备和计算机可读存储介质 |
CN111931149B (zh) * | 2020-08-10 | 2024-07-23 | 深圳世间乐见科技有限公司 | 一种人脸认证方法、装置、计算机设备和存储介质 |
CN112215270B (zh) * | 2020-09-27 | 2022-12-20 | 苏州浪潮智能科技有限公司 | 一种模型的相似度对比方法、系统、设备以及介质 |
CN112613488B (zh) * | 2021-01-07 | 2024-04-05 | 上海明略人工智能(集团)有限公司 | 人脸识别方法及装置、存储介质、电子设备 |
CN112528972B (zh) * | 2021-02-08 | 2021-06-04 | 常州微亿智造科技有限公司 | 用于飞拍拍摄点的定位方法和装置 |
CN113065475B (zh) * | 2021-04-08 | 2023-11-07 | 上海晓材科技有限公司 | 一种cad图例快速精准识别方法 |
CN113192028B (zh) * | 2021-04-29 | 2022-05-31 | 合肥的卢深视科技有限公司 | 人脸图像的质量评价方法、装置、电子设备及存储介质 |
CN114010202B (zh) * | 2021-09-18 | 2024-05-14 | 苏州无双医疗设备有限公司 | 植入式心律管理设备心律分类及区分室速和室上速的方法 |
CN114347030A (zh) * | 2022-01-13 | 2022-04-15 | 中通服创立信息科技有限责任公司 | 机器人视觉跟随方法及视觉跟随机器人 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1684058A (zh) * | 2004-04-16 | 2005-10-19 | 索尼株式会社 | 处理器 |
WO2006085277A2 (en) * | 2005-02-14 | 2006-08-17 | Koninklijke Philips Electronics N.V. | An electronic parallel processing circuit |
CN102360281A (zh) * | 2011-10-31 | 2012-02-22 | 中国人民解放军国防科学技术大学 | 用于微处理器的多功能定点mac运算装置 |
CN104111816A (zh) * | 2014-06-25 | 2014-10-22 | 中国人民解放军国防科学技术大学 | Gpdsp中多功能simd结构浮点融合乘加运算装置 |
CN104573652A (zh) * | 2015-01-04 | 2015-04-29 | 华为技术有限公司 | 确定人脸图像中人脸的身份标识的方法、装置和终端 |
CN106934353A (zh) * | 2017-02-28 | 2017-07-07 | 北京奥开信息科技有限公司 | 一种用于养老机器人的人脸识别及主动跟踪的方法 |
CN107704809A (zh) * | 2017-09-11 | 2018-02-16 | 安徽慧视金瞳科技有限公司 | 基于干扰特征向量数据集的1比n人脸特征向量比对方法 |
CN107944020A (zh) * | 2017-12-11 | 2018-04-20 | 深圳云天励飞技术有限公司 | 人脸图像查找方法及装置、计算机装置和存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104700094B (zh) * | 2015-03-31 | 2016-10-26 | 江苏久祥汽车电器集团有限公司 | 一种用于智能机器人的人脸识别方法及系统 |
CN107273864B (zh) * | 2017-06-22 | 2020-05-22 | 星际(重庆)智能装备技术研究院有限公司 | 一种基于深度学习的人脸检测方法 |
-
2018
- 2018-07-18 CN CN201810788116.4A patent/CN108985232A/zh active Pending
- 2018-09-05 WO PCT/CN2018/104049 patent/WO2020015076A1/zh active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1684058A (zh) * | 2004-04-16 | 2005-10-19 | 索尼株式会社 | 处理器 |
WO2006085277A2 (en) * | 2005-02-14 | 2006-08-17 | Koninklijke Philips Electronics N.V. | An electronic parallel processing circuit |
CN102360281A (zh) * | 2011-10-31 | 2012-02-22 | 中国人民解放军国防科学技术大学 | 用于微处理器的多功能定点mac运算装置 |
CN104111816A (zh) * | 2014-06-25 | 2014-10-22 | 中国人民解放军国防科学技术大学 | Gpdsp中多功能simd结构浮点融合乘加运算装置 |
CN104573652A (zh) * | 2015-01-04 | 2015-04-29 | 华为技术有限公司 | 确定人脸图像中人脸的身份标识的方法、装置和终端 |
CN106934353A (zh) * | 2017-02-28 | 2017-07-07 | 北京奥开信息科技有限公司 | 一种用于养老机器人的人脸识别及主动跟踪的方法 |
CN107704809A (zh) * | 2017-09-11 | 2018-02-16 | 安徽慧视金瞳科技有限公司 | 基于干扰特征向量数据集的1比n人脸特征向量比对方法 |
CN107944020A (zh) * | 2017-12-11 | 2018-04-20 | 深圳云天励飞技术有限公司 | 人脸图像查找方法及装置、计算机装置和存储介质 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339990A (zh) * | 2020-03-13 | 2020-06-26 | 乐鑫信息科技(上海)股份有限公司 | 一种基于人脸特征动态更新的人脸识别系统和方法 |
CN111339990B (zh) * | 2020-03-13 | 2023-03-24 | 乐鑫信息科技(上海)股份有限公司 | 一种基于人脸特征动态更新的人脸识别系统和方法 |
CN112149517A (zh) * | 2020-08-31 | 2020-12-29 | 三盟科技股份有限公司 | 一种人脸考勤方法、系统、计算机设备及存储介质 |
CN112464808A (zh) * | 2020-11-26 | 2021-03-09 | 成都睿码科技有限责任公司 | 一种基于计算机视觉的跳绳姿态及个数识别方法 |
CN112464808B (zh) * | 2020-11-26 | 2022-12-16 | 成都睿码科技有限责任公司 | 一种基于计算机视觉的跳绳姿态及个数识别方法 |
CN113743176A (zh) * | 2021-01-29 | 2021-12-03 | 北京沃东天骏信息技术有限公司 | 一种图像识别方法、设备和计算机可读存储介质 |
CN115035556A (zh) * | 2021-03-03 | 2022-09-09 | 北京迈格威科技有限公司 | 人脸检索方法、装置、电子设备及存储介质 |
CN113361366A (zh) * | 2021-05-27 | 2021-09-07 | 北京百度网讯科技有限公司 | 人脸标注方法、装置、电子设备和存储介质 |
CN114429663A (zh) * | 2022-01-28 | 2022-05-03 | 北京百度网讯科技有限公司 | 人脸底库的更新方法、人脸识别方法、装置及系统 |
CN114429663B (zh) * | 2022-01-28 | 2023-10-20 | 北京百度网讯科技有限公司 | 人脸底库的更新方法、人脸识别方法、装置及系统 |
WO2023240991A1 (zh) * | 2022-06-14 | 2023-12-21 | 青岛云天励飞科技有限公司 | 聚类连接图的构建方法、装置、设备及可读存储介质 |
CN115599791A (zh) * | 2022-11-15 | 2023-01-13 | 以萨技术股份有限公司(Cn) | 一种Milvus数据库参数确定方法、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108985232A (zh) | 2018-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020015076A1 (zh) | 人脸图像比对方法、装置、计算机设备及存储介质 | |
WO2020015075A1 (zh) | 人脸图像比对方法、装置、计算机设备及存储介质 | |
WO2021004112A1 (zh) | 异常人脸检测方法、异常识别方法、装置、设备及介质 | |
WO2021120752A1 (zh) | 域自适应模型训练、图像检测方法、装置、设备及介质 | |
Yuan et al. | A convolutional neural network based on TensorFlow for face recognition | |
WO2021218060A1 (zh) | 基于深度学习的人脸识别方法及装置 | |
Ren et al. | Face alignment at 3000 fps via regressing local binary features | |
WO2020024400A1 (zh) | 课堂监控方法、装置、计算机设备及存储介质 | |
CN109543547B (zh) | 人脸图像识别方法、装置、设备及存储介质 | |
WO2019119505A1 (zh) | 人脸识别的方法和装置、计算机装置及存储介质 | |
WO2021003938A1 (zh) | 图像分类方法、装置、计算机设备和存储介质 | |
WO2017088432A1 (zh) | 图像识别方法和装置 | |
WO2018054283A1 (zh) | 人脸模型的训练方法和装置、人脸认证方法和装置 | |
Deng et al. | M3 csr: Multi-view, multi-scale and multi-component cascade shape regression | |
Choi et al. | Incremental face recognition for large-scale social network services | |
US9530052B1 (en) | System and method for sensor adaptation in iris biometrics | |
Ilonen et al. | Image feature localization by multiple hypothesis testing of Gabor features | |
SudhaNarang et al. | Comparison of face recognition algorithms using Opencv for attendance system | |
Therar et al. | Multibiometric system for iris recognition based convolutional neural network and transfer learning | |
CN111832581A (zh) | 肺部特征识别方法、装置、计算机设备及存储介质 | |
Chen et al. | Low-rank latent pattern approximation with applications to robust image classification | |
Lai et al. | Visual speaker identification and authentication by joint spatiotemporal sparse coding and hierarchical pooling | |
CN110175500B (zh) | 指静脉比对方法、装置、计算机设备及存储介质 | |
Su et al. | Classifiability-based discriminatory projection pursuit | |
CN110929724A (zh) | 字符识别方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18926639 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18926639 Country of ref document: EP Kind code of ref document: A1 |