DE202023107335U1 - Facial identity verification system using convolutional neural networks - Google Patents
Facial identity verification system using convolutional neural networks Download PDFInfo
- Publication number
- DE202023107335U1 DE202023107335U1 DE202023107335.2U DE202023107335U DE202023107335U1 DE 202023107335 U1 DE202023107335 U1 DE 202023107335U1 DE 202023107335 U DE202023107335 U DE 202023107335U DE 202023107335 U1 DE202023107335 U1 DE 202023107335U1
- Authority
- DE
- Germany
- Prior art keywords
- facial
- features
- similarity
- control unit
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001815 facial effect Effects 0.000 title claims abstract description 94
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 50
- 238000012795 verification Methods 0.000 title claims abstract description 33
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000007781 pre-processing Methods 0.000 claims abstract description 9
- 238000004891 communication Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 3
- QVFWZNCVPCJQOP-UHFFFAOYSA-N chloralodol Chemical compound CC(O)(C)CC(C)OC(O)C(Cl)(Cl)Cl QVFWZNCVPCJQOP-UHFFFAOYSA-N 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 10
- 230000008569 process Effects 0.000 abstract description 3
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000000344 soap Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000005641 tunneling Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Collating Specific Patterns (AREA)
Abstract
Ein Gesichtsidentitätsverifizierungssystem (100), das Faltungs-Neuronale Netzwerke (CNNs) verwendet, wobei das System (100) Folgendes umfasst:eine Kamera (102) zum Erfassen entweder eines Gesichtsbilds oder eines Videostreams eines Benutzers;eine Steuereinheit (104), die mit der Kamera (102) verbunden ist, um die aufgenommenen Bilder zu verarbeiten, um die Gesichtsmerkmale des Benutzers zu identifizieren, wobei die Steuereinheit (104) Folgendes umfasst:eine Vorverarbeitungseinheit (106) zum Verarbeiten des erfassten Gesichtsbilds, um das Gesichtsbild oder den Videostream zu normalisieren und zu verbessern;eine Merkmalsextraktionseinheit (108), die mit der Vorverarbeitungseinheit (106) verbunden ist, um den Gesichtsbereich aus dem normalisierten Bild zu extrahieren, indem ein Faltungs-Neuronales Netzwerk (CNNs) verwendet wird, um Gesichtsmerkmale in einem hochdimensionalen Merkmalsraum darzustellen und Ähnlichkeiten zu identifizieren die extrahierten Merkmale und ein in einer Datenbank gespeichertes Bild; undeine Klassifizierungseinheit (110), die mit der Merkmalsextraktionseinheit (108) verbunden ist, um die extrahierten Merkmale auf der Grundlage der Ähnlichkeit der extrahierten Merkmale in mehrere Klassen zu klassifizieren, um die Identität des Benutzers zu identifizieren.A facial identity verification system (100) using convolutional neural networks (CNNs), the system (100) comprising:a camera (102) for capturing either a facial image or a video stream of a user;a controller (104) associated with the Camera (102) is connected to process the captured images to identify the facial features of the user, the control unit (104) comprising:a pre-processing unit (106) for processing the captured facial image to normalize the facial image or the video stream and to improve;a feature extraction unit (108) connected to the pre-processing unit (106) for extracting the facial region from the normalized image by using convolutional neural networks (CNNs) to represent facial features in a high-dimensional feature space and Identify similarities between the extracted features and an image stored in a database; anda classification unit (110) connected to the feature extraction unit (108) for classifying the extracted features into multiple classes based on the similarity of the extracted features to identify the identity of the user.
Description
TECHNISCHEN BEREICHTECHNICAL AREA
Die vorliegende Erfindung bezieht sich auf das Gebiet biometrischer Authentifizierungssysteme. Insbesondere betrifft die Erfindung ein System zur Überprüfung der Gesichtsidentität, das Faltungs-Neuronale Netze (CNNs) zur genauen und effizienten Erkennung von Personen anhand ihrer Gesichtsmerkmale verwendet.The present invention relates to the field of biometric authentication systems. More particularly, the invention relates to a facial identity verification system that uses convolutional neural networks (CNNs) to accurately and efficiently recognize people based on their facial features.
HINTERGRUNDKUNSTBACKGROUND ART
Die Gesichtserkennungstechnologie hat in den letzten Jahren erhebliche Fortschritte gemacht und die Art und Weise der Identitätsprüfung revolutioniert. Diese Technologie nutzt biometrische Daten aus dem Gesicht einer Person, um deren Identität eindeutig zu identifizieren und zu überprüfen. Mit dem Aufkommen künstlicher Intelligenz und maschineller Lerntechniken sind Gesichtserkennungssysteme genauer und effizienter geworden und in verschiedenen Branchen und Anwendungen weit verbreitet.Facial recognition technology has made significant advances in recent years, revolutionizing the way identity is verified. This technology uses biometric data from a person's face to uniquely identify and verify their identity. With the advent of artificial intelligence and machine learning techniques, facial recognition systems have become more accurate and efficient and have been widely used in various industries and applications.
Die traditionellen Systeme zur Identitätsüberprüfung wie Passwörter, PINs und ID-Karten weisen inhärente Einschränkungen und Schwachstellen auf, die sie anfällig für Sicherheitsverletzungen und Identitätsbetrug machen. Im Gegensatz dazu bietet die Überprüfung der Gesichtsidentität einen sichereren und benutzerfreundlicheren Ansatz, indem sie die einzigartigen Gesichtsmerkmale von Personen nutzt.The traditional identity verification systems such as passwords, PINs and ID cards have inherent limitations and vulnerabilities that make them vulnerable to security breaches and identity fraud. In contrast, facial identity verification offers a safer and more user-friendly approach by leveraging people's unique facial characteristics.
Das Aufkommen von Convolutional Neural Networks (CNNs) war ein Durchbruch auf dem Gebiet der künstlichen Intelligenz, insbesondere bei Computer-Vision-Aufgaben. CNNs sind eine Klasse von Deep-Learning-Techniken zur Erkennung von Mustern und Merkmalen in Bildern. Sie haben bei Bilderkennungsaufgaben bemerkenswerte Fähigkeiten bewiesen, wodurch sie sich ideal für die Überprüfung der Gesichtsidentität eignen.The emergence of convolutional neural networks (CNNs) was a breakthrough in the field of artificial intelligence, particularly in computer vision tasks. CNNs are a class of deep learning techniques for recognizing patterns and features in images. They have demonstrated remarkable abilities in image recognition tasks, making them ideal for facial identity verification.
Das auf Faltungs-Neuronalen Netzen basierende System zur Überprüfung der Gesichtsidentität zielt darauf ab, die Mängel herkömmlicher Überprüfungstechniken zu beheben und eine robuste, genaue und zuverlässige Lösung für die Identitätsüberprüfung bereitzustellen. Diese Technologie bietet eine Vielzahl von Anwendungen in verschiedenen Bereichen, darunter Banken, Gesundheitswesen, Strafverfolgung, Grenzkontrolle, Zugangskontrolle und Sicherheit mobiler Geräte.The convolutional neural network-based facial identity verification system aims to address the shortcomings of traditional verification techniques and provide a robust, accurate and reliable solution for identity verification. This technology has a variety of applications in various areas including banking, healthcare, law enforcement, border control, access control and mobile device security.
Eine der entscheidenden Herausforderungen bei Gesichtserkennungssystemen besteht darin, eine hohe Genauigkeit und Robustheit gegenüber Schwankungen der Lichtverhältnisse, Gesichtsausdrücke und Posenwinkel zu erreichen. Die herkömmlichen Ansätze, die auf handgefertigten Funktionen basieren, hatten oft Schwierigkeiten, sich effektiv an solche Variationen anzupassen. CNNs verfügen jedoch über die Fähigkeit, automatisch hierarchische Merkmale aus Gesichtsbildern zu lernen und zu extrahieren, was sie robuster macht und in der Lage ist, mit unterschiedlichen Gesichtsaussehen umzugehen.One of the key challenges in facial recognition systems is to achieve high accuracy and robustness to variations in lighting conditions, facial expressions and pose angles. The traditional approaches based on hand-crafted features often struggled to effectively adapt to such variations. However, CNNs have the ability to automatically learn and extract hierarchical features from facial images, making them more robust and able to deal with different facial appearances.
Das vorgeschlagene System zur Überprüfung der Gesichtsidentität umfasst mehrere Stufen, einschließlich Gesichtserkennung, Merkmalsextraktion und Identitätsabgleich. In der Gesichtserkennungsphase lokalisiert und extrahiert das System Gesichter aus einem Eingabebild oder Videostream. Anschließend nutzt die Phase der Merkmalsextraktion die Leistungsfähigkeit von CNNs, um die Gesichtsmerkmale zu lernen und in einem hochdimensionalen Merkmalsraum darzustellen.The proposed facial identity verification system includes multiple stages including face recognition, feature extraction and identity matching. In the face detection phase, the system locates and extracts faces from an input image or video stream. Then, the feature extraction phase leverages the power of CNNs to learn the facial features and represent them in a high-dimensional feature space.
Während der Trainingsphase wird das CNN-Modell einem riesigen Datensatz gekennzeichneter Gesichtsbilder ausgesetzt, wodurch es Unterscheidungsmerkmale zur Identitätsüberprüfung lernen kann. Das CNN lernt, die Gesichtsbilder in einem kompakten Merkmalsraum abzubilden, in dem ähnliche Gesichter derselben Person nahe beieinander liegen, während unterschiedliche Gesichter verschiedener Personen weit voneinander entfernt sind.During the training phase, the CNN model is exposed to a huge dataset of labeled facial images, allowing it to learn distinguishing features for identity verification. The CNN learns to map the face images into a compact feature space where similar faces of the same person are close to each other while different faces of different people are far apart.
In der Phase des Identitätsabgleichs werden die extrahierten Gesichtsmerkmale mit den in der Datenbank registrierten Gesichtsvorlagen verglichen. Das System berechnet einen Ähnlichkeitswert oder eine Distanzmetrik zwischen den Eingabemerkmalen und den gespeicherten Vorlagen, um die Identitätsübereinstimmung zu bestimmen. Wenn der Ähnlichkeitswert einen vordefinierten Schwellenwert überschreitet, überprüft das System die Identität der Person und gewährt Zugriff oder Authentifizierung basierend auf den Anforderungen der Anwendung.In the identity matching phase, the extracted facial features are compared with the facial templates registered in the database. The system calculates a similarity score or distance metric between the input features and the stored templates to determine identity match. If the similarity score exceeds a predefined threshold, the system verifies the person's identity and grants access or authentication based on the application's requirements.
Die Wirksamkeit des Systems zur Überprüfung der Gesichtsidentität liegt in seiner Fähigkeit, reale Herausforderungen wie Verdeckungen, Variationen im Gesichtsausdruck, Alterung und Veränderungen des Aussehens im Laufe der Zeit zu bewältigen. Darüber hinaus kann das System mit zusätzlichen Trainingsdaten aktualisiert und verbessert werden, wodurch seine Genauigkeit und Anpassungsfähigkeit weiter verbessert werden.The effectiveness of the facial identity verification system lies in its ability to address real-world challenges such as occlusions, variations in facial expression, aging, and changes in appearance over time. Additionally, the system can be updated and improved with additional training data, further improving its accuracy and adaptability.
Alle hierin enthaltenen Veröffentlichungen werden durch Bezugnahme in demselben Umfang einbezogen, als ob jede einzelne Veröffentlichung oder Patentanmeldung ausdrücklich und einzeln als Bezugnahme angegeben wäre. Wenn eine Definition oder Verwendung eines Begriffs in einer einbezogenen Referenz inkonsistent ist oder im Widerspruch zu der hierin bereitgestellten Definition dieses Begriffs steht, gilt die hierin bereitgestellte Definition dieses Begriffs und die Definition dieses Begriffs in der Referenz findet keine Anwendung.All publications contained herein are incorporated by reference to the same extent as if each individual publication or patent application were expressly and individually incorporated by reference. When a definition or use of a term in an included reference is inconsistent or contradictory to the definition of such term provided herein, the definition of such term provided herein shall apply and the definition of such term in the reference shall not apply.
Die durch die vorliegende Erfindung offenbarten technischen Fortschritte überwinden die Einschränkungen und Nachteile bestehender und herkömmlicher Systeme.The technical advances disclosed by the present invention overcome the limitations and disadvantages of existing and conventional systems.
ZUSAMMENFASSUNGSUMMARY
Das Hauptziel der vorliegenden Erfindung besteht darin, die Nachteile des Standes der Technik zu überwinden.The main aim of the present invention is to overcome the disadvantages of the prior art.
Ein weiteres Ziel der vorliegenden Erfindung besteht darin, ein System zur Überprüfung der Gesichtsidentität bereitzustellen, das Faltungs-Neuronale Netze verwendet.Another object of the present invention is to provide a facial identity verification system using convolutional neural networks.
Ein weiteres Ziel der vorliegenden Erfindung besteht darin, eine hohe Genauigkeit und Robustheit gegenüber Schwankungen der Lichtverhältnisse, Gesichtsausdrücke und Posenwinkel zu erreichen.Another object of the present invention is to achieve high accuracy and robustness to variations in lighting conditions, facial expressions and pose angles.
Ein weiteres Ziel der vorliegenden Erfindung besteht darin, die Fähigkeit bereitzustellen, automatisch hierarchische Merkmale aus Gesichtsbildern zu lernen und zu extrahieren, um sie robuster zu machen und in der Lage zu sein, verschiedene Gesichtserscheinungen zu verarbeiten.Another object of the present invention is to provide the ability to automatically learn and extract hierarchical features from facial images to make them more robust and capable of processing various facial appearances.
Ein weiteres Ziel der vorliegenden Erfindung besteht darin, einen eleganten, zuverlässigen und präzisen Ansatz dafür bereitzustellen System zur Überprüfung der Gesichtsidentität mithilfe von Faltungs-Neuronalen Netzen.Another aim of the present invention is to provide an elegant, reliable and accurate approach to facial identity verification system using convolutional neural networks.
Ein weiteres Ziel der vorliegenden Erfindung besteht darin, ein Verfahren zur Verbesserung der Funktionalitäten bereitzustellen System zur Überprüfung der Gesichtsidentität mithilfe von Faltungs-Neuronalen Netzen.Another object of the present invention is to provide a method for improving the functionalities of a facial identity verification system using convolutional neural networks.
In einer Ausführungsform ein System zur Überprüfung der Gesichtsidentität unter Verwendung von Convolutional Neural Networks (CNNs), wobei das System Folgendes umfasst: eine Kamera zum Erfassen entweder eines Gesichtsbilds oder eines Videostreams eines Benutzers; eine mit der Kamera verbundene Steuereinheit zur Verarbeitung der erfassten Bilder, um die Gesichtsmerkmale des Benutzers zu identifizieren, wobei die Steuereinheit Folgendes umfasst: eine Vorverarbeitungseinheit zur Verarbeitung des erfassten Gesichtsbilds, um das Gesichtsbild oder den Videostream zu normalisieren und zu verbessern ; eine Merkmalsextraktionseinheit, die mit der Vorverarbeitungseinheit verbunden ist, um den Gesichtsbereich aus dem normalisierten Bild zu extrahieren, indem ein Faltungs-Neuronales Netzwerk (CNNs) verwendet wird, um Gesichtsmerkmale in einem hochdimensionalen Merkmalsraum darzustellen und Ähnlichkeiten der extrahierten Merkmale und eines Bildes zu identifizieren in einer Datenbank gespeichert; und eine mit der Merkmalsextraktionseinheit verbundene Klassifizierungseinheit zum Klassifizieren der extrahierten Merkmale in mehrere Klassen basierend auf der Ähnlichkeit der extrahierten Merkmale, um die Identität des Benutzers zu identifizieren.In one embodiment, a system for facial identity verification using convolutional neural networks (CNNs), the system comprising: a camera for capturing either a facial image or a video stream of a user; a control unit connected to the camera for processing the captured images to identify the facial features of the user, the control unit comprising: a pre-processing unit for processing the captured facial image to normalize and enhance the facial image or video stream; a feature extraction unit connected to the pre-processing unit to extract the facial region from the normalized image by using convolutional neural networks (CNNs) to represent facial features in a high-dimensional feature space and to identify similarities of the extracted features and an image in stored in a database; and a classification unit connected to the feature extraction unit for classifying the extracted features into multiple classes based on the similarity of the extracted features to identify the identity of the user.
Diese und andere Merkmale werden aus der folgenden detaillierten Beschreibung ihrer veranschaulichenden Ausführungsformen deutlich, die in Verbindung mit der beigefügten Zeichnung zu lesen ist. Während die Erfindung unter Bezugnahme auf die bevorzugte Ausführungsform beschrieben und gezeigt wurde, ist es offensichtlich, dass Variationen möglich sind, die in den Rahmen der vorliegenden Erfindung fallen würden.These and other features will become apparent from the following detailed description of their illustrative embodiments, which should be read in conjunction with the accompanying drawings. While the invention has been described and shown with reference to the preferred embodiment, it is apparent that variations are possible that would fall within the scope of the present invention.
KURZBESCHREIBUNG DER ZEICHNUNGBRIEF DESCRIPTION OF THE DRAWING
Die beigefügte Abbildung ist in diese Spezifikation integriert und bildet einen Teil davon, um das Verständnis der aktuellen Offenbarung zu erleichtern. Die Abbildung zeigt beispielhafte Umsetzungen der aktuellen Offenlegung und trägt zusammen mit der Beschreibung zur Verdeutlichung ihrer Grundgedanken bei.
-
1 zeigt ein Blockdiagramm eines Systems zur Überprüfung der Gesichtsidentität unter Verwendung von Convolutional Neural Networks (CNNs).
-
1 shows a block diagram of a facial identity verification system using convolutional neural networks (CNNs).
Es ist zu beachten, dass die Figur nicht maßstabsgetreu ist und Elemente mit ähnlicher Struktur und Funktion in der Figur zur Veranschaulichung im Allgemeinen mit gleichen Bezugszeichen versehen sind. Es ist zu beachten, dass die Figur nicht jeden Aspekt der beschriebenen Ausführungsform veranschaulicht und den Umfang der vorliegenden Offenbarung nicht einschränkt.It should be noted that the figure is not to scale and elements of similar structure and function in the figure are generally given the same reference numerals for purposes of illustration. It should be noted that the figure does not illustrate every aspect of the described embodiment and does not limit the scope of the present disclosure.
Weitere Aufgaben, Vorteile und neue Merkmale der Erfindung werden aus der folgenden detaillierten Beschreibung der vorliegenden Ausführungsform in Verbindung mit der beigefügten Zeichnung deutlich.Further objects, advantages and novel features of the invention will become apparent from the following detailed description of the present embodiment taken in conjunction with the accompanying drawings.
DETAILLIERTE BESCHREIBUNG DER ERFINDUNGDETAILED DESCRIPTION OF THE INVENTION
Die folgende detaillierte Beschreibung erfolgt unter Bezugnahme auf die Figur. Beispielhafte Ausführungsformen werden beschrieben, um die Offenbarung zu veranschaulichen, nicht um ihren Umfang einzuschränken, der durch die Ansprüche definiert ist. Der Durchschnittsfachmann wird in der folgenden Beschreibung eine Reihe äquivalenter Variationen erkennen.The following detailed description is made with reference to the figure. Example embodiments are described to illustrate the disclosure, not to limit its scope, which is defined by the claims. The person of ordinary skill in the art will understand the following Description recognize a number of equivalent variations.
Die in dieser Spezifikation beschriebenen Funktionseinheiten sind als Geräte gekennzeichnet. Ein Gerät kann in programmierbaren Hardwaregeräten wie Prozessoren, digitalen Signalprozessoren, Zentraleinheiten, feldprogrammierbaren Gate-Arrays, programmierbarer Array-Logik, programmierbaren Logikgeräten, Cloud-Verarbeitungssystemen oder dergleichen implementiert werden. Die Geräte können auch in Software zur Ausführung durch verschiedene Prozessortypen implementiert werden. Ein identifiziertes Gerät kann ausführbaren Code enthalten und beispielsweise einen oder mehrere physische oder logische Blöcke von Computeranweisungen umfassen, die beispielsweise als Objekt, Prozedur, Funktion oder anderes Konstrukt organisiert sein können. Dennoch muss die ausführbare Datei eines identifizierten Geräts nicht physisch zusammen angeordnet sein, sondern kann aus unterschiedlichen, an unterschiedlichen Orten gespeicherten Anweisungen bestehen, die, wenn sie logisch zusammengefügt werden, das Gerät bilden und den angegebenen Zweck des Geräts erfüllen.The functional units described in this specification are identified as devices. A device may be implemented in programmable hardware devices such as processors, digital signal processors, central processing units, field programmable gate arrays, programmable array logic, programmable logic devices, cloud processing systems, or the like. The devices can also be implemented in software for execution by different types of processors. An identified device may contain executable code and, for example, include one or more physical or logical blocks of computer instructions, which may be organized, for example, as an object, procedure, function, or other construct. However, the executable file of an identified device does not have to be physically located together, but may consist of different instructions stored in different locations, which, when logically assembled, form the device and fulfill the stated purpose of the device.
Tatsächlich könnte ein ausführbarer Code eines Geräts oder Moduls eine einzelne Anweisung oder mehrere Anweisungen sein und sogar über mehrere verschiedene Codesegmente, zwischen verschiedenen Anwendungen und über mehrere Speichergeräte verteilt sein. In ähnlicher Weise können Betriebsdaten hier innerhalb des Geräts identifiziert und dargestellt werden und können in jeder geeigneten Form verkörpert und in jeder geeigneten Art von Datenstruktur organisiert werden. Die Betriebsdaten können als einzelner Datensatz erfasst oder über verschiedene Standorte, einschließlich verschiedener Speichergeräte, verteilt werden und können zumindest teilweise als elektronische Signale in einem System oder Netzwerk vorliegen.In fact, a device or module's executable code could be a single instruction or multiple instructions, and even distributed across several different code segments, between different applications and across multiple storage devices. Similarly, operational data may be identified and represented herein within the device and may be embodied in any suitable form and organized into any suitable type of data structure. The operational data may be collected as a single data set or distributed across various locations, including various storage devices, and may exist, at least in part, as electronic signals in a system or network.
Verweise in dieser Spezifikation auf „eine ausgewählte Ausführungsform“, „eine Ausführungsform“ oder „eine Ausführungsform“ bedeuten, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder ein bestimmtes Merkmal, das in Verbindung mit der Ausführungsform beschrieben wird, in mindestens einer Ausführungsform des offenbarten Gegenstands enthalten ist. Daher beziehen sich die Ausdrücke „eine ausgewählte Ausführungsform“, „in einer Ausführungsform“ oder „in einer Ausführungsform“ an verschiedenen Stellen in dieser Spezifikation nicht unbedingt auf dieselbe Ausführungsform.References in this specification to “a selected embodiment,” “an embodiment,” or “an embodiment” mean that a particular feature, structure, or feature described in connection with the embodiment is disclosed in at least one embodiment of the Item is included. Therefore, the expressions “a selected embodiment,” “in one embodiment,” or “in one embodiment” used elsewhere in this specification do not necessarily refer to the same embodiment.
Darüber hinaus können die beschriebenen Merkmale, Strukturen oder Eigenschaften in einer oder mehreren Ausführungsformen auf jede geeignete Weise kombiniert werden. In der folgenden Beschreibung werden zahlreiche spezifische Details bereitgestellt, um ein umfassendes Verständnis der Ausführungsformen des offenbarten Gegenstands zu ermöglichen. Ein Fachmann auf dem betreffenden Gebiet wird jedoch erkennen, dass der offenbarte Gegenstand ohne eines oder mehrere der spezifischen Details oder mit anderen Methoden, Komponenten, Materialien usw. in die Praxis umgesetzt werden kann. In anderen Fällen können wohlbekannte Strukturen, Materialien, oder Vorgänge werden nicht im Detail gezeigt oder beschrieben, um Aspekte des offengelegten Gegenstands nicht zu verschleiern.Additionally, the features, structures, or properties described may be combined in any suitable manner in one or more embodiments. In the following description, numerous specific details are provided to provide a thorough understanding of embodiments of the disclosed subject matter. However, one skilled in the art will recognize that the disclosed subject matter may be practiced without one or more of the specific details or with other methods, components, materials, etc. In other cases, well-known structures, materials, or processes may not be shown or described in detail so as not to obscure aspects of the subject matter disclosed.
Gemäß den beispielhaften Ausführungsformen können die offenbarten Computerprogramme oder -module auf viele beispielhafte Arten ausgeführt werden, beispielsweise als Anwendung, die sich im Speicher eines Geräts befindet, oder als gehostete Anwendung, die auf einem Server ausgeführt wird und mit diesem kommuniziert Geräteanwendung oder Browser über eine Reihe von Standardprotokollen wie TCP/IP, HTTP, XML, SOAP, REST, JSON und andere ausreichende Protokolle. Die offenbarten Computerprogramme können in beispielhaften Programmiersprachen geschrieben sein, die aus dem Speicher des Geräts oder von einem gehosteten Server ausgeführt werden, wie etwa BASIC, COBOL, C, C++, Java, Pascal, oder Skriptsprachen wie JavaScript, Python, Ruby, PHP, Perl oder andere geeignete Programmiersprachen.According to exemplary embodiments, the disclosed computer programs or modules may be executed in many exemplary ways, for example, as an application residing in a device's memory or as a hosted application executing on and communicating with a server via a device application or browser Set of standard protocols such as TCP/IP, HTTP, XML, SOAP, REST, JSON and other sufficient protocols. The disclosed computer programs may be written in exemplary programming languages that are executed from the device's memory or from a hosted server, such as BASIC, COBOL, C, C++, Java, Pascal, or scripting languages such as JavaScript, Python, Ruby, PHP, Perl or other suitable programming languages.
Einige der offenbarten Ausführungsformen beinhalten oder beinhalten auf andere Weise die Datenübertragung über ein Netzwerk, beispielsweise die Übermittlung verschiedener Eingaben oder Dateien über das Netzwerk. Das Netzwerk kann beispielsweise eines oder mehrere der folgenden Elemente umfassen: Internet, Wide Area Networks (WANs), Local Area Networks (LANs), analoge oder digitale drahtgebundene und drahtlose Telefonnetzwerke z. B. ein PSTN, Integrated Services Digital Network (ISDN), ein Mobilfunknetz und Digital Subscriber Line (xDSL), Radio, Fernsehen, Kabel, Satellit und/oder andere Übertragungs- oder Tunnelmechanismen zur Datenübertragung. Das Netzwerk kann mehrere Netzwerke oder Teilnetzwerke umfassen, von denen jedes beispielsweise einen drahtgebundenen oder drahtlosen Datenweg umfassen kann. Das Netzwerk kann ein leitungsvermitteltes Sprachnetzwerk, ein paketvermitteltes Datennetzwerk oder jedes andere Netzwerk umfassen, das elektronische Kommunikation übertragen kann. Das Netzwerk kann beispielsweise Netzwerke umfassen, die auf dem Internetprotokoll (IP) oder dem asynchronen Übertragungsmodus (ATM) basieren, und kann Sprache beispielsweise mithilfe von VoIP, Voice-over-ATM oder anderen vergleichbaren Protokollen unterstützen, die für Sprachdatenkommunikation verwendet werden. In einer Implementierung umfasst das Netzwerk ein Mobilfunknetz, das so konfiguriert ist, dass es den Austausch von Text- oder SMS-Nachrichten ermöglicht.Some of the disclosed embodiments involve or otherwise involve data transmission over a network, such as the transmission of various inputs or files over the network. The network may include, for example, one or more of the following: Internet, Wide Area Networks (WANs), Local Area Networks (LANs), analog or digital wired and wireless telephone networks, e.g. B. a PSTN, Integrated Services Digital Network (ISDN), a cellular network and Digital Subscriber Line (xDSL), radio, television, cable, satellite and / or other transmission or tunneling mechanisms for data transmission. The network may include multiple networks or subnetworks, each of which may include, for example, a wired or wireless data path. The network may include a circuit-switched voice network, a packet-switched data network, or any other network capable of transmitting electronic communications. The network may include, for example, networks based on Internet Protocol (IP) or Asynchronous Transfer Mode (ATM), and may support voice using, for example, VoIP, Voice over ATM or other comparable protocols suitable for voice data communications tion can be used. In one implementation, the network includes a cellular network configured to enable the exchange of text or SMS messages.
Beispiele für das Netzwerk sind unter anderem ein Personal Area Network (PAN), ein Storage Area Network (SAN), ein Home Area Network (HAN), ein Campus Area Network (CAN) und ein Local Area Network (LAN), ein Wide Area Network (WAN), ein Metropolitan Area Network (MAN) , ein Virtual Private Network (VPN), ein Enterprise Private Network (EPN), Internet, ein Global Area Network (GAN) usw.Examples of the network include a Personal Area Network (PAN), a Storage Area Network (SAN), a Home Area Network (HAN), a Campus Area Network (CAN) and a Local Area Network (LAN), a Wide Area Network (WAN), a Metropolitan Area Network (MAN), a Virtual Private Network (VPN), an Enterprise Private Network (EPN), Internet, a Global Area Network (GAN), etc.
In dieser Beschreibung wird das Wort „dürfen“ im permissiven Sinne verwendet (d. h. in der Bedeutung „das Potenzial dazu haben“) und nicht im zwingenden Sinne (d. h. in der Bedeutung „müssen“). Darüber hinaus bedeuten die Wörter „ein“ oder „ein“ „mindestens eine“ und das Wort „Mehrzahl“ bedeutet „eine oder mehrere“, sofern nicht anders angegeben. Darüber hinaus dienen die hierin verwendete Terminologie und Ausdrucksweise ausschließlich beschreibenden Zwecken und sollten nicht verwendet werden als einschränkend ausgelegt werden. Formulierungen wie „einschließlich“, „umfassen“, „haben“, „enthalten“ oder „beteiligen“ und Variationen davon sollen weit gefasst sein und die nachfolgend aufgeführten Themen, Äquivalente, und zusätzliche Themen, die nicht aufgeführt sind, und sollen andere Additive, Komponenten, Ganzzahlen oder Schritte nicht ausschließen. Ebenso gilt der Begriff „umfassend“ als Synonym für die Begriffe „einschließlich“ oder „enthaltend“ für anwendbare rechtliche Zwecke. Jede Diskussion von Dokumenten, Akten, Materialien, Geräten, Artikeln und dergleichen werden in der Spezifikation ausschließlich zu dem Zweck aufgenommen, einen Kontext für die vorliegende Erfindung bereitzustellen. Es wird nicht angedeutet oder dargestellt, dass einige oder alle dieser Angelegenheiten Teil der Basis des Standes der Technik sind oder es handelte sich um allgemeines Fachwissen auf dem für die vorliegende Erfindung relevanten Gebiet.In this description, the word “may” is used in the permissive sense (i.e., meaning “have the potential to do so”) rather than in the permissive sense (i.e., meaning “must”). In addition, the words “a” or “an” mean “at least one” and the word “plural” means “one or more,” unless otherwise specified. Furthermore, the terminology and language used herein are for descriptive purposes only and should not be construed as limiting. Phrases such as "including", "comprise", "have", "include" or "participate" and variations thereof are intended to be broad and include the following subjects, equivalents, and additional subjects not listed, and other additives, Do not exclude components, integers or steps. Likewise, the term “comprising” is considered synonymous with the terms “including” or “including” for applicable legal purposes. Any discussion of documents, files, materials, devices, articles, and the like are included in the specification solely for the purpose of providing context for the present invention. It is not implied or represented that any or all of these matters form part of the basis of the prior art or are common knowledge in the field relevant to the present invention.
Wenn in dieser Offenbarung einer Zusammensetzung oder einem Element oder einer Gruppe von Elementen die Übergangsformulierung „umfassend“ vorangestellt wird, wird davon ausgegangen, dass wir dieselbe Zusammensetzung, dasselbe Element oder dieselbe Gruppe von Elementen auch mit der Übergangsformulierung „bestehend aus“ in Betracht ziehen, „bestehend“, „ausgewählt aus der Gruppe bestehend aus“, „einschließlich“ oder „ist“ vor der Rezitation der Zusammensetzung, des Elements oder der Gruppe von Elementen und umgekehrt.In this disclosure, when a composition or an element or group of elements is preceded by the transitional phrase “comprising,” it is understood that we are also considering the same composition, element, or group of elements with the transitional phrase “consisting of,” “consisting”, “selected from the group consisting of”, “including” or “is” before the recitation of the composition, element or group of elements and vice versa.
Die vorliegende Erfindung wird im Folgenden anhand verschiedener Ausführungsformen unter Bezugnahme auf die beigefügte Zeichnung beschrieben, wobei in der beigefügten Zeichnung verwendete Bezugszeichen in der gesamten Beschreibung den gleichen Elementen entsprechen. Diese Erfindung kann jedoch in vielen verschiedenen Formen ausgeführt werden und sollte nicht als auf die hier dargelegte Ausführungsform beschränkt ausgelegt werden. Vielmehr wird die Ausführungsform so bereitgestellt, dass diese Offenbarung gründlich und vollständig ist und dem Fachmann den Umfang der Erfindung vollständig vermittelt. In der folgenden detaillierten Beschreibung werden numerische Werte und Bereiche für verschiedene Aspekte der beschriebenen Implementierungen bereitgestellt. Diese Werte und Bereiche sind nur als Beispiele zu betrachten und sollen den Umfang der Ansprüche nicht einschränken. Darüber hinaus werden mehrere Materialien als geeignet für verschiedene Aspekte der Umsetzung identifiziert.The present invention will be described below using various embodiments with reference to the accompanying drawing, wherein reference numerals used in the accompanying drawing correspond to the same elements throughout the description. However, this invention may be embodied in many different forms and should not be construed as limited to the embodiment set forth herein. Rather, the embodiment is provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. In the following detailed description, numerical values and ranges are provided for various aspects of the implementations described. These values and ranges are to be considered as examples only and are not intended to limit the scope of the claims. In addition, several materials are identified as suitable for different aspects of implementation.
In einer Ausführungsform werden die CNNs mithilfe eines umfangreichen Datensatzes gekennzeichneter Gesichtsbilder trainiert, um Unterscheidungsmerkmale wie Augen, Nase, Mund und Gesichtskonturen zu lernen.In one embodiment, the CNNs are trained using a large dataset of labeled facial images to learn distinguishing features such as eyes, nose, mouth, and facial contours.
In einer Ausführungsform ist eine Datenbank (112) mit der Kamera (102) verbunden, um mindestens eine registrierte Gesichtsvorlage des Benutzers zu speichern, die jeweils eindeutige Identitäten darstellt und entsprechenden Personen zugeordnet ist.In one embodiment, a database (112) is connected to the camera (102) to maintain at least one registered facial template of the user to store data that represents unique identities and is assigned to corresponding people.
In einer Ausführungsform führt die Steuereinheit (104) eine Ähnlichkeitsbewertungsberechnung durch, um den Grad der Ähnlichkeit zwischen extrahierten Gesichtsmerkmalen und der in der Datenbank (112) gespeicherten Vorlage zu bestimmen.In one embodiment, the controller (104) performs a similarity score calculation to determine the degree of similarity between extracted facial features and the template stored in the database (112).
In einer Ausführungsform überprüft die Steuereinheit (104) die Identität einer Person auf der Grundlage des Ähnlichkeitswerts.In one embodiment, the control unit (104) checks the identity of a person based on the similarity value.
In einer Ausführungsform umfasst die Vielzahl von Klassen der Klassifizierungseinheit (110) eine erste Klasse zum Angeben der Bilder mit der höchsten Ähnlichkeit und eine zweite Klasse zum Angeben der Bilder mit der geringsten Ähnlichkeit basierend auf den Ähnlichkeitswerten.In one embodiment, the plurality of classes of the classification unit (110) includes a first class for indicating the images with the highest similarity and a second class for indicating the images with the lowest similarity based on the similarity values.
In einer Ausführungsform ist ein Display (114) über ein Kommunikationsmedium (116) mit der Steuereinheit (104) verbunden, um bei erfolgreicher Verifizierung des Gesichtsbildes eine erste Meldung und bei erfolgloser Verifizierung des Gesichtsbildes eine zweite Meldung anzuzeigen.In one embodiment, a display (114) is connected to the control unit (104) via a communication medium (116) in order to display a first message if the facial image is successfully verified and a second message if the facial image is unsuccessfully verified.
In einer Ausführungsform ist das Kommunikationsmedium (116) entweder ein drahtgebundenes oder ein drahtloses Medium, das die Kommunikation zwischen der Steuereinheit (104) und dem Display (114) herstellt, wobei das Kommunikationsmedium (116) aus Bluetooth, ZigBee oder Cloud ausgewählt ist Server, WLAN und LoRa.In one embodiment, the communication medium (116) is either a wired or a wireless medium that establishes communication between the control unit (104) and the display (114), the communication medium (116) being selected from Bluetooth, ZigBee or cloud server, WiFi and LoRa.
In einer Ausführungsform entsperrt die Steuereinheit (104) eine sichere Plattform nach erfolgreicher Überprüfung der Gesichtsidentität des Benutzers.In one embodiment, the controller (104) unlocks a secure platform upon successful verification of the user's facial identity.
In einer Ausführungsform besteht die Steuereinheit entweder aus einem Mikrocontroller oder einem Raspberry Pie zum Erzeugen von Steuersignalen, um bei erfolgreicher Verifizierung eine erste Nachricht anzuzeigen, wenn die erste Klasse identifiziert wird. Die Steuereinheit generiert bei erfolgloser Überprüfung eine zweite Nachricht, wenn die zweite Klasse identifiziert wird. Die erste auf dem Display angezeigte Meldung lautet „Verifizierung erfolgreich“ und die zweite auf dem Display angezeigte Meldung lautet „Verifizierung fehlgeschlagen“.In one embodiment, the control unit consists of either a microcontroller or a Raspberry Pie for generating control signals to display a first message upon successful verification when the first class is identified. If the check is unsuccessful, the control unit generates a second message if the second class is identified. The first message shown on the display is “Verification Successful” and the second message shown on the display is “Verification Failed”.
In einer Ausführungsform handelt es sich bei der Anzeige vorzugsweise um eine 16 x 8 LCD-Anzeigeeinheit, die in unmittelbarer Nähe der Kamera montiert ist.In one embodiment, the display is preferably a 16 x 8 LCD display unit mounted in close proximity to the camera.
Das System zur Überprüfung der Gesichtsidentität mithilfe von Convolutional Neural Networks (CNNs) umfasst ein Gesichtserkennungsmodul zum Lokalisieren und Extrahieren von Gesichtsregionen aus Eingabebildern oder Videostreams sowie ein Merkmalsextraktionsmodul, das CNNs zum Erlernen und Darstellen von Gesichtsmerkmalen in einem hochdimensionalen Merkmalsraum verwendet, eine Datenbank registrierter Gesichtsvorlagen, die jeweils eindeutige Identitäten darstellen und mit entsprechenden Personen verknüpft sind, ein Modul zur Berechnung der Ähnlichkeitsbewertung, um den Grad der Ähnlichkeit zwischen extrahierten Gesichtsmerkmalen und gespeicherten Vorlagen zu bestimmen , und ein Identitätsabgleichsmodul, um die Identität des Individuums anhand der Identität zu überprüfen darauf, dass der Ähnlichkeitswert einen vordefinierten Schwellenwert überschreitet.The facial identity verification system using Convolutional Neural Networks (CNNs) includes a face recognition module for locating and extracting facial regions from input images or video streams, as well as a feature extraction module that uses CNNs to learn and represent facial features in a high-dimensional feature space, a database of registered facial templates, each representing unique identities and linked to corresponding people, a similarity score calculation module to determine the degree of similarity between extracted facial features and stored templates, and an identity matching module to verify the individual's identity based on the identity on that the similarity value exceeds a predefined threshold value.
Gemäß einem Aspekt werden die CNNs im Merkmalsextraktionsmodul mithilfe eines riesigen Datensatzes markierter Gesichtsbilder trainiert, um Unterscheidungsmerkmale zu lernen. Das Facial Identity Verification System umfasst außerdem einen Aktualisierungsmechanismus, um das CNN-Modell regelmäßig mit zusätzlichen Trainingsdaten zu aktualisieren und zu verbessern und so seine Genauigkeit und Anpassungsfähigkeit zu verbessern.According to one aspect, the CNNs in the feature extraction module are trained using a huge dataset of labeled facial images to learn discriminative features. The Facial Identity Verification System also includes an update mechanism to regularly update and improve the CNN model with additional training data to improve its accuracy and adaptability.
Die Gesichtserkennung hat sich zu einer leistungsstarken biometrischen Technologie zur Überprüfung und Identifizierung von Personen anhand von Gesichtsmerkmalen entwickelt. Das hier vorgestellte System zur Überprüfung der Gesichtsidentität nutzt Convolutional Neural Networks (CNNs), eine Art Deep-Learning-Technik, um eine hochpräzise und effiziente Gesichtserkennung zu erreichen. Das System erfasst und analysiert Gesichtsbilder, vergleicht sie mit einer vorhandenen Datenbank und überprüft die Identität der Person.Facial recognition has emerged as a powerful biometric technology for verifying and identifying people based on facial features. The facial identity verification system presented here uses Convolutional Neural Networks (CNNs), a type of deep learning technique, to achieve highly accurate and efficient facial recognition. The system captures and analyzes facial images, compares them with an existing database and verifies the person's identity.
Das Facial Identity Verification System umfasst hochauflösende Kameras zur Erfassung von Gesichtsbildern von Personen. Die Kameras können in verschiedenen Umgebungen installiert werden, beispielsweise an Zugangskontrollpunkten, Smartphones oder Überwachungssystemen. Anschließend werden die Bilder verarbeitet, um Gesichtsmerkmale zu extrahieren und so eine konsistente und standardisierte Darstellung zum Vergleich sicherzustellen.The Facial Identity Verification System includes high-resolution cameras to capture facial images of people. The cameras can be installed in various environments, such as access control points, smartphones or surveillance systems. The images are then processed to extract facial features, ensuring a consistent and standardized representation for comparison.
CNNs werden zur Durchführung von Aufgaben zur Extraktion und Erkennung von Gesichtsmerkmalen eingesetzt. Die Deep-Learning-Architektur von CNNs ermöglicht es dem System, komplexe Gesichtsmuster zu erlernen und zu identifizieren, wodurch es selbst bei unterschiedlichen Lichtverhältnissen, Gesichtsausdrücken und Posen äußerst effektiv bei der Unterscheidung von Personen ist.CNNs are used to perform facial feature extraction and recognition tasks. The deep learning architecture of CNNs allows the system to learn and identify complex facial patterns, making it extremely effective at distinguishing people even in different lighting conditions, facial expressions and poses.
Die aufgenommenen Gesichtsbilder werden vorverarbeitet, um die Qualität zu verbessern und Rauschen zu eliminieren. Die CNNs extrahieren dann wichtige Gesichtsmerkmale wie Augen, Nase, Mund und Gesichtskonturen. Diese Merkmale werden in hochdimensionale Merkmalsvektoren kodiert und bilden so eine einzigartige Gesichtsdarstellung für jede Person.The captured facial images are pre-processed to improve quality and eliminate noise. The CNNs then extract key facial features such as eyes, nose, mouth and facial contours. These features are encoded into high-dimensional feature vectors, forming a unique facial representation for each person.
Um die Identität einer Person zu überprüfen, werden die extrahierten Gesichtsmerkmale mit einer bereits vorhandenen Datenbank bekannter Identitäten verglichen. Die Datenbank enthält Merkmalsvektoren autorisierter Personen als Referenz. Die CNNs verwenden Ähnlichkeitsmetriken, um die Ähnlichkeit zwischen den eingegebenen Gesichtsmerkmalen und den Datenbankeinträgen zu berechnen und so die Identitätsübereinstimmung zu bestimmen.To verify a person's identity, the extracted facial features are compared to an existing database of known identities. The database contains feature vectors of authorized people for reference. The CNNs use similarity metrics to calculate the similarity between the input facial features and the database entries to determine identity match.
Das Facial Identity Verification System ist für die Echtzeitverarbeitung optimiert und ermöglicht eine schnelle und effiziente Überprüfung. Das System liefert zeitnahe Ergebnisse und eignet sich daher für Hochsicherheitsanwendungen und zeitkritische Szenarien.The Facial Identity Verification System is optimized for real-time processing, enabling fast and efficient verification. The system delivers timely results and is therefore suitable for high-security applications and time-critical scenarios.
Um Datensicherheit und Datenschutz zu gewährleisten, werden die biometrischen Daten von Personen verschlüsselt und in einer sicheren Datenbank gespeichert. Das System befolgt strenge Datenschutzprotokolle, um unbefugten Zugriff und Missbrauch personenbezogener Daten zu verhindern.To ensure data security and privacy, people's biometric data is encrypted and stored in a secure database. The system follows strict data protection protocols to prevent unauthorized access and misuse of personal data.
Die CNNs werden zunächst anhand eines großen Datensatzes von Gesichtsbildern trainiert, um Gesichtsmuster und -merkmale zu lernen. Während das System in realen Szenarien arbeitet, passt es seine Modelle kontinuierlich anhand neu erfasster Daten an und aktualisiert sie, wodurch seine Genauigkeit und Anpassungsfähigkeit verbessert wird.The CNNs are first trained on a large dataset of facial images to learn facial patterns and features. As the system operates in real-world scenarios, it continually adjusts and updates its models based on newly acquired data, improving its accuracy and adaptability.
Das System zur Überprüfung der Gesichtsidentität kann in verschiedene Anwendungen integriert werden, einschließlich, aber nicht beschränkt auf, Zugangskontrollsysteme, sichere Einrichtungen, Online-Authentifizierungsprozesse und Überwachungssysteme. Seine Vielseitigkeit und Genauigkeit machen es zu einer wertvollen Lösung für die Identitätsprüfung in verschiedenen Branchen.The facial identity verification system can be integrated into various applications including, but not limited to, access control systems, secure facilities, online authentication processes and surveillance systems. Its versatility and accuracy make it a valuable solution for identity verification in various industries.
Während im Vorstehenden verschiedene Ausführungsformen der Erfindung beschrieben werden, können andere und weitere Ausführungsformen der Erfindung entwickelt werden, ohne von ihrem Grundumfang abzuweichen. Der Umfang der Erfindung wird durch die folgenden Ansprüche bestimmt. Die Erfindung ist nicht auf die beschriebenen Ausführungsformen, Versionen oder Beispiele beschränkt, die enthalten sind, um es einer Person mit durchschnittlichem Fachwissen zu ermöglichen, die Erfindung in Kombination mit Informationen und Kenntnissen, die dem Fachmann auf diesem Gebiet zur Verfügung stehen, umzusetzen und zu nutzen.While various embodiments of the invention have been described above, other and further embodiments of the invention may be devised without departing from its basic scope. The scope of the invention is determined by the following claims. The invention is not limited to the described embodiments, versions or examples, which are included to enable a person of ordinary skill in the art to practice and use the invention in combination with information and knowledge available to those skilled in the art to use.
Somit wird der Umfang der vorliegenden Offenbarung durch die beigefügten Ansprüche definiert und umfasst sowohl Kombinationen als auch Unterkombinationen der verschiedenen oben beschriebenen Merkmale sowie Variationen und Modifikationen davon, die dem Fachmann beim Lesen der vorstehenden Beschreibung in den Sinn kommen würden .Thus, the scope of the present disclosure is defined by the appended claims and includes both combinations and subcombinations of the various features described above, as well as variations and modifications thereof that would come to mind to those skilled in the art upon reading the foregoing description.
REFERENZENCREDENTIALS
- 100100
- Ein System zur Überprüfung der Gesichtsidentität (100) unter Verwendung von Faltungsneuronalen Netzen (CNNs).A facial identity verification system (100) using convolutional neural networks (CNNs).
- 102102
- Kameracamera
- 104104
- SteuereinheitControl unit
- 106106
- VorverarbeitungseinheitPreprocessing unit
- 108108
- MerkmalsextraktionseinheitFeature extraction unit
- 110110
- KlassifizierungseinheitClassification unit
- 112112
- DatenbankDatabase
- 114114
- AnzeigeAdvertisement
- 116116
- KommunikationsmediumCommunication medium
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202023107335.2U DE202023107335U1 (en) | 2023-12-12 | 2023-12-12 | Facial identity verification system using convolutional neural networks |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202023107335.2U DE202023107335U1 (en) | 2023-12-12 | 2023-12-12 | Facial identity verification system using convolutional neural networks |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202023107335U1 true DE202023107335U1 (en) | 2024-01-10 |
Family
ID=89809161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202023107335.2U Active DE202023107335U1 (en) | 2023-12-12 | 2023-12-12 | Facial identity verification system using convolutional neural networks |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE202023107335U1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118334758A (en) * | 2024-06-12 | 2024-07-12 | 广东博科电子科技有限公司 | Image recognition method and system applied to building access control system |
-
2023
- 2023-12-12 DE DE202023107335.2U patent/DE202023107335U1/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118334758A (en) * | 2024-06-12 | 2024-07-12 | 广东博科电子科技有限公司 | Image recognition method and system applied to building access control system |
CN118334758B (en) * | 2024-06-12 | 2024-08-23 | 广东博科电子科技有限公司 | Image recognition method and system applied to building access control system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018115440A1 (en) | Techniques for training deep neural networks | |
DE112019000631T5 (en) | USING GRADIENTS TO DETECT BACKDOORS IN NEURAL NETWORKS | |
DE112018002166T5 (en) | Cyclical opposing generation network for unsupervised cross-domain image generation | |
DE102017220896A1 (en) | Method and device for security control | |
DE112019000334T5 (en) | VALIDATE THE IDENTITY OF A REMOTE USER BY COMPARISON ON THE BASIS OF THRESHOLD VALUES | |
JP2022532177A (en) | Forged face recognition methods, devices, and non-temporary computer-readable storage media | |
DE202017007528U1 (en) | Difference metric for machine learning based processing systems | |
WO2000021021A1 (en) | Methods and system for recognizing people with model-based face detection | |
DE102014223226A1 (en) | Discriminator, discrimination program and discrimination procedure | |
DE102019204318A1 (en) | Automatic detection and classification of adversarial attacks | |
DE102016222036A1 (en) | System for visual object and event detection and prediction using saccades | |
DE202023107335U1 (en) | Facial identity verification system using convolutional neural networks | |
CN107832740A (en) | The Method of Teaching Quality Evaluation and system of a kind of remote teaching | |
DE102022202017A1 (en) | Concept-based adversarial generation method with controllable and diverse semantics | |
DE102016011055A1 (en) | Identify shapes in an image by comparing Bézier curves | |
DE102023125422A1 (en) | Hybrid object detection method based on thermal images in combination with YOLO models and object tracking techniques | |
DE112019006414T5 (en) | Device and method for the detection of people | |
DE102023202402A1 (en) | System and method for improving the robustness of pre-trained systems in deep neural networks using randomization and sample rejection | |
DE4407998C2 (en) | Method and device for recognizing a pattern on a document | |
DE102019207566A1 (en) | Method for controlling a safety system of a charging station for charging electric vehicles | |
DE112021006507T5 (en) | SPATIO-TEMPORALLY DEEP LEARNING FOR BEHAVIORAL BIOMETRY | |
CH717006A2 (en) | Procedure for user identification. | |
DE102013213532A1 (en) | Method and system for recognizing a gesture | |
DE202022107266U1 (en) | A face recognition system to distinguish between similar faces | |
WO2016131812A1 (en) | Mobile device for capturing a text range on an identification document |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: LIPPERT STACHOW PATENTANWAELTE RECHTSANWAELTE , DE |
|
R207 | Utility model specification |