[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE202023107335U1 - Facial identity verification system using convolutional neural networks - Google Patents

Facial identity verification system using convolutional neural networks Download PDF

Info

Publication number
DE202023107335U1
DE202023107335U1 DE202023107335.2U DE202023107335U DE202023107335U1 DE 202023107335 U1 DE202023107335 U1 DE 202023107335U1 DE 202023107335 U DE202023107335 U DE 202023107335U DE 202023107335 U1 DE202023107335 U1 DE 202023107335U1
Authority
DE
Germany
Prior art keywords
facial
features
similarity
control unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202023107335.2U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE202023107335.2U priority Critical patent/DE202023107335U1/en
Publication of DE202023107335U1 publication Critical patent/DE202023107335U1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Collating Specific Patterns (AREA)

Abstract

Ein Gesichtsidentitätsverifizierungssystem (100), das Faltungs-Neuronale Netzwerke (CNNs) verwendet, wobei das System (100) Folgendes umfasst:eine Kamera (102) zum Erfassen entweder eines Gesichtsbilds oder eines Videostreams eines Benutzers;eine Steuereinheit (104), die mit der Kamera (102) verbunden ist, um die aufgenommenen Bilder zu verarbeiten, um die Gesichtsmerkmale des Benutzers zu identifizieren, wobei die Steuereinheit (104) Folgendes umfasst:eine Vorverarbeitungseinheit (106) zum Verarbeiten des erfassten Gesichtsbilds, um das Gesichtsbild oder den Videostream zu normalisieren und zu verbessern;eine Merkmalsextraktionseinheit (108), die mit der Vorverarbeitungseinheit (106) verbunden ist, um den Gesichtsbereich aus dem normalisierten Bild zu extrahieren, indem ein Faltungs-Neuronales Netzwerk (CNNs) verwendet wird, um Gesichtsmerkmale in einem hochdimensionalen Merkmalsraum darzustellen und Ähnlichkeiten zu identifizieren die extrahierten Merkmale und ein in einer Datenbank gespeichertes Bild; undeine Klassifizierungseinheit (110), die mit der Merkmalsextraktionseinheit (108) verbunden ist, um die extrahierten Merkmale auf der Grundlage der Ähnlichkeit der extrahierten Merkmale in mehrere Klassen zu klassifizieren, um die Identität des Benutzers zu identifizieren.A facial identity verification system (100) using convolutional neural networks (CNNs), the system (100) comprising:a camera (102) for capturing either a facial image or a video stream of a user;a controller (104) associated with the Camera (102) is connected to process the captured images to identify the facial features of the user, the control unit (104) comprising:a pre-processing unit (106) for processing the captured facial image to normalize the facial image or the video stream and to improve;a feature extraction unit (108) connected to the pre-processing unit (106) for extracting the facial region from the normalized image by using convolutional neural networks (CNNs) to represent facial features in a high-dimensional feature space and Identify similarities between the extracted features and an image stored in a database; anda classification unit (110) connected to the feature extraction unit (108) for classifying the extracted features into multiple classes based on the similarity of the extracted features to identify the identity of the user.

Description

TECHNISCHEN BEREICHTECHNICAL AREA

Die vorliegende Erfindung bezieht sich auf das Gebiet biometrischer Authentifizierungssysteme. Insbesondere betrifft die Erfindung ein System zur Überprüfung der Gesichtsidentität, das Faltungs-Neuronale Netze (CNNs) zur genauen und effizienten Erkennung von Personen anhand ihrer Gesichtsmerkmale verwendet.The present invention relates to the field of biometric authentication systems. More particularly, the invention relates to a facial identity verification system that uses convolutional neural networks (CNNs) to accurately and efficiently recognize people based on their facial features.

HINTERGRUNDKUNSTBACKGROUND ART

Die Gesichtserkennungstechnologie hat in den letzten Jahren erhebliche Fortschritte gemacht und die Art und Weise der Identitätsprüfung revolutioniert. Diese Technologie nutzt biometrische Daten aus dem Gesicht einer Person, um deren Identität eindeutig zu identifizieren und zu überprüfen. Mit dem Aufkommen künstlicher Intelligenz und maschineller Lerntechniken sind Gesichtserkennungssysteme genauer und effizienter geworden und in verschiedenen Branchen und Anwendungen weit verbreitet.Facial recognition technology has made significant advances in recent years, revolutionizing the way identity is verified. This technology uses biometric data from a person's face to uniquely identify and verify their identity. With the advent of artificial intelligence and machine learning techniques, facial recognition systems have become more accurate and efficient and have been widely used in various industries and applications.

Die traditionellen Systeme zur Identitätsüberprüfung wie Passwörter, PINs und ID-Karten weisen inhärente Einschränkungen und Schwachstellen auf, die sie anfällig für Sicherheitsverletzungen und Identitätsbetrug machen. Im Gegensatz dazu bietet die Überprüfung der Gesichtsidentität einen sichereren und benutzerfreundlicheren Ansatz, indem sie die einzigartigen Gesichtsmerkmale von Personen nutzt.The traditional identity verification systems such as passwords, PINs and ID cards have inherent limitations and vulnerabilities that make them vulnerable to security breaches and identity fraud. In contrast, facial identity verification offers a safer and more user-friendly approach by leveraging people's unique facial characteristics.

Das Aufkommen von Convolutional Neural Networks (CNNs) war ein Durchbruch auf dem Gebiet der künstlichen Intelligenz, insbesondere bei Computer-Vision-Aufgaben. CNNs sind eine Klasse von Deep-Learning-Techniken zur Erkennung von Mustern und Merkmalen in Bildern. Sie haben bei Bilderkennungsaufgaben bemerkenswerte Fähigkeiten bewiesen, wodurch sie sich ideal für die Überprüfung der Gesichtsidentität eignen.The emergence of convolutional neural networks (CNNs) was a breakthrough in the field of artificial intelligence, particularly in computer vision tasks. CNNs are a class of deep learning techniques for recognizing patterns and features in images. They have demonstrated remarkable abilities in image recognition tasks, making them ideal for facial identity verification.

Das auf Faltungs-Neuronalen Netzen basierende System zur Überprüfung der Gesichtsidentität zielt darauf ab, die Mängel herkömmlicher Überprüfungstechniken zu beheben und eine robuste, genaue und zuverlässige Lösung für die Identitätsüberprüfung bereitzustellen. Diese Technologie bietet eine Vielzahl von Anwendungen in verschiedenen Bereichen, darunter Banken, Gesundheitswesen, Strafverfolgung, Grenzkontrolle, Zugangskontrolle und Sicherheit mobiler Geräte.The convolutional neural network-based facial identity verification system aims to address the shortcomings of traditional verification techniques and provide a robust, accurate and reliable solution for identity verification. This technology has a variety of applications in various areas including banking, healthcare, law enforcement, border control, access control and mobile device security.

Eine der entscheidenden Herausforderungen bei Gesichtserkennungssystemen besteht darin, eine hohe Genauigkeit und Robustheit gegenüber Schwankungen der Lichtverhältnisse, Gesichtsausdrücke und Posenwinkel zu erreichen. Die herkömmlichen Ansätze, die auf handgefertigten Funktionen basieren, hatten oft Schwierigkeiten, sich effektiv an solche Variationen anzupassen. CNNs verfügen jedoch über die Fähigkeit, automatisch hierarchische Merkmale aus Gesichtsbildern zu lernen und zu extrahieren, was sie robuster macht und in der Lage ist, mit unterschiedlichen Gesichtsaussehen umzugehen.One of the key challenges in facial recognition systems is to achieve high accuracy and robustness to variations in lighting conditions, facial expressions and pose angles. The traditional approaches based on hand-crafted features often struggled to effectively adapt to such variations. However, CNNs have the ability to automatically learn and extract hierarchical features from facial images, making them more robust and able to deal with different facial appearances.

Das vorgeschlagene System zur Überprüfung der Gesichtsidentität umfasst mehrere Stufen, einschließlich Gesichtserkennung, Merkmalsextraktion und Identitätsabgleich. In der Gesichtserkennungsphase lokalisiert und extrahiert das System Gesichter aus einem Eingabebild oder Videostream. Anschließend nutzt die Phase der Merkmalsextraktion die Leistungsfähigkeit von CNNs, um die Gesichtsmerkmale zu lernen und in einem hochdimensionalen Merkmalsraum darzustellen.The proposed facial identity verification system includes multiple stages including face recognition, feature extraction and identity matching. In the face detection phase, the system locates and extracts faces from an input image or video stream. Then, the feature extraction phase leverages the power of CNNs to learn the facial features and represent them in a high-dimensional feature space.

Während der Trainingsphase wird das CNN-Modell einem riesigen Datensatz gekennzeichneter Gesichtsbilder ausgesetzt, wodurch es Unterscheidungsmerkmale zur Identitätsüberprüfung lernen kann. Das CNN lernt, die Gesichtsbilder in einem kompakten Merkmalsraum abzubilden, in dem ähnliche Gesichter derselben Person nahe beieinander liegen, während unterschiedliche Gesichter verschiedener Personen weit voneinander entfernt sind.During the training phase, the CNN model is exposed to a huge dataset of labeled facial images, allowing it to learn distinguishing features for identity verification. The CNN learns to map the face images into a compact feature space where similar faces of the same person are close to each other while different faces of different people are far apart.

In der Phase des Identitätsabgleichs werden die extrahierten Gesichtsmerkmale mit den in der Datenbank registrierten Gesichtsvorlagen verglichen. Das System berechnet einen Ähnlichkeitswert oder eine Distanzmetrik zwischen den Eingabemerkmalen und den gespeicherten Vorlagen, um die Identitätsübereinstimmung zu bestimmen. Wenn der Ähnlichkeitswert einen vordefinierten Schwellenwert überschreitet, überprüft das System die Identität der Person und gewährt Zugriff oder Authentifizierung basierend auf den Anforderungen der Anwendung.In the identity matching phase, the extracted facial features are compared with the facial templates registered in the database. The system calculates a similarity score or distance metric between the input features and the stored templates to determine identity match. If the similarity score exceeds a predefined threshold, the system verifies the person's identity and grants access or authentication based on the application's requirements.

Die Wirksamkeit des Systems zur Überprüfung der Gesichtsidentität liegt in seiner Fähigkeit, reale Herausforderungen wie Verdeckungen, Variationen im Gesichtsausdruck, Alterung und Veränderungen des Aussehens im Laufe der Zeit zu bewältigen. Darüber hinaus kann das System mit zusätzlichen Trainingsdaten aktualisiert und verbessert werden, wodurch seine Genauigkeit und Anpassungsfähigkeit weiter verbessert werden.The effectiveness of the facial identity verification system lies in its ability to address real-world challenges such as occlusions, variations in facial expression, aging, and changes in appearance over time. Additionally, the system can be updated and improved with additional training data, further improving its accuracy and adaptability.

Alle hierin enthaltenen Veröffentlichungen werden durch Bezugnahme in demselben Umfang einbezogen, als ob jede einzelne Veröffentlichung oder Patentanmeldung ausdrücklich und einzeln als Bezugnahme angegeben wäre. Wenn eine Definition oder Verwendung eines Begriffs in einer einbezogenen Referenz inkonsistent ist oder im Widerspruch zu der hierin bereitgestellten Definition dieses Begriffs steht, gilt die hierin bereitgestellte Definition dieses Begriffs und die Definition dieses Begriffs in der Referenz findet keine Anwendung.All publications contained herein are incorporated by reference to the same extent as if each individual publication or patent application were expressly and individually incorporated by reference. When a definition or use of a term in an included reference is inconsistent or contradictory to the definition of such term provided herein, the definition of such term provided herein shall apply and the definition of such term in the reference shall not apply.

Die durch die vorliegende Erfindung offenbarten technischen Fortschritte überwinden die Einschränkungen und Nachteile bestehender und herkömmlicher Systeme.The technical advances disclosed by the present invention overcome the limitations and disadvantages of existing and conventional systems.

ZUSAMMENFASSUNGSUMMARY

Das Hauptziel der vorliegenden Erfindung besteht darin, die Nachteile des Standes der Technik zu überwinden.The main aim of the present invention is to overcome the disadvantages of the prior art.

Ein weiteres Ziel der vorliegenden Erfindung besteht darin, ein System zur Überprüfung der Gesichtsidentität bereitzustellen, das Faltungs-Neuronale Netze verwendet.Another object of the present invention is to provide a facial identity verification system using convolutional neural networks.

Ein weiteres Ziel der vorliegenden Erfindung besteht darin, eine hohe Genauigkeit und Robustheit gegenüber Schwankungen der Lichtverhältnisse, Gesichtsausdrücke und Posenwinkel zu erreichen.Another object of the present invention is to achieve high accuracy and robustness to variations in lighting conditions, facial expressions and pose angles.

Ein weiteres Ziel der vorliegenden Erfindung besteht darin, die Fähigkeit bereitzustellen, automatisch hierarchische Merkmale aus Gesichtsbildern zu lernen und zu extrahieren, um sie robuster zu machen und in der Lage zu sein, verschiedene Gesichtserscheinungen zu verarbeiten.Another object of the present invention is to provide the ability to automatically learn and extract hierarchical features from facial images to make them more robust and capable of processing various facial appearances.

Ein weiteres Ziel der vorliegenden Erfindung besteht darin, einen eleganten, zuverlässigen und präzisen Ansatz dafür bereitzustellen System zur Überprüfung der Gesichtsidentität mithilfe von Faltungs-Neuronalen Netzen.Another aim of the present invention is to provide an elegant, reliable and accurate approach to facial identity verification system using convolutional neural networks.

Ein weiteres Ziel der vorliegenden Erfindung besteht darin, ein Verfahren zur Verbesserung der Funktionalitäten bereitzustellen System zur Überprüfung der Gesichtsidentität mithilfe von Faltungs-Neuronalen Netzen.Another object of the present invention is to provide a method for improving the functionalities of a facial identity verification system using convolutional neural networks.

In einer Ausführungsform ein System zur Überprüfung der Gesichtsidentität unter Verwendung von Convolutional Neural Networks (CNNs), wobei das System Folgendes umfasst: eine Kamera zum Erfassen entweder eines Gesichtsbilds oder eines Videostreams eines Benutzers; eine mit der Kamera verbundene Steuereinheit zur Verarbeitung der erfassten Bilder, um die Gesichtsmerkmale des Benutzers zu identifizieren, wobei die Steuereinheit Folgendes umfasst: eine Vorverarbeitungseinheit zur Verarbeitung des erfassten Gesichtsbilds, um das Gesichtsbild oder den Videostream zu normalisieren und zu verbessern ; eine Merkmalsextraktionseinheit, die mit der Vorverarbeitungseinheit verbunden ist, um den Gesichtsbereich aus dem normalisierten Bild zu extrahieren, indem ein Faltungs-Neuronales Netzwerk (CNNs) verwendet wird, um Gesichtsmerkmale in einem hochdimensionalen Merkmalsraum darzustellen und Ähnlichkeiten der extrahierten Merkmale und eines Bildes zu identifizieren in einer Datenbank gespeichert; und eine mit der Merkmalsextraktionseinheit verbundene Klassifizierungseinheit zum Klassifizieren der extrahierten Merkmale in mehrere Klassen basierend auf der Ähnlichkeit der extrahierten Merkmale, um die Identität des Benutzers zu identifizieren.In one embodiment, a system for facial identity verification using convolutional neural networks (CNNs), the system comprising: a camera for capturing either a facial image or a video stream of a user; a control unit connected to the camera for processing the captured images to identify the facial features of the user, the control unit comprising: a pre-processing unit for processing the captured facial image to normalize and enhance the facial image or video stream; a feature extraction unit connected to the pre-processing unit to extract the facial region from the normalized image by using convolutional neural networks (CNNs) to represent facial features in a high-dimensional feature space and to identify similarities of the extracted features and an image in stored in a database; and a classification unit connected to the feature extraction unit for classifying the extracted features into multiple classes based on the similarity of the extracted features to identify the identity of the user.

Diese und andere Merkmale werden aus der folgenden detaillierten Beschreibung ihrer veranschaulichenden Ausführungsformen deutlich, die in Verbindung mit der beigefügten Zeichnung zu lesen ist. Während die Erfindung unter Bezugnahme auf die bevorzugte Ausführungsform beschrieben und gezeigt wurde, ist es offensichtlich, dass Variationen möglich sind, die in den Rahmen der vorliegenden Erfindung fallen würden.These and other features will become apparent from the following detailed description of their illustrative embodiments, which should be read in conjunction with the accompanying drawings. While the invention has been described and shown with reference to the preferred embodiment, it is apparent that variations are possible that would fall within the scope of the present invention.

KURZBESCHREIBUNG DER ZEICHNUNGBRIEF DESCRIPTION OF THE DRAWING

Die beigefügte Abbildung ist in diese Spezifikation integriert und bildet einen Teil davon, um das Verständnis der aktuellen Offenbarung zu erleichtern. Die Abbildung zeigt beispielhafte Umsetzungen der aktuellen Offenlegung und trägt zusammen mit der Beschreibung zur Verdeutlichung ihrer Grundgedanken bei.

  • 1 zeigt ein Blockdiagramm eines Systems zur Überprüfung der Gesichtsidentität unter Verwendung von Convolutional Neural Networks (CNNs).
The accompanying figure is incorporated into and forms a part of this specification to facilitate understanding of the current disclosure. The figure shows exemplary implementations of the current disclosure and, together with the description, helps to clarify its basic ideas.
  • 1 shows a block diagram of a facial identity verification system using convolutional neural networks (CNNs).

Es ist zu beachten, dass die Figur nicht maßstabsgetreu ist und Elemente mit ähnlicher Struktur und Funktion in der Figur zur Veranschaulichung im Allgemeinen mit gleichen Bezugszeichen versehen sind. Es ist zu beachten, dass die Figur nicht jeden Aspekt der beschriebenen Ausführungsform veranschaulicht und den Umfang der vorliegenden Offenbarung nicht einschränkt.It should be noted that the figure is not to scale and elements of similar structure and function in the figure are generally given the same reference numerals for purposes of illustration. It should be noted that the figure does not illustrate every aspect of the described embodiment and does not limit the scope of the present disclosure.

Weitere Aufgaben, Vorteile und neue Merkmale der Erfindung werden aus der folgenden detaillierten Beschreibung der vorliegenden Ausführungsform in Verbindung mit der beigefügten Zeichnung deutlich.Further objects, advantages and novel features of the invention will become apparent from the following detailed description of the present embodiment taken in conjunction with the accompanying drawings.

DETAILLIERTE BESCHREIBUNG DER ERFINDUNGDETAILED DESCRIPTION OF THE INVENTION

Die folgende detaillierte Beschreibung erfolgt unter Bezugnahme auf die Figur. Beispielhafte Ausführungsformen werden beschrieben, um die Offenbarung zu veranschaulichen, nicht um ihren Umfang einzuschränken, der durch die Ansprüche definiert ist. Der Durchschnittsfachmann wird in der folgenden Beschreibung eine Reihe äquivalenter Variationen erkennen.The following detailed description is made with reference to the figure. Example embodiments are described to illustrate the disclosure, not to limit its scope, which is defined by the claims. The person of ordinary skill in the art will understand the following Description recognize a number of equivalent variations.

Die in dieser Spezifikation beschriebenen Funktionseinheiten sind als Geräte gekennzeichnet. Ein Gerät kann in programmierbaren Hardwaregeräten wie Prozessoren, digitalen Signalprozessoren, Zentraleinheiten, feldprogrammierbaren Gate-Arrays, programmierbarer Array-Logik, programmierbaren Logikgeräten, Cloud-Verarbeitungssystemen oder dergleichen implementiert werden. Die Geräte können auch in Software zur Ausführung durch verschiedene Prozessortypen implementiert werden. Ein identifiziertes Gerät kann ausführbaren Code enthalten und beispielsweise einen oder mehrere physische oder logische Blöcke von Computeranweisungen umfassen, die beispielsweise als Objekt, Prozedur, Funktion oder anderes Konstrukt organisiert sein können. Dennoch muss die ausführbare Datei eines identifizierten Geräts nicht physisch zusammen angeordnet sein, sondern kann aus unterschiedlichen, an unterschiedlichen Orten gespeicherten Anweisungen bestehen, die, wenn sie logisch zusammengefügt werden, das Gerät bilden und den angegebenen Zweck des Geräts erfüllen.The functional units described in this specification are identified as devices. A device may be implemented in programmable hardware devices such as processors, digital signal processors, central processing units, field programmable gate arrays, programmable array logic, programmable logic devices, cloud processing systems, or the like. The devices can also be implemented in software for execution by different types of processors. An identified device may contain executable code and, for example, include one or more physical or logical blocks of computer instructions, which may be organized, for example, as an object, procedure, function, or other construct. However, the executable file of an identified device does not have to be physically located together, but may consist of different instructions stored in different locations, which, when logically assembled, form the device and fulfill the stated purpose of the device.

Tatsächlich könnte ein ausführbarer Code eines Geräts oder Moduls eine einzelne Anweisung oder mehrere Anweisungen sein und sogar über mehrere verschiedene Codesegmente, zwischen verschiedenen Anwendungen und über mehrere Speichergeräte verteilt sein. In ähnlicher Weise können Betriebsdaten hier innerhalb des Geräts identifiziert und dargestellt werden und können in jeder geeigneten Form verkörpert und in jeder geeigneten Art von Datenstruktur organisiert werden. Die Betriebsdaten können als einzelner Datensatz erfasst oder über verschiedene Standorte, einschließlich verschiedener Speichergeräte, verteilt werden und können zumindest teilweise als elektronische Signale in einem System oder Netzwerk vorliegen.In fact, a device or module's executable code could be a single instruction or multiple instructions, and even distributed across several different code segments, between different applications and across multiple storage devices. Similarly, operational data may be identified and represented herein within the device and may be embodied in any suitable form and organized into any suitable type of data structure. The operational data may be collected as a single data set or distributed across various locations, including various storage devices, and may exist, at least in part, as electronic signals in a system or network.

Verweise in dieser Spezifikation auf „eine ausgewählte Ausführungsform“, „eine Ausführungsform“ oder „eine Ausführungsform“ bedeuten, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder ein bestimmtes Merkmal, das in Verbindung mit der Ausführungsform beschrieben wird, in mindestens einer Ausführungsform des offenbarten Gegenstands enthalten ist. Daher beziehen sich die Ausdrücke „eine ausgewählte Ausführungsform“, „in einer Ausführungsform“ oder „in einer Ausführungsform“ an verschiedenen Stellen in dieser Spezifikation nicht unbedingt auf dieselbe Ausführungsform.References in this specification to “a selected embodiment,” “an embodiment,” or “an embodiment” mean that a particular feature, structure, or feature described in connection with the embodiment is disclosed in at least one embodiment of the Item is included. Therefore, the expressions “a selected embodiment,” “in one embodiment,” or “in one embodiment” used elsewhere in this specification do not necessarily refer to the same embodiment.

Darüber hinaus können die beschriebenen Merkmale, Strukturen oder Eigenschaften in einer oder mehreren Ausführungsformen auf jede geeignete Weise kombiniert werden. In der folgenden Beschreibung werden zahlreiche spezifische Details bereitgestellt, um ein umfassendes Verständnis der Ausführungsformen des offenbarten Gegenstands zu ermöglichen. Ein Fachmann auf dem betreffenden Gebiet wird jedoch erkennen, dass der offenbarte Gegenstand ohne eines oder mehrere der spezifischen Details oder mit anderen Methoden, Komponenten, Materialien usw. in die Praxis umgesetzt werden kann. In anderen Fällen können wohlbekannte Strukturen, Materialien, oder Vorgänge werden nicht im Detail gezeigt oder beschrieben, um Aspekte des offengelegten Gegenstands nicht zu verschleiern.Additionally, the features, structures, or properties described may be combined in any suitable manner in one or more embodiments. In the following description, numerous specific details are provided to provide a thorough understanding of embodiments of the disclosed subject matter. However, one skilled in the art will recognize that the disclosed subject matter may be practiced without one or more of the specific details or with other methods, components, materials, etc. In other cases, well-known structures, materials, or processes may not be shown or described in detail so as not to obscure aspects of the subject matter disclosed.

Gemäß den beispielhaften Ausführungsformen können die offenbarten Computerprogramme oder -module auf viele beispielhafte Arten ausgeführt werden, beispielsweise als Anwendung, die sich im Speicher eines Geräts befindet, oder als gehostete Anwendung, die auf einem Server ausgeführt wird und mit diesem kommuniziert Geräteanwendung oder Browser über eine Reihe von Standardprotokollen wie TCP/IP, HTTP, XML, SOAP, REST, JSON und andere ausreichende Protokolle. Die offenbarten Computerprogramme können in beispielhaften Programmiersprachen geschrieben sein, die aus dem Speicher des Geräts oder von einem gehosteten Server ausgeführt werden, wie etwa BASIC, COBOL, C, C++, Java, Pascal, oder Skriptsprachen wie JavaScript, Python, Ruby, PHP, Perl oder andere geeignete Programmiersprachen.According to exemplary embodiments, the disclosed computer programs or modules may be executed in many exemplary ways, for example, as an application residing in a device's memory or as a hosted application executing on and communicating with a server via a device application or browser Set of standard protocols such as TCP/IP, HTTP, XML, SOAP, REST, JSON and other sufficient protocols. The disclosed computer programs may be written in exemplary programming languages that are executed from the device's memory or from a hosted server, such as BASIC, COBOL, C, C++, Java, Pascal, or scripting languages such as JavaScript, Python, Ruby, PHP, Perl or other suitable programming languages.

Einige der offenbarten Ausführungsformen beinhalten oder beinhalten auf andere Weise die Datenübertragung über ein Netzwerk, beispielsweise die Übermittlung verschiedener Eingaben oder Dateien über das Netzwerk. Das Netzwerk kann beispielsweise eines oder mehrere der folgenden Elemente umfassen: Internet, Wide Area Networks (WANs), Local Area Networks (LANs), analoge oder digitale drahtgebundene und drahtlose Telefonnetzwerke z. B. ein PSTN, Integrated Services Digital Network (ISDN), ein Mobilfunknetz und Digital Subscriber Line (xDSL), Radio, Fernsehen, Kabel, Satellit und/oder andere Übertragungs- oder Tunnelmechanismen zur Datenübertragung. Das Netzwerk kann mehrere Netzwerke oder Teilnetzwerke umfassen, von denen jedes beispielsweise einen drahtgebundenen oder drahtlosen Datenweg umfassen kann. Das Netzwerk kann ein leitungsvermitteltes Sprachnetzwerk, ein paketvermitteltes Datennetzwerk oder jedes andere Netzwerk umfassen, das elektronische Kommunikation übertragen kann. Das Netzwerk kann beispielsweise Netzwerke umfassen, die auf dem Internetprotokoll (IP) oder dem asynchronen Übertragungsmodus (ATM) basieren, und kann Sprache beispielsweise mithilfe von VoIP, Voice-over-ATM oder anderen vergleichbaren Protokollen unterstützen, die für Sprachdatenkommunikation verwendet werden. In einer Implementierung umfasst das Netzwerk ein Mobilfunknetz, das so konfiguriert ist, dass es den Austausch von Text- oder SMS-Nachrichten ermöglicht.Some of the disclosed embodiments involve or otherwise involve data transmission over a network, such as the transmission of various inputs or files over the network. The network may include, for example, one or more of the following: Internet, Wide Area Networks (WANs), Local Area Networks (LANs), analog or digital wired and wireless telephone networks, e.g. B. a PSTN, Integrated Services Digital Network (ISDN), a cellular network and Digital Subscriber Line (xDSL), radio, television, cable, satellite and / or other transmission or tunneling mechanisms for data transmission. The network may include multiple networks or subnetworks, each of which may include, for example, a wired or wireless data path. The network may include a circuit-switched voice network, a packet-switched data network, or any other network capable of transmitting electronic communications. The network may include, for example, networks based on Internet Protocol (IP) or Asynchronous Transfer Mode (ATM), and may support voice using, for example, VoIP, Voice over ATM or other comparable protocols suitable for voice data communications tion can be used. In one implementation, the network includes a cellular network configured to enable the exchange of text or SMS messages.

Beispiele für das Netzwerk sind unter anderem ein Personal Area Network (PAN), ein Storage Area Network (SAN), ein Home Area Network (HAN), ein Campus Area Network (CAN) und ein Local Area Network (LAN), ein Wide Area Network (WAN), ein Metropolitan Area Network (MAN) , ein Virtual Private Network (VPN), ein Enterprise Private Network (EPN), Internet, ein Global Area Network (GAN) usw.Examples of the network include a Personal Area Network (PAN), a Storage Area Network (SAN), a Home Area Network (HAN), a Campus Area Network (CAN) and a Local Area Network (LAN), a Wide Area Network (WAN), a Metropolitan Area Network (MAN), a Virtual Private Network (VPN), an Enterprise Private Network (EPN), Internet, a Global Area Network (GAN), etc.

In dieser Beschreibung wird das Wort „dürfen“ im permissiven Sinne verwendet (d. h. in der Bedeutung „das Potenzial dazu haben“) und nicht im zwingenden Sinne (d. h. in der Bedeutung „müssen“). Darüber hinaus bedeuten die Wörter „ein“ oder „ein“ „mindestens eine“ und das Wort „Mehrzahl“ bedeutet „eine oder mehrere“, sofern nicht anders angegeben. Darüber hinaus dienen die hierin verwendete Terminologie und Ausdrucksweise ausschließlich beschreibenden Zwecken und sollten nicht verwendet werden als einschränkend ausgelegt werden. Formulierungen wie „einschließlich“, „umfassen“, „haben“, „enthalten“ oder „beteiligen“ und Variationen davon sollen weit gefasst sein und die nachfolgend aufgeführten Themen, Äquivalente, und zusätzliche Themen, die nicht aufgeführt sind, und sollen andere Additive, Komponenten, Ganzzahlen oder Schritte nicht ausschließen. Ebenso gilt der Begriff „umfassend“ als Synonym für die Begriffe „einschließlich“ oder „enthaltend“ für anwendbare rechtliche Zwecke. Jede Diskussion von Dokumenten, Akten, Materialien, Geräten, Artikeln und dergleichen werden in der Spezifikation ausschließlich zu dem Zweck aufgenommen, einen Kontext für die vorliegende Erfindung bereitzustellen. Es wird nicht angedeutet oder dargestellt, dass einige oder alle dieser Angelegenheiten Teil der Basis des Standes der Technik sind oder es handelte sich um allgemeines Fachwissen auf dem für die vorliegende Erfindung relevanten Gebiet.In this description, the word “may” is used in the permissive sense (i.e., meaning “have the potential to do so”) rather than in the permissive sense (i.e., meaning “must”). In addition, the words “a” or “an” mean “at least one” and the word “plural” means “one or more,” unless otherwise specified. Furthermore, the terminology and language used herein are for descriptive purposes only and should not be construed as limiting. Phrases such as "including", "comprise", "have", "include" or "participate" and variations thereof are intended to be broad and include the following subjects, equivalents, and additional subjects not listed, and other additives, Do not exclude components, integers or steps. Likewise, the term “comprising” is considered synonymous with the terms “including” or “including” for applicable legal purposes. Any discussion of documents, files, materials, devices, articles, and the like are included in the specification solely for the purpose of providing context for the present invention. It is not implied or represented that any or all of these matters form part of the basis of the prior art or are common knowledge in the field relevant to the present invention.

Wenn in dieser Offenbarung einer Zusammensetzung oder einem Element oder einer Gruppe von Elementen die Übergangsformulierung „umfassend“ vorangestellt wird, wird davon ausgegangen, dass wir dieselbe Zusammensetzung, dasselbe Element oder dieselbe Gruppe von Elementen auch mit der Übergangsformulierung „bestehend aus“ in Betracht ziehen, „bestehend“, „ausgewählt aus der Gruppe bestehend aus“, „einschließlich“ oder „ist“ vor der Rezitation der Zusammensetzung, des Elements oder der Gruppe von Elementen und umgekehrt.In this disclosure, when a composition or an element or group of elements is preceded by the transitional phrase “comprising,” it is understood that we are also considering the same composition, element, or group of elements with the transitional phrase “consisting of,” “consisting”, “selected from the group consisting of”, “including” or “is” before the recitation of the composition, element or group of elements and vice versa.

Die vorliegende Erfindung wird im Folgenden anhand verschiedener Ausführungsformen unter Bezugnahme auf die beigefügte Zeichnung beschrieben, wobei in der beigefügten Zeichnung verwendete Bezugszeichen in der gesamten Beschreibung den gleichen Elementen entsprechen. Diese Erfindung kann jedoch in vielen verschiedenen Formen ausgeführt werden und sollte nicht als auf die hier dargelegte Ausführungsform beschränkt ausgelegt werden. Vielmehr wird die Ausführungsform so bereitgestellt, dass diese Offenbarung gründlich und vollständig ist und dem Fachmann den Umfang der Erfindung vollständig vermittelt. In der folgenden detaillierten Beschreibung werden numerische Werte und Bereiche für verschiedene Aspekte der beschriebenen Implementierungen bereitgestellt. Diese Werte und Bereiche sind nur als Beispiele zu betrachten und sollen den Umfang der Ansprüche nicht einschränken. Darüber hinaus werden mehrere Materialien als geeignet für verschiedene Aspekte der Umsetzung identifiziert.The present invention will be described below using various embodiments with reference to the accompanying drawing, wherein reference numerals used in the accompanying drawing correspond to the same elements throughout the description. However, this invention may be embodied in many different forms and should not be construed as limited to the embodiment set forth herein. Rather, the embodiment is provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. In the following detailed description, numerical values and ranges are provided for various aspects of the implementations described. These values and ranges are to be considered as examples only and are not intended to limit the scope of the claims. In addition, several materials are identified as suitable for different aspects of implementation.

1 zeigt ein Blockdiagramm eines Gesichtsidentitätsverifizierungssystems (100), das Faltungs-Neuronale Netzwerke (CNNs) verwendet, wobei das System (100) Folgendes umfasst: eine Kamera (102) zum Erfassen entweder eines Gesichtsbilds oder eines Videostreams eines Benutzers; eine mit der Kamera (102) verbundene Steuereinheit (104) zur Verarbeitung der erfassten Bilder, um die Gesichtsmerkmale des Benutzers zu identifizieren, wobei die Steuereinheit (104) Folgendes umfasst: eine Vorverarbeitungseinheit (106) zur Verarbeitung der erfassten Gesichtszüge Bild zur Normalisierung und Verbesserung des Gesichtsbildes oder des Videostreams; eine Merkmalsextraktionseinheit (108), die mit der Vorverarbeitungseinheit (106) verbunden ist, um den Gesichtsbereich aus dem normalisierten Bild zu extrahieren, indem ein Faltungs-Neuronales Netzwerk (CNNs) verwendet wird, um Gesichtsmerkmale in einem hochdimensionalen Merkmalsraum darzustellen und Ähnlichkeiten zu identifizieren die extrahierten Merkmale und ein in einer Datenbank gespeichertes Bild; und eine Klassifizierungseinheit (110), die mit der Merkmalsextraktionseinheit (108) verbunden ist, um die extrahierten Merkmale basierend auf der Ähnlichkeit der extrahierten Merkmale in mehrere Klassen zu klassifizieren, um die Identität des Benutzers zu identifizieren. 1 shows a block diagram of a facial identity verification system (100) using convolutional neural networks (CNNs), the system (100) comprising: a camera (102) for capturing either a facial image or a video stream of a user; a control unit (104) connected to the camera (102) for processing the captured images to identify the facial features of the user, the control unit (104) comprising: a pre-processing unit (106) for processing the captured facial image for normalization and enhancement the facial image or video stream; a feature extraction unit (108) connected to the pre-processing unit (106) for extracting the facial region from the normalized image by using convolutional neural networks (CNNs) to represent facial features in a high-dimensional feature space and to identify similarities extracted features and an image stored in a database; and a classification unit (110) connected to the feature extraction unit (108) for classifying the extracted features into multiple classes based on the similarity of the extracted features to identify the identity of the user.

In einer Ausführungsform werden die CNNs mithilfe eines umfangreichen Datensatzes gekennzeichneter Gesichtsbilder trainiert, um Unterscheidungsmerkmale wie Augen, Nase, Mund und Gesichtskonturen zu lernen.In one embodiment, the CNNs are trained using a large dataset of labeled facial images to learn distinguishing features such as eyes, nose, mouth, and facial contours.

In einer Ausführungsform ist eine Datenbank (112) mit der Kamera (102) verbunden, um mindestens eine registrierte Gesichtsvorlage des Benutzers zu speichern, die jeweils eindeutige Identitäten darstellt und entsprechenden Personen zugeordnet ist.In one embodiment, a database (112) is connected to the camera (102) to maintain at least one registered facial template of the user to store data that represents unique identities and is assigned to corresponding people.

In einer Ausführungsform führt die Steuereinheit (104) eine Ähnlichkeitsbewertungsberechnung durch, um den Grad der Ähnlichkeit zwischen extrahierten Gesichtsmerkmalen und der in der Datenbank (112) gespeicherten Vorlage zu bestimmen.In one embodiment, the controller (104) performs a similarity score calculation to determine the degree of similarity between extracted facial features and the template stored in the database (112).

In einer Ausführungsform überprüft die Steuereinheit (104) die Identität einer Person auf der Grundlage des Ähnlichkeitswerts.In one embodiment, the control unit (104) checks the identity of a person based on the similarity value.

In einer Ausführungsform umfasst die Vielzahl von Klassen der Klassifizierungseinheit (110) eine erste Klasse zum Angeben der Bilder mit der höchsten Ähnlichkeit und eine zweite Klasse zum Angeben der Bilder mit der geringsten Ähnlichkeit basierend auf den Ähnlichkeitswerten.In one embodiment, the plurality of classes of the classification unit (110) includes a first class for indicating the images with the highest similarity and a second class for indicating the images with the lowest similarity based on the similarity values.

In einer Ausführungsform ist ein Display (114) über ein Kommunikationsmedium (116) mit der Steuereinheit (104) verbunden, um bei erfolgreicher Verifizierung des Gesichtsbildes eine erste Meldung und bei erfolgloser Verifizierung des Gesichtsbildes eine zweite Meldung anzuzeigen.In one embodiment, a display (114) is connected to the control unit (104) via a communication medium (116) in order to display a first message if the facial image is successfully verified and a second message if the facial image is unsuccessfully verified.

In einer Ausführungsform ist das Kommunikationsmedium (116) entweder ein drahtgebundenes oder ein drahtloses Medium, das die Kommunikation zwischen der Steuereinheit (104) und dem Display (114) herstellt, wobei das Kommunikationsmedium (116) aus Bluetooth, ZigBee oder Cloud ausgewählt ist Server, WLAN und LoRa.In one embodiment, the communication medium (116) is either a wired or a wireless medium that establishes communication between the control unit (104) and the display (114), the communication medium (116) being selected from Bluetooth, ZigBee or cloud server, WiFi and LoRa.

In einer Ausführungsform entsperrt die Steuereinheit (104) eine sichere Plattform nach erfolgreicher Überprüfung der Gesichtsidentität des Benutzers.In one embodiment, the controller (104) unlocks a secure platform upon successful verification of the user's facial identity.

In einer Ausführungsform besteht die Steuereinheit entweder aus einem Mikrocontroller oder einem Raspberry Pie zum Erzeugen von Steuersignalen, um bei erfolgreicher Verifizierung eine erste Nachricht anzuzeigen, wenn die erste Klasse identifiziert wird. Die Steuereinheit generiert bei erfolgloser Überprüfung eine zweite Nachricht, wenn die zweite Klasse identifiziert wird. Die erste auf dem Display angezeigte Meldung lautet „Verifizierung erfolgreich“ und die zweite auf dem Display angezeigte Meldung lautet „Verifizierung fehlgeschlagen“.In one embodiment, the control unit consists of either a microcontroller or a Raspberry Pie for generating control signals to display a first message upon successful verification when the first class is identified. If the check is unsuccessful, the control unit generates a second message if the second class is identified. The first message shown on the display is “Verification Successful” and the second message shown on the display is “Verification Failed”.

In einer Ausführungsform handelt es sich bei der Anzeige vorzugsweise um eine 16 x 8 LCD-Anzeigeeinheit, die in unmittelbarer Nähe der Kamera montiert ist.In one embodiment, the display is preferably a 16 x 8 LCD display unit mounted in close proximity to the camera.

Das System zur Überprüfung der Gesichtsidentität mithilfe von Convolutional Neural Networks (CNNs) umfasst ein Gesichtserkennungsmodul zum Lokalisieren und Extrahieren von Gesichtsregionen aus Eingabebildern oder Videostreams sowie ein Merkmalsextraktionsmodul, das CNNs zum Erlernen und Darstellen von Gesichtsmerkmalen in einem hochdimensionalen Merkmalsraum verwendet, eine Datenbank registrierter Gesichtsvorlagen, die jeweils eindeutige Identitäten darstellen und mit entsprechenden Personen verknüpft sind, ein Modul zur Berechnung der Ähnlichkeitsbewertung, um den Grad der Ähnlichkeit zwischen extrahierten Gesichtsmerkmalen und gespeicherten Vorlagen zu bestimmen , und ein Identitätsabgleichsmodul, um die Identität des Individuums anhand der Identität zu überprüfen darauf, dass der Ähnlichkeitswert einen vordefinierten Schwellenwert überschreitet.The facial identity verification system using Convolutional Neural Networks (CNNs) includes a face recognition module for locating and extracting facial regions from input images or video streams, as well as a feature extraction module that uses CNNs to learn and represent facial features in a high-dimensional feature space, a database of registered facial templates, each representing unique identities and linked to corresponding people, a similarity score calculation module to determine the degree of similarity between extracted facial features and stored templates, and an identity matching module to verify the individual's identity based on the identity on that the similarity value exceeds a predefined threshold value.

Gemäß einem Aspekt werden die CNNs im Merkmalsextraktionsmodul mithilfe eines riesigen Datensatzes markierter Gesichtsbilder trainiert, um Unterscheidungsmerkmale zu lernen. Das Facial Identity Verification System umfasst außerdem einen Aktualisierungsmechanismus, um das CNN-Modell regelmäßig mit zusätzlichen Trainingsdaten zu aktualisieren und zu verbessern und so seine Genauigkeit und Anpassungsfähigkeit zu verbessern.According to one aspect, the CNNs in the feature extraction module are trained using a huge dataset of labeled facial images to learn discriminative features. The Facial Identity Verification System also includes an update mechanism to regularly update and improve the CNN model with additional training data to improve its accuracy and adaptability.

Die Gesichtserkennung hat sich zu einer leistungsstarken biometrischen Technologie zur Überprüfung und Identifizierung von Personen anhand von Gesichtsmerkmalen entwickelt. Das hier vorgestellte System zur Überprüfung der Gesichtsidentität nutzt Convolutional Neural Networks (CNNs), eine Art Deep-Learning-Technik, um eine hochpräzise und effiziente Gesichtserkennung zu erreichen. Das System erfasst und analysiert Gesichtsbilder, vergleicht sie mit einer vorhandenen Datenbank und überprüft die Identität der Person.Facial recognition has emerged as a powerful biometric technology for verifying and identifying people based on facial features. The facial identity verification system presented here uses Convolutional Neural Networks (CNNs), a type of deep learning technique, to achieve highly accurate and efficient facial recognition. The system captures and analyzes facial images, compares them with an existing database and verifies the person's identity.

Das Facial Identity Verification System umfasst hochauflösende Kameras zur Erfassung von Gesichtsbildern von Personen. Die Kameras können in verschiedenen Umgebungen installiert werden, beispielsweise an Zugangskontrollpunkten, Smartphones oder Überwachungssystemen. Anschließend werden die Bilder verarbeitet, um Gesichtsmerkmale zu extrahieren und so eine konsistente und standardisierte Darstellung zum Vergleich sicherzustellen.The Facial Identity Verification System includes high-resolution cameras to capture facial images of people. The cameras can be installed in various environments, such as access control points, smartphones or surveillance systems. The images are then processed to extract facial features, ensuring a consistent and standardized representation for comparison.

CNNs werden zur Durchführung von Aufgaben zur Extraktion und Erkennung von Gesichtsmerkmalen eingesetzt. Die Deep-Learning-Architektur von CNNs ermöglicht es dem System, komplexe Gesichtsmuster zu erlernen und zu identifizieren, wodurch es selbst bei unterschiedlichen Lichtverhältnissen, Gesichtsausdrücken und Posen äußerst effektiv bei der Unterscheidung von Personen ist.CNNs are used to perform facial feature extraction and recognition tasks. The deep learning architecture of CNNs allows the system to learn and identify complex facial patterns, making it extremely effective at distinguishing people even in different lighting conditions, facial expressions and poses.

Die aufgenommenen Gesichtsbilder werden vorverarbeitet, um die Qualität zu verbessern und Rauschen zu eliminieren. Die CNNs extrahieren dann wichtige Gesichtsmerkmale wie Augen, Nase, Mund und Gesichtskonturen. Diese Merkmale werden in hochdimensionale Merkmalsvektoren kodiert und bilden so eine einzigartige Gesichtsdarstellung für jede Person.The captured facial images are pre-processed to improve quality and eliminate noise. The CNNs then extract key facial features such as eyes, nose, mouth and facial contours. These features are encoded into high-dimensional feature vectors, forming a unique facial representation for each person.

Um die Identität einer Person zu überprüfen, werden die extrahierten Gesichtsmerkmale mit einer bereits vorhandenen Datenbank bekannter Identitäten verglichen. Die Datenbank enthält Merkmalsvektoren autorisierter Personen als Referenz. Die CNNs verwenden Ähnlichkeitsmetriken, um die Ähnlichkeit zwischen den eingegebenen Gesichtsmerkmalen und den Datenbankeinträgen zu berechnen und so die Identitätsübereinstimmung zu bestimmen.To verify a person's identity, the extracted facial features are compared to an existing database of known identities. The database contains feature vectors of authorized people for reference. The CNNs use similarity metrics to calculate the similarity between the input facial features and the database entries to determine identity match.

Das Facial Identity Verification System ist für die Echtzeitverarbeitung optimiert und ermöglicht eine schnelle und effiziente Überprüfung. Das System liefert zeitnahe Ergebnisse und eignet sich daher für Hochsicherheitsanwendungen und zeitkritische Szenarien.The Facial Identity Verification System is optimized for real-time processing, enabling fast and efficient verification. The system delivers timely results and is therefore suitable for high-security applications and time-critical scenarios.

Um Datensicherheit und Datenschutz zu gewährleisten, werden die biometrischen Daten von Personen verschlüsselt und in einer sicheren Datenbank gespeichert. Das System befolgt strenge Datenschutzprotokolle, um unbefugten Zugriff und Missbrauch personenbezogener Daten zu verhindern.To ensure data security and privacy, people's biometric data is encrypted and stored in a secure database. The system follows strict data protection protocols to prevent unauthorized access and misuse of personal data.

Die CNNs werden zunächst anhand eines großen Datensatzes von Gesichtsbildern trainiert, um Gesichtsmuster und -merkmale zu lernen. Während das System in realen Szenarien arbeitet, passt es seine Modelle kontinuierlich anhand neu erfasster Daten an und aktualisiert sie, wodurch seine Genauigkeit und Anpassungsfähigkeit verbessert wird.The CNNs are first trained on a large dataset of facial images to learn facial patterns and features. As the system operates in real-world scenarios, it continually adjusts and updates its models based on newly acquired data, improving its accuracy and adaptability.

Das System zur Überprüfung der Gesichtsidentität kann in verschiedene Anwendungen integriert werden, einschließlich, aber nicht beschränkt auf, Zugangskontrollsysteme, sichere Einrichtungen, Online-Authentifizierungsprozesse und Überwachungssysteme. Seine Vielseitigkeit und Genauigkeit machen es zu einer wertvollen Lösung für die Identitätsprüfung in verschiedenen Branchen.The facial identity verification system can be integrated into various applications including, but not limited to, access control systems, secure facilities, online authentication processes and surveillance systems. Its versatility and accuracy make it a valuable solution for identity verification in various industries.

Während im Vorstehenden verschiedene Ausführungsformen der Erfindung beschrieben werden, können andere und weitere Ausführungsformen der Erfindung entwickelt werden, ohne von ihrem Grundumfang abzuweichen. Der Umfang der Erfindung wird durch die folgenden Ansprüche bestimmt. Die Erfindung ist nicht auf die beschriebenen Ausführungsformen, Versionen oder Beispiele beschränkt, die enthalten sind, um es einer Person mit durchschnittlichem Fachwissen zu ermöglichen, die Erfindung in Kombination mit Informationen und Kenntnissen, die dem Fachmann auf diesem Gebiet zur Verfügung stehen, umzusetzen und zu nutzen.While various embodiments of the invention have been described above, other and further embodiments of the invention may be devised without departing from its basic scope. The scope of the invention is determined by the following claims. The invention is not limited to the described embodiments, versions or examples, which are included to enable a person of ordinary skill in the art to practice and use the invention in combination with information and knowledge available to those skilled in the art to use.

Somit wird der Umfang der vorliegenden Offenbarung durch die beigefügten Ansprüche definiert und umfasst sowohl Kombinationen als auch Unterkombinationen der verschiedenen oben beschriebenen Merkmale sowie Variationen und Modifikationen davon, die dem Fachmann beim Lesen der vorstehenden Beschreibung in den Sinn kommen würden .Thus, the scope of the present disclosure is defined by the appended claims and includes both combinations and subcombinations of the various features described above, as well as variations and modifications thereof that would come to mind to those skilled in the art upon reading the foregoing description.

REFERENZENCREDENTIALS

100100
Ein System zur Überprüfung der Gesichtsidentität (100) unter Verwendung von Faltungsneuronalen Netzen (CNNs).A facial identity verification system (100) using convolutional neural networks (CNNs).
102102
Kameracamera
104104
SteuereinheitControl unit
106106
VorverarbeitungseinheitPreprocessing unit
108108
MerkmalsextraktionseinheitFeature extraction unit
110110
KlassifizierungseinheitClassification unit
112112
DatenbankDatabase
114114
AnzeigeAdvertisement
116116
KommunikationsmediumCommunication medium

Claims (9)

Ein Gesichtsidentitätsverifizierungssystem (100), das Faltungs-Neuronale Netzwerke (CNNs) verwendet, wobei das System (100) Folgendes umfasst: eine Kamera (102) zum Erfassen entweder eines Gesichtsbilds oder eines Videostreams eines Benutzers; eine Steuereinheit (104), die mit der Kamera (102) verbunden ist, um die aufgenommenen Bilder zu verarbeiten, um die Gesichtsmerkmale des Benutzers zu identifizieren, wobei die Steuereinheit (104) Folgendes umfasst: eine Vorverarbeitungseinheit (106) zum Verarbeiten des erfassten Gesichtsbilds, um das Gesichtsbild oder den Videostream zu normalisieren und zu verbessern; eine Merkmalsextraktionseinheit (108), die mit der Vorverarbeitungseinheit (106) verbunden ist, um den Gesichtsbereich aus dem normalisierten Bild zu extrahieren, indem ein Faltungs-Neuronales Netzwerk (CNNs) verwendet wird, um Gesichtsmerkmale in einem hochdimensionalen Merkmalsraum darzustellen und Ähnlichkeiten zu identifizieren die extrahierten Merkmale und ein in einer Datenbank gespeichertes Bild; und eine Klassifizierungseinheit (110), die mit der Merkmalsextraktionseinheit (108) verbunden ist, um die extrahierten Merkmale auf der Grundlage der Ähnlichkeit der extrahierten Merkmale in mehrere Klassen zu klassifizieren, um die Identität des Benutzers zu identifizieren.A facial identity verification system (100) using convolutional neural networks (CNNs), the system (100) comprising: a camera (102) for capturing either a facial image or a video stream of a user; a control unit (104) connected to the camera (102) for processing the captured images to identify the facial features of the user, the control unit (104) comprising: a pre-processing unit (106) for processing the captured facial image to normalize and enhance the facial image or video stream; a feature extraction unit (108) connected to the pre-processing unit (106) for extracting the facial region from the normalized image by using convolutional neural networks (CNNs) to represent facial features in a high-dimensional feature space and to identify similarities extracted features and one in one Database stored image; and a classification unit (110) connected to the feature extraction unit (108) for classifying the extracted features into multiple classes based on the similarity of the extracted features to identify the identity of the user. Das System nach Anspruch 1, wobei die CNNs mithilfe eines riesigen Datensatzes markierter Gesichtsbilder trainiert werden, um Unterscheidungsmerkmale wie Augen, Nase, Mund und Gesichtskonturen zu lernen.The system according to Claim 1 , where the CNNs are trained using a huge dataset of labeled facial images to learn distinguishing features such as eyes, nose, mouth and facial contours. System nach Anspruch 1, wobei eine Datenbank (112) mit der Kamera (102) verbunden ist, um mindestens eine registrierte Gesichtsvorlage des Benutzers zu speichern, die jeweils eindeutige Identitäten darstellt und entsprechenden Personen zugeordnet ist.System after Claim 1 , wherein a database (112) is connected to the camera (102) to store at least one registered facial template of the user, each representing unique identities and associated with corresponding people. System nach Anspruch 1, wobei die Steuereinheit (104) eine Ähnlichkeitsbewertungsberechnung durchführt, um den Grad der Ähnlichkeit zwischen extrahierten Gesichtsmerkmalen und der in der Datenbank (112) gespeicherten Vorlage zu bestimmen.System after Claim 1 , wherein the control unit (104) performs a similarity score calculation to determine the degree of similarity between extracted facial features and the template stored in the database (112). System nach Anspruch 1, wobei die Steuereinheit (104) die Identität einer Person anhand des Ähnlichkeitswerts überprüft.System after Claim 1 , wherein the control unit (104) checks the identity of a person based on the similarity value. System nach Anspruch 1, wobei die mehreren Klassen der Klassifizierungseinheit (110) eine erste Klasse zum Angeben der Bilder mit der höchsten Ähnlichkeit und eine zweite Klasse zum Angeben der Bilder mit der geringsten Ähnlichkeit basierend auf den Ähnlichkeitswerten umfassen.System after Claim 1 , wherein the plurality of classes of the classification unit (110) include a first class for indicating the images with the highest similarity and a second class for indicating the images with the lowest similarity based on the similarity values. System nach Anspruch 1, wobei eine Anzeige (114) über ein Kommunikationsmedium (116) mit der Steuereinheit (104) verbunden ist, um bei erfolgreicher Überprüfung des Gesichtsbildes eine erste Nachricht und bei erfolgloser Überprüfung eine zweite Nachricht anzuzeigen das Gesichtsbild.System after Claim 1 , wherein a display (114) is connected to the control unit (104) via a communication medium (116) in order to display a first message if the facial image is checked successfully and a second message if the facial image is checked unsuccessfully. System nach Anspruch 7, wobei das Kommunikationsmedium (116) entweder ein drahtgebundenes oder ein drahtloses Medium ist, das die Kommunikation zwischen der Steuereinheit (104) und der Anzeige (114) herstellt, wobei das Kommunikationsmedium (116) ausgewählt ist aus Bluetooth, ZigBee, Cloud-Server, WLAN und LoRa.System after Claim 7 , wherein the communication medium (116) is either a wired or a wireless medium that establishes communication between the control unit (104) and the display (114), the communication medium (116) being selected from Bluetooth, ZigBee, cloud server, WiFi and LoRa. System nach Anspruch 1, wobei die Steuereinheit (104) nach erfolgreicher Überprüfung der Gesichtsidentität des Benutzers eine sichere Plattform entsperrt.System after Claim 1 , wherein the control unit (104) unlocks a secure platform after successful verification of the user's facial identity.
DE202023107335.2U 2023-12-12 2023-12-12 Facial identity verification system using convolutional neural networks Active DE202023107335U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202023107335.2U DE202023107335U1 (en) 2023-12-12 2023-12-12 Facial identity verification system using convolutional neural networks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202023107335.2U DE202023107335U1 (en) 2023-12-12 2023-12-12 Facial identity verification system using convolutional neural networks

Publications (1)

Publication Number Publication Date
DE202023107335U1 true DE202023107335U1 (en) 2024-01-10

Family

ID=89809161

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202023107335.2U Active DE202023107335U1 (en) 2023-12-12 2023-12-12 Facial identity verification system using convolutional neural networks

Country Status (1)

Country Link
DE (1) DE202023107335U1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118334758A (en) * 2024-06-12 2024-07-12 广东博科电子科技有限公司 Image recognition method and system applied to building access control system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118334758A (en) * 2024-06-12 2024-07-12 广东博科电子科技有限公司 Image recognition method and system applied to building access control system
CN118334758B (en) * 2024-06-12 2024-08-23 广东博科电子科技有限公司 Image recognition method and system applied to building access control system

Similar Documents

Publication Publication Date Title
DE102018115440A1 (en) Techniques for training deep neural networks
DE112019000631T5 (en) USING GRADIENTS TO DETECT BACKDOORS IN NEURAL NETWORKS
DE112018002166T5 (en) Cyclical opposing generation network for unsupervised cross-domain image generation
DE102017220896A1 (en) Method and device for security control
DE112019000334T5 (en) VALIDATE THE IDENTITY OF A REMOTE USER BY COMPARISON ON THE BASIS OF THRESHOLD VALUES
JP2022532177A (en) Forged face recognition methods, devices, and non-temporary computer-readable storage media
DE202017007528U1 (en) Difference metric for machine learning based processing systems
WO2000021021A1 (en) Methods and system for recognizing people with model-based face detection
DE102014223226A1 (en) Discriminator, discrimination program and discrimination procedure
DE102019204318A1 (en) Automatic detection and classification of adversarial attacks
DE102016222036A1 (en) System for visual object and event detection and prediction using saccades
DE202023107335U1 (en) Facial identity verification system using convolutional neural networks
CN107832740A (en) The Method of Teaching Quality Evaluation and system of a kind of remote teaching
DE102022202017A1 (en) Concept-based adversarial generation method with controllable and diverse semantics
DE102016011055A1 (en) Identify shapes in an image by comparing Bézier curves
DE102023125422A1 (en) Hybrid object detection method based on thermal images in combination with YOLO models and object tracking techniques
DE112019006414T5 (en) Device and method for the detection of people
DE102023202402A1 (en) System and method for improving the robustness of pre-trained systems in deep neural networks using randomization and sample rejection
DE4407998C2 (en) Method and device for recognizing a pattern on a document
DE102019207566A1 (en) Method for controlling a safety system of a charging station for charging electric vehicles
DE112021006507T5 (en) SPATIO-TEMPORALLY DEEP LEARNING FOR BEHAVIORAL BIOMETRY
CH717006A2 (en) Procedure for user identification.
DE102013213532A1 (en) Method and system for recognizing a gesture
DE202022107266U1 (en) A face recognition system to distinguish between similar faces
WO2016131812A1 (en) Mobile device for capturing a text range on an identification document

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LIPPERT STACHOW PATENTANWAELTE RECHTSANWAELTE , DE

R207 Utility model specification