DE102018131805A1 - DEVICE FOR DETECTING A FACIAL POSITION - Google Patents
DEVICE FOR DETECTING A FACIAL POSITION Download PDFInfo
- Publication number
- DE102018131805A1 DE102018131805A1 DE102018131805.7A DE102018131805A DE102018131805A1 DE 102018131805 A1 DE102018131805 A1 DE 102018131805A1 DE 102018131805 A DE102018131805 A DE 102018131805A DE 102018131805 A1 DE102018131805 A1 DE 102018131805A1
- Authority
- DE
- Germany
- Prior art keywords
- face
- detecting
- facial
- distance
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Ophthalmology & Optometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- Traffic Control Systems (AREA)
Abstract
Eine Vorrichtung zum Erfassen einer Gesichtsposition enthält: einen Bildanalysator, der dazu eingerichtet ist, ein Bild eines durch eine Abbildungseinheit abgebildeten Gesichts zu analysieren und eine Positionsbeziehung zwischen mindestens zwei charakteristischen Punkten in dem Gesicht zu entnehmen; und eine Gesichtspositionsberechnungsvorrichtung, die zum Berechnen einer Position des Gesichts eingerichtet ist. Die Gesichtspositionsberechnungsvorrichtung berechnet bei Bedienung eines Bedienbildschirms eine Position des Gesichts in einem Raum gemäß Positionsbeziehungen zwischen dem abgebildeten Gesicht, der Abbildungseinheit und einer Bedieneinheit, und, außer bei der Bedienung, gemäß der Positionsbeziehung zwischen den mindestens zwei charakteristischen Punkten, die der Bildanalysator aus dem abgebildeten Gesicht entnimmt, und Positionsbeziehungen zwischen mehreren Positionen des Gesichts und mehreren der mindestens zwei charakteristischen Punkte, die den mehreren Gesichtspositionen entsprechen, welche bei jeweiligen Bedienungen erhalten wurden. An apparatus for detecting a facial position includes: an image analyzer configured to analyze an image of a face imaged by an imaging unit and to extract a positional relationship between at least two characteristic points in the face; and a face position calculating device configured to calculate a position of the face. The face position calculator, when operating an operation screen, calculates a position of the face in a space according to positional relationships between the imaged face, the imaging unit and an operation unit, and, except in the operation, according to the positional relationship between the at least two characteristic points that the image analyzer is imaged from the imaged one Face and position relationships between multiple positions of the face and a plurality of the at least two characteristic points corresponding to the multiple face positions, which were obtained at respective operations.
Description
QUERVERWEIS AUF ZUGEHÖRIGE ANMELDUNGCROSS-REFERENCE TO RELATED APPLICATION
Diese Anmeldung basiert auf der japanischen Patentanmeldung mit der Nr. 2017-236658, die am 11. Dezember 2017 beim japanischen Patentamt eingereicht wurde, wobei deren gesamter Inhalt hierin durch Bezugnahme aufgenommen ist.This application is based on Japanese Patent Application No. 2017-236658 filed on Dec. 11, 2017, in the Japan Patent Office, the entire contents of which are incorporated herein by reference.
GEBIET DER ERFINDUNGFIELD OF THE INVENTION
Die vorliegende Erfindung betrifft eine Vorrichtung zum Erfassen der Gesichtsposition eines Fahrzeugführers oder dergleichen.The present invention relates to a device for detecting the facial position of a vehicle driver or the like.
STAND DER TECHNIKSTATE OF THE ART
In einem Fahrzeug besteht der Bedarf nach einer Anwendung, die dazu eingerichtet ist, zu bestimmen, wohin ein Fahrer schaut, und entsprechend eine vorbestimmte Steuerung durchzuführen. Beispielsweise wird in einem Fall, in dem der Fahrer einen Rückspiegel betrachtet, eine Nachricht oder ein Bild auf dem Rückspiegel angezeigt, oder es wird in einem Fall, in dem der Fahrer ein Anzeigeinstrument nicht beobachtet, wenn der Fahrer das Anzeigeinstrument prüfen soll, eine Warnung an den Fahrer ausgegeben. Beim Bestimmen eines solchen visuell erkannten Abschnitts ist es notwendig, die Blickrichtung des Fahrers und die Gesichtsposition in dem Raum (zum Beispiel die Entfernung von einer Referenzposition) zu erfassen.In a vehicle, there is a need for an application that is configured to determine where a driver is looking and to perform a predetermined control accordingly. For example, in a case where the driver is looking at a rearview mirror, a message or image is displayed on the rearview mirror, or in a case where the driver is not observing a gauge when the driver is to check the gauge, a warning issued to the driver. In determining such a visually recognized portion, it is necessary to detect the driver's line of sight and the face position in the space (for example, the distance from a reference position).
Ein Beispiel eines Detektors des Gesichts des Fahrers ist ein Fahrerüberwachungsgerät mit einer Kamera. Das Fahrerüberwachungsgerät ist eine Vorrichtung, die den Zustand eines Fahrers gemäß dem von der Kamera aufgenommenen Gesichtsbild des Fahrers überwacht und eine vorbestimmte Steuerung durchführt, beispielsweise einen Alarm ausgibt, wenn der Fahrer während des Fahrens einnickt oder zur Seite schaut. Aus dem Gesichtsbild, das durch das Fahrerüberwachungsgerät erhalten wird, können Informationen über die Blickrichtung erhalten werden; Informationen über die Gesichtsposition in dem Raum können jedoch nicht erhalten werden. Daher ist es unmöglich, nur anhand des Gesichtsbilds, das durch das Fahrerüberwachungsgerät erhalten wird, zu bestimmen, wohin der Fahrer schaut.An example of a detector of the driver's face is a driver monitor with a camera. The driver monitoring apparatus is a device which monitors the condition of a driver according to the driver's facial image taken by the camera and performs predetermined control, for example, gives an alarm when the driver nods or looks aside while driving. Information about the viewing direction can be obtained from the facial image obtained by the driver monitoring device; However, information about the facial position in the room can not be obtained. Therefore, it is impossible to determine where the driver is looking only from the facial image obtained by the driver monitor.
Die
Als Verfahren zum Erfassen der Gesichtsposition in dem Raum ist es denkbar, mehrere Kameras vorzusehen oder einen dezidierten Sensor vorzusehen. Bei diesen Verfahren nimmt jedoch die Anzahl der Komponenten zu, die Konfiguration wird kompliziert und die Kosten sind hoch.As a method for detecting the face position in the room, it is conceivable to provide a plurality of cameras or to provide a dedicated sensor. In these methods, however, the number of components increases, the configuration becomes complicated, and the cost is high.
KURZDARSTELLUNGSUMMARY
Eine Aufgabe der vorliegenden Erfindung besteht darin, eine Vorrichtung zum Erfassen einer Gesichtsposition zu realisieren, die eine Gesichtsposition in einem Raum ohne komplizierte Konfiguration erfassen kann.An object of the present invention is to realize a face position detecting apparatus which can detect a face position in a room without a complicated configuration.
Eine Vorrichtung zum Erfassen einer Gesichtsposition gemäß der vorliegenden Erfindung enthält bzw. umfasst: eine Bilderfassungs- bzw. Abbildungseinheit, die dazu eingerichtet ist, ein Gesicht eines Benutzers abzubilden, eine Bedieneinheit, die dazu eingerichtet ist, eine vorbestimmte Eingabe von dem Benutzer, der einen Bedienbildschirm bedient bzw. betätigt, zu empfangen; einen Bildanalysator, der dazu eingerichtet ist, ein Bild des durch die Abbildungseinheit abgebildeten Gesichts zu analysieren und eine Positionsbeziehung zwischen mindestens zwei charakteristischen Punkten in dem Gesicht bzw. des Gesichts in dem bzw. aus dem Bild zu entnehmen; und eine Gesichtspositionsberechnungsvorrichtung, die dazu eingerichtet ist, eine Position des von der Bilderfassungseinheit bzw. Abbildungseinheit abgebildeten Gesichts zu berechnen. Bei einer Betätigung bzw. Bedienung des Bedienbildschirms berechnet die Gesichtspositionsberechnungsvorrichtung eine Position des Gesichts in einem Raum gemäß Positionsbeziehungen zwischen dem abgebildeten Gesicht, der Abbildungseinheit und der Bedieneinheit. Außer bei der Betätigung bzw. Bedienung berechnet die Gesichtspositionsberechnungsvorrichtung eine Position des Gesichts in dem Raum gemäß der Positionsbeziehung zwischen den mindestens zwei charakteristischen Punkten, die der Bildanalysator aus dem abgebildeten Gesicht entnimmt, und Positionsbeziehungen zwischen mehreren Positionen des Gesichts und mehreren charakteristischen Punkten, die jeweils den mehreren Positionen des Gesichts entsprechen, welche bei jeweiligen Betätigungen bzw. Bedienungen erhalten wurden.An apparatus for detecting a facial position according to the present invention includes: an image acquisition unit configured to image a face of a user, an operation unit configured to input a predetermined input from the user, the one Operating screen operated to receive; an image analyzer configured to analyze an image of the face imaged by the imaging unit and to extract a positional relationship between at least two characteristic points in the face in the image; and a face position calculation device configured to calculate a position of the face imaged by the image capture unit. Upon operation of the operation screen, the face position calculation device calculates a position of the face in a space according to positional relationships between the imaged face, the imaging unit, and the operation unit. Besides the operation, the face position calculating means calculates a position of the face in the space according to the positional relationship between the at least two characteristic points which the image analyzer takes from the imaged face and positional relationships between a plurality of positions of the face and a plurality of characteristic points, respectively correspond to the multiple positions of the face which were obtained at respective operations.
Gemäß einer solchen Vorrichtung zum Erfassen einer Gesichtsposition wird bei Betätigung bzw. Bedienung der Bedieneinheit die Positionsbeziehung zwischen charakteristischen Punkten (zum Beispiel dem Abstand zwischen den Augen) aus einem Gesichtsbild entnommen, und eine Gesichtsposition in dem Raum wird gemäß den Positionsbeziehungen zwischen dem abgebildeten Gesicht, der Abbildungseinheit und der Bedieneinheit berechnet. Wenn die Bedieneinheit nicht betätigt bzw. bedient wird, wird eine Gesichtsposition in dem Raum gemäß der Positionsbeziehung zwischen den aus einem Gesichtsbild entnommenen charakteristischen Punkten und Positionsbeziehungen zwischen mehreren Gesichtspositionen und charakteristischen Punkten, die bei jeweiligen Betätigungen bzw. Bedienungen erhalten werden, berechnet. Daher ist es möglich, die Gesichtsposition in dem Raum mit einer einfachen Konfiguration zu erfassen, ohne mehrere Abbildungseinheiten vorzusehen oder einen dezidierten Sensor vorzusehen. According to such a face position detecting apparatus, upon operation of the operation unit, the positional relationship between characteristic points (for example, the distance between the eyes) is extracted from a face image, and a face position in the space is determined according to the positional relationships between the imaged face, of the imaging unit and the control unit. When the operation unit is not operated, a face position in the space is calculated according to the positional relationship between the characteristic points extracted from a face image and positional relationships between a plurality of face positions and characteristic points obtained at respective operations. Therefore, it is possible to detect the facial position in the room with a simple configuration without providing a plurality of imaging units or providing a dedicated sensor.
Bei der vorliegenden Erfindung kann die Gesichtspositionsberechnungsvorrichtung bei Betätigung bzw. Bedienung des Bedienbildschirms geometrisch eine Position des Gesichts in dem Raum gemäß einem Winkel des Gesichts in Bezug auf die Abbildungseinheit, einem Winkel der Blickrichtung bzw. eines Blickrichtungswinkels des Benutzers, der den Bedienbildschirm betrachtet, und einer Entfernung von der Abbildungseinheit zu einem Bedienpunkt auf dem Bedienbildschirm berechnen.In the present invention, upon operation of the operation screen, the face position calculation device may geometrically determine a position of the face in the space according to an angle of the face with respect to the imaging unit, an angle of sight, or a viewing direction angle of the user viewing the operation screen, and calculate a distance from the imaging unit to a control point on the control panel.
Die vorliegende Erfindung kann eine Einheit zum Erzeugen eines annähernden Ausdrucks bzw. Näherungsausdrucks enthalten, welche dazu eingerichtet ist, einen annähernden Ausdruck bzw. Näherungsausdruck zur Berechnung einer Position des Gesichts aus der Positionsbeziehung der mindestens zwei charakteristischen Punkte zu erzeugen. Die Einheit zum Erzeugen eines Näherungsausdrucks sammelt statistische Daten, die durch Zuordnung der Positionsbeziehung der mindestens zwei charakteristischen Punkte, welche durch den Bildanalysator bei jeder Betätigung bzw. Bedienung des Bedienbildschirms entnommen werden, zu einer Position des Gesichts, welche durch die Gesichtspositionsberechnungsvorrichtung bei jeder Betätigung bzw. Bedienung des Bedienbildschirms berechnet wird, erhalten werden, und erzeugt den Näherungsausdruck gemäß den statistischen Daten.The present invention may include an approximate expression generating unit configured to generate an approximate expression for calculating a position of the face from the positional relationship of the at least two characteristic points. The approximate expression generating unit collects statistical data obtained by assigning the positional relationship of the at least two characteristic points extracted by the image analyzer at each operation of the operation screen to a position of the face detected by the face position calculating device at each operation Operation of the control screen is calculated, and generates the approximate expression according to the statistical data.
In der vorliegenden Erfindung kann die Einheit zum Erzeugen eines Näherungsausdrucks den Näherungsausdruck jedes Mal aktualisieren, wenn der Bedienbildschirm bedient wird.In the present invention, the approximate expression generating unit may update the approximate expression each time the operation screen is operated.
Die vorliegende Erfindung kann ferner eine Bestimmungseinheit für einen visuell erkannten bzw. betrachteten Abschnitt bzw. eine Einheit zur Bestimmung eines visuell erkannten bzw. betrachteten Abschnitts umfassen, die dazu eingerichtet ist, einen Abschnitt, den der Benutzer visuell erkennt bzw. betrachtet, zu bestimmen, entsprechend bzw. gemäß einer Position des Gesichts in dem Raum, die die Gesichtspositionsberechnungsvorrichtung berechnet, und einer Blickrichtung des Benutzers, die der Bildanalysator entnimmt.The present invention may further include a visually recognized portion determination unit for setting a visually recognized portion configured to determine a portion that the user visually recognizes, according to a position of the face in the space that the face position calculating device calculates and a viewing direction of the user that the image analyzer extracts.
In der vorliegenden Erfindung kann die Position des Gesichts in dem Raum eine Entfernung von der Abbildungseinheit zu einem vorbestimmten Teil des Gesichts sein.In the present invention, the position of the face in the space may be a distance from the imaging unit to a predetermined part of the face.
In der vorliegenden Erfindung kann die Bedieneinheit aus einem Touch Panel bzw. interaktiven Bedienfeld bzw. Bildschirm-Tastfeld gebildet sein. Dieses Touch Panel kann ein Touch Panel einer an einem Fahrzeug montierten Fahrzeugnavigationsvorrichtung sein.In the present invention, the operating unit can be formed from a touch panel or interactive touch panel. This touch panel may be a touch panel of a vehicle-mounted vehicle navigation device.
In der vorliegenden Erfindung kann die Abbildungseinheit eine Kamera eines Fahrerüberwachungsgeräts sein, das an einem Fahrzeug montiert ist, und dazu eingerichtet ist, den Zustand eines Fahrers zu überwachen.In the present invention, the imaging unit may be a camera of a driver monitoring apparatus mounted on a vehicle and configured to monitor the condition of a driver.
Gemäß der vorliegenden Erfindung ist es möglich, eine Vorrichtung zum Erfassen einer Gesichtsposition bereitzustellen, die dazu in der Lage ist, die Gesichtsposition in dem Raum mit einer einfachen Konfiguration zu erfassen.According to the present invention, it is possible to provide a face position detecting apparatus capable of detecting the face position in the room with a simple configuration.
Figurenlistelist of figures
-
1 ist ein Blockdiagramm einer Vorrichtung zum Erfassen einer Gesichtsposition gemäß einer Ausführungsform der vorliegenden Erfindung.1 FIG. 10 is a block diagram of an apparatus for detecting a facial position according to an embodiment of the present invention. FIG. -
2 ist eine Darstellung zur Erläuterung der Abbildung des Gesichts eines Fahrers.2 Fig. 13 is a diagram for explaining the image of a driver's face. -
3 ist eine Darstellung zur Erläuterung einer Blickrichtung eines Fahrers.3 is a diagram for explaining a viewing direction of a driver. -
4 ist eine Darstellung zur Erläuterung eines Prinzips zur Erfassung einer Gesichtsposition gemäß der vorliegenden Erfindung.4 Fig. 13 is a diagram for explaining a principle for detecting a facial position according to the present invention. -
5 ist ein Diagramm, das einen Näherungsausdruck zur Berechnung einer Gesichtsposition veranschaulicht.5 is a diagram illustrating a proximity expression for calculating a facial position. -
6 ist ein Flussdiagramm, das den Betrieb der Vorrichtung zum Erfassen einer Gesichtsposition veranschaulicht.6 FIG. 10 is a flowchart illustrating the operation of the face position detecting apparatus. FIG. -
7 ist ein Blockdiagramm einer Vorrichtung zum Erfassen einer Gesichtsposition gemäß einer anderen Ausführungsform.7 Fig. 10 is a block diagram of a device for detecting a facial position according to another embodiment. -
8 ist ein Flussdiagramm, dass den Betrieb gemäß der anderen Ausführungsform veranschaulicht.8th FIG. 10 is a flowchart illustrating the operation according to the other embodiment. FIG.
DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION
Ausführungsformen einer Vorrichtung zum Erfassen einer Gesichtsposition gemäß der vorliegenden Erfindung werden nachstehend unter Bezugnahme auf die Zeichnungen beschrieben. Im Folgenden wird als Beispiel eine Vorrichtung beschrieben, die an einem Fahrzeug montiert ist und zum Erfassen der Gesichtsposition des Fahrers eingerichtet ist.Embodiments of a face position detecting apparatus according to the present invention will be described below with reference to the drawings. Hereinafter, as an example, an apparatus mounted on a vehicle and configured to detect the driver's face position will be described.
Zuerst wird die Konfiguration der Vorrichtung zum Erfassen einer Gesichtsposition unter Bezugnahme auf
Wie in
Der Signalprozessor
Das Touch Panel
Der Bedienpunktdetektor
Wenn der Bedienbildschirm
Die Einheit zum Erzeugen eines Näherungsausdrucks
Die Steuereinrichtung
Es sei angemerkt, dass die Funktionen des Bildanalysators
Als nächstes wird das Prinzip der Erfassung der Gesichtsposition in dem Raum unter Verwendung der oben beschriebenen Vorrichtung zum Erfassen einer Gesichtsposition
Wie
Wie
In
Jedes Mal, wenn der Bedienbildschirm
Wie oben beschrieben, berechnet die Gesichtspositionsberechnungsvorrichtung
Informationen über die Gesichtsposition (Entfernung D), die auf diese Weise von der Gesichtspositionsberechnungsvorrichtung
Wie oben beschrieben wird bei der Ausführungsform, wenn das Touch Panel
In Schritt
In Schritt
In Schritt
In Schritt
In der Vorrichtung zum Erfassen einer Gesichtsposition
In
In der vorliegenden Erfindung können zusätzlich zu den oben beschriebenen Ausführungsformen verschiedene Ausführungsformen verwendet werden, die im Folgenden beschrieben werden.In the present invention, in addition to the above-described embodiments, various embodiments may be used, which will be described below.
In den obigen Ausführungsformen wird ein Beispiel beschrieben, bei dem der Näherungsausdruck Fn aus den statistischen Daten ermittelt wird, welche durch Zuordnung des Abstands Δd zwischen den Augen (der Positionsbeziehung der charakteristischen Punkte) zu der Entfernung
In den obigen Ausführungsformen wird der Abstand Δd zwischen den Augen
In den obigen Ausführungsformen wird die Entfernung
In den obigen Ausführungsformen wird ein Beispiel beschrieben, bei dem die Entfernung
In den obigen Ausführungsformen wird das Touch Panel
In den obigen Ausführungsformen wird ein Beispiel beschrieben, bei dem die Steuereinrichtung
In den obigen Ausführungsformen wird die Vorrichtung zum Erfassen einer Gesichtsposition zum Erfassen des Gesichts eines Fahrzeugführers als ein Beispiel beschrieben. Die vorliegende Erfindung kann jedoch auch auf eine Vorrichtung zum Erfassen einer Gesichtsposition für andere Zwecke angewandt werden.In the above embodiments, the device for detecting a face position for detecting the face of a driver is described as an example. However, the present invention can also be applied to an apparatus for detecting a facial position for other purposes.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- JP 2007230369 A [0005]JP 2007230369 A [0005]
- JP 2012 [0005]JP 2012 [0005]
- JP 208714 A [0005]JP 208714A [0005]
- JP 2014049023 A [0005]JP 2014049023A [0005]
Claims (9)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017236658A JP6791108B2 (en) | 2017-12-11 | 2017-12-11 | Face position detector |
JP2017-236658 | 2017-12-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018131805A1 true DE102018131805A1 (en) | 2019-06-13 |
Family
ID=66629467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018131805.7A Pending DE102018131805A1 (en) | 2017-12-11 | 2018-12-11 | DEVICE FOR DETECTING A FACIAL POSITION |
Country Status (4)
Country | Link |
---|---|
US (1) | US10776944B2 (en) |
JP (1) | JP6791108B2 (en) |
CN (1) | CN110059530B (en) |
DE (1) | DE102018131805A1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6822482B2 (en) | 2016-10-31 | 2021-01-27 | 日本電気株式会社 | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium |
AU2019369206A1 (en) | 2019-12-16 | 2021-07-01 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for distinguishing a driver and passengers in an image captured inside a vehicle |
US11370360B2 (en) | 2019-12-25 | 2022-06-28 | Panasonic Intellectual Property Management Co., Ltd. | Display system |
CN111709348A (en) * | 2020-06-11 | 2020-09-25 | 苏州百胜动力机器股份有限公司 | Outboard engine safe driving control system based on driver face monitoring |
CN111950348A (en) * | 2020-06-29 | 2020-11-17 | 北京百度网讯科技有限公司 | Method and device for identifying wearing state of safety belt, electronic equipment and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007230369A (en) | 2006-03-01 | 2007-09-13 | Toyota Motor Corp | On-vehicle apparatus adjusting device |
JP2012208714A (en) | 2011-03-29 | 2012-10-25 | Kyocera Corp | Portable electronic device |
JP2014049023A (en) | 2012-09-03 | 2014-03-17 | Sharp Corp | Input device |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004177315A (en) * | 2002-11-28 | 2004-06-24 | Alpine Electronics Inc | Apparatus for detecting direction of line of vision, dialog system using it, and driving support system |
JP5251547B2 (en) * | 2008-06-06 | 2013-07-31 | ソニー株式会社 | Image photographing apparatus, image photographing method, and computer program |
JP5331128B2 (en) * | 2008-12-26 | 2013-10-30 | パナソニック株式会社 | Imaging device |
WO2012172870A1 (en) * | 2011-06-14 | 2012-12-20 | 日産自動車株式会社 | Distance measurement device and environment map generation apparatus |
JP6499583B2 (en) * | 2013-09-24 | 2019-04-10 | シャープ株式会社 | Image processing apparatus and image display apparatus |
JP2016110269A (en) * | 2014-12-03 | 2016-06-20 | 株式会社東海理化電機製作所 | Manipulation input device |
US9877012B2 (en) * | 2015-04-01 | 2018-01-23 | Canon Kabushiki Kaisha | Image processing apparatus for estimating three-dimensional position of object and method therefor |
CN106991367B (en) * | 2016-01-21 | 2019-03-19 | 腾讯科技(深圳)有限公司 | The method and apparatus for determining face rotational angle |
JP6702292B2 (en) * | 2017-11-15 | 2020-06-03 | オムロン株式会社 | Alarm control device, method, and program |
-
2017
- 2017-12-11 JP JP2017236658A patent/JP6791108B2/en active Active
-
2018
- 2018-12-10 CN CN201811503252.0A patent/CN110059530B/en active Active
- 2018-12-11 DE DE102018131805.7A patent/DE102018131805A1/en active Pending
- 2018-12-11 US US16/216,612 patent/US10776944B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007230369A (en) | 2006-03-01 | 2007-09-13 | Toyota Motor Corp | On-vehicle apparatus adjusting device |
JP2012208714A (en) | 2011-03-29 | 2012-10-25 | Kyocera Corp | Portable electronic device |
JP2014049023A (en) | 2012-09-03 | 2014-03-17 | Sharp Corp | Input device |
Also Published As
Publication number | Publication date |
---|---|
CN110059530A (en) | 2019-07-26 |
CN110059530B (en) | 2023-07-04 |
US20190188878A1 (en) | 2019-06-20 |
JP2019105906A (en) | 2019-06-27 |
US10776944B2 (en) | 2020-09-15 |
JP6791108B2 (en) | 2020-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018131805A1 (en) | DEVICE FOR DETECTING A FACIAL POSITION | |
DE102018101542B4 (en) | Onboard display device, onboard display device control method and onboard display device control program | |
DE102017214353B4 (en) | DRIVER CONDITION DETECTION SYSTEM, DRIVER CONDITION DETECTION METHOD AND VEHICLE CONTAINING THE SAME | |
DE102010004165B4 (en) | Methods and systems for calibrating vehicle vision systems | |
DE102013223039B4 (en) | Apparatus and method for providing an AVM image | |
DE102019125627B4 (en) | interior monitoring device | |
DE112017005111T5 (en) | Board display controller | |
DE112017001724T5 (en) | VEHICLE DEVICE, VEHICLE PROGRAM AND FILTER DESIGN PROGRAM | |
DE112009003557T5 (en) | Vehicle display device and display method | |
DE102012223481A1 (en) | Apparatus and method for tracking the position of a peripheral vehicle | |
DE102018100215A1 (en) | Image display device | |
DE102019125921A1 (en) | Occupant modeling device, occupant modeling method and occupant modeling program | |
DE102015214116A1 (en) | A method and apparatus for estimating a gaze direction of a vehicle occupant, method and apparatus for determining a vehicle occupant specific headmovement gain parameter, and method and apparatus for gaze estimating a vehicle occupant | |
DE112019000388T5 (en) | DEVICE FOR PROVIDING INFORMATION ABOUT AN INSTALLATION POSITION AND METHOD FOR PROVIDING INFORMATION ABOUT THE INSTALLATION POSITION | |
DE102020105196A1 (en) | Method for operating data glasses in a motor vehicle and a system with a motor vehicle and data glasses | |
DE102018210902A1 (en) | Method for determining a setting value of a vehicle component | |
EP3078015A1 (en) | Method and device for generating an alert by means of two images of a vehicle environment obtained via cameras | |
DE102018127880A1 (en) | Gesture determination device and program | |
DE102022109370A1 (en) | Viewer-input-based control in a multi-image augmented reality head-up display in a vehicle | |
DE102016211034A1 (en) | Information providing device for a vehicle | |
EP3802204B1 (en) | Computer program for the electrical configuration of vehicle seat, configuration system and vehicle | |
DE102017125578A1 (en) | Depth-based gesture operation method and system therefor | |
DE102018214935B4 (en) | Method, device, computer program and computer program product for determining the attention of a driver of a vehicle | |
DE102016103037A1 (en) | Method for checking the functionality of a camera-monitor system, camera-monitor system and motor vehicle | |
DE102020214908A1 (en) | Method and device for monitoring the viewing direction of a driver when driving a motor vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: KILIAN KILIAN & PARTNER MBB PATENTANWAELTE, DE |
|
R012 | Request for examination validly filed |