[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102018131805A1 - DEVICE FOR DETECTING A FACIAL POSITION - Google Patents

DEVICE FOR DETECTING A FACIAL POSITION Download PDF

Info

Publication number
DE102018131805A1
DE102018131805A1 DE102018131805.7A DE102018131805A DE102018131805A1 DE 102018131805 A1 DE102018131805 A1 DE 102018131805A1 DE 102018131805 A DE102018131805 A DE 102018131805A DE 102018131805 A1 DE102018131805 A1 DE 102018131805A1
Authority
DE
Germany
Prior art keywords
face
detecting
facial
distance
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018131805.7A
Other languages
German (de)
Inventor
Yoshio Matsuura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Publication of DE102018131805A1 publication Critical patent/DE102018131805A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)

Abstract

Eine Vorrichtung zum Erfassen einer Gesichtsposition enthält: einen Bildanalysator, der dazu eingerichtet ist, ein Bild eines durch eine Abbildungseinheit abgebildeten Gesichts zu analysieren und eine Positionsbeziehung zwischen mindestens zwei charakteristischen Punkten in dem Gesicht zu entnehmen; und eine Gesichtspositionsberechnungsvorrichtung, die zum Berechnen einer Position des Gesichts eingerichtet ist. Die Gesichtspositionsberechnungsvorrichtung berechnet bei Bedienung eines Bedienbildschirms eine Position des Gesichts in einem Raum gemäß Positionsbeziehungen zwischen dem abgebildeten Gesicht, der Abbildungseinheit und einer Bedieneinheit, und, außer bei der Bedienung, gemäß der Positionsbeziehung zwischen den mindestens zwei charakteristischen Punkten, die der Bildanalysator aus dem abgebildeten Gesicht entnimmt, und Positionsbeziehungen zwischen mehreren Positionen des Gesichts und mehreren der mindestens zwei charakteristischen Punkte, die den mehreren Gesichtspositionen entsprechen, welche bei jeweiligen Bedienungen erhalten wurden.

Figure DE102018131805A1_0000
An apparatus for detecting a facial position includes: an image analyzer configured to analyze an image of a face imaged by an imaging unit and to extract a positional relationship between at least two characteristic points in the face; and a face position calculating device configured to calculate a position of the face. The face position calculator, when operating an operation screen, calculates a position of the face in a space according to positional relationships between the imaged face, the imaging unit and an operation unit, and, except in the operation, according to the positional relationship between the at least two characteristic points that the image analyzer is imaged from the imaged one Face and position relationships between multiple positions of the face and a plurality of the at least two characteristic points corresponding to the multiple face positions, which were obtained at respective operations.
Figure DE102018131805A1_0000

Description

QUERVERWEIS AUF ZUGEHÖRIGE ANMELDUNGCROSS-REFERENCE TO RELATED APPLICATION

Diese Anmeldung basiert auf der japanischen Patentanmeldung mit der Nr. 2017-236658, die am 11. Dezember 2017 beim japanischen Patentamt eingereicht wurde, wobei deren gesamter Inhalt hierin durch Bezugnahme aufgenommen ist.This application is based on Japanese Patent Application No. 2017-236658 filed on Dec. 11, 2017, in the Japan Patent Office, the entire contents of which are incorporated herein by reference.

GEBIET DER ERFINDUNGFIELD OF THE INVENTION

Die vorliegende Erfindung betrifft eine Vorrichtung zum Erfassen der Gesichtsposition eines Fahrzeugführers oder dergleichen.The present invention relates to a device for detecting the facial position of a vehicle driver or the like.

STAND DER TECHNIKSTATE OF THE ART

In einem Fahrzeug besteht der Bedarf nach einer Anwendung, die dazu eingerichtet ist, zu bestimmen, wohin ein Fahrer schaut, und entsprechend eine vorbestimmte Steuerung durchzuführen. Beispielsweise wird in einem Fall, in dem der Fahrer einen Rückspiegel betrachtet, eine Nachricht oder ein Bild auf dem Rückspiegel angezeigt, oder es wird in einem Fall, in dem der Fahrer ein Anzeigeinstrument nicht beobachtet, wenn der Fahrer das Anzeigeinstrument prüfen soll, eine Warnung an den Fahrer ausgegeben. Beim Bestimmen eines solchen visuell erkannten Abschnitts ist es notwendig, die Blickrichtung des Fahrers und die Gesichtsposition in dem Raum (zum Beispiel die Entfernung von einer Referenzposition) zu erfassen.In a vehicle, there is a need for an application that is configured to determine where a driver is looking and to perform a predetermined control accordingly. For example, in a case where the driver is looking at a rearview mirror, a message or image is displayed on the rearview mirror, or in a case where the driver is not observing a gauge when the driver is to check the gauge, a warning issued to the driver. In determining such a visually recognized portion, it is necessary to detect the driver's line of sight and the face position in the space (for example, the distance from a reference position).

Ein Beispiel eines Detektors des Gesichts des Fahrers ist ein Fahrerüberwachungsgerät mit einer Kamera. Das Fahrerüberwachungsgerät ist eine Vorrichtung, die den Zustand eines Fahrers gemäß dem von der Kamera aufgenommenen Gesichtsbild des Fahrers überwacht und eine vorbestimmte Steuerung durchführt, beispielsweise einen Alarm ausgibt, wenn der Fahrer während des Fahrens einnickt oder zur Seite schaut. Aus dem Gesichtsbild, das durch das Fahrerüberwachungsgerät erhalten wird, können Informationen über die Blickrichtung erhalten werden; Informationen über die Gesichtsposition in dem Raum können jedoch nicht erhalten werden. Daher ist es unmöglich, nur anhand des Gesichtsbilds, das durch das Fahrerüberwachungsgerät erhalten wird, zu bestimmen, wohin der Fahrer schaut.An example of a detector of the driver's face is a driver monitor with a camera. The driver monitoring apparatus is a device which monitors the condition of a driver according to the driver's facial image taken by the camera and performs predetermined control, for example, gives an alarm when the driver nods or looks aside while driving. Information about the viewing direction can be obtained from the facial image obtained by the driver monitoring device; However, information about the facial position in the room can not be obtained. Therefore, it is impossible to determine where the driver is looking only from the facial image obtained by the driver monitor.

Die JP 2007-230369 A offenbart, dass die Gesichtsrichtung bzw. -ausrichtung (Winkel) und die Blickrichtung eines Fahrers aus dem Gesichtsbild bzw. anhand des Gesichtsbilds des Fahrers erfasst werden und dass dementsprechend eine vorbestimmte Steuerung (Lautstärkeregelung der Lautsprecher oder dergleichen) einer fahrzeuginternen Vorrichtung ausgeführt wird. Da es jedoch nicht möglich ist, die Gesichtsposition in dem Raum mit diesem Verfahren zu erfassen, ist es unmöglich zu bestimmen, wohin der Fahrer schaut. Darüber hinaus offenbaren jede der JP 2012 - 208714 A und der JP 2014-49023 A , dass eine auf einem Touch Panel erfasste gedrückte Stelle gemäß der relativen Positionsbeziehung zwischen dem Gesicht eines Benutzers und dem Touch Panel korrigiert wird. Es ist jedoch auch nach diesen Literaturen nicht möglich, die Gesichtsposition in dem Raum zu erfassen.The JP 2007-230369 A discloses that the face direction (angle) and the gaze direction of a driver are detected from the face image and the face image of the driver, respectively, and accordingly a predetermined control (volume control of the speakers or the like) of an in-vehicle device is performed. However, since it is not possible to detect the facial position in the room with this method, it is impossible to determine where the driver is looking. In addition, each of the JP 2012 - 208714 A and the JP 2014-49023 A in that a depressed spot detected on a touch panel is corrected according to the relative positional relationship between a user's face and the touch panel. However, even after these literatures, it is not possible to grasp the facial position in the room.

Als Verfahren zum Erfassen der Gesichtsposition in dem Raum ist es denkbar, mehrere Kameras vorzusehen oder einen dezidierten Sensor vorzusehen. Bei diesen Verfahren nimmt jedoch die Anzahl der Komponenten zu, die Konfiguration wird kompliziert und die Kosten sind hoch.As a method for detecting the face position in the room, it is conceivable to provide a plurality of cameras or to provide a dedicated sensor. In these methods, however, the number of components increases, the configuration becomes complicated, and the cost is high.

KURZDARSTELLUNGSUMMARY

Eine Aufgabe der vorliegenden Erfindung besteht darin, eine Vorrichtung zum Erfassen einer Gesichtsposition zu realisieren, die eine Gesichtsposition in einem Raum ohne komplizierte Konfiguration erfassen kann.An object of the present invention is to realize a face position detecting apparatus which can detect a face position in a room without a complicated configuration.

Eine Vorrichtung zum Erfassen einer Gesichtsposition gemäß der vorliegenden Erfindung enthält bzw. umfasst: eine Bilderfassungs- bzw. Abbildungseinheit, die dazu eingerichtet ist, ein Gesicht eines Benutzers abzubilden, eine Bedieneinheit, die dazu eingerichtet ist, eine vorbestimmte Eingabe von dem Benutzer, der einen Bedienbildschirm bedient bzw. betätigt, zu empfangen; einen Bildanalysator, der dazu eingerichtet ist, ein Bild des durch die Abbildungseinheit abgebildeten Gesichts zu analysieren und eine Positionsbeziehung zwischen mindestens zwei charakteristischen Punkten in dem Gesicht bzw. des Gesichts in dem bzw. aus dem Bild zu entnehmen; und eine Gesichtspositionsberechnungsvorrichtung, die dazu eingerichtet ist, eine Position des von der Bilderfassungseinheit bzw. Abbildungseinheit abgebildeten Gesichts zu berechnen. Bei einer Betätigung bzw. Bedienung des Bedienbildschirms berechnet die Gesichtspositionsberechnungsvorrichtung eine Position des Gesichts in einem Raum gemäß Positionsbeziehungen zwischen dem abgebildeten Gesicht, der Abbildungseinheit und der Bedieneinheit. Außer bei der Betätigung bzw. Bedienung berechnet die Gesichtspositionsberechnungsvorrichtung eine Position des Gesichts in dem Raum gemäß der Positionsbeziehung zwischen den mindestens zwei charakteristischen Punkten, die der Bildanalysator aus dem abgebildeten Gesicht entnimmt, und Positionsbeziehungen zwischen mehreren Positionen des Gesichts und mehreren charakteristischen Punkten, die jeweils den mehreren Positionen des Gesichts entsprechen, welche bei jeweiligen Betätigungen bzw. Bedienungen erhalten wurden.An apparatus for detecting a facial position according to the present invention includes: an image acquisition unit configured to image a face of a user, an operation unit configured to input a predetermined input from the user, the one Operating screen operated to receive; an image analyzer configured to analyze an image of the face imaged by the imaging unit and to extract a positional relationship between at least two characteristic points in the face in the image; and a face position calculation device configured to calculate a position of the face imaged by the image capture unit. Upon operation of the operation screen, the face position calculation device calculates a position of the face in a space according to positional relationships between the imaged face, the imaging unit, and the operation unit. Besides the operation, the face position calculating means calculates a position of the face in the space according to the positional relationship between the at least two characteristic points which the image analyzer takes from the imaged face and positional relationships between a plurality of positions of the face and a plurality of characteristic points, respectively correspond to the multiple positions of the face which were obtained at respective operations.

Gemäß einer solchen Vorrichtung zum Erfassen einer Gesichtsposition wird bei Betätigung bzw. Bedienung der Bedieneinheit die Positionsbeziehung zwischen charakteristischen Punkten (zum Beispiel dem Abstand zwischen den Augen) aus einem Gesichtsbild entnommen, und eine Gesichtsposition in dem Raum wird gemäß den Positionsbeziehungen zwischen dem abgebildeten Gesicht, der Abbildungseinheit und der Bedieneinheit berechnet. Wenn die Bedieneinheit nicht betätigt bzw. bedient wird, wird eine Gesichtsposition in dem Raum gemäß der Positionsbeziehung zwischen den aus einem Gesichtsbild entnommenen charakteristischen Punkten und Positionsbeziehungen zwischen mehreren Gesichtspositionen und charakteristischen Punkten, die bei jeweiligen Betätigungen bzw. Bedienungen erhalten werden, berechnet. Daher ist es möglich, die Gesichtsposition in dem Raum mit einer einfachen Konfiguration zu erfassen, ohne mehrere Abbildungseinheiten vorzusehen oder einen dezidierten Sensor vorzusehen. According to such a face position detecting apparatus, upon operation of the operation unit, the positional relationship between characteristic points (for example, the distance between the eyes) is extracted from a face image, and a face position in the space is determined according to the positional relationships between the imaged face, of the imaging unit and the control unit. When the operation unit is not operated, a face position in the space is calculated according to the positional relationship between the characteristic points extracted from a face image and positional relationships between a plurality of face positions and characteristic points obtained at respective operations. Therefore, it is possible to detect the facial position in the room with a simple configuration without providing a plurality of imaging units or providing a dedicated sensor.

Bei der vorliegenden Erfindung kann die Gesichtspositionsberechnungsvorrichtung bei Betätigung bzw. Bedienung des Bedienbildschirms geometrisch eine Position des Gesichts in dem Raum gemäß einem Winkel des Gesichts in Bezug auf die Abbildungseinheit, einem Winkel der Blickrichtung bzw. eines Blickrichtungswinkels des Benutzers, der den Bedienbildschirm betrachtet, und einer Entfernung von der Abbildungseinheit zu einem Bedienpunkt auf dem Bedienbildschirm berechnen.In the present invention, upon operation of the operation screen, the face position calculation device may geometrically determine a position of the face in the space according to an angle of the face with respect to the imaging unit, an angle of sight, or a viewing direction angle of the user viewing the operation screen, and calculate a distance from the imaging unit to a control point on the control panel.

Die vorliegende Erfindung kann eine Einheit zum Erzeugen eines annähernden Ausdrucks bzw. Näherungsausdrucks enthalten, welche dazu eingerichtet ist, einen annähernden Ausdruck bzw. Näherungsausdruck zur Berechnung einer Position des Gesichts aus der Positionsbeziehung der mindestens zwei charakteristischen Punkte zu erzeugen. Die Einheit zum Erzeugen eines Näherungsausdrucks sammelt statistische Daten, die durch Zuordnung der Positionsbeziehung der mindestens zwei charakteristischen Punkte, welche durch den Bildanalysator bei jeder Betätigung bzw. Bedienung des Bedienbildschirms entnommen werden, zu einer Position des Gesichts, welche durch die Gesichtspositionsberechnungsvorrichtung bei jeder Betätigung bzw. Bedienung des Bedienbildschirms berechnet wird, erhalten werden, und erzeugt den Näherungsausdruck gemäß den statistischen Daten.The present invention may include an approximate expression generating unit configured to generate an approximate expression for calculating a position of the face from the positional relationship of the at least two characteristic points. The approximate expression generating unit collects statistical data obtained by assigning the positional relationship of the at least two characteristic points extracted by the image analyzer at each operation of the operation screen to a position of the face detected by the face position calculating device at each operation Operation of the control screen is calculated, and generates the approximate expression according to the statistical data.

In der vorliegenden Erfindung kann die Einheit zum Erzeugen eines Näherungsausdrucks den Näherungsausdruck jedes Mal aktualisieren, wenn der Bedienbildschirm bedient wird.In the present invention, the approximate expression generating unit may update the approximate expression each time the operation screen is operated.

Die vorliegende Erfindung kann ferner eine Bestimmungseinheit für einen visuell erkannten bzw. betrachteten Abschnitt bzw. eine Einheit zur Bestimmung eines visuell erkannten bzw. betrachteten Abschnitts umfassen, die dazu eingerichtet ist, einen Abschnitt, den der Benutzer visuell erkennt bzw. betrachtet, zu bestimmen, entsprechend bzw. gemäß einer Position des Gesichts in dem Raum, die die Gesichtspositionsberechnungsvorrichtung berechnet, und einer Blickrichtung des Benutzers, die der Bildanalysator entnimmt.The present invention may further include a visually recognized portion determination unit for setting a visually recognized portion configured to determine a portion that the user visually recognizes, according to a position of the face in the space that the face position calculating device calculates and a viewing direction of the user that the image analyzer extracts.

In der vorliegenden Erfindung kann die Position des Gesichts in dem Raum eine Entfernung von der Abbildungseinheit zu einem vorbestimmten Teil des Gesichts sein.In the present invention, the position of the face in the space may be a distance from the imaging unit to a predetermined part of the face.

In der vorliegenden Erfindung kann die Bedieneinheit aus einem Touch Panel bzw. interaktiven Bedienfeld bzw. Bildschirm-Tastfeld gebildet sein. Dieses Touch Panel kann ein Touch Panel einer an einem Fahrzeug montierten Fahrzeugnavigationsvorrichtung sein.In the present invention, the operating unit can be formed from a touch panel or interactive touch panel. This touch panel may be a touch panel of a vehicle-mounted vehicle navigation device.

In der vorliegenden Erfindung kann die Abbildungseinheit eine Kamera eines Fahrerüberwachungsgeräts sein, das an einem Fahrzeug montiert ist, und dazu eingerichtet ist, den Zustand eines Fahrers zu überwachen.In the present invention, the imaging unit may be a camera of a driver monitoring apparatus mounted on a vehicle and configured to monitor the condition of a driver.

Gemäß der vorliegenden Erfindung ist es möglich, eine Vorrichtung zum Erfassen einer Gesichtsposition bereitzustellen, die dazu in der Lage ist, die Gesichtsposition in dem Raum mit einer einfachen Konfiguration zu erfassen.According to the present invention, it is possible to provide a face position detecting apparatus capable of detecting the face position in the room with a simple configuration.

Figurenlistelist of figures

  • 1 ist ein Blockdiagramm einer Vorrichtung zum Erfassen einer Gesichtsposition gemäß einer Ausführungsform der vorliegenden Erfindung. 1 FIG. 10 is a block diagram of an apparatus for detecting a facial position according to an embodiment of the present invention. FIG.
  • 2 ist eine Darstellung zur Erläuterung der Abbildung des Gesichts eines Fahrers. 2 Fig. 13 is a diagram for explaining the image of a driver's face.
  • 3 ist eine Darstellung zur Erläuterung einer Blickrichtung eines Fahrers. 3 is a diagram for explaining a viewing direction of a driver.
  • 4 ist eine Darstellung zur Erläuterung eines Prinzips zur Erfassung einer Gesichtsposition gemäß der vorliegenden Erfindung. 4 Fig. 13 is a diagram for explaining a principle for detecting a facial position according to the present invention.
  • 5 ist ein Diagramm, das einen Näherungsausdruck zur Berechnung einer Gesichtsposition veranschaulicht. 5 is a diagram illustrating a proximity expression for calculating a facial position.
  • 6 ist ein Flussdiagramm, das den Betrieb der Vorrichtung zum Erfassen einer Gesichtsposition veranschaulicht. 6 FIG. 10 is a flowchart illustrating the operation of the face position detecting apparatus. FIG.
  • 7 ist ein Blockdiagramm einer Vorrichtung zum Erfassen einer Gesichtsposition gemäß einer anderen Ausführungsform. 7 Fig. 10 is a block diagram of a device for detecting a facial position according to another embodiment.
  • 8 ist ein Flussdiagramm, dass den Betrieb gemäß der anderen Ausführungsform veranschaulicht. 8th FIG. 10 is a flowchart illustrating the operation according to the other embodiment. FIG.

DETAILLIERTE BESCHREIBUNGDETAILED DESCRIPTION

Ausführungsformen einer Vorrichtung zum Erfassen einer Gesichtsposition gemäß der vorliegenden Erfindung werden nachstehend unter Bezugnahme auf die Zeichnungen beschrieben. Im Folgenden wird als Beispiel eine Vorrichtung beschrieben, die an einem Fahrzeug montiert ist und zum Erfassen der Gesichtsposition des Fahrers eingerichtet ist.Embodiments of a face position detecting apparatus according to the present invention will be described below with reference to the drawings. Hereinafter, as an example, an apparatus mounted on a vehicle and configured to detect the driver's face position will be described.

Zuerst wird die Konfiguration der Vorrichtung zum Erfassen einer Gesichtsposition unter Bezugnahme auf 1 beschrieben. In 1 ist eine Vorrichtung zum Erfassen einer Gesichtsposition 100 aus einem Fahrerüberwachungsgerät 10, einem Touch Panel 11 bzw. interaktiven Bedienfeld bzw. Bildschirm-Tastfeld, einem Bedienpunktdetektor 12, einer Gesichtspositionsberechnungsvorrichtung 13, einer Einheit zum Erzeugen eines annähernden Ausdrucks bzw. Näherungsausdrucks 14 und einer Steuereinrichtung 30 gebildet. Das Fahrerüberwachungsgerät 10 ist eine Vorrichtung, die dazu eingerichtet ist, zu überwachen, ob sich der Fahrer in einem normalen Zustand befindet oder nicht, während das Gesicht des Fahrers abgebildet wird, und umfasst eine Kamera 1, einen Signalprozessor 2, einen Bildanalysator 3 und einen Fahrerzustandsdetektor 4.First, the configuration of the face position detecting apparatus will be described with reference to FIG 1 described. In 1 is a device for detecting a facial position 100 from a driver's monitor 10 , a touch panel 11 or interactive control panel or screen touch panel, an operating point detector 12 , a face position calculating device 13 a unit for generating an approximate expression 14 and a control device 30 educated. The driver monitoring device 10 is a device configured to monitor whether the driver is in a normal state or not while the driver's face is displayed, and includes a camera 1 , a signal processor 2 , an image analyzer 3 and a driver state detector 4 ,

Wie in 2 veranschaulicht, ist die Kamera 1 beispielsweise auf einem Armaturenbrett 52 des Fahrersitzes eines Fahrzeugs V angeordnet. Die Installationsposition und der Installationswinkel der Kamera 1 sind so eingestellt, dass die Kamera 1 ein Gesicht 50a eines auf einem Sitz 51 sitzenden Fahrers 50 abbilden kann. Gestrichelte Linien veranschaulichen den Bilderfassungs- bzw. Abbildungsbereich der Kamera 1. Die Kamera 1 bildet in der vorliegenden Erfindung eine „Abbildungseinheit“ bzw. „Bilderfassungseinheit“ und weist eine Bilderfassungs- bzw. Abbildungsvorrichtung wie einen CMOS-Bildsensor auf. Das Fahrzeug V ist beispielsweise ein vierrädriges Kraftfahrzeug. Der Fahrer 50 ist ein Beispiel eines „Benutzers“ in der vorliegenden Erfindung.As in 2 Illustrated is the camera 1 for example on a dashboard 52 the driver's seat of a vehicle V arranged. The installation position and installation angle of the camera 1 are set to the camera 1 a face 50a one on a seat 51 seated driver 50 can map. Dashed lines illustrate the imaging area of the camera 1 , The camera 1 In the present invention, it forms an "imaging unit" and has an imaging device such as a CMOS image sensor. The vehicle V is, for example, a four-wheeled motor vehicle. The driver 50 is an example of a "user" in the present invention.

Der Signalprozessor 2 führt Prozesse aus, wie beispielsweise das Umwandeln eines Bildsignals des von der Kamera 1 abgebildeten Gesichts in ein digitales Signal. Der Bildanalysator 3 analysiert ein Gesichtsbild gemäß dem von dem Signalprozessor 2 ausgegebenen Bildsignal, entnimmt charakteristische Punkte (z. B. Augen) und erfasst den Gesichtswinkel, die Blickrichtung, die Bewegung der Augenlider und dergleichen. Der Fahrerzustandsdetektor 4 erfasst den Zustand des Fahrers 50 gemäß dem von dem Bildanalysator 3 erhaltenen Analyseergebnis. Beispielsweise erfasst der Fahrerzustandsdetektor 4 in einem Fall, in dem die Augenlider für mehr als eine bestimmte Zeitspanne geschlossen sind, dass der Fahrer 50 am Einschlafen ist. In einem Fall, in dem die Blickrichtung auch während der Fahrt zur Seite gerichtet ist, erfasst der Fahrerzustandsdetektor 4 den Fahrer 50, als während der Fahrt zur Seite schauend. Das Erfassungsergebnis, das durch den Fahrerzustandsdetektor 4 erhalten wird, wird über einen CAN-Kommunikator (Controller Area Network Communicator) 20 an eine nicht veranschaulichte, im Fahrzeug montierte, elektronische Steuereinrichtung (Electronic Control Unit, ECU) gesendet. Die ECU führt eine vorbestimmte Steuerung (beispielsweise Ausgabe eines Alarms) an dem Fahrzeug gemäß dem Erfassungsergebnis durch.The signal processor 2 performs processes such as converting an image signal from that of the camera 1 pictured face in a digital signal. The image analyzer 3 analyzes a facial image according to that of the signal processor 2 output image signal, extracts characteristic points (eg, eyes) and detects the visual angle, the viewing direction, the movement of the eyelids, and the like. The driver condition detector 4 detects the condition of the driver 50 according to the image analyzer 3 obtained analysis result. For example, the driver state detector detects 4 in a case where the eyelids are closed for more than a certain amount of time, that the driver 50 falling asleep. In a case where the viewing direction is also turned off while driving, the driver condition detector detects 4 the driver 50 when looking to the side while driving. The detection result obtained by the driver condition detector 4 is received via a Controller Area Network Communicator (CAN) communicator 20 to an unillustrated vehicle-mounted electronic control unit (ECU). The ECU performs a predetermined control (for example, output of an alarm) on the vehicle according to the detection result.

Das Touch Panel 11 ist ein Beispiel einer „Bedieneinheit“ in der vorliegenden Erfindung. In der Ausführungsform ist das Touch Panel 11 ein Touch Panel einer Fahrzeugnavigationsvorrichtung, die an dem Fahrzeug montiert ist. Wie in den 2 und 3 veranschaulicht, ist das Touch Panel 11 neben der Kamera 1 auf dem Armaturenbrett 52 des Fahrersitzes des Fahrzeugs V vorgesehen. Wie in 3 veranschaulicht, weist das Touch Panel 11 einen Bedienbildschirm 11a auf. Das Touch Panel 11 empfängt eine vorbestimmte Eingabe, wenn der Fahrer 50 den Bedienbildschirm 11a bedient bzw. betätigt.The touch panel 11 is an example of a "control unit" in the present invention. In the embodiment, the touch panel is 11 a touch panel of a car navigation device mounted on the vehicle. As in the 2 and 3 Illustrated is the touch panel 11 next to the camera 1 on the dashboard 52 the driver's seat of the vehicle V provided. As in 3 illustrates the touch panel 11 an operating screen 11a on. The touch panel 11 receives a predetermined input when the driver 50 the operating screen 11a operated or operated.

Der Bedienpunktdetektor 12 ist eine Schaltung, die einen Bedienpunkt P ( 3), d. h. die Stelle, an der ein Drückvorgang bzw. eine Drückbedienung bzw. eine Drückbetätigung ausgeführt wird, auf dem Bedienbildschirm 11a erfasst. Der Position des Bedienpunkts P wird durch XY-Koordinaten von nicht dargestellten Schalterelektroden bestimmt, die in einer Matrix angeordnet sind, und die Schalterelektrode, die in dem Abschnitt angeordnet ist, in dem ein Drückvorgang ausgeführt wird, wird elektrisch leitfähig bzw. leitend. Somit wird der Bedienpunkt P erfasst.The operating point detector 12 is a circuit that has an operating point P ( 3 ), that is, the position at which a pressing operation or a pressing operation or a pressing operation is performed on the operation screen 11a detected. The position of the operation point P is determined by XY coordinates of not-shown switch electrodes arranged in a matrix, and the switch electrode disposed in the portion where a pressing operation is performed becomes electrically conductive. Thus, the operating point P is detected.

Wenn der Bedienbildschirm 11a des Touch Panels 11 betätigt bzw. bedient wird, berechnet die Gesichtspositionsberechnungsvorrichtung 13 die Position des von der Kamera 1 abgebildeten Gesichts 50a gemäß einem Parameter Δx, der aus dem Erfassungsergebnis in dem Bedienpunktdetektor bzw. des Bedienpunktdetektors 12 erhalten wird, und Parametern θd und θf , die aus dem Analyseergebnis in dem Bildanalysator bzw. des Bildanalysators 3 erhalten werden. Diese Parameter und der arithmetische Ausdruck der Gesichtsposition werden später detailliert beschrieben. In der Ausführungsform wird eine Entfernung D von der Kamera 1 zu dem in 2 dargestellten Gesicht 50a als die Gesichtsposition in dem Raum (absolute Position) berechnet. Da die Position der Kamera 1 in dem Raum im Voraus bestimmt wird, kann, wenn die Entfernung D zu dem Gesicht 50a in Bezug auf die Kameraposition bekannt ist, die Position des Gesichts 50a in dem Raum bestimmt werden. Das Berechnungsergebnis (Entfernung D) in der bzw. der Gesichtspositionsberechnungsvorrichtung 13 wird über den CAN-Kommunikator 20 an die oben beschriebene ECU gesendet. Zusätzlich erfasst bzw. erlangt die Gesichtspositionsberechnungsvorrichtung 13 einen später zu beschreibenden Parameter Δd von dem Bildanalysator 3. Die Entfernung D und der Parameter Δd werden an die Einheit zum Erzeugen eines Näherungsausdrucks 14 gesendet.When the operation screen 11a of the touch panel 11 is operated, the face position calculating device calculates 13 the position of the camera 1 pictured face 50a according to a parameter Δx resulting from the detection result in the operation point detector and the operation point detector, respectively 12 is obtained, and parameters θ d and θ f obtained from the analysis result in the image analyzer or the image analyzer 3 to be obtained. These parameters and the arithmetic expression of the facial position will be described later in detail. In the embodiment, a distance D from the camera 1 to the in 2 depicted face 50a calculated as the face position in the space (absolute position). Because the Position of the camera 1 in the room is determined in advance, if the distance D to the face 50a in terms of camera position is known, the position of the face 50a be determined in the room. The calculation result (distance D) in the face position calculating device 13 is via the CAN communicator 20 sent to the ECU described above. In addition, the face position calculation device detects 13 a parameter Δd to be described later from the image analyzer 3 , The distance D and the parameter Δd are sent to the unit for generating an approximate expression 14 Posted.

Die Einheit zum Erzeugen eines Näherungsausdrucks 14 sammelt statistische Daten, die durch Zuordnen der Gesichtsposition (Entfernung D) und des Parameters Δd (wird später beschrieben) zueinander erhalten werden, wenn der Bedienbildschirm 11a betätigt bzw. bedient wird, und erzeugt einen annähernden Ausdruck Fn bzw. einen Näherungsausdruck Fn zum Berechnen der Position des Gesichts 50a in dem Raum gemäß den statistischen Daten. Die Gesichtspositionsberechnungsvorrichtung 13 berechnet die Position des Gesichts 50a unter Verwendung dieses Näherungsausdrucks Fn, wenn der Bedienbildschirm 11a nicht betätigt bzw. nicht bedient wird. 5 veranschaulicht ein Beispiel des Näherungsausdrucks Fn, und die Details des Näherungsausdrucks Fn werden später beschrieben.The unit for generating an approximate expression 14 collects statistical data obtained by assigning the facial position (distance D ) and the parameter Δd (to be described later) to each other when the operation screen 11a is operated, and generates an approximate expression Fn or an approximate expression Fn for calculating the position of the face 50a in the room according to the statistical data. The face position calculation device 13 calculates the position of the face 50a using this approximation expression Fn when the control screen 11a not operated or not operated. 5 Fig. 13 illustrates an example of the approximate expression Fn, and the details of the approximate expression Fn will be described later.

Die Steuereinrichtung 30 ist aus einem Mikrocomputer, der eine CPU, einen Speicher und dergleichen umfasst, gebildet, und steuert integral den Betrieb der Vorrichtung zum Erfassen einer Gesichtsposition 100. Aus diesem Grund ist die Steuereinrichtung 30 mit jeder Einheit der Vorrichtung zum Erfassen einer Gesichtsposition 100 über eine Signalleitung (nicht dargestellt) verbunden und kommuniziert mit jeder Einheit.The control device 30 is formed of a microcomputer including a CPU, a memory, and the like, and integrally controls the operation of the device for detecting a facial position 100 , For this reason, the control device 30 with each unit of the device for detecting a facial position 100 connected via a signal line (not shown) and communicates with each unit.

Es sei angemerkt, dass die Funktionen des Bildanalysators 3, des Fahrerzustandsdetektors 4, der Gesichtspositionsberechnungsvorrichtung 13 und der Einheit zum Erzeugen eines Näherungsausdrucks 14 tatsächlich durch Software realisiert werden.It should be noted that the functions of the image analyzer 3 , the driver condition detector 4 , the facial position calculator 13 and the unit for generating an approximate expression 14 actually be realized by software.

Als nächstes wird das Prinzip der Erfassung der Gesichtsposition in dem Raum unter Verwendung der oben beschriebenen Vorrichtung zum Erfassen einer Gesichtsposition 100 beschrieben.Next, the principle of detecting the facial position in the space will be described using the above-described face position detecting apparatus 100 described.

Wie 3 veranschaulicht, wird der Fahrer 50 in einem Fall, in dem der Fahrer 50 das Touch Panel 11 bedient, unvermeidlich den Bedienbildschirm 11a sehen. Aus diesem Grund ist die Blickrichtung des Fahrers 50 (durch einen Pfeil angedeutet) zu dem Bedienpunkt P auf dem Bedienbildschirm 11a gerichtet. Bei der vorliegenden Erfindung wird die Gesichtsposition unter Verwendung dieses Verhaltens erfasst.As 3 illustrates, the driver becomes 50 in a case where the driver 50 the touch panel 11 inevitably operates the control screen 11a see. For this reason, the driver's line of sight 50 (indicated by an arrow) to the operation point P on the operation screen 11a directed. In the present invention, the facial position is detected using this behavior.

Wie 4 veranschaulicht, wird in einem Fall, in dem eine Betätigung bzw. Bedienung auf dem Bedienpunkt P des Bedienbildschirms 11a des Touch Panels 11 ausgeführt wird, die Entfernung Δx von der Kamera 1 zu dem Bedienpunkt P anhand des Erfassungsergebnisses des Bedienpunktdetektors 12 bestimmt. Zusätzlich werden aus dem von der Kamera 1 abgebildeten Bild des Gesichts 50a zwei Parameter erhalten, d. h., der Winkel des Gesichts 50a in Bezug auf die Kamera 1 (nachstehend als ein „Gesichtswinkel“ bezeichnet) θd und der Winkel der Blickrichtung des Fahrers 50, der auf den Bedienbildschirm 11a schaut, (nachstehend als ein „Blickrichtungswinkel“ bezeichnet) θf. Ferner wird aus dem Bild des Gesichts 50a die Positionsbeziehung zwischen den Augen 50b, 50c, welche charakteristische Punkte sind, d. h., ein Abstand Δd zwischen den Augen, ermittelt bzw. erlangt.As 4 illustrates, in a case where an operation on the operation point P of the operation screen 11a of the touch panel 11 is executed, the distance .DELTA.x from the camera 1 to the operation point P based on the detection result of the operation point detector 12 certainly. In addition, from the camera 1 pictured image of the face 50a received two parameters, ie, the angle of the face 50a in relation to the camera 1 (hereinafter referred to as a "face angle") θ d and the angle of the driver's line of vision 50 on the control screen 11a looks, (hereinafter referred to as a "viewing direction angle") θ f . Further, from the picture of the face 50a the positional relationship between the eyes 50b . 50c , which are characteristic points, ie, a distance Δd between the eyes, obtained.

In 4 wird die folgende geometrische Beziehung zwischen der Entfernung D, die die Position des Gesichts 50a in dem Raum darstellt, und den Parametern Δx, θd , θf festgelegt. D sin θ d + ( D cos θ d ) tan θ f = Δ x

Figure DE102018131805A1_0001
Aus diesem Grund kann die Entfernung D aus dem folgenden arithmetischen Ausdruck berechnet werden. D = Δ x/ ( sin θ d + cos θ d tan θ f )
Figure DE102018131805A1_0002
Es sei angemerkt, dass in 4 die Entfernung D die Entfernung von der Mitte der vorderen Oberfläche der Kamera 1 zu dem Mittelpunkt zwischen den Augen 50b, 50c auf dem Gesicht 50a ist. Der Gesichtswinkel θd ist der Winkel zwischen der optischen Achse der Kamera 1 und einer geraden Linie, die die Entfernung D darstellt. Der Blickrichtungswinkel θf ist der Winkel zwischen der geraden Linie, die den Bedienpunkt P und einen vorbestimmten Teil (hier den Mittelpunkt zwischen den Augen 50b, 50c) des Gesichts verbindet, und einer senkrechten Linie, die parallel zu der optischen Achse der Kamera 1 verläuft, und den vorbestimmten Abschnitt bzw. vorbestimmten Teil kreuzt bzw. schneidet.In 4 becomes the following geometric relationship between the distance D that the position of the face 50a in the room, and the parameters Ax . θ d . θ f established. D sin θ d + ( D cos θ d ) tan θ f = Δ x
Figure DE102018131805A1_0001
For this reason, the distance D can be calculated from the following arithmetic expression. D = Δ x / ( sin θ d + cos θ d tan θ f )
Figure DE102018131805A1_0002
It should be noted that in 4 the distance D the distance from the center of the front surface of the camera 1 to the midpoint between the eyes 50b . 50c on the face 50a is. The angle of vision θ d is the angle between the optical axis of the camera 1 and a straight line representing the distance D. The line of sight θ f is the angle between the straight line, the operating point P and a predetermined part (here the midpoint between the eyes 50b . 50c) of the face connects, and a vertical line parallel to the optical axis of the camera 1 runs, and crosses the predetermined portion or predetermined part.

Jedes Mal, wenn der Bedienbildschirm 11a betätigt bzw. bedient wird, berechnet die Gesichtspositionsberechnungsvorrichtung 13 die Entfernung D aus dem obigen arithmetischen Ausdruck (1) unter Verwendung der Parameter Δx, θd , θf , die erhalten werden, wenn die Betätigung bzw. Bedienung ausgeführt wird, und berechnet somit die Gesichtsposition in dem Raum. Danach gibt die Gesichtspositionsberechnungsvorrichtung 13 die berechnete Entfernung D und den Abstand Δd zwischen den Augen, der von bzw. aus dem Gesichtsbild ermittelt bzw. erlangt wurde, an die Einheit zum Erzeugen eines Näherungsausdrucks 14 aus. Die Einheit zum Erzeugen eines Näherungsausdrucks 14 speichert die Entfernung D, die sie von der Gesichtspositionsberechnungsvorrichtung 13 empfangen hat, und den Abstand Δd zwischen den Augen in Zuordnung zueinander bzw. einander zugeordnet, jedes Mal wenn der Bedienbildschirm 11a betätigt bzw. bedient wird. Als Ergebnis sammelt die Einheit zum Erzeugen eines Näherungsausdrucks 14 diskrete statistische Daten, die durch Zuordnung von D und Δd zueinander erhalten werden, wie in 5 veranschaulicht. Gemäß diesen statistischen Daten erzeugt die Einheit zum Erzeugen eines Näherungsausdrucks 14 den annähernden Ausdruck Fn bzw. den Näherungsausdruck Fn zum Berechnen der Entfernung D (der Gesichtsposition in dem Raum) aus dem Abstand Δd zwischen den Augen. Als Schätz- bzw. Annäherungs- bzw. Näherungsverfahren kann in diesem Fall ein bekanntes Verfahren wie ein Interpolationsverfahren oder ein Verfahren der kleinsten Quadrate verwendet werden. Es sei angemerkt, dass der Näherungsausdruck Fn jedes Mal neu geschrieben und aktualisiert wird, wenn der Näherungsausdruck Fn neu berechnet wird.Everytime the control screen 11a is operated, the face position calculating device calculates 13 the distance D from the above arithmetic expression (1) using the parameters Ax . θ d . θ f which are obtained when the operation is performed, and thus calculates the face position in the room. Thereafter, the face position calculating device gives 13 the calculated Distance D and the distance Δd between the eyes obtained from the face image and the image for generating an approximate expression 14 out. The unit for generating an approximate expression 14 stores the distance D from the face position calculation device 13 and the distance .DELTA.d between the eyes assigned to each other or each other, each time the operating screen 11a is operated or operated. As a result, the unit for generating an approximate expression collects 14 discrete statistical data obtained by assignment of D and .DELTA.d to each other, as in 5 illustrated. According to these statistical data, the unit generates an approximate expression 14 the approximate expression Fn or the approximate expression Fn for calculating the distance D (the face position in the room) from the distance .DELTA.d between the eyes. As an approximation method in this case, a known method such as an interpolation method or a least squares method may be used. It should be noted that the approximate expression Fn is rewritten and updated each time the approximate expression Fn is recalculated.

Wie oben beschrieben, berechnet die Gesichtspositionsberechnungsvorrichtung 13 die Entfernung D, welche die Gesichtsposition in dem Raum ist, unter Verwendung des obigen Näherungsausdrucks Fn, wenn der Bedienbildschirm 11a nicht bedient bzw. betätigt wird. Da die Kamera 1 das Gesicht 50a kontinuierlich abbildet, auch wenn der Bedienbildschirm 11a nicht bedient bzw. nicht betätigt wird, ist es möglich, den Abstand Δd zwischen den Augen durch den Bildanalysator 3 in Echtzeit zu erfassen bzw. zu erlangen. Daher ist es durch Anwenden des erfassten Δd auf den Näherungsausdruck Fn möglich, die Gesichtsposition zu berechnen, die erhalten wird, wenn der Bedienbildschirm 11a nicht betätigt bzw. nicht bedient wird.As described above, the face position calculating device calculates 13 the distance D which is the face position in the space, using the above approximate expression Fn when the operation screen 11a not operated or operated. Because the camera 1 the face 50a continuously images, even if the control screen 11a is not operated or not operated, it is possible to adjust the distance .DELTA.d between the eyes through the image analyzer 3 in real time to capture or gain. Therefore, it is by applying the detected .DELTA.d to the approximate expression Fn possible to calculate the facial position, which is obtained when the operating screen 11a not operated or not operated.

Informationen über die Gesichtsposition (Entfernung D), die auf diese Weise von der Gesichtspositionsberechnungsvorrichtung 13 berechnet werden, werden zusammen mit Informationen wie der Blickrichtung (dem Blickrichtungswinkel θf ), die von dem Bildanalysator 3 entnommen wurden, über den CAN-Kommunikator 20 an die vorbestimmte ECU übertragen. Die vorbestimmte ECU bestimmt den Abschnitt (beispielsweise ein auf dem Armaturenbrett 52 vorgesehenes Anzeigeinstrument), den der Fahrer 50 aktuell visuell erkennt bzw. betrachtet, gemäß Informationen wie der Gesichtsposition und der Blickrichtung.Face position information (distance D) obtained in this way from the face position calculation device 13 are calculated together with information such as the line of sight (the line of sight θ f ), by the image analyzer 3 via the CAN communicator 20 transmitted to the predetermined ECU. The predetermined ECU determines the section (for example, one on the dashboard 52 provided display instrument), the driver 50 currently visually recognizes or looks, according to information such as the face position and the direction of view.

Wie oben beschrieben wird bei der Ausführungsform, wenn das Touch Panel 11 betätigt bzw. bedient wird, der Abstand Δd zwischen den Augen aus dem Gesichtsbild entnommen, und die Entfernung D von der Kamera 1 zu dem Gesicht 50a, d. h., die Position des Gesichts 50a in dem Raum, wird geometrisch berechnet, gemäß der Entfernung Δx, die durch den Bedienpunkt P bestimmt wird, dem Gesichtswinkel θd und dem Blickrichtungswinkel θf , welche aus dem Gesichtsbild ermittelt bzw. erhalten werden (dem obigen arithmetischen Ausdruck (1)). Zusätzlich werden die statistischen Daten, die durch Zuordnung des Abstands Δd zwischen den Augen zu der Entfernung D zu diesem Zeitpunkt erhalten werden, gesammelt, und der Näherungsausdruck Fn wird aus den gesammelten statistischen Daten erzeugt. Wenn das Touch Panel 11 nicht betätigt bzw. nicht bedient wird, wird die Entfernung D gemäß dem aus dem Gesichtsbild entnommenen Abstand Δd zwischen den Augen und dem Näherungsausdruck Fn berechnet. Daher ist es möglich, die Position des Gesichts 50a in dem Raum mit einer einfachen Konfiguration zu erfassen, ohne mehrere Kameras vorzusehen oder einen dezidierten Sensor vorzusehen. Da insbesondere die Kamera des an dem Fahrzeug montierten Fahrerüberwachungsgeräts 10 als die Kamera 1 verwendet wird und das ebenfalls an dem Fahrzeug montierte Touch Panel der Fahrzeugnavigationsvorrichtung als das Touch Panel 11 verwendet wird, ist eine Veränderung der Software ohne Hinzufügen einer redundanten Komponente ausreichend.As described above, in the embodiment, when the touch panel 11 is operated or operated, the distance .DELTA.d taken from the face image between the eyes, and the distance D from the camera 1 to the face 50a ie, the position of the face 50a in space, is calculated geometrically, according to the distance Ax , which is determined by the operating point P, the visual angle θ d and the line of sight θ f which are obtained from the facial image (the above arithmetic expression (1)). In addition, the statistical data obtained by assigning the distance .DELTA.d between the eyes to the distance D at this time, and the approximate expression Fn is generated from the collected statistical data. When the touch panel 11 not operated or not operated, the distance becomes D calculated according to the distance Δd between the eyes and the approximate expression Fn taken from the facial image. Therefore, it is possible to change the position of the face 50a in the room with a simple configuration, without providing multiple cameras or provide a dedicated sensor. In particular, the camera of the driver's monitor mounted on the vehicle 10 as the camera 1 is used and also mounted on the vehicle touch panel of the car navigation device as the touch panel 11 is used, changing the software without adding a redundant component is sufficient.

6 ist ein Flussdiagramm, das den Betrieb der Vorrichtung zum Erfassen einer Gesichtsposition 100 veranschaulicht. Das Fahrerüberwachungsgerät 10 führt die Schritte S1 bis S4 aus, die Gesichtspositionsberechnungsvorrichtung 13 führt die Schritte S5 bis S11 aus, und die Einheit zum Erzeugen eines Näherungsausdrucks 14 führt die Schritte S12 bis S14 aus. 6 FIG. 10 is a flow chart illustrating the operation of the device for detecting a facial position. FIG 100 illustrated. The driver monitoring device 10 leads the steps S1 to S4 from, the face position calculation device 13 leads the steps S5 to S11 from, and the unit for generating a proximity expression 14 leads the steps S12 to S14 out.

In Schritt S1 wird das Fahrerüberwachungsgerät 10 gemäß einer Betätigung eines (nicht dargestellten) Zündschalters oder dergleichen aktiviert. In Schritt S2 beginnt die Kamera 1, das Gesicht 50a des Fahrers 50 abzubilden. Diese Abbildung wird fortgesetzt, während das Fahrerüberwachungsgerät 10 arbeitet. In Schritt S3 analysiert der Bildanalysator 3 das von der Kamera 1 aufgenommene Gesichtsbild. In Schritt S4 wird der Abstand Δd (4) zwischen den Augen 50b, 50c, die charakteristische Punkte sind, aus dem Gesichtsbild entnommen. Es sei angemerkt, dass der Fahrerzustandsdetektor 4 den Zustand des Fahrers gemäß dem Analyseergebnis in Schritt S3 erfasst; da dies jedoch nicht direkt auf die vorliegende Erfindung bezogen ist, wird dieser Schritt in 6 weggelassen.In step S1 becomes the driver monitoring device 10 activated according to an operation of an ignition switch (not shown) or the like. In step S2 the camera starts 1 , the face 50a the driver 50 map. This illustration will continue while the driver monitor 10 is working. In step S3 the image analyzer analyzes 3 that from the camera 1 recorded facial image. In step S4 becomes the distance .DELTA.d ( 4 ) between the eyes 50b . 50c , which are characteristic points, taken from the facial image. It should be noted that the driver state detector 4 the condition of the driver according to the analysis result in step S3 detected; however, since this is not directly related to the present invention, this step becomes 6 omitted.

In Schritt S5 wird die Entfernung D (4), die die Position des Gesichts 50a in dem Raum ist, unter Verwendung des in Schritt S4 entnommenen Abstands Δd zwischen den Augen und des Näherungsausdrucks Fn, den die Einheit zum Erzeugen eines Näherungsausdrucks 14 bereits berechnet hat, berechnet. In Schritt S6 wird bestimmt, ob der Bedienbildschirm 11a des Touch Panels 11 betätigt bzw. bedient wird oder nicht, gemäß bzw. in Abhängigkeit von dem Vorhandensein oder Nichtvorhandensein eines Erfassungssignals von dem Bedienpunktdetektor 12. In einem Fall, in dem der Bedienbildschirm 11a nicht betätigt bzw. nicht bedient wird (Schritt S6; NEIN), kehrt der Prozess zu Schritt S2 zurück, und der oben beschriebene Vorgang wird wiederholt. In einem Fall, in dem der Bedienbildschirm 11a betätigt bzw. bedient wird (Schritt S6; JA), schreitet der Prozess zu Schritt S7 voran.In step S5 will the distance D ( 4 ), which is the position of the face 50a in the room, using the in step S4 taken distance .DELTA.d between the eyes and the Approximation expression Fn, which is the unit for generating an approximate expression 14 already calculated. In step S6 determines if the control screen 11a of the touch panel 11 operated or not, according to the presence or absence of a detection signal from the operation point detector 12 , In a case where the operation screen 11a not operated or not operated (step S6 ; NO), the process returns to step S2 back, and the process described above is repeated. In a case where the operation screen 11a is operated or operated (step S6 ; YES), the process moves to step S7 Ahead.

In Schritt S7 wird die Entfernung Δx (4) von der Kamera 1 zu dem Bedienpunkt P gemäß der Position des Bedienpunktes P erlangt bzw. erfasst, welche der Bedienpunktdetektor 12 erfasst. In Schritt S8 wird der aus dem Gesichtsbild entnommene Gesichtswinkel θd (4) erlangt bzw. erfasst. In Schritt S9 wird der aus dem Gesichtsbild entnommene Blickrichtungswinkel θf (4) erlangt bzw. erfasst. In Schritt S10 wird der Abstand Δd (4) zwischen den Augen 50b, 50c, der aus dem Gesichtsbild entnommen wurde, erlangt bzw. erfasst. In Schritt S11 wird die Entfernung D aus dem obigen arithmetischen Ausdruck (1) unter Verwendung von in den Schritten S7 bis S9 erlangten bzw. erfassten Δx, θd , θf berechnet, und die Position des Gesichts 50a in dem Raum wird geometrisch berechnet.In step S7 will the distance Ax ( 4 ) from the camera 1 to the operating point P according to the position of the operating point P obtained or detected, which the operating point detector 12 detected. In step S8 becomes the facial angle taken from the facial image θ d ( 4 ). In step S9 becomes the viewing direction angle taken from the facial image θ f ( 4 ). In step S10 is the distance Δd ( 4 ) between the eyes 50b . 50c obtained from the facial image is acquired. In step S11 becomes the distance D from the above arithmetic expression (1) using in the steps S7 to S9 obtained or recorded Ax . θ d . θ f calculated, and the position of the face 50a in the space is calculated geometrically.

In Schritt S12 werden die in Schritt S11 berechnete Entfernung D und der in Schritt S10 erlangte bzw. erfasste Abstand Δd zwischen den Augen einander zugeordnet bzw. in Zuordnung zueinander gespeichert. In Schritt S13, wird der Näherungsausdruck Fn zum Berechnen der Entfernung D unter Verwendung der statistischen Daten D und Δd, die in Schritt S12 gespeichert wurden, erzeugt. In Schritt S14 wird der zuletzt erzeugte Näherungsausdruck Fn auf den dieses Mal in Schritt S13 erzeugten Näherungsausdruck Fn aktualisiert. Danach kehrt der Prozess zu Schritt S2 zurück, und die oben beschriebene Reihe von Prozessen wird wiederholt. Daher wird die Aktualisierung des Näherungsausdrucks Fn in Schritt S14 jedes Mal durchgeführt, wenn der Bedienbildschirm 11a des Touch Panels 11 betätigt bzw. bedient wird.In step S12 will be in step S11 calculated distance D and in step S10 obtained or recorded distance .DELTA.d between the eyes associated with each other or stored in association with each other. In step S13 , the approximate expression Fn is calculated to calculate the distance D using the statistical data D and .DELTA.d that in step S12 saved. In step S14 the most recently generated approximation expression Fn is changed to the one in step S13 updated approximate expression Fn updated. After that, the process returns to step S2 back, and the series of processes described above is repeated. Therefore, the update of the approximate expression Fn in step S14 performed every time when the operating screen 11a of the touch panel 11 is operated or operated.

7 veranschaulicht eine Vorrichtung zum Erfassen einer Gesichtsposition 200 gemäß einer anderen Ausführungsform der vorliegenden Erfindung. In 7 sind Teile, die mit denen in 1 identisch sind, mit identischen Bezugszeichen versehen. 7 illustrates a device for detecting a facial position 200 according to another embodiment of the present invention. In 7 are parts with those in 1 are identical, provided with identical reference numerals.

In der Vorrichtung zum Erfassen einer Gesichtsposition 200 von 7 wurde der Konfiguration der Vorrichtung zum Erfassen einer Gesichtsposition 100 von 1 eine Bestimmungseinheit für einen visuell erkannten Abschnitt 15 bzw. eine Einheit zur Bestimmung eines visuell erkannten bzw. betrachteten Abschnitts 15 hinzugefügt. In dem Fall von 1 bestimmt die ECU-Seite den Abschnitt, den der Fahrer 50 visuell erkennt bzw. betrachtet. In dem Fall von 7 bestimmt die Vorrichtung zum Erfassen einer Gesichtsposition 200 den Abschnitt, den der Fahrer 50 visuell erkennt bzw. betrachtet.In the device for detecting a facial position 200 from 7 was the configuration of the device for detecting a facial position 100 from 1 a determination unit for a visually recognized section 15 or a unit for determining a visually recognized or considered section 15 added. In the case of 1 The ECU side determines the section that the driver 50 Visually recognizes or considers. In the case of 7 determines the device for detecting a facial position 200 the section that the driver 50 Visually recognizes or considers.

In 7 ist die Bestimmungseinheit für einen visuell erkannten Abschnitt 15 zwischen einer Gesichtspositionsberechnungsvorrichtung 13 und einem CAN-Kommunikator 20 vorgesehen, und erlangt bzw. erfasst eine Entfernung D, die die Gesichtsposition in einem Raum darstellt, von der Gesichtspositionsberechnungsvorrichtung 13. Zusätzlich erlangt bzw. erfasst die Bestimmungseinheit für einen visuell erkannten Abschnitt 15 einen Blickrichtungswinkel θf , der eine Blickrichtung darstellt, von einem Bildanalysator 3. Wenn die Entfernung D und der Blickrichtungswinkel θf bestimmt werden, kann der Abschnitt, den der Fahrer 50 visuell erkennt bzw. betrachtet, bestimmt werden. Daher bestimmt die Bestimmungseinheit für einen visuell erkannten Abschnitt 15 den visuell erkannten bzw. betrachteten Abschnitt gemäß D und θf . Das Bestimmungsergebnis wird über einen CAN-Kommunikator 20 an eine vorbestimmte ECU gesendet. Da andere Punkte mit denen der Vorrichtung zum Erfassen einer Gesichtsposition 100 von 1 identisch sind, wird die Beschreibung der Abschnitte, die sich mit denen in 1 überschneiden, weggelassen.In 7 is the determination unit for a visually recognized section 15 between a face position calculating device 13 and a CAN communicator 20 and acquires a distance D representing the face position in a space from the face position calculating device 13 , In addition, the determination unit acquires for a visually recognized portion 15 a line of sight θ f , which represents a viewing direction, from an image analyzer 3 , If the distance D and the viewing angle θ f can be determined, the section that the driver 50 visually recognized or considered. Therefore, the visually recognized portion determination unit determines 15 the visually recognized or considered section according to D and θ f , The determination result is via a CAN communicator 20 sent to a predetermined ECU. Since other points with those of the device for detecting a facial position 100 from 1 are identical, the description of the sections dealing with those in 1 overlap, omitted.

8 ist ein Flussdiagramm, das den Betrieb der Vorrichtung zum Erfassen einer Gesichtsposition 200 von 7 veranschaulicht. In 8 sind Schritte, die mit denen in 6 identisch sind, mit identischen Bezugszeichen bezeichnet. Der Unterschied zwischen dem Flussdiagramm von 8 und dem von 6 ist, dass Schritt S4 in 6 durch Schritt S4a ersetzt ist und Schritt S5a nach Schritt S5 in 8 hinzugefügt ist. In Schritt S4a wird ein Blickrichtungswinkel θf zusätzlich zu einem Abstand Δd zwischen Augen von bzw. aus einem Gesichtsbild entnommen. In Schritt S5a wird gemäß dem in Schritt S4a entnommenen Blickrichtungswinkel θf und einer in Schritt S5 berechneten Gesichtsposition (Entfernung D) der Abschnitt ermittelt, den ein Fahrer 50 visuell erkennt bzw. betrachtet. Da andere Schritte mit denen in 6 identisch sind, wird die Beschreibung der Schritte, die sich mit denen in 6 überschneiden, weggelassen. 8th FIG. 10 is a flow chart illustrating the operation of the device for detecting a facial position. FIG 200 from 7 illustrated. In 8th are steps with those in 6 are identical, denoted by identical reference numerals. The difference between the flowchart of 8th and that of 6 is that step S4 in 6 is replaced by step S4a and step S5a after step S5 in 8th is added. In step S4a, a view angle becomes θ f in addition to a distance Δd between eyes taken from or from a facial image. In step S5a, according to the viewing direction angle taken in step S4a, it is determined θ f and one in step S5 calculated face position (distance D ) determines the section that a driver 50 Visually recognizes or considers. As other steps with those in 6 are identical, the description of the steps that are similar to those in 6 overlap, omitted.

In der vorliegenden Erfindung können zusätzlich zu den oben beschriebenen Ausführungsformen verschiedene Ausführungsformen verwendet werden, die im Folgenden beschrieben werden.In the present invention, in addition to the above-described embodiments, various embodiments may be used, which will be described below.

In den obigen Ausführungsformen wird ein Beispiel beschrieben, bei dem der Näherungsausdruck Fn aus den statistischen Daten ermittelt wird, welche durch Zuordnung des Abstands Δd zwischen den Augen (der Positionsbeziehung der charakteristischen Punkte) zu der Entfernung D zu dem Gesicht (die Gesichtsposition in dem Raum) erhalten werden, wenn der Bedienbildschirm 11a betätigt bzw. nicht bedient wird, und die Gesichtsposition wird unter Verwendung dieses Näherungsausdrucks Fn berechnet, wenn der Bedienbildschirm 11a nicht betätigt bzw. nicht bedient wird. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Zum Beispiel kann eine Tabelle bereitgestellt werden, die erhalten wird, indem Abstände Δd zwischen den Augen zu der Entfernung D zu einem Gesicht zugeordnet werden, die erhalten werden, wenn Betätigungen bzw. Bedienungen auf einem Bedienbildschirm 11a ausgeführt wird. Wenn der Bedienbildschirm 11a nicht betätigt bzw. nicht bedient wird, kann die Entfernung D, die dem Abstand Δd zwischen den Augen, der aus einem Gesichtsbild erhalten wird, entspricht, durch Bezugnahme auf diese Tabelle entnommen werden, um die Gesichtsposition zu berechnen.In the above embodiments, an example will be described in which the Proximity expression Fn is obtained from the statistical data obtained by assigning the distance Δd between the eyes (the positional relationship of the characteristic points) to the distance D to the face (the face position in the room) are obtained when the operation screen 11a is operated, and the face position is calculated using this approximate expression Fn when the operation screen 11a not operated or not operated. However, the present invention is not limited thereto. For example, a table may be provided which is obtained by taking distances Δd between the eyes to the distance D to be assigned to a face obtained when operations on an operation screen 11a is performed. When the operation screen 11a not operated or not operated, the distance D which corresponds to the distance Δd between the eyes obtained from a facial image, are taken by referring to this table to calculate the facial position.

In den obigen Ausführungsformen wird der Abstand Δd zwischen den Augen 50b, 50c als ein Beispiel der Positionsbeziehung der charakteristischen Punkte des Gesichts verwendet. Die vorliegende Erfindung ist jedoch nicht auf dieses Beispiel beschränkt. Zum Beispiel können die Entfernung zwischen den Ohren, die Entfernung zwischen Augenbrauen, die Entfernung zwischen einem Auge und einem Ohr, die Entfernung zwischen einer Nase und einem Ohr oder dergleichen als die Positionsbeziehung von charakteristischen Punkten verwendet werden. Darüber hinaus sind mindestens zwei charakteristische Punkte ausreichend; es können jedoch drei oder mehr charakteristische Punkte verwendet werden. Ferner ist die Positionsbeziehung zwischen den charakteristischen Punkten nicht auf den Abstand (Entfernung) beschränkt und kann ein Winkel sein.In the above embodiments, the distance Δd between the eyes becomes 50b . 50c as an example of the positional relationship of the characteristic points of the face. However, the present invention is not limited to this example. For example, the distance between the ears, the distance between eyebrows, the distance between an eye and an ear, the distance between a nose and an ear, or the like may be used as the positional relationship of characteristic points. In addition, at least two characteristic points are sufficient; however, three or more characteristic points may be used. Further, the positional relationship between the characteristic points is not limited to the distance (distance) and may be an angle.

In den obigen Ausführungsformen wird die Entfernung D von der Kamera 1 zu dem vorbestimmten Teil des Gesichts 50a als der Parameter verwendet, der die Gesichtsposition in dem Raum darstellt. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt, und eine Entfernung D von einem anderen Abschnitt als der Kamera 1 zu einem vorbestimmten Teil des Gesichts 50a kann die Gesichtsposition in dem Raum darstellen. Darüber hinaus ist die Gesichtsposition in dem Raum nicht auf die Entfernung D beschränkt und kann durch Koordinatenwerte dargestellt werden.In the above embodiments, the distance becomes D from the camera 1 to the predetermined part of the face 50a as the parameter that represents the face position in the room. However, the present invention is not limited thereto, and a distance D from a section other than the camera 1 to a predetermined part of the face 50a can represent the facial position in the room. Moreover, the face position in the space is not limited to the distance D and can be represented by coordinate values.

In den obigen Ausführungsformen wird ein Beispiel beschrieben, bei dem die Entfernung D aus dem arithmetischen Ausdruck (1) jedes Mal berechnet wird, wenn das Touch Panel 11 betätigt bzw. bedient wird. Die vorliegende Erfindung ist jedoch nicht auf dieses Beispiel beschränkt. Zum Beispiel kann eine Entfernung D nach jeweils zwei oder drei Betätigungen bzw. Bedienungen berechnet werden. In diesem Fall wird, wenn eine Betätigung bzw. Bedienung durchgeführt wird aber die Entfernung D nicht berechnet wird, die Entfernung D anhand des Näherungsausdrucks Fn berechnet.In the above embodiments, an example will be described in which the distance D is calculated from the arithmetic expression (1) every time the touch panel 11 is operated or operated. However, the present invention is not limited to this example. For example, a distance D after every two or three operations or operations. In this case, when an operation is performed, but the distance D not calculated, the distance D calculated using the approximate expression Fn.

In den obigen Ausführungsformen wird das Touch Panel 11 als ein Beispiel der Bedieneinheit verwendet. Die Bedieneinheit kann jedoch beispielsweise eine Platine oder eine Platte sein, auf der mehrere Druckknöpfe nebeneinander angeordnet sind.In the above embodiments, the touch panel becomes 11 used as an example of the operating unit. However, the control unit may for example be a board or a plate on which a plurality of snaps are arranged side by side.

In den obigen Ausführungsformen wird ein Beispiel beschrieben, bei dem die Steuereinrichtung 30 getrennt von dem Bildanalysator 3, dem Fahrerzustandsdetektor 4, der Gesichtspositionsberechnungsvorrichtung 13 und der Einheit zum Erzeugen eines Näherungsausdrucks 14 vorgesehen wird. Der Bildanalysator 3, der Fahrerzustandsdetektor 4, die Gesichtspositionsberechnungsvorrichtung 13 und die Einheit zum Erzeugen eines Näherungsausdrucks 14 können jedoch in der Steuereinrichtung 30 eingebaut sein.In the above embodiments, an example will be described in which the control device 30 separate from the image analyzer 3 , the driver condition detector 4 , the facial position calculator 13 and the unit for generating an approximate expression 14 is provided. The image analyzer 3 , the driver condition detector 4 , the face position calculation device 13 and the unit for generating an approximate expression 14 however, in the controller 30 be installed.

In den obigen Ausführungsformen wird die Vorrichtung zum Erfassen einer Gesichtsposition zum Erfassen des Gesichts eines Fahrzeugführers als ein Beispiel beschrieben. Die vorliegende Erfindung kann jedoch auch auf eine Vorrichtung zum Erfassen einer Gesichtsposition für andere Zwecke angewandt werden.In the above embodiments, the device for detecting a face position for detecting the face of a driver is described as an example. However, the present invention can also be applied to an apparatus for detecting a facial position for other purposes.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • JP 2007230369 A [0005]JP 2007230369 A [0005]
  • JP 2012 [0005]JP 2012 [0005]
  • JP 208714 A [0005]JP 208714A [0005]
  • JP 2014049023 A [0005]JP 2014049023A [0005]

Claims (9)

Vorrichtung zum Erfassen einer Gesichtsposition, umfassend: eine Abbildungseinheit, die dazu eingerichtet ist, ein Gesicht eines Benutzers abzubilden; eine Bedieneinheit, die einen Bedienbildschirm umfasst und dazu eingerichtet ist, eine vorbestimmte Eingabe von dem den Bedienbildschirm bedienenden Benutzer zu empfangen; einen Bildanalysator, der dazu eingerichtet ist, ein von der Abbildungseinheit abgebildetes Bild des Gesichts zu analysieren und eine Positionsbeziehung von mindestens zwei charakteristischen Punkten in dem Gesicht zu entnehmen; und eine Gesichtspositionsberechnungsvorrichtung, die dazu eingerichtet ist, eine Position des von der Abbildungseinheit abgebildeten Gesichts zu berechnen, wobei die Gesichtspositionsberechnungsvorrichtung dazu eingerichtet ist, eine Position des Gesichts in einem Raum gemäß Positionsbeziehungen zwischen dem abgebildeten Gesicht, der Abbildungseinheit und der Bedieneinheit bei Bedienung des Bedienbildschirms zu berechnen, und wobei die Gesichtspositionsberechnungsvorrichtung dazu eingerichtet ist, eine Position des Gesichts in dem Raum gemäß der Positionsbeziehung zwischen den mindestens zwei charakteristischen Punkten, die der Bildanalysator von dem abgebildeten Gesicht entnimmt, und Positionsbeziehungen zwischen mehreren Positionen des Gesichts und mehreren der mindestens zwei charakteristischen Punkte zu berechnen, die den mehreren Positionen des Gesichts entsprechen, welche bei jeweiligen Bedienungen erhalten wurden, außer bei der Bedienung.A device for detecting a facial position, comprising: an imaging unit adapted to image a face of a user; an operation unit including an operation screen and configured to receive a predetermined input from the user operating the operation screen; an image analyzer configured to analyze an image of the face imaged by the imaging unit and to obtain a positional relationship of at least two characteristic points in the face; and a face position calculation device configured to calculate a position of the face imaged by the imaging unit, wherein the face position calculating device is configured to calculate a position of the face in a space according to positional relationships between the imaged face, the imaging unit and the operation unit in operation of the operation screen, and wherein the face position calculating device is configured to calculate a position of the face in the space according to the positional relationship between the at least two characteristic points that the image analyzer takes from the imaged face and positional relationships between a plurality of positions of the face and a plurality of the at least two characteristic points; which correspond to the several positions of the face which were obtained at respective operations, except in the operation. Vorrichtung zum Erfassen einer Gesichtsposition nach Anspruch 1, wobei bei Bedienung des Bedienbildschirms, die Gesichtspositionsberechnungsvorrichtung eine Position des Gesichts in dem Raum gemäß einem Winkel des Gesichts in Bezug auf die Abbildungseinheit, einem Winkel der Blickrichtung des Benutzers, der den Bedienbildschirm betrachtet, und einer Entfernung von der Abbildungseinheit zu einem Bedienpunkt auf dem Bedienbildschirm geometrisch berechnet.Device for detecting a facial position Claim 1 wherein, in operation of the operation screen, the face position calculation means a position of the face in the space according to an angle of the face with respect to the imaging unit, an angle of the viewing direction of the user viewing the operation screen and a distance from the imaging unit to an operation point on the imaging device Operating screen calculated geometrically. Vorrichtung zum Erfassen einer Gesichtsposition nach Anspruch 1 oder 2, die ferner eine Einheit zum Erzeugen eines Näherungsausdrucks umfasst, welche dazu eingerichtet ist, einen Näherungsausdruck zur Berechnung einer Position des Gesichts aus der Positionsbeziehung der mindestens zwei charakteristischen Punkte zu erzeugen, wobei die Einheit zum Erzeugen eines Näherungsausdrucks dazu eingerichtet ist, statistische Daten zu sammeln, die durch Zuordnung einer Positionsbeziehung der mindestens zwei charakteristischen Punkte, welche durch den Bildanalysator bei jeder Bedienung des Bedienbildschirms entnommen werden, zu einer Position des Gesichts, die von der Gesichtspositionsberechnungsvorrichtung bei jeder Bedienung des Bedienbildschirms berechnet wird, erhalten werden, und dazu eingerichtet ist, den Näherungsausdruck gemäß den statistischen Daten zu erzeugen.Device for detecting a facial position Claim 1 or 2 method further comprising an approximate expression generating unit configured to generate an approximate expression for calculating a position of the face from the positional relationship of the at least two characteristic points, the approximate expression generating unit configured to collect statistical data which is obtained by assigning a positional relationship of the at least two characteristic points taken by the image analyzer every time the operation screen is operated to a position of the face calculated by the face position calculation device every time the operation screen is operated, and is arranged to: to generate the approximate expression according to the statistical data. Vorrichtung zum Erfassen einer Gesichtsposition nach Anspruch 3, wobei die Einheit zum Erzeugen eines Näherungsausdrucks den Näherungsausdruck jedes Mal aktualisiert, wenn der Bedienbildschirm bedient wird.Device for detecting a facial position Claim 3 wherein the approximate expression generating unit updates the approximate expression each time the operation screen is operated. Vorrichtung zum Erfassen einer Gesichtsposition nach einem der Ansprüche 1 bis 4, ferner umfassend eine Bestimmungseinheit für einen visuell erkannten Abschnitt, die dazu eingerichtet ist, einen Abschnitt, den der Benutzer visuell erkennt, zu bestimmen, gemäß einer Position des Gesichts in dem Raum, die die Gesichtspositionsberechnungsvorrichtung berechnet, und einer Blickrichtung des Benutzers, die der Bildanalysator entnimmt.Device for detecting a facial position according to one of Claims 1 to 4 , further comprising a visually recognized portion determining unit configured to determine a portion that the user visually recognizes, according to a position of the face in the space that the face position calculating apparatus calculates, and a viewing direction of the user Image analyzer takes. Vorrichtung zum Erfassen einer Gesichtsposition nach einem der Ansprüche 1 bis 5, wobei die Position des Gesichts in dem Raum eine Entfernung von der Abbildungseinheit zu einem vorbestimmten Teil des Gesichts ist.Device for detecting a facial position according to one of Claims 1 to 5 wherein the position of the face in the space is a distance from the imaging unit to a predetermined part of the face. Vorrichtung zum Erfassen einer Gesichtsposition nach einem der Ansprüche 1 bis 6, wobei die Bedieneinheit aus einem Touch Panel gebildet ist.Device for detecting a facial position according to one of Claims 1 to 6 , wherein the operating unit is formed of a touch panel. Vorrichtung zum Erfassen einer Gesichtsposition nach Anspruch 7, wobei das Touch Panel ein Touch Panel einer an einem Fahrzeug montierten Fahrzeugnavigationsvorrichtung ist.Device for detecting a facial position Claim 7 wherein the touch panel is a touch panel of a vehicle-mounted vehicle navigation device. Vorrichtung zum Erfassen einer Gesichtsposition nach einem der Ansprüche 1 bis 8, wobei die Abbildungseinheit eine Kamera eines Fahrerüberwachungsgeräts ist, das an einem Fahrzeug montiert ist, und dazu eingerichtet ist, einen Zustand eines Fahrers zu überwachen.Device for detecting a facial position according to one of Claims 1 to 8th wherein the imaging unit is a camera of a driver monitoring device mounted on a vehicle and configured to monitor a state of a driver.
DE102018131805.7A 2017-12-11 2018-12-11 DEVICE FOR DETECTING A FACIAL POSITION Pending DE102018131805A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017236658A JP6791108B2 (en) 2017-12-11 2017-12-11 Face position detector
JP2017-236658 2017-12-11

Publications (1)

Publication Number Publication Date
DE102018131805A1 true DE102018131805A1 (en) 2019-06-13

Family

ID=66629467

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018131805.7A Pending DE102018131805A1 (en) 2017-12-11 2018-12-11 DEVICE FOR DETECTING A FACIAL POSITION

Country Status (4)

Country Link
US (1) US10776944B2 (en)
JP (1) JP6791108B2 (en)
CN (1) CN110059530B (en)
DE (1) DE102018131805A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6822482B2 (en) 2016-10-31 2021-01-27 日本電気株式会社 Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
AU2019369206A1 (en) 2019-12-16 2021-07-01 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for distinguishing a driver and passengers in an image captured inside a vehicle
US11370360B2 (en) 2019-12-25 2022-06-28 Panasonic Intellectual Property Management Co., Ltd. Display system
CN111709348A (en) * 2020-06-11 2020-09-25 苏州百胜动力机器股份有限公司 Outboard engine safe driving control system based on driver face monitoring
CN111950348A (en) * 2020-06-29 2020-11-17 北京百度网讯科技有限公司 Method and device for identifying wearing state of safety belt, electronic equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007230369A (en) 2006-03-01 2007-09-13 Toyota Motor Corp On-vehicle apparatus adjusting device
JP2012208714A (en) 2011-03-29 2012-10-25 Kyocera Corp Portable electronic device
JP2014049023A (en) 2012-09-03 2014-03-17 Sharp Corp Input device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177315A (en) * 2002-11-28 2004-06-24 Alpine Electronics Inc Apparatus for detecting direction of line of vision, dialog system using it, and driving support system
JP5251547B2 (en) * 2008-06-06 2013-07-31 ソニー株式会社 Image photographing apparatus, image photographing method, and computer program
JP5331128B2 (en) * 2008-12-26 2013-10-30 パナソニック株式会社 Imaging device
WO2012172870A1 (en) * 2011-06-14 2012-12-20 日産自動車株式会社 Distance measurement device and environment map generation apparatus
JP6499583B2 (en) * 2013-09-24 2019-04-10 シャープ株式会社 Image processing apparatus and image display apparatus
JP2016110269A (en) * 2014-12-03 2016-06-20 株式会社東海理化電機製作所 Manipulation input device
US9877012B2 (en) * 2015-04-01 2018-01-23 Canon Kabushiki Kaisha Image processing apparatus for estimating three-dimensional position of object and method therefor
CN106991367B (en) * 2016-01-21 2019-03-19 腾讯科技(深圳)有限公司 The method and apparatus for determining face rotational angle
JP6702292B2 (en) * 2017-11-15 2020-06-03 オムロン株式会社 Alarm control device, method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007230369A (en) 2006-03-01 2007-09-13 Toyota Motor Corp On-vehicle apparatus adjusting device
JP2012208714A (en) 2011-03-29 2012-10-25 Kyocera Corp Portable electronic device
JP2014049023A (en) 2012-09-03 2014-03-17 Sharp Corp Input device

Also Published As

Publication number Publication date
CN110059530A (en) 2019-07-26
CN110059530B (en) 2023-07-04
US20190188878A1 (en) 2019-06-20
JP2019105906A (en) 2019-06-27
US10776944B2 (en) 2020-09-15
JP6791108B2 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
DE102018131805A1 (en) DEVICE FOR DETECTING A FACIAL POSITION
DE102018101542B4 (en) Onboard display device, onboard display device control method and onboard display device control program
DE102017214353B4 (en) DRIVER CONDITION DETECTION SYSTEM, DRIVER CONDITION DETECTION METHOD AND VEHICLE CONTAINING THE SAME
DE102010004165B4 (en) Methods and systems for calibrating vehicle vision systems
DE102013223039B4 (en) Apparatus and method for providing an AVM image
DE102019125627B4 (en) interior monitoring device
DE112017005111T5 (en) Board display controller
DE112017001724T5 (en) VEHICLE DEVICE, VEHICLE PROGRAM AND FILTER DESIGN PROGRAM
DE112009003557T5 (en) Vehicle display device and display method
DE102012223481A1 (en) Apparatus and method for tracking the position of a peripheral vehicle
DE102018100215A1 (en) Image display device
DE102019125921A1 (en) Occupant modeling device, occupant modeling method and occupant modeling program
DE102015214116A1 (en) A method and apparatus for estimating a gaze direction of a vehicle occupant, method and apparatus for determining a vehicle occupant specific headmovement gain parameter, and method and apparatus for gaze estimating a vehicle occupant
DE112019000388T5 (en) DEVICE FOR PROVIDING INFORMATION ABOUT AN INSTALLATION POSITION AND METHOD FOR PROVIDING INFORMATION ABOUT THE INSTALLATION POSITION
DE102020105196A1 (en) Method for operating data glasses in a motor vehicle and a system with a motor vehicle and data glasses
DE102018210902A1 (en) Method for determining a setting value of a vehicle component
EP3078015A1 (en) Method and device for generating an alert by means of two images of a vehicle environment obtained via cameras
DE102018127880A1 (en) Gesture determination device and program
DE102022109370A1 (en) Viewer-input-based control in a multi-image augmented reality head-up display in a vehicle
DE102016211034A1 (en) Information providing device for a vehicle
EP3802204B1 (en) Computer program for the electrical configuration of vehicle seat, configuration system and vehicle
DE102017125578A1 (en) Depth-based gesture operation method and system therefor
DE102018214935B4 (en) Method, device, computer program and computer program product for determining the attention of a driver of a vehicle
DE102016103037A1 (en) Method for checking the functionality of a camera-monitor system, camera-monitor system and motor vehicle
DE102020214908A1 (en) Method and device for monitoring the viewing direction of a driver when driving a motor vehicle

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: KILIAN KILIAN & PARTNER MBB PATENTANWAELTE, DE

R012 Request for examination validly filed