[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2012019623A1 - Method and device for controlling an apparatus having visual-field detection - Google Patents

Method and device for controlling an apparatus having visual-field detection Download PDF

Info

Publication number
WO2012019623A1
WO2012019623A1 PCT/EP2010/004896 EP2010004896W WO2012019623A1 WO 2012019623 A1 WO2012019623 A1 WO 2012019623A1 EP 2010004896 W EP2010004896 W EP 2010004896W WO 2012019623 A1 WO2012019623 A1 WO 2012019623A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
correction
person
controlling
correction matrix
Prior art date
Application number
PCT/EP2010/004896
Other languages
German (de)
French (fr)
Inventor
David Koch
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to PCT/EP2010/004896 priority Critical patent/WO2012019623A1/en
Publication of WO2012019623A1 publication Critical patent/WO2012019623A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Definitions

  • the present invention relates to a method for controlling a device by acquiring visual field data of a person, determining position data and / or orientation data of the person's face from the visual field data and controlling the device in dependence on the position data and / or alignment data. Moreover, the present invention relates to a corresponding device for controlling a device.
  • the visual field detection captures position and rotation data (or orientation data) of the human head. All six degrees of freedom of the viewer can thus be used in different applications (e.g., for navigation and selection in 3D scenes). For this purpose, e.g. in 3D scenes the viewer's real viewing point is coupled to the virtual viewing point in the SD model. This possibility is in principle similar to a navigation with a typical so-called "space mouse", which can control six degrees of freedom compared to a classical PC mouse at the same time.
  • the object of the present invention is thus to propose a method and a device for controlling a device, in which with field tracking improved accuracy can be achieved.
  • this object is achieved by a method for controlling a device by acquiring facial field data of a person, determining position data and / or alignment data of the person's face from the visual field data and controlling the device in dependence on the position data and / or alignment data, as well as by Correcting the determined position data and / or alignment data based on an anatomy model or predetermined correction data before the step of controlling.
  • Such correction data can be determined individually from the movements of a person.
  • the invention provides an apparatus for controlling a device having a detection device for acquiring visual field data of a person, a computing device for determining position data and / or orientation data of the person's face from the visual field data and a control device for controlling the device in dependence on the position data and / or alignment data, wherein the calculated position data and / or alignment data can be corrected on the basis of an anatomy model for the control device with the computing device.
  • a “device” is also understood here as an application or application.
  • the anatomy of a person is thus taken into account in the acquisition of visual field data.
  • the determined position data and / or alignment data can be cleaned up and achieve increased accuracy.
  • a correction matrix is calculated using the anatomy model or the correction data with which the Posi ⁇ tion data and / or orientation data is corrected.
  • Such a correction matrix can be calculated beforehand by a standardized model, so that the correction can be carried out with comparatively low computing power.
  • the term "matrix" can also be understood here to mean a table, a list or the like.
  • the anatomy model can be created individually for a person. This makes corrections very person-specific. In particular, this can take into account, for example, the size of a person.
  • Correcting can also be done in response to a person's movement. Moreover, the correction may also be made depending on a posture of the person. In this way, other individual factors may be included in the correction that will improve the overall outcome of Steue ⁇ tion.
  • the person's face assumes an actual position and / or actual orientation which differs from a respective desired position and / or desired orientation, wherein the actual target difference is taken into account in the correction matrix.
  • the difference between the actual position and the desired position or the difference between the actual orientation and the desired orientation is calculated and entered into the correction matrix accordingly.
  • the controlling person can move their face only in a certain area, because, for example, obstacles in the way.
  • the correction matrix can be two-dimensional or multi-dimensional. To correct all translatory degrees of freedom alone, the correction matrix should be three-dimensional. In addition, for example, if angles are corrected in two directions, so the correction matrix would have to be five-dimensional. When correcting all translational and rotational degrees of freedom, the correction matrix must be six-dimensional.
  • the transition from one correction data set to another correction data set of the correction matrix can be done smoothly by means of interpolation. As a result, a continuous control of the device without jumps can be realized.
  • the determined position data and / or orientation data can be corrected with the correction matrix , but also further parameters for controlling the device. For example, if only the translational data are determined when the movement of the face is detected, then the rotational variables can also be corrected.
  • prefabricated correction matrices 3 are initially created. These are multidimensional matrices, which provide correction data for an adjusted position, depending on the detected position of the visual field 7 and optionally also on the current movement of the observer 6.
  • FIG. 1 shows a three-dimensional correction matrix 3, which the correction data translational (dx, dy, dz) and rotational (dccx, day, daz, ie angle deviations relative to the x, y and z axis) in dependence on the translational position of the viewer 6 defined.
  • the correction matrix 3 contains a plurality of correction data sets 12.
  • Korrekturda ⁇ cost rate is 12 for each x, y, z-Triple provided.
  • the correction data set 12 has not only correction values for the translatory values x, y and z, but also for the rotational values ax, ay and az.
  • a more comprehensive and more accurate correction enables the five-dimensional correction matrix 3 'of FIG 3. This is evaluated to ⁇ additionally to the translational position and the rotatory see position of the visual field, to thereby divide the zuillerden at ⁇ correction data of all six degrees of freedom finer.
  • Each correction element 12 'achievable with the input variables x, y and z thus contains a correction function 13 over a two-dimensional ax-ccy space for each parameter x, y, z, x, ay and az. Corresponding correction values thus result for each five-dimensional coordinate dx, dy, dz, dax, day and daz.
  • the correction matrix 3 or 3 ' can be one to n-dimensional matrices which define the respective correction data to be applied as a function of the position data taken into consideration (dimension of the matrix and value range). Further conceivable dimensions of the correction matrix can be the attitude or course of movement of the observer.
  • the consideration of the human anatomy model during the creation of the correction matrix takes place, for example, by means of a kinematics simulation. In doing so, an anatomy model of a human being, as it is already used today for the investigation of ergonomics questions (eg "Jack", "RAMSIS” or "Anybody”), is simulated in predetermined postures (sitting, standing)
  • the correction data are determined.
  • possible head positions of the human model are given in a defined grid.
  • the inverse kinematics of the human model then determine to what extent this head position can be reached by the person at all.
  • a restriction of the degrees of freedom and an ergonomic evaluation provide a typical illustration of human freedom of movement and posture.
  • the ergonomic evaluation of the posture is evaluated in the evaluation of whether a target position is achievable with.
  • An attitude is e.g. as unavailable if it can be reached by the human model kinematically (with inverse kinematics), but falls ergonomically below a medical assessment limit.
  • a desired position can only be reached to a limited extent (connected to translational or rotational displacements), then the deviation from the desired position in the correction matrix is recorded at the actual position of the observer in order to be able to determine the desired position later.
  • the anatomy Simulation 1 of FIG 1 it comes at a horizontal ⁇ Since downward movement of the person along the y-axis to a distortion of the X-position and the A-rotation of the head.
  • These correction values are recorded in the correction matrix 3 in conjunction with the actual position of the person in order to be able to determine the desired position when the correction matrix is used in practice.
  • a correction matrix is used to control an application can be used with a visual field recognition.
  • an application on the basis of a face recognition, the calculated position data are adjusted using a correction matrix, ge ⁇ be controlled.
  • typical (anatomically-related) motion sequences of a user in front of a camera for controlling an application can be interpreted more accurately by the use of the correction data.
  • Intuitive gestures to control an application are correctly interpreted by the application despite restrictions on movement in the workplace and human anatomy.
  • correction matrices are attitude-dependent and differentiate, for example, between standing and sitting users for optimal correction of the position data.
  • the correction matrix may also include correction data for achieving the desired visual field position of the user in dependence on the real actual position of the user visual field. Furthermore, about which he knew ⁇ actual position of the field and the correction data of the correction matrix to calculate the user's desired position.
  • the nominal position takes account of anatomical, ergonomic, posture-related and workplace-related restrictions of the movement of a user compared to the actual position.
  • the transition from one correction data set to the next within the matrix preferably takes place smoothly by means of interpolation.
  • the correction matrix is created using an extended ergonomics simulation.
  • human models eg “Jack”, “RAMSIS” or “Anybody” make it possible to generate correction data quickly and easily on a well-founded basis.
  • the human model takes into account the anatomy, the free ⁇ degrees of freedom of the joints and an ergonomic use of postures to account for typical and comfortable conversation about the correction matrix.
  • Motion simulation takes into account the limited degrees of freedom of movement due to the work environment (e.g., table, chair, chair back, railing, etc.).
  • the target positions to be examined are to be selected such that typical movements around the zero position (rest position) of the user are covered in order to cover the necessary degrees of freedom for controlling the respective application.
  • the simulation firstly investigates the attainment of the desired positions of the visual field and determines the differences in the degrees of freedom to the achievable actual positions (kinematic analysis).
  • the ergonomic evaluation of the posture is evaluated when a target position is reached.
  • correction data is recorded in the correction matrix at the location of the actual position of the user actually achieved.
  • the structure of the correction matrix can be carried out automatically by simulation.
  • the automatic correction matrix creation makes it possible to create an individual correction matrix. This is adapted to the individual anatomy and the degrees of freedom of movement of a specific work environment.
  • the user can choose how finely granular the resolution of the correction data should be.
  • the dimensions of the correction matrix is selectable by the user himself and thus takes into account the individual Freedom ⁇ grade that are evaluated for correction.
  • applications for different scenarios can be optimized (eg control of esse demonstrators for laymen or applications for experienced CAD users).

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

The control of apparatuses or applications should be carried out more accurately using visual-field tracking. For this purpose, the invention relates to a method in which visual-field data (7) of a person (6) are detected and position data and/or orientation data of the vision of the person are determined from said visual-field data. An apparatus or an application (2) is controlled according to the position data and/or orientation data. Because the vision of an observer (6) can be moved only within the limits of the given anatomy, the determined position data and/or orientation data are corrected on the basis of an anatomy model (1) before the apparatus or the application (2) is controlled.

Description

Beschreibung description
Verfahren und Vorrichtung zum Steuern eines Geräts mit Gesichtsfelderkennung Method and device for controlling a device with visual field recognition
Die vorliegende Erfindung betrifft ein Verfahren zum Steuern eines Geräts durch Erfassen von Gesichtsfelddaten einer Person, Ermitteln von Positionsdaten und/oder Ausrichtungsdaten des Gesichts der Person aus den Gesichtsfelddaten und Steuern des Geräts in Abhängigkeit von den Positionsdaten und/oder Ausrichtungsdaten. Darüber hinaus betrifft die vorliegende Erfindung eine entsprechende Vorrichtung zum Steuern eines Geräts . The present invention relates to a method for controlling a device by acquiring visual field data of a person, determining position data and / or orientation data of the person's face from the visual field data and controlling the device in dependence on the position data and / or alignment data. Moreover, the present invention relates to a corresponding device for controlling a device.
Mithilfe einer handelsüblichen Webcam und wenig Rechenleistung besteht heute die Möglichkeit, eine stabile Gesichtsfelderkennung zu realisieren. Die Gesichtsfelderkennung erfasst Positions- und Rotationsdaten (bzw. Ausrichtungsdaten) des menschlichen Kopfes. Alle sechs Freiheitsgrade des Betrachters können somit in unterschiedlichen Anwendungen (z.B. fürdie Navigation und die Selektion in 3D-Szenen) verwendet werden. Dazu wird z.B. in 3D-Szenen der reale Betrachtungspunkt des Betrachters an den virtuellen Betrachtungspunkt im SD- Modell gekoppelt. Diese Möglichkeit ist im Prinzip ähnlich zu einer Navigation mit einer typischen so genannten „Space- Maus", die gegenüber einer klassischen PC-Maus sechs Freiheitsgrade gleichzeitig steuern kann. With the help of a commercially available webcam and low computing power, it is now possible to realize a stable visual field recognition. The visual field detection captures position and rotation data (or orientation data) of the human head. All six degrees of freedom of the viewer can thus be used in different applications (e.g., for navigation and selection in 3D scenes). For this purpose, e.g. in 3D scenes the viewer's real viewing point is coupled to the virtual viewing point in the SD model. This possibility is in principle similar to a navigation with a typical so-called "space mouse", which can control six degrees of freedom compared to a classical PC mouse at the same time.
Im Gegensatz zur Navigation mit einer „Space-Maus" ist der Ansatz mithilfe des Gesichtsfeldtrackings wesentlich günsti¬ ger und intuitiver für den Anwender. Die Möglichkeit einer stabilen, schnellen und ressourcensparenden Gesichtsfelderkennung (basierend auf einer Webcam) ist technisch noch relativ neu. Die Firma Seeing Machines z.B. entwickelt zwar schon seit mehreren Jahren Applikationen zum Verfolgen von Gesichtsfeldern. Eine ressourcenschonende Anwendung, basierend auf ausgereiften Algorithmen, ist erst mit der aktuellen Generation der Anwendercomputer möglich. Diese Technologie wird aktuell zur Überwachung von Personen und zur Analyse von Personenverhalten genutzt. In contrast to navigation with a "Space Mouse" is the approach using the visual field tracking significantly günsti ¬ ger and more intuitive for the user. The possibility of a stable, fast and resource saving face recognition (based on a webcam) is technically still relatively new. The company Seeing Machines, for example, has been developing applications for tracking visual fields for several years, and a resource-efficient application based on sophisticated algorithms is only possible with the current generation of user computers currently used for monitoring people and analyzing personal behavior.
Die Aufgabe der vorliegenden Erfindung besteht somit darin, ein Verfahren und eine Vorrichtung zum Steuern eines Geräts vorzuschlagen, bei denen mit Gesichtsfeldtracking eine verbesserte Genauigkeit erzielt werden kann. The object of the present invention is thus to propose a method and a device for controlling a device, in which with field tracking improved accuracy can be achieved.
Erfindungsgemäß wird diese Aufgabe gelöst durch ein Verfahren zum Steuern eines Geräts durch Erfassen von Gesichtfelddaten einer Person, Ermitteln von Positionsdaten und/oder Ausrichtungsdaten- des Gesichts der Person aus den Gesichtsfelddaten und Steuern des Geräts in Abhängigkeit von den Positionsdaten und/oder Ausrichtungsdaten, sowie durch Korrigieren der ermittelten Positionsdaten und/oder Ausrichtungsdaten auf der Basis eines Anatomiemodells oder vorgegebener Korrekturdaten vor dem Schritt des Steuerns. Derartige Korrekturdaten können individuell aus den Bewegungen einer Person ermittelt werden. According to the invention, this object is achieved by a method for controlling a device by acquiring facial field data of a person, determining position data and / or alignment data of the person's face from the visual field data and controlling the device in dependence on the position data and / or alignment data, as well as by Correcting the determined position data and / or alignment data based on an anatomy model or predetermined correction data before the step of controlling. Such correction data can be determined individually from the movements of a person.
Darüber hinaus wird erfindungsgemäß bereitgestellt eine Vorrichtung zum Steuern eines Geräts mit einer Erfassungseinrichtung zum Erfassen von Gesichtsfelddaten einer Person, einer Recheneinrichtung zum Ermitteln von Positionsdaten und/oder Ausrichtungsdaten des Gesichts der Person aus den Gesichtsfelddaten und einer Steuereinrichtung zum Steuern des Geräts in Abhängigkeit von den Positionsdaten und/oder Ausrichtungsdaten, wobei mit der Recheneinrichtung die ermittelten Positionsdaten und/oder Ausrichtungsdaten auf der Basis eines Anatomiemodells für die Steuereinrichtung korrigierbar sind. Unter einem „Gerät wird hier auch eine Anwendung bzw. Applikation verstanden. In addition, the invention provides an apparatus for controlling a device having a detection device for acquiring visual field data of a person, a computing device for determining position data and / or orientation data of the person's face from the visual field data and a control device for controlling the device in dependence on the position data and / or alignment data, wherein the calculated position data and / or alignment data can be corrected on the basis of an anatomy model for the control device with the computing device. A "device" is also understood here as an application or application.
In vorteilhafter Weise wird bei der Erfassung von Gesichtsfelddaten somit die Anatomie einer Person berücksichtigt. Damit lassen sich die ermittelten Positionsdaten und/oder Ausrichtungsdaten bereinigen und eine erhöhte Genauigkeit erzielen . Vorzugsweise wird mithilfe des Anatomiemodells oder der Korrekturdaten eine Korrekturmatrix berechnet, mit der die Posi¬ tionsdaten und/oder Ausrichtungsdaten korrigiert werden. Eine derartige Korrekturmatrix lässt sich vorab durch ein standardisiertes Modell errechnen, sodass das Korrigieren mit verhältnismäßig geringer Rechenleistung durchgeführt werden kann. Unter dem Begriff „Matrix" kann hier auch eine Tabelle, eine Liste oder dergleichen verstanden werden. Advantageously, the anatomy of a person is thus taken into account in the acquisition of visual field data. Thus, the determined position data and / or alignment data can be cleaned up and achieve increased accuracy. Preferably, a correction matrix is calculated using the anatomy model or the correction data with which the Posi ¬ tion data and / or orientation data is corrected. Such a correction matrix can be calculated beforehand by a standardized model, so that the correction can be carried out with comparatively low computing power. The term "matrix" can also be understood here to mean a table, a list or the like.
Das Anatomiemodell kann individuell für eine Person erstellt sein. Damit lassen sich Korrekturen sehr personenspezifisch durchführen. Insbesondere kann dadurch beispielsweise die Größe einer Person berücksichtigt werden. The anatomy model can be created individually for a person. This makes corrections very person-specific. In particular, this can take into account, for example, the size of a person.
Das Korrigieren kann auch in Abhängigkeit von einer Bewegung der Person erfolgen. Darüber hinaus kann das Korrigieren ebenso in Abhängigkeit von einer Körperhaltung der Person erfolgen. Auf diese Weise können in die Korrektur weitere individuelle Faktoren eingehen, die das Gesamtergebnis der Steue¬ rung verbessern. Correcting can also be done in response to a person's movement. Moreover, the correction may also be made depending on a posture of the person. In this way, other individual factors may be included in the correction that will improve the overall outcome of Steue ¬ tion.
In einer besonderen Ausführungsform nimmt das Gesicht der Person eine Ist-Position und/oder Ist-Ausrichtung ein, die sich von einer jeweiligen Soll-Position und/oder Soll- Ausrichtung unterscheidet, wobei die Ist-Soll-Differenz in der Korrekturmatrix berücksichtigt wird. Es wird also die Differenz zwischen Ist-Position und Soll-Position bzw. die Differenz zwischen Ist-Ausrichtung und Soll-Ausrichtung berechnet und entsprechend in die Korrekturmatrix eingetragen. Auf diese Weise lässt sich beispielsweise berücksichtigen, wenn die steuernde Person ihr Gesicht nur in einem bestimmten Bereich bewegen kann, weil beispielsweise Hindernisse im Weg stehen . In a particular embodiment, the person's face assumes an actual position and / or actual orientation which differs from a respective desired position and / or desired orientation, wherein the actual target difference is taken into account in the correction matrix. Thus, the difference between the actual position and the desired position or the difference between the actual orientation and the desired orientation is calculated and entered into the correction matrix accordingly. In this way, for example, take into account when the controlling person can move their face only in a certain area, because, for example, obstacles in the way.
Die Korrekturmatrix kann zwei- oder mehrdimensional sein. Zur Korrektur allein sämtlicher translatorischer Freiheitsgrade sollte die Korrekturmatrix dreidimensional sein. Werden zusätzlich beispielsweise Winkel in zwei Richtungen korrigiert, so müsste die Korrekturmatrix fünfdimensional sein. Bei Korrektur sämtlicher translatorischer und rotatorischer Freiheitsgrade muss die Korrekturmatrix sechsdimensional sein. The correction matrix can be two-dimensional or multi-dimensional. To correct all translatory degrees of freedom alone, the correction matrix should be three-dimensional. In addition, for example, if angles are corrected in two directions, so the correction matrix would have to be five-dimensional. When correcting all translational and rotational degrees of freedom, the correction matrix must be six-dimensional.
Der Übergang von einem Korrekturdatensatz zu einem anderen Korrekturdatensatz der Korrekturmatrix kann fließend mithilfe von Interpolation erfolgen. Dadurch kann auch eine stetige Ansteuerung des Geräts ohne Sprünge realisiert werden. The transition from one correction data set to another correction data set of the correction matrix can be done smoothly by means of interpolation. As a result, a continuous control of the device without jumps can be realized.
Mit der Korrekturmatrix können ferner nicht nur die ermittelten Positionsdaten und/oder Ausrichtungsdaten korrigiert wer¬ den, sondern auch weitere Parameter für das Steuern des Geräts. Beispielsweise können so - wenn nur die translatorischen Daten bei der Erfassung der Bewegung des Gesichts ermittelt werden - auch die rotatorischen Größen korrigiert werden . Furthermore, not only the determined position data and / or orientation data can be corrected with the correction matrix , but also further parameters for controlling the device. For example, if only the translational data are determined when the movement of the face is detected, then the rotational variables can also be corrected.
Die vorliegende Erfindung wird nun anhand der beigefügten Zeichnungen näher erläutert, in denen zeigen: The present invention will now be explained in more detail with reference to the accompanying drawings, in which:
FIG 1 eine Prinzipskizze zur Korrektur von Gesichtsfelderkennungsdaten mithilfe eines anatomischen Modells ge¬ mäß der vorliegenden Erfindung; 1 shows a schematic diagram for the correction of facial recognition data using an anatomical model ge ¬ Mäss the present invention;
FIG 2 eine einfache dreidimensionale Korrekturmatrix; 2 shows a simple three-dimensional correction matrix;
FIG 3 eine fünfdimensionale Korrekturmatrix. 3 shows a five-dimensional correction matrix.
Die nachfolgend näher geschilderten Ausführungsbeispiele stellen bevorzugte Ausführungsformen der vorliegenden Erfindung dar. The embodiments described in more detail below represent preferred embodiments of the present invention.
Die Ursache der Ungenauigkeit einer Navigation mithilfe eines üblichen Gesichtsfeldtrackings liegt in der korrekten Inter¬ pretation der Koordinaten der Gesichtsfelderkennung. Im Gegensatz zu einer „Space-Maus" hat der Kopf eines Betrachters keinen Fixpunkt, von dem aus alle Achsen (Freiheitsgrade) gesteuert werden. Zur Verdeutlichung des Problems sei die Ana- tomiesiraulation 1 in FIG 1 betrachtet. Bei einer Kopf- Seitwärtsbewegung eines sitzenden Betrachters verschiebt sich die vertikale X-Position des Kopfes abhängig von der Weite um einen Wert dx und die damit verbundene Rotation des Kopfes um einen Wert da. Diese bedingte „Verfälschung" bei der Seitwärtsbewegung basiert auf der Rotation des Oberkörpers um die Sitzposition des Betrachters. Der Fixpunkt bei einer Seitwärtsbewegung liegt somit bei einem sitzenden Betrachter im unteren Wirbelsäulenbereich. Zusätzlich entstehen bei der Be- wegung zwei verfälschte Positionsdaten x und α (um die Werte dx und dax verfälscht, wobei dax eine Winkelabweichung von der vertikalen x-Achse um die senkrecht zur Bildebene stehende z-Achse darstellt) . Diese verfälschten Werte entstehen aufgrund der Anatomie des Menschen und werden bei einer di- rekten Kopplung zur Anwendung falsch interpretiert. Eine intuitive und exakte Navigation in der Anwendung ist so nicht möglich . The cause of the inaccuracy of navigation using a conventional visual field tracking is in the correct Inter ¬ pretation the coordinates of face recognition. In contrast to a "space mouse", the observer's head has no fixed point from which all axes (degrees of freedom) are controlled. tomiesiraulation 1 considered in FIG. In a head-sideways movement of a seated observer, the vertical X-position of the head shifts by a value dx and the associated rotation of the head by a value there, depending on the width. This conditional "falsification" in the sideways movement is based on the rotation of the upper body around the sitting position of the observer.The fixed point in a sideways movement therefore lies with a seated observer in the lower spinal column area.In addition, two falsified position data x and α (um dx and dax falsify, where dax represents an angular deviation from the vertical x-axis about the z-axis perpendicular to the image plane.) These falsified values are due to human anatomy and are misinterpreted in a direct coupling to the application An intuitive and exact navigation in the application is not possible.
Es erfolgt daher erfindungsgemäß eine haltungsabhängige Be- reinigung der Koordinaten aus der Gesichtsfelderkennung zur intuitiven und exakten Navigation und Steuerung von Anwendungen (z.B. 3D-Szenen 2) . Dazu gehören zum einen die Erzeugung einer Korrekturmatrix 3 und zum anderen die Korrektur 4 der Gesichtsfelderkennung 5 mithilfe dieser Korrekturmatrix 3. Therefore, according to the invention, there is a posture-dependent cleaning of the coordinates from the visual field recognition for intuitive and exact navigation and control of applications (for example 3D scenes 2). These include, on the one hand, the generation of a correction matrix 3 and, on the other hand, the correction 4 of the visual field recognition 5 with the aid of this correction matrix 3.
Abhängig von der Haltung des Beobachters 6 (sitzend, stehend etc.) werden zunächst vorgefertigte Korrekturmatrizen 3 erstellt. Es handelt sich dabei um mehrdimensionale Matrizen, die abhängig von der erkannten Position des Gesichtsfelds 7 und optional auch von der aktuellen Bewegung des Beobachters 6, die Korrekturdaten für eine bereinigte Position bereitstellen . Depending on the posture of the observer 6 (sitting, standing, etc.), prefabricated correction matrices 3 are initially created. These are multidimensional matrices, which provide correction data for an adjusted position, depending on the detected position of the visual field 7 and optionally also on the current movement of the observer 6.
In dem Abschnitt 8 von FIG 1 ist die Kopplung eines realen Betrachtungspunkts (viewpoint) und eines virtuellen Betrach¬ tungspunkts symbolisch dargestellt. Eine Webcam 9 erfasst die Bewegung 10 des Gesichts des Betrachters 6. Daraufhin wird mit den korrigierten Gesichtsfelddaten auch eine virtuelle Bewegung 11 beispielsweise in der 3D-Szene 2 durchgeführt. Es kann auf diese Weise jedoch auch ein anderes Gerät, eine andere Komponente oder Anlage gesteuert werden. FIG 2 zeigt eine dreidimensionale Korrekturmatrix 3, welche die Korrekturdaten translatorisch (dx, dy, dz) und rotatorisch (dccx, day, daz, d.h. Winkelabweichungen relativ zur x- , y- und z-Achse) in Abhängigkeit von der translatorischen Position des Betrachters 6 definiert. Die Korrekturmatrix 3 enthält eine Vielzahl an Korrekturdatensätzen 12. Im vorlie¬ genden Fall ist für jedes x-, y-, z-Triple ein Korrekturda¬ tensatz 12 vorgesehen. Der Korrekturdatensatz 12 besitzt jedoch nicht nur Korrekturwerte für die translatorischen Werte x, y und z, sondern auch für die rotatorischen Werte ax, ay und az. In the section 8 of FIG.1, the coupling of a real viewpoint (viewpoint) and a virtual Betrach ¬ tung point is shown symbolically. A webcam 9 detects the movement 10 of the observer's face 6. Then, with the corrected visual field data, a virtual Movement 11 performed for example in the 3D scene 2. However, it can also be controlled in this way, another device, another component or system. 2 shows a three-dimensional correction matrix 3, which the correction data translational (dx, dy, dz) and rotational (dccx, day, daz, ie angle deviations relative to the x, y and z axis) in dependence on the translational position of the viewer 6 defined. The correction matrix 3 contains a plurality of correction data sets 12. In vorlie ¬ constricting case Korrekturda ¬ cost rate is 12 for each x, y, z-Triple provided. However, the correction data set 12 has not only correction values for the translatory values x, y and z, but also for the rotational values ax, ay and az.
Eine umfangreichere bzw. genauere Korrektur ermöglicht die fünfdimensionale Korrekturmatrix 3' von FIG 3. Darin wird zu¬ sätzlich zu der translatorischen Position auch die rotatori- sehe Position des Gesichtsfelds ausgewertet, um damit die an¬ zuwendenden Korrekturdaten aller sechs Freiheitsgrade feiner unterteilen zu können. Jedes mit den Eingangsgrößen x, y und z erreichbare Korrekturelement 12' enthält also über einem zweidimensionalen ax-ccy-Raum für jeden Parameter x, y, z, x, ay und az eine Korrekturfunktion 13. Damit ergeben sich für jede fünfdimensionale Koordinate entsprechende Korrekturwerte dx, dy, dz, dax, day und daz. A more comprehensive and more accurate correction enables the five-dimensional correction matrix 3 'of FIG 3. This is evaluated to ¬ additionally to the translational position and the rotatory see position of the visual field, to thereby divide the zuwendenden at ¬ correction data of all six degrees of freedom finer. Each correction element 12 'achievable with the input variables x, y and z thus contains a correction function 13 over a two-dimensional ax-ccy space for each parameter x, y, z, x, ay and az. Corresponding correction values thus result for each five-dimensional coordinate dx, dy, dz, dax, day and daz.
Abhängig von der Anwendung und der einzusetzenden Genauigkeit kann es sich bei der Korrekturmatrix 3 bzw. 3' um ein- bis n- dimensionale Matrizen handeln, welche die jeweils anzuwendenden Korrekturdaten in Abhängigkeit von den berücksichtigten Positionsdaten (Dimension der Matrix und Wertebereich) definiert. Weitere denkbare Dimensionen der Korrekturmatrix kön- nen die Haltung oder der Bewegungsverlauf des Betrachters sein . Die Berücksichtigung des menschlichen Anatomiemodells bei der Erstellung der Korrekturmatrix erfolgt beispielsweise mithil- fe einer Kinematiksimulation. Dabei wird ein Anatomiemodell eines Menschen, wie es heute bereits zur Untersuchung von Ergonomiefragen eingesetzt wird (z.B. „Jack", „RAMSIS" oder „Anybody"), in vorgegebenen Haltungen (sitzend, stehend) simuliert. Mithilfe einer inversen Kinematik Depending on the application and the accuracy to be used, the correction matrix 3 or 3 'can be one to n-dimensional matrices which define the respective correction data to be applied as a function of the position data taken into consideration (dimension of the matrix and value range). Further conceivable dimensions of the correction matrix can be the attitude or course of movement of the observer. The consideration of the human anatomy model during the creation of the correction matrix takes place, for example, by means of a kinematics simulation. In doing so, an anatomy model of a human being, as it is already used today for the investigation of ergonomics questions (eg "Jack", "RAMSIS" or "Anybody"), is simulated in predetermined postures (sitting, standing)
(http: //de . wikipedia . org/wiki/inverse Kinematik) des menschlichen Modells werden die Korrekturdaten ermittelt. Dazu werden mögliche KopfPositionen des Mensch-Modells in einem definierten Raster vorgegeben. Die inverse Kinematik des menschlichen Modells ermittelt dann, inwieweit diese Kopfposition von der Person überhaupt erreicht werden kann. Zusätzlich erfolgen über eine Einschränkung der Freiheitsgrade und eine Ergonomiebewertung eine typische Abbildung menschlicher Bewegungsfreiheit und Körperhaltung. Die ergonomische Bewertung der Haltung wird bei der Auswertung, ob eine Soll-Position erreichbar ist, mit ausgewertet. Eine Haltung gilt z.B. als nicht erreichbar, wenn sie vom Mensch-Modell kinematisch (mit der inversen Kinematik) erreicht werden kann, aber ergonomisch unter eine medizinische Bewertungsgrenze fällt.  (http://en.wikipedia.org/wiki/Inverse Kinematics) of the human model, the correction data are determined. For this purpose, possible head positions of the human model are given in a defined grid. The inverse kinematics of the human model then determine to what extent this head position can be reached by the person at all. In addition, a restriction of the degrees of freedom and an ergonomic evaluation provide a typical illustration of human freedom of movement and posture. The ergonomic evaluation of the posture is evaluated in the evaluation of whether a target position is achievable with. An attitude is e.g. as unavailable if it can be reached by the human model kinematically (with inverse kinematics), but falls ergonomically below a medical assessment limit.
Kann eine Soll-Position nur eingeschränkt erreicht werden (verbunden mit translatorischen oder rotatorischen Verschiebungen) , dann wird die Abweichung zur Soll-Position in die Korrekturmatrix an der Ist-Position des Betrachters aufgenommen, um später die Soll-Position wieder ermitteln zu können. Wie bereits in Zusammenhang mit der Anatomiesimulation 1 von FIG 1 erläutert wurde, kommt es bei einer horizontalen Seit¬ wärtsbewegung der Person entlang der y-Achse zu einer Verfälschung der X-Position und der A-Rotation des Kopfes. Diese Korrekturwerte werden in die Korrekturmatrix 3 aufgenommen in Verbindung mit der Ist-Position der Person, um bei einem praktischen Einsatz der Korrekturmatrix die Soll-Position ermitteln zu können. If a desired position can only be reached to a limited extent (connected to translational or rotational displacements), then the deviation from the desired position in the correction matrix is recorded at the actual position of the observer in order to be able to determine the desired position later. As already explained in connection with the anatomy Simulation 1 of FIG 1, it comes at a horizontal ¬ Since downward movement of the person along the y-axis to a distortion of the X-position and the A-rotation of the head. These correction values are recorded in the correction matrix 3 in conjunction with the actual position of the person in order to be able to determine the desired position when the correction matrix is used in practice.
Nachfolgend werden einige Verwendungsbeispiele aufgezählt, bei denen eine Korrekturmatrix zur Steuerung einer Anwendung mithilfe einer Gesichtsfelderkennung eingesetzt werden kann. Wie oben bereits andeutet wurde, kann eine Anwendung auf der Basis einer Gesichtsfelderkennung, deren berechnete Positionsdaten mithilfe einer Korrekturmatrix bereinigt werden, ge¬ steuert werden. Darüber hinaus können auch typische (anatomiebedingte) Bewegungsabläufe eines Anwenders vor einer Kame¬ ra zur Steuerung einer Anwendung durch die Verwendung der Korrekturdaten exakter interpretiert werden. Intuitive Gestiken zur Steuerung einer Anwendung werden trotz Einschränkung der Bewegungsfreiheit am Arbeitsplatz und der menschlichen Anatomie von der Anwendung korrekt interpretiert. Zudem sind Korrekturmatrizen haltungsabhängig und unterscheiden z.B. in stehende und sitzende Anwender für eine optimale Korrektur der Positionsdaten. Die Korrekturmatrix kann außerdem Korrekturdaten zur Erreichung der Soll-Gesichtsfeldposition des Anwenders in Abhängigkeit von der realen Ist-Position des Anwendergesichtsfelds enthalten. Des Weiteren kann über die er¬ kannte Ist-Position des Gesichtsfelds und die Korrekturdaten der Korrekturmatrix die Soll-Position des Anwenders errechnet werden. Die Soll-Position berücksichtigt gegenüber der Ist- Position anatomische, ergonomische, haltungsbedingte und arbeitsplatzbedingte Einschränkungen der Bewegung eines Anwenders. Der Übergang von einem Korrekturdatensatz zum nächsten innerhalb der Matrix (im Falle einer groben Unterteilung der Korrekturmatrix) erfolgt vorzugsweise fließend mithilfe von Interpolation . The following are some usage examples where a correction matrix is used to control an application can be used with a visual field recognition. As suggests above, an application on the basis of a face recognition, the calculated position data are adjusted using a correction matrix, ge ¬ be controlled. In addition, typical (anatomically-related) motion sequences of a user in front of a camera for controlling an application can be interpreted more accurately by the use of the correction data. Intuitive gestures to control an application are correctly interpreted by the application despite restrictions on movement in the workplace and human anatomy. In addition, correction matrices are attitude-dependent and differentiate, for example, between standing and sitting users for optimal correction of the position data. The correction matrix may also include correction data for achieving the desired visual field position of the user in dependence on the real actual position of the user visual field. Furthermore, about which he knew ¬ actual position of the field and the correction data of the correction matrix to calculate the user's desired position. The nominal position takes account of anatomical, ergonomic, posture-related and workplace-related restrictions of the movement of a user compared to the actual position. The transition from one correction data set to the next within the matrix (in the case of a coarse subdivision of the correction matrix) preferably takes place smoothly by means of interpolation.
Nachfolgend wird das Erstellen einer Korrekturmatrix nochmals zusammengefasst , wobei die einzelnen Punkte als optional anzusehen sind: In the following the creation of a correction matrix is summarized again, whereby the individual points are to be regarded as optional:
Die Erstellung der Korrekturmatrix erfolgt mithilfe einer erweiterten Ergonomiesimulation.  The correction matrix is created using an extended ergonomics simulation.
Für die Erstellung einer Korrekturmatrix werden existierende, genormte, anatomisch und ergonomisch gültige  For the creation of a correction matrix are existing, standardized, anatomically and ergonomically valid
Mensch-Modelle verwendet (z.B. „Jack", „RAMSIS" oder „Anybody" ermöglichen es, auf einer fundierten Basis schnell und einfach Korrekturdaten zu erzeugen) . Das Mensch-Modell berücksichtigt die Anatomie, die Frei¬ heitsgrade der Gelenke sowie eine ergonomische Verwertung von Körperhaltungen, um typische und bequeme Haltungen über die Korrekturmatrix zu berücksichtigen. Using human models (eg "Jack", "RAMSIS" or "Anybody" make it possible to generate correction data quickly and easily on a well-founded basis). The human model takes into account the anatomy, the free ¬ degrees of freedom of the joints and an ergonomic use of postures to account for typical and comfortable conversation about the correction matrix.
Die Simulation der Bewegungsabläufe (erweiterte Ergonomiesimulation) berücksichtigt die eingeschränkten Freiheitsgrade der Bewegung aufgrund der Arbeitsplatzumgebung (z.B. Tisch, Stuhl, Stuhllehne, Geländer usw.) . Motion simulation (advanced ergonomics simulation) takes into account the limited degrees of freedom of movement due to the work environment (e.g., table, chair, chair back, railing, etc.).
Die zu untersuchenden Soll-Positionen sind so zu wählen, dass typische Bewegungsabläufe um die Nullposition (Ruheposition) des Anwenders herum abgedeckt sind, um die notwendigen Freiheitsgrade zur Steuerung der jeweiligen Anwendung abdecken zu können. The target positions to be examined are to be selected such that typical movements around the zero position (rest position) of the user are covered in order to cover the necessary degrees of freedom for controlling the respective application.
Mithilfe einer inversen Kinematik wird in der Simulation zunächst die Erreichung der Soll-Positionen des Gesichtsfelds untersucht und die Differenzen der Freiheitsgrade zu den erreichbaren Ist-Positionen ermittelt (kinematische Analyse) .  Using inverse kinematics, the simulation firstly investigates the attainment of the desired positions of the visual field and determines the differences in the degrees of freedom to the achievable actual positions (kinematic analysis).
Parallel zur reinen kinematischen Analyse (der Anatomie) erfolgt eine ergonomische Bewertung der jeweiligen Körperhaltung .  Parallel to the pure kinematic analysis (the anatomy) an ergonomic evaluation of the respective posture takes place.
Die ergonomische Bewertung der Haltung wird bei der Erreichbarkeit einer Soll-Position mit ausgewertet.  The ergonomic evaluation of the posture is evaluated when a target position is reached.
Eine Haltung gilt auch als nicht erreichbar, wenn sie vom Mensch-Modell kinematisch (mit der inversen Kinematik) erreicht werden kann, aber ergonomisch unter eine medizinische Bewertungsgrenze fällt. An attitude is also considered unavailable if it can be achieved by the human model kinematic (with inverse kinematics), but falls ergonomically below a medical assessment limit.
Sobald eine Soll-Position kinematisch oder ergonomisch nicht vollständig erreicht werden kann, erfolgt eine Aufnahme von Korrekturdaten in die Korrekturmatrix an der Stelle der tatsächlich erreichten Ist-Position des Anwenders .  As soon as a desired position can not be achieved completely kinematically or ergonomically, correction data is recorded in the correction matrix at the location of the actual position of the user actually achieved.
Nach der Definition der zu untersuchenden Soll- Positionsdaten, der Arbeitsplatzumgebung und der Anatomieanpassung des Mensch-Modells kann der Aufbau der Korrekturmatrix automatisch durch Simulation erfolgen.  After the definition of the target position data to be examined, the workplace environment and the anatomy adaptation of the human model, the structure of the correction matrix can be carried out automatically by simulation.
Die automatische Korrekturmatrixerstellung ermöglicht es, eine individuelle Korrekturmatrix zu erstellen. Diese ist angepasst an die individuelle Anatomie und die Bewegungs¬ freiheitsgrade einer speziellen Arbeitsumgebung. The automatic correction matrix creation makes it possible to create an individual correction matrix. This is adapted to the individual anatomy and the degrees of freedom of movement of a specific work environment.
Der Anwender kann wählen, wie feingranular die Auflösung der Korrekturdaten erfolgen soll. The user can choose how finely granular the resolution of the correction data should be.
Die Dimension der Korrekturmatrix ist auch vom Anwender wählbar und berücksichtigt damit die einzelnen Freiheits¬ grade, die für die Korrektur ausgewertet werden. Damit können Anwendungen für verschiedene Szenarien optimiert werden (z.B. Steuerung von esse-Demonstratoren für Laien oder Applikationen für geübte CAD-Anwender) . The dimensions of the correction matrix is selectable by the user himself and thus takes into account the individual Freedom ¬ grade that are evaluated for correction. Thus, applications for different scenarios can be optimized (eg control of esse demonstrators for laymen or applications for experienced CAD users).
Abhängig von der Anwendung können unterschiedliche Korrekturmatrizen eingesetzt werden, da nicht immer alle Freiheitsgrade der Kopfposition ausgewertet werden (z.B. 2D- und 3D-Bedienung) . Depending on the application, different correction matrices can be used, as not all degrees of freedom of the head position are always evaluated (eg 2D and 3D operation).
Bezugszeichenliste LIST OF REFERENCE NUMBERS
Anatomiesimulation 3D-Szenen Anatomy simulation 3D scenes
Korrekturmatrix Korrektur  Correction matrix correction
Gesichtsfeiderkennun Gesichtsfeiderkennun
Beobachter observer
Gesichtsfeld  Facial field
Abschnitt  section
Webcam  webcam
Bewegung  Move
virtuelle Bewegung Korrekturdatensätze Ko rekturelement Korrekturfunktion Winkelabweichung Winkelabweichung Verfälschung  virtual movement Correction data sets Correction element Correction function Angular deviation Angular deviation Falsification
Verf lschung  Misleading

Claims

Patentansprüche claims
1. Verfahren zum Steuern eines Geräts (2) durch A method of controlling a device (2)
- Erfassen von Gesichtfelddaten (7) einer Person,  - acquiring facial data (7) of a person,
- Ermitteln von Positionsdaten und/oder Ausrichtungsdaten des Gesichts der Person (6) aus den Gesichtsfelddaten (7) und - Determining position data and / or orientation data of the face of the person (6) from the visual field data (7) and
- Steuern des Geräts (2) in Abhängigkeit von den Positionsdaten und/oder Ausrichtungsdaten,  Controlling the device (2) in dependence on the position data and / or alignment data,
gekennzeichnet durch marked by
- Korrigieren (4) der ermittelten Positionsdaten und/oder Ausrichtungsdaten auf der Basis eines Anatomiemodells (1) oder vorgegebener Korrekturdaten vor dem Schritt des Steu- erns .  - Correcting (4) the determined position data and / or alignment data on the basis of an anatomy model (1) or predetermined correction data before the step of the control.
2. Verfahren nach Anspruch 1, wobei mithilfe des Anatomiemo¬ dells (1) oder der Korrekturdaten eine Korrekturmatrix (3) berechnet wird, mit der die Positionsdaten und/oder Ausrichtungsdaten korrigiert werden. 2. The method of claim 1, wherein using the Anatomiemo ¬ dells (1) or of the correction data, a correction matrix (3) is calculated, with which the position data and / or orientation data is corrected.
3. Verfahren nach Anspruch 1 oder 2, wobei das Anatomiemodell (1) individuell für die Person erstellt wird. 3. The method of claim 1 or 2, wherein the anatomical model (1) is created individually for the person.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Korrigieren (4) auch in Abhängigkeit von einer Bewegung der Person (6) erfolgt. 4. The method according to any one of the preceding claims, wherein the correcting (4) also takes place in dependence on a movement of the person (6).
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Korrigieren (4) auch in Abhängigkeit von einer Körperhal- tung der Person (6) erfolgt. 5. The method according to any one of the preceding claims, wherein the correcting (4) also takes place as a function of a body attitude of the person (6).
6. Verfahren nach einem der Ansprüche 2 bis 5, wobei das Gesicht der Person (6) eine Ist-Position und/oder Ist- Ausrichtung einnimmt, die sich von einer jeweiligen Soll- Position unterscheidet, und die Ist-Soll-Differenz in der Korrekturmatrix (3) berücksichtigt wird. 6. The method according to any one of claims 2 to 5, wherein the face of the person (6) occupies an actual position and / or actual orientation, which differs from a respective desired position, and the actual target difference in the Correction matrix (3) is taken into account.
7. Verfahren nach einem der Ansprüche 2 bis 6, wobei die Kor rekturmatrix (3) zwei- oder mehrdimensional ist. 7. The method according to any one of claims 2 to 6, wherein the correction matrix (3) is two- or multi-dimensional.
8. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Übergang von einem Korrekturdatensatz (12) zu einem ande ren Korrekturdatensatz der Korrekturmatrix (3) fließend mithilfe von Interpolation erfolgt. 8. The method according to any one of the preceding claims, wherein the transition from one correction data set (12) to another ren correction data set of the correction matrix (3) is carried out by means of interpolation.
9. Verfahren nach einem der vorhergehenden Ansprüche, wobei mit der Korrekturmatrix (3) nicht nur die ermittelten Positi onsdaten und/oder Ausrichtungsdaten korrigiert werden, sondern auch weitere Parameter für das Steuern des Geräts (2) . 9. The method according to any one of the preceding claims, wherein with the correction matrix (3) not only the determined Positi onsdaten and / or alignment data are corrected, but also other parameters for controlling the device (2).
10. Vorrichtung zum Steuern eines Geräts (2) mit 10. Device for controlling a device (2) with
- einer Erfassungseinrichtung (9) zum Erfassen von Gesichtsfelddaten (7) einer Person (6),  - A detection device (9) for detecting visual field data (7) of a person (6),
- einer Recheneinrichtung zum Ermitteln von Positionsdaten und/oder Ausrichtungsdäten des Gesichts der Person (6) aus den Gesichtsfelddaten (7) und  - A computing device for determining position data and / or Ausrichtungsdäten the face of the person (6) from the visual field data (7) and
- einer Steuereinrichtung zum Steuern des Geräts (2) in Abhängigkeit von den Positionsdaten und/oder Ausrichtungsdäten,  a control device for controlling the device (2) in dependence on the position data and / or alignment devices,
dadurch gekennzeichnet, dass characterized in that
- mit der Recheneinrichtung die ermittelten Positionsdaten und/oder Ausrichtungsdäten auf der Basis eines Anatomiemodells (1) für die Steuereinrichtung korrigierbar sind.  - With the computing device, the determined position data and / or alignment devices on the basis of an anatomy model (1) for the control device can be corrected.
PCT/EP2010/004896 2010-08-10 2010-08-10 Method and device for controlling an apparatus having visual-field detection WO2012019623A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/EP2010/004896 WO2012019623A1 (en) 2010-08-10 2010-08-10 Method and device for controlling an apparatus having visual-field detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2010/004896 WO2012019623A1 (en) 2010-08-10 2010-08-10 Method and device for controlling an apparatus having visual-field detection

Publications (1)

Publication Number Publication Date
WO2012019623A1 true WO2012019623A1 (en) 2012-02-16

Family

ID=43821803

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2010/004896 WO2012019623A1 (en) 2010-08-10 2010-08-10 Method and device for controlling an apparatus having visual-field detection

Country Status (1)

Country Link
WO (1) WO2012019623A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010040572A1 (en) * 1998-12-01 2001-11-15 Gary R. Bradski Computer vision control variable transformation
US20030080979A1 (en) * 2001-10-26 2003-05-01 Canon Kabushiki Kaisha Image display apparatus and method, and storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010040572A1 (en) * 1998-12-01 2001-11-15 Gary R. Bradski Computer vision control variable transformation
US20030080979A1 (en) * 2001-10-26 2003-05-01 Canon Kabushiki Kaisha Image display apparatus and method, and storage medium

Similar Documents

Publication Publication Date Title
DE102011083876B4 (en) Method for controlling the movement of an X-ray device and X-ray system
DE69738073T2 (en) SYSTEM FOR THE TRAINING OF PERSONS FOR THE PERFORMANCE OF MINIMALLY INVASIVE SURGICAL PROCEDURES
DE102007033486B4 (en) Method and system for mixing a virtual data model with an image generated by a camera or a presentation device
DE19937265A1 (en) Measuring head positioning device on a non-contact three-dimensional measuring machine has a device for determining the position of the measuring head with respect to a first reference system
EP3709133B1 (en) Virtual object haptic interaction system for virtual reality applications
WO2015117906A1 (en) 2d image analyzer
WO2001033323A2 (en) Computer-aided video-based method for contactlessly determining the direction of view pertaining to an eye of a user for the eye-guided interaction between human beings and computers and a device for carrying out said method
DE112018001710T5 (en) Walking aid system, walking aid procedure and walking aid program
DE102007001684A1 (en) image Registration
DE102014226756A1 (en) An imaging assembly and method for positioning a patient in an imaging modality
EP2325725A1 (en) Method for producing an effect on virtual objects
EP1894538A1 (en) Method and device for determining the position of pelvic planes
DE69725953T2 (en) Image display method and device
DE102009056466A1 (en) Adaptive control system for prostheses with arbitrary control
DE102020131786A1 (en) METHOD FOR METAL ARTIFACT AVOIDANCE IN X-RAY IMAGING
DE112016001829T5 (en) Automatically associate images using visual property references to related applications
DE102009020307A1 (en) Simulator for a visual inspection device
DE102012211742B4 (en) Method for determining a distance by means of X-ray imaging and X-ray apparatus
DE10001709A1 (en) Generating method for X=ray photographs in C-curve X=ray device, involves preparing X=ray photographs based on transformation regulation for combined three=dimensional data sets
DE10118397C2 (en) System and method for the subjective assessment of a vehicle construction in a virtual environment with the help of virtual reality
EP2122424A2 (en) Industrial robot, and methods for determining the position of an industrial robot relative to an object
WO2012019623A1 (en) Method and device for controlling an apparatus having visual-field detection
DE102020100366A1 (en) Procedure for 3D motion analysis and instant feedback for training exercises
WO2016012556A1 (en) Image generating apparatus and method with combination of functional imaging and ultrasound imaging
EP4016061B1 (en) Method for operating an x-ray system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10744689

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10744689

Country of ref document: EP

Kind code of ref document: A1