DE202015100273U1 - input device - Google Patents
input device Download PDFInfo
- Publication number
- DE202015100273U1 DE202015100273U1 DE201520100273 DE202015100273U DE202015100273U1 DE 202015100273 U1 DE202015100273 U1 DE 202015100273U1 DE 201520100273 DE201520100273 DE 201520100273 DE 202015100273 U DE202015100273 U DE 202015100273U DE 202015100273 U1 DE202015100273 U1 DE 202015100273U1
- Authority
- DE
- Germany
- Prior art keywords
- hand
- input device
- area
- gesture
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000007935 neutral effect Effects 0.000 claims abstract description 68
- 230000008859 change Effects 0.000 claims abstract description 22
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 230000005484 gravity Effects 0.000 claims description 17
- 230000000284 resting effect Effects 0.000 claims description 2
- 230000033001 locomotion Effects 0.000 description 57
- 239000013598 vector Substances 0.000 description 16
- 210000000707 wrist Anatomy 0.000 description 11
- 238000000034 method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000004907 flux Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
- B60K2360/1464—3D-gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/21—Optical features of instruments using cameras
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Eingabevorrichtung (2), insbesondere eines Kraftfahrzeugs (1), mit einem Kamerasensor (3) zum berührungsfreien Erfassen einer Position und/oder Positionsänderung von mindestens einem Finger (8) einer Hand (6) eines Benutzers, wobei die Eingabevorrichtung (2) dazu ausgebildet ist, in Abhängigkeit von der Position und/oder Positionsänderung des mindestens einen Fingers (8) eine Eingabe zu erkennen und auszuführen, dadurch gekennzeichnet, dass die Eingabevorrichtung (2) in dem von dem Kamerasensor (3) erfassten Bild einen neutralen Bereich (11) bestimmt, an den wenigstens ein Gestikbereich (12–15) angrenzt, wobei die Eingabevorrichtung (2) eine in dem Gestikbereich (12–15) erfolgende Positionsänderung nur dann als Eingabe berücksichtigt, wenn sie aus dem neutralen Bereich (11) kommend erfolgt.Input device (2), in particular of a motor vehicle (1), with a camera sensor (3) for contactless detection of a position and / or position change of at least one finger (8) of a hand (6) of a user, the input device (2) being designed for this purpose is to detect and execute an input in dependence on the position and / or position change of the at least one finger (8), characterized in that the input device (2) in the image captured by the camera sensor (3) has a neutral area (11) determined, adjacent to the at least one Gestikbereich (12-15), wherein the input device (2) takes into account in the Gestikbereich (12-15) position change only as an input when it comes from the neutral region (11) coming.
Description
Die Erfindung betrifft eine Eingabevorrichtung, insbesondere eines Kraftfahrzeugs, die einen Kamerasensor zum berührungsfreien Erfassen der Position und/oder Positionsänderung mindestens eines Fingers einer Hand eines Benutzers aufweist, wobei die Eingabevorrichtung dazu ausgebildet ist, in Abhängigkeit von der erfassten Position und/oder Positionsänderung des Fingers auf eine Eingabe beziehungsweise eine Eingabe zu erkennen und diese auszuführen. The invention relates to an input device, in particular of a motor vehicle, having a camera sensor for detecting the position and / or position change of at least one finger of a user's hand without contact, wherein the input device is designed in dependence on the detected position and / or position change of the finger to recognize an input or an input and execute them.
Stand der TechnikState of the art
Bei heutigen Kraftfahrzeugen werden Bedienkonzepte eingesetzt, bei denen eine Eingabevorrichtung und eine Anzeigevorrichtung nah beieinander angeordnet sind. Üblicherweise werden hierzu sogenannte berührungsempfindliche Bildschirme und sogenannte Touchscreens vorgesehen, bei denen Bedienung und Anzeige an der gleichen Stelle erfolgen. Häufig werden Anzeigevorrichtungen im oberen Bereich einer Bedienkonsole oder eines Armaturenbretts des Kraftfahrzeugs angebracht, damit der Fahrer zum Ablesen seinen Blick nicht zu stark von dem Verkehrsgeschehen abwenden muss. In anderen Fahrzeugen befinden sich ein Touchpad, also ein berührungsempfindlicher Sensor, im Bereich der Armauflage des Fahrers, und die Anzeigevorrichtung an gewohnter Stelle im Bereich des Armaturenbretts. Eine visuelle Rückmeldung an den Fahrer bei der Bedienung des Sensors kann dabei in Form von einer angedeuteten durchsichtigen Hand, die durch die Anzeigevorrichtung dargestellt wird, erfolgen. Dadurch kann der Fahrer bequem die Eingabevorrichtung betätigen, während ihm die Anzeige weiterhin in einem vorteilhaften Blickwinkel präsentiert wird. In diesem Fall ist es auch denkbar, die Anzeigevorrichtung nicht als Bildschirm, sondern als Head-Up-Display auszubilden. In today's motor vehicles operating concepts are used in which an input device and a display device are arranged close to each other. Usually, so-called touch-sensitive screens and so-called touch screens are provided for this purpose, in which operation and display take place at the same location. Frequently display devices are mounted in the upper part of a control panel or dashboard of the motor vehicle, so that the driver does not have to turn his eyes too far away from the traffic to read. In other vehicles are a touchpad, so a touch-sensitive sensor, in the area of the armrest of the driver, and the display device at the usual place in the area of the dashboard. A visual feedback to the driver in the operation of the sensor can take place in the form of an indicated transparent hand, which is represented by the display device. Thereby, the driver can conveniently operate the input device while the display is still presented to him in an advantageous viewpoint. In this case, it is also conceivable not to design the display device as a screen, but as a head-up display.
Während klassische berührungsempfindliche Sensoren beziehungsweise Touchpads eine Berührung durch den Benutzer zu ihrer Bedienung benötigen, sind auch Eingabevorrichtungen bekannt, die berührungsfrei Eingaben erkennen beziehungsweise registrieren. Dabei werden beispielsweise mithilfe von Tiefensensoren die Positionen von Hand, Fingern und/oder Arm eines Benutzers im Raum erkannt und für eine Gestikbedienung ausgewertet. Für Fingergesten ist eine hohe Auflösung erforderlich, die mit Sensoren, wie beispielsweise Time-of-Flight-Sensoren, mit Stereokameras, strukturiertem Licht oder ähnlichem erreicht werden kann. Für Hand- oder Körpergesten können auch Sensoren mit einer geringeren Auflösung eingesetzt werden, wie beispielsweise Radarsensoren. Durch einen oder mehrere Sensoren wird also die Position oder Positionsänderung der Hand eines Benutzers erfasst, wobei in Abhängigkeit der erfassten Position und/oder Positionsänderung eine beziehungsweise auf eine Eingabe erkannt und diese ausgeführt wird. Der Benutzer zeigt somit mit einer Bewegung seiner Hand beziehungsweise mit einer Bewegung zumindest eines Fingers seiner Hand der Eingabevorrichtung an, welche Eingabe er vornehmen möchte. Die Eingabevorrichtung erkennt anhand der Hand-/Fingerbewegung die gewünschte Eingabe und führt diese aus, indem sie den durch die Bewegung vorgegebenen Befehl umsetzt und beispielsweise einen Betriebsparameter des Kraftfahrzeugs verändert. So kann beispielsweise in Abhängigkeit von der Position und Positionsänderung eines Fingers des Benutzers auf die Eingabe „Lautstärke erhöhen“ erkannt und von der Eingabevorrichtung ausgeführt werden, indem sie die Lautstärke, beispielsweise eines Unterhaltungssystems des Kraftfahrzeugs, erhöht.While classical touch-sensitive sensors or touchpads require a touch by the user to operate them, input devices are also known which recognize or register inputs without contact. With the aid of depth sensors, for example, the positions of a user's hand, fingers and / or arm are detected in the room and evaluated for gesture operation. Finger gestures require high resolution, which can be achieved with sensors such as time-of-flight sensors, stereo cameras, structured light, or the like. For hand or body gestures, sensors with a lower resolution can also be used, such as radar sensors. By one or more sensors, therefore, the position or position change of the hand of a user is detected, and detected in response to the detected position and / or position change or an input and this is executed. The user thus indicates with a movement of his hand or with a movement of at least one finger of his hand to the input device, which input he wants to make. The input device recognizes the desired input on the basis of the hand / finger movement and executes it by converting the command given by the movement and, for example, changing an operating parameter of the motor vehicle. For example, depending on the position and position change of a user's finger, the "increase volume" input can be detected and executed by the input device by increasing the volume of, for example, an entertainment system of the motor vehicle.
Aus der Offenlegungsschrift
Offenbarung der ErfindungDisclosure of the invention
Die erfindungsgemäße Eingabevorrichtung mit den Merkmalen des Anspruchs 1 hat den Vorteil, dass zwischen beabsichtigen Wischgesten und unbeabsichtigten Rückführbewegungen oder Ausholbewegungen des Benutzers auf einfache und ressourcensparende Art und Weise unterschieden wird. Ein von dem Kamerasensor erfasstes Bild wird dazu in mehrere Bereiche aufgeteilt, wobei eine Bewegung der Finger und/oder der Hand des Benutzers nur dann als Geste erkannt beziehungsweise für die Ermittlung der Eingabe berücksichtigt wird, wenn die durchgeführte Positionsänderung in dem jeweiligen Bereich die durch den jeweiligen Bereich definierten Voraussetzungen beziehungsweise Bedingungen erfüllt. Erfindungsgemäß ist dabei vorgesehen, dass in dem von dem Kamerasensor erfassten Bild ein neutraler Bereich bestimmt wird, an den wenigstens ein Gestikbereich angrenzt, wobei eine in dem Gestikbereich erfolgende Positionsänderung nur dann als Eingabe berücksichtigt wird, wenn sie aus dem neutralen Bereich kommend erfolgt. Der Benutzer muss somit zunächst eine Hand im neutralen Bereich positionieren und dann zum Durchführen einer Wischgeste insbesondere seine Finger aus dem neutralen Bereich hinaus bis in den Gestikbereich bewegen, damit seine Wischgeste als beabsichtigte Wischgeste erkannt und eine damit verknüpfte Aktion durch die Eingabevorrichtung ausgeführt wird. Insbesondere wird dem Benutzer an einer Anzeigeeinrichtung die Position seiner Hand im Erfassungsbereich des Kamerasensors und damit in dem vom dem Kamerasensor erfassten Bild zumindest schematisch angezeigt, wobei zusätzlich zweckmäßigerweise der neutrale Bereich und wenigstens ein Gestikbereich angezeigt werden, sodass sich der Benutzter leicht orientieren und die Wischgeste durchführen kann. Die Größe des neutralen Bereichs wird dabei vorzugsweise derart gewählt, dass eine im Vergleich zu einer beabsichtigten Wischgeste normalerweise kleiner ausfallende Ausholgeste innerhalb des neutralen Bereichs erfolgen kann. Dadurch wird vermieden, dass bei der Ausholgeste Finger der Hand ungewollt in einen benachbarten Gestikbereich gelangen und dort als Eingabe gewertet werden könnten. Dem Benutzer ist es somit möglich, eindeutige Wischgesten auszuführen, um die Eingabevorrichtung zu bedienen, beziehungsweise mittels der Eingabevorrichtung andere Einrichtungen des Kraftfahrzeugs zu betätigen beziehungsweise zu bedienen.The input device according to the invention with the features of claim 1 has the advantage that a distinction between intentional wiping gestures and unintentional return movements or Ausholbewegungen the user in a simple and resource-saving manner. A captured by the camera sensor image is divided into several areas, with a movement of the fingers and / or the hand of the user is only recognized as a gesture or taken into account for the determination of the input when the position change carried out in the respective area by the respective area defined conditions or conditions. According to the invention, it is provided that in the image captured by the camera sensor, a neutral area is determined to which at least one gesture area adjoins, wherein a change in position taking place in the gesture area is taken into account as input only if it occurs from the neutral area. Thus, the user must first position a hand in the neutral area and then, in particular, move his fingers from the neutral area to the gesture area to perform a swipe gesture so that his swipe gesture is recognized as an intended swipe gesture and an associated action is performed by the input device. In particular, the Users displayed on a display device, the position of his hand in the detection range of the camera sensor and thus in the image detected by the camera sensor at least schematically, additionally expediently the neutral area and at least one gestural area are displayed so that the user can easily orient and perform the swipe gesture. The size of the neutral region is preferably chosen such that a precipitation gesture which is normally smaller in comparison to an intended wiping gesture can take place within the neutral region. This avoids that in the Ausholgeste fingers of the hand unintentionally get into a neighboring Gestikbereich and there could be counted as input. The user is thus able to carry out clear swipe gestures in order to operate the input device, or to operate or operate other devices of the motor vehicle by means of the input device.
Gemäß einer bevorzugten Weiterbildung der Erfindung ist vorgesehen, dass die Eingabevorrichtung derart ausgebildet ist, dass Positionsänderungen in dem Gestikbereich nur dann als Eingabe berücksichtig werden, wenn sie in Richtung von dem neutralen Bereich weg erfolgen. Dadurch wird gewährleistet, dass Rückführbewegungen der Hand beziehungsweise der Finger der Hand ebenfalls nicht als Eingabe-Geste berücksichtigt werden.According to a preferred embodiment of the invention, it is provided that the input device is designed such that position changes in the gesture area are taken into account as input only if they take place in the direction away from the neutral area. This ensures that return movements of the hand or the fingers of the hand are also not considered as an input gesture.
Weiterhin ist bevorzugt vorgesehen, dass der neutrale Bereich in Abhängigkeit von einer Position der Hand in dem erfassten Bild derart bestimmt wird, sodass die zumindest im Wesentlichen ruhende Hand zumindest im Wesentlichen innerhalb des neutralen Bereichs liegt. Dadurch wird erreicht, dass Bewegungen, insbesondere der Fingerspitzen, stets aus dem neutralen Bereich heraus erfolgen, beziehungsweise in dem neutralen Bereich starten. Insbesondere ist der neutrale Bereich dabei rechteckförmig ausgebildet, sodass er eine ausgestreckte Hand des Benutzers vollständig aufnehmen kann. Vorzugsweise wird die Größe des neutralen Bereichs an die Größer einer im Bild erfassten Hand angepasst. Dadurch kann beispielsweise auch berücksichtigt werden, wie nah sich die Hand des Benutzers zu dem Kamerasensor befindet. Dadurch wird die Variabilität und Robustheit des Systems weiter erhöht. Sofern dem Benutzer der neutrale Bereich angezeigt wird, kann der neutrale Bereich alternativ als feststehender Bereich in dem Bild des Kamerasensors bestimmt werden.Furthermore, it is preferably provided that the neutral area is determined as a function of a position of the hand in the captured image such that the at least substantially resting hand lies at least substantially within the neutral area. It is thereby achieved that movements, in particular of the fingertips, always take place out of the neutral area or start in the neutral area. In particular, the neutral area is rectangular in shape so that it can completely accommodate an outstretched hand of the user. Preferably, the size of the neutral area is adjusted to the size of a hand grasped in the image. As a result, it can also be taken into account, for example, how close the user's hand is to the camera sensor. This further increases the variability and robustness of the system. Alternatively, if the neutral area is displayed to the user, the neutral area may be determined as a fixed area in the image of the camera sensor.
Gemäß einer bevorzugten Weiterbildung ist vorgesehen, dass der neutrale Bereich größer als die Hand eingestellt wird, sodass der Gestikbereich beabstandet zu der in dem neutralen Bereich befindlichen Hand liegt. Wie zuvor bereits erwähnt, wird dadurch gewährleistet, dass bei dem Einleiten einer Wischgeste zunächst ein Stück des neutralen Bereichs überwunden werden muss, bis die Fingerspitzen in den Gestikbereich gelangen, wodurch unbeabsichtigte Gesten oder Ausholbewegungen bei dem Erkennen der Eingabe nicht berücksichtigt werden.According to a preferred embodiment it is provided that the neutral area is set larger than the hand, so that the gestural area is spaced from the hand located in the neutral area. As already mentioned above, this ensures that, when a swipe gesture is initiated, a portion of the neutral area must first be overcome until the fingertips reach the gestural area, whereby unintentional gestures or outward movements are not taken into account in the recognition of the input.
Besonders bevorzugt ist vorgesehen, dass der neutrale Bereich mit der Hand mitbewegt wird. Hierdurch kann insbesondere das Anzeigen der Hand in dem von dem Kamerasensor erfassten Bild entfallen. Dadurch, dass der neutrale Bereich mit bewegt wird, ist stets gewährleistet, dass der Benutzer eine Wischgeste aus dem neutralen Bereich heraus startet. Hierzu ist bevorzugt vorgesehen, dass der neutrale Bereich mit einer im Vergleich zu einer typischen Wischgeste geringeren Geschwindigkeit bewegt wird, um zu vermeiden, dass der neutrale Bereich mit der Wischgeste mitbewegt und dadurch die Wischgeste nicht als Eingabe erkannt wird. Alternativ oder zusätzlich kann vorgesehen sein, dass der bewegte Bereich an einem Punkt der Hand verankert wird, welcher sich üblicherweise langsamer bewegt als insbesondere die Fingerspitzen bei dem Durchführen einer Wischgeste.Particularly preferred is provided that the neutral area is moved by hand. As a result, in particular the display of the hand in the image captured by the camera sensor can be omitted. The fact that the neutral area is moved, it is always ensured that the user starts a swipe gesture from the neutral area. For this purpose, it is preferably provided that the neutral area is moved with a lower speed compared to a typical swiping gesture, in order to avoid that the neutral area moves with the swipe gesture and thus the swipe gesture is not recognized as an input. Alternatively or additionally, it can be provided that the moving region is anchored at a point of the hand, which usually moves slower than in particular the fingertips when performing a swipe gesture.
Insbesondere ist dazu vorgesehen, dass ein Schwerpunkt der Hand ermittelt und in Abhängigkeit von der Position/Positionsänderung des Schwerpunkts der Hand der neutrale Bereich mitbewegt wird. Insbesondere ist vorgesehen, dass als Schwerpunkt der Hand ein Handgelenk der Hand ermittelt wird. Dies kann durch eine Analyse der Bilddaten des Kamerasensors auf bekannte Art und Weise erfolgen. Im Vergleich zum Handgelenk werden die Finger bei einer Wischgeste wesentlich schneller bewegt, sodass Geschwindigkeitsunterschiede zwischen Fingern und Handgelenk beziehungsweise zwischen Fingern und dem Schwerpunkt der Hand vorliegen, die für das oben beschrieben Verfahren ausgenutzt werden. Während der neutrale Bereich maximal mit der Geschwindigkeit des Handgelenks beziehungsweise Schwerpunkts der Hand bewegt wird, können die Finger für die erhöhte Geschwindigkeit den neutralen Bereich verlassen und in den Gestikbereich eindringen, sodass die dort erfolgende Positionsänderung(en) bei der Bestimmung der Eingabe berücksichtig wird (werden).In particular, it is provided that a center of gravity of the hand is determined and the neutral area is moved in dependence on the position / position change of the center of gravity of the hand. In particular, it is provided that a wrist of the hand is determined as the center of gravity of the hand. This can be done by analyzing the image data of the camera sensor in a known manner. Compared to the wrist, the fingers are moved much faster in a swipe gesture, so there are speed differences between the fingers and wrist or between the fingers and the center of gravity of the hand, which are used for the method described above. While the neutral range is being moved maximally with the speed of the wrist or center of gravity of the hand, the fingers for the increased speed can leave the neutral range and penetrate the gesture range so that the position change (s) occurring there is taken into account in determining the input (FIG. become).
Weiterhin ist bevorzugt vorgesehen, dass an den neutralen Bereich angrenzend wenigstens zwei einander an dem neutralen Bereich gegenüberliegend angeordnete Gestikbereiche eingerichtet werden. Beide Gestikbereiche werden wie oben beschrieben betrieben beziehungsweise bei der Auswertung einer Wischgeste genutzt. Damit kann der Benutzer ausgehend von dem neutralen Bereich eine Wischgeste in zwei Richtungen durchführen, um sich beispielsweise durch ein Kontextmenü hochzubewegen, indem er die Wischgeste in den einen Gestikbereich durchführt, oder herunterbewegen, indem er die Wischgeste in den gegenüberliegenden, anderen Gestikbereich durchführt. Zweckmäßigerweise ist auf der dem Handgelenk gegenüberliegenden Seite ebenfalls ein Gestikbereich an den neutralen Bereich angrenzend vorgesehen.Furthermore, it is preferably provided that at least two gestural areas arranged opposite one another on the neutral area are set up adjacent to the neutral area. Both Gestikbereiche are operated as described above or used in the evaluation of a swipe gesture. Thus, starting from the neutral area, the user can swipe in two directions, for example, to move up through a contextual menu, by making the swipe gesture in the one gesture area, or moving down by he makes the swipe gesture in the opposite, different gestures area. Appropriately, on the opposite side of the wrist also a gesture area adjacent to the neutral area provided.
Weiterhin ist bevorzugt vorgesehen, dass, wenn eine Positionsänderung in mehreren Gestikbereichen erfasst wird, nur die Positionsänderung für die Eingabe berücksichtig wird/werden, die in dem Gestikbereich erfolgt/erfolgen, in welchem die meisten dieser Positionsänderungen erfasst werden. Hierdurch wird darüber hinaus gewährleistet, dass, wenn der Benutzer eine überraschend große Ausholbewegung durchführen sollte, in Zuge derer er mit seiner Hand in einen Gestikbereich gelangt, den er eigentlich gar nicht erreichen wollte, dennoch die korrekte Eingabe durchgeführt wird. Besonderes bevorzugt werden die Positionsänderungen auf Basis von Vektordaten, die auf Basis des von dem Kamerasensor erfassten Bildes bestimmt werden, berechnet beziehungsweise ermittelt. Dadurch können eindeutige Bewegungsrichtungen bestimmt und mit der beispielsweise zulässigen Bewegungsrichtung einer der Gestikbereiche verglichen werden, um eine schnelle Auswertung der Positionsänderungen und damit eine schnelle Erkennung der gewünschten Eingabe zu gewährleisten. Furthermore, it is preferably provided that when a position change is detected in a plurality of gesture areas, only the position change for the input takes place, which takes place in the gesture area in which most of these position changes are detected. This also ensures that, if the user should perform a surprisingly large Ausholbewegung in which he gets his hand in a Gestikbereich that he actually did not want to reach, yet the correct input is performed. Particularly preferably, the position changes are calculated or determined on the basis of vector data which are determined on the basis of the image captured by the camera sensor. As a result, clear directions of movement can be determined and compared with the permissible direction of movement of one of the gesture areas, for example, in order to ensure rapid evaluation of the position changes and thus rapid recognition of the desired input.
Im Folgenden soll die Erfindung anhand der Zeichnung näher erläutert werden. Dazu zeigenIn the following, the invention will be explained in more detail with reference to the drawing. Show this
Die Eingabevorrichtung
Das in
An den neutralen Bereich
Um nur eine Wischgeste nach links durchzuführen, muss die Handfläche mit den Fingern
Die Gestikbereiche
Zur Durchführen des Verfahrens weist die Signalvorrichtung
Dabei bezeichnet N die Anzahl der Flussvektoren im gefilterten Flussfeld und p (xi, yi) den Aufpunkt des jeweiligen Flussvektors j in Bildkoordinaten. Um die Robustheit beziehungsweise Trägheit des berechneten Schwerpunktes
Relativ zu dem ermittelten Schwerpunkt
Weiterhin führt die Recheneinheit einen Algorithmus aus, der den Gestikbereich mit der momentan maximalen Bewegung beziehungsweise mit der momentan maximalen Anzahl von Positionsänderungen detektiert. Dies geschieht vorteilhafterweise indem in jedem Zeitschritt für jede der Gestikbereiche
Für den Gestikbereich, in dem sowohl die gemittelte Länge der Flussvektoren wie auch die Anzahl der „schnellen“ Flussvektoren maximal ist, wird im Anschluss die Bewegungsinformation weiter analysiert. Dazu wird basierend aus allen Flussvektoren in diesem Gestikbereich die mittlere Richtung der Flussvektoren (vorzugsweise in Grad) berechnet und auf einen Quadranten des Einheitskreises abgebildet. So entspricht beispielsweise eine Bewegung nach links einem Winkelbereich von 45° bis 135°, Wischen nach unten in den Gestikbereich
Ein vordefiniertes Gestenalphabet, also mit den unterschiedlichen Gesten verknüpfte Aktionen, ordnet jeder der vier Gestikbereiche
Generell kann die Zuordnung der Wischrichtungen zu Quadranten am Einheitskreis frei parametrisiert werden und hängt insbesondere von der konkreten Implementierung des Algorithmus ab. Darüber hinaus können die Winkelauflösungen für verschiedene Richtungen nicht-äquidistant und beliebig gewählt werden, um zum Beispiel die Erkennung von Wischgesten in bestimmte Richtungen mehr oder wenigster sensitiv zu gestalten. Wird gemäß definiertem Gestenalphabet in einer Zone mit maximaler Bewegung die zulässige Bewegungsrichtung ermittelt, so wird von der Eingabevorrichtung
Anstatt die Flussrichtung in einem Gestikbereich durch reine Mittelung zu errechnen, ist es auch denkbar, bei der Berechnung der mittleren Flussrichtung die Richtungsinformation der Flussvektoren mit ihrer Länge (Bewegungsintensität) zu gewichten. Das geschilderte Verfahren setzt voraus, dass eine Geste im neutralen Bereich
Durch die Erfassung des Schwerpunktes
Als Erweiterung ist es denkbar, neben der Erkennung von einfachen unidirektionalen Wischgesten das Gestenalphabet beziehungsweise die zu erkennenden Eingaben auf zusammengesetzte Wischgesten zu erweitern. Durch die Aufteilung des Erfassungsbereichs in an den Schwerpunkt
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 20120105613 A1 [0004] US 20120105613 A1 [0004]
- EP 2441635 A1 [0004] EP 2441635 A1 [0004]
Claims (8)
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201520100273 DE202015100273U1 (en) | 2014-12-04 | 2015-01-22 | input device |
ITUB2015A006045A ITUB20156045A1 (en) | 2014-12-04 | 2015-12-02 | INPUT DEVICE |
FR1561811A FR3029655B1 (en) | 2014-12-04 | 2015-12-03 | DEVICE FOR ENTRY IN PARTICULAR FROM A MOTOR VEHICLE FOR NON-CONTACT SEIZURE OF THE POSITION AND / OR CHANGE OF POSITION OF AT LEAST ONE FINGER OF A USER'S HAND |
CN201511035963.6A CN105759955B (en) | 2014-12-04 | 2015-12-04 | Input device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014224898.1 | 2014-12-04 | ||
DE102014224898.1A DE102014224898A1 (en) | 2014-12-04 | 2014-12-04 | Method for operating an input device, input device |
DE201520100273 DE202015100273U1 (en) | 2014-12-04 | 2015-01-22 | input device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202015100273U1 true DE202015100273U1 (en) | 2015-04-08 |
Family
ID=52991262
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014224898.1A Pending DE102014224898A1 (en) | 2014-12-04 | 2014-12-04 | Method for operating an input device, input device |
DE201520100273 Active DE202015100273U1 (en) | 2014-12-04 | 2015-01-22 | input device |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014224898.1A Pending DE102014224898A1 (en) | 2014-12-04 | 2014-12-04 | Method for operating an input device, input device |
Country Status (4)
Country | Link |
---|---|
CN (1) | CN105759955B (en) |
DE (2) | DE102014224898A1 (en) |
FR (1) | FR3029655B1 (en) |
IT (1) | ITUB20156045A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015015067A1 (en) * | 2015-11-20 | 2017-05-24 | Audi Ag | Motor vehicle with at least one radar unit |
EP3232372A1 (en) | 2016-04-13 | 2017-10-18 | Volkswagen Aktiengesellschaft | User interface, means of locomotion and method for detecting a hand of a user |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019092386A1 (en) | 2017-11-13 | 2019-05-16 | Nicand Patrick | Gesture-based control system for actuators |
FR3073649B1 (en) * | 2017-11-13 | 2020-08-28 | Frederic Delanoue | ACTUATOR GESTUAL CONTROL SYSTEM |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2441635A1 (en) | 2010-10-06 | 2012-04-18 | Harman Becker Automotive Systems GmbH | Vehicle User Interface System |
US20120105613A1 (en) | 2010-11-01 | 2012-05-03 | Robert Bosch Gmbh | Robust video-based handwriting and gesture recognition for in-car applications |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110055062A (en) * | 2009-11-19 | 2011-05-25 | 삼성전자주식회사 | Robot system and method for controlling the same |
WO2012147961A1 (en) * | 2011-04-28 | 2012-11-01 | Necシステムテクノロジー株式会社 | Information processing device, information processing method, and recording medium |
CN102436301B (en) * | 2011-08-20 | 2015-04-15 | Tcl集团股份有限公司 | Human-machine interaction method and system based on reference region and time domain information |
US20130053007A1 (en) * | 2011-08-24 | 2013-02-28 | Microsoft Corporation | Gesture-based input mode selection for mobile devices |
US8970519B2 (en) * | 2012-02-01 | 2015-03-03 | Logitech Europe S.A. | System and method for spurious signal detection and compensation on an input device |
JP5593339B2 (en) * | 2012-02-07 | 2014-09-24 | 日本システムウエア株式会社 | Gesture recognition device using a steering wheel of an automobile, hand recognition method and program thereof |
CN102662557B (en) * | 2012-03-07 | 2016-04-13 | 上海华勤通讯技术有限公司 | Mobile terminal and unlock method |
US9448635B2 (en) * | 2012-04-16 | 2016-09-20 | Qualcomm Incorporated | Rapid gesture re-engagement |
JP6030430B2 (en) * | 2012-12-14 | 2016-11-24 | クラリオン株式会社 | Control device, vehicle and portable terminal |
-
2014
- 2014-12-04 DE DE102014224898.1A patent/DE102014224898A1/en active Pending
-
2015
- 2015-01-22 DE DE201520100273 patent/DE202015100273U1/en active Active
- 2015-12-02 IT ITUB2015A006045A patent/ITUB20156045A1/en unknown
- 2015-12-03 FR FR1561811A patent/FR3029655B1/en active Active
- 2015-12-04 CN CN201511035963.6A patent/CN105759955B/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2441635A1 (en) | 2010-10-06 | 2012-04-18 | Harman Becker Automotive Systems GmbH | Vehicle User Interface System |
US20120105613A1 (en) | 2010-11-01 | 2012-05-03 | Robert Bosch Gmbh | Robust video-based handwriting and gesture recognition for in-car applications |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015015067A1 (en) * | 2015-11-20 | 2017-05-24 | Audi Ag | Motor vehicle with at least one radar unit |
US10528148B2 (en) | 2015-11-20 | 2020-01-07 | Audi Ag | Motor vehicle with at least one radar unit |
EP3232372A1 (en) | 2016-04-13 | 2017-10-18 | Volkswagen Aktiengesellschaft | User interface, means of locomotion and method for detecting a hand of a user |
DE102016206142A1 (en) | 2016-04-13 | 2017-10-19 | Volkswagen Aktiengesellschaft | User interface, means of locomotion and method of detecting a hand of a user |
Also Published As
Publication number | Publication date |
---|---|
ITUB20156045A1 (en) | 2017-06-02 |
FR3029655B1 (en) | 2018-11-16 |
DE102014224898A1 (en) | 2016-06-09 |
FR3029655A1 (en) | 2016-06-10 |
CN105759955A (en) | 2016-07-13 |
CN105759955B (en) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3507681B1 (en) | Method for interacting with image contents displayed on a display device in a vehicle | |
DE102008016215A1 (en) | Information device operating unit | |
DE102012020607B4 (en) | A motor vehicle with a gesture control device and method for controlling a selection element | |
DE102015211358A1 (en) | INPUT DEVICE FOR VEHICLES AND VEHICLE COCKPIT MODULE | |
WO2013034294A1 (en) | Control device for a motor vehicle and method for operating the control device for a motor vehicle | |
EP3642695B1 (en) | Method for operating a display device, and a motor vehicle | |
DE102015211357A1 (en) | INPUT DEVICE FOR VEHICLES | |
DE102014226553A1 (en) | Method for operating an input device, input device, motor vehicle | |
DE102013000066A1 (en) | Zooming and moving an image content of a display device | |
DE202015100273U1 (en) | input device | |
WO2015162058A1 (en) | Gesture interaction with a driver information system of a vehicle | |
DE102013000069B4 (en) | Motor vehicle user interface with a control element for detecting a control action | |
DE102015115362B4 (en) | Detection device for a motor vehicle and motor vehicle | |
WO2016120251A1 (en) | Method for operating an input device, input device | |
WO2017054894A1 (en) | Interactive operating system and method for carrying out an operational action in an interactive operating system | |
EP3234736B1 (en) | Method for operating an input device, input device, motor vehicle | |
DE102014224599A1 (en) | Method for operating an input device, input device | |
DE102014224632A1 (en) | Method for operating an input device, input device | |
DE102015201722A1 (en) | Method for operating an input device, input device | |
EP3025214B1 (en) | Method for operating an input device, and input device | |
WO2014040807A1 (en) | Touch entries along a ridge/depression on a touch-sensitive surface | |
DE102015117386B4 (en) | Method and device for activating an input area on a capacitive input area | |
WO2024126352A1 (en) | Method and system for capturing user inputs | |
DE112015003916T5 (en) | Vehicle touch pad and vehicle input interface | |
DE102014217969A1 (en) | Method for operating an input device, input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification |
Effective date: 20150513 |
|
R150 | Utility model maintained after payment of first maintenance fee after three years | ||
R151 | Utility model maintained after payment of second maintenance fee after six years | ||
R152 | Utility model maintained after payment of third maintenance fee after eight years |