[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE202015100273U1 - input device - Google Patents

input device Download PDF

Info

Publication number
DE202015100273U1
DE202015100273U1 DE201520100273 DE202015100273U DE202015100273U1 DE 202015100273 U1 DE202015100273 U1 DE 202015100273U1 DE 201520100273 DE201520100273 DE 201520100273 DE 202015100273 U DE202015100273 U DE 202015100273U DE 202015100273 U1 DE202015100273 U1 DE 202015100273U1
Authority
DE
Germany
Prior art keywords
hand
input device
area
gesture
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE201520100273
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE201520100273 priority Critical patent/DE202015100273U1/en
Publication of DE202015100273U1 publication Critical patent/DE202015100273U1/en
Priority to ITUB2015A006045A priority patent/ITUB20156045A1/en
Priority to FR1561811A priority patent/FR3029655B1/en
Priority to CN201511035963.6A priority patent/CN105759955B/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Eingabevorrichtung (2), insbesondere eines Kraftfahrzeugs (1), mit einem Kamerasensor (3) zum berührungsfreien Erfassen einer Position und/oder Positionsänderung von mindestens einem Finger (8) einer Hand (6) eines Benutzers, wobei die Eingabevorrichtung (2) dazu ausgebildet ist, in Abhängigkeit von der Position und/oder Positionsänderung des mindestens einen Fingers (8) eine Eingabe zu erkennen und auszuführen, dadurch gekennzeichnet, dass die Eingabevorrichtung (2) in dem von dem Kamerasensor (3) erfassten Bild einen neutralen Bereich (11) bestimmt, an den wenigstens ein Gestikbereich (12–15) angrenzt, wobei die Eingabevorrichtung (2) eine in dem Gestikbereich (12–15) erfolgende Positionsänderung nur dann als Eingabe berücksichtigt, wenn sie aus dem neutralen Bereich (11) kommend erfolgt.Input device (2), in particular of a motor vehicle (1), with a camera sensor (3) for contactless detection of a position and / or position change of at least one finger (8) of a hand (6) of a user, the input device (2) being designed for this purpose is to detect and execute an input in dependence on the position and / or position change of the at least one finger (8), characterized in that the input device (2) in the image captured by the camera sensor (3) has a neutral area (11) determined, adjacent to the at least one Gestikbereich (12-15), wherein the input device (2) takes into account in the Gestikbereich (12-15) position change only as an input when it comes from the neutral region (11) coming.

Description

Die Erfindung betrifft eine Eingabevorrichtung, insbesondere eines Kraftfahrzeugs, die einen Kamerasensor zum berührungsfreien Erfassen der Position und/oder Positionsänderung mindestens eines Fingers einer Hand eines Benutzers aufweist, wobei die Eingabevorrichtung dazu ausgebildet ist, in Abhängigkeit von der erfassten Position und/oder Positionsänderung des Fingers auf eine Eingabe beziehungsweise eine Eingabe zu erkennen und diese auszuführen. The invention relates to an input device, in particular of a motor vehicle, having a camera sensor for detecting the position and / or position change of at least one finger of a user's hand without contact, wherein the input device is designed in dependence on the detected position and / or position change of the finger to recognize an input or an input and execute them.

Stand der TechnikState of the art

Bei heutigen Kraftfahrzeugen werden Bedienkonzepte eingesetzt, bei denen eine Eingabevorrichtung und eine Anzeigevorrichtung nah beieinander angeordnet sind. Üblicherweise werden hierzu sogenannte berührungsempfindliche Bildschirme und sogenannte Touchscreens vorgesehen, bei denen Bedienung und Anzeige an der gleichen Stelle erfolgen. Häufig werden Anzeigevorrichtungen im oberen Bereich einer Bedienkonsole oder eines Armaturenbretts des Kraftfahrzeugs angebracht, damit der Fahrer zum Ablesen seinen Blick nicht zu stark von dem Verkehrsgeschehen abwenden muss. In anderen Fahrzeugen befinden sich ein Touchpad, also ein berührungsempfindlicher Sensor, im Bereich der Armauflage des Fahrers, und die Anzeigevorrichtung an gewohnter Stelle im Bereich des Armaturenbretts. Eine visuelle Rückmeldung an den Fahrer bei der Bedienung des Sensors kann dabei in Form von einer angedeuteten durchsichtigen Hand, die durch die Anzeigevorrichtung dargestellt wird, erfolgen. Dadurch kann der Fahrer bequem die Eingabevorrichtung betätigen, während ihm die Anzeige weiterhin in einem vorteilhaften Blickwinkel präsentiert wird. In diesem Fall ist es auch denkbar, die Anzeigevorrichtung nicht als Bildschirm, sondern als Head-Up-Display auszubilden. In today's motor vehicles operating concepts are used in which an input device and a display device are arranged close to each other. Usually, so-called touch-sensitive screens and so-called touch screens are provided for this purpose, in which operation and display take place at the same location. Frequently display devices are mounted in the upper part of a control panel or dashboard of the motor vehicle, so that the driver does not have to turn his eyes too far away from the traffic to read. In other vehicles are a touchpad, so a touch-sensitive sensor, in the area of the armrest of the driver, and the display device at the usual place in the area of the dashboard. A visual feedback to the driver in the operation of the sensor can take place in the form of an indicated transparent hand, which is represented by the display device. Thereby, the driver can conveniently operate the input device while the display is still presented to him in an advantageous viewpoint. In this case, it is also conceivable not to design the display device as a screen, but as a head-up display.

Während klassische berührungsempfindliche Sensoren beziehungsweise Touchpads eine Berührung durch den Benutzer zu ihrer Bedienung benötigen, sind auch Eingabevorrichtungen bekannt, die berührungsfrei Eingaben erkennen beziehungsweise registrieren. Dabei werden beispielsweise mithilfe von Tiefensensoren die Positionen von Hand, Fingern und/oder Arm eines Benutzers im Raum erkannt und für eine Gestikbedienung ausgewertet. Für Fingergesten ist eine hohe Auflösung erforderlich, die mit Sensoren, wie beispielsweise Time-of-Flight-Sensoren, mit Stereokameras, strukturiertem Licht oder ähnlichem erreicht werden kann. Für Hand- oder Körpergesten können auch Sensoren mit einer geringeren Auflösung eingesetzt werden, wie beispielsweise Radarsensoren. Durch einen oder mehrere Sensoren wird also die Position oder Positionsänderung der Hand eines Benutzers erfasst, wobei in Abhängigkeit der erfassten Position und/oder Positionsänderung eine beziehungsweise auf eine Eingabe erkannt und diese ausgeführt wird. Der Benutzer zeigt somit mit einer Bewegung seiner Hand beziehungsweise mit einer Bewegung zumindest eines Fingers seiner Hand der Eingabevorrichtung an, welche Eingabe er vornehmen möchte. Die Eingabevorrichtung erkennt anhand der Hand-/Fingerbewegung die gewünschte Eingabe und führt diese aus, indem sie den durch die Bewegung vorgegebenen Befehl umsetzt und beispielsweise einen Betriebsparameter des Kraftfahrzeugs verändert. So kann beispielsweise in Abhängigkeit von der Position und Positionsänderung eines Fingers des Benutzers auf die Eingabe „Lautstärke erhöhen“ erkannt und von der Eingabevorrichtung ausgeführt werden, indem sie die Lautstärke, beispielsweise eines Unterhaltungssystems des Kraftfahrzeugs, erhöht.While classical touch-sensitive sensors or touchpads require a touch by the user to operate them, input devices are also known which recognize or register inputs without contact. With the aid of depth sensors, for example, the positions of a user's hand, fingers and / or arm are detected in the room and evaluated for gesture operation. Finger gestures require high resolution, which can be achieved with sensors such as time-of-flight sensors, stereo cameras, structured light, or the like. For hand or body gestures, sensors with a lower resolution can also be used, such as radar sensors. By one or more sensors, therefore, the position or position change of the hand of a user is detected, and detected in response to the detected position and / or position change or an input and this is executed. The user thus indicates with a movement of his hand or with a movement of at least one finger of his hand to the input device, which input he wants to make. The input device recognizes the desired input on the basis of the hand / finger movement and executes it by converting the command given by the movement and, for example, changing an operating parameter of the motor vehicle. For example, depending on the position and position change of a user's finger, the "increase volume" input can be detected and executed by the input device by increasing the volume of, for example, an entertainment system of the motor vehicle.

Aus der Offenlegungsschrift US 2012 010 5613 A1 ist es bereits bekannt, Hand- oder Fingergesten mittels eines Kamerasensors aufzunehmen und Funktionen eines Kraftfahrzeugs in Abhängigkeit der erkannten Gesten zu steuern. Ein ähnliches System ist auch aus der Offenlegungsschrift EP 2 441 635 A1 bereits bekannt. Diese offenbart darüber hinaus eine Detektion des Zeitverlaufs von Positionsänderungen von Fingerspitzen im freien Raum.From the publication US 2012 010 5613 A1 It is already known to record hand or finger gestures by means of a camera sensor and to control functions of a motor vehicle as a function of the recognized gestures. A similar system is also from the published patent application EP 2 441 635 A1 already known. This also discloses a detection of the time course of changes in position of fingertips in free space.

Offenbarung der ErfindungDisclosure of the invention

Die erfindungsgemäße Eingabevorrichtung mit den Merkmalen des Anspruchs 1 hat den Vorteil, dass zwischen beabsichtigen Wischgesten und unbeabsichtigten Rückführbewegungen oder Ausholbewegungen des Benutzers auf einfache und ressourcensparende Art und Weise unterschieden wird. Ein von dem Kamerasensor erfasstes Bild wird dazu in mehrere Bereiche aufgeteilt, wobei eine Bewegung der Finger und/oder der Hand des Benutzers nur dann als Geste erkannt beziehungsweise für die Ermittlung der Eingabe berücksichtigt wird, wenn die durchgeführte Positionsänderung in dem jeweiligen Bereich die durch den jeweiligen Bereich definierten Voraussetzungen beziehungsweise Bedingungen erfüllt. Erfindungsgemäß ist dabei vorgesehen, dass in dem von dem Kamerasensor erfassten Bild ein neutraler Bereich bestimmt wird, an den wenigstens ein Gestikbereich angrenzt, wobei eine in dem Gestikbereich erfolgende Positionsänderung nur dann als Eingabe berücksichtigt wird, wenn sie aus dem neutralen Bereich kommend erfolgt. Der Benutzer muss somit zunächst eine Hand im neutralen Bereich positionieren und dann zum Durchführen einer Wischgeste insbesondere seine Finger aus dem neutralen Bereich hinaus bis in den Gestikbereich bewegen, damit seine Wischgeste als beabsichtigte Wischgeste erkannt und eine damit verknüpfte Aktion durch die Eingabevorrichtung ausgeführt wird. Insbesondere wird dem Benutzer an einer Anzeigeeinrichtung die Position seiner Hand im Erfassungsbereich des Kamerasensors und damit in dem vom dem Kamerasensor erfassten Bild zumindest schematisch angezeigt, wobei zusätzlich zweckmäßigerweise der neutrale Bereich und wenigstens ein Gestikbereich angezeigt werden, sodass sich der Benutzter leicht orientieren und die Wischgeste durchführen kann. Die Größe des neutralen Bereichs wird dabei vorzugsweise derart gewählt, dass eine im Vergleich zu einer beabsichtigten Wischgeste normalerweise kleiner ausfallende Ausholgeste innerhalb des neutralen Bereichs erfolgen kann. Dadurch wird vermieden, dass bei der Ausholgeste Finger der Hand ungewollt in einen benachbarten Gestikbereich gelangen und dort als Eingabe gewertet werden könnten. Dem Benutzer ist es somit möglich, eindeutige Wischgesten auszuführen, um die Eingabevorrichtung zu bedienen, beziehungsweise mittels der Eingabevorrichtung andere Einrichtungen des Kraftfahrzeugs zu betätigen beziehungsweise zu bedienen.The input device according to the invention with the features of claim 1 has the advantage that a distinction between intentional wiping gestures and unintentional return movements or Ausholbewegungen the user in a simple and resource-saving manner. A captured by the camera sensor image is divided into several areas, with a movement of the fingers and / or the hand of the user is only recognized as a gesture or taken into account for the determination of the input when the position change carried out in the respective area by the respective area defined conditions or conditions. According to the invention, it is provided that in the image captured by the camera sensor, a neutral area is determined to which at least one gesture area adjoins, wherein a change in position taking place in the gesture area is taken into account as input only if it occurs from the neutral area. Thus, the user must first position a hand in the neutral area and then, in particular, move his fingers from the neutral area to the gesture area to perform a swipe gesture so that his swipe gesture is recognized as an intended swipe gesture and an associated action is performed by the input device. In particular, the Users displayed on a display device, the position of his hand in the detection range of the camera sensor and thus in the image detected by the camera sensor at least schematically, additionally expediently the neutral area and at least one gestural area are displayed so that the user can easily orient and perform the swipe gesture. The size of the neutral region is preferably chosen such that a precipitation gesture which is normally smaller in comparison to an intended wiping gesture can take place within the neutral region. This avoids that in the Ausholgeste fingers of the hand unintentionally get into a neighboring Gestikbereich and there could be counted as input. The user is thus able to carry out clear swipe gestures in order to operate the input device, or to operate or operate other devices of the motor vehicle by means of the input device.

Gemäß einer bevorzugten Weiterbildung der Erfindung ist vorgesehen, dass die Eingabevorrichtung derart ausgebildet ist, dass Positionsänderungen in dem Gestikbereich nur dann als Eingabe berücksichtig werden, wenn sie in Richtung von dem neutralen Bereich weg erfolgen. Dadurch wird gewährleistet, dass Rückführbewegungen der Hand beziehungsweise der Finger der Hand ebenfalls nicht als Eingabe-Geste berücksichtigt werden.According to a preferred embodiment of the invention, it is provided that the input device is designed such that position changes in the gesture area are taken into account as input only if they take place in the direction away from the neutral area. This ensures that return movements of the hand or the fingers of the hand are also not considered as an input gesture.

Weiterhin ist bevorzugt vorgesehen, dass der neutrale Bereich in Abhängigkeit von einer Position der Hand in dem erfassten Bild derart bestimmt wird, sodass die zumindest im Wesentlichen ruhende Hand zumindest im Wesentlichen innerhalb des neutralen Bereichs liegt. Dadurch wird erreicht, dass Bewegungen, insbesondere der Fingerspitzen, stets aus dem neutralen Bereich heraus erfolgen, beziehungsweise in dem neutralen Bereich starten. Insbesondere ist der neutrale Bereich dabei rechteckförmig ausgebildet, sodass er eine ausgestreckte Hand des Benutzers vollständig aufnehmen kann. Vorzugsweise wird die Größe des neutralen Bereichs an die Größer einer im Bild erfassten Hand angepasst. Dadurch kann beispielsweise auch berücksichtigt werden, wie nah sich die Hand des Benutzers zu dem Kamerasensor befindet. Dadurch wird die Variabilität und Robustheit des Systems weiter erhöht. Sofern dem Benutzer der neutrale Bereich angezeigt wird, kann der neutrale Bereich alternativ als feststehender Bereich in dem Bild des Kamerasensors bestimmt werden.Furthermore, it is preferably provided that the neutral area is determined as a function of a position of the hand in the captured image such that the at least substantially resting hand lies at least substantially within the neutral area. It is thereby achieved that movements, in particular of the fingertips, always take place out of the neutral area or start in the neutral area. In particular, the neutral area is rectangular in shape so that it can completely accommodate an outstretched hand of the user. Preferably, the size of the neutral area is adjusted to the size of a hand grasped in the image. As a result, it can also be taken into account, for example, how close the user's hand is to the camera sensor. This further increases the variability and robustness of the system. Alternatively, if the neutral area is displayed to the user, the neutral area may be determined as a fixed area in the image of the camera sensor.

Gemäß einer bevorzugten Weiterbildung ist vorgesehen, dass der neutrale Bereich größer als die Hand eingestellt wird, sodass der Gestikbereich beabstandet zu der in dem neutralen Bereich befindlichen Hand liegt. Wie zuvor bereits erwähnt, wird dadurch gewährleistet, dass bei dem Einleiten einer Wischgeste zunächst ein Stück des neutralen Bereichs überwunden werden muss, bis die Fingerspitzen in den Gestikbereich gelangen, wodurch unbeabsichtigte Gesten oder Ausholbewegungen bei dem Erkennen der Eingabe nicht berücksichtigt werden.According to a preferred embodiment it is provided that the neutral area is set larger than the hand, so that the gestural area is spaced from the hand located in the neutral area. As already mentioned above, this ensures that, when a swipe gesture is initiated, a portion of the neutral area must first be overcome until the fingertips reach the gestural area, whereby unintentional gestures or outward movements are not taken into account in the recognition of the input.

Besonders bevorzugt ist vorgesehen, dass der neutrale Bereich mit der Hand mitbewegt wird. Hierdurch kann insbesondere das Anzeigen der Hand in dem von dem Kamerasensor erfassten Bild entfallen. Dadurch, dass der neutrale Bereich mit bewegt wird, ist stets gewährleistet, dass der Benutzer eine Wischgeste aus dem neutralen Bereich heraus startet. Hierzu ist bevorzugt vorgesehen, dass der neutrale Bereich mit einer im Vergleich zu einer typischen Wischgeste geringeren Geschwindigkeit bewegt wird, um zu vermeiden, dass der neutrale Bereich mit der Wischgeste mitbewegt und dadurch die Wischgeste nicht als Eingabe erkannt wird. Alternativ oder zusätzlich kann vorgesehen sein, dass der bewegte Bereich an einem Punkt der Hand verankert wird, welcher sich üblicherweise langsamer bewegt als insbesondere die Fingerspitzen bei dem Durchführen einer Wischgeste.Particularly preferred is provided that the neutral area is moved by hand. As a result, in particular the display of the hand in the image captured by the camera sensor can be omitted. The fact that the neutral area is moved, it is always ensured that the user starts a swipe gesture from the neutral area. For this purpose, it is preferably provided that the neutral area is moved with a lower speed compared to a typical swiping gesture, in order to avoid that the neutral area moves with the swipe gesture and thus the swipe gesture is not recognized as an input. Alternatively or additionally, it can be provided that the moving region is anchored at a point of the hand, which usually moves slower than in particular the fingertips when performing a swipe gesture.

Insbesondere ist dazu vorgesehen, dass ein Schwerpunkt der Hand ermittelt und in Abhängigkeit von der Position/Positionsänderung des Schwerpunkts der Hand der neutrale Bereich mitbewegt wird. Insbesondere ist vorgesehen, dass als Schwerpunkt der Hand ein Handgelenk der Hand ermittelt wird. Dies kann durch eine Analyse der Bilddaten des Kamerasensors auf bekannte Art und Weise erfolgen. Im Vergleich zum Handgelenk werden die Finger bei einer Wischgeste wesentlich schneller bewegt, sodass Geschwindigkeitsunterschiede zwischen Fingern und Handgelenk beziehungsweise zwischen Fingern und dem Schwerpunkt der Hand vorliegen, die für das oben beschrieben Verfahren ausgenutzt werden. Während der neutrale Bereich maximal mit der Geschwindigkeit des Handgelenks beziehungsweise Schwerpunkts der Hand bewegt wird, können die Finger für die erhöhte Geschwindigkeit den neutralen Bereich verlassen und in den Gestikbereich eindringen, sodass die dort erfolgende Positionsänderung(en) bei der Bestimmung der Eingabe berücksichtig wird (werden).In particular, it is provided that a center of gravity of the hand is determined and the neutral area is moved in dependence on the position / position change of the center of gravity of the hand. In particular, it is provided that a wrist of the hand is determined as the center of gravity of the hand. This can be done by analyzing the image data of the camera sensor in a known manner. Compared to the wrist, the fingers are moved much faster in a swipe gesture, so there are speed differences between the fingers and wrist or between the fingers and the center of gravity of the hand, which are used for the method described above. While the neutral range is being moved maximally with the speed of the wrist or center of gravity of the hand, the fingers for the increased speed can leave the neutral range and penetrate the gesture range so that the position change (s) occurring there is taken into account in determining the input (FIG. become).

Weiterhin ist bevorzugt vorgesehen, dass an den neutralen Bereich angrenzend wenigstens zwei einander an dem neutralen Bereich gegenüberliegend angeordnete Gestikbereiche eingerichtet werden. Beide Gestikbereiche werden wie oben beschrieben betrieben beziehungsweise bei der Auswertung einer Wischgeste genutzt. Damit kann der Benutzer ausgehend von dem neutralen Bereich eine Wischgeste in zwei Richtungen durchführen, um sich beispielsweise durch ein Kontextmenü hochzubewegen, indem er die Wischgeste in den einen Gestikbereich durchführt, oder herunterbewegen, indem er die Wischgeste in den gegenüberliegenden, anderen Gestikbereich durchführt. Zweckmäßigerweise ist auf der dem Handgelenk gegenüberliegenden Seite ebenfalls ein Gestikbereich an den neutralen Bereich angrenzend vorgesehen.Furthermore, it is preferably provided that at least two gestural areas arranged opposite one another on the neutral area are set up adjacent to the neutral area. Both Gestikbereiche are operated as described above or used in the evaluation of a swipe gesture. Thus, starting from the neutral area, the user can swipe in two directions, for example, to move up through a contextual menu, by making the swipe gesture in the one gesture area, or moving down by he makes the swipe gesture in the opposite, different gestures area. Appropriately, on the opposite side of the wrist also a gesture area adjacent to the neutral area provided.

Weiterhin ist bevorzugt vorgesehen, dass, wenn eine Positionsänderung in mehreren Gestikbereichen erfasst wird, nur die Positionsänderung für die Eingabe berücksichtig wird/werden, die in dem Gestikbereich erfolgt/erfolgen, in welchem die meisten dieser Positionsänderungen erfasst werden. Hierdurch wird darüber hinaus gewährleistet, dass, wenn der Benutzer eine überraschend große Ausholbewegung durchführen sollte, in Zuge derer er mit seiner Hand in einen Gestikbereich gelangt, den er eigentlich gar nicht erreichen wollte, dennoch die korrekte Eingabe durchgeführt wird. Besonderes bevorzugt werden die Positionsänderungen auf Basis von Vektordaten, die auf Basis des von dem Kamerasensor erfassten Bildes bestimmt werden, berechnet beziehungsweise ermittelt. Dadurch können eindeutige Bewegungsrichtungen bestimmt und mit der beispielsweise zulässigen Bewegungsrichtung einer der Gestikbereiche verglichen werden, um eine schnelle Auswertung der Positionsänderungen und damit eine schnelle Erkennung der gewünschten Eingabe zu gewährleisten. Furthermore, it is preferably provided that when a position change is detected in a plurality of gesture areas, only the position change for the input takes place, which takes place in the gesture area in which most of these position changes are detected. This also ensures that, if the user should perform a surprisingly large Ausholbewegung in which he gets his hand in a Gestikbereich that he actually did not want to reach, yet the correct input is performed. Particularly preferably, the position changes are calculated or determined on the basis of vector data which are determined on the basis of the image captured by the camera sensor. As a result, clear directions of movement can be determined and compared with the permissible direction of movement of one of the gesture areas, for example, in order to ensure rapid evaluation of the position changes and thus rapid recognition of the desired input.

Im Folgenden soll die Erfindung anhand der Zeichnung näher erläutert werden. Dazu zeigenIn the following, the invention will be explained in more detail with reference to the drawing. Show this

1 den Innenraum eines Kraftfahrzeugs mit einer vorteilhaften Eingabevorrichtung und 1 the interior of a motor vehicle with an advantageous input device and

2 ein von einem Kamerasensor der Eingabevorrichtung erfasstes Bild. 2 an image captured by a camera sensor of the input device.

1 zeigt eine schematische Darstellung des Innenraums eines hier nicht näher dargestellten Kraftfahrzeugs 1, welches eine Eingabevorrichtung 2 zum berührungslosen Eingeben von Steuerbefehlen aufweist. Die Eingabevorrichtung weist hierzu einen berührungsfrei arbeitenden Kamerasensor 3 sowie eine Anzeigeeinheit 4 auf. Die Anzeigeeinheit 4 ist in das Armaturenbrett beziehungsweise in die Bedienkonsole des Kraftfahrzeugs 1 eingebracht angeordnet. Die Anzeigeeinheit 4 ist als Bildschirm, insbesondere Display, ausgebildet und kann beispielsweise Bestandteil eines Navigationssystems oder eines Entertainmentsystems des Kraftfahrzeugs 1 sein. Auch ist es denkbar, die Anzeigeeinheit 4 alternativ oder zusätzlich als Head-Up-Display (HUD) auszubilden. Der Kamerasensor 3 ist bevorzugt als zweidimensional arbeitende Videokamera beziehungsweise Kameraeinrichtung ausgebildet, die den mit gestrichelten Linien dargestellten Erfassungsbereich aufweist. Die Videokamera ist dabei bevorzugt derart ausgerichtet, dass sie auf das frontseitige Ende einer mittleren Armauflage 5 des Kraftfahrzeugs 1 weist. Die Armauflage 5 weist selbst keine reale Eingabeoberfläche auf, auf welcher ein Fahrer mittels einer hier nur schematisch dargestellten Hand 6 durch Berührung der Eingabeoberfläche einen Befehl eingeben könnte. 1 shows a schematic representation of the interior of a motor vehicle not shown here 1 which is an input device 2 for non-contact input of control commands. For this purpose, the input device has a non-contact camera sensor 3 and a display unit 4 on. The display unit 4 is in the dashboard or in the control console of the motor vehicle 1 arranged arranged. The display unit 4 is designed as a screen, in particular display, and may for example be part of a navigation system or an entertainment system of the motor vehicle 1 be. It is also conceivable, the display unit 4 alternatively or additionally as a Head-Up Display (HUD) form. The camera sensor 3 is preferably designed as a two-dimensional video camera or camera device having the detection range shown with dashed lines. The video camera is preferably oriented such that it faces the front end of a central armrest 5 of the motor vehicle 1 has. The armrest 5 itself has no real input surface on which a driver by means of a hand only schematically shown here 6 could enter a command by touching the input interface.

Die Eingabevorrichtung 2 ist stattdessen dazu ausgebildet, eine Position und/oder Positionsänderung zumindest eines Fingers der Hand 6 im Raum zu erfassen und in Abhängigkeit davon auf eine Eingabe zu erkennen und diese auszuführen. Die vom dem Kamserasensor erfassten Bilddaten werden dazu wie im Folgenden beschrieben ausgewertet und zur Bedienung der Eingabevorrichtung 2 genutzt.The input device 2 is instead adapted to a position and / or position change of at least one finger of the hand 6 in the room to capture and depending on an input to recognize and execute. The image data captured by the camera sensor are evaluated as described below and for the operation of the input device 2 used.

2 zeigt beispielhaft das von dem Sensor 3 erfasste Bild, und insofern den Erfassungsbereich 7. In dem erfassten Bild befindet sich die Hand 6 des Benutzers. Die Eingabevorrichtung 2 ermöglicht es, dass der Benutzer im Erfassungsbereich des Sensors 3 Wischgesten zur Bedienung der Eingabevorrichtung 2 durchführen kann, wobei Ausholbewegungen und Rückholbewegungen ignoriert werden. Dazu berücksichtigt das im Folgenden beschriebene Verfahren Wischgesten, die ergonomisch aus dem Handgelenk ausgeführt werden. Zur Unterscheidung zwischen beabsichtigen Wischgesten und unbeabsichtigten Rückführbewegungen macht sich das Verfahren die Tatsache zu Nutze, dass beim Wischen das Handgelenk 7 der Hand 6 des Benutzers mehr oder weniger starr bleibt und sich die Handfläche, und speziell die Finger 8 der Hand 6 relativ zum Handgelenk bewegen. Wird in dem dargestellten Ausführungsbeispiel eine Wischgeste nach links durchgeführt, wie durch einen Pfeil 9 angedeutet, so erfolgt die Wischbewegung auf der linken Seite des Handgelenks 7 von rechts nach links. Die Rückführbewegung erfolgt in Konsequenz von links nach rechts und ist damit zunächst nicht von einem Wischen nach rechts zu unterscheiden. Dadurch jedoch, dass die Bewegung nur bis zum Erreichen der Neutralstellung beziehungsweise Ausgangsstellung auf der linken Seite des Handgelenks 7 erfolgt, anstatt auf der rechten, lässt sich eine solche Rückführbewegung von einem beabsichtigten Wischen nach rechts unterscheiden. Dabei wird vorausgesetzt, dass die Wischgesten relativ zu einem möglichst starren Referenzpunkt, wie beispielsweise vorliegend zu dem Handgelenk 7, erfolgen, und dass beim Rückführen der Hand die Neutralstellung nicht deutlich überschritten wird. 2 shows by way of example that of the sensor 3 captured image, and thus the detection range 7 , In the captured image is the hand 6 the user. The input device 2 allows the user within the detection range of the sensor 3 Swipe gestures to operate the input device 2 can be performed, with Ausholbewegungen and return movements are ignored. For this purpose, the method described below takes into account swiping gestures that are performed ergonomically from the wrist. To distinguish between intended wiping gestures and unintentional return movements, the method takes advantage of the fact that when wiping the wrist 7 the hand 6 the user remains more or less rigid and his palm, and especially the fingers 8th the hand 6 move relative to the wrist. In the illustrated embodiment, a swipe gesture is performed to the left, as by an arrow 9 indicated, the wiping movement takes place on the left side of the wrist 7 from right to left. As a consequence, the return movement takes place from left to right and is therefore initially indistinguishable from wiping to the right. This, however, that the movement only until reaching the neutral position or starting position on the left side of the wrist 7 instead of on the right, such a return movement can be distinguished from an intended wipe to the right. It is assumed that the swiping gestures relative to a rigid as possible reference point, such as in this case to the wrist 7 , and that when returning the hand, the neutral position is not significantly exceeded.

Das in 2 dargestellte Kreuz auf der Hand verdeutlicht das relativ starre Handzentrum beziehungsweise den Schwerpunkt 10 der Hand 6. Dem Schwerpunkt 10 ist in dem erfassten Bild ein neutraler Bereich 11 zugeordnet. Der neutrale Bereich 11 ist in dem vorliegenden Ausführungsbeispiel rechteckförmig ausgebildet und derart ausgerichtet und angeordnet, dass die Hand 6 im Wesentlichen innerhalb des neutralen Bereichs 11 liegt. Positionsänderungen beziehungsweise Bewegungen, die in dem neutralen Bereich 11 durchgeführt werden, werden von der Signalvorrichtung 2 ignoriert. Wird eine Wischgeste durchgeführt, so wird auch der Schwerpunkt 10 bewegt, jedoch weniger intensiv in seiner Ausprägung und Weite als die Handfläche mit den ausgestreckten Fingern 8 derselben Hand 6. Ein ausreichend großer neutraler Bereich 11 um den Schwerpunkt 10 herum verleiht der Signalvorrichtung 2 eine zusätzliche Robustheit, da die Neutralstellung durch einen räumlich ausgedehnten Bereich präsentiert wird, und somit ungewollte Wischgesten nicht erkannt werden beziehungsweise nicht zu einer Eingabe führen.This in 2 illustrated cross on the hand illustrates the relatively rigid hand center or the center of gravity 10 the hand 6 , The focus 10 is a neutral area in the captured image 11 assigned. The neutral area 11 is rectangular in the present embodiment and aligned and arranged so that the hand 6 essentially within the neutral range 11 lies. position changes or movements that are in the neutral area 11 are performed by the signaling device 2 ignored. If a swipe gesture is performed, so will the focus 10 moved, but less intense in its expression and width than the palm with the outstretched fingers 8th same hand 6 , A sufficiently large neutral area 11 around the center of gravity 10 the signal device lends around 2 an additional robustness, since the neutral position is presented by a spatially extended area, and thus unwanted swipe gestures are not recognized or do not lead to an input.

An den neutralen Bereich 11 angrenzend werden vorliegend vier Gestikbereiche 12, 13, 14 und 15 eingerichtet, die jeweils an einer Seite an den neutralen Bereich 11 angrenzen. Die Gestikbereiche 12 bis 15 sind vorliegend ebenfalls rechteckförmig ausgebildet.To the neutral area 11 adjacent are present four gestures 12 . 13 . 14 and 15 set up, each on one side to the neutral area 11 adjoin. The gesture areas 12 to 15 are also rectangular in this case.

Um nur eine Wischgeste nach links durchzuführen, muss die Handfläche mit den Fingern 8 aus der zentralen Region beziehungsweise aus dem neutralen Bereich 11 in den linken Bildbereich, also in den Bereich 12 geführt werden. Wird in diesem Bildbereich eine Positionsänderung detektiert, die in Richtung von den neutralen Bereich 11 kommend, gemäß Pfeil 9, führt, so wird die Wischgeste als links-Wischen erkannt. Bei der Rückführbewegung wird in dem gleichen Gestikbereich 12 eine rechts Bewegung detektiert. Von der Signalvorrichtung 2 werden jedoch in dem Gestikbereich 12 nur Positionsänderungen als Eingabe erkannt, die in Richtung von dem neutralen Bereich 11 kommend erfolgen. Bei einer Rechtsbewegung in dem Gestikbereich 12 handelt es sich somit um eine nicht zulässige Bewegung, die von der Signalvorrichtung 2 bei der Erkennung einer Eingabe nicht berücksichtigt wird. Analog wird bei einem „rechts-Wischen“ eine Rechtsbewegung in den Gestikbereich 14 erfasst, während eine Linksbewegung, die bei der Rückführbewegung in dem Gestikbereich 14 erfolgt, nicht zulässig ist und damit auch nicht berücksichtigt wird.To perform only one swipe gesture to the left, the palm of your hand must be with your fingers 8th from the central region or from the neutral area 11 in the left image area, ie in the area 12 be guided. In this image area, a position change is detected, which is in the direction of the neutral area 11 coming, according to arrow 9 , leads, the swipe gesture is recognized as left wipe. When the return movement is in the same range of gestures 12 a right movement detected. From the signaling device 2 However, they are in the gestural area 12 only position changes detected as input that are in the direction of the neutral range 11 coming done. In a right-hand movement in the gesture area 12 it is therefore an inadmissible movement, that of the signaling device 2 is not taken into account when detecting an input. Similarly, a "right-wipe" a rightward movement in the gestural area 14 recorded during a left movement, during the return movement in the gestural area 14 takes place, is not permitted and therefore not taken into account.

Die Gestikbereiche 12 bis 15 können somit als eine Art Einbahnstraße hinsichtlich der erlaubten Wischrichtung verstanden werden. Die Gestikbereiche 12 und 14 sind dabei auf gegenüberliegenden Seiten des neutralen Bereichs 11 angeordnet. Wenn in mehreren Gestikbereichen, insbesondere in den einander gegenüberliegenden Gestikbereichen 12 und 14, Positionsänderungen erfasst werden, die jeweils in die zulässige Richtung erfolgen, so werden zweckmäßigerweise nur die Positionsänderungen in dem Gestikbereich 12 oder 14 bei der Erkennung der Eingabe berücksichtigt, in welchem die meisten Bewegungen beziehungsweise Positionsänderungen erfasst werden.The gesture areas 12 to 15 can thus be understood as a kind of one-way street with regard to the permitted wiping direction. The gesture areas 12 and 14 are on opposite sides of the neutral area 11 arranged. When in multiple gesture areas, especially in the opposing gesture areas 12 and 14 , Position changes are detected, each made in the permissible direction, so expediently only the position changes in the Gestikbereich 12 or 14 taken into account in the recognition of the input in which most movements or position changes are detected.

Zur Durchführen des Verfahrens weist die Signalvorrichtung 2 eine hier nicht näher dargestellte Recheneinheit auf, die basierend auf dem Videobild des Sensors 3 eine Bewegungsdetektion durchführt. Hierzu wird der optische Fluss in dem Bild bestimmt. Als Ergebnis erhält man dadurch eine Menge an Vektoren, die für bestimmte Bildpunkte in dem Bild, wie es in 2 gezeigt ist, zu einem Zeitpunkt t den Versatz in der Bildebene zum Zeitpunkt t + 1 aufzeigen. Diese Menge an Vektoren wird im Folgenden als 2D-Flussfeld bezeichnet und repräsentiert die Bewegung der Hand 6 im Erfassungsbereich 2 des Sensors 3. Die Recheneinheit führt einen auf einem nicht flüchtigen Speicher hinterlegten Algorithmus durch beziehungsweise aus, der auf Basis dieses Bewegungsmusters in jedem Zeitschritt einen möglichst starren Referenzpunkt der Hand, nämlich den zuvor beschriebenen Schwerpunkt 10 ermittelt. Dies geschieht vorzugsweise dadurch, dass aus einem ersten resultierenden Flussfeld zunächst hinsichtlich der Länge der Flussvektoren (Bewegungsintensität) bandpass-gefiltert wird. Dadurch werden für die weiteren Berechnungen nur noch Flussvektoren betrachtet, deren Länge oberhalb eines ersten Schwellwertes S1, jedoch unterhalb eines zweiten Schwellwertes S2 liegen. Dabei werden die Schwellwerte automatisch basierend auf der Flussfeld-Statistik ermittelt. Sie können beispielsweise so gewählt werden, dass sie dem 5 und 95-Perzentil entsprechen. Das bedeutet, dass 5% der Flussvektoren im Flussfeld eine geringere Länge als der erste Schwellwert S1 und 5% der Flussvektoren eine größere Länge als der zweite Schwellwert S2 aufweisen. Durch den ersten Schwellwert S1 wird ein Bewegungsrauschen, beispielsweise verursacht durch Pixelrauschen, unterdrückt. Darüber hinaus eliminiert die Filterung mit dem zweiten Schwellwert S2 die relativ großen Bewegungen der Fingerspitzen, die beim Wischen in Relation zum weniger beweglichen Handzentrum (Schwerpunkt 10) auftreten. Der Schwerpunkt des gefilterten Flussfeldes wird dann bevorzugt wie folgt berechnet:

Figure DE202015100273U1_0002
To carry out the method, the signaling device 2 a computing unit, not shown here, based on the video image of the sensor 3 performs a motion detection. For this purpose, the optical flow in the image is determined. As a result, one obtains a set of vectors that are specific to certain pixels in the image, as shown in FIG 2 is shown at a time t show the offset in the image plane at time t + 1. This set of vectors is hereinafter referred to as 2D flow field and represents the movement of the hand 6 in the coverage area 2 of the sensor 3 , The arithmetic unit executes an algorithm stored on a non-volatile memory by means of or on the basis of this movement pattern in each time step as rigid as possible a reference point of the hand, namely the center of gravity described above 10 determined. This is preferably done by first bandpass filtering from a first resulting flow field in terms of the length of the flow vectors (motion intensity). As a result, only flow vectors whose length is above a first threshold value S 1 but below a second threshold value S 2 are considered for the further calculations. The threshold values are determined automatically based on the flow field statistics. For example, they can be chosen to correspond to the 5 and 95 percentile. This means that 5% of the flow vectors in the flow field have a shorter length than the first threshold value S 1 and 5% of the flow vectors have a greater length than the second threshold value S 2 . The first threshold value S 1 suppresses motion noise, for example caused by pixel noise. In addition, filtering at the second threshold S 2 eliminates the relatively large movements of the fingertips that occur when wiping in relation to the less movable hand center (center of gravity 10 ) occur. The center of gravity of the filtered flow field is then preferably calculated as follows:
Figure DE202015100273U1_0002

Dabei bezeichnet N die Anzahl der Flussvektoren im gefilterten Flussfeld und p (xi, yi) den Aufpunkt des jeweiligen Flussvektors j in Bildkoordinaten. Um die Robustheit beziehungsweise Trägheit des berechneten Schwerpunktes 10 zu verbessern, wird dieser zusätzlich über die Zeit gefiltert. Das heißt in einem fest definierten, gleitenden Fenster von beispielsweise 10 Zeitschritten wird das arithmetische Mittel der für dieses Zeitfenster bestimmten Schwerpunkte gebildet. Alternativ kann auch vorgesehen sein, dass komplexere Filtermethoden, wie beispielsweise Gaußfilter, eingesetzt werden, um die Robustheit weiter zu erhöhen.N denotes the number of flow vectors in the filtered flow field and p (x i , y i ) the point of view of the respective flow vector j in image coordinates. To the robustness or inertia of the calculated center of gravity 10 this is additionally filtered over time. That is, in a fixed, sliding window of, for example 10 Time steps the arithmetic mean of the focal points determined for this time window is formed. Alternatively, it can also be provided that more complex filter methods, such as Gaussian filters, are used in order to further increase the robustness.

Relativ zu dem ermittelten Schwerpunkt 10 werden dann die Bildkoordinaten für die unterschiedlichen Gestikbereiche und den neutralen Bereich ermittelt. Dabei kann die optimale Ausdehnung des neutralen Bereichs ebenfalls dynamisch mit Hilfe des gefilterten Flussfeldes bestimmt werden. Dafür wird zunächst die Ausdehnung um das gefilterte Flussfeld in Form einer Begrenzung (Bounding Box) berechnet. Der neutrale Bereich 11 um den Schwerpunkt 10 wird dann in Relation zu den ermittelten Ausdehnungen des gefilterten Flussfeldes bestimmt, beispielsweise 90% der Ausdehnung in jede Richtung. In dem vorliegenden Ausführungsbeispiel gemäß 2 wurde für rechts von dem Schwerpunkt 10, also der rechte Rand des neutralen Bereichs 11, eine Prozentual geringere Ausdehnung gewählt, da auf Grund der Handphysiologie eine Wischbewegung nach oben eine geringere Amplitude aufweist, als ein Wischen in die anderen drei Richtungen. Die Gestikbereiche 12 bis 15 werden derart bestimmt, dass sie an den neutralen Bereich angrenzen, wie zuvor bereits beschrieben. Relative to the determined focus 10 The image coordinates for the different gesture areas and the neutral area are then determined. In this case, the optimal extent of the neutral region can also be determined dynamically with the aid of the filtered flux field. First, the extent around the filtered flow field is calculated in the form of a bounding box. The neutral area 11 around the center of gravity 10 is then determined in relation to the determined extents of the filtered flux field, for example 90% of the extent in each direction. In the present embodiment according to 2 was for right from the center of gravity 10 , that is the right edge of the neutral area 11 , chosen a percentage smaller extent, because due to the physiology of the hand a wiping movement upwards has a lower amplitude, than a wiping in the other three directions. The gesture areas 12 to 15 are determined to be adjacent to the neutral region as previously described.

Weiterhin führt die Recheneinheit einen Algorithmus aus, der den Gestikbereich mit der momentan maximalen Bewegung beziehungsweise mit der momentan maximalen Anzahl von Positionsänderungen detektiert. Dies geschieht vorteilhafterweise indem in jedem Zeitschritt für jede der Gestikbereiche 12 bis 15 die mittlere Länge aller Fussvektoren berechnet wird. Zusätzlich wird die Anzahl der Flussvektoren ermittelt, deren Länge über einem dritten Schwellwert S3 liegt, um ein Maß dafür zu haben, wie groß der Anteil von schnellen Bewegungen in diesem Gestikbereich aktuell ist. Dabei wird vorzugsweise der dritte Schwellwert S3 in Abhängigkeit von der Bildauflösung, der Aufnahmefrequenz des Sensors 3 sowie dem Abstand des Sensors 3 zur Interaktionsebene bestimmt und konstant gewählt. Furthermore, the arithmetic unit executes an algorithm which detects the gesture area with the momentarily maximum movement or with the currently maximum number of position changes. This is advantageously done by adding in each time step for each of the gesture areas 12 to 15 the mean length of all foot vectors is calculated. In addition, the number of flux vectors whose length is above a third threshold S 3 is determined in order to have a measure of how large the proportion of fast movements in this gesture area is currently. In this case, preferably the third threshold value S 3 as a function of the image resolution, the recording frequency of the sensor 3 as well as the distance of the sensor 3 determined to the interaction level and constantly selected.

Für den Gestikbereich, in dem sowohl die gemittelte Länge der Flussvektoren wie auch die Anzahl der „schnellen“ Flussvektoren maximal ist, wird im Anschluss die Bewegungsinformation weiter analysiert. Dazu wird basierend aus allen Flussvektoren in diesem Gestikbereich die mittlere Richtung der Flussvektoren (vorzugsweise in Grad) berechnet und auf einen Quadranten des Einheitskreises abgebildet. So entspricht beispielsweise eine Bewegung nach links einem Winkelbereich von 45° bis 135°, Wischen nach unten in den Gestikbereich 15 einem Winkelbereich von 135° bis 225°, Wischen nach rechts in den Gestikbereich 14 einem Winkelbereich von 225° bis 315° und Wischen nach oben in den Gestikbereich 13 einem Winkelbereich von 315° bis 45°. For the Gestikbereich, in which both the average length of the flow vectors as well as the number of "fast" flow vectors is maximum, the motion information is further analyzed. For this purpose, the mean direction of the flow vectors (preferably in degrees) is calculated based on all the flow vectors in this gesture area and mapped to one quadrant of the unit circle. For example, a movement to the left corresponds to an angular range of 45 ° to 135 °, wiping down into the gesture area 15 an angular range of 135 ° to 225 °, wiping right into the gesture area 14 an angle range of 225 ° to 315 ° and wiping up in the gesture area 13 an angular range of 315 ° to 45 °.

Ein vordefiniertes Gestenalphabet, also mit den unterschiedlichen Gesten verknüpfte Aktionen, ordnet jeder der vier Gestikbereiche 12 bis 15 einen dieser vier Quadranten zu. Um eine Wischgeste nach links zu erkennen, muss so zum Beispiel eine Bewegung im Winkelbereich von 45° Grad bis 135° in dem Gestikbereich 12 erkannt werden. Jede andere Bewegung in dieser Zone wird ignoriert. Hierdurch ergibt sich die zuvor beschriebene Vorgabe, dass nur Bewegungen, die aus Richtung des neutralen Bereichs 11 erfolgen, für die Eingabe ausgewertet werden. Analog gilt dies für die Wischbewegungen nach unten, recht und oben die Gestikbereiche 13, 14 und 15.A predefined gesture alphabet, that is, actions associated with different gestures, maps each of the four gesture areas 12 to 15 one of these four quadrants too. To detect a swipe gesture to the left, for example, a movement in the angular range of 45 ° degrees to 135 ° in the Gestikbereich must 12 be recognized. Any other movement in this zone is ignored. This results in the previously described specification that only movements that are from the direction of the neutral range 11 be evaluated for input. Similarly, this applies to the wiping movements down, right and above the gestures 13 . 14 and 15 ,

Generell kann die Zuordnung der Wischrichtungen zu Quadranten am Einheitskreis frei parametrisiert werden und hängt insbesondere von der konkreten Implementierung des Algorithmus ab. Darüber hinaus können die Winkelauflösungen für verschiedene Richtungen nicht-äquidistant und beliebig gewählt werden, um zum Beispiel die Erkennung von Wischgesten in bestimmte Richtungen mehr oder wenigster sensitiv zu gestalten. Wird gemäß definiertem Gestenalphabet in einer Zone mit maximaler Bewegung die zulässige Bewegungsrichtung ermittelt, so wird von der Eingabevorrichtung 2 das der Geste entsprechende Event generiert beziehungsweise die der Geste zugeordnete Aktion abgerufen beziehungsweise gestartet.In general, the assignment of the wiping directions to quadrants on the unit circle can be freely parameterized and in particular depends on the concrete implementation of the algorithm. In addition, the angular resolutions for different directions can be chosen non-equidistantly and arbitrarily, for example to make the detection of swiping gestures in certain directions more or less sensitive. If, in accordance with a defined gesture alphabet in a zone with maximum movement, the permissible direction of movement is determined, the input device will determine 2 the event corresponding to the gesture is generated or the action assigned to the gesture is called or started.

Anstatt die Flussrichtung in einem Gestikbereich durch reine Mittelung zu errechnen, ist es auch denkbar, bei der Berechnung der mittleren Flussrichtung die Richtungsinformation der Flussvektoren mit ihrer Länge (Bewegungsintensität) zu gewichten. Das geschilderte Verfahren setzt voraus, dass eine Geste im neutralen Bereich 11 begonnen wird. Dazu muss nach erfolgter Wischbewegung eine Rückführbewegung in den neutralen Bereich erfolgen, die jedoch von der Mehrzahl der Benutzer ohnehin intuitiv ausgeführt werden wird. Ist die Amplitude beziehungsweise die Weite der Rückführbewegung derart groß, dass der neutrale Bereich 11 vollständig durchquert wird, so führt dies zu einer unerwünschten Erkennung der Rückführbewegung als Geste in dem gegenüberliegenden Gestikbereich. Die Robustheit der Gestikerkennung kann deshalb zusätzlich dadurch gesteigert werden, dass diese Rückführbewegung expliziert mit modelliert wird. In diesem Fall wird das zugehörige Event nur dann gestartet, beziehungsweise die zugehörige Eingabe nur dann erkannt, wenn nach erkannter, korrekter Wischbewegung am Anschluss in eine vorgegebenen zeitlichen Fenster ebenfalls eine entgegengesetzte (Rückführ-)Bewegung erkannt wurde. Die Erkennung ist dabei unabhängig von den unterschiedlichen Bereichen 11 bis 15. Auf diese Weise können auch Rückführbewegungen robust ignoriert werden, deren Ausführung über den neutralen Bereich 11 hinaus in einen benachbarten Gestikbereich geht. Die Größe des zeitlichen Fensters ist dabei bevorzugt in Abhängigkeit von der Aufnahmefrequenz des Sensors 3 und der gewünschten Nähe der Rückführbewegung zur eigentlichen Geste zu wählen. Auch eine Adaption des zeitlichen Fensters an individuelle Nutzerbedürfnisse ist denkbar.Instead of calculating the flow direction in a gesture area by pure averaging, it is also conceivable to weight the direction information of the flow vectors with their length (movement intensity) in the calculation of the mean flow direction. The described procedure assumes that a gesture in the neutral range 11 is started. For this purpose, after the wiping movement, a return movement into the neutral area must take place, which, however, will be carried out intuitively anyway by the majority of users. If the amplitude or the width of the return movement is so great that the neutral region 11 is completely traversed, this leads to an undesirable detection of the return movement as a gesture in the opposite gesture area. The robustness of the gesture recognition can therefore be further enhanced by the fact that this return movement is explicitly modeled with. In this case, the associated event is only started, or the corresponding input is only recognized if, after the detected, correct wiping movement at the connection in a given time window, an opposite (return) movement has also been detected. The recognition is independent of the different areas 11 to 15 , In this way, return movements can be robustly ignored, their execution over the neutral range 11 out into a neighboring gesture area. The size of the temporal window is preferably dependent on the recording frequency of the sensor 3 and to select the desired proximity of the return motion to the actual gesture. Also an adaptation of the temporal window to individual user needs is conceivable.

Durch die Erfassung des Schwerpunktes 10 der Hand 6 wird neben der robusten „Unterdrückung“ von Rückführbewegungen bei der Erkennung von Eingaben außerdem die Erkennung beliebiger Wischgesten an jeder Stelle in dem Erfassungsbereich 7 des Sensors 3 abgedeckt, da der neutrale Bereich 11 mit dem Schwerpunkt 10 der Hand 6 mitbewegt wird.By capturing the center of gravity 10 the hand 6 In addition to the robust "suppression" of feedback movements in the recognition of inputs, the recognition of any swipe gestures at any point in the detection area 7 of the sensor 3 covered, because the neutral area 11 with the main focus 10 the hand 6 is moved.

Als Erweiterung ist es denkbar, neben der Erkennung von einfachen unidirektionalen Wischgesten das Gestenalphabet beziehungsweise die zu erkennenden Eingaben auf zusammengesetzte Wischgesten zu erweitern. Durch die Aufteilung des Erfassungsbereichs in an den Schwerpunkt 10 gekoppelte Bereiche 11 bis 15, kann beispielsweise ein links-rechts-Winken von einem links-Wischen mit anschließender Rückführbewegung unterschieden werden, da neben der reinen Richtungsinformationen nun auch zusätzlicher Nutzen aus der grob abgetasteten Ortsinformationen gezogen werden kann. So wird ein gewolltes Winken zu sehr schnell hintereinander auftretenden Linksbewegungen in dem Gestikbereich 12 gefolgt von Rechtsbewegungen in den Gestikbereich 14 führen, wobei ein solches Winken mit wenig zeitlicher Latenz erkannt werden könnte. Analog dazu könnten sich weitere komplexe Wischgesten als Summe von erfassten Bewegungsrichtungen und zugehörigen Gestikbereichen definieren lassen. Die unterschiedlichen für eine Eingabe zu wertenden Gesten, also das Gestenalphabet, wird zweckmäßigerweise vor Inbetriebnahme in einem nicht-flüchtigen Speicher als Modell hinterlegt, und wird zum Vergleich mit den aktuell erfassten Gesten herangezogen, um auf die jeweilige Eingabe zu erkennen.As an extension, it is conceivable, in addition to the recognition of simple unidirectional swipe gestures, to extend the gesture alphabet or the inputs to be recognized to composite swipe gestures. By dividing the coverage into the center of gravity 10 coupled areas 11 to 15 For example, a left-right waving may be distinguished from a left wipe followed by a return motion, since in addition to the pure directional information, additional benefits may now be drawn from the roughly sampled location information. Thus, intentional waving becomes very fast one-to-one left movements in the gesture area 12 followed by right-hand movements in the gestures area 14 lead, with such a waving could be detected with little latency. Analogously, further complex swiping gestures could be defined as the sum of detected directions of movement and associated gestural areas. The different gestures to be evaluated for an input, ie the gesture alphabet, is expediently stored as a model before commissioning in a non-volatile memory, and is used for comparison with the currently detected gestures in order to recognize the respective input.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 20120105613 A1 [0004] US 20120105613 A1 [0004]
  • EP 2441635 A1 [0004] EP 2441635 A1 [0004]

Claims (8)

Eingabevorrichtung (2), insbesondere eines Kraftfahrzeugs (1), mit einem Kamerasensor (3) zum berührungsfreien Erfassen einer Position und/oder Positionsänderung von mindestens einem Finger (8) einer Hand (6) eines Benutzers, wobei die Eingabevorrichtung (2) dazu ausgebildet ist, in Abhängigkeit von der Position und/oder Positionsänderung des mindestens einen Fingers (8) eine Eingabe zu erkennen und auszuführen, dadurch gekennzeichnet, dass die Eingabevorrichtung (2) in dem von dem Kamerasensor (3) erfassten Bild einen neutralen Bereich (11) bestimmt, an den wenigstens ein Gestikbereich (1215) angrenzt, wobei die Eingabevorrichtung (2) eine in dem Gestikbereich (1215) erfolgende Positionsänderung nur dann als Eingabe berücksichtigt, wenn sie aus dem neutralen Bereich (11) kommend erfolgt.Input device ( 2 ), in particular a motor vehicle ( 1 ), with a camera sensor ( 3 ) for the non-contact detection of a position and / or position change of at least one finger ( 8th ) of a hand ( 6 ) of a user, wherein the input device ( 2 ) is adapted, depending on the position and / or position change of the at least one finger ( 8th ) to recognize and execute an input, characterized in that the input device ( 2 ) in which of the camera sensor ( 3 ) captured a neutral area ( 11 ), to the at least one gesture area ( 12 - 15 ), wherein the input device ( 2 ) one in the gesture area ( 12 - 15 ) position change is considered as input only if it is from the neutral region ( 11 ) coming. Eingabevorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass sie die Positionsänderung in dem Gestikbereich (1215) nur dann als Eingabe berücksichtigt, wenn sie in Richtung von dem neutralen Bereich (11) kommend erfolgt.Input device according to claim 1, characterized in that it detects the change of position in the gestural area ( 12 - 15 ) are considered as input only when moving in the direction of the neutral region ( 11 ) coming. Eingabevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass sie den neutralen Bereich (11) in Abhängigkeit von einer Position der Hand (6) in dem erfassten Bild derart bestimmt, dass die zumindest im Wesentlichen ruhende Hand (6) zumindest im Wesentlichen innerhalb des neutralen Bereichs (11) liegt.Input device according to one of the preceding claims, characterized in that it covers the neutral region ( 11 ) depending on a position of the hand ( 6 ) in the captured image such that the at least substantially resting hand ( 6 ) at least substantially within the neutral region ( 11 ) lies. Eingabevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass sie den neutralen Bereich (11) größer als die Hand (6) einrichtet, sodass der Gestikbereich (1215) beabstandet zu der zumindest im Wesentlichen ruhenden Hand (6) liegt.Input device according to one of the preceding claims, characterized in that it covers the neutral region ( 11 ) bigger than the hand ( 6 ) so that the gesture area ( 12 - 15 ) spaced apart from the at least substantially stationary hand ( 6 ) lies. Eingabevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass sie den neutralen Bereich (11) mit der Hand (6) mitbewegt. Input device according to one of the preceding claims, characterized in that it covers the neutral region ( 11 ) with the hand ( 6 ) moved. Eingabevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass sie einen Schwerpunkt (10) der Hand (6) ermittelt und in Abhängigkeit von der Position/Positionsänderung des Schwerpunkts (10) den neutralen Bereich mitbewegt.Input device according to one of the preceding claims, characterized in that it has a center of gravity ( 10 ) of the hand ( 6 ) and depending on the position / position change of the center of gravity ( 10 ) moves the neutral area. Eingabevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass sie an den neutralen Bereich (11) angrenzend wenigstens zwei einander an dem neutralen Bereich (11) gegenüberliegend angeordnete Gestikbereiche (1215) einrichtet.Input device according to one of the preceding claims, characterized in that it is connected to the neutral region ( 11 ) adjacent at least two of each other at the neutral region ( 11 ) oppositely arranged Gestikbereiche ( 12 - 15 ). Eingabevorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass sie, wenn sie eine Positionsänderung in mehreren Gestikbereichen (1215) erfasst, nur die Positionsänderungen für die Eingabe berücksichtigt, die in dem Gestikbereich (1215) erfolgen, in welchem die meisten Positionsänderungen erfasst wurden.Input device according to one of the preceding claims, characterized in that, when it detects a change in position in a plurality of gestures ( 12 - 15 ), taking into account only the position changes for the input that are in the gesture area ( 12 - 15 ), in which most changes in position were recorded.
DE201520100273 2014-12-04 2015-01-22 input device Active DE202015100273U1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE201520100273 DE202015100273U1 (en) 2014-12-04 2015-01-22 input device
ITUB2015A006045A ITUB20156045A1 (en) 2014-12-04 2015-12-02 INPUT DEVICE
FR1561811A FR3029655B1 (en) 2014-12-04 2015-12-03 DEVICE FOR ENTRY IN PARTICULAR FROM A MOTOR VEHICLE FOR NON-CONTACT SEIZURE OF THE POSITION AND / OR CHANGE OF POSITION OF AT LEAST ONE FINGER OF A USER'S HAND
CN201511035963.6A CN105759955B (en) 2014-12-04 2015-12-04 Input device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102014224898.1 2014-12-04
DE102014224898.1A DE102014224898A1 (en) 2014-12-04 2014-12-04 Method for operating an input device, input device
DE201520100273 DE202015100273U1 (en) 2014-12-04 2015-01-22 input device

Publications (1)

Publication Number Publication Date
DE202015100273U1 true DE202015100273U1 (en) 2015-04-08

Family

ID=52991262

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102014224898.1A Pending DE102014224898A1 (en) 2014-12-04 2014-12-04 Method for operating an input device, input device
DE201520100273 Active DE202015100273U1 (en) 2014-12-04 2015-01-22 input device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102014224898.1A Pending DE102014224898A1 (en) 2014-12-04 2014-12-04 Method for operating an input device, input device

Country Status (4)

Country Link
CN (1) CN105759955B (en)
DE (2) DE102014224898A1 (en)
FR (1) FR3029655B1 (en)
IT (1) ITUB20156045A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015015067A1 (en) * 2015-11-20 2017-05-24 Audi Ag Motor vehicle with at least one radar unit
EP3232372A1 (en) 2016-04-13 2017-10-18 Volkswagen Aktiengesellschaft User interface, means of locomotion and method for detecting a hand of a user

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019092386A1 (en) 2017-11-13 2019-05-16 Nicand Patrick Gesture-based control system for actuators
FR3073649B1 (en) * 2017-11-13 2020-08-28 Frederic Delanoue ACTUATOR GESTUAL CONTROL SYSTEM

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2441635A1 (en) 2010-10-06 2012-04-18 Harman Becker Automotive Systems GmbH Vehicle User Interface System
US20120105613A1 (en) 2010-11-01 2012-05-03 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110055062A (en) * 2009-11-19 2011-05-25 삼성전자주식회사 Robot system and method for controlling the same
WO2012147961A1 (en) * 2011-04-28 2012-11-01 Necシステムテクノロジー株式会社 Information processing device, information processing method, and recording medium
CN102436301B (en) * 2011-08-20 2015-04-15 Tcl集团股份有限公司 Human-machine interaction method and system based on reference region and time domain information
US20130053007A1 (en) * 2011-08-24 2013-02-28 Microsoft Corporation Gesture-based input mode selection for mobile devices
US8970519B2 (en) * 2012-02-01 2015-03-03 Logitech Europe S.A. System and method for spurious signal detection and compensation on an input device
JP5593339B2 (en) * 2012-02-07 2014-09-24 日本システムウエア株式会社 Gesture recognition device using a steering wheel of an automobile, hand recognition method and program thereof
CN102662557B (en) * 2012-03-07 2016-04-13 上海华勤通讯技术有限公司 Mobile terminal and unlock method
US9448635B2 (en) * 2012-04-16 2016-09-20 Qualcomm Incorporated Rapid gesture re-engagement
JP6030430B2 (en) * 2012-12-14 2016-11-24 クラリオン株式会社 Control device, vehicle and portable terminal

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2441635A1 (en) 2010-10-06 2012-04-18 Harman Becker Automotive Systems GmbH Vehicle User Interface System
US20120105613A1 (en) 2010-11-01 2012-05-03 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015015067A1 (en) * 2015-11-20 2017-05-24 Audi Ag Motor vehicle with at least one radar unit
US10528148B2 (en) 2015-11-20 2020-01-07 Audi Ag Motor vehicle with at least one radar unit
EP3232372A1 (en) 2016-04-13 2017-10-18 Volkswagen Aktiengesellschaft User interface, means of locomotion and method for detecting a hand of a user
DE102016206142A1 (en) 2016-04-13 2017-10-19 Volkswagen Aktiengesellschaft User interface, means of locomotion and method of detecting a hand of a user

Also Published As

Publication number Publication date
ITUB20156045A1 (en) 2017-06-02
FR3029655B1 (en) 2018-11-16
DE102014224898A1 (en) 2016-06-09
FR3029655A1 (en) 2016-06-10
CN105759955A (en) 2016-07-13
CN105759955B (en) 2023-07-04

Similar Documents

Publication Publication Date Title
EP3507681B1 (en) Method for interacting with image contents displayed on a display device in a vehicle
DE102008016215A1 (en) Information device operating unit
DE102012020607B4 (en) A motor vehicle with a gesture control device and method for controlling a selection element
DE102015211358A1 (en) INPUT DEVICE FOR VEHICLES AND VEHICLE COCKPIT MODULE
WO2013034294A1 (en) Control device for a motor vehicle and method for operating the control device for a motor vehicle
EP3642695B1 (en) Method for operating a display device, and a motor vehicle
DE102015211357A1 (en) INPUT DEVICE FOR VEHICLES
DE102014226553A1 (en) Method for operating an input device, input device, motor vehicle
DE102013000066A1 (en) Zooming and moving an image content of a display device
DE202015100273U1 (en) input device
WO2015162058A1 (en) Gesture interaction with a driver information system of a vehicle
DE102013000069B4 (en) Motor vehicle user interface with a control element for detecting a control action
DE102015115362B4 (en) Detection device for a motor vehicle and motor vehicle
WO2016120251A1 (en) Method for operating an input device, input device
WO2017054894A1 (en) Interactive operating system and method for carrying out an operational action in an interactive operating system
EP3234736B1 (en) Method for operating an input device, input device, motor vehicle
DE102014224599A1 (en) Method for operating an input device, input device
DE102014224632A1 (en) Method for operating an input device, input device
DE102015201722A1 (en) Method for operating an input device, input device
EP3025214B1 (en) Method for operating an input device, and input device
WO2014040807A1 (en) Touch entries along a ridge/depression on a touch-sensitive surface
DE102015117386B4 (en) Method and device for activating an input area on a capacitive input area
WO2024126352A1 (en) Method and system for capturing user inputs
DE112015003916T5 (en) Vehicle touch pad and vehicle input interface
DE102014217969A1 (en) Method for operating an input device, input device

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20150513

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years