[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102016216409A1 - Interaktive Bedienvorrichtung - Google Patents

Interaktive Bedienvorrichtung Download PDF

Info

Publication number
DE102016216409A1
DE102016216409A1 DE102016216409.0A DE102016216409A DE102016216409A1 DE 102016216409 A1 DE102016216409 A1 DE 102016216409A1 DE 102016216409 A DE102016216409 A DE 102016216409A DE 102016216409 A1 DE102016216409 A1 DE 102016216409A1
Authority
DE
Germany
Prior art keywords
user
reference mark
dialogue
contraption
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016216409.0A
Other languages
English (en)
Inventor
Arne Rost
Cristina Rico Garcia
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BSH Hausgeraete GmbH
Original Assignee
BSH Hausgeraete GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BSH Hausgeraete GmbH filed Critical BSH Hausgeraete GmbH
Priority to DE102016216409.0A priority Critical patent/DE102016216409A1/de
Priority to PCT/EP2017/071337 priority patent/WO2018041711A1/de
Publication of DE102016216409A1 publication Critical patent/DE102016216409A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Mechanical Engineering (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät umfasst einen Basisabschnitt; eine gegenüber dem Basisabschnitt bewegliche optische Referenzmarke, die dazu eingerichtet ist, dem Benutzer den optischen Eindruck eines Auges zu vermitteln; eine Kamera; eine akustischen Eingabevorrichtung; eine akustische Ausgabeeinrichtung; eine Schnittstelle zur Verbindung mit dem Hausgerät; und eine Verarbeitungseinrichtung. Die Verarbeitungseinrichtung ist dazu eingerichtet, den Beginn eines natürlichsprachigen Dialogs zwischen einem Benutzer und der Vorrichtung zu erfassen; ein Bild des Benutzers mittels der Kamera aufzunehmen; die Referenzmarke während des Dialogs auf den Benutzer auszurichten; und das Hausgerät mittels der Schnittstelle auf der Basis des Dialogs zu steuern.

Description

  • Die Erfindung betrifft eine Vorrichtung zur Bedienung eines Hausgeräts. Insbesondere betrifft die Erfindung eine interaktive Vorrichtung, die zur Führung eines Dialogs mit einem Benutzer eingerichtet ist.
  • Stand der Technik
  • Ein Hausgerät ist dazu eingerichtet, eine vorbestimmte Aufgabe innerhalb eines Haushalts zu erfüllen. Beispielsweise kann das Hausgerät einen Staubsauger, einen Herd oder eine Dunstabzugshaube umfassen. Einige Hausgeräte können autonom tätig werden und benötigen nur selten eine Ein- oder Ausgabe. Andere Hausgeräte müssen interaktiv gesteuert werden. Beispielsweise kann ein Staubsauger autonom ausgeführt sein, während ein Herd üblicherweise während des Kochens von einem Benutzer bedient werden muss.
  • Die Bedienung eines Hausgeräts kann schwierig sein, wenn der Benutzer beispielsweise schmutzige Hände hat, unter Zeitdruck steht oder mehrere Abläufe zu konzertieren versucht, die unterschiedliche Hausgeräte involvieren. Eine Möglichkeit der fortgeschrittenen Steuerung eines Hausgeräts umfasst eine Spracheingabe. Das Hausgerät kann eine Verarbeitungseinrichtung umfassen, die dazu eingerichtet ist, eine natürlichsprachige Anweisung des Benutzers in eine Steuerfunktion des Hausgeräts umzusetzen. In ähnlicher Weise kann beispielsweise ein Betriebszustand des Hausgeräts mittels einer entsprechenden Verarbeitungseinrichtung als gesprochener Text, eben natürlichsprachig, ausgegeben werden.
  • Trotzdem ist die Interaktion zwischen dem Benutzer und dem Hausgerät oft schwierig. Beispielsweise ist nicht immer klar, wann das Hausgerät eine Eingabe erwartet, ob es die Eingabe verstanden hat oder eine Tätigkeit ausführt, die der vom Benutzer beabsichtigten Tätigkeit entspricht.
  • US 2010/0023163 A1 schlägt vor, einen Roboter zur Unterstützung eines Benutzers bei der Einhaltung vorgegebener Ernährungsgewohnheiten so auszustatten, dass ein Augenkontakt mit dem Benutzer simuliert werden kann.
  • Eine der vorliegenden Erfindung zugrunde liegende Aufgabe besteht darin, eine Technik anzugeben, die eine verbesserte Interaktion zwischen einem Benutzer und einem Hausgerät erlaubt. Die Erfindung löst diese Aufgabe mittels der Gegenstände der unabhängigen Ansprüche. Unteransprüche geben bevorzugte Ausführungsformen wieder.
  • Offenbarung der Erfindung
  • Eine erfindungsgemäße Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät umfasst einen Basisabschnitt; eine gegenüber dem Basisabschnitt bewegliche optische Referenzmarke, die dazu eingerichtet ist, dem Benutzer den optischen Eindruck eines Auges zu vermitteln; eine Kamera; eine akustische Eingabevorrichtung; eine akustische Ausgabeeinrichtung; eine Schnittstelle zur Verbindung mit dem Hausgerät und eine Verarbeitungseinrichtung. Die Verarbeitungseinrichtung ist dazu eingerichtet, den Beginn eines natürlichsprachigen Dialogs zwischen einem Benutzer und der Vorrichtung zu erfassen; ein Bild des Benutzers mittels der Kamera aufzunehmen; die Referenzmarke während des Dialogs auf den Benutzer auszurichten; und das Hausgerät mittels der Schnittstelle auf der Basis des Dialogs zu steuern.
  • Die Vorrichtung kann es erlauben, den Dialog mit dem Benutzer optisch zu unterstützen und zu gestalten. Dadurch kann der Dialog intuitiver gestaltet werden und das Einlernen bestimmter Dialogmuster durch den Benutzer kann entfallen. Durch das Ausrichten der Referenzmarke auf den Benutzer kann sich bei diesem automatisch der Eindruck von Aufmerksamkeit einstellen, sodass er weiß, dass er sich in einem Dialog befindet. Der Benutzer kann dann verbessert eine Anweisung aussprechen, die mittels der Vorrichtung verarbeitet werden kann. Umgekehrt kann das Abwenden der Referenzmarke vom Benutzer diesem signalisieren, dass gerade kein Dialog stattfindet. Dadurch kann eine unmittelbare Rückmeldung an den Benutzer erfolgen, dass eine eventuelle sprachliche Äußerung von ihm nicht verarbeitet und nicht als Anweisung interpretiert wird. Das Gefühl einer Überwachung kann sich daher beim Benutzer nicht einstellen.
  • Bevorzugt ist die Verarbeitungseinrichtung weiter dazu eingerichtet, auf der Grundlage des Bildes ein Auge des Benutzers zu erfassen und die Referenzmarke auf das Auge des Benutzers auszurichten. Dadurch kann sich ein verstärkter Eindruck des Blickkontakts zwischen der Vorrichtung und dem Benutzer einstellen. In weiteren Ausführungsformen kann durch die Art der Darstellung der Referenzmarke der Dialog zusätzlich verfestigt werden. Beispielsweise kann der optische Eindruck des Auges derart verändert werden, dass einfache Gefühle wie Aufmerksamkeit, Abwesenheit, Konzentration etc. dialogunterstützend dargestellt werden.
  • In noch einer weiteren Ausführungsform umfasst die Vorrichtung einen Kopfabschnitt, der in wenigstens einer Dimension gegenüber dem Basisabschnitt beweglich ist und an dem die Referenzmarke angebracht ist. Dabei ist die Verarbeitungseinrichtung dazu eingerichtet, den Kopfabschnitt gegenüber dem Basisabschnitt und die Referenzmarke gegenüber dem Kopfabschnitt zu bewegen, um die Referenzmarke auf den Benutzer auszurichten. Gegebenenfalls wird die Referenzmarke auf ein Auge des Benutzers ausgerichtet, wie oben erläutert wurde. Durch den Kopfabschnitt kann sich verstärkt der Eindruck eines verständigen Wesens beim Benutzer einstellen, sodass beispielsweise Vorbehalte des Benutzers gegenüber einer technischen Einrichtung den Dialog nicht trüben können.
  • In einer ersten Variante ist die Referenzmarke dreidimensional ausgebildet und es ist eine Antriebseinrichtung zur Bewegung der Referenzmarke vorgesehen. Eine realistische Darstellung eines Auges kann so einfach verwendet werden, um die oben beschriebene Fixierung auf den Benutzer zu realisieren. Eine graphische Anzeigeeinrichtung ist nicht erforderlich. Ist trotzdem eine graphische Anzeigeeinrichtung vorgesehen, so kann diese zur Ausgabe anderer Informationen verwendet werden, insbesondere bildlicher oder textueller Informationen.
  • In einer anderen Variante umfasst die Vorrichtung eine zweidimensionale graphische Anzeigeeinrichtung, und die Verarbeitungseinrichtung ist dazu eingerichtet, die Referenzmarke auf der Anzeigeeinrichtung darzustellen und auszurichten. In dieser Variante kann eine erhöhte Flexibilität bei der Darstellung der Referenzmarke erzielt werden. Insbesondere können einfache Gefühle verbessert simuliert werden, indem die Darstellung der Referenzmarke entsprechend angepasst wird.
  • Die akustische Eingabevorrichtung kann ein Mikrofon-Array umfassen, mit dessen Hilfe eine akustische Position des Benutzers bestimmt werden kann. Vorzugsweise ist dann die Kamera dafür eingerichtet, in einem vorbestimmten Fenster um die bestimmte akustische Position des Benutzers verschwenkt zu werden, um ein Gesicht des Benutzers zu finden.
  • Eine Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät umfasst eine optische Referenzmarke, die dazu eingerichtet ist, beim Benutzer den optischen Eindruck eines Auges zu vermitteln. Ein erfindungsgemäßes Verfahren zum Steuern der Vorrichtung umfasst Schritte des Erfassens des Beginns eines natürlichsprachigen Dialogs zwischen dem Benutzer und der Vorrichtung; des Abtastens eines Bildes des Benutzers; des Ausrichtens der Referenzmarke auf den Benutzer während des Dialogs und des Steuerns des Hausgeräts auf der Basis des Dialogs.
  • Das erfindungsgemäße Verfahren kann insbesondere auf der oben beschriebenen Vorrichtung ablaufen. Dazu kann die Vorrichtung eine Verarbeitungseinrichtung aufweisen, die einen programmierbaren Mikrocomputer oder Mikrocontroller umfasst. Das Verfahren kann dabei insbesondere als Computerprogrammprodukt mit Programmcodemitteln realisiert sein. Das Verfahren kann zur Steuerung eines oder mehrerer Hausgeräte verwendet werden. Es ist bevorzugt, dass das Verfahren zusätzlich das Umwandeln einer natürlichsprachigen Eingabe des Benutzers in ein maschinenverständliches Signal und/oder das Umwandeln eines maschinenverständlichen Signals in eine natürlichsprachige Äußerung an den Benutzer durchführt. Dadurch kann das Verfahren verbessert die Interaktion zwischen dem Benutzer und einer Vorrichtung steuern, während eine Gerätefunktion eines Hausgeräts auf bekannte Weise maschinell gesteuert wird. Die maschinelle Steuerung kann insbesondere das Austauschen von Status-, Befehls- oder Anforderungsinformationen umfassen.
  • Der Dialog umfasst bevorzugt wenigstens eine natürlichsprachige Äußerung des Benutzers und eine natürlichsprachige Äußerung der Vorrichtung, wobei die beiden Äußerungen miteinander in Kontext stehen. Beispielsweise kann der Benutzer eine Anforderung äußern, worauf verfahrensgemäß eine Bestätigung der verstandenen Anforderung zurückgegeben wird. In einem anderen Beispiel kann der Benutzer einen Gerätezustand des Hausgeräts anfordern und verfahrensgemäß wird der Gerätezustand beschafft und natürlichsprachig ausgegeben.
  • Der Beginn des Dialogs kann erfasst werden, nachdem ein vom Benutzer gesprochenes Schlüsselwort erfasst wurde. Das Schlüsselwort kann fest vorgegeben sein und beispielsweise eine Bezeichnung einer das Verfahren durchführenden Vorrichtung umfassen. In einer anderen Ausführungsform kann das Schlüsselwort durch den Benutzer vorgegeben sein.
  • Es ist weiterhin bevorzugt, dass das Ausrichten der Referenzmarke auf den Benutzer aufgehoben wird, wenn das Ende des Dialogs bestimmt wurde. Ein Eindruck des Beobachtetwerdens durch den Benutzer kann dadurch vermieden werden. Durch das verbesserte Abgrenzen einer Dialogphase von einer dialogfreien Phase kann die Interaktion des Benutzers mit dem Verfahren bzw. einer ausführenden Vorrichtung insgesamt verbessert werden.
  • Der Dialog wird bevorzugt als beendet bestimmt, wenn länger als eine vorbestimmte Dauer keine natürlichsprachige Äußerung mit dem Benutzer ausgetauscht wurde. Dabei kann die Äußerung alternativ seitens des Verfahrens bzw. der ausführenden Vorrichtung oder seitens des Benutzers erfolgen. In einer alternativen Ausführungsform kann der Dialog auch als beendet bestimmt werden, wenn dies aus dem Dialog bzw. der Abfolge der natürlichsprachigen Äußerungen hervorgeht.
  • Zusätzlich umfasst die Erfindung ein Hausgerät mit einer erfindungsgemäßen Vorrichtung.
  • Die Erfindung wurde mit Bezug auf eine Vorrichtung, ein Hausgerät sowie ein Verfahren erläutert. Sofern nichts Anderes angegeben ist, sind Merkmale einer Anspruchskategorie analog auf die anderen Anspruchskategorien anwendbar.
  • Kurze Beschreibung der Figuren
  • Die Erfindung wird nun unter Bezug auf die beiliegenden Figuren genauer beschrieben, in denen:
  • 1 eine schematische Darstellung einer Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät;
  • 2 die Vorrichtung im Dialog mit einem Benutzer;
  • 3 eine beispielhafte Darstellung einer optischen Referenzmarke der Vorrichtung;
  • 4 beispielhafte Stellungen eines Paars von Referenzmarken; und
  • 5 ein Ablaufdiagramm eines Verfahrens zur Steuerung der Interaktion der Vorrichtung mit einem Benutzer darstellt.
  • Genaue Beschreibung eines Ausführungsbeispiels
  • 1 zeigt eine schematische Darstellung einer Vorrichtung 100 zur Steuerung einer Interaktion zwischen einem Benutzer 105 und einem Hausgerät 110. In der exemplarischen Darstellung sind zwei Hausgeräte 110 in Form eines Herds und einer Dunstabzugshaube dargestellt. Beide verfügen über eine bevorzugt drahtlose Schnittstelle 115 zur Verbindung mit der Vorrichtung 100. Es können jedoch auch andere Hausgeräte 110 mit der Vorrichtung 100 verbunden werden, insbesondere Küchengeräte oder Reinigungsgeräte.
  • Die Vorrichtung 100 umfasst eine Verarbeitungseinrichtung 120, die mit einer akustischen Eingabevorrichtung 125, einer akustischen Ausgabevorrichtung 130 und einer bevorzugt drahtlosen Schnittstelle 135 zur Verbindung mit einem oder mehreren Hausgeräten 110 verbunden ist. Die Vorrichtung 100 umfasst ferner einen Basisabschnitt 140, der beispielsweise verwendet werden kann, um die Vorrichtung 100 auf einer Standfläche abzustellen oder an einer Wand, einem Möbel, einem Hausgerät 110 oder einem anderen Objekt anzubringen. Elemente der Vorrichtung 100 können innerhalb des Basisabschnitts 140 aufgenommen sein. Bevorzugt umfasst die Vorrichtung 100 zusätzlich einen Kopfabschnitt 145, der in mindestens einer Dimension gegenüber dem Basisabschnitt 140 beweglich gelagert ist. Zum Bewegen des Kopfabschnitts 145 gegenüber dem Basisabschnitt 140 kann eine Antriebseinrichtung 150 vorgesehen sein, die durch die Verarbeitungseinrichtung 120 gesteuert werden kann. Beispielsweise kann der Kopfabschnitt 145 um eine Hochachse durch den Basisabschnitt 140 verschwenkbar sein. Der Kopfabschnitt 145 kann auch um eine Querachse verschwenkbar sein, um gegenüber dem Basisabschnitt 140 eine Nickbewegung durchzuführen.
  • Am Basisabschnitt 140, oder, falls vorhanden, am Kopfabschnitt 145, ist eine bewegliche optische Referenzmarke 155, die dazu eingerichtet ist, vom Benutzer 105 als Auge wahrgenommen zu werden, angebracht. Die Referenzmarke 155 kann plastisch ausgebildet und beispielsweise mittels einer weiteren Antriebseinrichtung 150 mechanisch beweglich sein. In der dargestellten Ausführungsform ist eine bevorzugt zweidimensionale und graphische Anzeigeeinrichtung 160 vorgesehen, die mit der Verarbeitungseinrichtung 120 verbunden ist. Auf der Anzeigeeinrichtung 160 kann die Referenzmarke 155 dargestellt und bevorzugt auch bewegt werden. Außerdem umfasst die Vorrichtung 100 eine Kamera 165, die bevorzugt nahe an der Referenzmarke 155 und insbesondere bevorzugt am Kopfabschnitt 145 angebracht ist.
  • 2 zeigt die Vorrichtung 100 in einer weiteren Ausführungsform im Dialog mit dem Benutzer 105. Hier sind beispielhaft zwei Referenzmarken 155 vorgesehen, die bevorzugt konzertiert derart angesteuert werden, dass sie durch den Benutzer 105 als Augenpaar wahrgenommen werden.
  • Die Vorrichtung 100 ist dazu eingerichtet, eine Interaktion zwischen dem Benutzer 105 und dem Hausgerät 110 dadurch zu unterstützen, dass sie einen natürlichsprachigen Dialog zwischen dem Benutzer 105 und der Vorrichtung 100 durch eine Ausrichtung der optischen Referenzmarke 155 auf den Benutzer 105 unterstützt. Ziel ist, dem Benutzer 105 den Eindruck einer Aufmerksamkeit der Vorrichtung 100 zu vermitteln, während der Dialog andauert. Dazu kann die Referenzmarke 155 insbesondere so gesteuert werden, dass sie das Auge eines menschlichen Gesprächspartners nachahmt, mit dem der Benutzer 105 spricht. In einem ersten Schritt kann die Vorrichtung 100 mittels der Kamera 165 eine relative Position oder Richtung des Benutzers 105 bezüglich der Vorrichtung 100 bestimmen und den Kopfabschnitt 145 und/oder die Referenzmarke 155 auf den Benutzer 105 ausrichten. In einer Verfeinerung kann innerhalb des Bildes der Kamera 165 auch ein Auge 170 des Benutzers 105 erfasst werden und die Referenzmarke 155 kann spezifisch auf das Auge 170 ausgerichtet werden. Bewegt sich der Benutzer 105 im Raum, so kann die Ausrichtung der Referenzmarke 155 dem Benutzer 105 folgen. Ist der Dialog beendet, so kann die Verfolgung abgebrochen bzw. die Ausrichtung zerstört werden.
  • Es ist weiterhin bevorzugt, dass die Vorrichtung 100 einen natürlichsprachigen Dialog mit dem Benutzer 105 durchführt. Eine durch den Benutzer 105 gesprochene Äußerung kann mittels der akustischen Eingabevorrichtung 125 abgetastet und mittels der Verarbeitungseinrichtung 120 analysiert werden. In Abhängigkeit des Ergebnisses kann beispielsweise eine Anforderung an eines der Hausgeräte 110 über die Schnittstelle 135 ausgesandt werden. Eine Nachricht eines Hausgeräts 110, beispielsweise betreffend ihren Betriebszustand, kann über die Schnittstelle 135 empfangen und durch die Verarbeitungseinrichtung 120 in eine natürlichsprachige Äußerung umgewandelt werden („Text to Speech“). Anschließend wird die Äußerung bevorzugt über die akustische Ausgabevorrichtung 130 an den Benutzer 105 ausgegeben.
  • 3 zeigt eine beispielhafte Darstellung von optischen Referenzmarken 155 der Vorrichtung 100 der beiden vorangehenden Figuren. Die Referenzmarken 155 können jeweils plastisch nachgebildet oder auf der Anzeigeeinrichtung 160 dargestellt werden. Die Referenzmarken 155 sind bevorzugt dazu eingerichtet, den Dialog zum Benutzer 105 zu unterstützen. Dazu ist es hilfreich, wenn die Vorrichtung 100 als Person bzw. als personenähnliche Maschine wahrgenommen werden kann. Beispielsweise sind die dargestellten Referenzmarken 155 als weibliches Augenpaar dargestellt. Eine natürlichsprachige Ausgabe mittels der akustischen Ausgabevorrichtung 130 verwendet dabei bevorzugt eine ebenfalls weibliche Stimme.
  • Die Referenzmarke 155 kann noch weitere Details eines menschlichen Auges aufweisen, wobei die Details entweder statisch, zur Verbesserung des menschenähnlichen Eindrucks, oder dynamisch, etwa zum Ausdruck einfacher Emotionen, verwendet werden können. Die dargestellte Referenzmarke 155 umfasst optische Nachbildungen eines Augapfels 305, einer Iris 310, einer Pupille 315, eines oberen Augenlids 320, eines unteren Augenlids 325, oberen und unteren Wimpern 330 und einer Augenbraue 335. In anderen Ausführungsformen können einige der genannten Elemente oder Merkmale anders ausgeführt sein oder fehlen. Es ist auch möglich, Merkmale 305 bis 335 stilistisch nur anzudeuten.
  • 4 zeigt beispielhafte Stellungen eines Paars von Referenzmarken 155 der Vorrichtung 100 der 1 und 2. In alternativen Ausführungsformen kann auch nur eine Referenzmarke 155 vorgesehen sein. In der dargestellten Ausführungsform wird der optische Eindruck eines Auges im Wesentlichen dadurch hergestellt, dass ein schwarzer Kreis in einem weißen Kreis dargestellt wird. Dadurch lassen sich bereits verschiedene Blickrichtungen simulieren, wenn die Referenzmarke 155 auf den Benutzer 105 ausgerichtet wird. Durch die Blickrichtungen können bereits Gefühle ausgedrückt werden, wodurch die Informationsübermittlung zwischen dem Benutzer 155 und der Vorrichtung 100 unterstützt werden kann.
  • In weiteren Ausführungsformen können noch weitere Elemente von Augen oder einer Augenpartie, die beispielsweise oben mit Bezug auf 3 beschrieben wurden, zur Expression eines Gefühls dargestellt werden.
  • In 4a sind die Referenzmarken 155 direkt auf den Benutzer 105 gerichtet. In den 4b und 4c sind Blickrichtungen angedeutet, die den Benutzer 105 zulaufen, wenn sich dieser seitlich unten (4b) bzw. seitlich oben (4c) der Vorrichtung 100 bzw. der Anzeigevorrichtung 160 befindet. In 4d sind die dunklen Kreise in der oberen Hälfte der hellen Kreise abgedeckt und eine horizontale Linie ist zu sehen, um den Eindruck halbgeschlossener Augenlieder hervorzurufen. Dadurch kann seitens der Vorrichtung 100 ein Gefühl von Müdigkeit oder Unkonzentriertheit vermittelt werden. In 4e fehlen die dunklen Kreise ganz, sodass sich der Eindruck geschlossener Augen einstellen kann. Dadurch kann verdeutlicht werden, dass ein Dialog mit der Vorrichtung 100 gegenwärtig nicht stattfindet – die Vorrichtung 100 „schläft“.
  • 5 zeigt ein Ablaufdiagramm eines exemplarischen Verfahrens 500 zur Steuerung der Interaktion der Vorrichtung 100 der 1 und 2 mit dem Benutzer 105. Das Verfahren 500 kann insbesondere mittels der Verarbeitungseinrichtung 120 durchgeführt werden.
  • In einem Schritt 502 wird erfasst, dass der Benutzer 105 ein Schlüsselwort gesprochen hat. Das Schlüsselwort kann eine Bezeichnung der Vorrichtung 100 umfassen. Ein Hinweis auf das Schlüsselwort kann in textueller Form auf der Vorrichtung 100 angegeben sein. In einem Schritt 504 wird überprüft, ob der Benutzer 105 bereits bekannt ist. Ist dies der Fall, so kann in einem Schritt 506 eine entsprechende interne Marke gesetzt werden, die hier beispielhaft user_detectable genannt wird. Anschließend oder wenn der Benutzer 105 nicht bekannt ist, wird in einem Schritt 508 bestimmt, aus welcher Richtung das akustische Signal empfangen wurde. Sind mehrere akustische Eingabevorrichtungen 125 vorgesehen, so kann auf der Basis des Stereoeffekts eine ungefähre Richtung des Benutzers 105 bestimmt werden.
  • In einem Schritt 510 wird bevorzugt der Kopfabschnitt 145 in diese Richtung bewegt, um einen Bildausschnitt der Kamera 165 so zu verändern, dass er den Benutzer 105 möglichst enthält. In einem Schritt 512 wird überprüft, ob auf einem Bild der Kamera 165 ein Gesicht erkannt werden kann. Ist dies der Fall, so wird bevorzugt in einem Schritt 514 eine relative Position des Benutzers 105 auf der Basis des Kamerabilds bestimmt. Anschließend wird in einem Schritt 516 die Referenzmarke 155 auf den Benutzer 105 und weiter, falls möglich, auf ein im Bild der Kamera 165 erfasstes Auge 170 des Benutzers 105 ausgerichtet. In einem folgenden Schritt 518 wird der Benutzer 105 verfolgt, indem seine relative Position zur Vorrichtung 100 fortlaufend bestimmt und die Referenzmarke 155 sowie gegebenenfalls die Kamera 165 jeweils auf die bestimmte Position ausgerichtet werden.
  • In einem Schritt 520 wird eine Äußerung des Benutzers 105 erfasst. Kann keine Äußerung erfasst werden, so kann das Verfahren 500 zum Schritt 512 zurückkehren. Andernfalls kann in einem Schritt 522 die Schallquelle der Äußerung bestimmt werden. In einem Schritt 524 können die bislang bestimmten Positionen bzw. Ausrichtungen des Benutzers 105 bezüglich der Vorrichtung 100 miteinander fusioniert werden. Die Ausrichtung der Referenzmarke 155 und/oder der Kamera 165 – gegebenenfalls mit Unterstützung der Ausrichtung des Kopfabschnitts 145 – kann in einem Schritt 526 aktualisiert werden. Anschließend kann das Verfahren 500 mit dem Schritt 512 fortfahren.
  • Wurde im Schritt 512 kein Gesicht des Benutzers 105 im Kamerabild erkannt, so kann in einem Schritt 528 überprüft werden, ob die interne Marke user_detectable gesetzt ist. Ist dies nicht der Fall, so kann das Verfahren 500 mit dem Schritt 512 fortfahren. Andernfalls wird bevorzugt in einem Schritt 530 die Kamera 165 in einem vorbestimmten Fenster um die bestimmte akustische Position verschwenkt. Anschließend wird in einem Schritt 532 überprüft, ob ein Gesicht erkannt wurde und in diesem Fall zum Schritt 514 verzweigt. Andernfalls wird in einem Schritt 534 überprüft, ob das vorbestimmte Fenster bereits vollständig analysiert wurde. Ist dies nicht der Fall, so fährt das Verfahren 500 bevorzugt mit dem Schritt 530 fort. Andernfalls kann in einem Schritt 536 eine interne Variable, die hier c genant wird, auf 0 gesetzt werden. In einem nachfolgenden Schritt 538 kann der Benutzer 105, beispielsweise auf natürlichsprachigem Weg mittels der Ausgabevorrichtung 130, oder auf optische oder textuelle Weise mittels der Anzeigeeinrichtung 160, gefragt werden, ob sein Gesicht gerade von der Kamera 165 nicht erkannt werden kann. Die Variable c wird dabei inkrementiert.
  • In einem Schritt 540 wird überprüft, ob der Benutzer 105 mit Ja geantwortet hat. In diesem Fall wird die interne Marke user_detectable in einem Schritt 542 auf 0 gesetzt und das Verfahren 500 fährt mit dem Schritt 520 fort. Kann keine Antwort des Benutzers 105 bestimmt werden, so kann in einem Schritt 544 eine vorbestimmte Zeit gewartet werden, bevor in einem Schritt 546 überprüft wird, ob die Variable c den Wert 3 hat. Ist dies nicht der Fall, so wird im Schritt 538 die Frage an den Benutzer 105 erneut ausgegeben und die Variable c wird erneut inkrementiert. Ist der Wert der Variablen c im Schritt 546 3, so kann das Verfahren 500 in einem Schritt 548 enden.
  • Wird im Schritt 540 festgestellt, dass die Antwort des Benutzers 105 Nein lautet, so wird in einem Schritt 550 die Variable c auf den Wert 0 gesetzt und in einem Schritt 552 der Benutzer 105 gebeten, das Schlüsselwort zu wiederholen. Die Variable c wird dabei inkrementiert. In einem nachfolgenden Schritt 554 wird überprüft, ob der Benutzer 105 das Schlüsselwort gesprochen hat. In diesem Fall fährt das Verfahren 500 bevorzugt mit dem Schritt 508 fort. Andernfalls kann in einem Schritt 556 eine vorbestimmte Zeit gewartet werden, bevor in einem Schritt 558 überprüft wird, ob die Variable c den Wert 3 hat. Ist dies nicht der Fall, so fährt das Verfahren 500 mit dem Schritt 552 fort und bittet den Benutzer 105 erneut, das Schlüsselwort zu sprechen. Andernfalls kann das Verfahren 500 im Schritt 548 enden.
  • Bezugszeichenliste
  • 100
    Vorrichtung
    105
    Benutzer
    110
    Hausgerät
    115
    Schnittstelle
    120
    Verarbeitungseinrichtung
    125
    akustische Eingabevorrichtung
    130
    akustische Ausgabevorrichtung
    135
    Schnittstelle
    140
    Basisabschnitt
    145
    Kopfabschnitt
    150
    Antriebseinrichtung
    155
    Referenzmarke
    160
    Anzeigeeinrichtung
    165
    Kamera
    170
    Auge des Benutzers
    305
    Augapfel
    310
    Iris
    315
    Pupille
    320
    oberes Augenlid
    325
    unteres Augenlid
    330
    Wimper
    335
    Augenbraue
    500
    Verfahren
    502
    Schlüsselwort erfasst
    504
    Benutzer bekannt?
    506
    setzen Marke user_detectable
    508
    Bestimmen akustische Richtung des Benutzers
    510
    Kopfabschnitt schwenken, Kamerabild erstellen
    512
    Gesicht erkannt?
    514
    Bestimmen rel. Position des Benutzers aus Kamerabild
    516
    Ausrichten Referenzmarke
    518
    Benutzer verfolgen
    520
    Äußerung Benutzer erfassen
    522
    Schallquelle Äußerung bestimmen
    524
    Positionen fusionieren
    526
    Ausrichtung justieren
    528
    Marke user_detectable gesetzt?
    530
    Kamera in vorbestimmtem Fenster bewegen
    532
    Gesicht erkannt?
    534
    Fenster komplett durchsucht?
    536
    c = 0
    538
    Frage an Benutzer
    540
    Antwort auswerten
    542
    user_detectable = 0
    544
    warten
    546
    c = 3?
    548
    Ende
    550
    c = 0
    552
    Benutzer bitten, Schlüsselwort zu wiederholen
    554
    Schlüsselwort gesprochen?
    556
    warten
    558
    c = 3?
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2010/0023163 A1 [0005]

Claims (13)

  1. Vorrichtung (100) zur Steuerung einer Interaktion zwischen einem Benutzer (105) und einem Hausgerät (110), wobei die Vorrichtung (100) folgendes umfasst: – einen Basisabschnitt (140); – eine gegenüber dem Basisabschnitt (140) bewegliche optische Referenzmarke (155), die dazu eingerichtet ist, dem Benutzer (105) den optischen Eindruck eines Auges zu vermitteln; – eine Kamera (165); – eine akustischen Eingabevorrichtung (125); – eine akustische Ausgabeeinrichtung (130); – eine Schnittstelle (135) zur Verbindung mit dem Hausgerät (110); und – eine Verarbeitungseinrichtung (120), die dazu eingerichtet ist: – den Beginns eines natürlichsprachigen Dialogs zwischen dem Benutzer (105) und der Vorrichtung (100) zu erfassen; – ein Bild des Benutzers (105) mittels der Kamera (165) aufzunehmen; – die Referenzmarke (155) während des Dialogs auf den Benutzer (105) auszurichten; und – das Hausgerät (110) mittels der Schnittstelle (135) auf der Basis des Dialogs zu steuern.
  2. Vorrichtung (100) nach Anspruch 1, wobei die Verarbeitungseinrichtung (120) weiter dazu eingerichtet ist, auf der Grundlage des Bildes ein Auge (170) des Benutzers (105) zu erfassen und die Referenzmarke (155) auf das Auge (170) des Benutzers (105) auszurichten.
  3. Vorrichtung (100) nach Anspruch 1 oder 2, ferner umfassend einen Kopfabschnitt (145), der in wenigstens einer Dimension gegenüber dem Basisabschnitt (140) beweglich ist und an dem die Referenzmarke (155) angebracht ist, wobei die Verarbeitungseinrichtung (120) dazu eingerichtet ist, den Kopfabschnitt (145) gegenüber dem Basisabschnitt (140) und die Referenzmarke (155) gegenüber dem Kopfabschnitt (145) zu bewegen, um die Referenzmarke (155) auf den Benutzer (105) auszurichten.
  4. Vorrichtung (100) nach einem der vorangehenden Ansprüche, wobei die Referenzmarke (155) dreidimensional ausgebildet ist und eine Antriebseinrichtung (150) zur Bewegung der Referenzmarke (155) vorgesehen ist.
  5. Vorrichtung (100) nach einem der Ansprüche 1 bis 3, ferner umfassend eine zweidimensionale graphische Anzeigeeinrichtung (160), wobei die Verarbeitungseinrichtung (120) dazu eingerichtet ist, die Referenzmarke (155) auf der Anzeigeeinrichtung (160) darzustellen und auszurichten.
  6. Vorrichtung (100) nach einem der vorangehenden Ansprüche, wobei die akustische Eingabevorrichtung (125) ein Mikrofon-Array umfasst, mit dessen Hilfe eine akustische Position des Benutzers (105) bestimmt werden kann.
  7. Vorrichtung (100) nach dem vorhergehenden Anspruch, wobei die Kamera (165) dafür eingerichtet ist, in einem vorbestimmten Fenster um die bestimmte akustische Position des Benutzers (105) verschwenkt zu werden, um ein Gesicht des Benutzers (105) zu finden.
  8. Verfahren (500) zum Steuern einer Vorrichtung (100) zur Steuerung einer Interaktion zwischen einem Benutzer (105) und einem Hausgerät (110), wobei die Vorrichtung (100) eine optische Referenzmarke (155) umfasst, die dazu eingerichtet ist, beim Benutzer (105) den optischen Eindruck eines Auges zu vermitteln, wobei das Verfahren (500) folgende Schritte umfasst: – Erfassen (502) des Beginns eines natürlichsprachigen Dialogs zwischen dem Benutzer (105) und der Vorrichtung (100); – Abtasten (510) eines Bildes des Benutzers (105); – Ausrichten (510) der Referenzmarke (155) auf den Benutzer (105) während des Dialogs; und – Steuern des Hausgeräts (110) auf der Basis des Dialogs.
  9. Verfahren (500) nach einem der vorangehenden Ansprüche, wobei der Dialog wenigstens eine natürlichsprachige Äußerung des Benutzers (105) und eine natürlichsprachige Äußerung der Vorrichtung (100) umfasst und die beiden Äußerungen miteinander in Kontext stehen.
  10. Verfahren (500) nach einem der vorangehenden Ansprüche, wobei das Erfassen des Beginns des Dialogs das Erfassen (502) eines vom Benutzer (105) gesprochenen Schlüsselworts umfasst.
  11. Verfahren (500) nach einem der vorangehenden Ansprüche, ferner umfassend das Bestimmen des Endes des Dialogs und des Aufhebens der Ausrichtung der Referenzmarke (155) auf den Benutzer (105).
  12. Verfahren (500) nach einem der vorangehenden Ansprüche, wobei der Dialog als beendet bestimmt wird, wenn länger als eine vorbestimmte Dauer keine natürlichsprachige Äußerung mit dem Benutzer (105) ausgetauscht wurde.
  13. Hausgerät (110) mit einer Vorrichtung (100) nach einem der Ansprüche 1 bis 7.
DE102016216409.0A 2016-08-31 2016-08-31 Interaktive Bedienvorrichtung Pending DE102016216409A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102016216409.0A DE102016216409A1 (de) 2016-08-31 2016-08-31 Interaktive Bedienvorrichtung
PCT/EP2017/071337 WO2018041711A1 (de) 2016-08-31 2017-08-24 Interaktive bedienvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016216409.0A DE102016216409A1 (de) 2016-08-31 2016-08-31 Interaktive Bedienvorrichtung

Publications (1)

Publication Number Publication Date
DE102016216409A1 true DE102016216409A1 (de) 2018-03-01

Family

ID=59761940

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016216409.0A Pending DE102016216409A1 (de) 2016-08-31 2016-08-31 Interaktive Bedienvorrichtung

Country Status (2)

Country Link
DE (1) DE102016216409A1 (de)
WO (1) WO2018041711A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018214417B3 (de) 2018-08-27 2019-07-25 Volkswagen Aktiengesellschaft Verfahren zur Programmierung eines Roboters sowie Recheneinrichtung und Computerprogramm
EP3636391A1 (de) 2018-10-11 2020-04-15 BSH Hausgeräte GmbH Gelenk und haushaltsassistent

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114690909B (zh) * 2022-06-01 2022-08-16 润芯微科技(江苏)有限公司 一种ai视觉自适应的方法、装置、系统、计算机可读介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004047940A1 (de) 2002-11-26 2004-06-10 Ramin Assisi Vorrichtung zur augenausrichtung von puppen
US20050137747A1 (en) 2003-12-18 2005-06-23 Miro Xavier A. Interactive personalized robot for home use
US20050215171A1 (en) 2004-03-25 2005-09-29 Shinichi Oonaka Child-care robot and a method of controlling the robot
US20090118865A1 (en) 2007-11-05 2009-05-07 Hitachi, Ltd. Robot
US20100023163A1 (en) 2008-06-27 2010-01-28 Kidd Cory D Apparatus and Method for Assisting in Achieving Desired Behavior Patterns
US20150138333A1 (en) 2012-02-28 2015-05-21 Google Inc. Agent Interfaces for Interactive Electronics that Support Social Cues

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8935006B2 (en) * 2005-09-30 2015-01-13 Irobot Corporation Companion robot for personal interaction
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004047940A1 (de) 2002-11-26 2004-06-10 Ramin Assisi Vorrichtung zur augenausrichtung von puppen
US20050137747A1 (en) 2003-12-18 2005-06-23 Miro Xavier A. Interactive personalized robot for home use
US20050215171A1 (en) 2004-03-25 2005-09-29 Shinichi Oonaka Child-care robot and a method of controlling the robot
US20090118865A1 (en) 2007-11-05 2009-05-07 Hitachi, Ltd. Robot
US20100023163A1 (en) 2008-06-27 2010-01-28 Kidd Cory D Apparatus and Method for Assisting in Achieving Desired Behavior Patterns
US20150138333A1 (en) 2012-02-28 2015-05-21 Google Inc. Agent Interfaces for Interactive Electronics that Support Social Cues

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018214417B3 (de) 2018-08-27 2019-07-25 Volkswagen Aktiengesellschaft Verfahren zur Programmierung eines Roboters sowie Recheneinrichtung und Computerprogramm
US11491652B2 (en) 2018-08-27 2022-11-08 Volkswagen Aktiengesellschaft Method for programming robots and computing device and computer program
EP3636391A1 (de) 2018-10-11 2020-04-15 BSH Hausgeräte GmbH Gelenk und haushaltsassistent

Also Published As

Publication number Publication date
WO2018041711A1 (de) 2018-03-08

Similar Documents

Publication Publication Date Title
DE19953835C1 (de) Rechnerunterstütztes Verfahren zur berührungslosen, videobasierten Blickrichtungsbestimmung eines Anwenderauges für die augengeführte Mensch-Computer-Interaktion und Vorrichtung zur Durchführung des Verfahrens
DE2264123C3 (de) Verfahren zur rechner-unterstützten Erzeugung von Trickfolgen-Projektionsbildern mehrdimensionaler Objekte
WO2002050649A2 (de) Anwendergesteuerte verknüpfung von informationen innerhalb eines augmented-reality-systems
DE102016216409A1 (de) Interaktive Bedienvorrichtung
DE102005009437A1 (de) Verfahren und Vorrichtung zum Einblenden von AR-Objekten
WO2018054945A1 (de) Fremdkraftbetätigbare prothese
DE102015210879A1 (de) Vorrichtung zur Unterstützung eines Nutzers in einem Haushalt
EP3108789A1 (de) Unterstützung einer oberflächenreinigung
DE102011052836A1 (de) Interaktives Trainingssystem zur Rehabilitation von physiologisch beeinträchtigten Patienten sowie Verfahren zum Betrieb desselben
CH709251A2 (de) Verfahren und Vorrichtung für Telepräsenz.
DE10215885A1 (de) Automatische Prozesskontrolle
EP3470919A1 (de) Haushaltsassistent mit projektor
EP3609366A1 (de) Arbeitsplatzsystem und verfahren zur steuerung eines arbeitsplatzsystems
DE102008036714A1 (de) Verfahren zur Visualisierung mehrkanaliger Signale
DE102016216407A1 (de) Individuelle Kommunikationsunterstützung
DE102016205849B4 (de) Virtual Reality-System und Verfahren zum Betreiben eines solchen
DE102014018423B4 (de) Kraftfahrzeug mit durch peripheres Sehen interpretierbarer Zustandsanzeige sowie entsprechendes Verfahren
DE102016008348B3 (de) Kontrolle einer Trainingsbewegung
WO2023110489A1 (de) Verfahren zur planung von automatisch auszuführenden bewegungen eines ein massagegerät führenden roboterarms und zugehöriges robotersystem
DE102004028082A1 (de) Haushaltgerät mit Bilderfassungseinrichtung
DE102023102733A1 (de) Verfahren zur Steuerung einer tragbaren Lernhilfe zum Erlernen von Bewegungsmustern und eine tragbare Lernhilfe
DE102014115992A1 (de) Verfahren zum Aufzeichnen, Auswählen und Bearbeiten von zumindest einer Videosequenz
DE102011017305A1 (de) Bedien- und Beobachtungssystem für technische Anlagen
DE10249060A1 (de) Dialogsteuerung für elektrisches Gerät
CN115844632B (zh) 一种听力语言康复训练装置

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003000000

Ipc: G06F0003010000

R016 Response to examination communication