[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102017122396A1 - Fahrzeugseitige Betätigungsvorrichtung - Google Patents

Fahrzeugseitige Betätigungsvorrichtung Download PDF

Info

Publication number
DE102017122396A1
DE102017122396A1 DE102017122396.7A DE102017122396A DE102017122396A1 DE 102017122396 A1 DE102017122396 A1 DE 102017122396A1 DE 102017122396 A DE102017122396 A DE 102017122396A DE 102017122396 A1 DE102017122396 A1 DE 102017122396A1
Authority
DE
Germany
Prior art keywords
image
display device
display
vehicle
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017122396.7A
Other languages
English (en)
Inventor
Hitoshi Kumon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of DE102017122396A1 publication Critical patent/DE102017122396A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Hardware Design (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Eine fahrzeugseitige Betätigungsvorrichtung (1) umfasst: eine Betätigungseinheit, eine erste Anzeigevorrichtung (4), eine zweite Anzeigevorrichtung (3), eine zweite Anzeigesteuerungseinheit (2), eine Streckenberechnungseinheit (112) und eine Eingabeannahmeverarbeitungseinheit (114). Die zweite Anzeigesteuerungseinheit (2) ist derart konfiguriert, dass diese die zweite Anzeigevorrichtung (3) steuert, um eine Mehrzahl von zweiten Bildern anzuzeigen, die jeweils eine zweite vorbestimmte Funktion umfassen. Die Streckenberechnungseinheit (112) ist derart konfiguriert, dass diese eine Strecke oder eine Länge einer Bewegungsbahn zwischen einer ersten Position, welche die Berührungseingabe bei der Betätigungseinheit startet, und einer zweiten Position, welche die Berührungseingabe bei der Betätigungseinheit beendet, berechnet. Die Eingabeannahmeverarbeitungseinheit (114) ist derart konfiguriert, dass diese einen Aus-Trigger einschließlich der Ausführung der zweiten vorbestimmten Funktion in Zusammenhang mit der zweiten Position durchführt, wenn die Strecke oder die Länge der Bewegungsbahn kleiner oder gleich einem vorbestimmten Wert ist.

Description

  • Hintergrund der Erfindung
  • 1. Gebiet der Erfindung
  • Die vorliegende Offenbarung betrifft eine fahrzeugseitige Betätigungsvorrichtung.
  • 2. Beschreibung des zugehörigen Standes der Technik
  • In Zusammenhang mit einem Touchpad bzw. Tastfeld, welches entfernt von einer Anzeigevorrichtung angeordnet ist (nachfolgend als „Ferntastfeld” bezeichnet), ist der Niederdrückbetätigungs-Unterstützungstyp bekannt. Ein Ferntastfeld vom Niederdrückbetätigungs-Unterstützungstyp besitzt einen Mechanismus, welcher die Vertikalbewegung des Tastfelds selbst ermöglicht, und eine Einheit (Taktschalter, druckempfindlicher Sensor usw.) zum Erfassung einer Niederdrückbetätigung auf dem Tastfeld (beispielsweise japanische Patentveröffentlichung mit der Nummer 2015-172844 ( JP 2015-172844 A )). Daher kann ein Ferntastfeld vom Niederdrückbetätigungs-Unterstützungstyp nicht nur die Koordinaten einer Berührungseingabe erfassen, sondern ebenso die Stärke einer Berührungseingabe in Zusammenhang mit einer Niederdrückbetätigung (beispielsweise ob die Größe der Niederdrückkraft eine vorbestimmte Schwelle überschreitet).
  • Darüber hinaus ist in Zusammenhang mit einer fahrzeugseitigen Benutzerschnittstelle (UI: Benutzerschnittstelle) unter Verwendung von zwei Anzeigevorrichtungen (nachfolgend als „fahrzeugseitige UI mit zwei Bildschirmen” bezeichnet) eine Technologie bekannt, bei welcher jede der beiden Anzeigevorrichtungen ein Bildschirm-Tastfeld bzw. eine Berührungstafel besitzt (beispielsweise japanische Patentveröffentlichung mit der Nummer 2016-004482 ( JP 2016-004482 A )).
  • Kurzfassung der Erfindung
  • Derweil kann der Nutzer auf einem Ferntastfeld vom Niederdrückbetätigungs-Unterstützungstyp einen Finger auf dem Ferntastfeld bewegen, um eine gewünschte Funktion mit einem Cursor bzw. Kennzeichen auszuwählen, und anschließend eine Niederdrückbetätigung (das heißt, Bestätigungsbetätigung) auf dem Ferntastfeld durchführen, um die ausgewählte Funktion durchzuführen. Auf diese Art und Weise ermöglicht das Ferntastfeld vom Niederdrückbetätigungs-Unterstützungstyp zwei Typen unterschiedlicher Betätigungen zum Auswählen und Bestätigen (Festlegen), was eine hohe Funktionsfähigkeit bzw. Bedienbarkeit sicherstellt.
  • Wenn jedoch ein Ferntastfeld vom Niederdrückbetätigungs-Nicht-Unterstützungstyp anstelle vom Niederdrückbetätigungs-Unterstützungstyp verwendet wird, können lediglich die Koordinaten einer Berührungseingabe erfasst werden. Daher ist es basierend auf einer Berührungseingabe schwierig, die Bestätigungsbetätigung durchzuführen, welche anstelle der Niederdrückbetätigung durchgeführt wird. Dies gilt ebenso für die fahrzeugseitigen UI mit zwei Bildschirmen. Bei der fahrzeugseitigen UI mit zwei Bildschirmen kann die Funktion mit Bezug auf eine Bildausgabe auf einer der beiden Anzeigevorrichtungen durch eine Betätigung auf der anderen Anzeigevorrichtung realisiert werden. In diesem Fall besitzt das Bildschirm-Tastfeld der anderen Anzeigevorrichtung im Wesentlichen die gleiche Rolle wie diese eines Ferntastfelds. Wenn auf der anderen Anzeigevorrichtung jedoch ein Bildschirm-Tastfeld verwendet wird, welches derart konfiguriert ist, dass dieses lediglich die Koordinaten einer Berührungseingabe erfasst, ist es ebenso schwierig, eine Bestätigungsbetätigung zu ermöglichen, welche anstelle der „Niederdrückbetätigung auf dem Ferntastfeld” durchgeführt wird, basierend auf einer Berührungseingabe. Darüber hinaus ist es bei der fahrzeugseitigen UI mit zwei Bildschirmen denkbar, dass der Nutzer die eine Anzeigevorrichtung der Anzeigevorrichtungen betrachtet und zeitgleich eine Betätigung auf der anderen Anzeigevorrichtung durchführt. In diesem Fall kann es ungünstig bzw. umständlich sein, die Bestätigungsbetätigung basierend auf einer Berührungseingabe durchzuführen, da eine geringe Wahrscheinlichkeit besteht, dass der Cursor zu dem Start der ersten Berührungseingabe bei einer durch den Nutzer gewünschten Position ausgegeben wird.
  • Die vorliegende Erfindung ermöglicht es, die Bestätigungsbetätigung für eine Funktion mit Bezug auf eine Bildausgabe auf einer Anzeigevorrichtung durchzuführen, während eine Betätigungseinheit verwendet wird, die derart konfiguriert ist, dass diese lediglich die Koordinaten einer Berührungseingabe erfasst.
  • Gemäß einem Aspekt der vorliegenden Erfindung ist eine fahrzeugseitige Betätigungsvorrichtung vorgesehen. Eine fahrzeugseitige Betätigungsvorrichtung gemäß dem Aspekt umfasst: eine Betätigungseinheit, welche derart konfiguriert ist, dass diese Koordinaten einer Berührungseingabe erfasst; eine erste Anzeigevorrichtung; eine zweite Anzeigevorrichtung, die bei einer höheren Position als die Betätigungseinheit und im Vergleich zu der Betätigungseinheit entfernt von einem Fahrersitz des Fahrzeugs angeordnet ist; eine zweite Anzeigesteuerungseinheit, welche derart konfiguriert ist, dass diese die zweite Anzeigevorrichtung steuert, um eine Mehrzahl von zweiten Bildern anzuzeigen, die jeweils eine zweite vorbestimmte Funktion angeben; eine Streckenberechnungseinheit, welche derart konfiguriert ist, dass diese eine Strecke oder einer Länge einer Bewegungsbahn zwischen einer ersten Position entsprechend einer ersten Koordinate, welche die Berührungseingabe bei der Betätigungseinheit startet, und einer zweiten Position entsprechend einer zweiten Koordinate, welche die Berührungseingabe bei der Betätigungseinheit beendet, berechnet; und eine Eingabeannahmeverarbeitungseinheit, welche derart konfiguriert ist, dass diese einen Aus-Trigger einschließlich der Ausführung der zweiten vorbestimmten Funktion in Zusammenhang mit der zweiten Position durchführt, wenn die Strecke oder die Länge der Bewegungsbahn kleiner oder gleich einem vorbestimmten Wert ist.
  • Bei dem vorstehenden Aspekt der vorliegenden Erfindung kann die zweite vorbestimmte Funktion, welche durch das bei der zweiten Anzeigevorrichtung ausgegebene zweite Bild dargestellt ist, durch eine Betätigung auf der Betätigungseinheit ausgewählt und bestätigt werden, die von der zweiten Anzeigevorrichtung entfernt angeordnet ist (nachfolgend ebenso als „Betätigung vom Ferntastfeld-Typ” bezeichnet).
  • Die Eingabeannahmeverarbeitungseinheit führt insbesondere den Aus-Trigger basierend auf einer Berührungseingabe durch, deren Strecke zwischen den Koordinaten bei dem Start einer Berührungseingabe und den Koordinaten bei dem Ende der Berührungseingabe, oder deren Strecke, die der Bewegungsbahn der Koordinaten ausgehend von dem Start einer Berührungseingabe hin zu dem Ende der Berührungseingabe folgt, kleiner oder gleich einem vorbestimmten Wert ist (in der nachstehenden Beschreibung ist diese Strecke auch als eine „An-Aus-Trigger-Strecke” bezeichnet, ohne zwischen den beiden vorstehend beschriebenen Strecken zu unterscheiden). Wie vorstehend beschrieben ist, wird gemäß dem Aspekt eine Berührungseingabe, deren An-Aus-Trigger-Strecke kleiner oder gleich dem vorbestimmten Wert ist, zu einer Eingabe, welche den Aus-Trigger hervorruft, das heißt, einer Eingabe, die anstelle der „Niederdrückbetätigung auf dem Ferntastfeld” durchgeführt wird, zum Ermöglichen der gleichzeitigen Ausführung der Auswahlbetätigung und der Bestätigungsbetätigung. Andererseits wird eine Berührungseingabe, deren An-Aus-Trigger-Strecke größer als der vorbestimmte Wert ist, zu einer Eingabe, welche den Aus-Trigger nicht hervorruft. Entsprechend kann der Nutzer (beispielsweise der Fahrer), wenn eine Betätigung auf der Betätigungseinheit durchgeführt wird, während ein zweites Bild auf der zweiten Anzeigevorrichtung betrachtet wird, durch Blicken auf die Ausgabeposition des vorbestimmten Bilds (beispielsweise die Form eines Kennzeichens) in dem zweiten Bild bestimmen, ob die Berührungseingabe zu beenden ist. Wenn das vorbestimmte Bild beispielsweise bei dem Start einer Berührungseingabe bei einer gewünschten Position in dem zweiten Bild ausgegeben wird, kann der Nutzer den Finger unmittelbar lösen, um die Berührungseingabe zu beenden, wodurch der Aus-Trigger hervorgerufen wird.
  • Bei dem vorstehenden Aspekt kann die fahrzeugseitige Betätigungsvorrichtung eine vorbestimmte Bildausgabeeinheit umfassen, welche derart konfiguriert ist, dass diese die zweite Anzeigevorrichtung steuert, um ein vorbestimmtes Bild ausgehend von dem Start und bis zu dem Ende der Berührungseingabe über dem zweiten Bild anzuzeigen.
  • Gemäß der vorstehend beschriebenen Konfiguration wird das Betätigungs- bzw. Bediengefühl zu einer Zeit einer Betätigung vom Ferntastfeld-Typ annähernd gleich diesem zu einer Betätigungszeit der ”existierenden Anzeigevorrichtung, die mit einem einzelnen Bildschirm-Tastfeld ausgerüstet ist”, was eine Bedienbarkeit bereitstellt, welche dem Nutzer bekannt ist, der mit der „existierenden Anzeigevorrichtung, die mit einem einzelnen Bildschirm-Tastfeld ausgerüstet ist” vertraut ist. Die „existierende Anzeigevorrichtung, welche mit einem einzelnen Bildschirm-Tastfeld ausgerüstet ist”, welche herkömmlich keine Führungsanzeige, wie einen Cursor bzw. eine Positionierungsanzeige, ausgibt, ermöglicht dem Nutzer, eine direkte Betätigung durchzuführen.
  • Bei dem vorstehenden Aspekt kann das vorbestimmte Bild die Form eines Kennzeichens oder eines Cursors bzw. einer Positionierungsanzeige aufweisen.
  • Gemäß der vorstehend beschriebenen Konfiguration kann das vorbestimmte Bild in der Form eines Kennzeichens oder eines Cursors bzw. einer Positionierungsanzeige ausgegeben werden, dessen Position durch den Nutzer einfach verstanden bzw. erkannt wird.
  • Bei dem vorstehenden Aspekt kann das vorbestimmte Bild die Form eines Kennzeichens aufweisen. Wenn eine Mehrzahl von Berührungseingaben gleichzeitig erfasst werden, kann die vorbestimmte Bildausgabeeinheit derart konfiguriert sein, dass diese das vorbestimmte Bild bei einer Position entsprechend jeder der Mehrzahl von Berührungseingaben in dem zweiten Bild ausgibt.
  • Gemäß der vorstehend beschriebenen Konfiguration kann der Nutzer die Startposition der zweiten Berührungseingabe, welche eine gewünschte zweite vorbestimmte Funktion realisieren kann, basierend auf den Ausgabepositionen der Mehrzahl von vorbestimmten Bildern auf einfache Art und Weise erkennen. Dies entspricht einer bevorzugten Funktion, wenn eine relativ hohe Anzahl von zweiten Bildern, die jeweils eine zweite vorbestimmte Funktion darstellen, ausgegeben werden.
  • Bei dem vorstehenden Aspekt kann die vorbestimmte Bildausgabeeinheit derart konfiguriert sein, dass diese unter Verwendung einer vorbestimmten Umwandlungsgleichung basierend auf einer Beziehung zwischen einem Koordinatensystem einer Betätigungseinheit und einem Koordinatensystem des zweiten Bilds eine dritte Position gemäß den ersten Koordinaten in dem zweiten Bild und eine vierte Position gemäß den zweiten Koordinaten in dem zweiten Bild berechnet.
  • Gemäß der vorstehend beschriebenen Konfiguration ermöglicht die Korrespondenzbeziehung zwischen absoluten Koordinatensystemen dem Nutzer, die Startposition einer gewünschten Berührungseingabe intuitiv zu bestimmen, was die Bedienbarkeit verbessert.
  • Bei dem vorstehenden Aspekt können eine Skalierungsgröße in einer ersten Richtung und einer zweiten Richtung der Betätigungseinheit gleich einer Skalierungsgröße in der ersten Richtung und der zweiten Richtung der zweiten Anzeigevorrichtung sein. Die erste Richtung und die zweite Richtung können sich überkreuzen.
  • Bei dem vorstehenden Aspekt kann die fahrzeugseitige Betätigungsvorrichtung eine erste Anzeigesteuerungseinheit umfassen, welche derart konfiguriert ist, dass diese ein erstes Bild auf der ersten Anzeigevorrichtung ausgibt. Die Betätigungseinheit kann einem Bildschirm-Tastfeld entsprechen.
  • Gemäß der vorstehend beschriebenen Konfiguration kann die Betätigung vom Ferntastfeld-Typ über die fahrzeugseitige UI mit zwei Bildschirmen durchgeführt werden.
  • Bei dem vorstehenden Aspekt kann die erste Anzeigesteuerungseinheit einen ersten Modus und einen zweiten Modus besitzen. In dem ersten Modus kann die erste Anzeigesteuerungseinheit derart konfiguriert sein, dass diese ein Bild des ersten Modus bzw. Erstmodusbild als das erste Bild ausgibt. Das Erstmodusbild kann eine von der zweiten vorbestimmten Funktion abweichende erste vorbestimmte Funktion anzeigen. Das Erstmodusbild kann unabhängig von dem auf der zweiten Anzeigevorrichtung ausgegebenen zweiten Bild sein. In dem zweiten Modus kann die erste Anzeigesteuerungseinheit derart konfiguriert sein, dass diese ein Bild des zweiten Modus bzw. Zweitmodusbild als das erste Bild ausgibt. Das Zweitmodusbild kann das gleiche Aussehen besitzen wie das auf der zweiten Anzeigevorrichtung ausgegebene zweite Bild. In dem zweiten Modus kann die Eingabeannahmeverarbeitungseinheit derart konfiguriert sein, dass diese den Aus-Trigger durchführt, wenn die Strecke oder die Länge der Bewegungsbahn kleiner oder gleich dem vorbestimmten Wert ist, und diese kann derart konfiguriert sein, dass diese den Aus-Trigger nicht durchführt, wenn die Strecke oder die Länge der Bewegungsbahn größer als der vorbestimmte Wert ist.
  • Bei dem vorstehenden Aspekt kann die Eingabeannahmeverarbeitungseinheit in dem ersten Modus derart konfiguriert sein, dass diese die erste vorbestimmte Funktion in Zusammenhang mit den zweiten Koordinaten basierend auf den zweiten Koordinaten durchführt.
  • Gemäß der vorstehend beschriebenen Konfiguration wird in dem ersten Modus ein Erstmodusbild unabhängig von einem auf der zweiten Anzeigevorrichtung ausgegebenen zweiten Bild auf der ersten Anzeigevorrichtung ausgegeben, und in dem zweiten Modus wird ein Zweitmodusbild mit dem gleichen Aussehen wie ein auf der zweiten Anzeigevorrichtung ausgegebenes zweites Bild auf der ersten Anzeigevorrichtung ausgegeben. Daher kann der Nutzer nicht nur die Betätigung in dem zweiten Modus durchführen (Betätigung vom Ferntastfeld-Typ), sondern ebenso die Betätigung in dem ersten Modus (nachfolgend „Unabhängigkeitsanzeigebetätigung”). Die unabhängige Anzeigebetätigung bzw. Unabhängigkeitsanzeigebetätigung entspricht einer Betätigung, welche durchgeführt wird, während die erste Anzeigevorrichtung direkt betrachtet wird. In dem ersten Modus kann der Nutzer die durch das Erstmodusbild dargestellte erste vorbestimmte Funktion (beispielsweise eine Veränderung eines Einstellwerts) durch eine Betätigung auf der ersten Anzeigevorrichtung implementieren. In dem ersten Modus ermöglicht diese Fähigkeit dem Nutzer, die Betätigung mit Bezug auf das Erstmodusbild, welches unabhängig von der zweiten Bild ist, auf der ersten Anzeigevorrichtung durchzuführen, während das zweite Bild in einem sichtbaren Zustand auf der zweiten Anzeigevorrichtung angeordnet wird. Daher kann der Nutzer in dem ersten Modus das zweite Bild in einem sichtbaren Zustand auf der zweiten Anzeigevorrichtung halten, ungeachtet davon, welche Betätigung während der Fahrt auf der ersten Anzeigevorrichtung durchgeführt wird, und daher ist der Komfort gut.
  • Bei dem vorstehenden Aspekt kann das zweite Bild ein Navigationsbild umfassen.
  • Gemäß der vorstehend beschriebenen Konfiguration kann der Nutzer die Betätigung vom Ferntastfeld-Typ mit Bezug auf ein Navigationsbild durchführen, während das Navigationsbild auf der zweiten Anzeigevorrichtung betrachtet wird.
  • Bei dem vorstehenden Aspekt kann die Eingabeannahmeverarbeitungseinheit derart konfiguriert sein, dass diese den Aus-Trigger nicht durchführt, wenn die Strecke oder die Länge der Bewegungsbahn größer als der vorbestimmte Wert ist.
  • Wenn gemäß der vorstehend beschriebenen Konfiguration das vorbestimmte Bild bei dem Start einer Berührungseingabe bei einer Position ausgegeben wird, die von einer gewünschten Position in dem zweiten Bild abweicht, kann der Nutzer die Strecke verfolgen, die größer oder gleich dem vorbestimmten Wert ist, ohne den Finger zum Beenden der Berührungseingabe zu lösen, um zu verhindern, dass die Berührungseingabe den Aus-Trigger hervorruft. Auf diese Art und Weise kann der Nutzer durch Anpassen der An-Aus-Trigger-Strecke verhindern, dass der Aus-Trigger bei irgendeiner Berührungseingabe auftritt. In der nachstehenden Beschreibung ist eine solche Funktion als eine „Berührungseingabe-Beendigungsfunktion” bezeichnet. Bei der Betätigung vom Ferntastfeld-Typ besteht eine geringe Wahrscheinlichkeit, dass das vorbestimmte Bild bei dem Start der ersten Berührungseingabe bei einer gewünschten Position in dem zweiten Bild ausgegeben wird. Dies bedeutet, dass die Berührungseingabe-Beendigungsfunktion nützlich ist, wenn die Betätigung vom Ferntastfeld-Typ gestartet wird. Andererseits kann der Nutzer durch Blicken auf das in dem zweiten Bild ausgegebene vorbestimmte Bild und Lösen des Fingers (das heißt, zum Beenden der Berührungseingabe), wenn das vorbestimmte Bild eine gewünschte Position erreicht, die Startposition der zweiten Berührungseingabe kennen, die eine gewünschte zweite vorbestimmte Funktion implementiert, während die Berührungseingabe-Beendigungsfunktion aktiviert ist. Das heißt, wenn der Nutzer den Finger löst und dann die zweite Berührungseingabe bei der Position startet, besteht eine hohe Wahrscheinlichkeit, dass das vorbestimmte Bild bei der gewünschten Position in dem zweiten Bild ausgegeben wird. Auf diese Art und Weise wird die Berührungseingabe-Beendigungsfunktion zu einer Auswahlunterstützungsfunktion, wenn der Nutzer eine gewünschte zweite vorbestimmte Funktion auswählt, was die Bedienbarkeit weiter erhöht bzw. verbessert. Durch das Vorsehen dieser Berührungseingabe-Beendigungsfunktion wird eine Berührungseingabe, die den Aus-Trigger hervorruft, lediglich auf eine Berührungseingabe beschränkt, deren An-Aus-Trigger-Strecke kleiner oder gleich dem vorbestimmten Wert ist. Es ist wahrscheinlicher, dass eine Berührungseingabe, deren An-Aus-Trigger-Strecke kleiner oder gleich dem vorbestimmten Wert ist, die Betätigungsabsicht des Nutzers stark ausdrückt als eine Betätigungseingabe, deren An-Aus-Trigger-Strecke größer als der vorbestimmte Wert ist. Daher kann eine solche Berührungseingabe geeignet als eine Eingabe zum Annehmen einer Bestätigungsabsicht durch den Nutzer verwendet werden.
  • Die vorliegende Erfindung ermöglicht es, die Bestätigungsbetätigung für eine Funktion mit Bezug auf ein bei einer Anzeigevorrichtung ausgegebenes Bild durchzuführen, während eine Betätigungseinheit verwendet wird, welche derart konfiguriert ist, dass diese lediglich die Koordinaten eine Berührungseingabe erfasst.
  • Kurze Beschreibung der Abbildungen
  • Merkmale, Vorteile und die technische und industrielle Bedeutung beispielhafter Ausführungsformen der Erfindung werden nachstehend mit Bezug auf die beigefügten Abbildungen beschrieben, bei welchen gleiche Bezugszeichen gleiche Elemente bezeichnen und worin:
  • 1 eine Abbildung ist, welche ein Beispiel einer fahrzeugseitigen Betätigungsvorrichtung 1 gemäß einer Ausführungsform zeigt;
  • 2 eine Abbildung ist, welche ein Beispiel des Montagezustands einer oberen Anzeigevorrichtung 3 und einer unteren Anzeigevorrichtung 4 zeigt;
  • 3 eine Abbildung ist, welche ein Beispiel von funktionalen Blöcken einer Steuerungseinheit 10 zeigt;
  • 4A eine Abbildung ist, welche ein Beispiel eines Unabhängigkeitsanzeigemodusbilds bzw. eines Bilds bei einem Unabhängigkeitsanzeigemodus zeigt;
  • 4B eine Abbildung ist, welche ein Bild eines Spiegelanzeigemodusbilds zeigt;
  • 5 eine Zustandsübergangsabbildung ist, die ein Beispiel einer Übergangsbedingung zwischen einem Unabhängigkeitsanzeigemodus und einem Spiegelanzeigemodus zeigt;
  • 6 eine Abbildung ist, welche ein Beispiel einer Führungsanzeige zeigt;
  • 7 eine Abbildung ist, welche eine Koordinatenbeziehung (vorbestimmte Umwandlungsgleichung) zwischen einem Bildschirm-Tastfeld 5 und dem Bildschirm einer oberen Anzeigevorrichtung 3 zeigt;
  • 8 eine Abbildung ist, welche eine Mehrpunktkennzeichen-Ausgabefunktion zeigt;
  • 9 eine Abbildung ist, welche ein Beispiel von Informationen einer graphischen Benutzerschnittstelle (GUI) zeigt;
  • 10 eine Abbildung ist, welche verschiedene Definitionen zeigt, die für die Beschreibung eines Betätigungsbeispiels verwendet werden;
  • 11 ein allgemeines Flussdiagramm (Teil 1) ist, welches ein Beispiel einer durch eine Eingabeannahmeverarbeitungseinheit 114 einer Steuerungseinheit 10 ausgeführten Verarbeitung zeigt;
  • 12 ein allgemeines Flussdiagramm (Teil 2) ist, das ein Beispiel einer durch eine Eingabeannahmeverarbeitungseinheit 114 einer Steuerungseinheit 10 ausgeführten Verarbeitung zeigt;
  • 13 eine Abbildung ist, welche einen Pseudo- bzw. Schein-Ferntastfeld-Modus zeigt, welcher anstelle des Spiegelanzeigemodus verwendet wird;
  • 14 eine Abbildung ist, welche ein Beispiel der Anordnung eines Tastfelds zeigt; und
  • 15 eine Abbildung ist, welche ein Beispiel der Bewegungsbahn von Koordinaten ausgehend von dem Start hin zu dem Ende einer Berührungseingabe zeigt.
  • Detaillierte Beschreibung von Ausführungsformen
  • Nachstehend wird eine Ausführungsform mit Bezug auf die Abbildungen detailliert beschrieben. In der nachstehenden Beschreibung entspricht ein „Bild” einem Konzept einschließlich eines Videos. Das heißt, ein Video entspricht einem Typ eines Bilds.
  • 1 ist eine Abbildung, welche ein Beispiel einer fahrzeugseitigen Betätigungsvorrichtung 1 gemäß einer Ausführungsform zeigt. 2 ist eine Abbildung, die ein Beispiel des Montagezustands einer oberen Anzeigevorrichtung 3 und einer unteren Anzeigevorrichtung 4 zeigt.
  • Die fahrzeugseitige Betätigungsvorrichtung 1 realisiert eine fahrzeugseitige UI mit zwei Bildschirmen mit der folgenden Konfiguration. Wie in 1 gezeigt ist, umfasst die fahrzeugseitige Betätigungsvorrichtung 1 eine Multimediavorrichtung 2, die obere Anzeigevorrichtung 3 (ein Beispiel einer zweiten Anzeigevorrichtung), die untere Anzeigevorrichtung 4 (ein Beispiel einer ersten Anzeigevorrichtung), ein Bildschirm-Tastfeld bzw. eine Berührungstafel 5 (ein Beispiel einer Betätigungseinheit), mechanische Schalter (Hart-Schalter) 6 und eine Steuerungseinheit 10.
  • Die Multimediavorrichtung 2 umfasst verschiedene Vorrichtungen eines Multimediasystems, wie eine Navigationsvorrichtung und eine Audiovorrichtung. Die Multimediavorrichtung 2 umfasst einen Computer (nicht gezeigt) als ein Hardwaremittel. Ein Beispiel einer „zweiten Anzeigesteuerungseinheit” in den Ansprüchen kann durch die Verarbeitung des Computers (Programmausführungsverarbeitung) in der Multimediavorrichtung 2 implementiert werden.
  • Die Multimediavorrichtung 2 gibt ein Benutzerschnittstellenbild (nachfolgend auch als „oberes Bild” bezeichnet) zu der oberen Anzeigevorrichtung 3 aus. Die Multimediavorrichtung 2 gibt ein oberes Bild zu der oberen Anzeigevorrichtung 3 aus, das aus der Mehrzahl von Typen von oberen Bildern ausgewählt ist. Ein oberes Bild, das für die Ausgabe aus der Mehrzahl von Typen ausgewählt wird, wird grundsätzlich durch den Nutzer (beispielsweise den Fahrer) ausgewählt. In einem spezifischen Fall kann ein oberes Bild automatisch als die Vorgabe bzw. Standardeinstellung ausgewählt werden.
  • Bei dieser Ausführungsform gibt die Multimediavorrichtung 2 beispielsweise ein oberes Bild zu der oberen Anzeigevorrichtung 3 aus, das aus der Mehrzahl von Typen von oberen Bildern ausgewählt wird, die zum Betätigen der Multimediavorrichtung 2 vorbereitet sind. Die Mehrzahl von Typen von oberen Bildern umfassen insbesondere ein Navigationsbild, ein Bild mit Bezug auf die Audiovorrichtung (ein Bild, welches die Titelnummer angibt usw.), ein Bild mit Bezug auf ein Telefon und eine Mail usw. Jeder der Mehrzahl von Typen von oberen Bildern kann eine Schichtstruktur mit Bildern einer unteren Schicht besitzen. Beispielsweise kann ein Navigationsbild eine Schichtstruktur aufweisen, bei welcher sich das Kartenbild in der höchsten Schicht befindet und das Bild zum Einstellen des Ziels und das Bild zum Einstellen der Anzeige der Periphereinrichtungen in der unteren Schicht liegen.
  • Die Multimediavorrichtung 2 erzeugt ein Videosignal mit Bezug auf das obere Bild, welches bei der oberen Anzeigevorrichtung 3 auszugeben ist, und sendet das Videosignal hin zu der Steuerungseinheit 10. Wenn beispielsweise ein Kartenbild, das einem Navigationsbild entspricht, zu der oberen Anzeigevorrichtung 3 ausgegeben wurde, erzeugt die Multimediavorrichtung 2 ein Videosignal zum Aktualisieren des Kartenbilds gemäß einer Veränderung der aktuellen Position des Fahrzeugs und sendet das erzeugte Videosignal hin zu der Steuerungseinheit 10.
  • Die Multimediavorrichtung 2 nimmt ein Betätigungssignal von der Steuerungseinheit 10 auf. Das Betätigungssignal wird erzeugt, wenn ein Schalter aus den mechanischen Schaltern 6 für eine Eingabe betätigt wird oder eine Eingabebetätigung auf dem Bildschirm-Tastfeld 5 durchgeführt wird. Die Multimediavorrichtung 2 führt die Verarbeitung gemäß dem Betätigungssignal basierend auf dem aufgenommenen Betätigungssignal durch. Die Multimediavorrichtung 2 führt beispielsweise verschiedene Verarbeitungstypen durch, wie einen Bildschirmübergang von einem Navigationsbild hin zu einem anderen Bildtyp (beispielsweise ein Bild mit Bezug auf die Audiovorrichtung), eine Vergrößerung einer Karte in einem Navigationsbild und eine Routensuche. Die Multimediavorrichtung 2 erzeugt ein Videosignal basierend auf dem Verarbeitungsergebnis und sendet das erzeugte Videosignal hin zu der Steuerungseinheit 10.
  • Die obere Anzeigevorrichtung 3 entspricht einer Anzeigevorrichtung, wie einer Flüssigkristallanzeige. Bei dieser Ausführungsform wird eine Anzeige vom fahrzeugseitigen Typ als ein Beispiel der oberen Anzeigevorrichtung 3 verwendet. Im Gegensatz zu der unteren Anzeigevorrichtung 4 besitzt die obere Anzeigevorrichtung 3 bei dieser Ausführungsform kein Bildschirm-Tastfeld. Dies führt zu einer Kostenreduktion der oberen Anzeigevorrichtung 3 (die Kosten in Zusammenhang mit dem Bildschirm-Tastfeld) und einer Zunahme des Freiheitsgrads in der Anordnung der oberen Anzeigevorrichtung 3 (da keine Notwendigkeit besteht, die Bedienbarkeit zu berücksichtigen). Bei einer Modifikation kann die obere Anzeigevorrichtung 3 jedoch ein Bildschirm-Tastfeld besitzen.
  • Die obere Anzeigevorrichtung 3 ist entfernt von der unteren Anzeigevorrichtung 4 angeordnet. Bei dieser Ausführungsform ist die obere Anzeigevorrichtung 3 höher als die untere Anzeigevorrichtung 4 und weiter von dem Fahrersitz entfernt angeordnet. Wie in 2 gezeigt ist, ist die obere Anzeigevorrichtung 3 bei einer Position vorgesehen, bei welcher der Fahrer S diese während der Fahrt einfach sehen kann. Die Strecke bzw. der Abstand von dem Fahrersitz kann durch den Abstand von dem Schulterpunkt P1 (Konstruktionswert) des Fahrers S bestimmt werden. Andererseits ist die untere Anzeigevorrichtung 4 bei einer Position angeordnet, bei welcher der Fahrer S diese auf einfache Art und Weise erreichen kann und seine Hand während der Fahrt dorthin ausstrecken kann, wie in 2 gezeigt. Von dem Gesichtspunkt der Bedienbarkeit während der Fahrt ist es vorteilhafter, wenn die Position der unteren Anzeigevorrichtung 4 niedriger ist, wenn der Abstand (Reichweite) von dem Schulterpunkt P1 (2) des Fahrers S gleich ist, da die Muskelbelastung zu der Fahrzeit gering wird. Andererseits ist es vom Gesichtspunkt der Sichtbarkeit während der Fahrt weniger vorteilhaft, wenn die Position der unteren Anzeigevorrichtung 4 niedriger ist. Wie später beschrieben ist, kann auf der unteren Anzeigevorrichtung 4 als ein Spiegelanzeigemodusbild (später beschrieben) ein Navigationsbild ausgegeben werden. Daher ist die untere Anzeigevorrichtung 4 zum Sicherstellen der notwendigen Sichtbarkeit für das Kartenbild vorzugsweise bei einer Position angeordnet, bei welcher der Depressionswinkel von dem Blickpunkt des Fahrers S (Depressionswinkel in der Abwärtsrichtung mit Bezug auf die horizontale Ebene) nicht wesentlich größer als 30 Grad ist. Obwohl die obere Anzeigevorrichtung 3 bei dem in 2 gezeigten Beispiel in dem Armaturenbrett aufgenommen ist, kann diese bei dem oberen Teil des Armaturenbretts angeordnet sein.
  • Wie in 1 gezeigt ist, wird das Videosignal von der Steuerungseinheit 10 hin zu der oberen Anzeigevorrichtung 3 gesendet. Das zu der oberen Anzeigevorrichtung 3 gesendete Videosignal wird durch die Steuerungseinheit 10 basierend auf dem von der Multimediavorrichtung 2 aufgenommenen Videosignal erzeugt. Die obere Anzeigevorrichtung 3 zeigt ein oberes Bild basierend auf dem von der Steuerungseinheit 10 aufgenommenen Videosignal an.
  • Die untere Anzeigevorrichtung 4 entspricht einer Anzeigevorrichtung, wie einer Flüssigkristallanzeige. Bei dieser Ausführungsform wird eine Anzeige vom fahrzeugseitigen Typ als ein Beispiel der unteren Anzeigevorrichtung 4 verwendet.
  • Das Bildschirm-Tastfeld 5 ist auf der unteren Anzeigevorrichtung 4 vorgesehen. Das heißt, die untere Anzeigevorrichtung 4 entspricht einer Anzeigevorrichtung mit dem Bildschirm-Tastfeld 5. Das Bildschirm-Tastfeld 5 ist derart konfiguriert, dass dieses lediglich die Koordinaten einer Berührungseingabe erfasst. Als das Bildschirm-Tastfeld 5 von diesem Typ existieren mehrere Typen, wie ein Bildschirm-Tastfeld, welches das elektrostatische Verfahren zum Erfassung der Koordinaten einer Berührungseingabe basierend auf einer Veränderung einer elektrostatischen Kapazität erfasst, die durch eine Berührungseingabe erzeugt wird, oder ein Bildschirm-Tastfeld, welches das niedrigdruckempfindliche Verfahren zum Erfassen der Stärke einer Berührungseingabe basierend auf einem durch eine Berührungseingabe erzeugten geringen Druck erfasst. Das Bildschirm-Tastfeld 5 bei dieser Ausführungsform setzt keine Kombination des elektrostatischen Verfahrens und des druckempfindlichen Verfahrens ein. Mit anderen Worten, das Bildschirm-Tastfeld 5 von diesem Typ kann die Stärke einer Berührungseingabe nicht erfassen. Im Gegensatz dazu kann ein Bildschirm-Tastfeld, das eine Kombination des elektrostatischen Verfahrens und des druckempfindlichen Verfahrens einsetzt, die Koordinaten einer Berührungseingabe mit dem elektrostatischen Verfahren erfassen und gleichzeitig die Stärke der Berührungseingabe mit dem druckempfindlichen Verfahren erfassen. Dieser Paneel- bzw. Tastfeld-Typ ermöglicht dem Nutzer, die „Auswahlbetätigung” durch Bewegen des Fingers mit einem Druck, welcher die Schwelle nicht überschreitet, durchzuführen und gleichzeitig die „Bestätigungsbetätigung” durch Aufbringen eines die Schwelle überschreitenden Drucks durchzuführen. Das Bildschirm-Tastfeld 5 sendet das Erfassungssignal hin zu der Steuerungseinheit 10, welches die Koordinaten der erfassten Berührungseingabe darstellt.
  • Die mechanischen Schalter 6 sind beispielsweise in dem in dem Armaturenbrett aufgenommenen Designpaneelschalter vorgesehen. Die mechanischen Schalter 6 sind beispielsweise um die untere Anzeigevorrichtung 4 herum vorgesehen (siehe 5). Die mechanischen Schalter 6 umfassen beispielsweise Multimediasystemschalter, Fahrzeugsteuerungssystemschalter und den Top-Schalter (ein Schalter zum Zurückkehren zu dem Unabhängigkeitsanzeigemodus, wie später beschrieben). Die Multimediasystemschalter, die Schalter zum Betätigen der Multimediavorrichtung 2, können beispielsweise den Kartenschalter zum Aufrufen eines Navigationsbilds, den Zielschalter zum Aufrufen des Betätigungsbilds zum Einstellen eines Ziels usw. umfassen. Die Fahrzeugsteuerungssystemschalter umfassen die Schalter für verschiedene Betätigungen, wie die Klimaanlagenbetätigung (Luftklimatisierungsbetätigung), die Fahrsteuerungsmodusauswahl, die Fahrunterstützungsvorrichtungs(Abstandssonar)-Einstellung, die Rücksitzbetätigung, die elektrische Heckrollobetätigung usw. Das Betätigungssignal, welches erzeugt wird, wenn der Nutzer die mechanischen Schalter 6 betätigt, wird hin zu der Steuerungseinheit 10 gesendet. Anstelle oder zusätzlich zu den mechanischen Schaltern 6 können andere Schaltertypen vorgesehen sein, die jeweils die gleiche einzelne Funktion besitzen wie diese der mechanischen Schalter 6 (Schalter vom kontaktfreien Typ ohne bewegendes Element). Weitere Schaltertypen können einem druckempfindlichen Schichtschalter oder einem Schalter vom elektrostatischen Erfassungsberührungstyp entsprechen.
  • Die Steuerungseinheit 10 ist durch einen Computer gebildet. Die Steuerungseinheit 10 entspricht beispielsweise einer elektronischen Steuerungseinheit (ECU). Die Steuerungseinheit 10 ist mit der Multimediavorrichtung 2, der oberen Anzeigevorrichtung 3, der unteren Anzeigevorrichtung 4, dem Bildschirm-Tastfeld 5 und den mechanischen Schaltern 6, und über ein Steuergerätenetzwerk (CAN) 30 mit den verschiedenen elektronischen Komponenten in dem Fahrzeug verbunden. Die elektronischen Komponenten, mit welchen die Steuerungseinheit 10 über das CAN 30 verbunden ist, umfassen eine Klimaanlagen-ECU (nicht gezeigt) zum Steuern einer Klimaanlage (nicht gezeigt).
  • Die Steuerungseinheit 10 umfasst eine Haupt-CPU (zentrale Verarbeitungseinheit) 11, einen Sub-Mikrocomputer 12, eine Hauptspeichervorrichtung 13, eine Hilfsspeichervorrichtung 14 und darstellende integrierte Schaltungen (ICs) 16 und 18. Die Haupt-CPU 11 und der Sub-Mikrocomputer 12 können integriert sein.
  • 3 ist eine Abbildung, welche ein Beispiel der funktionalen Blöcke einer Steuerungseinheit 10 zeigt.
  • Die Steuerungseinheit 10 umfasst eine Anzeigesteuerungseinheit 110 (ein Beispiel einer ersten Anzeigesteuerungseinheit), eine Führungsanzeigeausgabeeinheit 111 (ein Beispiel einer vorbestimmten Bildausgabeeinheit), eine Streckenberechnungseinheit 112 und eine Eingabeannahmeverarbeitungseinheit 114. Die Anzeigesteuerungseinheit 110 kann durch die Verarbeitung der Darstellungs-IC 16 und die Verarbeitung der Haupt-CPU 11 (Programmausführungsverarbeitung) implementiert sein. Die Führungsanzeigeausgabeeinheit 111 kann durch die Verarbeitung der Darstellungs-IC 18 und der Verarbeitung der Haupt-CPU 11 (Programmausführungsverarbeitung) implementiert sein. Die Streckenberechnungseinheit 112 und die Eingabeannahmeverarbeitungseinheit 114 können durch die Verarbeitung (Programmausführungsverarbeitung) der Haupt-CPU 11 und des Sub-Mikrocomputers 12 implementiert sein.
  • Die Anzeigesteuerungseinheit 110 gibt ein Bild (als „unteres Bild” bezeichnet) hin zu der unteren Anzeigevorrichtung 4 aus. Das untere Bild umfasst ein Benutzerschnittstellenbild bzw. Bedienoberflächenbild (nachfolgend ebenso als „unteres GUI-Bild” bezeichnet).
  • Eine oder mehrere Funktionen steht bzw. stehen mit dem Benutzerschnittstellenbild bzw. Bedienoberflächenbild, wie dem oberen Bild und dem unteren GUI-Bild, wie vorstehend beschrieben, in Zusammenhang. Jeder der einen oder mehreren Funktionen steht mit einer vorbestimmten Position in dem Benutzerschnittstellenbild in Zusammenhang. Eine Funktion in Zusammenhang mit dem Benutzerschnittstellenbild wird gemäß dem Aussehen des Bilds bestimmt. Mit anderen Worten, wenn gewünscht wird, eine bestimmte Funktion mit einem Bild zu verbinden, besitzt das Bild üblicherweise ein Aussehen mit Bezug auf die Funktion. Beispielsweise besitzt das Benutzerschnittstellenbild bei dieser Ausführungsform Definitionsteile, die jeweils mit einer Betätigungseingabe auf dem Bildschirm-Tastfeld 5 und einer Funktion in Zusammenhang stehen. Ein Definitionsteil entspricht einem Teil, bei welchem eine bei dem Definitionsteil angenommenen Betätigungseingabe und eine im Ansprechen auf die Betätigungseingabe zu implementierende Funktion definiert sind.
  • Üblicherweise ist eine Betätigungsobjektanzeige bei einem Definitionsteil dargestellt. Das heißt, ein Definitionsteil entspricht dem Darstellungsbereich einer Betätigungsobjektanzeige, an welcher die Zeichen und ein Bild, welches die zugehörige Funktion angibt, angebracht sind. Das Benutzerschnittstellenbild, in welchem solche Betätigungsobjektanzeigen dargestellt sind, kann die zugehörigen Funktionen anzeigen. Eine Betätigungsobjektanzeige kann die Form eines Schalters besitzen; beispielsweise eines Einstellschalters zum Spezifizieren verschiedener Einstellungen (Volumenanpassung, Temperaturanpassung usw.) einer Betätigungszielvorrichtung, wie der Multimediavorrichtung 2 und einer Klimaanlage (nicht gezeigt), eines Schalters zum Durchführen eines spezifischen Bildschirmübergangs, eines Scroll-Schalters zum Scrollen des Bildschirms oder einer Liste, von Eingabetasten, wie Tasten für Buchstaben und Zahlen, und eines Auswahlschalters zum Auswählen einer Liste. Zusätzlich kann eine Betätigungsobjektanzeige die Form eines Symbols oder eines Starters zum Aktivieren einer spezifischen Anwendung aufweisen.
  • Die Betätigungseingabe und die Funktion in Zusammenhang mit einem Definitionsteil sind für jedes untere GUI-Bild und für jedes Definitionsteil, welches bei der unteren Anzeigevorrichtung 4 ausgegeben wird (siehe beispielsweise die in 9 gezeigten GUI-Informationen, wobei die in 9 gezeigten GUI-Informationen später beschrieben sind) vordefiniert.
  • Die Anzeigesteuerungseinheit 110 besitzt zwei Modi: ein Modus entspricht einem Unabhängigkeitsanzeigemodus zum Ausgeben eines Unabhängigkeitsanzeigemodusbilds und der andere Modus entspricht einem Spiegelanzeigemodus zum Ausgeben eines Spiegelanzeigemodusbilds. In dem Unabhängigkeitsanzeigemodus entspricht ein Unabhängigkeitsanzeigemodusbild dem unteren GUI-Bild. In dem Spiegelanzeigemodus entspricht ein Spiegelanzeigemodusbild dem unteren GUI-Bild. Ein Beispiel von Übergangsbedingungen zwischen dem Unabhängigkeitsanzeigemodus und dem Spiegelanzeigemodus wird später mit Bezug auf 5 beschrieben.
  • Ein Unabhängigkeitsanzeigemodusbild entspricht einem Bild, das unabhängig von dem auf der oberen Anzeigevorrichtung 3 ausgegebenen oberen Bild ist. Auch wenn sich das auf der oberen Anzeigevorrichtung 3 ausgegebene obere Bild verändert, verändert sich das Unabhängigkeitsanzeigemodusbild während des Unabhängigkeitsanzeigemodus aufgrund der Veränderung entsprechend nicht. Ein Unabhängigkeitsanzeigemodusbild entspricht beispielsweise einem Bild, welches auf der oberen Anzeigevorrichtung 3 nicht ausgegeben wird. Obwohl lediglich ein Typ des Unabhängigkeitsanzeigemodusbilds vorliegen kann, sind bei dieser Ausführungsform eine Mehrzahl von Typen von Unabhängigkeitsanzeigemodusbildern vorgesehen. Der Nutzer kann aus den mehreren Typen von Unabhängigkeitsanzeigemodusbildern ein auf der unteren Anzeigevorrichtung 4 auszugebendes Unabhängigkeitsanzeigemodusbild auswählen. Die mehreren Typen von Unabhängigkeitsanzeigemodusbildern umfassen beispielsweise die Bilder zum Betätigen des Fahrzeugsteuerungssystems, wie das Klimaanlagenbetätigungsbild, das Fahrsteuerungsmodus-Auswahlbild, das Fahrunterstützungsvorrichtungs-Einstellbild und das Rücksitz- und elektrische Heckrollo-Betätigungsbild. Zusätzlich kann ein Unabhängigkeitsanzeigemodusbild eine Schichtstruktur aufweisen, bei welcher das Menübild dem Home-Bild entspricht und in der unteren Schicht des Home-Bilds verschiedene Bilder, wie das Klimaanlagenbetätigungsbild und das Fahrsteuerungsmodus-Auswahlbild, parallel vorbereitet sind. Darüber hinaus kann jedes von verschiedenen Bildern, wie das Klimaanlagenbetätigungsbild, eine Schichtstruktur mit weiteren Bildern einer unteren Schicht besitzen.
  • Funktionen, die sich von diesen mit Bezug auf das obere Bild unterscheiden, stehen mit einem Unabhängigkeitsanzeigemodusbild in Zusammenhang. Bei dieser Ausführungsform umfassen die Funktionen in Zusammenhang mit den Definitionsteilen in einem Unabhängigkeitsanzeigemodusbild verschiedene Funktionen des Fahrzeugsteuerungssystems. Die verschiedenen Funktionen in Zusammenhang mit den Definitionsteilen eines Unabhängigkeitsanzeigemodusbilds können beispielsweise verschiedene Funktionen umfassen, die durch die Fahrzeugsteuerungssystemschalter der mechanischen Schalter 6 implementiert werden können, und die verschiedenen weiteren Funktionen (verschiedene Funktionen des Fahrzeugsteuerungssystems), welche durch die Fahrzeugsteuerungssystemschalter nicht implementiert werden können. 4A ist eine Abbildung, welche ein Beispiel eines Unabhängigkeitsanzeigemodusbilds zeigt. In dem in 4A gezeigten Beispiel entspricht das Unabhängigkeitsanzeigemodusbild einem Klimaanlagenbetätigungsbild, in welchem Betätigungsobjektanzeigen 401 bis 410, welche verschiedene zugehörige Funktionen (Funktionen mit Bezug auf das Klimaanlagenbetätigungsbild) angeben, gezeigt sind.
  • Ein Spiegelanzeigemodusbild besitzt das gleiche Aussehen wie das obere Bild, das (aktuell) zu der oberen Anzeigevorrichtung 3 ausgegeben wird. Falls sich das zu der oberen Anzeigevorrichtung 3 ausgegebene obere Bild während des Spiegelanzeigemodus verändert, verändert sich das Spiegelanzeigemodusbild daher gemäß der Veränderung. Zu beachten ist, dass ein Spiegelanzeigemodusbild mit Bezug auf das obere Bild gemäß der Differenz der Bildschirmgröße zwischen der oberen Anzeigevorrichtung 3 und der unteren Anzeigevorrichtung 4 mit einem konstanten Verhältnis reduziert (oder vergrößert) sein kann.
  • Die Funktionen mit Bezug auf das obere Bild stehen mit einem Spiegelanzeigemodusbild in Zusammenhang. Da das Spiegelanzeigemodusbild und das obere Bild das gleiche Aussehen besitzen, besitzen die Funktionen mit Bezug auf das obere Bild und die Funktionen mit Bezug auf das Spiegelanzeigemodusbild das gleiche Konzept. Bei dieser Ausführungsform umfassen die Funktionen in Zusammenhang mit den Definitionsteilen in einem Spiegelanzeigemodusbild verschiedene Funktionen, die durch die Multimediavorrichtung 2 implementiert sind. Beispielsweise können die verschiedenen Funktionen in Zusammenhang mit den Definitionsteilen in einem Spiegelanzeigemodusbild verschiedene Funktionen umfassen, die durch die Multimediasystemschalter der mechanischen Schalter 6 implementiert werden können, und verschiedene weitere Funktionen (Multimediasystemfunktionen), welche durch die Multimediasystemschalter nicht implementiert werden können. 4B ist eine Abbildung, welche ein Beispiel eines Spiegelanzeigemodusbilds gemäß einem Navigationsbild zeigt. Bei dem in 4B gezeigten Beispiel zeigt das Spiegelanzeigemodusbild Betätigungsobjektanzeigen 501 bis 507, welche verschiedene zugehörige Funktionen (Funktionen mit Bezug auf das Navigationsbild) angeben.
  • Ein Spiegelanzeigemodusbild, welches das gleiche Aussehen wie das zu der oberen Anzeigevorrichtung 3 ausgegebene obere Bild besitzt, kann unter Verwendung des Videosignals erzeugt werden, das die Multimediavorrichtung 2 hin zu der oberen Anzeigevorrichtung 3 ausgibt. Dies beseitigt die Notwendigkeit oder erleichtert es für die Anzeigesteuerungseinheit 110, ein Spiegelanzeigemodusbild darzustellen, wodurch die Kosten gesenkt werden.
  • Die Anzeigesteuerungseinheit 110 wechselt den Modus zwischen dem Unabhängigkeitsanzeigemodus und dem Spiegelanzeigemodus basierend auf einer von dem Nutzer eingegebenen Moduswechseleingabe. Die Moduswechseleingabe entspricht einer vordefinierten Eingabe, welche die Übergangsbedingung (später mit Bezug auf 5 beschrieben) zwischen dem Unabhängigkeitsanzeigemodus und dem Spiegelanzeigemodus erfüllt. Die Moduswechseleingabe kann eine beliebige oder zwei beliebige aus einer vorbestimmten Eingabe durch die mechanischen Schalter 6, einer vorbestimmten Eingabe auf dem Bildschirm-Tastfeld 5, einer vorbestimmten Eingabe über eine Stimme (eine vorbestimmte Eingabe, welche durch eine Stimmenerkennungsmaschine erkannt wird) und einer vorbestimmte Eingabe über eine Geste unter Verwendung einer Hand oder eines Fingers (eine vorbestimmte Eingabe, welche durch die Gestenerkennungsmaschine erkannt wird) umfassen.
  • 5 ist eine Zustandsübergangsabbildung, welche ein Beispiel einer Übergangsbedingung zwischen dem Unabhängigkeitsanzeigemodus und dem Spiegelanzeigemodus zeigt. 5 zeigt die obere Anzeigevorrichtung 3, die untere Anzeigevorrichtung 4 und die mechanischen Schalter 6.
  • Die Übergangsbedingung von dem Unabhängigkeitsanzeigemodus hin zu dem Spiegelanzeigemodus ist erfüllt, wenn irgendeine der nachfolgenden Bedingungen (1) bis (2) erfüllt ist. (1) Auf dem Bildschirm-Tastfeld 5 wird eine Drag-Down-Betätigung bzw. Betätigung zum Herunterziehen oder eine Flick-Down-Betätigung bzw. Betätigung zum nach unten Schnippen erfasst. (2) Es wird eine Betätigung eines Multimediasystemschalters (beispielsweise Kartenschalter oder Zielschalter) der mechanischen Schalter 6 erfasst.
  • Die Übergangsbedingung (Rückkehrbedingung) von dem Spiegelanzeigemodus hin zu dem Unabhängigkeitsanzeigemodus ist erfüllt, wenn irgendeine der nachfolgenden Bedingungen (11) bis (14) erfüllt ist. (11) Der Nicht-Betätigungszustand dauert für die vorbestimmte Zeit T1 an. (12) Es wird eine Betätigung des Fahrzeugsteuerungssystemschalters der mechanischen Schalter 6 erfasst. (13) Eine Betätigung des Top-Schalters der mechanischen Schalter 6 wird erfasst. (14) Auf dem Bildschirm-Tastfeld 5 wird eine Drag-Up- oder Flick-Up-Betätigung bzw. eine Betätigung zum Hochziehen oder Hochschnippen erfasst.
  • In dieser Ausführungsform wechselt die Anzeigesteuerungseinheit 110 den Modus beispielsweise basierend auf einem Ereignis (Moduswechseleingabe), das eine der Bedingungen (1) bis (2) in dem Unabhängigkeitsanzeigemodus erfüllt, vom dem Unabhängigkeitsanzeigemodus hin zu dem Spiegelanzeigemodus, wie in 5 gezeigt ist. Zusätzlich wechselt die Anzeigesteuerungseinheit 110 den Modus von dem Spiegelanzeigemodus hin zu dem Unabhängigkeitsanzeigemodus basierend auf einem Ereignis, welches die Bedingung (11) in dem Spiegelanzeigemodus erfüllt. Die Anzeigesteuerungseinheit 110 wechselt den Modus von dem Spiegelanzeigemodus hin zu dem Unabhängigkeitsanzeigemodus außerdem basierend auf einem Ereignis (Moduswechseleingabe), welches irgendeine der Bedingungen (12) bis (14) in dem Spiegelanzeigemodus erfüllt.
  • Darüber hinaus führt die Anzeigesteuerungseinheit 110 basierend auf dem von der Eingabeannahmeverarbeitungseinheit 114 in dem Unabhängigkeitsanzeigemodus aufgenommenen Anzeigewechselbefehl die Verarbeitung im Ansprechen auf den Anzeigeveränderungsbefehl durch. Die Verarbeitung im Ansprechen auf den Anzeigewechselbefehl entspricht der Verarbeitung zum Wechseln des Bildschirmübergangs, des Bildschirmscrollens und der Einstellung der Anzeige mit Bezug auf das Unabhängigkeitsanzeigemodusbild. Der Anzeigeveränderungsbefehl, welcher zu der Anzeigesteuerungseinheit 110 gesendet werden soll, wird basierend auf dem Betätigungssignal eines Fahrzeugsteuerungssystemschalters der mechanischen Schalter 6 oder einer Betätigungseingabe in Zusammenhang mit einem Definitionsteil in dem Unabhängigkeitsanzeigemodusbild erzeugt.
  • Die Führungsanzeigeausgabeeinheit 111 gibt basierend auf den Koordinaten einer Berührungseingabe auf dem Bildschirm-Tastfeld 5 eine Führungsanzeige (ein Beispiel eines vorbestimmten Bilds) zu der Position entsprechend den Koordinaten in dem oberen Bild aus (in der nachstehenden Beschreibung ist diese Position als eine „Berührungskoordinaten-Korrespondenzposition in dem oberen Bild” bezeichnet). Eine Berührungseingabe entspricht einer durch das Bildschirm-Tastfeld 5 erfassten Eingabe. Die Koordinaten einer Berührungseingabe können basierend auf dem von dem Bildschirm-Tastfeld 5 aufgenommenen Erfassungssignal berechnet werden. Die Führungsanzeige, ein Kennzeichen oder ein Cursor bzw. eine Positionierungsanzeige, entspricht einer Anzeige, welche die Position gemäß den Koordinaten einer Berührungseingabe angibt. Durch das Ausgeben der Führungsanzeige kann die Durchführbarkeit der Betätigung vom Ferntastfeld-Typ verbessert werden. Das heißt, wenn eine Betätigung auf der unteren Anzeigevorrichtung 4 durchgeführt wird, während das obere Bild auf der oberen Anzeigevorrichtung 3 betrachtet wird (das heißt, während einer Betätigung vom Ferntastfeld-Typ), kann der Nutzer die Koordinaten der aktuellen Berührungseingabe auf dem Bildschirm-Tastfeld 5 basierend auf der Position der zu der oberen Anzeigevorrichtung 3 ausgegebenen Führungsanzeige erkennen.
  • Bei dieser Ausführungsform umfasst die Führungsanzeige beispielsweise ein Kennzeichen 70 und einen Cursor bzw. eine Positionierungsanzeige 72, wie in 6 gezeigt ist. In vielen Fällen besitzt das Kennzeichen 70 im Wesentlichen die Gestalt eines Kreises, eines Polygons oder eines Pfeils. Bei dem in 6 gezeigten Beispiel besitzt das Kennzeichen 70 die Gestalt, welche die Sonne nachbildet. Die Positionierungsanzeige 72 entspricht einer Anzeige zum Hervorheben (betonen) der Betätigungsobjektanzeige bei der Position gemäß den Koordinaten einer Berührungseingabe. Wenn das Kennzeichen 70 ausgegeben wird, erzeugt die Führungsanzeigeausgabeeinheit 111 ein neues Videosignal durch Überlagern des Kennzeichens 70 auf dem oberen Bild basierend auf dem von der Multimediavorrichtung 2 aufgenommenen Videosignal, und diese sendet das erzeugte Videosignal dann hin zu der oberen Anzeigevorrichtung 3. Wenn die Positionierungsanzeige 72 ausgegeben wird, erzeugt die Führungsanzeigeausgabeeinheit 111 ein neues Videosignal durch Hervorheben der entsprechenden Betätigungsobjektanzeige in dem oberen Bild basierend auf dem von der Multimediavorrichtung 2 aufgenommenen Videosignal, und sendet das erzeugte Bildsignal dann zu der oberen Anzeigevorrichtung 3.
  • Die Führungsanzeigeausgabeeinheit 111 berechnet die Berührungskoordinaten-Korrespondenzposition in dem oberen Bild unter Verwendung einer vorbestimmten Umwandlungsgleichung basierend auf der Beziehung zwischen dem Koordinatensystem des Bildschirm-Tastfelds 5 und dem Koordinatensystem des oberen Bilds. Die Beziehung zwischen dem Koordinatensystem des Bildschirm-Tastfelds 5 (= das Koordinatensystem des unteren Bilds) und dem Koordinatensystem des oberen Bilds entspricht einer festgelegten Beziehung, und die vorbestimmte Umwandlungsgleichung (Matrix) zum Umwandeln von dem Koordinatensystem des Bildschirm-Tastfelds 5 hin zu dem Koordinatensystem des oberen Bilds kann im Vorhinein hergeleitet werden. 7 zeigt zwei Koordinatensysteme, wobei eines dem Koordinatensystem des oberen Bilds entspricht, in welchem der Ursprung bei der oberen linken Ecke des Bildschirms der oberen Anzeigevorrichtung 3 festgelegt ist, und das andere dem Koordinatensystem des Bildschirm-Tastfelds 5 entspricht, bei welchem der Ursprung bei der oberen linken Ecke der Betätigungsoberfläche des Bildschirm-Tastfelds 5 festgelegt ist. In diesem Beispiel befinden sich die Koordinaten (X1, Y1) und die Koordinaten (x1, y1) in der Korrespondenzbeziehung und die Koordinaten (x1, y1) werden durch die vorbestimmte Umwandlungsgleichung zu den Koordinaten (X1, Y1) umgewandelt. Die Betätigung wird zu der Zeit der Ferntastfeld-Betätigung intuitiver, wenn die Korrespondenzbeziehung zwischen den absoluten Koordinatensystemen auf diese Art und Weise verwendet wird, im Vergleich dazu, wenn die so genannte relative Koordinatensystemkorrespondenz verwendet wird, was die Bedienbarkeit verbessert.
  • Bei dem in 7 gezeigten Beispiel wird das Kennzeichen 70 bei der Berührungskoordinaten-Korrespondenzposition (X1, Y1) gemäß den Berührungseingabekoordinaten (x1, y1) ausgegeben und gleichzeitig wird die Positionierungsanzeige 72 für die Betätigungsobjektanzeige bei der Position der Berührungskoordinaten-Korrespondenzposition (X1, Y1) ausgegeben. Wenn sich die Koordinaten der Berührungseingabe verändern, verändert sich die Berührungskoordinaten-Korrespondenzposition (X1, Y1) und gleichzeitig verändert sich außerdem die Ausgabeposition des Kennzeichens 70 in dem oberen Bild. Wenn sich die Koordinaten der Berührungseingabe verändern, wird der Ausgabezustand in einer solchen Art und Weise verändert, dass die Positionierungsanzeige 72 ausgegeben wird, wenn sich das Kennzeichen 70 auf einer Betätigungsobjektanzeige befindet, jedoch nicht ausgegeben wird, wenn sich das Kennzeichen 70 nicht auf einer Betätigungsobjektanzeige befindet.
  • Die Führungsanzeigeausgabeeinheit 111 beendet die Anzeige des Kennzeichens 70 und der Positionierungsanzeige 72, wenn der Nutzer eine Berührungseingabe beendet. Das heißt, wenn der Nutzer die Berührungseingabe auf dem Bildschirm-Tastfeld 5 beendet, beendet die Führungsanzeigeausgabeeinheit 111 die Anzeige der Kennzeichen 70 und der Positionierungsanzeige 72, welche bis zu dieser Zeit ausgegeben wurden. Dies macht das Betätigungsgefühl zu der Zeit der Betätigung vom Fefütastfeld-Typ annähernd gleich zu diesem der Betätigungszeit der „existierenden Anzeigevorrichtung, die mit einem einzelnen Bildschirm-Tastfeld ausgerüstet ist”, was eine Bedienbarkeit bereitstellt, welche dem Nutzer bekannt ist, der mit der „existierenden Anzeigevorrichtung, die mit einem einzelnen Bildschirm-Tastfeld ausgerüstet ist” vertraut ist. Darüber hinaus verhindert das Beenden der Anzeige auf diese Art und Weise die Unannehmlichkeit, welche hervorgerufen werden kann, wenn das Kennzeichen 70 oder die Positionierungsanzeige 72 weiterhin ausgegeben wird, nachdem die Berührungseingabe abgeschlossen ist (verhindert, dass der Nutzer missversteht, dass das Kennzeichen 70 und die Positionierungsanzeige 72 basierend auf der Korrespondenzbeziehung in dem so genannten relativen Koordinatensystem bewegt werden können).
  • Wenn eine Berührungseingabe in einer solchen Art und Weise auftritt, dass die Koordinaten gleichzeitig zu einer Mehrzahl von Punkten werden, gibt die Führungsanzeigeausgabeeinheit 111 zusätzlich das Kennzeichen 70 bei der Position gemäß jedem der Mehrzahl von Koordinaten in dem oberen Bild aus. In der nachstehenden Beschreibung ist diese Funktion als die „Mehrpunktkennzeichenausgabefunktion” bezeichnet. Eine Berührungseingabe, welche die Koordinaten in einer solchen Art und Weise erzeugt, dass die Koordinaten gleichzeitig zu einer Mehrzahl von Punkten werden, tritt typischerweise auf, wenn der Nutzer das Bildschirm-Tastfeld 5 mit einer Mehrzahl von Fingern berührt. 8 ist eine Abbildung, welche die Mehrpunktkennzeichenausgabefunktion zeigt. 8 zeigt den Fall, in welchem, wenn eine Berührungseingabe in einer solchen Art und Weise auftritt, das fünf Koordinaten gleichzeitig erzeugt werden (das heißt, eine Berührungseingabe auftritt, wenn der Benutzer das Bildschirm-Tastfeld 5 mit den fünf Fingern mit seinen geöffneten Händen berührt), die fünf Kennzeichen 70 ausgegeben werden, eines für jede Berührungskoordinaten-Korrespondenzposition in dem oberen Bild. Folglich kann der Nutzer basierend auf der Mehrzahl von Kennzeichen 70 auf einfache Art und Weise erkennen, welcher Finger sich dicht an der gewünschten Betätigungsobjektanzeige befindet oder diese trifft. Entsprechend ist die Mehrpunktkennzeichenausgabefunktion geeignet, wenn ein Spiegelanzeigemodusbild mit einer relativ großen Anzahl von Definitionsteilen (und folglich einer relativ großen Anzahl von Betätigungsobjektanzeigen) ausgegeben wird.
  • Die Streckenberechnungseinheit 112 berechnet die Strecke zwischen den Koordinaten bei dem Start einer Berührungseingabe und den Koordinaten bei dem Ende der Berührungseingabe. In der nachstehenden Beschreibung sind die Koordinaten bei dem Start eine Berührungseingabe als „An-Trigger-Koordinaten” bezeichnet, die Koordinaten bei dem Ende einer Berührungseingabe sind als „Aus-Trigger-Koordinaten” bezeichnet und die Strecke zwischen den Koordinaten bei dem Start einer Berührungseingabe und den Koordinaten bei dem Ende der Berührungseingabe ist als die „An-Aus-Trigger-Strecke dd” bezeichnet. Die An-Aus-Trigger-Strecke dd kann durch die nachfolgende Gleichung ausgedrückt werden, wobei die An-Trigger-Koordinaten gleich (x0, y0) sind und die Aus-Trigger-Koordinaten gleich (x1, y1) sind. dd = √{(x1 – x0)2 + (y1 – y0)2}. In diesem Fall entspricht die An-Aus-Trigger-Strecke dd einer linearen Strecke zwischen den beiden Punkten.
  • Die Eingabeannahmeverarbeitungseinheit 114 führt die funktionelle Verarbeitung vom Aus-Trigger-Typ in dem Spiegelanzeigemodus basierend auf den Aus-Trigger-Koordinaten einer Berührungseingabe durch. Die funktionelle Verarbeitung vom Aus-Trigger-Typ entspricht einer Verarbeitung zum Ausführen der Funktion in Zusammenhang mit den Aus-Trigger-Koordinaten. In dieser Ausführungsform wird die funktionelle Verarbeitung vom Aus-Trigger-Typ in dem Spiegelanzeigemodus für ein Definitionsteil durchgeführt, mit welchem eine Eingabe vom Aus-Trigger-Typ (ein Typ einer Betätigungseingabe) in einem Spiegelanzeigemodusbild in Zusammenhang steht.
  • Die Eingabe vom Aus-Trigger-Typ entspricht einem Typ einer Betätigungseingabe, bei welcher die Koordinaten bei dem Ende einer Berührungseingabe (Aus-Trigger-Koordinaten) als einzelne Eingabekoordinaten mit Bezug auf die Berührungseingabe verwendet werden. Entsprechend kann ein Betätigungseingabetyp, wie „ein Tap bzw. Tippen”, einer Eingabe vom Aus-Trigger-Typ entsprechen. Andererseits entspricht ein Betätigungseingabetyp, wie ein Drag bzw. Ziehen, ein Pinch-In/Pinch-Out bzw. eine hinein-/hinauszoomende Bewegung und ein Flick bzw. Schnippsen bzw. Anstupsen, keiner Eingabe vom Aus-Trigger-Typ.
  • Zusätzlich führt die Eingabeannahmeverarbeitungseinheit 114 die funktionelle Verarbeitung vom Aus-Trigger-Typ in dem Unabhängigkeitsanzeigemodus basierend auf den Aus-Trigger-Koordinaten einer Berührungseingabe durch. In dieser Ausführungsform wird die funktionelle Verarbeitung vom Aus-Trigger-Typ in dem Unabhängigkeitsanzeigemodus für ein Definitionsteil, mit welchem eine Eingabe vom Aus-Trigger-Typ in einem Unabhängigkeitsanzeigemodusbild in Zusammenhang steht, in ähnlicher Art und Weise durchgeführt.
  • Wenn ein Unabhängigkeitsanzeigemodusbild oder ein Spiegelanzeigemodusbild, welches zu der unteren Anzeigevorrichtung 4 ausgegeben wird, ein Definitionsteil besitzt, mit welchem eine Eingabe vom Nicht-Aus-Trigger-Typ (beispielsweise ein Drag, ein Pinch-In/Pinch-Out, ein Flick usw.) in Zusammenhang steht, führt die Eingabeannahmeverarbeitungseinheit 114 die Funktion in Zusammenhang mit dem Definitionsteil basierend auf einer Eingabe vom Nicht-Aus-Trigger-Typ (beispielsweise ein Drag, ein Pinch-In/Pinch-Out, ein Flick usw.) in Zusammenhang mit dem Definitionsteil aus (in der nachfolgenden Beschreibung ist diese Verarbeitung als „funktionelle Verarbeitung vom Nicht-Aus-Trigger-Typ” bezeichnet).
  • Wie vorstehend beschrieben ist, können in dem Spiegelanzeigemodus ein Spiegelanzeigemodusbild zusammen mit dem oberen Bild als eine GUI mit Bezug auf die Multimediavorrichtung 2 dienen, und das Bildschirm-Tastfeld 5 kann als eine Betätigungsvorrichtung zum Betätigen der Multimediavorrichtung 2 dienen. Gleichermaßen kann in dem Unabhängigkeitsanzeigemodus ein Unabhängigkeitsanzeigemodusbild als eine GUI des Fahrzeugsteuerungssystems dienen und das Bildschirm-Tastfeld 5 kann als eine Betätigungsvorrichtung zum Betätigten das Fahrzeugsteuerungssystems dienen.
  • Ein spezifisches Beispiel der Verarbeitung der Eingabeannahmeverarbeitungseinheit 114 wird nachstehend mit Bezug auf 9 beschrieben. Die Eingabeannahmeverarbeitungseinheit 114 führt die funktionelle Verarbeitung vom Aus-Trigger-Typ oder die funktionelle Verarbeitung vom Nicht-Aus-Trigger-Typ basierend auf den GUI-Informationen durch, welche für jedes Unabhängigkeitsanzeigemodusbild und jedes Spiegelanzeigemodusbild vorbereitet sind. Wie in 9 gezeigt ist, umfassen die GUI-Informationen beispielsweise eine Bild-ID zum Identifizieren jedes Unabhängigkeitsanzeigemodusbilds und jedes Spiegelanzeigemodusbilds, und für jede Bild-ID die Definitionsteil-IDs, welche ein oder mehrere Definitionsteile identifizieren. Die GUI-Informationen umfassen ferner für jede Definitionsteil-ID die Position (Bereich) des Definitionsteils, eine Betätigungseingabe (Betätigungseingabetyp) in Zusammenhang mit dem Definitionsteil, ein Betätigungssignal in Zusammenhang mit dem Definitionsteil (das heißt, das Betätigungssignal zum Implementieren der Funktion in Zusammenhang mit dem Definitionsteil) und das Ausgabeziel des Betätigungssignals. Bei dieser Ausführungsform steht eine Eingabe vom Aus-Trigger-Typ beispielsweise mit jedem Definitionsteil in Zusammenhang, bei welchem eine Betätigungsobjektanzeige, wie Betätigungsobjektanzeigen 501 bis 507 (siehe 4B), dargestellt ist. Bei den GUI-Informationen ist zu beachten, dass die Multimediavorrichtung 2 nicht für das Ausgabeziel des Betätigungssignals mit Bezug auf ein Unabhängigkeitsanzeigemodusbild definiert ist, und dass die Anzeigesteuerungseinheit 110 nicht für das Ausgabeziel des Betätigungssignals mit Bezug auf ein Spiegelanzeigemodusbild definiert ist. Die GUI-Informationen werden beispielsweise im Vorhinein in der Hauptspeichervorrichtung 13 gespeichert.
  • In 9 steht beispielsweise die Bild-ID = 00001 mit einem Spiegelanzeigemodusbild gemäß einem Navigationsbild in Zusammenhang. Die Definitionsteil-ID 00001 mit Bezug auf die Bild-ID 00001 entspricht der ID eines Definitionsteils (xx10 bis xx11, yy10 bis yy11), mit welchem eine Eingabe vom Aus-Trigger-Typ in Zusammenhang steht. Dieses Definitionsteil entspricht einem rechtwinkligen Bereich, der durch die X-Koordinaten xx10 bis xx11 und die Y-Koordinaten yy10 bis yy11 des Bildschirms definiert ist. Der Anzeigeveränderungsbefehl A steht mit der Definitionsteil-ID 00001 als die Funktion in Zusammenhang. Der Anzeigeveränderungsbefehl A wird zu der Multimediavorrichtung 2 ausgegeben. Gleichermaßen wird für einen Definitionsteil (xx30 bis xx31, yy30 bis yy31) mit der Definitionsteil-ID 00003 ein Flick beziehungsweise Wischer angenommen, und im Ansprechen auf das Flick wird der Befehl B zum nach unten Schieben bzw. Scrollen zu der Multimediavorrichtung 2 ausgegeben. Die Bild-ID = 00001 besitzt einen anderen Definitionsteil, welcher nicht gezeigt ist, mit welchem eine Eingabe vom Aus-Trigger-Typ in Zusammenhang steht. Die Bild-ID = 00002 steht mit einem Unabhängigkeitsanzeigemodusbild in Zusammenhang. Die Definitionsteil-ID 00002 mit Bezug auf die Bild-ID = 00002 entspricht der ID eines Definitionsteils (xx20 bis xx21, yy20 bis yy21), mit welchem eine Eingabe vom Aus-Trigger-Typ in Zusammenhang steht, und der Einstellwert-Erhöhungsbefehl B und der Anzeigeveränderungsbefehl B stehen als die Funktion in Zusammenhang. Der Einstellwert-Erhöhungsbefehl B wird zu dem CAN 30 ausgegeben und der Anzeigeveränderungsbefehl B wird zu der Anzeigesteuerungseinheit 110 ausgegeben. Wie vorstehend beschrieben ist, führt die Eingabeannahmeverarbeitungseinheit 114 die funktionelle Verarbeitung vom Aus-Trigger-Typ nicht für alle der durch die GUI-Informationen definierten Definitionsteil-IDs durch, sondern lediglich für eine Definitionsteil-ID, für welche eine „Eingabe vom Aus-Trigger-Typ” als der Betätigungseingabetyp definiert ist. Das Nachstehende beschreibt die Verarbeitung mit Betonung der funktionellen Verarbeitung vom Aus-Trigger-Typ.
  • Die Eingabeannahmeverarbeitungseinheit 114 führt die funktionelle Verarbeitung vom Aus-Trigger-Typ in dem Spiegelanzeigemodus basierend auf einer Berührungseingabe durch, bei welcher die An-Aus-Trigger-Strecke dd kleiner oder gleich dem vorbestimmten Wert dth ist. Daher kann der Nutzer in dem Spiegelanzeigemodus die Funktion in Zusammenhang mit dem Spiegelanzeigemodusbild durch das Durchführen einer Berührungseingabe implementieren, deren An-Aus-Trigger-Strecke dd kleiner oder gleich dem vorbestimmten Wert dth ist.
  • Der vorbestimmte Wert dth, welcher im Wesentlichen gleich 0 ist, ist größer als ein Fehler in dem Erfassungssignal, welcher auftreten kann, wenn der Nutzer die gleiche Position auf dem Bildschirm-Tastfeld 5 berührt, oder ist größer als eine vom Nutzer nicht beabsichtigte, geringfügige Abweichung einer Berührungsposition. Der vorbestimmte Wert dth entspricht beispielsweise dem Maximalwert von Strecken zwischen den Aus-Trigger-Koordinaten von zwei oder mehr Taps, welche als die Taps bei der gleichen Position auf dem Bildschirm-Tastfeld 5 angenommen werden. Der vorbestimmte Wert dth kann für die Bild-IDs in Abhängigkeit der Größe und Dichte jedes Definitionsteils unterschiedlich eingestellt sein.
  • In dem Spiegelanzeigemodus führt die Eingabeannahmeverarbeitungseinheit 114 die funktionelle Verarbeitung vom Aus-Trigger-Typ für eine Berührungseingabe, deren An-Aus-Trigger-Strecke dd größer als der vorbestimmte Wert dth ist, nicht durch. Daher führt die Eingabeannahmeverarbeitungseinheit 114 in dem Spiegelanzeigemodus für eine Berührungseingabe, deren An-Aus-Trigger-Strecke dd größer als der vorbestimmte Wert dth ist, die Funktion in Zusammenhang mit einem Definitionsteil nicht durch, auch wenn die Aus-Trigger-Koordinaten in dem Definitionsteil angeordnet sind; stattdessen setzt die Hilfsspeichervorrichtung 14 die Berührungseingabe selbst im Wesentlichen außer Kraft (das heißt, diese führt in gleicher Art und Weise wie in dem Nicht-Betriebszustand keine Verarbeitung durch). Dies bedeutet, dass der Nutzer durch Anpassen der An-Aus-Trigger-Strecke dd verhindern kann, dass die funktionelle Verarbeitung vom Aus-Trigger-Typ für irgendeine Berührungseingabe durchgeführt wird. Wenn das Kennzeichen 70 oder die Positionierungsanzeige 72 bei dem Start einer Berührungseingabe beispielsweise bei einer Position ausgegeben wird, die von einer gewünschten Position in dem oberen Bild abweicht, kann der Nutzer die Strecke verfolgen, die größer als der vorbestimmte Wert dth ist, ohne den Finger von dem Bildschirm-Tastfeld zu nehmen, um die Berührungseingabe zu beenden, wodurch verhindert wird, dass die Berührungseingabe die funktionelle Verarbeitung vom Aus-Trigger-Typ hervorruft. In der nachstehenden Beschreibung ist eine solche Funktion als eine „Berührungseingabe-Beendigungsfunktion” bezeichnet. Wenn der Nutzer eine Betätigung startet, ohne auf die untere Anzeigevorrichtung 4 zu blicken, besteht eine geringe Wahrscheinlichkeit, dass das Kennzeichen 70 oder die Positionierungsanzeige 72 bei dem Start der ersten Berührungseingabe bei einer gewünschten Position in dem oberen Bild ausgegeben wird. Daher ist diese Berührungseingabe-Beendigungsfunktion nützlich, wenn eine Betätigung gestartet wird, ohne auf die untere Anzeigevorrichtung 4 zu blicken. Andererseits kann der Nutzer auf das Kennzeichen 70 oder die Positionierungsanzeige 72 blicken, welche in dem oberen Bild ausgegeben wird, und den Finger lösen (das heißt, die Berührungseingabe beenden), wenn das Kennzeichen 70 oder die Positionierungsanzeige 72 eine gewünschte Position erreicht. Dadurch kann der Nutzer die Startposition der zweiten Berührungseingabe auf einfache Art und Weise kennen, welche die gewünschte Funktion implementieren kann, während die Berührungseingabe-Beendigungsfunktion verwendet wird. Das heißt, wenn der Nutzer seinen Finger auf dem Bildschirm-Tastfeld 5 bewegt und eine gewünschte Fingerposition kennt, kann er den Finger von dem Bildschirm-Tastfeld 5 lösen und dann die zweite Berührungseingabe bei dieser Position starten. In diesem Fall besteht eine hohe Wahrscheinlichkeit, dass das Kennzeichen 70 oder die Positionierungsanzeige 72 bei einer gewünschten Position in dem oberen Bild ausgegeben wird, und falls der Nutzer seinen Finger von dem Bildschirm-Tastfeld 5 löst, kann die gewünschte Funktion implementiert werden. Auf diese Art und Weise erhöht bzw. verbessert die Berührungseingabe-Beendigungsfunktion, welche ebenso als eine Auswahlunterstützungsfunktion zum Auswählen eines gewünschten Definitionsteils verwendet werden kann, die Bedienbarkeit weiter. Durch das Vorsehen einer solchen Berührungseingabe-Beendigungsfunktion wird eine Berührungseingabe, welche die funktionelle Verarbeitung vom Aus-Trigger-Typ in dem Spiegelanzeigemodusbild bewirkt, auf eine Berührungseingabe beschränkt, deren An-Aus-Trigger-Strecke dd kleiner oder gleich dem vorbestimmten Wert dth ist. Eine Berührungseingabe, deren An-Aus-Trigger-Strecke dd kleiner oder gleich dem vorbestimmten Wert dth ist, welche die Betätigungsabsicht des Nutzers wahrscheinlicher treffend ausdrückt als eine Berührungseingabe, deren An-Aus-Trigger-Strecke dd größer als der vorbestimmte Wert dth ist, kann geeignet als eine Eingabe zum Annehmen der Bestätigungsabsicht des Nutzers zu einer Zeit einer Betätigung vom Ferntastfeld-Typ verwendet werden.
  • In dem Unabhängigkeitsanzeigemodus führt die Eingabeannahmeverarbeitungseinheit 114 die funktionelle Verarbeitung vom Aus-Trigger-Typ unabhängig von der An-Aus-Trigger-Strecke dd durch. Daher kann der Nutzer die Funktion in Zusammenhang mit einem Unabhängigkeitsanzeigemodusbild implementieren, auch wenn die An-Aus-Trigger-Strecke dd in dem Unabhängigkeitsanzeigemodus größer als der vorbestimmte Wert dth wird. Dies bedeutet, dass der Nutzer, auch wenn die Startposition einer Berührungseingabe beispielsweise aufgrund einer Schwingung in dem Fahrzeug nicht mit der Position eines gewünschten Definitionsteils in einem Unabhängigkeitsanzeigemodusbild in Übereinstimmung gebracht werden kann, dadurch, dass die Endposition der Berührungseingabe mit der Position des gewünschten Definitionsteils in Übereinstimmung gebracht wird und der Finger anschließend gelöst wird, die Funktion in Zusammenhang mit dem gewünschten Definitionsteil implementieren kann, ohne die Berührungseingabe zu wiederholen. In dem Unabhängigkeitsanzeigemodus führt der Nutzer die Betätigung durch, während die untere Anzeigevorrichtung 4 betrachtet wird, und daher sind das Kennzeichen 70 und die Positionierungsanzeige 72, wie vorstehend beschrieben, nicht notwendig.
  • Zusätzlich führt die Eingabeannahmeverarbeitungseinheit 114 die Verarbeitung gemäß einem von den mechanischen Schaltern 6 aufgenommenen Betätigungssignal durch. Die Eingabeannahmeverarbeitungseinheit 114 sendet insbesondere nach dem Aufnehmen eines Betätigungssignals mit Bezug auf den Multimediasystemschalter das Betätigungssignal zu der Multimediavorrichtung 2. Nach dem Aufnehmen eines Betätigungssignals mit Bezug auf den Fahrzeugsteuerungssystemschalter sendet die Eingabeannahmeverarbeitungseinheit 114 den Steuerbefehl gemäß dem Betätigungssignal zu dem CAN 30, und diese sendet gleichzeitig den Anzeigeveränderungsbefehl gemäß dem Betätigungssignal zu der Anzeigesteuerungseinheit 110. Der zu der Anzeigesteuerungseinheit 110 gesendete Anzeigeveränderungsbefehl weist eine auf den Bildschirmübergang, das Bildschirm-Scrollen und einen Einstellbildschirm mit Bezug auf das Unabhängigkeitsanzeigemodusbild anzuwendende Veränderung an. Zusätzlich erzeugt die Eingabeannahmeverarbeitungseinheit 114 den Anzeigeveränderungsbefehl, welcher einen Bildschirmübergang zu dem Home-Bild des Unabhängigkeitsanzeigemodusbilds anweist, wenn das Betätigungssignal mit Bezug auf den Top-Schalter aufgenommen wird. Wenn der Anzeigeveränderungsbefehl mit Bezug auf den Top-Schalter erzeugt wird, sendet die Eingabeannahmeverarbeitungseinheit 114 den erzeugten Anzeigeveränderungsbefehl hin zu der Anzeigesteuerungseinheit 110.
  • Gemäß der fahrzeugseitigen Betätigungsvorrichtung bei der vorstehend beschriebenen Ausführungsform werden die nachfolgenden herausragenden Effekte erreicht.
  • Zunächst ermöglicht die fahrzeugseitige Betätigungsvorrichtung gemäß dieser Ausführungsform in dem Spiegelanzeigemodus, während das Aussehen des Bilds auf der unteren Anzeigevorrichtung 4 und des Bilds auf der oberen Anzeigevorrichtung 3 (das Spiegelanzeigemodusbild und das obere Bild) in dem gleichen Bildzustand gehalten werden, dass die Funktionen mit Bezug auf das Bild über eine Betätigung auf der unteren Anzeigevorrichtung 4 implementiert werden. Daher kann der Nutzer in dem Spiegelanzeigemodus die Betätigung vom Ferntastfeld-Typ durchführen, bei welcher der Nutzer die Funktionen (beispielsweise Veränderung der Einstellungswerte usw.) in Zusammenhang mit dem Spiegelanzeigemodusbild mit dem gleichen Aussehen wie das obere Bild über eine Betätigung auf der unteren Anzeigevorrichtung 4 realisieren kann, während das auf der oberen Anzeigevorrichtung 3 ausgegebene obere Bild betrachtet wird.
  • Zusätzlich kann der Nutzer in dem Spiegelanzeigemodus die Betätigung mit Bezug auf das Spiegelanzeigemodusbild (= die Betätigung mit Bezug auf das obere Bild) über die untere Anzeigevorrichtung 4 durchführen, während das Spiegelanzeigemodusbild betrachtet wird, welches das gleiche Aussehen besitzt wie das obere Bild auf der oberen Anzeigevorrichtung 3. Da die untere Anzeigevorrichtung 4 niedriger als die obere Anzeigevorrichtung 3 unter nahe an dem Fahrersitz vorgesehen ist, wird die Bedienbarkeit besser als in einem Fall, wenn ein Bildschirm-Tastfeld bei der oberen Anzeigevorrichtung 3 vorgesehen ist und eine Betätigung mit Bezug auf das obere Bild auf der oberen Anzeigevorrichtung 3 durchgeführt wird.
  • Zusätzlich führt die Eingabeannahmeverarbeitungseinheit 114 in dem Spiegelanzeigemodus die Funktion in Zusammenhang mit Aus-Trigger-Koordinaten in dem Spiegelanzeigemodusbild basierend auf den Aus-Trigger-Koordinaten durch (funktionelle Verarbeitung vom Aus-Trigger-Typ). Zu dieser Zeit führt die Eingabeannahmeverarbeitungseinheit 114 die funktionelle Verarbeitung vom Aus-Trigger-Typ basierend auf einer Berührungseingabe durch, deren An-Aus-Trigger-Strecke dd kleiner oder gleich dem vorbestimmten Wert dth ist. Entsprechend kann der Nutzer, wenn eine Betätigung auf der unteren Anzeigevorrichtung 4 durchgeführt wird, während ein oberes Bild auf der oberen Anzeigevorrichtung 3 betrachtet wird, durch Blicken auf das Kennzeichen 70 oder die Positionierungsanzeige 72, welche in dem oberen Bild ausgegeben wird, bestimmen, ob die Berührungseingabe zu beenden ist. Beispielsweise wenn das Kennzeichen 70 oder die Positionierungsanzeige 72 bei dem Start einer Berührungseingabe bei einer gewünschten Position in dem oberen Bild ausgegeben wird, kann der Nutzer den Finger unmittelbar lösen, um die Berührungseingabe zu beenden, wodurch die funktionelle Verarbeitung vom Aus-Trigger-Typ durchgeführt wird. Daher wird eine Berührungseingabe, deren An-Aus-Trigger-Strecke dd kleiner oder gleich dem vorbestimmten Wert dth ist, äquivalent zu einer Eingabe, die anstelle der „Niederdrückbetätigung auf dem Ferntastfeld” verwendet werden kann, zum Ermöglichen der Auswahlbetätigung und der Bestätigungsbetätigung zu der gleichen Zeit. Daher ist es gemäß dieser Ausführungsform möglich, die Durchführbarkeit der Betätigung vom Ferntastfeld-Typ zu verbessern, während das Bildschirm-Tastfeld 5 verwendet wird, welches derart konfiguriert ist, dass dieses lediglich die Koordinaten einer Berührungseingabe erfasst.
  • Da das auf der oberen Anzeigevorrichtung 3 angezeigte obere Bild einem Navigationsbild usw. entspricht, ist es zusätzlich möglich, eine GUI-basierte Software zu verwenden, die beispielsweise auf der „existierenden Anzeigevorrichtung, die mit einem einzelnen Bildschirm-Tastfeld ausgerüstet ist” verwendet wird. Da das Spiegelanzeigemodusbild das gleiche Aussehen besitzt wie das obere Bild, kann das Spiegelanzeigemodusbild zusätzlich unter Verwendung des zu der oberen Anzeigevorrichtung 3 gesendeten Videosignals erzeugt werden, wie in 1 gezeigt ist. Dies ermöglicht es, den Entwicklungsaufwand der Software mit Bezug auf die Erzeugung eines Spiegelanzeigemodusbilds in der Anzeigesteuerungseinheit 110 und der Software mit Bezug auf die Multimediavorrichtung 2 zu reduzieren.
  • Zusätzlich kann der Nutzer in dem Unabhängigkeitsanzeigemodus eine Funktion in Zusammenhang mit einem Unabhängigkeitsanzeigemodusbild über eine Betätigung auf der unteren Anzeigevorrichtung 4 implementieren. Daher kann der Nutzer über eine Betätigung auf der unteren Anzeigevorrichtung 4 eine Funktion (eine Betätigung des Fahrzeugsteuerungssystems) implementieren, die in dem Spiegelanzeigemodus nicht implementiert werden kann. Auf diese Art und Weise kann der Nutzer in dem Unabhängigkeitsanzeigemodus eine Betätigung in Zusammenhang mit einem Unabhängigkeitsanzeigemodusbild, welches unabhängig von dem oberen Bild ist, auf der unteren Anzeigevorrichtung 4 durchführen, während das obere Bild auf der gut sichtbaren oberen Anzeigevorrichtung 3 sichtbar gehalten wird. Daher kann der Nutzer in dem Unabhängigkeitsanzeigemodus ein Navigationsbild auf der oberen Anzeigevorrichtung 3 sichtbar halten, welche im Vergleich zu der unteren Anzeigevorrichtung 4 eine bessere Sichtbarkeit aufweist, auch wenn auf der unteren Anzeigevorrichtung 4 während der Fahrt irgendeine Betätigung durchgeführt wird.
  • Wie vorstehend beschrieben ist, umfasst das zu der unteren Anzeigevorrichtung 4 ausgegebene untere GUI-Bild selektiv ein Bild aus den folgenden zwei Bildern: ein Unabhängigkeitsanzeigemodusbild unabhängig von dem zu der oberen Anzeigevorrichtung 3 ausgegebenen oberen Bild und ein Spiegelanzeigemodusbild mit dem gleichen Aussehen wie das auf der oberen Anzeigevorrichtung 3 angezeigte obere Bild. Daher kann der Nutzer eine Moduswechseleingabe durchführen, um das zu der unteren Anzeigevorrichtung 4 ausgegebene untere GUI-Bild ausgehend von dem Unabhängigkeitsanzeigemodusbild zu dem Spiegelanzeigemodusbild zu wechseln, wodurch die Benutzerfreundlichkeit verbessert wird.
  • Sowohl in dem Unabhängigkeitsanzeigemodus als auch dem Spiegelanzeigemodus kann der Nutzer verschiedene Funktionen über eine Betätigung auf dem Bildschirm-Tastfeld 5 der unteren Anzeigevorrichtung 4 implementieren. Daher kann die obere Anzeigevorrichtung 3 lediglich zum Anzeigen verwendet werden, wobei die Kosten der oberen Anzeigevorrichtung 3 reduziert werden können (insbesondere die Kosten in Zusammenhang mit dem Bildschirm-Tastfeld sind nicht notwendig). Darüber hinaus kann die obere Anzeigevorrichtung 3 außerdem bei einer Position entfernt von der Hand des Fahrers angeordnet sein, wenn diese lediglich als Anzeige verwendet wird. Diese Anordnung minimiert die Differenz zwischen der Richtung der Sichtlinie bzw. der Blickrichtung des Fahrers in Richtung hin zu der oberen Anzeigevorrichtung 3 und der Blickrichtung des Fahrers in Richtung hin zu der vorausliegenden Straße während der Fahrt (der Veränderungsbetrag der Blickrichtung ausgehend von der Richtung, in welcher der Fahrer auf die vorausliegende Straße blickt, hin zu der Richtung, in welcher der Fahrer das obere Bild auf der oberen Anzeigevorrichtung 3 betrachtet).
  • Nachfolgend wird ein Betätigungsbeispiel der Steuerungseinheit 10 mit Bezug auf 10 bis 12 beschrieben.
  • 10 ist eine Abbildung, welche die verschiedenen Definitionen zeigt, welche für die Beschreibung eines Betätigungsbeispiels verwendet werden, und die 11 und 12 entsprechen allgemeinen Flussdiagrammen, die ein Beispiel einer durch die Eingabeannahmeverarbeitungseinheit 114 der Steuerungseinheit 10 ausgeführten Verarbeitung zeigen.
  • Die x- und y-Koordinaten mit Bezug auf den Bildschirm der unteren Anzeigevorrichtung 4 und deren positive Richtungen sind so definiert, wie in 10 gezeigt ist. 10 zeigt schematisch die sich nach unten bewegende Hand des Nutzers mit einem Finger auf dem Bildschirm-Tastfeld 5. In der nachstehenden Beschreibung ist angenommen, dass die Koordinaten der aktuellen Berührungsposition gleich (x, y) sind, die Berührungsstart (An-Trigger)-Position gleich (x0, y0) ist und die Berührungsend(Aus-Trigger)-Position gleich (x1, y1) ist, wie in 10 gezeigt.
  • Die in 11 gezeigte Verarbeitung wird beispielsweise bei vorbestimmten periodischen Intervallen durchgeführt, während der Zündschalter an bleibt. Die in 11 gezeigte Verarbeitung umfasst eine Schleife, welche bei vorbestimmten periodischen Intervallen ausgeführt wird. Die vorbestimmte Phase entspricht bei dieser Ausführungsform beispielsweise der Frame-Phase auf der unteren Anzeigevorrichtung 4.
  • Bei Schritt S1100 bestimmt die Eingabeannahmeverarbeitungseinheit 114, ob eine Berührungseingabe auf dem Bildschirm-Tastfeld 5 gestartet ist. Das Vorliegen oder Nichtvorliegen einer Berührung auf dem Bildschirm-Tastfeld 5 kann basierend auf dem Vorliegen oder Nichtvorliegen des von dem Bildschirm-Tastfeld 5 aufgenommenen Erfassungssignals bestimmt werden. Falls das Bestimmungsergebnis gleich „Ja” ist, schreitet die Verarbeitung zu Schritt S1102 voran; andererseits endet der aktuelle Verarbeitungszyklus.
  • Bei Schritt S1102 bestimmt die Eingabeannahmeverarbeitungseinheit 114, ob die Koordinaten der Berührungseingabe einer Mehrzahl von Punkten entsprechen. Falls das Bestimmungsergebnis gleich „Ja” ist, schreitet die Verarbeitung zu Schritt S1110 voran; andererseits schreitet die Verarbeitung zu Schritt S1119 voran.
  • Bei Schritt S1110 gibt die Führungsanzeigeausgabeeinheit 111 bei jeder Position entsprechend der Berührungskoordinate bzw. bei jeder Berührungskoordinaten-Korrespondenzposition das Kennzeichen 70 in dem oberen Bild basierend auf den Koordinaten von zwei oder mehr Punkten mit Bezug auf die Berührungseingabe aus (siehe 8). Solange Schritt S1111 ein zustimmendes Ergebnis liefert und die Verarbeitung zu Schritt S1118 voranschreitet, werden die Schritte S1110, S1112 und S1114 basierend auf jedem der Koordinaten von zwei oder mehr Punkten ausgeführt, welche zu dieser Zeit erhalten werden, bis die Berührungseingabe endet, auch wenn sich die Anzahl von Punkten der Koordinaten mit Bezug auf die Berührungseingabe während der Fortsetzung der Berührungseingabe verändert (beispielsweise wenn sich die Anzahl von Punkten zu einem Punkt verändert). Falls während der Fortsetzung der Berührungseingabe bestimmt wird, dass die aktuelle Berührungseingabe einem Pinch-In oder Pinch-Out für einen Definitionsteil entspricht, mit welchem ein Pinch-In oder Pinch-Out in Zusammenhang steht („Ja” bei Schritt S1111), führt die Eingabeannahmeverarbeitungseinheit 114 die funktionelle Verarbeitung vom Nicht-Aus-Trigger-Typ mit Bezug auf den Definitionsteil durch (Schritt S1118).
  • Bei Schritt S1112 bestimmt die Eingabeannahmeverarbeitungseinheit 114 für jede Berührungskoordinaten-Korrespondenzposition in dem oberen Bild, ob ein Definitionsteil bei der Berührungskoordinaten-Korrespondenzposition vorliegt, basierend auf den Koordinaten von zwei oder mehr Punkten mit Bezug auf die Berührungseingabe und die GUI-Informationen (siehe 9) mit Bezug auf die Bild-ID des aktuellen ausgegebenen Bilds. Falls das Bestimmungsergebnis gleich „Ja” ist, schreitet die Verarbeitung zu Schritt S1114 voran; andererseits schreitet die Verarbeitung zu Schritt S1116 voran.
  • Bei Schritt S1114 gibt die Führungsanzeigeausgabeeinheit 111 die Positionierungsanzeige 72 für den Definitionsteil bei der Berührungskoordinaten-Korrespondenzposition aus.
  • Bei Schritt S1116 bestimmt die Eingabeannahmeverarbeitungseinheit 114, ob die Berührungseingabe auf dem Bildschirm-Tastfeld 5 andauert. Falls das Bestimmungsergebnis gleich „Ja” ist, kehrt die Schleife zu Schritt S1110 zurück; andererseits verlässt die Verarbeitung die Schleife und schreitet zu Schritt S1117 voran.
  • Bei Schritt S1117 löscht die Führungsanzeigeausgabeeinheit 111 das Kennzeichen 70. Darüber hinaus löscht die Führungsanzeigeausgabeeinheit 111 ebenso die Positionierungsanzeige 72, wenn die Positionierungsanzeige 72 angezeigt wird. Nach dem Abschluss von Schritt S1117 wird der aktuelle Verarbeitungszyklus unmittelbar beendet.
  • Bei Schritt S1119 speichert die Eingabeannahmeverarbeitungseinheit 114 Koordinaten der aktuellen Berührungseingabe als die An-Trigger-Koordinaten mit Bezug auf die aktuelle Berührungseingabe.
  • Bei Schritt S1120 gibt die Führungsanzeigeausgabeeinheit 111 das Kennzeichen 70 bei der Position entsprechend der Berührungskoordinate bzw. der Berührungskoordinaten-Korrespondenzposition (ein Punkt) in dem oberen Bild basierend auf den Koordinaten der Berührungseingabe (ein Punkt) aus (siehe 7). Solange Schritt S1121 ein zustimmendes Ergebnis liefert und die Verarbeitung zu Schritt S1118 voranschreitet, werden die Schritte S1120, S1122 und S1124 basierend auf den Koordinaten (letzte Koordinaten) mit Bezug auf einen Punkt bei dem Start der Berührungseingabe ausgeführt, bis die Berührungseingabe endet, auch wenn sich die Anzahl von Punkten der Koordinaten mit Bezug auf die Berührungseingabe während der Fortsetzung der Berührungseingabe verändert (beispielsweise wenn sich die Anzahl der Punkte auf zwei oder mehr Punkte verändert). Falls während der Fortsetzung der Berührungseingabe bestimmt wird, dass die aktuelle Berührungseingabe einem Drag oder Flick für einen Definitionsteil entspricht, mit welchem ein Drag oder Flick in Zusammenhang steht („Ja” bei Schritt S1121), führt die Eingabeannahmeverarbeitungseinheit 114 die funktionelle Verarbeitung vom Nicht-Aus-Trigger-Typ in Zusammenhang mit dem Definitionsteil durch (Schritt S1118).
  • Bei Schritt S1122 bestimmt die Eingabeannahmeverarbeitungseinheit 114 basierend auf den Koordinaten der Berührungseingabe und den GUI-Informationen (siehe 9) mit Bezug auf die Bild-ID des aktuell ausgegebenen Bilds, ob ein Definitionsteil bei der Berührungskoordinaten-Korrespondenzposition in dem oberen Bild vorliegt. Falls das Bestimmungsergebnis gleich „Ja” ist, schreitet die Verarbeitung zu Schritt S1124 voran; andererseits schreitet die Verarbeitung zu Schritt S1126 voran.
  • Bei Schritt S1124 gibt die Führungsanzeigeausgabeeinheit 111 die Positionierungsanzeige 72 für den Definitionsteil bei der Berührungskoordinaten-Korrespondenzposition aus (siehe 7).
  • Bei Schritt S1126 bestimmt die Eingabeannahmeverarbeitungseinheit 114, ob die Berührungseingabe auf dem Bildschirm-Tastfeld 5 andauert. Falls das Bestimmungsergebnis gleich „Ja” ist, kehrt die Schleife zu Schritt S1120 zurück; andererseits verlässt die Verarbeitung die Schleife und schreitet zu Schritt S1128 voran.
  • Bei Schritt S1128 löscht die Führungsanzeigeausgabeeinheit 111 das Kennzeichen 70. Wenn die Positionierungsanzeige 72 angezeigt wird, löscht die Führungsanzeigeausgabeeinheit 111 darüber hinaus ebenso die Positionierungsanzeige 72.
  • Bei Schritt S1130 speichert die Eingabeannahmeverarbeitungseinheit 114 Koordinaten der aktuellen Berührungseingabe als die Aus-Trigger-Koordinaten mit Bezug auf die aktuelle Berührungseingabe. Nach Abschluss von Schritt S1130 schreitet die Verarbeitung zu Schritt S1200 in 12 voran.
  • Mit Bezug auf 12 bestimmt die Eingabeannahmeverarbeitungseinheit 114 bei Schritt S1200, ob der aktuelle Anzeigemodus dem Spiegelanzeigemodus entspricht. Falls das Bestimmungsergebnis gleich „Ja” ist, schreitet die Verarbeitung zu Schritt S1202 voran; andererseits (das heißt, wenn der aktuelle Anzeigemodus dem Unabhängigkeitsanzeigemodus entspricht), schreitet die Verarbeitung zu Schritt S1206 voran.
  • Bei Schritt S1202 berechnet die Streckenberechnungseinheit 112 die An-Aus-Trigger-Strecke dd für die aktuelle Berührungseingabe basierend auf An-Trigger-Koordinaten und den Aus-Trigger-Koordinaten, welche entsprechend bei den Schritten S1119 und S1130 gespeichert werden. Das Berechnungsverfahren der An-Aus-Trigger-Strecke dd ist vorstehend beschrieben.
  • Bei Schritt S1204 bestimmt die Eingabeannahmeverarbeitungseinheit 114 basierend auf der bei Schritt S1202 berechneten An-Aus-Trigger-Strecke dd, ob die An-Aus-Trigger-Strecke dd kleiner oder gleich dem vorbestimmten Wert dth ist. Falls das Bestimmungsergebnis gleich „Ja” ist, schreitet die Verarbeitung zu Schritt S1206 voran; andererseits wird der aktuelle Verarbeitungszyklus unmittelbar beendet.
  • Bei Schritt S1206 bestimmt die Eingabeannahmeverarbeitungseinheit 114 basierend auf den bei Schritt S1130 gespeicherten Aus-Trigger-Koordinaten und den GUI-Informationen (siehe 9) mit Bezug auf die Bild-ID des aktuell angezeigten Bilds, ob sich bei den Aus-Trigger-Koordinaten ein Definitionsteil befindet (nachfolgend als „Auswahldefinitionsteil” bezeichnet). Falls das Bestimmungsergebnis gleich „Ja” ist, schreitet die Verarbeitung zu Schritt S1208 voran; andererseits wird der aktuelle Verarbeitungszyklus unmittelbar beendet.
  • Bei Schritt S1208 führt die Eingabeannahmeverarbeitungseinheit 114 die Funktion in Zusammenhang mit dem ausgewählten Definitionsteil aus. Zu dieser Zeit kann die Eingabeannahmeverarbeitungseinheit 114 die Betätigungsobjektanzeige gemäß dem ausgewählten Definitionsteil sofort hervorheben oder eine Vibration bzw. Schwingung (eine durch einen nicht gezeigten haptischen Mechanismus erzeugte Schwingung) auf dem Bildschirm-Tastfeld 5 erzeugen, um die Informationen zu dem Benutzer auszugeben, um mitzuteilen, dass der ausgewählte Definitionsteil ausgewählt und bestätigt wurde.
  • Gemäß der in 11 und 12 gezeigten Verarbeitung wird die funktionelle Verarbeitung vom Aus-Trigger-Typ während des Spiegelanzeigemodus basierend auf einer Berührungseingabe durchgeführt, deren An-Aus-Trigger-Strecke dd kleiner oder gleich dem vorbestimmten Wert dth ist. Andererseits wird während des Unabhängigkeitsanzeigemodus ein funktioneller Prozess vom Aus-Trigger-Typ ungeachtet der An-Aus-Trigger-Strecke dd durchgeführt. Außerdem wird die Mehrpunktkennzeichenausgabefunktion implementiert. Wenn die Koordinaten einer Berührungseingabe einer Mehrzahl von Punkten entsprechen, wird die funktionelle Verarbeitung vom Aus-Trigger-Typ nicht durchgeführt. Dies verhindert, dass die funktionelle Verarbeitung vom Aus-Trigger-Typ basierend auf einer ungewünschten Betätigung durchgeführt wird.
  • Bei der vorstehend beschriebenen Ausführungsform entspricht ein „Unabhängigkeitsanzeigemodusbild” einem Beispiel eines „ersten Bilds” und eines „Erstmodusbilds” in den Ansprüchen. Eine Funktion mit Bezug auf einen Definitionsteil, welcher in dem Unabhängigkeitsanzeigemodusbild umfasst ist und mit welchem eine „Eingabe vom Aus-Trigger-Typ” in Zusammenhang steht, entspricht einem Beispiel einer „ersten vorbestimmten Funktion” in den Ansprüchen. Ein oberes Bild, welches eine zweite vorbestimmte Funktion darstellt, entspricht einem Beispiel eines „zweiten Bilds” in den Ansprüchen, und die zweite vorbestimmte Funktion entspricht der Funktion mit Bezug auf einen Definitionsteil, welcher in einem Spiegelanzeigemodusbild umfasst ist und mit welchem eine „Eingabe vom Aus-Trigger-Typ” in Zusammenhang steht. Außerdem entspricht eine in einem Spiegelanzeigemodus durchgeführte funktionelle Verarbeitung vom Aus-Trigger-Typ einem Beispiel eines „Aus-Triggers” in den Ansprüchen. Ein Spiegelanzeigemodusbild mit dem gleichen Aussehen wie ein oberes Bild, das die zweite vorbestimmte Funktion darstellt, entspricht einem weiteren Beispiel des „ersten Bilds” in den Ansprüchen und einem Beispiel des „Zweitmodusbilds” in den Ansprüchen.
  • Obwohl die Ausführungsform detailliert beschrieben wurde, ist die vorliegende Erfindung nicht auf eine spezifische Ausführungsform beschränkt und es können verschiedene Modifikationen und Veränderungen in dem in dieser Spezifikation beschriebenen Schutzumfang hinzugefügt werden. Es ist ebenso möglich, sämtliche oder eine Mehrzahl von Komponenten der vorstehend beschriebenen Ausführungsform zu kombinieren.
  • Beispielsweise kann, obwohl bei der vorstehend beschriebenen Ausführungsform sowohl das Kennzeichen 70 als auch die Positionierungsanzeige 72 ausgegeben werden, auf die Ausgabe von einem davon verzichtet werden.
  • Obwohl bei der vorstehend beschriebenen Ausführungsform die Eingabeannahmeverarbeitungseinheit 114 die funktionelle Verarbeitung vom Aus-Trigger-Typ für eine Berührungseingabe durchführt, deren An-Aus-Trigger-Strecke dd größer als der vorbestimmte Wert dth in dem Unabhängigkeitsanzeigemodus ist, ist die vorliegende Erfindung nicht darauf beschränkt. Das heißt, auch in dem Unabhängigkeitsanzeigemodus ist es wie in dem Spiegelanzeigemodus möglich, dass die Eingabeannahmeverarbeitungseinheit 114 die funktionelle Verarbeitung vom Aus-Trigger-Typ für eine Berührungseingabe nicht durchführt, deren An-Aus-Trigger-Strecke dd größer als der vorbestimmte Wert dth ist. Bei einer solchen Modifikation kann sowohl bei dem Unabhängigkeitsanzeigemodus als auch dem Spiegelanzeigemodus die gleiche Bedienbarkeit realisiert werden.
  • Darüber hinaus kann bei der vorstehend beschriebenen Ausführungsform auf die vorstehend beschriebene Mehrpunktkennzeichenausgabefunktion verzichtet werden. Beispielsweise wenn die Koordinaten einer Berührungseingabe einer Mehrzahl von Punkten entsprechen, ist es ebenso möglich, dass das Kennzeichen 70 überhaupt nicht ausgegeben wird oder dass lediglich die Koordinaten eines vorbestimmten einen Punkts ermöglicht werden und das Kennzeichen 70 bei dem Punkt der Koordinaten ausgegeben wird.
  • Obwohl bei der vorstehend beschriebenen Ausführungsform der Spiegelanzeigemodus und der Unabhängigkeitsanzeigemodus vorgesehen sind, ist ebenso eine Konfiguration möglich, bei welcher der Unabhängigkeitsanzeigemodus nicht vorgesehen ist.
  • Bei der vorstehend beschriebenen Ausführungsform kann anstelle des Spiegelanzeigemodus der Pseudo- bzw. Schein-Ferntastfeld-Modus verwendet werden. In dem Schein-Ferntastfeld-Modus wird anstelle des Spiegelanzeigemodusbilds ein Hintergrundbild (Hintergrundbild nicht für die GUI) (ein weiteres Beispiel des ersten Bilds), welches nicht als ein GUI-Bild dient, ausgegeben. Das Hintergrundbild entspricht beispielsweise einem Bild, welches lediglich die Hintergrundfarbe besitzt (beispielsweise ein Bild lediglich mit den Informationen, die sich im Wesentlichen nicht auf die Betätigung beziehen, wie ein Bild mit lediglich einer schwarzen Farbe). Beispielsweise bei dem in 13 gezeigten Beispiel wird auf der unteren Anzeigevorrichtung 4 ein Hintergrundbild 900 mit lediglich einer schwarzen Farbe angezeigt. Auch in einem solchen Fall ermöglicht der Schein-Ferntastfeld-Modus dem Nutzer, die Betätigung vom Ferntastfeld-Typ durchzuführen, obwohl die Betätigung, welche durchgeführt wird, während direkt auf die untere Anzeigevorrichtung 4 geblickt wird, im Wesentlichen unmöglich ist, wodurch der Effekt mit Bezug auf die vorstehend beschriebene Betätigung vom Ferntastfeld-Typ erreicht wird. Obwohl bei dieser Modifikation zwei Modi vorliegen, der Schein-Ferntastfeld-Modus und der Unabhängigkeitsanzeigemodus, ist ebenso eine Konfiguration ohne den Unabhängigkeitsanzeigemodus möglich.
  • Bei der vorstehend beschriebenen Ausführungsform kann anstelle des Bildschirm-Tastfelds 5 ein Touchpad bzw. Tastfeld (ein weiteres Beispiel der Betätigungseinheit) verwendet werden, welches derart konfiguriert ist, dass dieses lediglich die Koordinaten einer Berührungseingabe erfasst. Das Touchpad, welches derart konfiguriert ist, dass dieses lediglich die Koordinaten einer Berührungseingabe erfasst, entspricht beispielsweise keinem Touchpad vom Niederdrückbetätigungs-Unterstützungstyp. Ein Touchpad vom Niederdrückbetätigungs-Nicht-Unterstützungstyp entspricht einem Touchpadtyp, bei welchem das Touchpad selbst nicht nach oben und unten bewegt wird, sondern mit Bezug auf die Umgebungskomponenten festgelegt ist. Daher besitzt ein Touchpad vom Niederdrückbetätigungs-Nicht-Unterstützungstyp keinen Mechanismus, welcher die Aufwärts- und Abwärtsbewegung des Touchpads ermöglicht, und keine Einheit (Taktschalter, Drucksensor usw.) zum Erfassung eines Niederdrückens auf dem Touchpad. Bei einer Modifikation, bei welcher anstelle des Bildschirm-Tastfelds 5 ein Touchpad verwendet wird, welches derart konfiguriert ist, dass dieses lediglich die Koordinaten einer Berührungseingabe erfasst, entspricht eine Berührungseingabe einer durch das Touchpad erfassten Eingabe. Bei einer solchen Modifikation kann das von dem Touchpad aufgenommene Erfassungssignal in der gleichen Art und Weise verwendet werden wie das von dem vorstehend beschriebenen Bildschirm-Tastfeld 5 aufgenommene Erfassungssignal. Bei dieser Modifikation beseitigt das Touchpad die Notwendigkeit für die untere Anzeigevorrichtung 4, die Darstellungs-IC 16 und die Anzeigesteuerungseinheit 110, wodurch ermöglicht wird, das Touchpad an einer Stelle anzuordnen, bei welcher die Bedienbarkeit gut ist. 14 zeigt beispielsweise ein Beispiel eines Touchpads 9, welches auf der Konsolenbox bzw. dem Konsolengehäuse vorgesehen ist. Das Touchpad bei einer solchen Modifikation ermöglicht dem Nutzer außerdem, die Betätigung vom Ferntastfeld-Typ auf dem oberen Bild über das Touchpad durchzuführen, wodurch der Effekt mit Bezug auf die vorstehend beschriebene Betätigung vom Ferntastfeld-Typ erreicht wird.
  • Bei der vorstehend beschriebenen Ausführungsform entspricht die An-Aus-Trigger-Strecke dd der Strecke zwischen den Koordinaten bei dem Start einer Berührungseingabe und den Koordinaten bei dem Ende der Berührungseingabe (lineare Strecke zwischen zwei Punkten), die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Die An-Aus-Trigger-Strecke dd kann beispielsweise als eine Strecke berechnet werden, welche der Bewegungsbahn der Koordinaten von dem Start einer Berührungseingabe hin zu dem Ende der Berührungseingabe folgt (das heißt, der Länge der Bewegungsbahn). 15 zeigt beispielsweise eine Bewegungsbahn L als ein Beispiel der Bewegungsbahn der Koordinaten von dem Start hin zu dem Ende einer Berührungseingabe. In diesem Fall kann die Strecke, welche der Bewegungsbahn L der Koordinaten ausgehend von dem Start hin zu dem Ende einer Berührungseingabe folgt, durch Akkumulieren einer sehr kurzen Strecke pro sehr kurzem Zeitintervall (lineare Strecke zwischen zwei Punkten bei jedem kurzen Zeitintervall) ausgehend von dem Start hin zu dem Ende der Berührungseingabe berechnet werden.
  • Bei der vorstehend beschriebenen Ausführungsform umfasst das obere Bild verschiedene Bildtypen zur Nutzung beim Durchführen der Betätigung der Multimediavorrichtung 2, die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Beispielsweise kann das obere Bild lediglich ein Navigationsbild umfassen. In diesem Fall können die Bilder mit Bezug auf die Audiovorrichtung, einem von verschiedenen Bildtypen für die Betätigung der Multimediavorrichtung 2, in dem Unabhängigkeitsanzeigemodusbild umfasst sein. Zusätzlich kann das obere Bild ferner Bilder zum Betätigen einer von der Multimediavorrichtung 2 abweichenden Vorrichtung umfassen.
  • Obwohl die obere Anzeigevorrichtung 3 und die untere Anzeigevorrichtung 4 bei der vorstehend beschriebenen Ausführungsform fahrzeugseitigen Anzeigen entsprechen, kann eine oder beide der oberen Anzeigevorrichtung 3 und der unteren Anzeigevorrichtung 4 durch die Anzeigevorrichtung eines Benutzerendgeräts (beispielsweise eines Smartphones, eines Tablets usw.) implementiert sein, welches in das Fahrzeug gebracht und darin montiert wird. In diesem Fall kann die Kommunikation zwischen der Anzeigevorrichtung des in das Fahrzeug gebrachten Endgeräts (obere Anzeigevorrichtung 3 und/oder die untere Anzeigevorrichtung 4) und der Steuerungseinheit 10 durch eine drahtlose Sende-/Empfangseinheit (Bluetooth-Kommunikationseinheit) ausgeführt werden, welche zusätzlich bei der Steuerungseinheit 10 vorgesehen ist, oder diese kann durch eine drahtlose Verbindung ausgeführt werden. Die obere Anzeigevorrichtung 3 wird über eine Befestigung an dem oberen Teil des Armaturenbretts befestigt, wenn diese in das Fahrzeug gebracht wird. Wenn die untere Anzeigevorrichtung 4 in das Fahrzeug gebracht wird, wird diese beispielsweise durch eine auf der Vorderseite des Armaturenbretts installierte Station gehalten. In diesem Fall sind die Befestigung und die Station bei einer solchen Position vorgesehen, dass die obere Anzeigevorrichtung 3 höher als die untere Anzeigevorrichtung 4 ist und von dem Fahrersitz entfernt liegt.
  • Obwohl die Multimediavorrichtung 2 und die Steuerungseinheit 10 separat vorgesehen sind und die Anzeigesteuerungseinheit 110, die Führungsanzeigeausgabeeinheit 111, die Streckenberechnungseinheit 112 und die Eingabeannahmeverarbeitungseinheit 114 bei der vorstehend beschriebenen Ausführungsform durch die Steuerungseinheit 10 implementiert sind, ist die vorliegende Erfindung nicht darauf beschränkt. Beispielsweise können die in den in 9 gezeigten GUI-Informationen umfassten Informationen über ein Spiegelanzeigemodusbild in der Multimediavorrichtung 2 gespeichert werden; zusätzlich kann die funktionelle Verarbeitung vom Aus-Trigger-Typ mit Bezug auf ein Spiegelanzeigemodusbild, welche einer der Funktionen der Eingabeannahmeverarbeitungseinheit 114 entspricht, durch eine Computerverarbeitung in der Multimediavorrichtung 2 implementiert werden. In diesem Fall führt der Computer in der Multimediavorrichtung 2 in dem Spiegelanzeigemodus die funktionelle Verarbeitung vom Aus-Trigger-Typ mit Bezug auf ein Spiegelanzeigemodusbild basierend auf dem von dem Bildschirm-Tastfeld 5 aufgenommenen Erfassungssignal und den Informationen über ein Spiegelanzeigemodusbild, wie in den GUI-Informationen umfasst, durch.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2015-172844 A [0002]
    • JP 2016-004482 A [0003]

Claims (11)

  1. Fahrzeugseitige Betätigungsvorrichtung (1), die auf einem Fahrzeug montiert ist, wobei die fahrzeugseitige Betätigungsvorrichtung (1) aufweist: eine Betätigungseinheit, welche derart konfiguriert ist, dass diese Koordinaten einer Berührungseingabe erfasst; eine erste Anzeigevorrichtung (4); eine zweite Anzeigevorrichtung (3), die bei einer höheren Position als die Betätigungseinheit und im Vergleich zu der Betätigungseinheit entfernt von einem Fahrersitz des Fahrzeugs angeordnet ist; eine zweite Anzeigesteuerungseinheit (2), welche derart konfiguriert ist, dass diese die zweite Anzeigevorrichtung (3) steuert, um eine Mehrzahl von zweiten Bildern anzuzeigen, die jeweils eine zweite vorbestimmte Funktion angeben; eine Streckenberechnungseinheit (112), welche derart konfiguriert ist, dass diese eine Strecke oder einer Länge einer Bewegungsbahn zwischen einer ersten Position und einer zweiten Position berechnet, wobei die erste Position einer ersten Koordinate entspricht, welche die Berührungseingabe bei der Betätigungseinheit startet, und die zweite Position einer zweiten Koordinate entspricht, welche die Berührungseingabe bei der Betätigungseinheit beendet; und eine Eingabeannahmeverarbeitungseinheit (114), welche derart konfiguriert ist, dass diese einen Aus-Trigger einschließlich der Ausführung der zweiten vorbestimmten Funktion in Zusammenhang mit der zweiten Position durchführt, wenn die Strecke oder die Länge der Bewegungsbahn kleiner oder gleich einem vorbestimmten Wert ist.
  2. Fahrzeugseitige Betätigungsvorrichtung (1) nach Anspruch 1, ferner aufweisend eine vorbestimmte Bildausgabeeinheit (111), welche derart konfiguriert ist, dass diese die zweite Anzeigevorrichtung (3) steuert, um ein vorbestimmtes Bild ausgehend von dem Start und bis zu dem Ende der Berührungseingabe über dem zweiten Bild anzuzeigen.
  3. Fahrzeugseitige Betätigungsvorrichtung (1) nach Anspruch 2, wobei das vorbestimmte Bild die Form eines Kennzeichens oder einer Positionierungsanzeige aufweist.
  4. Fahrzeugseitige Betätigungsvorrichtung (1) nach Anspruch 2, wobei das vorbestimmte Bild die Form eines Kennzeichens aufweist, und die vorbestimmte Bildausgabeeinheit (111) derart konfiguriert ist, dass diese, wenn eine Mehrzahl von Berührungseingaben gleichzeitig erfasst werden, das vorbestimmte Bild bei einer Position entsprechend jeder der Mehrzahl von Berührungseingaben in dem zweiten Bild ausgibt.
  5. Fahrzeugseitige Betätigungsvorrichtung (1) nach Anspruch 2, wobei die vorbestimmte Bildausgabeeinheit (111) derart konfiguriert ist, dass diese unter Verwendung einer vorbestimmten Umwandlungsgleichung basierend auf einer Beziehung zwischen einem Koordinatensystem der Betätigungseinheit und einem Koordinatensystem des zweiten Bilds eine dritte Position gemäß den ersten Koordinaten in dem zweiten Bild und eine vierte Position gemäß den zweiten Koordinaten in dem zweiten Bild berechnet.
  6. Fahrzeugseitige Betätigungsvorrichtung (1) nach Anspruch 5, wobei eine Skalierungsgröße in einer ersten Richtung und einer zweiten Richtung der Betätigungseinheit gleich einer Skalierungsgröße in der ersten Richtung und der zweiten Richtung der zweiten Anzeigevorrichtung ist, wobei sich die erste Richtung und die zweite Richtung überkreuzen.
  7. Fahrzeugseitige Betätigungsvorrichtung (1) nach einem der Ansprüche 1 bis 6, ferner aufweisend: eine erste Anzeigesteuerungseinheit (110), welche derart konfiguriert ist, dass diese ein erstes Bild auf der ersten Anzeigevorrichtung (4) ausgibt, wobei die Betätigungseinheit einem Bildschirm-Tastfeld (5) entspricht.
  8. Fahrzeugseitige Betätigungsvorrichtung (1) nach Anspruch 7, wobei die erste Anzeigesteuerungseinheit (110) einen ersten Modus und einen zweiten Modus besitzt, wobei die erste Anzeigesteuerungseinheit (110) in dem ersten Modus derart konfiguriert ist, dass diese ein Erstmodusbild als das erste Bild ausgibt, wobei das Erstmodusbild eine von der zweiten vorbestimmten Funktion abweichende erste vorbestimmte Funktion anzeigt, und wobei das Erstmodusbild unabhängig von dem auf der zweiten Anzeigevorrichtung (3) ausgegebenen zweiten Bild ist, wobei die erste Anzeigesteuerungseinheit (110) in dem zweiten Modus derart konfiguriert ist, dass diese ein Zweitmodusbild als das erste Bild ausgibt, wobei das Zweitmodusbild das gleiche Aussehen wie das auf der zweiten Anzeigevorrichtung (3) ausgegebene zweite Bild besitzt, und wobei die Eingabeannahmeverarbeitungseinheit (114) in dem zweiten Modus derart konfiguriert ist, dass diese den Aus-Trigger durchführt, wenn die Strecke oder die Länge der Bewegungsbahn kleiner oder gleich dem vorbestimmten Wert ist, und derart konfiguriert ist, dass diese den Aus-Trigger nicht durchführt, wenn die Strecke oder die Länge der Bewegungsbahn größer als der vorbestimmte Wert ist.
  9. Fahrzeugseitige Betätigungsvorrichtung (1) nach Anspruch 8, wobei die Eingabeannahmeverarbeitungseinheit (114) in dem ersten Modus derart konfiguriert ist, dass diese die erste vorbestimmte Funktion in Zusammenhang mit den zweiten Koordinaten basierend auf den zweiten Koordinaten durchführt.
  10. Fahrzeugseitige Betätigungsvorrichtung (1) nach einem der Ansprüche 1 bis 9, wobei das zweite Bild ein Navigationsbild umfasst.
  11. Fahrzeugseitige Betätigungsvorrichtung nach Anspruch 1, wobei die Eingabeannahmeverarbeitungseinheit (114) derart konfiguriert ist, dass diese den Aus-Trigger nicht durchführt, wenn die Strecke oder die Länge der Bewegungsbahn größer als der vorbestimmte Wert ist.
DE102017122396.7A 2016-10-06 2017-09-27 Fahrzeugseitige Betätigungsvorrichtung Pending DE102017122396A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-197892 2016-10-06
JP2016197892A JP6614087B2 (ja) 2016-10-06 2016-10-06 車両用操作装置

Publications (1)

Publication Number Publication Date
DE102017122396A1 true DE102017122396A1 (de) 2018-04-12

Family

ID=61695692

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017122396.7A Pending DE102017122396A1 (de) 2016-10-06 2017-09-27 Fahrzeugseitige Betätigungsvorrichtung

Country Status (4)

Country Link
US (1) US10346118B2 (de)
JP (1) JP6614087B2 (de)
CN (1) CN107918504B (de)
DE (1) DE102017122396A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024132042A1 (de) * 2022-12-22 2024-06-27 Continental Automotive Technologies GmbH Anzeigevorrichtung und verfahren zu deren bedienung

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6394669B2 (ja) * 2016-09-30 2018-09-26 トヨタ自動車株式会社 車両用操作装置
JP6719087B2 (ja) * 2017-12-08 2020-07-08 パナソニックIpマネジメント株式会社 入力装置、及び、入力方法
JP7144721B2 (ja) 2018-05-25 2022-09-30 株式会社デンソー 車両用表示制御システム、車両用表示制御プログラム及び記憶媒体
JP7265822B2 (ja) * 2018-08-27 2023-04-27 キヤノン株式会社 表示制御装置および表示制御方法、並びにプログラム
JP6778735B2 (ja) * 2018-12-26 2020-11-04 本田技研工業株式会社 表示装置、表示方法、およびプログラム
US20200257442A1 (en) * 2019-02-12 2020-08-13 Volvo Car Corporation Display and input mirroring on heads-up display
USD947229S1 (en) * 2020-03-27 2022-03-29 Guangzhou Weride Technology Limited Company Display screen with animated graphical user interface for vehicle status
JP7378902B2 (ja) * 2020-03-31 2023-11-14 アルパイン株式会社 操作制御装置
KR102614112B1 (ko) * 2021-11-19 2023-12-15 주식회사 코리아하이텍 차량용 중앙 정보 디스플레이

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015172844A (ja) 2014-03-11 2015-10-01 トヨタ自動車株式会社 車両用操作装置
JP2016004482A (ja) 2014-06-18 2016-01-12 株式会社デンソー 2個のディスプレイを制御するディスプレイ制御装置およびディスプレイ制御装置用のプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269012A (ja) * 1997-03-28 1998-10-09 Yazaki Corp タッチパネルコントローラ及びこれを用いた情報表示装置
JP4356763B2 (ja) * 2007-01-30 2009-11-04 トヨタ自動車株式会社 操作装置
JP5239328B2 (ja) 2007-12-21 2013-07-17 ソニー株式会社 情報処理装置及びタッチ動作認識方法
US20090256813A1 (en) * 2008-04-09 2009-10-15 Amici Alan J Vehicle moving-image interface
JP4715867B2 (ja) * 2008-06-04 2011-07-06 株式会社デンソー 操作表示制御システム。
US8836645B2 (en) * 2008-12-09 2014-09-16 Microsoft Corporation Touch input interpretation
US20120013548A1 (en) * 2010-07-19 2012-01-19 Honda Motor Co., Ltd. Human-Machine Interface System
JP2012093887A (ja) * 2010-10-26 2012-05-17 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
JP5472256B2 (ja) 2011-05-06 2014-04-16 株式会社デンソー 車両用表示装置および情報表示システム
US20140304636A1 (en) * 2011-08-31 2014-10-09 Qoros Automotive Co., Ltd. Vehicle's interactive system
JP5754410B2 (ja) * 2012-04-13 2015-07-29 トヨタ自動車株式会社 表示装置
CN102789363A (zh) * 2012-06-29 2012-11-21 惠州华阳通用电子有限公司 车载系统及其显示方法
JP6120057B2 (ja) * 2013-02-01 2017-04-26 日本精機株式会社 車両用情報提供装置
DE102013009009B4 (de) * 2013-05-17 2023-08-03 Elektrobit Automotive Gmbh System und Verfahren zur Datenauswahl mittels einer berührungsempfindlichen Oberfläche
US9244532B2 (en) * 2013-12-31 2016-01-26 Immersion Corporation Systems and methods for controlling multiple displays with single controller and haptic enabled user interface
KR101655810B1 (ko) * 2014-04-22 2016-09-22 엘지전자 주식회사 차량용 디스플레이 장치
JP6390380B2 (ja) * 2014-11-25 2018-09-19 トヨタ自動車株式会社 表示操作装置
JP6464869B2 (ja) * 2015-03-25 2019-02-06 株式会社デンソー 操作システム
JP6515188B2 (ja) * 2015-09-24 2019-05-15 アイシン・エィ・ダブリュ株式会社 操作システム、操作方法、及び操作プログラム
KR101806892B1 (ko) * 2016-05-09 2018-01-10 엘지전자 주식회사 차량용 제어장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015172844A (ja) 2014-03-11 2015-10-01 トヨタ自動車株式会社 車両用操作装置
JP2016004482A (ja) 2014-06-18 2016-01-12 株式会社デンソー 2個のディスプレイを制御するディスプレイ制御装置およびディスプレイ制御装置用のプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024132042A1 (de) * 2022-12-22 2024-06-27 Continental Automotive Technologies GmbH Anzeigevorrichtung und verfahren zu deren bedienung

Also Published As

Publication number Publication date
JP6614087B2 (ja) 2019-12-04
CN107918504A (zh) 2018-04-17
CN107918504B (zh) 2020-12-18
US10346118B2 (en) 2019-07-09
JP2018060388A (ja) 2018-04-12
US20180101351A1 (en) 2018-04-12

Similar Documents

Publication Publication Date Title
DE102017122396A1 (de) Fahrzeugseitige Betätigungsvorrichtung
DE102010027915A1 (de) Benutzer-Schnittstellen-Einrichtung zum Steuern eines Fahrzeug-Multimedia-Systems
DE102018221024A1 (de) Einrichtung und verfahren zum betätigen eines auf einer berührungssteuerung basierenden lenkrads
DE112012002931T5 (de) Verfahren, Vorrichtung, Computer und Mobilvorrichtung zum Anzeigen und Fahrzeug mit der Vorrichtung
DE102012112456A1 (de) Display-System, Display-Vorrichtung, Bedienvorrichtung und Funktionsauswahlvorrichtung
DE102009048043A1 (de) Multifunktionsanzeige- und Bediensystem sowie Verfahren zum Steuern eines solchen Systems mit optimierter grafischer Bediendarstellung
EP3234743B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs in unterschiedlichen bedienmodi sowie bedienvorrichtung und kraftfahrzeug
DE102015200036A1 (de) Verfahren und Vorrichtung in einem Kraftfahrzeug zur Eingabe von Daten mit zwei Eingabearten und haptischer Rückkopplung
EP3116737B1 (de) Verfahren und vorrichtung zum bereitstellen einer graphischen nutzerschnittstelle in einem fahrzeug
DE102012109039A1 (de) Fahrzeugbedienungseingabevorrichtung und Steuerverfahren für eine Fahrzeugbedienungseingabevorrichtung
EP2704634B1 (de) Multifunktionsbedieneinrichtung
DE102009008041A1 (de) Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Touchscreen
DE102011111123A1 (de) Vorrichtung zur Steuerung von Funktionen elektronischer Ein-richtungen eines Fahrzeugs und Fahrzeug mit der Vorrichtung
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
EP2955614A1 (de) Anwenderschnittstelle und verfahren zum anpassen einer semantischen skalierung einer kachel
DE102011116120A1 (de) Verfahren zum Bereitstellen einer Bedienvorrichtung in einem Fahrzeug und Bedienvorrichtung für ein Fahrzeug
DE102016201811A1 (de) Anzeigeeinrichtung für Fahrzeug
EP3108331A1 (de) Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus
DE102013021978A1 (de) Verfahren und mobiles Endgerät zur augmentierten Darstellung mindestens eines realen Bedienelements und/oder... eines realen Objekts
WO2010026044A1 (de) Verfahren und vorrichtung zum anzeigen von information, insbesondere in einem fahrzeug
DE102013016196B4 (de) Kraftfahrzeugbedienung mittels kombinierter Eingabemodalitäten
EP3234749B1 (de) Anwenderschnittstelle und verfahren zur individualisierung eines anzeigeinhaltes in einem fortbewegungsmittel
DE102009059869A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle und Bedienvorrichtung
EP2030828A2 (de) Multimodales Bediensystem und Verfahren zum Bedienen von Komponenten und Funktionen in einem Kraftfahrzeug
WO2017140569A1 (de) Kraftfahrzeug-bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung, um eine wechselwirkung zwischen einer virtuellen darstellungsebene und einer hand zu bewirken

Legal Events

Date Code Title Description
R012 Request for examination validly filed