[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2021028274A1 - Bediensystem und verfahren zum betreiben des bediensystems - Google Patents

Bediensystem und verfahren zum betreiben des bediensystems Download PDF

Info

Publication number
WO2021028274A1
WO2021028274A1 PCT/EP2020/071934 EP2020071934W WO2021028274A1 WO 2021028274 A1 WO2021028274 A1 WO 2021028274A1 EP 2020071934 W EP2020071934 W EP 2020071934W WO 2021028274 A1 WO2021028274 A1 WO 2021028274A1
Authority
WO
WIPO (PCT)
Prior art keywords
input unit
operating
shape
activated
operating state
Prior art date
Application number
PCT/EP2020/071934
Other languages
English (en)
French (fr)
Inventor
Sarah Brauns
Eva Berner
Carsten Temming
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Publication of WO2021028274A1 publication Critical patent/WO2021028274A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/128Axially displaceable input devices for instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1434Touch panels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI

Definitions

  • the present invention relates to an operating system, in particular for a vehicle, and a method for operating the operating system.
  • AR augmented reality
  • VR virtual reality
  • augmented reality methods for example, a perception of reality in a user's environment is supplemented by virtual objects generated by means of a computer, which for example output additional information or provide options for interaction.
  • augmented reality and virtual reality are used as essentially analog, since no clear distinction is often made in common linguistic usage.
  • AR display devices such as glasses, contact lenses or projection solutions will be available everywhere.
  • AR display devices such as glasses, contact lenses or projection solutions
  • road traffic such as pedestrian navigation
  • a manually operable control element in particular a steering wheel or a center console, is no longer absolutely necessary, which means that an alternative interaction path is required, for example using a handheld device.
  • a device for supplementing an instrument panel by means of augmented reality is known. Functions can be activated and certain information displayed based on the direction of view of a driver of a vehicle. Inputs can be recorded, for example, using a touchscreen or voice control.
  • DE 10349673 A1 proposes a device for entering data in a motor vehicle, in which the data entered are displayed in the driver's field of vision.
  • the input takes place, for example, by means of a touch panel for handwritten input.
  • KR 10-2013-0036934 a head-up display is described in which the display of a cell phone is projected into the driver's field of vision.
  • the present invention is based on the object of providing an operating system and a method for its operation which allow particularly simple and socially acceptable operation.
  • the operating system comprises a control unit which is set up to generate output data for a graphical user interface, an output unit for outputting the output data and an input unit for detecting an actuation action. At least a first and a second operating state can be activated for the user interface.
  • the control unit is set up to generate a shape control signal as a function of the activated first or second operating state of the user interface and to transmit it to the input unit, the input unit having a deformation element which is set up to use the shape control signal to generate a first Form the input unit when the first Operating state is activated, and to form a second geometric shape of the input unit when the second operating state is activated.
  • the user advantageously receives clear, in particular also haptically detectable, feedback about the operating state of the user interface by means of the input unit.
  • new modes of operation can be provided, for example in order to be able to operate in different contexts. This is particularly important when used in the area of augmented reality, since the user should enter the experience of a virtually generated or expanded environment as seamlessly as possible, in which interactions with operable elements can follow very different operating modes.
  • certain initial functions such as scrolling or zooming, can be carried out by means of the input unit, without first having to perform a separate operating step through which, for example, a “tool” or a mode of operation can be selected got to.
  • the user interface includes, in particular, a graphic representation for a human-machine interface.
  • Technical facilities can be operated by means of control elements, for which purpose buttons or symbols of the display can be used.
  • the user interface can include switching and control elements which represent the operation of a functionality in a manner that can be grasped by a person. For example, the amount of a parameter can be displayed and its setting can be visualized by a setting element.
  • the user interface can also include elements for displaying information and thus enable output that can be interpreted by a human being. In particular, it is designed as a graphical user interface in a manner known per se.
  • the deformation element of the input unit has a position relative to further elements of the input unit, and the relative position can be set in order to form the first or two geometric shape.
  • the shape can advantageously be changed particularly easily.
  • the deformation element when setting the geometric shape of the input unit, the shape of its surface is set. Furthermore, the position of the center of gravity of the input unit can be adjusted.
  • the deformation element can comprise an actuator or be coupled to an actuator.
  • the relative position of the deformation element affects his Arrangement relative to the other elements of the input unit.
  • the position can be adjusted, for example, by moving and / or rotating the deformation element.
  • the deformation element is designed in particular in such a way that its extent changes in at least one direction.
  • the deformation element can be elongated and change its length in the longitudinal direction.
  • the operating state of the user interface can be defined in various ways. For example, it can relate to the availability of certain operable functionalities, so that an operating state is activated when the functionalities are available and can be operated by means of an actuation action.
  • the operating status can relate to the user interface as a whole or to individual elements or objects.
  • the operating status can also be defined by the status of an object within the user interface.
  • This object can be selected, for example, either automatically or by means of a selection operator action.
  • the shape control signal is designed so that the shape of the input unit is formed depending on the activated state of the object.
  • the operating state can also be defined as a function of an active operating mode. For example, operation by scrolling along a certain direction or axis can be possible and the operating mode can be defined as a function of this direction or axis. In a further example, the operation can be carried out by means of a touch gesture, by moving or exerting pressure on a specific area of the input unit.
  • the shape of the input unit can be set in such a way that it is possible to detect which operating mode is currently active, for example to operate a specific object or the user interface.
  • an operating state can be defined in which no interaction with an object on the operating surface can be carried out, for example in the case of a pure information display. Furthermore, an operating state can be defined in which a specific input is requested, for example to confirm, select an option or press a button.
  • the first operating state can be a display state and the second operating state can be a configuration state.
  • the display status can be defined in such a way that a status is output for a specific object on the user interface certain information is activated.
  • the configuration state can be defined in such a way that this object of the user interface is designed in such a way that settings can be made.
  • the information output in the display state can be selected or otherwise configured.
  • the second operating state can also be a configuration state for the user interface as a whole, whereby, for example, objects can be selected that are included in the user interface, or parameters can be set using the user interface or the objects it comprises.
  • the input unit is set up to generate an operating state change signal when a change in position of the input unit is detected, for example a rotation of the input unit, wherein if the change in position includes a rotation or pivoting about a certain angle, the angle with a certain threshold value is compared. If the angle exceeds the threshold value, an operating state change signal is generated for changing the operating state.
  • the operating state change signal can be generated when the input unit is turned around a specific axis.
  • the output data can include a graphic object indicating the geometric shape of the input unit and / or the activated operating state.
  • the output includes a graphic object, the geometry of which corresponds at least schematically to a geometry of the shape of the input unit.
  • the operating system is set up in such a way that a control signal is generated upon the detection of an actuation action.
  • This can be transmitted to the control unit and, for example, lead to an interaction with the user interface or an object encompassed by it.
  • an object can be selected and a function assigned to the object can be activated or deactivated.
  • an adjustable parameter can be transmitted to a device for setting.
  • the shape of the input unit can be changed by means of an actuation, in particular by an external force, and depending on the changed shape, the first or second operating state of the input unit can be activated.
  • the position and / or alignment of the deformation element is changed.
  • the operating state can advantageously be set particularly easily.
  • the activation of the operating state can in particular relate to the entire user interface or to an object that it comprises.
  • the graphical representation of the user interface or an object it encompasses can be changed. For example, a scrolling direction is changed, for example by tilting a representation of a scrollable list of list entries.
  • the shape of the input unit can be changed both actively by means of the deformation element and on the basis of the shape control signal, as well as passively by physical action from the outside, in particular by a force acting on the input unit or on the deformation element.
  • the position of the deformation element of the input unit can be changed from the outside by moving and / or rotating.
  • the shape can be changed by exerting pressure on a certain area of the input unit, for example in the case of a flexible area which is designed to be deformable and whose deformation can also be detected.
  • a display or configuration mode is set, for example. That is, by changing the shape of the input unit by means of an external force, the operating state can be changed.
  • the input unit comprises at least one sensor element for detecting a change in shape and / or a force acting on the input unit.
  • the sensor element is particularly suitable for detecting an actuation action by means of different physical detection principles. For example, touching or approaching an area of the surface of the input unit can be detected, for example by means of a capacitive sensor.
  • a position of the input unit can be detected, for example by means of a gyroscopic sensor or an acceleration sensor or a sensor for determining the position.
  • An actuation action that can be detected by means of the input unit can take place in various ways.
  • the actuation action is carried out in such a way that it has a specific relation to an object of the user interface or to a functionality linked to the object.
  • An actuation action can include, for example, touching an area on the surface of the input unit, exerting pressure on the input unit or a specific orientation or positioning of the input unit.
  • You can also change the position of the Include touch, for example a swiping gesture that is executed on the surface of the input unit, or a change in position and / or orientation, for example by moving the input unit along a trajectory, with the speed also being able to be taken into account.
  • a three-dimensional gesture is carried out.
  • Actuation handling can include rotating or pivoting, a specific orientation, for example to point to a specific position or in a direction.
  • the actuation action can furthermore comprise a combination of several action elements, for example a simultaneous movement along different degrees of freedom or successive movements and further actuations.
  • the input unit can in particular be designed so that a feedback is generated when the actuation action is carried out, for example through a haptically detectable elastic deformation of the input unit and / or an acoustically perceptible click during actuation, for example when a pressure is exerted on the surface of the input unit.
  • the actuation action comprises a movement of the input unit along a specific trajectory, an acceleration, a change in position, a touch or a swiping gesture along a surface of the input unit.
  • the actuation is thereby advantageously particularly simple.
  • the input unit is brought into a certain position during the actuation action, for example an alignment and / or positions of the input unit being detected in order to perform a pointing gesture, for example.
  • an alignment in a gravitational field can be detected, for example.
  • An actuation action can also relate to a change in position, in particular as a function of time, for example moving the input unit along a trajectory in a two- or three-dimensional space, executing a specific acceleration and / or a rotation or a tilting movement.
  • a specific surface area of the input unit is designed as an interaction surface, wherein a contact by means of an actuation object can be detected in the specific surface area.
  • the actuation object is a hand of a user.
  • the interaction surface can be configured in a manner known per se and in particular comprise a sensor element for detecting a touch or approach, for example by means of capacitive or resistive sensors. For example, the position of a contact and, if necessary, a change in the position as a function of time is recorded.
  • a direction, trajectory and / or speed of the movement can be recorded.
  • the input unit is designed in particular in such a way that a variable surface area can be activated as an interaction surface.
  • the input unit can have boundary surfaces which can be fully or partially activated as interaction surfaces.
  • the input unit can have a polyhedral shape for this purpose.
  • the interaction surface is formed in particular as a function of the activated operating state, for example together with the change in the shape of the input unit.
  • the specific surface area can be highlighted by means of an optical highlight.
  • the surface area of the interaction surface is emphasized, for example, by means of a brightness or color that is different from the surroundings.
  • the surface area can also be highlighted optically, for example by changing the shape of the input unit in such a way that the interaction surface can be detected haptically, for example as a raised area of the surface.
  • the input unit is wirelessly coupled to the control unit and designed to be movable by a user.
  • the input unit can be used without a fixed connection to another unit. The input can thereby advantageously take place in a particularly flexible manner.
  • the input unit has dimensions that enable the user to hold it in one hand.
  • the input unit can also have a grip area that makes it easier to hold.
  • the shape of the input unit can be designed in such a way that holding it in a certain orientation relative to the hand of the user is favored, for example in the case of an elongated shape which favors an orientation essentially at an angle to the course of the user's forearm.
  • the input unit can furthermore be designed such that it is not larger than 10 cm in any direction, preferably not larger than 7 cm, more preferably not larger than 5 cm.
  • a receiving unit can be provided for the input unit in which, for example, the input unit can be put down in such a way that unintentional slipping or falling is avoided.
  • a receiving unit can also be used to charge an energy store of the input unit. For example, an inductive method can be used for charging, or an electrically conductive connection can be established between the input unit and the receiving unit.
  • the user interface When outputting the output data, the user interface is displayed, which can also be done in a manner known per se.
  • a display area can be used for this.
  • means of expanded or virtual reality can be used for output, with elements of a real environment being enriched with virtually generated elements, for example.
  • the output can comprise a graphic output of image or video data which reproduce the real environment, with additional graphic elements being generated and included in the output.
  • the output can be generated and output in such a way that a user perceives the real environment directly, for example through a vehicle window or glasses, while at the same time the output is projected into his field of vision or into his eye, for example in a head-up display or in the case of glasses with a corresponding display or projection unit, that the virtual objects appear in the environment from the perspective of the user.
  • the output unit is designed such that the output data can be output at a distance from the input unit. A particularly flexible output can thereby advantageously take place.
  • the output does not take place by means of a so-called touchscreen, in which inputs are recorded in the same area in which the output takes place.
  • a touchscreen for output can be combined with an input unit spaced therefrom.
  • the output unit can be designed in such a way that the output takes place with means of augmented or virtual reality.
  • the operating system can furthermore comprise a combination of different output units, for example a combination of a touchscreen with an output unit for augmented reality.
  • the output unit comprises a head-up display or a display unit worn on the body of a user, for example glasses.
  • the method can thereby advantageously be combined particularly easily with known methods of augmented or virtual reality.
  • a direction of view of a user can be recorded, with a real subset of operating objects of the user interface being selectable as a function of the recorded direction of view.
  • a subsequent actuation action leads to a selection or actuation of an individual operating object of the subset. This advantageously facilitates a selection between a number of control objects on the user interface.
  • the direction of gaze can be detected in a manner known per se, in particular by following the movement of an eye and / or a head posture.
  • the selection of the subset of operating objects takes place in such a way that operating objects arranged only in a certain sub-area of the user interface are selected, the sub-area being defined, for example, by the viewing direction and a predetermined radius or an environment defined in some other way. In particular, a preselection is thereby carried out.
  • the input unit comprises an actuator for generating a vibration.
  • the control unit is set up to generate a feedback signal and to transmit it to the input unit, a vibration being output as feedback for an actuation action or an event of the user interface on the basis of the feedback signal.
  • the input unit vibrates in order to confirm that an actuation action has been detected, in which case the feedback signal is formed with a vibration that is dependent on the type of actuation action detected.
  • a vibration can also be used as a feedback signal to signal that a specific control signal has been generated, for example an actuation or selection of an object on the user interface or a setting of a specific value.
  • the vibration can be formed in a manner known per se.
  • vibrations of different intensity or frequency and possibly with different vibration directions can be output in order to generate different feedback signals.
  • a feedback signal can be generated such that the greater the set value of the parameter, the greater the intensity of the vibration.
  • the lower the set value the weaker the vibration.
  • the input unit is assigned to a user.
  • the input unit can comprise a memory element on which settings and / or other personal data of a user are stored, or it can comprise identification information by means of which the user can be identified and settings and other data can be recorded.
  • a high degree of personalization can advantageously be achieved and the input unit can be designed as a user's personal device. The user can then operate in the same or a similar manner in different contexts, in different positions and for different operating systems, for example by actuating virtual objects in an analogous manner or arranging virtual objects in a similar manner.
  • the input unit can be designed as a mobile device assigned to a user.
  • the user can carry this with him, for example, when he starts a vehicle or to operate another operating system, for example in the area of home automation or in public spaces. He is then advantageously already familiar with the operation and can carry it out using an individually configured input unit.
  • the operating system allows interaction with a user interface of augmented reality in various ways.
  • a gesture control can be carried out as an actuation action, for example, wherein a gesture can be detected using a touch-sensitive surface of the input unit and / or using sensors to determine the position, speed or acceleration of the input unit in three-dimensional space. While gestures carried out with great amplitude and clarity in public space can attract attention and meet with rejection, the actuation action in the operating system can be carried out discretely by means of small movements and / or using a small-sized input unit.
  • an operation is implemented in which a preselection of objects of the user interface is carried out based on the direction in which the user is looking, which objects are then individually selected or operated by an operating action using the input unit, for example by scrolling, rotating, or swiping or repeated actuation.
  • This makes use of the fact that the selection is particularly simple on the basis of the viewing direction, although a detailed and precise selection or determination of the viewing direction can be difficult. This more precise selection is therefore made by means of the input unit, the preselection based on the viewing direction saving the user a greater number of operating steps here.
  • voice control can be used alternatively or additionally in the operating system, for example to confirm an input or to carry out an actuation, preselection or selection. This avoids the disadvantages of pure voice control, which can only be used to a limited extent in public for reasons of privacy or due to disturbances in the environment.
  • output data for a graphical user interface are generated and output and an operating action is recorded.
  • At least a first and a second operating state can be activated for the user interface.
  • a shape control signal is generated and transmitted to the input unit, a deformation element using the shape control signal to form a first shape of the input unit when the first operating state is activated, and a second geometric shape Forms the input unit when the second operating state is activated.
  • the method according to the invention is designed to operate the operating system according to the invention described above.
  • the method thus has the same advantages as the operating system according to the invention.
  • Figure 1 shows an embodiment of the control system according to the invention in a vehicle
  • FIGS. 2A and 2B show exemplary embodiments of outputs that can be generated in the method according to the invention
  • FIGS. 3A and 3B show a first exemplary embodiment of a change in shape of the input unit of the operating system
  • FIGS third embodiment of a change in shape of the input unit of the operating system With reference to FIG. 1, an exemplary embodiment of the operating system according to the invention is explained in a vehicle.
  • the vehicle 1 comprises a control unit 2 to which an output unit 3, in the exemplary embodiment a head-up display 3, and an input unit 4 are coupled.
  • the input unit 4 comprises a sensor 5 and a deformation element 6.
  • a device 7 of the vehicle 1 is also coupled to the control unit 2, a navigation unit 7 in the exemplary embodiment.
  • the input unit 4 is assigned to a specific user and settings personalized for this user are stored for the input unit 4.
  • the storage takes place in a memory element of the input unit 4; alternatively or additionally, the input unit 4 can store an identification by means of which the corresponding settings can be called up when the input unit 4 is used.
  • FIGS. 2A and 2B Examples of outputs that can be generated in the method according to the invention are explained with reference to FIGS. 2A and 2B. This is based on the exemplary embodiment of the operating system according to the invention explained above, which is further specified by the description of the method.
  • the control unit 2 generates an output which is projected into the field of view of the driver of the vehicle 1 by means of the output unit 3, for example the head-up display 3 or augmented reality glasses, so that it is simultaneously with the view the surroundings of the vehicle 1 appear superimposed.
  • the output takes place by means of a different type of output unit 3, in particular a different output unit for virtual reality.
  • the entire display visible to the user can also be generated virtually, in particular in that a real view of the surroundings is displayed by means of the output unit 3.
  • the output in this case includes images of the surroundings captured by means of a video camera and virtual objects displayed in addition.
  • the real environment of the vehicle 1 is indicated by the lane markings 10, while the output unit 3 additionally projects virtual objects 11 to 15 into the field of view.
  • the output as virtual objects comprises an output of a speed limit 11, which is output as a representation of a traffic sign, one that is represented numerically current speed 12, a list 13 with list entries 13a, a symbol as a marker 14 and, at marker 14, an information box 15 with a representation of text.
  • the real environment 20, in particular a lane marking 20, is also indicated.
  • virtual objects 21, 22, 23 projected into the user's field of view are shown, which represent active widgets 21, 23 and inactive widgets 22.
  • a further virtual object 24 is shown, which represents a route display 24. These are arranged vertically one above the other along an arch structure in the right and left areas. Further virtual objects can also be displayed, for example information displays about other runners on the route.
  • the active widgets 21, 23 shown in FIG. 2B are shown enlarged compared to the inactive widgets 22. They can also be emphasized more clearly by means of graphic highlighting that is known per se.
  • text information is also displayed, in particular possible actions that can be carried out by actuating the respective active widget 21, 23.
  • an active wdget 21 is provided to control navigation along a running route, which is output by a virtual route display 24.
  • An actuation can, for example, end navigation or trigger another action.
  • virtual objects can be selected for interaction, for example by means of gaze control.
  • a viewing direction of the user is recorded and it is determined which virtual object the gaze is directed at.
  • This object is then selected, for example after the gaze has been continuously directed at the virtual object for a certain time interval.
  • Interactions can then be carried out by means of the input unit 4.
  • virtual objects can be actuated in order to develop or activate an action or functionality, or the display can be changed, for example by selecting and configuring content to be displayed.
  • the input unit 4 can be arranged in different ways; it can, for example, be in the hand of the user or be fixedly attached to a certain position in the vehicle 1.
  • a control signal for a device can be generated and output, for example for a navigation system 7 of the vehicle 1.
  • a preselection to be made based on the user's viewing direction. The direction of view is determined and the objects arranged there are preselected in a certain radius around a point within the user interface at which the eye is directed, which is in particular a real subset of the virtual objects of the entire user interface.
  • a specific virtual object can then be selected and / or activated by a further operating action, for example further directing the view to a specific point or by activating the input unit 4.
  • FIGS. 3A and 3B A first example of a change in shape of the input unit of the operating system is explained with reference to FIGS. 3A and 3B. This is based on the examples explained above.
  • the input unit 34 comprises a deformation element 36a, 36b, which is shown in a horizontal configuration 36a and in a vertical configuration 36b.
  • the deformation element can actively switch between these configurations 36a, 36b, but the configuration 36a, 36b can also be changed passively by forces acting on the deformation element 36a, 36b from the outside.
  • the input unit 34 is pentagonal, while the deformation element 36 is elongated and arranged centrally on the surface of the input unit 34.
  • Interaction areas 35a, 35b, 35c are formed on a surface of input unit 34.
  • One of the interaction surfaces 35c is formed on the deformation element 36a and follows its configuration. That is, with a horizontal configuration of the deformation element 36a, the interaction surface 35c is also elongated and aligned horizontally, with a vertical configuration of the deformation element 36b, the interaction surface 35c is also arranged vertically in the same way (not shown).
  • the interaction surfaces 35a, 35b, 35c are designed as touch-sensitive surface areas of the input unit 34.
  • the input unit 35 is formed such that it can be slightly elastically deformed in the region of one of the interaction surfaces 35a by pressure perpendicular to the surface, in particular in the manner of a push button. Haptic and acoustic feedback is generated by the deformation and an audible click.
  • lighting elements are also arranged on the surface of the input unit 34 and feedback about operable areas and / or areas is displayed using an optical parameter, for example by highlighting them by means of a brightness or color. The user can thus see in which areas an actuation can be carried out.
  • visual feedback can also be output during operation, for example by changing an optical parameter, for example by the lighting following the course of a swiping gesture, an area lighting up after an actuation or alternatively actuatable areas being highlighted when prompted.
  • Different surfaces can also be illuminated in different ways, for example with different colors, brightness or flashing frequency, in order to indicate different input options, such as acceptance or rejection, activation or deactivation.
  • lighting elements can be arranged on the edge of the input unit 34.
  • the input unit 34 is designed with two layers lying one on top of the other and has a gap at the edge, in which actuation takes place through pressure and elastic deformation of the layers in the area of the gap. Its operability can be indicated by lighting in the gap. Furthermore, the lighting can change when it is actuated, in particular to confirm this.
  • touches, the exertion of pressure on a position of the interaction surfaces 35a, 35b, 35c or gestures executed with the input unit 34 are recorded as actuation actions.
  • actuation actions As a function of this, a user can interact with virtual objects of the user interface, for example by making a selection or actuation, scrolling or shifting or making an entry.
  • various operating states are assigned to the configurations 36a, 36b.
  • these are defined in such a way that the user interface in the first operating state includes a menu with widgets for information output and fast operation of individual functionalities, while the user interface in the second operating state includes a selection of displayable widgets or operating options for functionalities. That is, in the first operating state, a user can use the display to capture information and, if necessary, act on the operation of functions linked to the widgets; it is therefore a display state. In contrast, it is possible for the user in the second operating state to use the information and Select functions, for example by selecting from a menu or a list; it is therefore a configuration state.
  • the first and second operating states differ in a direction marked for operation, in particular a direction in which a list can be searched through by scrolling or paging. If the elements of the list to be searched can be searched in a horizontal direction, for example by means of a swiping gesture carried out in a horizontal direction, the first operating state is activated and, for example, the deformation element 36a is aligned in a horizontal configuration. In contrast, a vertical configuration 36b can be set if the elements of the list can be searched in a vertical direction, for example by a swiping gesture carried out in the horizontal direction.
  • first and second operating status are provided.
  • a larger number of operating states is possible, for example different angles can be set for the deformation element 36a, 36b and / or different interaction surfaces 35a, 35b, 35c can be formed.
  • the example automatically switches between the operating states when a signal for switching is detected.
  • a signal can be generated automatically, for example when performing a specific function.
  • the signal can be generated on the basis of a user input, for example by selecting a specific virtual object.
  • the operating state can also be changed in that the deformation element 36a, 36b is displaced by an external force, for example by a user rotating the deformation element 36a, 36b. In this way, the user can switch between a display and a configuration state in particular.
  • the output includes a schematic display of the currently set configuration 36a, 36b of the input unit 34 and / or another display of the currently activated operating mode.
  • the input unit 41 has a triangular shape, in particular the shape of an equilateral triangle.
  • a deformation element 42a, 42b, also designed as an equilateral triangle, is arranged in a central area, the orientation of which can be rotated between a first orientation 42a, in which the tips of the deformation element 42a point to the sides of the triangular shape of the input unit 41, and a second orientation 42b, in which the sides of the deformation element 42b are essentially parallel to the sides of the triangular shape of the input unit 41.
  • This rotation can be carried out actively by the input unit 41 or it can be carried out passively when a force is exerted on the deformation element 42a, 42b from the outside.
  • the input unit 41 has three interaction surfaces 43, 44, 45, which extend essentially over the entire surface of the input unit 41 facing the user, beyond the deformation element 42a, 42b.
  • the interaction surfaces 43, 44, 45 are designed as touch-sensitive surfaces and can also be actuated by exerting pressure perpendicular to the surface of the input unit 41.
  • FIGS. 5A to 5E A third example of a change in shape of the input unit of the operating system is explained with reference to FIGS. 5A to 5E. This is based on the examples explained above.
  • the input unit 51 is designed essentially analogously to the examples explained above. It has the shape of a rounded isosceles triangle, with the apex of the triangle pointing upwards and the laterally downwardly extending sides of the triangle being longer than the horizontally extending sides. It is assumed that a user rotates the input unit 51 from an original position, as shown in FIG. 5A, about an axis running perpendicular to the image surface, for example by an angle of 120 °.
  • FIGS. 5A to 5E show a simultaneous change in the shape of the input unit 51 in each case after a specific time step, the earlier shape 52 of the input unit 51 being indicated at the previous time step.
  • the shape of the input unit 51 changes in such a way that the input unit 51 is rotated by 180 ° at the end point of the movement, shown in FIG. 5E, compared to the initial shape shown in FIG. 5A.
  • the proportions of the side lengths shift so that the previously The shorter side assumes the length of the two longer legs of the triangle, while one of the longer sides is shortened and is located at the top at the end of the movement.
  • the apex of the triangle points down towards the end of the movement, shown in Figure 5E.
  • the example shown here can also be designed in such a way that the shape of the input unit 51 changes completely actively so that the states shown in FIGS. 5A to 5E are reached. In this case there is no rotation by a user, but the apparent rotation by 180 ° takes place exclusively by changing the edge lengths of the triangle.
  • the input unit 51 is held in a holder or it is supported in another way.
  • the input units 4, 34, 41, 51 each include sensors for detecting the position and an acceleration of the input unit 4, 34, 41, 51. In this way, it can be detected, for example, when the input unit 4, 34, 41, 51 is rotated in one direction. Furthermore, an alignment of the input unit 4, 34, 41, 51 can be detected, in particular to implement a pointing gesture in which a point within the user interface is determined based on the alignment of the input unit 4, 34, 41, 51, for example around this position mark or to mark a virtual object arranged there, select, actuate or operate in another way. Furthermore, gestures can be recorded in which a user moves the input unit 4, 34, 41, 51 in three-dimensional space along a specific trajectory, possibly at a specific speed and / or acceleration.
  • the input unit 4, 34, 41, 51 is arranged on a handlebar of the vehicle 1. It can be, for example, the handlebar or a comparable control device of a motor vehicle, a bicycle, a drone or a scooter.
  • the input unit 4, 34, 41, 51 is particularly movably and removable. A user can transfer the input unit 4, 34, 41, 51, in particular if it is individually personalized for him, between different vehicles 1 and thus achieve similar operation in different contexts.
  • Virtual object List a virtual object; List entries
  • Input unit (previous outline)

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Das Bediensystem umfasst eine Steuereinheit (2), die dazu eingerichtet ist, Ausgabedaten für eine grafische Bedienoberfläche zu erzeugen, eine Ausgabeeinheit (3) zum Ausgeben der Ausgabedaten und eine Eingabeeinheit (4; 34) zum Erfassen einer Betätigungshandlung. Dabei ist für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar. Dabei ist die Steuereinheit (2) dazu eingerichtet, in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form-Steuerungssignal zu erzeugen und an die Eingabeeinheit (4; 34) zu übertragen, wobei die Eingabeeinheit (4; 34) ein Verformungselement (6; 36a, 36b) aufweist, das dazu eingerichtet ist, anhand des Form-Steuerungssignals eine erste Form der Eingabeeinheit (4; 34) auszubilden, wenn der erste Bedienzustand aktiviert ist und eine zweite geometrische Form der Eingabeeinheit (4; 34) auszubilden, wenn der zweite Bedienzustand aktiviert ist. Vorgeschlagen wird ferner ein Verfahren zum Betreiben eines Bediensystems.

Description

Beschreibung
Bediensystem und Verfahren zum Betreiben des Bediensystems
Die vorliegende Erfindung betrifft ein Bediensystem, insbesondere für ein Fahrzeug, und ein Verfahren zum Betreiben des Bediensystems.
In zunehmendem Maße halten Techniken der Erweiterten Realität (englisch Augmented Reality, AR) beziehungsweise der Virtuellen Realität (englisch: Virtual Reality, VR) Einzug in den Alltag, insbesondere auch in der Automobilindustrie. Bei Verfahren der Erweiterten Realität wird beispielsweise eine Wahrnehmung der Realität in einer Umgebung eines Nutzers um mittels eines Computers erzeugte, virtuelle Objekte ergänzt, die etwa zusätzliche Informationen ausgeben oder Interaktionsmöglichkeiten bereitstellen. Nachfolgend werden die Begriffe Erweiterte Realität und Virtuelle Realität als im Wesentlichen analog verwendet, da auch im üblichen Sprachgebrauch häufig keine klare Unterscheidung getroffen wird.
Es wird davon ausgegangen, dass AR-Anzeigegeräte wie Brillen, Kontaktlinsen oder Projektionslösungen flächendeckend verfügbar sein werden. So wird beispielsweise bereits der Einsatz von AR in fahrenden Fahrzeugen sowie darüber hinaus in anderen Situationen im Straßenverkehr erprobt, etwa bei der Fußgängernavigation. Allerdings fehlt derzeit noch ein geeignetes Bedienkonzept für die virtuellen Inhalte, die den Raum des Nutzers umgeben.
Beispielsweise ist es während einer manuellen Fahrt für den Fahrer schwierig, mithilfe eines Touchscreens oder ähnlicher Eingabemethoden AR-Inhalte zu steuern. Dies ist zudem mit Ablenkung verbunden. Im Falle der autonomen Fahrt ist jedoch ein manuell bedienbares Steuerelement, insbesondere ein Lenkrad oder eine Mittelkonsole, nicht mehr zwingend erforderlich, wodurch es eines alternativen Interaktionswegs bedarf, etwa mittels eines Handheld-Device.
Es werden daher intuitiv zugängliche und innovative Bedienkonzepte für diese Technologie benötigt, die gleichzeitig sozial akzeptiert sind. Diese müssen einfach und schnell bedienbar sein sowie multifunktionelle Anwendungsfälle hinsichtlich der Interaktion mit verschiedensten AR-Inhalten abdecken können. Insbesondere im Kontext von eigener und geteilter Mobilität sollen diese Interaktionsgeräte darüber hinaus bestenfalls überall und beispielsweise von jedem beliebigen Platz im Fahrzeug verwendbar sein. Auf diese Weise wird ein eigener persönlicher Bereich eines Nutzers hergestellt.
Bei bekannten Eingabemöglichkeiten, etwa mittels Gesten oder Sprachbefehlen wird als nachteilig empfunden, dass diese für die Umwelt oft deutlich sicht- oder hörbar sind und störend wirken können.
Aus der US 2013/0144482 A1 ist eine Vorrichtung zum Ergänzen einer Instrumententafel mittels Erweiterter Realität bekannt. Anhand der Blickrichtung eines Fahrers eines Fahrzeugs können Funktionen aktiviert und bestimmte Informationen angezeigt werden. Eingaben können beispielsweise mittels eines Touchscreens oder eine Sprachbedienung erfasst werden.
Die DE 10349673 A1 schlägt eine Vorrichtung zur Dateneingabe in einem Kraftfahrzeug vor, bei der die eingegebenen Daten in einem Sichtfeld des Fahrers angezeigt werden. Die Eingabe erfolgt beispielsweise mittels eines Touch-Panels zur handschriftlichen Eingabe.
In der KR 10-2013-0036934 wird ein Head-up-Display beschrieben, bei dem die Anzeige eines Mobiltelefons ins Sichtfeld des Fahrers projiziert wird.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Bediensystem und ein Verfahren zu dessen Betrieb bereitzustellen, die eine besonders einfache und sozial akzeptierte Bedienung erlauben.
Erfindungsgemäß wird diese Aufgabe durch ein Bediensystem mit den Merkmalen des Anspruchs 1 und ein Verfahren mit den Merkmalen des Anspruchs 10 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.
Das erfindungsgemäße Bediensystem umfasst eine Steuereinheit, die dazu eingerichtet ist, Ausgabedaten für eine grafische Bedienoberfläche zu erzeugen, eine Ausgabeeinheit zum Ausgeben der Ausgabedaten und eine Eingabeeinheit zum Erfassen einer Betätigungshandlung. Dabei ist für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar. Dabei ist die Steuereinheit dazu eingerichtet, in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form- Steuerungssignal zu erzeugen und an die Eingabeeinheit zu übertragen, wobei die Eingabeeinheit ein Verformungselement aufweist, das dazu eingerichtet ist, anhand des Form- Steuerungssignals eine erste Form der Eingabeeinheit auszubilden, wenn der erste Bedienzustand aktiviert ist, und eine zweite geometrische Form der Eingabeeinheit auszubilden, wenn der zweite Bedienzustand aktiviert ist.
Bei diesem Bediensystem erhält der Nutzer vorteilhafterweise eine klare, insbesondere auch haptisch erfassbare Rückmeldung über den Bedienzustand der Bedienoberfläche mittels der Eingabeeinheit. Zudem können so neue Bedienweisen bereitgestellt werden, etwa um eine Bedienung in verschiedenen Kontexten durchführen zu können. Dies ist bei der Anwendung im Bereich der Erweiterten Realität besonders wichtig, da der Nutzer hier möglichst nahtlos in das Erlebnis einer virtuell erzeugten oder erweiterten Umgebung eintreten soll, in der Interaktionen mit bedienbaren Elementen sehr unterschiedlichen Bedienweisen folgen können.
Anders als bei bekannten Eingabegeräten können bei dem erfindungsgemäßen Bediensystem mittels der Eingabeeinheit bestimmte initiale Funktionen, etwa ein Scrollen oder Zoomen, durchgeführt werden, ohne dass hierzu zunächst ein separater Bedienschritt erfolgen muss, durch den beispielsweise ein „Tool“ oder eine Funktionsweise zur Bedienung ausgewählt werden muss.
Die Bedienoberfläche umfasst insbesondere eine grafische Darstellung für eine Mensch- Maschine-Schnittsteile. Dabei sind technische Einrichtungen mittels Steuerelementen bedienbar, wozu etwa Schaltflächen oder Symbole der Darstellung verwendet werden können. Insbesondere kann die Bedienoberfläche Schalt- und Bedienelemente umfassen, welche die Bedienung einer Funktionalität für einen Menschen erfassbar darstellen. Beispielsweise kann der Betrag eines Parameters dargestellt werden und seine Einstellung durch ein Einstellelement visualisiert werden. Die Bedienoberfläche kann ferner Elemente zur Informationsanzeige umfassen und damit eine durch einen Menschen interpretierbare Ausgabe ermöglichen. Sie ist insbesondere auf an sich bekannte Weise als grafische Bedienoberfläche ausgebildet.
Bei einer Ausbildung weist das Verformungselement der Eingabeeinheit eine Lage relativ zu weiteren Elementen der Eingabeeinheit auf und zum Ausbilden der ersten oder zweien geometrischen Form ist die relative Lage einstellbar. Dadurch ist die Form vorteilhafterweise besonders einfach veränderbar.
Insbesondere wird beim Einstellen der geometrischen Form der Eingabeeinheit die Form ihrer Oberfläche eingestellt. Ferner kann die Lage des Schwerpunkts der Eingabeeinheit eingestellt werden. Beispielsweise kann das Verformungselement einen Aktuator umfassen oder mit einem Aktuator gekoppelt sein. Die relative Lage des Verformungselements betrifft dabei seine Anordnung relativ zu den weiteren Elementen der Eingabeeinheit. Die Lage kann beispielsweise durch Verschieben und/oder Rotieren des Verformungselements eingestellt werden. Das Verformungselement ist dabei insbesondere so ausgebildet, dass sich seine Ausdehnung in zumindest eine Richtung verändert. Beispielweise kann das Verformungselement länglich ausgebildet sein und seine Länge in Längserstreckungsrichtung verändern.
Der Bedienzustand der Bedienoberfläche kann auf verschiedene Weisen definiert sein. Er kann beispielweise die Verfügbarkeit bestimmter bedienbarer Funktionalitäten betreffen, sodass ein Bedienzustand aktiviert ist, wenn die Funktionalitäten verfügbar und mittels einer Betätigungshandlung bedienbar sind. Der Bedienzustand kann sich dabei auf die Bedienoberfläche als Ganzes oder auf einzelne Elemente oder Objekte beziehen.
Das heißt, der Bedienzustand kann auch durch den Zustand eines Objekts innerhalb der Bedienoberfläche definiert sein. Dieses Objekt kann beispielsweise ausgewählt werden, entweder automatisch oder mittels eines Auswahl-Bedienhandlung. In einem solchen Fall wird das Form-Steuerungssignal so ausgebildet, dass die Form der Eingabeeinheit in Abhängigkeit von dem aktivierten Zustand des Objekts gebildet wird.
Der Bedienzustand kann ferner in Abhängigkeit von einem aktiven Bedienmodus definiert sein. Beispielsweise kann eine Bedienung mittels Scrollen entlang einer bestimmten Richtung oder Achse möglich sein und der Bedienmodus in Abhängigkeit von dieser Richtung oder Achse definiert sein. In einem weiteren Beispiel kann die Bedienung mittels einer Touch-Geste, mittels Verschiebens oder Ausübens von Drucks auf einen bestimmten Bereich der Eingabeeinheit ausführbar sein. In diesem Fall kann die Form der Eingabeeinheit so eingestellt werden, dass erfassbar ist, welcher Bedienmodus aktuell aktiv ist, etwa um ein bestimmtes Objekt oder die Bedienoberfläche zu bedienen.
Ferner kann ein Bedienzustand definiert sein, in dem keine Interaktion mit einem Objekt der Bedienoberfläche ausführbar ist, etwa bei einer reinen Informationsanzeige. Ferner kann ein Bedienzustand definiert sein, bei dem zu einer bestimmten Eingabe aufgefordert wird, etwa zu einer Bestätigung, einer Auswahl einer Option oder einem Betätigen einer Schaltfläche.
Ferner kann zum Beispiel der erste Bedienzustand ein Anzeigezustand und der zweite Bedienzustand ein Konfigurationszustand sein. Beispielsweise kann der Anzeigezustand so definiert sein, dass für ein bestimmtes Objekt der Bedienoberfläche ein Zustand zur Ausgabe bestimmter Informationen aktiviert ist. Ferner kann der Konfigurationszustand so definiert sein, dass dieses Objekt der Bedienoberfläche so ausgebildet wird, dass Einstellungen vorgenommen werden können. Beispielsweise können die im Anzeigezustand ausgegebenen Informationen ausgewählt oder anderweitig konfiguriert werden.
Der zweite Bedienzustand kann ferner ein Konfigurationszustand für die Bedienoberfläche als Ganzes sein, wobei beispielsweise Objekte ausgewählt werden können, die von der Bedienoberfläche umfasst sind, oder Parameter mittels der Bedienoberfläche oder der von ihr umfassten Objekte eingestellt werden können.
Insbesondere ist die Eingabeeinheit dazu eingerichtet, ein Bedienzustands-Wechselsignal zu erzeugen, wenn eine Lageänderung der Eingabeeinheit erfasst wird, etwa ein Rotieren der Eingabeeinheit, wobei, wenn die Lageänderung eine Rotation oder ein Schwenken um einen bestimmten Winkel umfasst, der Winkel mit einem bestimmten Schwellenwert verglichen wird. Überschreitet der Winkel den Schwellenwert, so wird ein Bedienzustands-Wechselsignal zum Wechseln des Bedienzustands erzeugt. Zum Beispiel kann das Bedienzustands-Wechselsignal erzeugt werden, wenn die Eingabeeinheit um eine bestimmte Achse umgedreht wird.
Insbesondere können die Ausgabedaten ein grafisches Objekt zum Hinweis auf die geometrische Form der Eingabeeinheit und/oder auf den aktivierten Bedienzustand umfassen. Beispielsweise umfasst die Ausgabe ein grafisches Objekt, dessen Geometrie zumindest schematisch einer Geometrie der Form der Eingabeeinheit entspricht.
Das Bediensystem ist so eingerichtet, dass auf die Erfassung einer Betätigungshandlung in ein Steuersignal erzeugt wird. Dieses kann an die Steuereinheit übertragen werden und beispielsweise zu einer Interaktion mit der Bedienoberfläche oder einem von dieser umfassten Objekt führen. Zum Beispiel kann ein Objekt ausgewählt und eine dem Objekt zugeordnete Funktion aktiviert oder deaktiviert werden. Ferner kann in Abhängigkeit von dem Steuersignal ein einstellbarer Parameter an eine Einrichtung zur Einstellung übertragen werden.
Bei einerweiteren Ausbildung ist die Form der Eingabeeinheit mittels einer Betätigungshandlung veränderbar, insbesondere durch eine äußere Krafteinwirkung, und in Abhängigkeit von der veränderten Form ist der erste oder zweite Bedienzustand der Eingabeeinheit aktivierbar. Dabei wird insbesondere die Lage und/oder Ausrichtung des Verformungselements verändert. Dadurch kann der Bedienzustand vorteilhafterweise besonders leicht eingestellt werden. Das Aktivieren des Bedienzustands kann insbesondere die gesamte Bedienoberfläche oder ein von ihr umfasstes Objekt betreffen. Insbesondere kann dabei die grafische Darstellung der Bedienoberfläche oder eines von ihr umfassten Objekts verändert werden. Beispielsweise wird eine Scrollrichtung verändert, etwa indem eine Darstellung einer scrollbaren Liste von Listeneinträgen gekippt wird.
Dabei kann die Form der Eingabeeinheit sowohl aktiv mittels des Verformungselements und anhand des Form-Steuerungssignals, als auch passiv durch eine physische Einwirkung von außen verändert werden, insbesondere durch eine Krafteinwirkung auf die Eingabeeinheit beziehungsweise auf das Verformungselement. Beispielsweise kann die Lage des Verformungselements der Eingabeeinheit durch Verschieben und/oder Rotieren von außen verändert werden. Ferner kann die Form durch Ausüben eines Drucks auf einen bestimmten Bereich der Eingabeeinheit verändert werden, etwa bei einem nachgiebigen Bereich, der verformbar ausgebildet ist und dessen Verformung ferner erfassbar ist.
Beim Aktivieren des ersten oder zweiten Bedienzustands wird beispielsweise ein Anzeige beziehungsweise Konfigurationsmodus eingestellt. Das heißt, durch Verändern der Form der Eingabeeinheit mittels einer äußeren Kraft kann der Bedienzustand gewechselt werden.
Insbesondere umfasst die Eingabeeinheit zumindest ein Sensorelement zum Erfassen einer Formänderung und/oder einer auf die Eingabeeinheit wirkenden Kraft. Das Sensorelement ist insbesondere dazu geeignet, eine Betätigungshandlung mittels verschiedener physikalischer Detektionsprinzipien zu erfassen. Beispielsweise kann eine Berührung oder Annäherung an einen Bereich der Oberfläche der Eingabeeinheit erfassbar sein, etwa mittels eines kapazitiven Sensors. Ferner kann eine Lage der Eingabeeinheit erfassbar sein, etwa mittels eines gyroskopischen Sensors oder eines Beschleunigungssensors oder eines Sensors zur Positionsbestimmung.
Eine Betätigungshandlung, die mittels der Eingabeeinheit erfasst werden kann, kann auf verschiedene Weisen erfolgen. Insbesondere wird die Betätigungshandlung so durchgeführt, dass sie in einem bestimmten Bezug zu einem Objekt der Bedienoberfläche beziehungsweise zu einer mit dem Objekt verknüpften Funktionalität steht. Eine Betätigungshandlung kann beispielsweise eine Berührung eines Bereichs auf der Oberfläche der Eingabeeinheit, ein Ausüben von Druck auf die Eingabeeinheit oder eine bestimmte Ausrichtung oder Positionierung der Eingabeeinheit umfassen. Sie kann ferner eine Änderung der Position der Berührung umfassen, etwa eine Wischgeste, die auf der Oberfläche der Eingabeeinheit ausgeführt wird, oder eine Veränderung der Position und/oder Ausrichtung, etwa indem die Eingabeeinheit entlang einer Trajektorie bewegt wird, wobei auch die Geschwindigkeit berücksichtigt werden kann. Insbesondere wird dabei eine dreidimensionale Geste durchgeführt. Eine Betätigungshandling kann etwa ein Rotieren oder Schwenken, eine bestimmte Ausrichtung, etwa zum Zeigen auf eine bestimmte Position oder in eine Richtung, umfassen. Die Betätigungshandlung kann ferner eine Kombination mehrerer Handlungselemente umfassen, etwa ein gleichzeitiges Bewegen entlang verschiedener Freiheitsgrade oder aufeinanderfolgende Bewegungen und weitere Betätigungen.
Die Eingabeeinheit kann insbesondere so ausgebildet sein, dass beim Durchführen der Betätigungshandlung eine Rückmeldung erzeugt wird, beispielsweise durch eine haptisch erfassbare elastische Verformung der Eingabeeinheit und/oder eine akustisch wahrnehmbares Klicken bei der Betätigung, zum Beispiel beim Ausüben eines Drucks auf die Oberfläche der Eingabeeinheit.
Bei einer Weiterbildung umfasst die Betätigungshandlung eine Bewegung der Eingabeeinheit entlang einer bestimmten Trajektorie, eine Beschleunigung, eine Lageänderung, eine Berührung oder eine Wischgeste entlang einer Oberfläche der Eingabeeinheit. Die Betätigung erfolgt dadurch vorteilhafterweise besonders einfach.
Insbesondere wird die Eingabeeinheit bei der Betätigungshandlung in eine bestimmte Lage gebracht, wobei etwa eine Ausrichtung und/oder Positionen der Eingabeeinheit erfasst wird, um beispielsweise eine Zeigegeste durchzuführen. Zum Bestimmen der Lage kann dabei beispielsweise eine Ausrichtung in einem Schwerefeld erfasst werden. Eine Betätigungshandlung kann ferner eine Änderung der Lage betreffen, insbesondere in Abhängigkeit von der Zeit, etwa das Bewegen der Eingabeeinheit entlang einer Trajektorie in einem zwei- oder dreidimensionalen Raum, das Ausführen einer bestimmten Beschleunigung und/oder einer Rotation beziehungsweise einer Kippbewegung.
Bei einer Ausbildung ist ein bestimmter Oberflächenbereich der Eingabeeinheit als Interaktionsfläche ausgebildet, wobei in dem bestimmten Oberflächenbereich eine Berührung mittels eines Betätigungsobjekts erfassbar ist. Insbesondere ist das Betätigungsobjekt eine Hand eines Nutzers. Hierdurch können vorteilhafterweise besonders einfach Eingaben vorgenommen werden. Die Interaktionsfläche kann auf an sich bekannte Weise ausgebildet sein und insbesondere ein Sensorelement zum Erfassen einer Berührung oder Annäherung umfassen, etwa mittels kapazitiver oder resistive Sensoren. Beispielsweise wird die Position einer Berührung sowie gegebenenfalls eine Veränderung der Position in Abhängigkeit von der Zeit erfasst. Bei einer Bewegung des Betätigungsobjekts entlang der Interaktionsfläche, etwa bei einer Wischgeste, kann eine Richtung, Trajektorie und/oder Geschwindigkeit der Bewegung erfasst werden.
Die Eingabeeinheit ist insbesondere so ausgebildet, dass ein variabler Oberflächenbereich als Interaktionsfläche aktiviert werden kann. Die Eingabeeinheit kann dazu eine Grenzflächen aufweisen, die vollständig oder teilweise als Interaktionsflächen aktivierbar sind. Zum Beispiel kann die Eingabeeinheit hierzu eine polyedrische Form aufweisen.
Die Interaktionsfläche wird insbesondere in Abhängigkeit von dem aktivierten Bedienzustand gebildet, etwa gemeinsam mit der Veränderung der Form der Eingabeeinheit.
Bei einer Ausbildung ist der bestimmte Oberflächenbereich mittels einer optischen Hervorhebung hervorhebbar. Der Oberflächenbereich der Interaktionsfläche wird beispielsweise mittels einer gegenüber der Umgebung veränderten Helligkeit oder Farbe hervorgehoben. Die Oberflächenbereich kann ferner optisch hervorgehoben werden, etwa durch eine Änderung der Form der Eingabeeinheit so, dass die Interaktionsfläche haptisch erfassbar ist, etwa als erhabener Bereich der Oberfläche.
Bei einerweiteren Ausbildung ist die Eingabeeinheit drahtlos mit der Steuereinheit gekoppelt und durch einen Nutzer bewegbar ausgebildet. Insbesondere ist die Eingabeeinheit verwendbar ohne eine feste Verbindung zu einer anderen Einheit. Die Eingabe kann dadurch vorteilhafterweise besonders flexibel erfolgen.
Beispielsweise weist die Eingabeeinheit Dimensionen auf, die das Halten in einer Hand des Nutzers ermöglichen. Der Eingabeeinheit kann ferner einen Griffbereich aufweisen, der das Halten erleichtert. Ferner kann die Form der Eingabeeinheit so gebildet sein, dass das Halten in einer bestimmten Ausrichtung relativ zur Hand des Nutzers begünstigt wird, etwa bei einer länglichen Form, die eine Ausrichtung im Wesentlichen schräg zum Verlauf des Unterarms des Nutzers begünstigt. Die Eingabeeinheit kann ferner so ausgebildet sein, dass sie in keine Richtung größer als 10 cm ist, bevorzugt nicht größer als 7 cm, weiter bevorzugt nicht größer als 5 cm. Es kann eine Aufnahmeeinheit für die Eingabeeinheit vorgesehen sein, in der beispielsweise ein Ablegen der Eingabeeinheit so erfolgen kann, dass ein unabsichtliches Verrutschen oder Herunterfallen vermieden wird. Eine Aufnahmeeinheit kann ferner zum Aufladen eines Energiespeichers der Eingabeeinheit sein. Zum Aufladen kann beispielsweise ein induktives Verfahren verwendet werden oder es kann eine elektrisch leitende Verbindung zwischen der Eingabeeinheit und der Aufnahmeeinheit hergestellt werden.
Beim Ausgeben der Ausgabedaten wird die Bedienoberfläche angezeigt, was ebenfalls auf an sich bekannte Weise erfolgen kann. Beispielsweise kann hierfür ein Anzeigefläche verwendet werden. Ferner können Mittel der Erweiterten oder Virtuellen Realität zur Ausgabe genutzt werden, wobei beispielsweise Elemente einer realen Umgebung mit virtuell erzeugten Elementen angereichert werden. Zum Beispiel kann die Ausgabe eine grafische Ausgabe von Bild- oder Videodaten umfassen, welche die reale Umgebung wiedergeben, wobei zusätzlich weitere grafische Elemente erzeugt werden und von der Ausgabe umfasst sind. Ferner kann die Ausgabe so erzeugt und ausgegeben werden, dass ein Nutzer die reale Umgebung direkt wahrnimmt, etwa durch eine Fahrzeugscheibe oder Brille, während gleichzeitig die Ausgabe so in sein Sichtfeld beziehungsweise in sein Auge projiziert wird, etwa bei einem Head-up-Display oder bei einer Brille mit einer entsprechenden Darstellungs- oder Projektionseinheit, dass die virtuellen Objekte aus Sicht des Nutzers in der Umgebung erscheinen.
Bei einer Weiterbildung ist die Ausgabeeinheit so gebildet, dass die Ausgabedaten beabstandet von der Eingabeeinheit ausgebbar sind. Dadurch kann vorteilhafterweise eine besonders flexible Ausgabe erfolgen.
Die Ausgabe erfolgt insbesondere nicht mittels eines sogenannten Touchscreens, bei dem Eingaben im gleichen Bereich erfasst werden, in dem auch die Ausgabe erfolgt. Allerdings kann bei einer Ausbildung der Erfindung ein Touchscreen zur Ausgabe mit einer davon beabstandeten Eingabeeinheit kombiniert sein. Die Ausgabeeinheit kann so ausgebildet sein, dass die Ausgabe mit Mitteln der Erweiterten oder Virtuellen Realität erfolgt. Das Bediensystem kann ferner eine Kombination verschiedener Ausgabeeinheiten umfassen, etwa eine Kombination eines Touchscreens mit einer Ausgabeeinheit für Erweiterte Realität.
Bei einer Ausbildung umfasst die Ausgabeeinheit ein Head-up-Display oder eine am Körper eines Nutzers getragene Anzeigeeinheit, zum Beispiel eine Brille. Das Verfahren kann dadurch vorteilhafterweise besonders einfach mit bekannten Verfahren der Erweiterten oder Virtuellen Realität verbunden werden. Bei einerweiteren Ausbildung ist eine Blickrichtung eines Nutzers erfassbar, wobei in Abhängigkeit von der erfassten Blickrichtung eine echte Teilmenge von Bedienobjekten der Bedienoberfläche auswählbar ist. Insbesondere führt eine nachfolgende Betätigungshandlung zu einer Auswahl oder einem Betätigen eines einzelnen Bedienobjekts der Teilmenge. Dadurch wird vorteilhafterweise eine Auswahl zwischen mehreren Bedienobjekten der Bedienoberfläche erleichtert.
Die Erfassung der Blickrichtung kann auf an sich bekannte Weise erfolgen, insbesondere durch Verfolgen der Bewegung eines Auges und/oder einer Kopfhaltung. Das Auswählen der Teilmenge von Bedienobjekten erfolgt so, dass lediglich in einem bestimmten Teilbereich der Bedienoberfläche angeordnete Bedienobjekte ausgewählt werden, wobei der Teilbereich beispielsweise durch die Blickrichtung und einen vorgegebenen Radius oder eine in anderer Weise definierte Umgebung definiert ist. Insbesondere wird dadurch eine Vorauswahl durchgeführt.
Bei einer Ausbildung umfasst die Eingabeeinheit einen Aktuator zum Erzeugen einer Vibration. Die Steuereinheit ist dazu eingerichtet, ein Rückmeldungssignal zu erzeugen und an die Eingabeeinheit zu übertragen, wobei anhand des Rückmeldungssignals eine Vibration als Rückmeldung für eine Betätigungshandlung oder ein Ereignis der Bedienoberfläche ausgegeben wird. Zum Beispiel vibriert die Eingabeeinheit, um zu bestätigen, dass eine Betätigungshandlung erfasst wurde, wobei das Rückmeldungssignal in diesem Fall mit einer in Abhängigkeit von der Art der erfassten Betätigungshandlung abhängigen Vibration gebildet wird. Eine Vibration kann als Rückmeldungssignal auch signalisieren, dass ein bestimmtes Steuerungssignal erzeugt wurde, etwa eine Betätigung oder eine Auswahl eines Objekts der Bedienoberfläche oder eine Einstellung eines bestimmten Wertes.
Die Vibration kann dabei auf an sich bekannte Weise ausgebildet sein. Insbesondere können Vibrationen verschiedener Intensität oder Frequenz sowie gegebenenfalls mit verschiedenen Vibrationsrichtungen ausgegeben werden, um unterschiedliche Rückmeldungssignale zu erzeugen. Zum Beispiel kann ein Rückmeldungssignal beim Einstellen eines Parameters so erzeugt werden, dass die Vibration eine umso höhere Intensität aufweist, je größer der eingestellte Wert des Parameters ist. Umgekehrt kann die Vibration umso schwächer sein, je kleiner der eingestellte Wert ist. Bei einer Ausbildung ist die Eingabeeinheit einem Nutzer zugeordnet. Beispielsweise kann die Eingabeeinheit ein Speicherelement umfassen, auf dem Einstellungen und/oder andere persönliche Daten eines Nutzers gespeichert werden, oder sie kann eine Identifikationsinformation umfassen, anhand derer der Nutzer identifizierbar ist und Einstellungen und andere Daten erfassbar sind. Dadurch kann vorteilhafterweise ein hoher Personalisierungsgrad erreicht werden und die Eingabeeinheit kann als persönliches Gerät eines Nutzers ausgebildet sein. Der Nutzer kann dann in unterschiedlichen Kontexten, verschiedenen Positionen und für verschiedene Bediensystemen eine Bedienung auf die gleiche oder ähnliche Weise vornehmen, beispielsweise indem virtuelle Objekte auf analoge Weise betätigt werden oder eine Anordnung virtueller Objekte auf ähnliche Weise erfolgt.
Insbesondere kann die Eingabeeinheit als einem Nutzer zugeordnetes Mobilgerät ausgebildet sein. Der Nutzer kann dieses beispielsweise mit sich führen, wenn er ein Fahrzeug in Betrieb nimmt oder um ein anderes Bediensystem zu bedienen, etwa im Bereich der Home Automation oder in öffentlichen Räumen. Er ist dann vorteilhafterweise bereits mit der Bedienung vertraut und kann diese anhand einer individuell eingerichteten Eingabeeinheit ausführen.
Das erfindungsgemäße Bediensystem erlaubt eine Interaktion mit einer Bedienoberfläche der Erweiterten Realität auf verschiedene Weisen. Als Betätigungshandlung kann beispielsweise eine Gestensteuerung durchgeführt werden, wobei eine Geste anhand einer berührungsempfindlichen Oberfläche der Eingabeeinheit und/oder mittels Sensoren zur Bestimmung der Lage, Geschwindigkeit oder Beschleunigung der Eingabeeinheit im dreidimensionalen Raum erfasst werden kann. Während mit großer Amplitude und Deutlichkeit ausgeführte Gesten im öffentlichen Raum Aufsehen erregen und auf Ablehnung stoßen können, kann die Betätigungshandlung bei dem Bediensystem diskret mittels kleiner Bewegungen und/oder anhand einer klein dimensionierten Eingabeeinheit ausgeführt werden.
Bei einer Ausbildung des Bediensystems wird eine Bedienung implementiert, bei der anhand der Blickrichtung des Nutzers eine Vorauswahl von Objekten der Bedienoberfläche durchgeführt wird, die anschließend durch eine Betätigungshandlung mittels der Eingabeeinheit einzelnen ausgewählt oder betätigt werden, etwa durch ein Scrollen, eine Rotation, eine Wischgeste oder wiederholtes Betätigen. Dabei wird genutzt, dass die Auswahl anhand der Blickrichtung besonders einfach erfolgt, wobei jedoch eine detaillierte und genaue Auswahl beziehungsweise Bestimmung der Blickrichtung schwierig sein kann. Diese genauere Auswahl erfolgt daher mittels der Eingabeeinheit, wobei die Vorauswahl anhand der Blickrichtung dem Nutzer hier eine größere Anzahl von Bedienschritten erspart. Bei weiteren Ausführungen kann bei dem Bediensystem alternativ oder zusätzlich eine Sprachsteuerung genutzt werden, etwa zum Bestätigen einer Eingabe oder zum Ausführen einer Betätigung, Vorauswahl oder Auswahl. Dabei können Nachteile einer reinen Sprachbedienung umgangen werden, die in der Öffentlichkeit aus Gründen der Privatsphäre beziehungsweise wegen Störungen der Umgebung nur begrenzt eingesetzt werden kann.
Bei dem erfindungsgemäßen Verfahren zum Betreiben eines Bediensystems, insbesondere für ein Fahrzeug, werden Ausgabedaten für eine grafische Bedienoberfläche erzeugt und ausgegeben und eine Betätigungshandlung wird erfasst. Dabei ist für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar. Dabei wird in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form- Steuerungssignal erzeugt und an die Eingabeeinheit übertragen, wobei ein Verformungselement anhand des Form-Steuerungssignals eine erste Form der Eingabeeinheit ausbildet, wenn der erste Bedienzustand aktiviert ist, und eine zweite geometrische Form der Eingabeeinheit ausbildet, wenn der zweite Bedienzustand aktiviert ist.
Das erfindungsgemäße Verfahren ist dazu ausgebildet, das vorstehend beschriebene erfindungsgemäße Bediensystem zu betreiben. Das Verfahren weist somit dieselben Vorteile auf wie das erfindungsgemäße Bediensystem.
Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.
Figur 1 zeigt ein Ausführungsbeispiel des erfindungsgemäßen Bediensystems in einem Fahrzeug,
Figuren 2A und 2B zeigen Ausführungsbeispiele von bei dem erfindungsgemäßen Verfahren erzeugbaren Ausgaben, Figuren 3A und 3B zeigen ein erstes Ausführungsbeispiel einer Formveränderung der Eingabeeinheit des Bediensystems, Figuren 4A und 4B zeigen ein zweites Ausführungsbeispiel einer Formveränderung der Eingabeeinheit des Bediensystems und Figuren 5A bis 5E zeigen ein drittes Ausführungsbeispiel einer Formveränderung der Eingabeeinheit des Bediensystems. Mit Bezug zu Figur 1 wird ein Ausführungsbeispiel des erfindungsgemäßen Bediensystems in einem Fahrzeug erläutert.
Das Fahrzeug 1 umfasst eine Steuereinheit 2, mit der eine Ausgabeeinheit 3, bei dem Ausführungsbeispiel ein Head-up-Display 3, und eine Eingabeeinheit 4 gekoppelt sind. Die Eingabeeinheit 4 umfasst einen Sensor 5 und ein Verformungselement 6. Mit der Steuereinheit 2 ist ferner eine Einrichtung 7 des Fahrzeugs 1 gekoppelt, bei dem Ausführungsbeispiel eine Navigationseinheit 7.
Die Eingabeeinheit 4 ist einem bestimmten Nutzer zugeordnet und für diesen personalisierte Einstellungen sind für die Eingabeeinheit 4 gespeichert. Die Speicherung erfolgt bei dem Ausführungsbeispiel in einem Speicherelement der Eingabeeinheit 4, alternativ oder zusätzlich kann die Eingabeeinheit 4 eine Identifikation speichern, anhand derer bei der Verwendung der Eingabeeinheit 4 die entsprechenden Einstellungen abrufbar sind.
Mit Bezug zu den Figuren 2A und 2B werden Beispiele von bei dem erfindungsgemäßen Verfahren erzeugbaren Ausgaben erläutert. Dabei wird von dem oben erläuterten Ausführungsbeispiel des erfindungsgemäßen Bediensystems ausgegangen, welches durch die Beschreibung des Verfahrens weiter spezifiziert wird.
Bei dem Ausführungsbeispiel erzeugt die Steuereinheit 2 eine Ausgabe, die mittels der Ausgabeeinheit 3, beispielsweise des Head-up-Displays 3 oder einer Augmented-Reality-Brille, so in das Sichtfeld des Fahrers des Fahrzeugs 1 projiziert wird, dass sie zugleich mit der Ansicht der Umgebung des Fahrzeugs 1 überlagernd erscheint. In weiteren Beispielen erfolgt die Ausgabe mittels einer anderen Art von Ausgabeeinheit 3, insbesondere einer anderen Ausgabeeinheit für Virtuelle Realität. Dabei kann auch die gesamte für den Nutzer sichtbare Anzeige virtuell erzeugt werden, insbesondere indem eine reale Ansicht der Umgebung mittels der Ausgabeeinheit 3 abgebildet wird. Beispielsweise umfasst die Ausgabe in diesem Fall mittels einer Videokamera erfasste Bilder der Umgebung und zusätzlich dazu dargestellte virtuelle Objekte.
Bei dem in Figur 2A gezeigten Fall ist die reale Umgebung des Fahrzeugs 1 durch die Fahrbahnmarkierungen 10 angedeutet, während durch die Ausgabeeinheit 3 zusätzlich dazu virtuelle Objekte 11 bis 15 in das Sichtfeld projiziert werden. Bei dem hier gezeigten Fall umfasst die Ausgabe als virtuelle Objekte eine Ausgabe einer Geschwindigkeitsbegrenzung 11 , die als Darstellung eines Verkehrsschilds ausgegeben wird, eine zahlenmäßig dargestellte aktuelle Geschwindigkeit 12, eine Liste 13 mit Listeneinträgen 13a, ein Symbol als Markierung 14 sowie bei der Markierung 14 eine Informationsbox 15 mit einer Darstellung von Text.
Bei dem in Figur 2B gezeigten Fall ist ebenfalls die reale Umgebung 20, insbesondere eine Fahrbahnmarkierung 20 angedeutet. Zusätzlich sind in das Sichtfeld des Nutzers projizierte virtuelle Objekte 21, 22, 23 gezeigt, die aktive Widgets 21, 23 sowie inaktive Widgets 22 darstellen. Ferner ist ein weiteres virtuelles Objekt 24 gezeigt, welches eine Routenanzeige 24 darstellt. Diese sind im rechten und linken Bereich vertikal übereinander entlang einer Bogenstruktur angeordnet. Ferner können weitere virtuelle Objekte dargestellt sein, beispielsweise Informationsanzeigen zu weiteren Läufern auf der Strecke.
Die in Figur 2B gezeigten aktiven Widgets 21, 23 sind gegenüber den inaktiven Widgets 22 vergrößert dargestellt. Sie können ferner durch an sich bekannte grafische Hervorhebungen deutlicher hervorgehoben werden. Bei den aktiven Widgets 21, 23 werden ferner Textinformationen angezeigt, insbesondere mögliche Aktionen, die durch Betätigen des jeweiligen aktiven Widgets 21 , 23 ausführbar sind. Zum Beispiel ist ein aktives Wdget 21 dazu vorgesehen, eine Navigation entlang einer Laufroute zu steuern, die durch eine virtuelle Routenanzeige 24 ausgegeben wird. Durch eine Betätigung kann beispielsweise die Navigation beendet oder eine andere Aktion ausgelöst werden.
Bei den beiden Fällen, die in den Figuren 2A und 2B beteiligt sind, können virtuelle Objekte zur Interaktion ausgewählt werden, beispielsweise mittels Blicksteuerung. Dabei wird eine Blickrichtung des Nutzers erfasst und bestimmt, auf welches virtuelle Objekt der Blick gerichtet ist. Dieses Objekt wird dann ausgewählt, beispielsweise nachdem der Blick für ein bestimmtes Zeitintervall ununterbrochen auf das virtuelle Objekt gerichtet war. Anschließend können Interaktionen mittels der Eingabeeinheit 4 ausgeführt werden. Zum Beispiel können virtuelle Objekte betätigt werden, um eine Aktion oder Funktionalität auszubilden oder zu aktivieren, oder die Anzeige kann verändert werden, etwa indem anzuzeigende Inhalte ausgewählt und konfiguriert werden. Die Eingabeeinheit 4 kann dabei auf verschiedene Weisen angeordnet sein; sie kann sich beispielsweise in der Hand des Nutzers befinden oder etwa im Fahrzeug 1 an einer bestimmten Position fest angebracht sein.
Durch die Betätigung eines virtuellen Objekts oder Wdgets kann ein Steuersignal für eine Einrichtung gebildet und ausgegeben werden, etwa für ein Navigationssystem 7 des Fahrzeugs 1. Bei dem Beispiel ist ferner vorgesehen, dass anhand der Blickrichtung des Nutzers eine Vorauswahl getroffen wird. Die Blickrichtung wird bestimmt und in einem bestimmten Umkreis um einen Punkt innerhalb der Bedienoberfläche, auf den der Blick gerichtet ist, werden die dort angeordneten Objekte vorausgewählt, wobei es sich insbesondere um eine echte Teilmenge der virtuellen Objekte der gesamten Bedienoberfläche handelt. Durch eine weitere Bedienhandlung, etwa weiteres Richten des Blicks auf einen bestimmten Punkt oder durch Betätigen der Eingabeeinheit 4, kann anschließend ein bestimmtes virtuelles Objekt ausgewählt und/oder betätigt werden.
Mit Bezug zu den Figuren 3A und 3B wird ein erstes Beispiel einer Formveränderung der Eingabeeinheit des Bediensystems erläutert. Dabei wird von den oben erläuterten Beispielen ausgegangen.
Bei diesem Beispiel umfasst die Eingabeeinheit 34 ein Verformungselement 36a, 36b, das in einer horizontalen Konfiguration 36a und in einer vertikalen Konfiguration 36b dargestellt ist.
Das Verformungselement kann aktiv zwischen diesen Konfiguration 36a, 36b umschalten, die Konfiguration 36a, 36b kann jedoch auch passiv durch von außen auf das Verformungselement 36a, 36b wirkende Kräfte verändert werden. Die Eingabeeinheit 34 ist dabei fünfeckig ausgebildet, während das Verformungselement 36 länglich ausgebildet und mittig an der Oberfläche der Eingabeeinheit 34 angeordnet ist.
Auf einer Oberfläche der Eingabeeinheit 34 sind Interaktionsflächen 35a, 35b, 35c ausgebildet. Dabei ist eine der Interaktionsflächen 35c auf dem Verformungselement 36a ausgebildet und folgt dessen Konfiguration. Das heißt, bei einer horizontalen Konfiguration des Verformungselements 36a ist die Interaktionsfläche 35c ebenfalls länglich und horizontal ausgerichtet, bei einer vertikalen Konfiguration des Verformungselements 36b ist auch die Interaktionsfläche 35c in gleicher Weise vertikal angeordnet (nicht dargestellt).
Die Interaktionsflächen 35a, 35b, 35c sind bei dem Beispiel als berührungsempfindliche Oberflächenbereiche der Eingabeeinheit 34 ausgebildet. Ferner ist die Eingabeeinheit 35 so gebildet, dass sie im Bereich einer der Interaktionsflächen 35a durch Druck senkrecht zur Oberfläche leicht elastisch verformt werden kann, insbesondere nach Art eines Drucktasters. Dabei wird eine haptische und akustische Rückmeldung durch die Verformung und ein dabei hörbares Klicken hervorgerufen. Bei weiteren Beispielen sind an der Oberfläche der Eingabeeinheit 34 ferner Beleuchtungselemente angeordnet und anhand eines optischen Parameters wird eine Rückmeldung über bedienbare Bereiche und/oder Flächen angezeigt, etwa indem diese mittels einer Helligkeit oder Farbe hervorgehoben werden. Der Nutzer kann so erkennen, in welchen Bereichen eine Betätigungshandlung durchgeführt werden kann. Bei weiteren Beispielen kann ferner während der Bedienung eine optische Rückmeldung ausgegeben werden, indem sich beispielsweise ein optischer Parameter verändert, etwa indem die Beleuchtung dem Verlauf einer Wischgeste folgt, ein Bereich nach einer Betätigung aufleuchtet oder bei einer Eingabeaufforderung alternativ betätigbare Flächen hervorgehoben werden. Verschiedene Flächen können dabei auch auf unterschiedliche Weise beleuchtet werden, etwa mit verschiedenen Farbe, Helligkeit oder Blinkfrequenz, um auf unterschiedliche Eingabemöglichkeiten hinzuweisen, etwa eine Annahme oder Ablehnung, Aktivierung oder Deaktivierung.
Ferner können Beleuchtungselemente am Rand der Eingabeeinheit 34 angeordnet sein. Insbesondere ist die Eingabeeinheit 34 mit zwei übereinanderliegenden Schichten ausgebildet und weist am Rand einen Spalt auf, bei dem eine Betätigung durch Druck und elastische Verformung der Schichten im Bereich des Spalt erfolgt. Durch eine Beleuchtung in dem Spalt kann dessen Bedienbarkeit angezeigt werden. Ferner kann sich die Beleuchtung bei einer Betätigung verändern, insbesondere um diese zu bestätigen.
Bei dem Beispiel werden Berührungen, das Ausüben von Druck auf eine Position der Interaktionsflächen 35a, 35b, 35c oder mit der Eingabeeinheit 34 ausgeführte Gesten als Betätigungshandlungen erfasst. In Abhängigkeit hiervon kann ein Nutzer mit virtuellen Objekten der Bedienoberfläche interagieren, etwa indem er eine Auswahl oder Betätigung, ein Scrollen oder eine Verschiebung oder eine Eingabe durchführt.
Bei dem Beispiel sind den Konfigurationen 36a, 36b verschiedene Bedienzustände zugeordnet. Diese sind im gezeigten Fall so definiert, dass die Bedienoberfläche im ersten Bedienzustand ein Menü mit Widgets zur Informationsausgabe und schnellen Bedienung einzelner Funktionalitäten umfasst, während die Bedienoberfläche im zweiten Bedienzustand eine Auswahl von anzeigbaren Widgets oder Bedienmöglichkeiten für Funktionalitäten umfasst. Das heißt, im ersten Bedienzustand kann ein Nutzer mittels der Anzeige Informationen erfassen und gegebenenfalls auf die Arbeitsweise von mit den Widgets verknüpften Funktionen einwirken; es handelt sich daher um einen Anzeigezustand. Dagegen ist es dem Nutzer im zweiten Bedienzustand möglich, die im ersten Bedienzustand angezeigten Informationen und Funktionen auszuwählen, etwa durch Auswahl aus einem Menü oder einer Liste; es handelt sich daher um einen Konfigurationszustand.
Bei einem weiteren Beispiel unterscheiden sich der erste und zweite Bedienzustand in einer für die Bedienung ausgezeichneten Richtung, insbesondere eine Richtung, in welcher eine Liste durch Scrollen oder Blättern durchsucht werden kann. Wenn die Elemente der zu durchsuchenden Liste in eine horizontale Richtung durchsuchbar sind, etwa mittels einer in eine horizontale Richtung durchgeführten Wischgeste, wird der erste Bedienzustand aktiviert und beispielsweise das Verformungselement 36a in einer horizontalen Konfiguration ausgerichtet. Dagegen kann eine vertikale Konfiguration 36b eingestellt werden, wenn die Elemente der Liste in eine vertikale Richtung durchsuchbar sind, etwa durch eine in horizontaler Richtung durchgeführte Wischgeste.
Bei weiteren Beispielen sind andere Definitionen des ersten und zweiten Bedienzustand vorgesehen. Ferner ist eine größere Zahl an Bedienzuständen möglich, wobei beispielsweise verschiedene Winkel für das Verformungselement 36a, 36b eingestellt und/oder unterschiedliche Interaktionsflächen 35a, 35b, 35c ausgebildet werden können.
Zwischen den Bedienzuständen wird bei dem Beispiel automatisch umgeschaltet, wenn ein Signal zur Umschaltung erfasst wird. Ein solches Signal kann automatisch erzeugt werden, beispielsweise beim Ausführen einer bestimmten Funktion. Ferner kann das Signal anhand einer Nutzereingabe erzeugt werden, etwa durch Auswählen eines bestimmten virtuellen Objekts. Der Bedienzustand kann auch dadurch verändert werden, dass durch eine äußere Kraft das Verformungselement 36a, 36b verlagert wird, etwa indem ein Nutzer das Verformungselement 36a, 36b rotiert. Der Nutzer kann hierdurch insbesondere zwischen einem Anzeige- und einem Konfigurationszustand umschalten.
Bei einem weiteren Beispiel umfasst die Ausgabe eine schematische Anzeige der aktuell eingestellten Konfiguration 36a, 36b der Eingabeeinheit 34 und/oder eine andere Anzeige des aktuell aktivierten Betriebsmodus.
Mit Bezug zu den Figuren 4A und 4B wird ein zweites Beispiel einer Formveränderung der Eingabeeinheit des Bediensystems erläutert. Dabei wird von den oben erläuterten Beispielen ausgegangen. ln diesem Fall weist die Eingabeeinheit 41 eine dreieckige Form auf, insbesondere die Form eines gleichseitigen Dreiecks. In einem mittleren Bereich ist ein ebenfalls als gleichseitiges Dreieck ausgebildetes Verformungselement 42a, 42b angeordnet, dessen Ausrichtung rotiert werden kann zwischen einer ersten Ausrichtung 42a, bei welcher die Spitzen des Verformungselements 42a zu den Seiten der dreieckigen Form der Eingabeeinheit 41 weisen, und einer zweiten Ausrichtung 42b, bei welcher die Seiten des Verformungselements 42b im Wesentlichen parallel zu den Seiten der dreieckigen Form der Eingabeeinheit 41 verlaufen. Dieses Rotieren kann aktiv durch die Eingabeeinheit 41 durchgeführt werden öder es kann passiv bei einer Ausübung einer Kraft auf das Verformungselement 42a, 42b von außen erfolgen.
Die Eingabeeinheit 41 weist bei dem Beispiel drei Interaktionsflächen 43, 44, 45 auf, die sich im Wesentlichen über die gesamte dem Nutzer zugewandte Oberfläche der Eingabeeinheit 41 jenseits des Verformungselements 42a, 42b erstrecken. Bei dem Beispiel sind die Interaktionsflächen 43, 44, 45 als berührungsempfindliche Oberflächen ausgebildet und ferner durch Ausüben eines Drucks senkrecht zur Oberfläche der Eingabeeinheit 41 betätigbar.
Mit Bezug zu den Figuren 5A bis 5E wird ein drittes Beispiel einer Formveränderung der Eingabeeinheit des Bediensystems erläutert. Dabei wird von den oben erläuterten Beispielen ausgegangen.
Die Eingabeeinheit 51 ist dabei im Wesentlichen analog zu den oben erläuterten Beispielen ausgebildet. Es weist die Form eines abgerundeten gleichschenkligen Dreiecks auf, wobei die Spitze des Dreiecks nach oben gerichtet ist und die seitlich nach unten verlaufenden Seiten des Dreiecks länger sind als die horizontal verlaufende. Es wird davon ausgegangen, dass ein Nutzer die Eingabeeinheit 51 aus einer ursprünglichen Lage, wie sie in Figur 5A gezeigt ist, um eine senkrecht zur Bildfläche verlaufende Achse rotiert, etwa um einen Winkel von 120°. Die Figuren 5A bis 5E zeigen eine gleichzeitig erfolgende Veränderung der Form der Eingabeeinheit 51 jeweils nach einem bestimmten Zeitschritt, wobei jeweils die frühere Form 52 der Eingabeeinheit 51 zum vorhergehenden Zeitschritt mit angedeutet ist.
Bei dem Beispiel verändert sich die Form der Eingabeeinheit 51 so, dass die Eingabeeinheit 51 am Endpunkt der Bewegung, gezeigt in Figur 5E, gegenüber der Ausgangsform, gezeigt in Figur 5A, um 180° verdreht ist. Das heißt, die Formveränderung suggeriert eine stärkere Drehung als tatsächlich durchgeführt wurde. Während der Veränderung der Form der Eingabeeinheit 51 verschieben sich die Verhältnisse der Seitenlängen so, dass die vormals kürzere Seite die Länge der beiden längeren Schenkel des Dreiecks annimmt, während eine der längeren Seiten verkürzt wird und am Ende der Bewegung oben angeordnet ist. Die Spitze des Dreiecks weist zum Ende der Bewegung, gezeigt in Figur 5E, nach unten.
Das hier gezeigte Beispiel kann ferner so ausgebildet sein, dass sich die Form der Eingabeeinheit 51 vollständig aktiv so verändert, dass die in den Figuren 5A bis 5E gezeigten Zustände erreicht werden. In diesem Fall erfolgt also keine Rotation durch einen Nutzer, sondern die scheinbare Drehung um 180° erfolgt ausschließlich durch das Verändern der Kantenlängen des Dreiecks. Insbesondere wird die Eingabeeinheit 51 dabei in einer Halterung gehalten oder sie ist auf andere Weise gelagert.
Bei den oben erläuterten Beispielen ist ferner vorgesehen, dass die Eingabeeinheiten 4, 34, 41, 51 jeweils Sensoren zum Erfassen der Lage und eine Beschleunigung der Eingabeeinheit 4, 34, 41, 51 umfassen. Auf diese Weise ist beispielsweise erfassbar, wenn die Eingabeeinheit 4, 34, 41 , 51 in eine Richtung rotiert wird. Ferner kann eine Ausrichtung der Eingabeeinheit 4, 34, 41 , 51 detektiert werden, insbesondere um eine Zeigegeste zu implementieren, bei welcher anhand der Ausrichtung der Eingabeeinheit 4, 34, 41, 51 ein Punkt innerhalb der Bedienoberfläche bestimmt wird, etwa um diese Position zu markieren oder um ein dort angeordnetes virtuelles Objekt zu markieren, auszuwählen, zu betätigen oder in anderer Weise zu bedienen. Ferner können so Gesten erfasst werden, bei denen ein Nutzer die Eingabeeinheit 4, 34, 41, 51 im dreidimensionalen Raum entlang einer bestimmten Trajektorie bewegt, gegebenenfalls mit einer bestimmten Geschwindigkeit und/oder Beschleunigung.
Bei einem weiteren Beispiel ist die Eingabeeinheit 4, 34, 41 , 51 an einem Lenker des Fahrzeugs 1 angeordnet. Es kann sich beispielsweise um den Lenker oder eine vergleichbare Steuerungseinrichtungen eines Kraftfahrzeugs, eines Fahrrads, einer Drohne oder eines Rollers handeln. Die Eingabeeinheit 4, 34, 41, 51 ist dabei insbesondere beweglich und herausnehmbar gelagert. Ein Nutzer kann die Eingabeeinheit 4, 34, 41, 51, insbesondere wenn diese für ihn individuell personalisiert ist, zwischen verschiedenen Fahrzeugen 1 übertragen und damit eine ähnliche Bedienung in verschiedenen Kontexten erreichen. Bezugszeichenliste
Fahrzeug
Steuereinheit
Ausgabeeinheit, Head-up-Display
Eingabeeinheit
Sensor
Verformungselement Einrichtung; Navigationseinheit Fahrbahnmarkierung
Virtuelles Objekt; Geschwindigkeitsbegrenzung
Virtuelles Objekt; Aktuelle Geschwindigkeit
Virtuelles Objekt; Liste a Virtuelles Objekt; Listeneinträge
Virtuelles Objekt; Markierung
Virtuelles Objekt; Informationsbox
Fahrbahnmarkierung; reale Umgebung
Virtuelles Objekt; aktives Widget
Virtuelles Objekt; inaktives Widget
Virtuelles Objekt; aktives Widget
Virtuelles Objekt; Routenanzeige
Eingabeeinheit a, 35b, 35c Interaktionsfläche a Verformungselement (horizontal) b Verformungselement (vertikal)
Eingabeeinheit a, 42b Verformungselement , 44, 45 Interaktionsfläche Eingabeeinheit (Umriss)
Eingabeeinheit (früherer Umriss)

Claims

Patentansprüche
1. Bediensystem, umfassend eine Steuereinheit (2), die dazu eingerichtet ist, Ausgabedaten für eine grafische Bedienoberfläche zu erzeugen; eine Ausgabeeinheit (3) zum Ausgeben der Ausgabedaten; und eine Eingabeeinheit (4; 34) zum Erfassen einer Betätigungshandlung; wobei für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar ist; wobei die Steuereinheit (2) dazu eingerichtet ist, in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form-Steuerungssignal zu erzeugen und an die Eingabeeinheit (4; 34) zu übertragen; wobei die Eingabeeinheit (4; 34) ein Verformungselement (6; 36a, 36b) aufweist, das dazu eingerichtet ist, anhand des Form-Steuerungssignals eine erste Form der Eingabeeinheit (4; 34) auszubilden, wenn der erste Bedienzustand aktiviert ist, und eine zweite geometrische Form der Eingabeeinheit (4; 34) auszubilden, wenn der zweite Bedienzustand aktiviert ist.
2. Bediensystem gemäß Anspruch 1, dadurch gekennzeichnet, dass das Verformungselement (6; 36a, 36b) der Eingabeeinheit eine Lage relativ zu weiteren Elementen der Eingabeeinheit aufweist und zum Ausbilden der ersten oder zweien geometrischen Form die relative Lage einstellbar ist
3. Bediensystem gemäß Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Form der Eingabeeinheit (4; 34) mittels der Betätigungshandlung veränderbar ist und in Abhängigkeit von der veränderten Form der erste oder zweite Bedienzustand der Eingabeeinheit (4; 34) aktivierbar ist.
4. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Betätigungshandlung eine Bewegung der Eingabeeinheit (4; 34) entlang einer bestimmten Trajektorie, eine Beschleunigung, eine Lageänderung, eine Berührung oder eine Wischgeste entlang einer Oberfläche der Eingabeeinheit (4; 34) umfasst.
5. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein bestimmter Oberflächenbereich der Eingabeeinheit als Interaktionsfläche (35a, 35b, 35c) ausgebildet ist, wobei in dem bestimmten Oberflächenbereich eine Berührung mittels eines Betätigungsobjekts erfassbar ist.
6. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Eingabeeinheit (4; 34) drahtlos mit der Steuereinheit (2) gekoppelt und durch einen Nutzer bewegbar ausgebildet ist.
7. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Ausgabeeinheit (3) so gebildet ist, dass die Ausgabedaten beabstandet von der Eingabeeinheit (4; 34) ausgebbar sind.
8. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Ausgabeeinheit (3) ein Head-up-Display oder eine am Körper eines Nutzers getragene Anzeigeeinheit (3) umfasst.
9. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Blickrichtung eines Nutzers erfassbar ist; wobei in Abhängigkeit von der erfassten Blickrichtung eine echte Teilmenge von Bedienobjekten der Bedienoberfläche auswählbar ist.
10. Verfahren zum Betreiben eines Bediensystems, bei dem
Ausgabedaten für eine grafische Bedienoberfläche erzeugt und ausgegeben werden; und eine Betätigungshandlung mittels einer Eingabeeinheit (4; 34) erfasst wird; wobei für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar ist; wobei in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form-Steuerungssignal erzeugt und an die Eingabeeinheit (4; 34) übertragen wird; wobei ein Verformungselement (6; 36a, 36b) der Eingabeeinheit (4; 34) anhand des Form- Steuerungssignals eine erste Form der Eingabeeinheit (4; 34) ausbildet, wenn der erste Bedienzustand aktiviert ist, und eine zweite geometrische Form der Eingabeeinheit (4; 34) ausbildet, wenn der zweite Bedienzustand aktiviert ist.
PCT/EP2020/071934 2019-08-15 2020-08-04 Bediensystem und verfahren zum betreiben des bediensystems WO2021028274A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019212278.7 2019-08-15
DE102019212278.7A DE102019212278A1 (de) 2019-08-15 2019-08-15 Bediensystem und Verfahren zum Betreiben des Bediensystems

Publications (1)

Publication Number Publication Date
WO2021028274A1 true WO2021028274A1 (de) 2021-02-18

Family

ID=71950637

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/071934 WO2021028274A1 (de) 2019-08-15 2020-08-04 Bediensystem und verfahren zum betreiben des bediensystems

Country Status (2)

Country Link
DE (1) DE102019212278A1 (de)
WO (1) WO2021028274A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011075390A1 (en) * 2009-12-18 2011-06-23 Honda Motor Co., Ltd. Morphable pad for tactile control
US20130002570A1 (en) * 2011-06-30 2013-01-03 Lg Electronics Inc. Mobile terminal
WO2013173624A2 (en) * 2012-05-16 2013-11-21 Tactus Technology, Inc. User interface and methods
EP3217269A1 (de) * 2016-03-07 2017-09-13 Immersion Corporation Systeme und verfahren für haptische oberflächenelemente

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011075390A1 (en) * 2009-12-18 2011-06-23 Honda Motor Co., Ltd. Morphable pad for tactile control
US20130002570A1 (en) * 2011-06-30 2013-01-03 Lg Electronics Inc. Mobile terminal
WO2013173624A2 (en) * 2012-05-16 2013-11-21 Tactus Technology, Inc. User interface and methods
EP3217269A1 (de) * 2016-03-07 2017-09-13 Immersion Corporation Systeme und verfahren für haptische oberflächenelemente

Also Published As

Publication number Publication date
DE102019212278A1 (de) 2021-02-18

Similar Documents

Publication Publication Date Title
EP2338106B1 (de) Multifunktionsanzeige- und bediensystem sowie verfahren zum steuern eines solchen systems mit optimierter grafischer bediendarstellung
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
DE102016219845B4 (de) Berühreingabeeinrichtung und Fahrzeug, welches die Berühreingabeeinrichtung beinhaltet
DE102014116292A1 (de) System zur Informationsübertragung in einem Kraftfahrzeug
EP3507681B1 (de) Verfahren zur interaktion mit bildinhalten, die auf einer anzeigevorrichtung in einem fahrzeug dargestellt werden
EP2883738B1 (de) Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs
EP3642695B1 (de) Verfahren zum betreiben einer anzeigevorrichtung für ein kraftfahrzeug sowie kraftfahrzeug
EP3508967B1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP3508968A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
EP2941685B1 (de) Bedienverfahren und bediensystem in einem fahrzeug
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
WO2018137939A1 (de) Verfahren zum betreiben eines bediensystems, bediensystem und fahrzeug mit einem bediensystem
DE102010012239A1 (de) Bedienungs- und Anzeigevorrichtung eines Kraftfahrzeugs
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
DE102013022035B4 (de) Kraftfahrzeug-Bedienvorrichtung mit graphischer Benutzerschnittstelle, sowie Kraftfahrzeug und Verfahren
WO2021028274A1 (de) Bediensystem und verfahren zum betreiben des bediensystems
DE202010017428U1 (de) Bedieneinheit
DE102013021814A1 (de) Bedienvorrichtung mit Eyetracker
EP3025214B1 (de) Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
DE102011121585B4 (de) Kraftfahrzeug
EP3966064A1 (de) Verfahren zum betreiben eines bediensystems in einem fahrzeug und bediensystem in einem fahrzeug
DE102015201722A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
EP3143483B1 (de) Bedienverfahren und bediensystem in einem fahrzeug
DE102013211046A1 (de) Verfahren und Vorrichtung zum Gewinnen eines Stellsignals aus einer Bediengeste
DE102017210599A1 (de) Verfahren zum Positionieren eines digitalen Anzeigeinhalts auf einer Anzeigeeinrichtung eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug mit Steuervorrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20751534

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20751534

Country of ref document: EP

Kind code of ref document: A1