[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2019111515A1 - 入力装置、及び、入力方法 - Google Patents

入力装置、及び、入力方法 Download PDF

Info

Publication number
WO2019111515A1
WO2019111515A1 PCT/JP2018/037204 JP2018037204W WO2019111515A1 WO 2019111515 A1 WO2019111515 A1 WO 2019111515A1 JP 2018037204 W JP2018037204 W JP 2018037204W WO 2019111515 A1 WO2019111515 A1 WO 2019111515A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
menu
control unit
gesture
gauge bar
Prior art date
Application number
PCT/JP2018/037204
Other languages
English (en)
French (fr)
Inventor
田中 剛
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2019530235A priority Critical patent/JP6719087B2/ja
Publication of WO2019111515A1 publication Critical patent/WO2019111515A1/ja
Priority to US16/561,964 priority patent/US11144193B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present disclosure relates to an input device for performing input for operating a UI (User Interface) displayed by a display unit arranged in a vehicle, and an input method thereof.
  • UI User Interface
  • Patent Document 1 discloses an information processing apparatus that moves a cursor in the vertical and horizontal directions according to a predetermined input amount and selects menu items of a menu according to the position of the moved cursor.
  • the present disclosure provides an input device that can easily and accurately input to a menu displayed on the display unit even when the user is performing another task.
  • An input device is an input device displayed by a display unit disposed on a vehicle for performing an input for operating a UI (User Interface) including a first menu, which is performed by a user's touch. And a control unit configured to display a plurality of first icons arranged in a first direction on the display unit as the first menu, the control unit including a first reference position on the first menu.
  • UI User Interface
  • a first gauge bar extending in the first direction from the start point, the first gauge bar having a length corresponding to the length of the first gesture along the first direction input to the sensor is displayed on the display unit Of the plurality of first icons arranged in each of the plurality of first areas arranged without gaps, when the input indicating the determination to the sensor is input to the display unit End of the first direction side of the first gauge bar which is shown to select the first icon that is located within the first area positioned.
  • the input device of the present disclosure can accurately and easily input to the menu displayed on the display unit even when the user is performing other work.
  • FIG. 1 is a view showing an example of a configuration of a cabin of a vehicle in which an input device and an input device according to the embodiment are arranged.
  • FIG. 2 is an external perspective view of the first input unit as viewed from the front of the traveling direction of the vehicle.
  • FIG. 3 is a block diagram showing an example of a functional configuration of the input device mounted on the vehicle according to the embodiment.
  • FIG. 4 is a diagram showing an example of a display screen displayed on the display unit.
  • FIG. 5 is a view showing another example of the display screen displayed on the display unit.
  • FIG. 6 is a diagram for explaining an input method to the first menu and the second menu.
  • FIG. 7 is a diagram for describing an input method to the first menu and the second menu.
  • FIG. 1 is a view showing an example of a configuration of a cabin of a vehicle in which an input device and an input device according to the embodiment are arranged.
  • FIG. 2 is an external perspective view of the first input unit as viewed from the front of
  • FIG. 8 is a diagram for explaining an input method to the first menu and the second menu.
  • FIG. 9 is a diagram for explaining an input method to the first menu and the second menu.
  • FIG. 10 is a diagram for explaining an input method to the first menu and the second menu.
  • FIG. 11 is a diagram for explaining an angle range for determining a gesture on the first touch sensor.
  • FIG. 12 is a flowchart showing an example of an operation in the input device according to the embodiment.
  • FIG. 13 is a flowchart showing an example of an operation in the input device according to the embodiment.
  • FIG. 14 is a diagram for describing the process of changing the first reference position in accordance with the position of the start point of the gesture.
  • FIG. 15 is a diagram showing an example of the configuration of the passenger compartment of the vehicle in which the input device and the input device according to the modification are arranged.
  • FIG. 16 is a block diagram showing an example of a functional configuration of an input device mounted on a vehicle according to a modification.
  • An input device is an input device displayed by a display unit disposed on a vehicle for performing an input for operating a UI (User Interface) including a first menu, which is performed by a user's touch. And a control unit configured to display a plurality of first icons arranged in a first direction on the display unit as the first menu, the control unit including a first reference position on the first menu.
  • UI User Interface
  • a first gauge bar extending in the first direction from the start point, the first gauge bar having a length corresponding to the length of the first gesture along the first direction input to the sensor is displayed on the display unit Of the plurality of first icons arranged in each of the plurality of first areas arranged without gaps, when the input indicating the determination to the sensor is input to the display unit End of the first direction side of the first gauge bar which is shown to select the first icon that is located within the first area positioned.
  • the user intuitively selects the plurality of first icons.
  • a desired first icon of can be selected.
  • the user can adjust the length of the first gauge bar simply by adjusting the length of the first gesture, the position of the end opposite to the starting point of the first gauge bar can be easily adjusted. .
  • the plurality of first icons are respectively arranged in the plurality of first areas arranged without gaps. Therefore, when the end of the first gauge bar is located in the first area of the first icon different from the desired first icon, the user is directed to the first area where the desired first icon is arranged. Since the first gesture may be performed to move the end of the first gauge bar, the end of the first gauge bar can be quickly moved to the first area where the desired first icon is arranged. Therefore, even when the user is performing another operation such as driving, the user can easily and accurately input the menu displayed on the display unit.
  • the first reference position is a position of one end of the first menu in the first menu
  • the control unit changes the direction of the first gesture from the one end to the other end of the first menu.
  • the first gauge bar extending in the first direction from the first reference position may be displayed on the display unit.
  • the user can move to the other end of the first direction.
  • a desired first icon can be selected from the plurality of first icons. In this manner, the user can select a desired first icon with an input limited to one direction of the first direction, that is, a simple input.
  • control unit is configured to determine the first reference position when the position in the sensor that receives the start point of the first gesture is closer to one end than the other end in the first direction in the detection area of the touch of the sensor.
  • the first gauge bar extending in a first direction from the one end toward the other end may be displayed on the display unit as the position of the one end in the first direction of the first menu.
  • the control unit can set the length of the first gesture for adjusting the length of the first gauge bar to 1/2 or more of the length in the first direction of the detection area. Adjustment of the length of the gauge bar can be easily performed.
  • the control unit may further include an actuator for giving the sensor a predetermined sense of touch, and the control unit may be configured such that an end of the first gauge bar on the first direction side is one of the plurality of first regions from the first region The actuator may be activated when moving to another first area adjacent to the one first area.
  • the user can easily select a desired first icon without looking at the first menu by considering the arrangement order of the plurality of first icons and the number of times of feedback.
  • the plurality of control units from the first reference position may display the first gauge bar changed to have a length equal to or less than a first width in the first direction of the first area.
  • the control unit can set the first gauge bar to a length in an initial state, which is a length equal to or less than the first width, for example. That is, since the first gauge bar is in the initial state when the user performs the next first gesture after a certain time, the length of the first gesture until the desired first icon is selected should be constant. Can. Therefore, the user can easily input the menu with high accuracy.
  • control unit is configured to perform a second menu corresponding to a plurality of sub-functions included in a function indicated by a first icon disposed in a first area where the first gauge side end of the first gauge bar is located.
  • the second menu is a plurality of second icons respectively corresponding to the plurality of sub-functions, and a plurality of second icons arranged in a second direction substantially orthogonal to the first direction. It may be configured by two icons.
  • the user can easily display the second menu corresponding to the desired first icon.
  • a second reference on the second menu is received.
  • a second gauge bar extending in the second direction starting from a position, the second gauge bar having a length corresponding to the length of the second gesture is displayed on the display unit, and a plurality of second areas are arranged without gaps.
  • the end in the second direction of the second gauge bar displayed on the display unit when an input indicating determination to the sensor is received is the second icon. You may select the 2nd icon arrange
  • the second gauge bar can be displayed by the second gesture along the second direction substantially orthogonal to the first direction, the first menu can be displayed even when the second menu is displayed. Input to the second menu can be divided.
  • the user can A desired second icon of the plurality of second icons can be selected.
  • the user can adjust the length of the second gauge bar simply by adjusting the length of the second gesture, the position of the end of the second gauge bar opposite to the starting point can be easily adjusted. .
  • the plurality of second icons are respectively arranged in the plurality of second regions arranged without gaps. Therefore, when the end of the second gauge bar is located in the second area of the second icon different from the desired second icon, the user is directed to the second area where the desired second icon is arranged. Since the second gesture may be performed to move the end of the second gauge bar, the end of the second gauge bar can be quickly moved to the second area where the desired second icon is arranged. Therefore, even when the user is performing another operation such as driving, the user can easily and accurately input the menu displayed on the display unit.
  • control unit causes the display unit to display the second menu, when a state in which the touch is not received by the sensor continues for a second time.
  • the display may be erased.
  • the control unit can erase the display of the second menu, and for example, can keep only the first menu displayed. That is, in order to input from the initial state the first gesture as an input to the first menu from time to time, the user must make the length of the first gesture constant until the desired first icon is selected. Can. Therefore, the user can easily input the menu with high accuracy.
  • control unit recognizes a gesture from a starting point of an input to the sensor to a first angle range including the first direction as the first gesture, and a second adjacent to the first angle range from the starting point A gesture to an angle range that is a second angle range including the second direction may be recognized as the second gesture.
  • control unit can determine whether the gesture input by the user is the first gesture or the second gesture even if the gesture is not strictly along the first direction or the second direction. This allows the user to easily input a gesture.
  • a storage unit storing a priority associated with each of the plurality of first icons with different values is provided, and the control unit causes the display unit to display the first gauge bar.
  • a position in an area in which the first icon stored with the storage unit and having the highest priority may be set as the first reference position.
  • the user can easily select the first icon with the highest priority.
  • control unit may arrange the plurality of first icons in the first direction in descending order of the priority of the plurality of first icons.
  • the user can shorten the length of the first gesture input to select the first icon that is frequently selected. Therefore, the user can shorten the time until selecting the first icon, and can easily select the first icon.
  • the storage unit may store, as the priority, the priority of the plurality of first icons preset by the user.
  • the user can shorten the length of the first gesture input to select the first icon that is frequently selected. Therefore, the user can shorten the time until selecting the first icon, and can easily select the first icon.
  • control unit associates the priority, which is increased as the frequency selected by the user is higher within a predetermined period up to the present, with the plurality of first icons, and the priority stored in the storage unit May be updated to the associated priority.
  • the user can shorten the length of the first gesture input to select the first icon that is frequently selected. Thus, the user can easily select the first icon.
  • control unit causes the display unit to display the first gauge bar
  • an end of the first gauge bar on the first direction side that causes the display unit to display the first gauge bar is a position
  • the first icon arranged in the area to be displayed may be highlighted.
  • the user can easily find the first icon focused by the first gauge bar.
  • the time for the user to gaze at the UI can be shortened.
  • a storage unit storing priorities associated with different values of each of the plurality of second icons is provided, and the control unit causes the display unit to display the second gauge bar.
  • the position in the area where the second icon with the highest priority stored in the storage unit is arranged may be used as the second reference position.
  • the user can easily select the second icon with the highest priority.
  • control unit when the control unit displays the second menu on the display unit, the control unit may arrange the plurality of second icons in the second direction in descending order of the priority of the plurality of second icons.
  • the user can shorten the length of the second gesture input to select the second icon that is frequently selected. Therefore, the user can shorten the time until selecting the second icon, and can easily select the second icon.
  • the storage unit may store, as the priority, the priority of the plurality of second icons preset by the user.
  • the user can shorten the length of the second gesture input to select the second icon that is frequently selected. Therefore, the user can shorten the time until selecting the second icon, and can easily select the second icon.
  • control unit associates the priority, which is increased as the frequency selected by the user is higher within a predetermined period up to the present, with the plurality of first icons, and the priority stored in the storage unit May be updated to the associated priority.
  • the user can shorten the length of the second gesture input to select the second icon that is frequently selected.
  • the user can easily select the second icon.
  • control unit causes the display unit to display the second gauge bar
  • an end on the second direction side of the second gauge bar that causes the display unit to display the second gauge bar is a position
  • the second icon arranged in the area to be displayed may be highlighted.
  • the user can easily find the second icon focused by the second gauge bar.
  • the time for the user to gaze at the UI can be shortened.
  • the senor may be disposed at a center console of the vehicle or at a steering wheel of the vehicle.
  • the display unit may be further provided.
  • FIG. 1 is a view showing an example of a configuration of a cabin of a vehicle in which an input device and an input device according to the embodiment are arranged.
  • the forward direction, the backward direction, the right direction, and the left direction are defined based on the traveling direction of the vehicle. Also, when the vehicle wheel is on the ground, it defines the upward, downward, horizontal and vertical directions. Therefore, the vertical direction is equivalent to the vertical direction.
  • a first input unit 10 constituting an input device and an on-vehicle device 30 are mounted. Further, a shift lever 40 and a steering 50 are further disposed in the cabin of the automobile 1.
  • the input device is a device for performing an input for operating a UI (User Interface) displayed by the display unit 31 of the on-vehicle device 30 mounted on a vehicle such as the automobile 1.
  • UI User Interface
  • the first input unit 10 is an input interface for operating the UI displayed on the display unit 31 of the in-vehicle device 30.
  • the user can control the in-vehicle device 30 mounted on the automobile 1 by operating the UI.
  • the first input unit 10 is disposed rearward of the shift lever 40. That is, the first input unit 10 is disposed at a position within the reach of the user's hand while the user boarding the automobile 1 is sitting on the seat 60 and excluding the steering 50.
  • the driver who is the user can operate the on-vehicle device 30 by performing input to the first input unit 10 disposed behind the shift lever 40 with the left hand.
  • the first input unit 10 may not be disposed at the above-described position as long as the first input unit 10 is disposed at a position within the reach of the user's hand and excluding the steering 50.
  • FIG. 1 exemplifies a right-handed car, the left-handed car is the same as in the right-handed car because the left and right are opposite.
  • the steering 50 is for steering the automobile 1 and includes a rim 51 having a ring shape, a substantially T-shaped spoke 52 integrally formed on the inner peripheral surface of the rim 51, and a central portion of the spoke 52. And a horn switch cover 53 covering a horn switch (not shown) disposed at the The configuration of the first input unit 10 will be described in detail later.
  • the in-vehicle device 30 is, for example, a car navigation system, an audio device for reproducing an optical disc, a video reproduction device, or the like.
  • the in-vehicle device 30 has a display unit 31.
  • the display unit 31 displays a map for performing car navigation, a reproduced image, a UI for operating the in-vehicle device 30, a UI for controlling other in-vehicle devices, and the like.
  • the display unit 31 is realized by, for example, a liquid crystal display, an organic EL (Electro Luminescence) display, or the like.
  • the in-vehicle device 30 may be connected to the speaker 32 and output sound to the speaker 32.
  • an air conditioning apparatus etc. for example, and it may be comprised so that operation
  • FIG. 2 is a plan view of the first input unit as viewed from above the vehicle.
  • the first input unit 10 has a first touch sensor 11.
  • the first input unit 10 may further include a pressure sensor 12.
  • the first input unit 10 may further have touch switches 13 to 17.
  • the first input unit 10 has a planar surface 10 a.
  • the first touch sensor 11 and the touch switches 13 to 17 detect a touch from the user on the surface 10 a of the first input unit 10.
  • the first touch sensor 11 and the touch switches 13 to 17 are disposed at positions not overlapping with each other.
  • the first touch sensor 11 is a sensor that receives a touch by the user, and is, for example, a touch pad. That is, the first touch sensor 11 is a sensor that detects a position in the detection area of the first touch sensor 11 that is touched by a part of the user's body (for example, a finger).
  • the first touch sensor 11 is a sensor that receives a plurality of touches by the user, that is, a multi-touch. Therefore, the first touch sensor 11 can receive two touch positions with two fingers and three touch positions with three fingers at the same timing, in addition to the touch position with one finger.
  • the pressure sensor 12 is disposed in an area overlapping the first touch sensor 11, and detects a pressing input to the first touch sensor 11 and the touch switches 13-17. For example, an input of pressing force larger than a predetermined pressing force to the pressure sensor 12 may be received as an input indicating, for example, determination.
  • the pressure sensor 12 is not limited to the configuration disposed in the area overlapping the first touch sensor 11. For example, in the area overlapping the first touch sensor 11 and the touch switches 13 to 17, respectively, Plural (six in the example of FIG. 2) may be arranged.
  • the touch switches 13 to 15 are disposed in front of the first touch sensor 11, and are disposed side by side in the left-right direction.
  • the touch switches 16 and 17 are disposed behind the first touch sensor 11 and are disposed side by side in the left-right direction.
  • the touch switches 13 to 17 are switches for detecting whether or not the area in which the touch switches 13 to 17 are arranged is touched.
  • the touch switch 13 is, for example, a return switch.
  • the UI displayed on the display unit 31 is changed to the previously displayed UI.
  • the touch switch 14 is, for example, a menu switch. When a touch on the touch switch 14 is detected, a menu is displayed on the UI displayed on the display unit 31.
  • the touch switch 15 is, for example, a map switch. When a touch on the touch switch 15 is detected, a map is displayed on the UI displayed on the display unit 31.
  • the touch switches 16 and 17 are, for example, customization switches.
  • the user can assign a shortcut input to the touch switches 16 and 17 in advance, and when a touch on the touch switches 16 and 17 is detected, an application based on the shortcut assigned by the user is activated, A predetermined operation indicated by the shortcut may be executed.
  • the first input unit 10 is configured of a sensor including the first touch sensor 11, the pressure sensor 12, and the touch switches 13-17.
  • the first input unit 10 is disposed in a posture in which the surface 10 a is substantially vertical in the vertical direction.
  • the first input unit 10 may be disposed in a posture in which the surface 10 a is substantially perpendicular to the front-rear direction.
  • the first input unit in the case where the surface 10a is disposed in a posture that is substantially perpendicular to the front-rear direction may be disposed, for example, such that the surface of the sensor touched by the user faces rearward.
  • the user can operate the UI displayed on the display unit 31 of the in-vehicle device 30 by performing input to the touch sensor and various switches provided in the first input unit 10.
  • FIG. 3 is a block diagram showing an example of a functional configuration of the input device mounted on the vehicle according to the embodiment.
  • the input device 100 includes a first input unit 10, a control unit 18, and an actuator 19.
  • the first input unit 10 includes a first touch sensor 11, a pressure sensor 12, and touch switches 13-17.
  • a first touch sensor 11 When the input to the first touch sensor 11, the pressure sensor 12, and the touch switches 13 to 17 is performed, an input signal indicating the input is output to the control unit 18.
  • the control unit 18 transmits a control signal for controlling the in-vehicle device 30 in accordance with the input signal output from the first input unit 10. Specifically, the control unit 18 causes the display unit 31 of the on-vehicle device 30 to display a display screen including the gesture guide and the operation screen. Further, when the input signal indicating that the menu is to be displayed is output by the first input unit 10, the control unit 18 causes the menu to be displayed on the operation screen of the display unit 31. Details of control according to the input signal by the control unit 18 will be described later.
  • the control unit 18 may be realized by, for example, a processor that executes a predetermined program and a memory that stores the predetermined program, or may be realized by a dedicated circuit.
  • the control unit 18 may be realized by, for example, an ECU (Electronic Control Unit).
  • the actuator 19 feeds back a sense of touch to the user by giving a predetermined vibration to the first input unit 10 as a sensor in accordance with a control signal output by the control unit 18.
  • the actuator 19 is realized by, for example, a piezoelectric element.
  • the actuator 19 is not limited to the configuration that feeds back the sense of touch by vibration, and may be, for example, an actuator that presents a sense of friction due to static electricity or an actuator that generates an electrical stimulation.
  • control unit 18 may cause the display unit 31 of the on-vehicle device 30 to display a display screen.
  • FIG. 4 is a diagram showing an example of a display screen displayed on the display unit.
  • the control unit 18 causes the display unit 31 of the in-vehicle device 30 to display the display screen 200 including the gesture guides 210 and 220 and the operation screen 230 as shown in FIG. 4.
  • the control unit 18 differs from the operation screen 230 according to the input to the first input unit 10 by the user. Display other operation screens and operation guide screens.
  • the first gesture guide 210 is displayed in a first area R1 on the left side among a plurality of (in this case, three) areas R1 to R3 constituting the display area of the display unit 31.
  • the first gesture guide 210 is associated with each of the plurality of types of gestures 211 to 214 with the first number of fingers and the plurality of types of gestures 211 to 214, and when the corresponding type of gesture is input.
  • icons 215 to 218 indicating the type of the operation guide screen to be displayed as the second display screen.
  • the plurality of types of gestures 211 to 214 indicate an input that follows the first touch sensor 11 in a predetermined direction with the first number of fingers.
  • the first number is, for example, two.
  • the gesture 211 indicates an input that is traced forward on the first touch sensor 11 with two fingers.
  • the gesture 212 indicates an input that follows the first touch sensor 11 with two fingers in the right direction.
  • the gesture 213 indicates an input tracing backward on the first touch sensor 11 with two fingers.
  • the gesture 214 indicates an input that follows the first touch sensor 11 in the left direction with two fingers.
  • the gesture 211 is 2 on the first touch sensor 11.
  • the finger 213 indicates an input tracing upward, and the gesture 213 indicates an input tracing downward on the first touch sensor 11 with two fingers.
  • the icon 215 is associated with the gesture 211.
  • the control unit 18 controls the operation guide screen for adjusting the temperature setting of the air conditioning among the air conditioners that perform heating, cooling, and ventilation of the automobile 1. It is displayed on the display unit 31.
  • the icon 216 is associated with the gesture 212, and indicates that the operation guide screen for performing music selection by the music player is displayed on the display unit 31.
  • the control unit 18 causes the display unit 31 to display an operation guide screen for performing music selection.
  • An icon 217 is associated with the gesture 213, and indicates that the operation guide screen for setting to return to home in car navigation is displayed on the display unit 31.
  • the control unit 18 causes the display unit 31 to display an operation guide screen for setting to return to home.
  • the icon 218 is associated with the gesture 214, and indicates that the operation guide screen for adjusting the air volume setting of the air conditioner of the automobile 1 is displayed on the display unit 31.
  • the control unit 18 causes the display unit 31 to display an operation guide screen for adjusting the air volume setting.
  • the second gesture guide 220 is displayed in a second area R2 on the right of the first area R1 among the three areas R1 to R3 constituting the display area of the display unit 31.
  • the gesture guide 220 is associated with each of the plurality of types of gestures 221 and 222 according to the second number (for example, 3) and the plurality of types of gestures 221 and 222, and the corresponding type of gesture is input.
  • icons 223 to 225 indicating the types of operation screens to be displayed as the second display screen.
  • the second gesture guide 220 may include a focus indication 226.
  • the operation screen corresponding to the currently focused icon in the focus display 226 is displayed in the third area R3 on the right side of the three areas R1 to R3 forming the display area of the display unit 31. Indicates that the operation screen is displayed.
  • the plurality of types of gestures 221 and 222 indicate an input that follows the first touch sensor 11 in a predetermined direction or in the opposite direction with the second number of fingers.
  • the second number is a number different from the first number, and is, for example, three.
  • the gesture 221 indicates an input that is traced forward on the first touch sensor 11 with three fingers.
  • the gesture 222 indicates an input tracing backward on the first touch sensor 11 with three fingers.
  • the gestures 221 and 222 are inputs in the front and rear directions, but may be inputs in the left and right directions.
  • the gesture 221 is performed on the first touch sensor 11 three times.
  • the finger 222 indicates an input tracing upward, and the gesture 222 indicates an input tracing downward on the first touch sensor 11 with three fingers.
  • the icons 223 to 225 indicate an operation screen displayed in the third area R3 when selected. That is, the control unit 18 causes the third region R3 to display the operation screen indicated by the icon focused by the focus display 226.
  • the icons 223 to 225 are arranged in a preset order for displaying a plurality of types of operation screens.
  • the icon 223 indicates that, when the focus display 226 is focused, an operation screen for receiving an operation by the user on the music player is displayed in the third region R3.
  • the control unit 18 causes the third region R3 to display an operation screen for receiving an operation by the user on the music player.
  • the icon 224 indicates that the operation screen 230 for receiving an operation by the user on the car navigation is displayed in the third region R3 when the focus display 226 is focused (that is, in the case of FIG. 4).
  • the control unit 18 causes the third area R3 to display an operation screen 230 for receiving an operation by the user on the car navigation. .
  • An icon 225 indicates that, when the focus display 226 is focused, an operation screen for receiving an operation by the user on the air conditioner is displayed in the third region R3.
  • the control unit 18 causes the third region R3 to display an operation screen for receiving an operation by the user on the air conditioner.
  • the first number is two and the second number is three, if the first number and the second number are a plurality of numbers different from each other, the combination is limited to the above. Absent. That is, the first number and the second number may be three and two combinations, two and four combinations, four and two combinations, and the like, respectively. Of course, any combination of the first number and the second number may be five.
  • the operation screen 230 is displayed in the third area R3.
  • the operation screen 230 is a screen for receiving an operation by the user on the car navigation. As described above, in the third region R3, any one of the operation screen, the operation guide screen, and the menu corresponding to the type of the gesture input to the first touch sensor 11 is displayed.
  • control unit 18 may cause the display screen 200A to include the operation screen 230A on which the first menu 231 and the second menu 232A are superimposed.
  • FIG. 5 is a view showing another example of the display screen displayed on the display unit.
  • 6 to 10 are diagrams for explaining the method of inputting to the first menu and the second menu.
  • FIG. 6A is a diagram for describing the first menu 231 and the second menu 232A displayed on the operation screen 230A in response to the rightward gesture input to the first input unit 10.
  • (B) of FIG. 6 is a figure which shows the input to the 1st input part 10.
  • the first menu 231 is configured by a plurality of first icons 311a and 312 to 316 aligned in the left-right direction as the first direction.
  • the plurality of first icons 311 a and 312 to 316 are arranged in each of the plurality of first areas 321 to 326 arranged without gaps.
  • broken lines indicating the boundaries of the plurality of first areas 321 to 326 are displayed on the first menu 231, but the broken lines are lines drawn for the convenience of the description. It is a virtual line not displayed.
  • the plurality of first icons 311 a and 312 to 316 are icons corresponding to car navigation, music reproduction, call, information, setting, and HVAC (Heating, ventilation, and air conditioning), respectively.
  • the first touch sensor 11 of the first input unit 10 is the first to one side in the first direction (that is, the right side).
  • the control unit 18 causes the operation screen 230A of the display unit 31 to display the first gauge bar 301 extending in the left and right direction starting from the first reference position on the first menu 231.
  • the control unit 18 controls the first gauge bar 301 having a length D1 corresponding to the length d1 of the first gesture input to the first touch sensor 11 in the left-right direction. Display on.
  • the first reference position is one end of the first menu 231 in the left-right direction, which is the position of the left end in the present embodiment.
  • the control unit 18 determines the first reference position.
  • the first gauge bar 301 extending in the rightward direction from the position of the left end of the first menu 231 is displayed on the operation screen 230A of the display unit 31. In FIG. 6A, the first gauge bar 301 is shown by hatching of dots.
  • the user performs a plurality of A desired first icon can be selected from the first icons 311a, 312-316.
  • the user can select a desired first icon with an input limited to one direction in the left-right direction (the right direction in this embodiment), that is, a simple input.
  • control unit 18 is disposed in the first area 321 in which the end (that is, the right end) 301 a on the first direction side of the first gauge bar 301 displayed on the operation screen 230 A of the display unit 31 is located.
  • the icon 311a may be highlighted.
  • the first icon 311 a may be displayed larger than the other first icons 312 to 316, may be displayed thicker, or may be displayed brighter by being displayed emphatically .
  • the first icon 311a may be displayed in a different color than, for example, the other first icons 312 to 316 by being displayed in an emphasized manner.
  • first icon 311 a may be displayed in an emphasized manner, and for example, only the first icon 311 a may be displayed in a blinking manner.
  • first icon 311a is not displayed in an emphasized manner, it is displayed as the first icon 311 shown in FIG.
  • control unit 18 displays the second menu 232A corresponding to a plurality of sub functions included in the function indicated by the first icon 311a disposed in the first area where the end 301a of the first gauge bar 301 is located. It may be displayed on the 31 operation screen 230A.
  • the second menu 232A is displayed, for example, in an area above the first icon 311a.
  • the second menu 232A corresponds to the first icon 311a, and includes a plurality of second icons 331A to 334A respectively corresponding to a plurality of sub functions related to the car navigation function.
  • the plurality of second icons 331A to 334A are arranged in the vertical direction as a second direction substantially orthogonal to the horizontal direction as the first direction. Therefore, the user can easily display the second menu 232A corresponding to the desired first icon 311a.
  • the plurality of second icons 331A to 334A are arranged in each of the plurality of second areas 341A to 344A aligned without a gap.
  • a broken line indicating the boundary of the plurality of second areas 341A to 344A is displayed on the second menu 232A in the drawing, the broken line is a line drawn for the convenience of description, and the second menu 232A is a line drawn. It is a virtual line not displayed.
  • the control unit 18 continues a plurality of times from the first reference position when the first touch sensor 11 does not receive a touch for a first time.
  • the first gauge bar 301 may be displayed on the display unit 31 so as to have a length equal to or less than the first width in the left-right direction of the first regions 321 to 326. That is, the control unit 18 may display the length of the first gauge bar 301 with the length in the initial state when the touch has not been performed for the first time.
  • the control unit 18 may set the length to 0 as the length in the initial state, or may be shorter than the width in the left-right direction of each of the first regions 321 to 326, or may be shorter than the length D1. You may
  • the control unit 18 can set the first gauge bar 301 to a length in an initial state, which is, for example, a length equal to or less than a first width. That is, since the first gauge bar is in the initial state when the user performs the next first gesture after a certain time, the length of the first gesture until the desired first icon is selected should be constant. Can. Therefore, the user can easily perform the input to the menu with high accuracy.
  • FIG. 7A is a diagram for describing the first menu 231 and the second menu 232B displayed on the operation screen 230A in accordance with the rightward gesture input to the first input unit 10.
  • FIG. 7B shows an input to the first input unit 10.
  • the control unit 18 lengthens the length of the first gauge bar 301 so that the end portion 301 a of the first gauge bar 301 is out of the plurality of first regions 321 to 326.
  • the first icon 312a disposed in the first area 322 where the end portion 301a is positioned is focused.
  • the control unit 18 highlights the first icon 312a and displays the second menu 232B corresponding to the first icon 312a in the upper area of the first icon 312a.
  • the second menu 232B corresponds to the first icon 312a, and includes a plurality of second icons 331B to 334B respectively corresponding to a plurality of sub functions related to the music reproduction function.
  • the plurality of second icons 331B to 334B are arranged in the vertical direction. Further, the plurality of second icons 331B to 334B are arranged in each of the plurality of second areas 341B to 344B arranged without a gap.
  • broken lines indicating the boundaries of the plurality of second areas 341B to 344B are displayed on the second menu 232B, but the broken lines are lines drawn for the convenience of description, and the second menu 232B is a line drawn. It is a virtual line not displayed.
  • the control unit 18 further determines that the end 301a is the boundary between the first area 321 and the first area 322.
  • the actuator 19 is moved across, the first touch sensor 11 is vibrated by activating the actuator 19. Thereby, the control unit 18 feeds back the sense of touch to the user.
  • the user can easily select a desired first icon without looking at the first menu by considering the arrangement order of the plurality of first icons and the number of times of feedback.
  • FIG. 8A is a diagram for describing the first menu 231 and the second menu 232B displayed on the operation screen 230A in accordance with the rightward gesture input to the first input unit 10.
  • (B) of FIG. 8 is a figure which shows the input to the 1st input part 10.
  • the control unit 18 has a length corresponding to the length d3 of the input first gesture.
  • the first gauge bar 301 of D3 is displayed on the operation screen 230A of the display unit 31.
  • the length d3 is longer than the length d2, and the length D3 is longer than the length D2.
  • the end 301 a of the first gauge bar 301 is located within the first region 322 as in the case of FIG. 7, so the control unit 18 sets the length of the first gauge bar 301 Only processing to display longer than the case of 7 is performed. Further, in this case, the control unit 18 does not vibrate the actuator 19 because the end 301a of the first gauge bar 301 has not moved to the next first area 323.
  • the input indicating that the user has made a determination in the state of FIG. 6 is described as the input of a pressing force to the pressure sensor 12 larger than the predetermined pressing force as described above, It is not limited to such input.
  • the input indicating the determination by the user may be defined as the tap operation on the first touch sensor 11.
  • one gesture in which the finger changes the tracing direction from the gesture along the first direction shown in FIG. 6 continuously to the gesture along the second direction (substantially orthogonal to the first direction) shown in FIG. To perform may be defined as the input to the first touch sensor 11 indicating the determination.
  • the control unit 18 controls the first gauge bar 301 displayed on the operation screen 230A of the display unit 31 when the input indicating the determination to the first input unit 10 is made among the plurality of first icons 311a and 312 to 316.
  • the first icon arranged in the first area where the end (the right end) 301a of the first direction side is located is selected.
  • the control unit 18 may gray out and display the other first icons 312 to 316 by selecting the first icon 311a.
  • FIG. 9A is a diagram for describing the first menu 231 and the second menu 232A displayed on the operation screen 230A in response to the upward gesture input to the first input unit 10.
  • (B) of FIG. 9 is a diagram showing an input to the first input unit 10.
  • the control unit 18 displays the second gauge bar 302 on the second menu 232A by selecting the first icon 311a.
  • the control unit 18 displays the second menu 232A on the second menu 232A.
  • a second gauge bar extending in the vertical direction starting from the second reference position is displayed on the operation screen 230A of the display unit 31.
  • the control unit 18 causes the second gauge bar 302 having a length D4 corresponding to the length d4 of the second gesture input to the first touch sensor 11 along the vertical direction to be the operation screen 230A of the display unit 31. Display on.
  • the second reference position is one end of the second menu 232A in the vertical direction, which is the position of the lower end in the present embodiment. If the direction of the second gesture corresponds to the second direction (upward direction) from the one end (lower end) to the other end (upper end) of the second menu 232A, the control unit 18 determines the second reference position.
  • the second gauge bar 302 extending upward from the position of the lower end of the second menu 232A is displayed on the operation screen 230A of the display unit 31. In FIG. 9A, the second gauge bar 302 is shown by hatching of dots.
  • control unit 18 is disposed in the second area 341A in which the second direction side end (that is, the upper end) 302a of the second gauge bar 302 displayed on the operation screen 230A of the display unit 31 is located.
  • the icon 331Aa may be highlighted and displayed.
  • a specific example of highlighting of the second icon is the same as the specific example of highlighting of the first icon.
  • FIG. 10A is a diagram for describing a first menu 231 and a second menu 232A displayed on the operation screen 230A in accordance with the upward gesture input to the first input unit 10.
  • FIG. 10B shows an input to the first input unit 10.
  • the control unit 18 has a length corresponding to the length d5 of the input second gesture.
  • the second gauge bar 302 of D5 is displayed on the operation screen 230A of the display unit 31.
  • the length d5 is longer than the length d4, and the length D5 is longer than the length D4.
  • the control unit 18 lengthens the length of the second gauge bar 302, whereby the end 302a of the second gauge bar 302 is selected from the plurality of second regions 341A to 344A.
  • the second icon 332Aa disposed in the second area 342A where the end 302a is located is focused. Thereby, the control unit 18 highlights the second icon 332Aa.
  • the control unit 18 further divides the end 302a between the second area 341A and the second area 342A.
  • the actuator 19 is moved across, the first touch sensor 11 is vibrated by vibrating the actuator 19. Thereby, the control unit 18 feeds back the sense of touch to the user.
  • control unit 18 is displayed on the operation screen 230A of the display unit 31 when the input indicating the determination to the first input unit 10 is made among the plurality of second icons 331A, 332Aa, 333A, 334A.
  • the second icon located in the second area where the end 302a of the second gauge bar 302 is located is selected.
  • the control unit 18 selects the second icon 332Aa. Then, the control unit 18 executes the function indicated by the selected second icon 323Aa, and displays a message indicating that the function has been performed.
  • the input indicating the determination is not limited to the input of the pressing force to the pressure sensor 12 as described above, and even if it is a tap operation, the direction from the second direction to the first direction is the tracing It may be one continuous gesture to be changed.
  • the control unit 18 causes the display unit 31 to display the second menu when a state in which a touch is not received by the first touch sensor 11 continues for a second time.
  • the display of 232A may be erased.
  • the control unit 18 may display only the first menu 231 on the display unit 31 or may erase the display of the first menu 231 from the display unit 31.
  • the control unit 18 can erase the display of the second menu 232A, and, for example, can keep only the first menu 231 displayed. That is, in order to input from the initial state the first gesture as the input to the first menu 231 from time to time, the user keeps the length of the first gesture until the desired first icon is selected constant. be able to. Therefore, the user can easily perform the input to the first menu 231 with high accuracy.
  • the control unit 18 recognizes, as a first gesture, a gesture from the start point of the input to the first touch sensor 11 to the first angle range ⁇ 1 including the horizontal direction, and the first angle from the start point A gesture to the second angle range ⁇ 2 that is the second angle range ⁇ 2 adjacent to the range ⁇ 1 and that includes the vertical direction may be recognized as a second gesture.
  • the first angle range ⁇ 1 for recognizing the first gesture is an angle range to the right of the starting point because the first gesture is a gesture in the right direction, but the first gesture In the case of a gesture in the left direction, the angle range may be on the left side of the starting point.
  • the second angle range ⁇ 2 for recognizing the second gesture is an angle range above the origin because the second gesture is an upward gesture, but the second gesture is downward In the case of the gesture, the angle range may be lower than the origin.
  • the direction of the gesture may be defined by the angle of a straight line connecting two points of the starting point and the point currently input.
  • the control unit 18 may determine that the gesture input by the user is not strictly along the horizontal direction or the vertical direction. , It can be determined whether it is the first gesture or the second gesture. This allows the user to easily input a gesture.
  • the control unit 18 determines whether an input indicating menu selection has been received (S11).
  • the input indicating menu selection is, for example, a touch on the touch switch 14 of the first input unit 10. That is, for example, the control unit 18 determines whether the touch switch 14 has detected a touch.
  • control unit 18 When the control unit 18 receives an input indicating menu selection (Yes in S11), the control unit 18 causes the display unit 31 to display the first menu 231 (S12).
  • control unit 18 when the control unit 18 has not received an input indicating menu selection (No in S11), the control unit 18 returns to step S11 and repeats step S11.
  • the control unit 18 determines whether the first touch sensor 11 has received the first gesture (S13).
  • the control unit 18 sets the first gauge bar 301 having a length corresponding to the length of the first gesture received by the first touch sensor 11. 1 is displayed superimposed on the menu 231 (S14).
  • control unit 18 highlights the first icon arranged in the first area where the end 301a of the first gauge bar 301 is located (S15), and the second menu 232A corresponding to the first icon is displayed. Display (S16). Steps S14 to S16 may not be performed in this order or may be performed simultaneously.
  • control unit 18 determines whether the first input unit 10 receives an input indicating a determination (S17).
  • the input indicating the determination is, for example, pressing with a pressing force equal to or higher than a predetermined pressing force in the pressure sensor 12 of the first input unit 10.
  • the control unit 18 grays out the first icons other than the determined first icon, and executes the next step S20. Thereby, the control unit 18 shifts to a mode for receiving the second gesture.
  • the control unit 18 returns to Step S13. In addition, the control part 18 does not need to perform determination of step S17.
  • the control unit 18 determines whether the first time has elapsed in a state in which the first gesture is not received (S18).
  • the first time may be 0 if the first gesture has been received once. That is, the control unit 18 may detect whether or not the state in which the first gesture is received has transitioned to the state in which the first gesture is not received.
  • control unit 18 determines that the first time has elapsed without receiving the first gesture (Yes in S18), the length of the first gauge bar 301 is returned to the initial state (S19), and the process returns to step S13.
  • control unit 18 repeats step S13.
  • control unit 18 determines whether the first touch sensor 11 receives the second gesture (S20).
  • the control unit 18 sets the second gauge bar 302 having a length corresponding to the length of the second gesture received by the first touch sensor 11. 2 Superimpose on the menu 232A and display (S21).
  • the control unit 18 returns to Step S13.
  • control unit 18 highlights the second icon arranged in the second area where the end 302a of the second gauge bar 302 is located (S22). Steps S21 and S22 may not be performed in this order, or may be performed simultaneously.
  • control unit 18 determines whether or not the first input unit 10 receives an input indicating determination (S23).
  • the control unit 18 selects the highlighted second icon, and executes the function indicated by the second icon (S24).
  • the control unit 18 determines whether or not the second time has elapsed in a state where the second gesture is not received ( S25).
  • control unit 18 determines that the second time has elapsed in a state where the second gesture is not received (Yes in S25)
  • the display of the second menu 2321A and the second gauge bar 302 is deleted, and the control unit 18 The length is returned to the initial state and displayed (S26). Then, the control unit 18 returns to step S13.
  • FIGS. 12 and 13 are an example, and the input device 100 may perform the processing described in the column of the functional configuration of the input device, and the steps may not necessarily be performed in the order as illustrated in FIG. 12 and FIG. Does not have to be performed, or all the steps need not necessarily be performed.
  • the input device 100 performs the input for operating the UI (User Interface) including the first menu 231 displayed by the display unit 31 disposed on the automobile 1.
  • the first input unit 10 and the control unit 18 are provided.
  • the first input unit 10 includes a first touch sensor 11 that receives a gesture by a touch of the user.
  • the control unit 18 causes the display unit 31 to display the plurality of first icons 311 to 316 arranged in the left-right direction as the first menu 231.
  • the control unit 18 is a first gauge bar 301 extending in the left and right direction starting from the first reference position on the first menu 231, and the length of the first gesture along the left and right direction input to the first touch sensor 11.
  • the display unit 31 displays a first gauge bar 301 having a length corresponding to Further, the control unit 18 receives an input indicating the determination to the first input unit 10 among the plurality of first icons 311 to 316 arranged in each of the plurality of first regions 321 to 326 arranged without a gap. At this time, the first icon arranged in the first area where the end 301a of the first gauge bar 301 displayed on the display unit 31 is selected is selected.
  • the position of the end 301 a of the first gauge bar 301 opposite to the starting point can be easily adjusted. be able to.
  • the plurality of first icons 311 to 316 are arranged in the plurality of first areas 321 to 326 arranged without a gap. Therefore, when the end 301a of the first gauge bar 301 is positioned in the first area of the first icon different from the desired first icon, the user can select the first area in which the desired first icon is arranged.
  • the first gesture may be performed to move the end 301 a of the first gauge bar 301 toward the point. Therefore, the user can quickly move the end 301a of the first gauge bar 301 to the first area where the desired first icon is arranged. Therefore, even when the user is performing another operation such as driving, the user can easily and accurately input the menus 231, 232A, 232B displayed on the display unit 31.
  • the control unit 18 receives the second gesture in which the first touch sensor 11 extends in the vertical direction while the second menu 232A is displayed on the display unit 31.
  • the second gauge bar 302 extending in the vertical direction starting from the second reference position on the second menu 232A is displayed on the display unit 31 with the second gauge bar 302 having a length corresponding to the length of the second gesture.
  • the control unit 18 receives an input indicating the determination to the first input unit 10 among the plurality of second icons 331A to 334A arranged in each of the plurality of second regions 341A to 344A arranged without a gap.
  • the second icon arranged in the second area where the end 302a of the second gauge bar 302 displayed on the display unit 31 is selected is selected.
  • the second gauge bar 302 can be displayed by the second gesture along the vertical direction substantially orthogonal to the left and right direction, the first menu can be displayed even when the second menu 232A is displayed.
  • the input to 231 and the input to the second menu 232A can be divided.
  • the arrangement direction of the plurality of second icons 331A to 334A matches the direction of the second gesture for adjusting the length of the second gauge bar 302.
  • the user can intuitively select a desired second icon of the plurality of second icons 331A to 334A.
  • the position of the end 302 a of the second gauge bar 302 opposite to the starting point can be easily adjusted. be able to.
  • the plurality of second icons 331A to 334A are respectively arranged in the plurality of second regions 341A to 344A arranged without a gap. Therefore, when the end 302a of the second gauge bar 302 is located in the second area of the second icon different from the desired second icon, the user can select the second area where the desired second icon is located. To move the end 302a of the second gauge bar 302 to the second area where the desired second icon is arranged quickly. It can be done. Therefore, even when the user is performing another operation such as driving, the user can easily and accurately input the menus 231, 232A, 232B displayed on the display unit 31.
  • control part 18 made the 1st standard position the position of the left end of the 1st menu 231, it does not restrict to this.
  • the control unit 18 A first gauge bar extending in a first direction from one end to the other end may be displayed on the display unit 31 as the position of one end in the left-right direction of one menu.
  • the start point of the first gesture is input to the right half area R12 in the detection area of the first touch sensor 11, the right end of the first menu 231 is set as the first reference position in the left direction.
  • the first gauge bar 301A may be displayed.
  • the control unit 18 displays the first gauge bar 301A with the first reference point set to the right end of the first menu 231. Then, in this case, first, the first icon 316a is focused, and the second menu 232C corresponding to the first icon 316a is displayed.
  • the first gauge bar 301 similar to FIG. 6 is displayed.
  • the control unit 18 has the direction side closer to the position at which the first reference position on the first menu 231 is received. Decide on the end of the.
  • the control unit 18 sets the direction extending from the first reference position of the first gauge bar 301, 301A to the end portion of the both ends of the detection area in the first direction, which is farther from the received position. For this reason, the control unit 18 can set the length of the first gesture for adjusting the length of the first gauge bar 301, 301A to 1/2 or more of the length in the first direction of the detection area. Can easily adjust the length of the first gauge bar.
  • the control unit 18 sets the first reference position to the end of the first menu 231.
  • the present invention is not limited to this. It may be a central position.
  • the control unit 18 displays the first gauge bar extending to the right from the first reference position if the first gesture is in the right direction, and to the left from the first reference position if the first gesture is in the left direction. Display the extending first gauge bar.
  • the first reference position may be determined according to the priorities of the plurality of first icons 311 to 316.
  • the input device 100 includes a storage unit (not shown) that stores the priorities associated with different values of the plurality of first icons 311 to 316, and the control unit 18 When displaying the first gauge bar 301 on the display unit 31, the position in the area where the first icon stored in the storage unit is the highest in priority may be set as the first reference position. Thus, the user can easily select the first icon with the highest priority.
  • the control unit 18 arranges and displays the plurality of first icons 311 to 316 in the left-right direction in descending order of the priority of the plurality of first icons 311 to 316. It is also good.
  • the control unit 18 may arrange and display the plurality of first icons 311 to 316 from the left in descending order of priority.
  • the user can shorten the length of the first gesture input to select the first icon that is frequently selected. Therefore, the user can shorten the time until selecting the first icon, and can easily select the first icon.
  • the storage unit may store, as the priority, the priority of the plurality of first icons 311 to 316 preset by the user. Therefore, the user can shorten the length of the first gesture input to select the first icon that is frequently selected. Therefore, the user can shorten the time until selecting the first icon, and can easily select the first icon.
  • control unit 18 associates the priority, which is increased as the frequency selected by the user is higher in the predetermined period up to the present, with the plurality of first icons 311 to 316, and the priority stored in the storage unit May be updated to the associated priority. Therefore, the user can shorten the length of the first gesture input to select the first icon that is frequently selected. Thus, the user can easily select the first icon.
  • the second reference position may be determined according to the priorities of the plurality of second icons 331A to 334A and 331B to 334B.
  • the storage unit may store the priorities associated with the plurality of second icons 331A to 334A and 331B to 334B with different values.
  • the control unit 18 may use the position in the area in which the second icon having the highest priority stored in the storage unit is arranged as the second reference position. .
  • the user can easily select the second icon with the highest priority.
  • the case where the control unit 18 is displaying the second menu 232A will be described as an example.
  • the case where the second menu 232B is displayed can be described in the same manner as the second menu 232A, so the description will be omitted.
  • the control unit 18 arranges and displays the plurality of second icons 331A to 334A in the vertical direction in the descending order of the priority of the plurality of second icons 331A to 334A. It is also good.
  • the control unit 18 may arrange and display the plurality of second icons 331A to 334A from the bottom in the descending order of priority.
  • the user can shorten the length of the second gesture input to select the second icon that is frequently selected. Therefore, the user can shorten the time until selecting the second icon, and can easily select the second icon.
  • the storage unit may store, as the priority, the priorities of the plurality of second icons 331A to 334A preset by the user. Therefore, the user can shorten the length of the second gesture input to select the second icon that is frequently selected. Therefore, the user can shorten the time until selecting the second icon, and can easily select the second icon.
  • control unit 18 associates the priority, which is increased as the frequency selected by the user is higher in the predetermined period up to the present, with the plurality of second icons 331A to 334A, and the priority stored in the storage unit May be updated to the associated priority. Therefore, the user can shorten the length of the second gesture input to select the second icon that is frequently selected. Thus, the user can easily select the second icon.
  • the control unit 18 may perform only one of the display control of the plurality of first icons 311 to 316 according to the priority and the display control of the plurality of second icons 331A to 334A, or both of them. You may
  • the first region R1 and the second region R2 are provided in the display section 31, but only the third region R3 is provided without providing the first region R1 and the second region R2. It may be provided. That is, only the operation screens 230 and 230A may be displayed on the display unit 31.
  • first menu 231 and the second menus 232A to 232C are displayed in the third area R3, they may be displayed in an area other than the third area R3, or The display may be made across two or more of the first area R1, the second area R2, and the third area R3.
  • the first menu 231 and the second menus 232A to 232C are superimposed on the operation screen 230A and displayed, but instead of the operation screen 230, the first menu 231 and the second menu are displayed. Only the display devices 232A to 232C may be displayed.
  • the first direction is the left and right direction
  • the second direction is the up and down direction
  • the first direction is the up and down direction
  • the second direction is the left and right direction. It is also good.
  • the second menus 232A to 232C are displayed above the first menu 231, the second menus 232A to 232C may be displayed below the first menu 231. Good.
  • the second menus 232A to 232C may be displayed on the right or left side of the first menu 231.
  • the control unit 18 when the first icon 311a is selected by the input indicating determination, the control unit 18 causes the second menu 232A to display the second gauge bar 302.
  • the second gauge bar 302 may be displayed even if the input indicating the determination is not made.
  • the input which shows determination was made into the input to the pressure sensor 12 in the said embodiment and modification, not only this but even the tap to the 1st touch sensor 11, a double tap, etc. It may be a touch input to another touch switch 13-17.
  • the first touch sensor 11 disposed at a position excluding the steering 50 of the automobile 1 is used as the touch sensor, but the present invention is not limited to this.
  • an input device 100A including a second input unit 20 including a second touch sensor 21 disposed in the steering 50 of the automobile 1A may be employed.
  • FIG. 15 is a diagram showing an example of the configuration of the passenger compartment of the vehicle in which the input device and the input device according to the modification are arranged.
  • FIG. 16 is a block diagram showing an example of a functional configuration of an input device mounted on a vehicle according to a modification.
  • the input device 100A according to the modification is different from the input device 100 according to the embodiment only in the configuration of the second input unit 20 and the function of the control unit 18A, so the second input unit 20 will be described. Description of the other components is omitted.
  • the second input unit 20 is disposed in the steering 50.
  • the second input unit 20 is a switch having a second touch sensor 21.
  • the second input unit 20 is disposed, for example, in a spoke 52 of the steering 50.
  • the driver can operate the on-vehicle device 30 by performing an input on the second input unit 20 with the finger of the right hand holding the rim 51 of the steering 50.
  • the second touch sensor 21 is a sensor that detects a position touched by a part of the user's body (for example, a finger). When an input to the second touch sensor 21 is performed, an input signal indicating the input is output to the control unit 18A.
  • the control unit 18 ⁇ / b> A may perform the operation of the above-described embodiment in response to the gesture on the second touch sensor 21 instead of the gesture on the first touch sensor 11.
  • the display screen accompanying the touch input to the second touch sensor 21 is not limited to the configuration displayed on the display unit 31, and may be displayed on a display provided in the meter, for example.
  • the result of the driver operating the second touch sensor 21 while driving can be viewed with minimum eye movement.
  • the result of operating the first touch sensor 11 may be displayed on the display in the meter.
  • FIG.15 and FIG.16 it was set as the structure provided with both the 1st input part 10 and the 2nd input part 20 in the structure of FIG.15 and FIG.16, it is good also as a structure provided only with the 2nd input part 20.
  • FIG.15 and FIG.16 it was set as the structure provided with both the 1st input part 10 and the 2nd input part 20 in the structure of FIG.15 and FIG.16, it is good also as a structure provided only with the 2nd input part 20.
  • input device 100, 100A presupposed that it is the composition which does not include indicator 31, it is good also as composition further including indicator 31.
  • each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory.
  • program execution unit such as a CPU or a processor reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory.
  • software for realizing the input device and the like of each of the above-described embodiments is the following program.
  • this program is an input method by an input device for performing an input for operating a UI (User Interface) including a first menu displayed by a display unit disposed in a vehicle on a computer, the first direction A first gauge bar for displaying a plurality of first icons arranged in the first menu as the first menu on the display unit and extending in the first direction starting from a first reference position on the first menu; A first gauge bar having a length corresponding to the length of the first gesture along the first direction input by the user's touch on the sensor is displayed on the display unit, and arranged in each of a plurality of areas arranged without gaps Among the plurality of first icons being displayed, the first game displayed on the display unit when an input indicating determination to the sensor is received End of the bar the first direction side of executing the input method of selecting a first icon disposed in the region located.
  • UI User Interface
  • the present disclosure is useful as an input device, an input method, and the like that can easily and accurately input to a menu displayed on the display unit even when the user is performing another task. .

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

車両に配置される表示部(31)が表示する、第1メニュー(231)を含むUIを操作するための入力を行う入力装置(100)であって、ユーザのタッチによるジェスチャを受け付ける第1タッチセンサ(11)と、第1方向に並ぶ複数の第1アイコンを第1メニューとして表示部(31)に表示させる制御部(18)と、を備え、制御部(18)は、第1基準位置を起点として第1方向に延び、かつ、第1タッチセンサ(11)に入力された第1ジェスチャの長さに第1ゲージバー(301)を表示部(31)に表示させ、隙間無く並ぶ複数の第1領域のうち、決定を示す入力がされたときに表示部(31)に表示されている第1ゲージバー(301)の端部(301a)が位置する第1領域内に配置されている第1アイコンを選択する。

Description

入力装置、及び、入力方法
 本開示は、車両に配置される表示部が表示するUI(User Interface)を操作するための入力を行う入力装置、及び、その入力方法に関する。
 特許文献1には、所定の入力の入力量に応じてカーソルを上下左右方向に移動させて、移動させたカーソルの位置に応じてメニューのメニュー項目を選択させる情報処理装置が開示されている。
特開2004-246920号公報
 ところで、ユーザは、車両の運転中においては、前方を注視しながら車両を運転することになる。このため、ユーザが運転中に、カーソルを所望のメニュー項目の位置まで移動させることは困難であり、表示されているメニューから所望のメニュー項目を誤選択する、または、選択するまでに多くの時間を要してしまうという課題がある。
 そこで、本開示は、ユーザが他の作業を行っている場合であっても、表示部に表示されているメニューへの入力を、精度よく容易に行うことができる入力装置を提供する。
 本開示の一態様に係る入力装置は、車両に配置される表示部が表示する、第1メニューを含むUI(User Interface)を操作するための入力を行う入力装置であって、ユーザのタッチによるジェスチャを受け付けるセンサと、第1方向に並ぶ複数の第1アイコンを前記第1メニューとして前記表示部に表示させる制御部と、を備え、前記制御部は、前記第1メニュー上の第1基準位置を起点として前記第1方向に延びる第1ゲージバーであって、前記センサに入力された前記第1方向に沿った第1ジェスチャの長さに応じた長さの第1ゲージバーを前記表示部に表示させ、隙間無く並ぶ複数の第1領域のそれぞれに配置されている前記複数の第1アイコンのうち、前記センサへの決定を示す入力がされたときに前記表示部に表示されている前記第1ゲージバーの前記第1方向側の端部が位置する第1領域内に配置されている第1アイコンを選択する。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 本開示の入力装置は、ユーザが他の作業を行っている場合であっても、表示部に表示されているメニューへの入力を、精度よく容易に行うことができる。
図1は、実施の形態に係る入力装置及び入力装置が配置されている車両の車室の構成の一例を示す図である。 図2は、第1入力部を車両の進行方向の前方から見た場合の外観斜視図である。 図3は、実施の形態に係る自動車に搭載される入力装置の機能的な構成の一例を示すブロック図である。 図4は、表示部に表示される表示画面の一例を示す図である。 図5は、表示部に表示される表示画面の他の一例を示す図である。 図6は、第1メニュー及び第2メニューへの入力方法について説明するための図である。 図7は、第1メニュー及び第2メニューへの入力方法について説明するための図である。 図8は、第1メニュー及び第2メニューへの入力方法について説明するための図である。 図9は、第1メニュー及び第2メニューへの入力方法について説明するための図である。 図10は、第1メニュー及び第2メニューへの入力方法について説明するための図である。 図11は、第1タッチセンサへのジェスチャを判別する角度範囲を説明するための図である。 図12は、実施の形態に係る入力装置における動作の一例を示すフローチャートである。 図13は、実施の形態に係る入力装置における動作の一例を示すフローチャートである。 図14は、ジェスチャの起点の位置に応じて第1基準位置を変更する処理を説明するための図である。 図15は、変形例に係る入力装置及び入力装置が配置されている車両の車室の構成の一例を示す図である。 図16は、変形例に係る自動車に搭載される入力装置の機能的な構成の一例を示すブロック図である。
 本開示の一態様に係る入力装置は、車両に配置される表示部が表示する、第1メニューを含むUI(User Interface)を操作するための入力を行う入力装置であって、ユーザのタッチによるジェスチャを受け付けるセンサと、第1方向に並ぶ複数の第1アイコンを前記第1メニューとして前記表示部に表示させる制御部と、を備え、前記制御部は、前記第1メニュー上の第1基準位置を起点として前記第1方向に延びる第1ゲージバーであって、前記センサに入力された前記第1方向に沿った第1ジェスチャの長さに応じた長さの第1ゲージバーを前記表示部に表示させ、隙間無く並ぶ複数の第1領域のそれぞれに配置されている前記複数の第1アイコンのうち、前記センサへの決定を示す入力がされたときに前記表示部に表示されている前記第1ゲージバーの前記第1方向側の端部が位置する第1領域内に配置されている第1アイコンを選択する。
 これによれば、複数の第1アイコンの並び方向と、第1ゲージバーの長さを調整するための第1ジェスチャの方向とが一致しているため、ユーザは、直感的に複数の第1アイコンのうちの所望の第1アイコンを選択することができる。また、ユーザは、第1ジェスチャの長さを調節するだけで第1ゲージバーの長さを調整できるため、第1ゲージバーの、起点とは反対側の端部の位置を容易に調整することができる。
 また、複数の第1アイコンは、隙間無く並ぶ複数の第1領域にそれぞれ配置されている。このため、所望の第1アイコンとは異なる第1アイコンの第1領域に第1ゲージバーの端部が位置する場合には、ユーザは、所望の第1アイコンが配置されている第1領域に向けて第1ゲージバーの端部を移動させるように第1ジェスチャを行えばよいため、素早く所望の第1アイコンが配置されている第1領域に第1ゲージバーの端部を移動させることができる。よって、ユーザは、運転などの他の作業を行っている場合であっても、表示部に表示されているメニューへの入力を、精度よく容易に行うことができる。
 また、前記第1基準位置は、前記第1メニューのうちの前記第1方向の一端の位置であり、前記制御部は、前記第1ジェスチャの向きが前記第1メニューの前記一端から他端へ向かう第1の向きに対応している場合、前記第1基準位置から前記第1の向きに延びる前記第1ゲージバーを前記表示部に表示させてもよい。
 これによれば、第1ゲージバーを表示させる起点となる第1基準位置を第1メニューのうちの第1方向の一端の位置とするため、ユーザは、第1方向の他端側の方向への第1ジェスチャを行うことで、複数の第1アイコンから所望の第1アイコンを選択することができる。このように、ユーザは、第1方向の一つの向きに限定した入力、つまり、簡単な入力で所望の第1アイコンを選択することができる。
 また、前記制御部は、前記第1ジェスチャの起点を受け付けた前記センサにおける位置が、前記センサの前記タッチの検出領域における前記第1方向の他端よりも一端に近い場合、前記第1基準位置を前記第1メニューのうちの前記第1方向の一端の位置として、前記一端から前記他端へ向かう第1の向きに延びる前記第1ゲージバーを前記表示部に表示させてもよい。
 これによれば、センサの検出領域のうち第1ジェスチャの起点を受け付けた位置に応じて、第1ゲージバーの第1基準位置から延びる方向を、第1方向における検出領域の両端のうち当該位置から遠い方の端部への方向とする。このため、制御部は、第1ゲージバーの長さを調整するための第1ジェスチャの長さを検出領域の第1方向における長さの1/2以上とすることができ、ユーザは、第1ゲージバーの長さの調整を容易に行うことができる。
 また、さらに、前記センサに所定の触覚を与えるアクチュエータを備え、前記制御部は、前記第1ゲージバーの前記第1方向側の端部が前記複数の第1領域のうちの一の第1領域から前記一の第1領域に隣接する他の第1領域に移動した場合、前記アクチュエータを起動させてもよい。
 このため、ユーザに、第1ゲージバーの端部が位置する第1領域内の第1アイコンが、次の第1領域に配置されている第1アイコンに遷移したことをフィードバックすることができる。よって、ユーザは、複数の第1アイコンの並び順と、フィードバックされた回数とを考慮することで、第1メニューを注視しなくても所望の第1アイコンを選択することが容易にできる。
 また、前記制御部は、前記第1ゲージバーを前記表示部に表示させている状態において、前記センサにより前記タッチが受け付けられていない状態が第1時間続くと、前記第1基準位置から前記複数の第1領域の前記第1方向における第1の幅以下の長さに変更した前記第1ゲージバーを前記表示部に表示させてもよい。
 このため、制御部は、ユーザがタッチを止めた場合に、第1ゲージバーを、例えば、第1の幅以下の長さである初期状態の長さとすることができる。つまり、ユーザは、時間をおいて次の第1ジェスチャを行うときに、第1ゲージバーが初期状態であるため、所望の第1アイコンを選択するまでの第1ジェスチャの長さを一定とすることができる。よって、ユーザは、メニューへの入力を、精度よく容易に行うことができる。
 また、前記制御部は、前記第1ゲージバーの前記第1方向側の端部が位置する第1領域に配置されている第1アイコンが示す機能に含まれる複数のサブ機能に対応する第2メニューを前記表示部に表示させ、前記第2メニューは、前記複数のサブ機能にそれぞれ対応している複数の第2アイコンであって、前記第1方向に略直交する第2方向に並ぶ複数の第2アイコンにより構成されてもよい。
 このため、ユーザは、所望の第1アイコンに対応する第2メニューを容易に表示させることができる。
 また、前記制御部は、前記第2メニューを前記表示部に表示させている状態において、前記センサが前記第2方向に沿った第2ジェスチャを受け付けた場合、前記第2メニュー上の第2基準位置を起点として前記第2方向に延びる第2ゲージバーであって、前記第2ジェスチャの長さに応じた長さの第2ゲージバーを前記表示部に表示させ、隙間無く並ぶ複数の第2領域のそれぞれに配置されている前記複数の第2アイコンのうち、前記センサへの決定を示す入力がされたときに前記表示部に表示されている前記第2ゲージバーの前記第2方向側の端部が位置する第2領域内に配置されている第2アイコンを選択してもよい。
 これによれば、第1方向に略直交する第2方向に沿った第2ジェスチャにより第2ゲージバーを表示させることができるため、第2メニューが表示されている場合であっても、第1メニューへの入力と第2メニューへの入力とを分けることができる。
 また、第1メニューへの入力と同様に、複数の第2アイコンの並び方向と、第2ゲージバーの長さを調整するための第2ジェスチャの方向とが一致しているため、ユーザは、直感的に複数の第2アイコンのうちの所望の第2アイコンを選択することができる。また、ユーザは、第2ジェスチャの長さを調節するだけで第2ゲージバーの長さを調整できるため、第2ゲージバーの、起点とは反対側の端部の位置を容易に調整することができる。
 また、複数の第2アイコンは、隙間無く並ぶ複数の第2領域にそれぞれ配置されている。このため、所望の第2アイコンとは異なる第2アイコンの第2領域に第2ゲージバーの端部が位置する場合には、ユーザは、所望の第2アイコンが配置されている第2領域に向けて第2ゲージバーの端部を移動させるように第2ジェスチャを行えばよいため、素早く所望の第2アイコンが配置されている第2領域に第2ゲージバーの端部を移動させることができる。よって、ユーザは、運転などの他の作業を行っている場合であっても、表示部に表示されているメニューへの入力を、精度よく容易に行うことができる。
 また、前記制御部は、前記第2メニューを前記表示部に表示させている状態において、前記センサにより前記タッチが受け付けられていない状態が第2時間続くと、前記表示部に前記第2メニューの表示を消去させてもよい。
 これによれば、制御部は、ユーザがタッチを止めた場合に、第2メニューの表示を消去させ、例えば、第1メニューのみを表示したままとすることができる。つまり、ユーザは、時間をおいて、第1メニューへの入力としての第1ジェスチャを初期状態から入力するため、所望の第1アイコンを選択するまでの第1ジェスチャの長さを一定とすることができる。よって、ユーザは、メニューへの入力を、精度よく容易に行うことができる。
 また、前記制御部は、前記センサへの入力の起点から前記第1方向を含む第1角度範囲へのジェスチャを前記第1ジェスチャとして認識し、前記起点から前記第1角度範囲に隣接する第2角度範囲であって、前記第2方向を含む第2角度範囲へのジェスチャを前記第2ジェスチャとして認識してもよい。
 このため、制御部は、ユーザによって入力されたジェスチャが厳密に第1方向または第2方向に沿っていなくても、第1ジェスチャであるか第2ジェスチャであるかを判別できる。これにより、ユーザは、ジェスチャの入力を容易に行うことができる。
 また、さらに、前記複数の第1アイコンのそれぞれに異なる値で対応付けられた優先度を記憶している記憶部を備え、前記制御部は、前記第1ゲージバーを前記表示部に表示させる場合、前記記憶部が記憶している前記優先度が最も大きい第1アイコンが配置されている領域内の位置を前記第1基準位置としてもよい。
 このため、ユーザは、優先度が最も大きい第1アイコンへの選択を容易に行うことができる。
 また、前記制御部は、前記第1メニューを前記表示部に表示させる場合、前記複数の第1アイコンの優先度が大きい順に前記第1方向に前記複数の第1アイコンを並べてもよい。
 このため、ユーザは、例えば、選択する頻度が高い第1アイコンを選択するために入力する第1ジェスチャの長さを短くすることができる。よって、ユーザは、第1アイコンを選択するまでの時間を短縮でき、第1アイコンの選択を容易に行うことができる。
 また、前記記憶部は、ユーザにより予め設定された前記複数の第1アイコンの優先度を前記優先度として記憶していてもよい。
 このため、ユーザは、選択する頻度が高い第1アイコンを選択するために入力する第1ジェスチャの長さを短くすることができる。よって、ユーザは、第1アイコンを選択するまでの時間を短縮でき、第1アイコンの選択を容易に行うことができる。
 また、前記制御部は、現在までの所定期間内において前記ユーザにより選択された頻度が高いほど大きくした優先度を前記複数の第1アイコンに対応付け、前記記憶部に記憶されている前記優先度を対応付けした優先度に更新してもよい。
 このため、ユーザは、選択する頻度が高い第1アイコンを選択するために入力する第1ジェスチャの長さを短くすることができる。よって、ユーザは、第1アイコンの選択を容易に行うことができる。
 また、前記制御部は、前記第1ゲージバーを前記表示部に表示させている場合、前記第1ゲージバーを前記表示部に表示させている前記第1ゲージバーの前記第1方向側の端部が位置する領域内に配置されている第1アイコンを強調して表示させてもよい。
 このため、ユーザは、第1ゲージバーによりフォーカスされている第1アイコンを容易に見つけることができる。よって、ユーザがUIを注視する時間を短縮することができる。
 また、さらに、前記複数の第2アイコンのそれぞれに異なる値で対応付けられた優先度を記憶している記憶部を備え、前記制御部は、前記第2ゲージバーを前記表示部に表示させる場合、前記記憶部が記憶している前記優先度が最も大きい第2アイコンが配置されている領域内の位置を前記第2基準位置としてもよい。
 このため、ユーザは、優先度が最も大きい第2アイコンへの選択を容易に行うことができる。
 また、前記制御部は、前記第2メニューを前記表示部に表示させる場合、前記複数の第2アイコンの優先度が大きい順に前記第2方向に前記複数の第2アイコンを並べてもよい。
 このため、ユーザは、例えば、選択する頻度が高い第2アイコンを選択するために入力する第2ジェスチャの長さを短くすることができる。よって、ユーザは、第2アイコンを選択するまでの時間を短縮でき、第2アイコンの選択を容易に行うことができる。
 また、前記記憶部は、ユーザにより予め設定された前記複数の第2アイコンの優先度を前記優先度として記憶していてもよい。
 このため、ユーザは、選択する頻度が高い第2アイコンを選択するために入力する第2ジェスチャの長さを短くすることができる。よって、ユーザは、第2アイコンを選択するまでの時間を短縮でき、第2アイコンの選択を容易に行うことができる。
 また、前記制御部は、現在までの所定期間内において前記ユーザにより選択された頻度が高いほど大きくした優先度を前記複数の第1アイコンに対応付け、前記記憶部に記憶されている前記優先度を対応付けした優先度に更新してもよい。
 このため、ユーザは、選択する頻度が高い第2アイコンを選択するために入力する第2ジェスチャの長さを短くすることができる。よって、ユーザは、第2アイコンの選択を容易に行うことができる。
 また、前記制御部は、前記第2ゲージバーを前記表示部に表示させている場合、前記第2ゲージバーを前記表示部に表示させている前記第2ゲージバーの前記第2方向側の端部が位置する領域内に配置されている第2アイコンを強調して表示させてもよい。
 このため、ユーザは、第2ゲージバーによりフォーカスされている第2アイコンを容易に見つけることができる。よって、ユーザがUIを注視する時間を短縮することができる。
 また、前記センサは、前記車両のセンターコンソールまたは前記車両のステアリングホイールに配置されてもよい。
 また、さらに、前記表示部を備えてもよい。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 以下、本開示の一態様に係る入力装置及び入力方法について、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態)
 [1.入力装置の構成]
 まず、図1を参照しながら、実施の形態に係る入力装置及び入力装置が配置されている車両の車室の構成について説明する。図1は、実施の形態に係る入力装置及び入力装置が配置されている車両の車室の構成の一例を示す図である。なお、以下では、車両の走行方向を基準として、前方向、後方向、右方向、及び左方向を規定する。また、車両の車輪が地面に付いている状態において、上方向、下方向、水平方向、及び垂直方向を規定する。したがって、上下方向と記載した場合は、垂直方向と等価である。
 図1に示す自動車1(車両の一例)の車室には、入力装置を構成する第1入力部10と、車載機器30とが搭載されている。また、自動車1の車室には、さらに、シフトレバー40、及び、ステアリング50が配置されている。ここで、入力装置は、自動車1などの車両に搭載される車載機器30の表示部31が表示するUI(User Interface)を操作するための入力を行う装置である。
 第1入力部10は、車載機器30の表示部31に表示されているUIを操作するための入力インタフェースである。ユーザは、UIを操作することで、自動車1に搭載されている車載機器30を制御することができる。
 第1入力部10は、シフトレバー40の後方に配置される。つまり、第1入力部10は、自動車1に搭乗しているユーザがシート60に座っている状態で、当該ユーザの手が届く範囲の位置であって、ステアリング50を除く位置に配置される。ユーザである運転者は、左手でシフトレバー40の後方に配置されている第1入力部10に対して入力を行うことにより、車載機器30を操作することができる。なお、第1入力部10は、当該ユーザの手が届く範囲の位置であって、ステアリング50を除く位置に配置されていれば上記の位置に配置されていなくてもよい。なお、図1は、右ハンドルの自動車を例としているが、左ハンドルの自動車であっても左右が反対になるだけであるため、右ハンドルの自動車の場合と同様のことが言える。
 ステアリング50は、自動車1を操舵するためのものであり、リング形状を有するリム51と、リム51の内周面に一体的に形成された略T字状のスポーク52と、スポーク52の中央部に配置されたホーンスイッチ(図示せず)を覆うホーンスイッチカバー53とを有している。第1入力部10の構成については後で詳述する。
 車載機器30は、例えば、カーナビゲーションシステムや、光ディスクを再生するためのオーディオ機器、映像再生機器などである。車載機器30は、表示部31を有する。表示部31は、カーナビゲーションを行うための地図、再生された映像、車載機器30を操作するためのUI、他の車載機器を制御するためのUI等を表示する。表示部31は、例えば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイなどにより実現される。車載機器30は、スピーカ32に接続され、音声をスピーカ32に出力してもよい。また、他の車載機器としては、例えば、空調機器などがあり、入力装置における入力によって、当該空調機器の動作が制御されるように構成されていてもよい。
 次に、第1入力部10のハードウェア構成について図2を用いて説明する。
 図2は、第1入力部を車両の上方から見た場合の平面図である。
 第1入力部10は、第1タッチセンサ11を有する。第1入力部10は、さらに、感圧センサ12を有していてもよい。第1入力部10は、さらに、タッチスイッチ13~17を有していてもよい。第1入力部10は、平面状の表面10aを有する。第1タッチセンサ11、タッチスイッチ13~17は、第1入力部10の表面10aへのユーザからのタッチを検出する。第1タッチセンサ11、タッチスイッチ13~17は、互いに重ならない位置に配置されている。
 第1タッチセンサ11は、ユーザによるタッチを受け付けるセンサであり、例えば、タッチパッドである。つまり、第1タッチセンサ11は、当該第1タッチセンサ11の検出領域における位置であって、ユーザの身体の一部(例えば指)によりタッチされた位置を検出するセンサである。また、第1タッチセンサ11は、ユーザによる複数のタッチ、つまり、マルチタッチを受け付けるセンサである。よって、第1タッチセンサ11は、1本指によるタッチ位置の他にも、同じタイミングにおいて、2本指による2箇所のタッチ位置、3本指による3箇所のタッチ位置を受け付けることができる。
 感圧センサ12は、第1タッチセンサ11に重なる領域に配置され、第1タッチセンサ11及びタッチスイッチ13~17への押し込み入力を検出する。感圧センサ12への、例えば、所定の押圧力よりも大きい押圧力の入力は、例えば決定を示す入力として受け付けられてもよい。なお、感圧センサ12は、第1タッチセンサ11に重なる領域に配置される構成に限定されるものではなく、例えば、第1タッチセンサ11及びタッチスイッチ13~17の、それぞれに重なる領域に、複数(図2の例では6個)配置されてもよい。
 タッチスイッチ13~15は、第1タッチセンサ11の前方に配置され、左右方向に並んで配置される。タッチスイッチ16、17は、第1タッチセンサ11の後方に配置され、左右方向に並んで配置される。タッチスイッチ13~17は、それぞれタッチスイッチ13~17が配置されている領域にタッチがされたか否かを検出するスイッチである。
 タッチスイッチ13は、例えば、戻るスイッチである。タッチスイッチ13へのタッチが検出されると、表示部31に表示されているUIは、前に表示していたUIに変更される。
 タッチスイッチ14は、例えば、メニュースイッチである。タッチスイッチ14へのタッチが検出されると、表示部31に表示されているUIには、メニューが表示される。
 タッチスイッチ15は、例えば、マップスイッチである。タッチスイッチ15へのタッチが検出されると、表示部31に表示されているUIには、マップが表示される。
 タッチスイッチ16、17は、例えば、カスタマイズスイッチである。タッチスイッチ16、17には、ユーザが予めショートカット入力を割り当てておくことができ、タッチスイッチ16、17へのタッチが検出されると、ユーザにより割り当てられたショートカットに基づくアプリが起動されたり、当該ショートカットが示す所定の操作が実行されたりする。
 このように、第1入力部10は、第1タッチセンサ11、感圧センサ12、及び、タッチスイッチ13~17を含むセンサで構成されている。
 なお、本実施の形態では、第1入力部10は、表面10aが上下方向に略垂直となる姿勢で配置されている。第1入力部10は、表面10aが前後方向に略垂直となる姿勢で配置されていてもよい。表面10aが前後方向に略垂直となる姿勢で配置される場合の第1入力部は、例えば、ユーザがタッチするセンサの表面が後方に向くように配置されていてもよい。
 ユーザは、第1入力部10が備える、タッチセンサや各種スイッチへの入力を行うことにより、車載機器30の表示部31に表示されているUIを操作できる。
 [2.入力装置の機能構成]
 次に、入力装置の機能的な構成について説明する。
 図3は、実施の形態に係る自動車に搭載される入力装置の機能的な構成の一例を示すブロック図である。
 図3に示すように、入力装置100は、第1入力部10と、制御部18と、アクチュエータ19とを備える。
 第1入力部10は、第1タッチセンサ11、感圧センサ12及びタッチスイッチ13~17を有する。第1タッチセンサ11、感圧センサ12及びタッチスイッチ13~17への入力が行われると、当該入力を示す入力信号が制御部18に出力される。
 制御部18は、第1入力部10により出力された入力信号に応じて、車載機器30を制御するための制御信号を送信する。具体的には、制御部18は、ジェスチャガイドと、操作画面と含む表示画面を、車載機器30の表示部31に表示させる。また、制御部18は、メニューを表示させることを示す入力信号が第1入力部10により出力されると、メニューを表示部31の操作画面に表示させる。制御部18による入力信号に応じた制御の詳細については後述する。
 なお、制御部18は、例えば、所定のプログラムを実行するプロセッサと、当該所定のプログラムを記憶しているメモリとにより実現されてもよいし、専用回路により実現されてもよい。制御部18は、例えば、ECU(Electronic Control Unit)により実現されてもよい。
 アクチュエータ19は、制御部18により出力される制御信号に応じて、センサとしての第1入力部10に所定の振動を与えることで、ユーザに触覚をフィードバックする。アクチュエータ19は、例えば、圧電素子などにより実現される。なお、アクチュエータ19は振動により触覚をフィードバックする構成に限定されず、例えば、静電気による摩擦感を提示するアクチュエータや、電気刺激を発生するアクチュエータであってもよい。
 以下、制御部18により表示される表示画面について具体的に説明する。
 制御部18は、例えば、図4に示すように、車載機器30の表示部31に表示画面を表示させてもよい。図4は、表示部に表示される表示画面の一例を示す図である。
 制御部18は、図4に示すように、ジェスチャガイド210、220と、操作画面230と含む表示画面200を、車載機器30の表示部31に表示させる。なお、図4における、表示部31の操作画面230が表示されている第3領域R3には、制御部18は、ユーザによる第1入力部10への入力に応じて、操作画面230とは異なる他の操作画面や操作ガイド画面を表示する。
 第1ジェスチャガイド210は、表示部31の表示領域を構成する複数(ここでは3つ)の領域R1~R3のうち左側の第1領域R1に表示される。第1ジェスチャガイド210は、第1の本数の指による複数種類のジェスチャ211~214と、複数種類のジェスチャ211~214のそれぞれに対応付けられ、対応する種類のジェスチャの入力が行われた場合に第2表示画面として表示させる操作ガイド画面の種類を示すアイコン215~218とを含む。複数種類のジェスチャ211~214は、第1の本数の指で、第1タッチセンサ11上を所定の方向になぞる入力を示す。第1の本数は、例えば、2本である。
 具体的には、ジェスチャ211は、第1タッチセンサ11上を2本指で前方向になぞる入力を示す。ジェスチャ212は、第1タッチセンサ11上を2本指で右方向になぞる入力を示す。ジェスチャ213は、第1タッチセンサ11上を2本指で後方向になぞる入力を示す。ジェスチャ214は、第1タッチセンサ11上を2本指で左方向になぞる入力を示す。
 なお、第1入力部10の表面10aが後方を向くように前後方向に略垂直となる姿勢で第1入力部10が配置されている場合は、ジェスチャ211は、第1タッチセンサ11上を2本指で上方向になぞる入力を示し、ジェスチャ213は、第1タッチセンサ11上を2本指で下方向になぞる入力を示すことになる。
 また、アイコン215は、ジェスチャ211に対応付けられている。ジェスチャ211により示されるジェスチャが第1タッチセンサ11で受け付けられた場合、制御部18は、自動車1の暖房、冷房及び換気を行う空調機器のうち冷暖房の温度設定を調整するための操作ガイド画面を表示部31に表示させる。
 アイコン216は、ジェスチャ212に対応付けられており、音楽プレーヤの選曲を行うための操作ガイド画面を表示部31に表示させることを示す。ジェスチャ212により示されるジェスチャが第1タッチセンサ11で受け付けられた場合、制御部18は、選曲を行うための操作ガイド画面を表示部31に表示させる。
 アイコン217は、ジェスチャ213に対応付けられており、カーナビゲーションにおける自宅へ帰る設定を行うための操作ガイド画面を表示部31に表示させることを示す。ジェスチャ213により示されるジェスチャが第1タッチセンサ11で受け付けられた場合、制御部18は、自宅へ帰る設定を行うための操作ガイド画面を表示部31に表示させる。
 アイコン218は、ジェスチャ214に対応付けられており、自動車1の空調機器の風量設定を調整するための操作ガイド画面を表示部31に表示させることを示す。ジェスチャ214により示されるジェスチャが第1タッチセンサ11で受け付けられた場合、制御部18は、風量設定を調整するための操作ガイド画面を表示部31に表示させる。
 第2ジェスチャガイド220は、表示部31の表示領域を構成する3つの領域R1~R3のうちの第1領域R1の右隣の第2領域R2に表示される。ジェスチャガイド220は、第2の本数(例えば3本)による複数種類のジェスチャ221、222と、複数種類のジェスチャ221、222のそれぞれに対応付けられ、対応する種類のジェスチャの入力が行われた場合に第2表示画面として表示させる操作画面の種類を示すアイコン223~225とを含む。また、第2ジェスチャガイド220は、フォーカス表示226を含んでいてもよい。フォーカス表示226は、当該フォーカス表示226が、現在、フォーカスしているアイコンに対応する操作画面が、表示部31の表示領域を構成する3つの領域R1~R3のうちの右側の第3領域R3に表示されている操作画面であることを示す。複数種類のジェスチャ221、222は、第2の本数の指で、第1タッチセンサ11上を所定の方向またはその反対方向になぞる入力を示す。第2の本数は、第1の本数と異なる本数であり、例えば、3本である。
 具体的には、ジェスチャ221は、第1タッチセンサ11上を3本指で前方向になぞる入力を示す。ジェスチャ222は、第1タッチセンサ11上を3本指で後方向になぞる入力を示す。なお、この場合、ジェスチャ221、222は、前後方向のそれぞれになぞる入力としたが、左右方向のそれぞれになぞる入力としてもよい。
 なお、第1入力部10の表面10aが後方を向くように前後方向に略垂直となる姿勢で第1入力部10が配置されている場合は、ジェスチャ221は、第1タッチセンサ11上を3本指で上方向になぞる入力を示し、ジェスチャ222は、第1タッチセンサ11上を3本指で下方向になぞる入力を示すことになる。
 また、アイコン223~225は、選択された場合に、第3領域R3に表示される操作画面を示す。つまり、制御部18は、フォーカス表示226によりフォーカスされているアイコンにより示される操作画面を第3領域R3に表示させる。また、アイコン223~225は、複数種類の操作画面を表示させるための、予め設定された順番に並んでいる。
 アイコン223は、フォーカス表示226によりフォーカスされた場合に、音楽プレーヤへのユーザによる操作を受け付ける操作画面を第3領域R3に表示させることを示す。ジェスチャ221またはジェスチャ222により示されるジェスチャが行われることによりフォーカス表示226がアイコン223に移動した場合、制御部18は、音楽プレーヤへのユーザによる操作を受け付ける操作画面を第3領域R3に表示させる。
 アイコン224は、フォーカス表示226によりフォーカスされた場合(つまり、図4の場合)に、カーナビゲーションへのユーザによる操作を受け付ける操作画面230を第3領域R3に表示させることを示す。ジェスチャ221またはジェスチャ222により示されるジェスチャが行われることによりフォーカス表示226がアイコン224に移動した場合、制御部18は、カーナビゲーションへのユーザによる操作を受け付ける操作画面230を第3領域R3に表示させる。
 アイコン225は、フォーカス表示226によりフォーカスされた場合に、空調機器へのユーザによる操作を受け付ける操作画面を第3領域R3に表示させることを示す。ジェスチャ221またはジェスチャ222により示されるジェスチャが行われることによりフォーカス表示226がアイコン224に移動した場合、制御部18は、空調機器へのユーザによる操作を受け付ける操作画面を第3領域R3に表示させる。
 なお、第1の本数を2本とし、第2の本数を3本として説明しているが、第1の本数と第2の本数とは互いに異なる複数の本数であれば、上記の組合せに限らない。つまり、第1の本数及び第2の本数は、それぞれ、3本及び2本の組合せ、2本及び4本の組合せ、4本及び2本の組合せなどであってもよい。もちろん、第1の本数及び第2の本数のいずれかが5本である組合せであってもよい。
 操作画面230は、第3領域R3に表示される。操作画面230は、図4では、カーナビゲーションへのユーザによる操作を受け付けるための画面である。なお、上述したように、第3領域R3には、第1タッチセンサ11に入力されたジェスチャの種類に対応する操作画面、操作ガイド画面、及び、メニューのいずれかが表示される。
 また、制御部18は、例えば、図5に示すように、第1メニュー231及び第2メニュー232Aが重畳された操作画面230Aを含む表示画面200Aに表示させてもよい。図5は、表示部に表示される表示画面の他の一例を示す図である。
 次に、表示部31の第3領域R3の操作画面230Aに重畳されて表示される第1メニュー231及び第2メニュー232A、232Bへの入力方法について、図6~図10を用いて具体的に説明する。
 図6~図10は、第1メニュー及び第2メニューへの入力方法について説明するための図である。
 図6の(a)は、第1入力部10に入力された右方向のジェスチャに応じて操作画面230A上に表示される第1メニュー231及び第2メニュー232Aについて説明するための図である。図6の(b)は、第1入力部10への入力を示す図である。図6の(a)に示されるように第1メニュー231は、第1方向としての左右方向に並ぶ複数の第1アイコン311a、312~316により構成される。複数の第1アイコン311a、312~316は、隙間無く並ぶ複数の第1領域321~326のそれぞれに配置されている。なお、図では、第1メニュー231上において複数の第1領域321~326の境界を示す破線が表示されているが、当該破線は、説明の便宜上引いた線であり、第1メニュー231には表示されない仮想的な線である。複数の第1アイコン311a、312~316は、それぞれ、カーナビゲーション、音楽再生、通話、インフォメーション、設定、及び、HVAC(Heating, ventilation, and air conditioning)に対応するアイコンである。
 第1メニュー231が表示されている状態で、図6の(b)に示すように第1入力部10の第1タッチセンサ11が第1方向の一方側(つまり右方向側)への第1ジェスチャを受け付けると、制御部18は、第1メニュー231上の第1基準位置を起点として左右方向に延びる第1ゲージバー301を表示部31の操作画面230Aに表示させる。具体的には、制御部18は、第1タッチセンサ11に入力された左右方向に沿った第1ジェスチャの長さd1に応じた長さD1の第1ゲージバー301を表示部31の操作画面230Aに表示させる。
 ここで、第1基準位置とは、第1メニュー231のうちの左右方向の一端、本実施の形態では左端の位置である。制御部18は、第1ジェスチャの向きが第1メニュー231の一端(左端)から他端(右端)へ向かう第1の向き(右方向側の向き)に対応している場合、第1基準位置としての第1メニュー231の左端の位置から右方向側の向きに延びる第1ゲージバー301を表示部31の操作画面230Aに表示させる。なお、図6の(a)では、第1ゲージバー301は、ドットのハッチングで示されている。
 つまり、第1ゲージバー301を表示させる起点となる第1基準位置を第1メニュー231のうちの左右方向の左端の位置とするため、ユーザは、右方向への第1ジェスチャを行うことで、複数の第1アイコン311a、312~316から所望の第1アイコンを選択することができる。このように、ユーザは、左右方向の一つの向き(本実施の形態では右方向の向き)に限定した入力、つまり、簡単な入力で所望の第1アイコンを選択することができる。
 また、制御部18は、表示部31の操作画面230Aに表示させている第1ゲージバー301の第1方向側の端部(つまり右端)301aが位置する第1領域321に配置されている第1アイコン311aを強調して表示させてもよい。第1アイコン311aは、強調して表示されることで、例えば、他の第1アイコン312~316よりも、大きく表示されてもよいし、太く表示されてもよいし、明るく表示されてもよい。また、第1アイコン311aは、強調して表示されることで、例えば、他の第1アイコン312~316とは異なる色で表示されてもよい。また、第1アイコン311aは、強調して表示されることで、例えば、第1アイコン311aのみが点滅して表示されてもよい。なお、第1アイコン311aが強調して表示されていない場合には、図7等に示す第1アイコン311として表示される。
 また、制御部18は、第1ゲージバー301の端部301aが位置する第1領域に配置されている第1アイコン311aが示す機能に含まれる複数のサブ機能に対応する第2メニュー232Aを表示部31の操作画面230Aに表示させてもよい。第2メニュー232Aは、例えば、第1アイコン311aの上方の領域に表示される。第2メニュー232Aは、第1アイコン311aに対応しており、カーナビゲーション機能に関する複数のサブ機能にそれぞれ対応している複数の第2アイコン331A~334Aにより構成される。複数の第2アイコン331A~334Aは、第1方向としての左右方向に略直交する第2方向としての上下方向に並ぶ。このため、ユーザは、所望の第1アイコン311aに対応する第2メニュー232Aを容易に表示させることができる。
 また、複数の第2アイコン331A~334Aは、隙間無く並ぶ複数の第2領域341A~344Aのそれぞれに配置されている。なお、図では、第2メニュー232A上において複数の第2領域341A~344Aの境界を示す破線が表示されているが、当該破線は、説明の便宜上引いた線であり、第2メニュー232Aには表示されない仮想的な線である。
 また、制御部18は、第1ゲージバー301を表示部31に表示させている状態において、第1タッチセンサ11によりタッチが受け付けられていない状態が第1時間続くと、第1基準位置から複数の第1領域321~326の左右方向における第1の幅以下の長さに変更した第1ゲージバー301を表示部31に表示させてもよい。つまり、制御部18は、タッチが第1時間行われていないと、第1ゲージバー301の長さを初期状態の長さで表示させてもよい。制御部18は、初期状態の長さとして、長さを0としてもよいし、各第1領域321~326の左右方向における幅よりも短い長さとしてもよいし、長さD1よりも短い長さとしてもよい。
 このため、制御部18は、ユーザがタッチを止めた場合に、第1ゲージバー301を、例えば、第1の幅以下の長さである初期状態の長さとすることができる。つまり、ユーザは、時間をおいて次の第1ジェスチャを行うときに、第1ゲージバーが初期状態であるため、所望の第1アイコンを選択するまでの第1ジェスチャの長さを一定とすることができる。よって、ユーザは、メニューへの入力を精度よく容易に行うことができる。
 次に、図6の状態からユーザがさらに第1ジェスチャを右方向に延長させた場合について図7を用いて説明する。
 図7の(a)は、第1入力部10に入力された右方向のジェスチャに応じて操作画面230Aに表示される第1メニュー231及び第2メニュー232Bについて説明するための図である。図7の(b)は、第1入力部10への入力を示す図である。
 制御部18は、図7の(b)に示すように、第1タッチセンサ11にさらに右方向に長い第1ジェスチャが入力されると、入力された第1ジェスチャの長さd2に応じた長さD2の第1ゲージバー301を表示部31の操作画面230Aに表示させる。なお、長さd2は、長さd1よりも長く、長さD2は、長さD1よりも長い。
 そして、制御部18は、図7の(a)に示すように、第1ゲージバー301の長さを長くすることで、第1ゲージバー301の端部301aが複数の第1領域321~326のうちの第1領域321から、第1領域321に隣接する他の第1領域322に移動した場合、当該端部301aが位置する第1領域322内に配置されている第1アイコン312aをフォーカスする。
 これにより、制御部18は、第1アイコン312aを強調表示すると共に、第1アイコン312aに対応する第2メニュー232Bを第1アイコン312aの上方の領域に表示する。なお、第1アイコン312aが強調して表示されていない場合には、図6等に示す第1アイコン312として表示される。第2メニュー232Bは、第1アイコン312aに対応しており、音楽再生機能に関する複数のサブ機能にそれぞれ対応している複数の第2アイコン331B~334Bにより構成される。複数の第2アイコン331B~334Bは、上下方向に並ぶ。また、複数の第2アイコン331B~334Bは、隙間無く並ぶ複数の第2領域341B~344Bのそれぞれに配置されている。なお、図では、第2メニュー232B上において複数の第2領域341B~344Bの境界を示す破線が表示されているが、当該破線は、説明の便宜上引いた線であり、第2メニュー232Bには表示されない仮想的な線である。
 また、さらに、制御部18は、第1ゲージバー301の端部301aが第1領域321から第1領域322に移動した場合、つまり、端部301aが第1領域321及び第1領域322の境界線を跨いで移動した場合、アクチュエータ19を起動させることで、第1タッチセンサ11を振動させる。これにより、制御部18は、ユーザに触覚をフィードバックする。
 このため、ユーザに、第1ゲージバー301の端部301aが位置する第1領域内の第1アイコンが、次の第1領域に配置されている第1アイコンに遷移したことをフィードバックすることができる。よって、ユーザは、複数の第1アイコンの並び順と、フィードバックされた回数とを考慮することで、第1メニューを注視しなくても所望の第1アイコンを選択することが容易にできる。
 次に、図7の状態からユーザがさらに第1ジェスチャを右方向に延長させた場合について図8を用いて説明する。
 図8の(a)は、第1入力部10に入力された右方向のジェスチャに応じて操作画面230Aに表示される第1メニュー231及び第2メニュー232Bについて説明するための図である。図8の(b)は、第1入力部10への入力を示す図である。
 制御部18は、図8の(b)に示すように、第1タッチセンサ11にさらに右方向に長い第1ジェスチャが入力されると、入力された第1ジェスチャの長さd3に応じた長さD3の第1ゲージバー301を表示部31の操作画面230Aに表示させる。なお、長さd3は、長さd2よりも長く、長さD3は、長さD2よりも長い。
 このように、図8の場合、第1ゲージバー301の端部301aは、図7の場合と同様に第1領域322内に位置するため、制御部18は、第1ゲージバー301の長さを図7の場合よりも長く表示させる処理のみを行う。また、制御部18は、この場合、第1ゲージバー301の端部301aが次の第1領域323に移動していないため、アクチュエータ19を振動させない。
 次に、図6の状態からユーザが決定を示す入力を行った後において、ユーザが第2ジェスチャを上方向に行った場合について図9を用いて説明する。
 なお、ここでは、図6の状態にてユーザが決定を示す入力が、上記したように感圧センサ12への、所定の押圧力よりも大きい押圧力の入力であるとして説明しているが、このような入力に限定されるものではない。例えば、ユーザが決定を示す入力が第1タッチセンサ11へのタップ操作であるとして定義してもよい。あるいは、指が連続して図6に示す第1方向に沿ったジェスチャから、図9に示す第2方向(第1方向に略直交する)に沿ったジェスチャに、なぞる方向を変化させる1つのジェスチャを行うことを、第1タッチセンサ11へのユーザが決定を示す入力であるとして定義してもよい。
 制御部18は、複数の第1アイコン311a、312~316のうち、第1入力部10への決定を示す入力がされたときに表示部31の操作画面230Aに表示されている第1ゲージバー301の第1方向側の端部(つまり右端)301aが位置する第1領域内に配置されている第1アイコンを選択する。これにより、図9では、第1アイコン311aが選択されたものとする。また、制御部18は、第1アイコン311aを選択することで、他の第1アイコン312~316をグレーアウトして表示してもよい。
 図9の(a)は、第1入力部10に入力された上方向のジェスチャに応じて操作画面230Aに表示される第1メニュー231及び第2メニュー232Aについて説明するための図である。図9の(b)は、第1入力部10への入力を示す図である。
 制御部18は、第1アイコン311aを選択することで、第2メニュー232Aに、第2ゲージバー302を表示させる。制御部18は、第2メニュー232Aを表示部31の操作画面230Aに表示させている状態において、第1タッチセンサ11が上下方向に沿った第2ジェスチャを受け付けた場合、第2メニュー232A上の第2基準位置を起点として上下方向に延びる第2ゲージバーを表示部31の操作画面230Aに表示させる。具体的には、制御部18は、第1タッチセンサ11に入力された上下方向に沿った第2ジェスチャの長さd4に応じた長さD4の第2ゲージバー302を表示部31の操作画面230Aに表示させる。
 ここで、第2基準位置とは、第2メニュー232Aのうちの上下方向の一端、本実施の形態では下端の位置である。制御部18は、第2ジェスチャの向きが第2メニュー232Aの一端(下端)から他端(上端)へ向かう第2の向き(上方向側の向き)に対応している場合、第2基準位置としての第2メニュー232Aの下端の位置から上方向側の向きに延びる第2ゲージバー302を表示部31の操作画面230Aに表示させる。なお、図9の(a)では、第2ゲージバー302は、ドットのハッチングで示されている。
 また、制御部18は、表示部31の操作画面230Aに表示させている第2ゲージバー302の第2方向側の端部(つまり上端)302aが位置する第2領域341Aに配置されている第2アイコン331Aaを強調して表示させてもよい。第2アイコンの強調表示の具体例は、第1アイコンの強調表示の具体例と同様である。
 次に、図9の状態からユーザがさらに第2ジェスチャを上方向に延長させた場合について図10を用いて説明する。
 図10の(a)は、第1入力部10に入力された上方向のジェスチャに応じて操作画面230Aに表示される第1メニュー231及び第2メニュー232Aについて説明するための図である。図10の(b)は、第1入力部10への入力を示す図である。
 制御部18は、図10の(b)に示すように、第1タッチセンサ11にさらに上方向に長い第2ジェスチャが入力されると、入力された第2ジェスチャの長さd5に応じた長さD5の第2ゲージバー302を表示部31の操作画面230Aに表示させる。なお、長さd5は、長さd4よりも長く、長さD5は、長さD4よりも長い。
 そして、制御部18は、図10の(a)に示すように、第2ゲージバー302の長さを長くすることで、第2ゲージバー302の端部302aが複数の第2領域341A~344Aのうちの第2領域341Aから、第2領域341Aに隣接する他の第2領域342Aに移動した場合、当該端部302aが位置する第2領域342A内に配置されている第2アイコン332Aaをフォーカスする。これにより、制御部18は、第2アイコン332Aaを強調表示する。
 また、さらに、制御部18は、第2ゲージバー302の端部302aが第2領域341Aから第2領域342Aに移動した場合、つまり、端部302aが第2領域341A及び第2領域342Aの境界線を跨いで移動した場合、アクチュエータ19を振動させることで、第1タッチセンサ11を振動させる。これにより、制御部18は、ユーザに触覚をフィードバックする。
 また、制御部18は、複数の第2アイコン331A、332Aa、333A、334Aのうち、第1入力部10への決定を示す入力がされたときに表示部31の操作画面230Aに表示されている第2ゲージバー302の端部302aが位置する第2領域内に配置されている第2アイコンを選択する。例えば、制御部18は、図10の(a)の状態で、第1入力部10への決定を示す入力がされると、第2アイコン332Aaを選択する。そして、制御部18は、選択した第2アイコン323Aaが示す機能を実行し、当該機能を実行したことを示す表示を行う。なお、ここでも、決定を示す入力は、上記したように、感圧センサ12への押圧力の入力に限定されず、タップ操作であってもといし、第2方向から第1方向へなぞる方向を変化させる連続した1つのジェスチャであってもよい。
 また、制御部18は、第2メニュー232Aを表示部31に表示させている状態において、第1タッチセンサ11によりタッチが受け付けられていない状態が第2時間続くと、表示部31に第2メニュー232Aの表示を消去させてもよい。この場合、制御部18は、第1メニュー231のみを表示部31に表示させてもよいし、第1メニュー231の表示を表示部31から消去してもよい。
 つまり、制御部18は、ユーザがタッチを止めた場合に、第2メニュー232Aの表示を消去させ、例えば、第1メニュー231のみを表示したままとすることができる。つまり、ユーザは、時間をおいて、第1メニュー231への入力としての第1ジェスチャを初期状態から入力するため、所望の第1アイコンを選択するまでの第1ジェスチャの長さを一定とすることができる。よって、ユーザは、第1メニュー231への入力を、精度よく容易に行うことができる。
 また、制御部18は、図11に示すように、第1タッチセンサ11への入力の起点から左右方向を含む第1角度範囲α1へのジェスチャを第1ジェスチャとして認識し、起点から第1角度範囲α1に隣接する第2角度範囲α2であって、上下方向を含む第2角度範囲α2へのジェスチャを第2ジェスチャとして認識してもよい。なお、図11では、第1ジェスチャを認識するための第1角度範囲α1は、第1ジェスチャが右方向へのジェスチャであるため、起点より右側の角度範囲であるとしているが、第1ジェスチャが左方向へのジェスチャである場合には、起点よりも左側の角度範囲としてもよい。同様に、第2ジェスチャを認識するための第2角度範囲α2は、第2ジェスチャが上方向へのジェスチャであるため、起点より上側の角度範囲であるとしているが、第2ジェスチャが下方向へのジェスチャである場合には、起点よりも下側の角度範囲としてもよい。なお、ジェスチャの方向は、起点と現在入力している点との2点間を結ぶ直線の角度により規定されてもよい。
 このように、ジェスチャの起点からの角度に応じて第1ジェスチャ及び第2ジェスチャを判別できるため、制御部18は、ユーザによって入力されたジェスチャが厳密に左右方向または上下方向に沿っていなくても、第1ジェスチャであるか第2ジェスチャであるかを判別できる。これにより、ユーザは、ジェスチャの入力を容易に行うことができる。
 [3.動作]
 次に、入力装置100の動作について、図12及び図13を用いて説明する。
 図12及び図13は、実施の形態に係る入力装置における動作の一例を示すフローチャートである。
 制御部18は、メニュー選択を示す入力を受け付けたか否かを判定する(S11)。メニュー選択を示す入力とは、例えば、第1入力部10のタッチスイッチ14におけるタッチである。つまり、制御部18は、例えば、タッチスイッチ14がタッチを検知したか否かを判定する。
 制御部18は、メニュー選択を示す入力を受け付けた場合(S11でYes)、表示部31に第1メニュー231を表示させる(S12)。
 一方で、制御部18は、メニュー選択を示す入力を受け付けていない場合(S11でNo)、ステップS11に戻り、ステップS11を繰り返す。
 制御部18は、第1メニュー231を表示させると、第1タッチセンサ11が第1ジェスチャを受け付けたか否かを判定する(S13)。
 制御部18は、第1タッチセンサ11が第1ジェスチャを受け付けた場合(S13でYes)、第1タッチセンサ11が受け付けた第1ジェスチャの長さに応じた長さの第1ゲージバー301を第1メニュー231に重畳して表示する(S14)。
 次に、制御部18は、第1ゲージバー301の端部301aが位置する第1領域に配置されている第1アイコンを強調表示し(S15)、当該第1アイコンに対応する第2メニュー232Aを表示する(S16)。なお、ステップS14~S16は、この順に行われなくてもよいし、同時に行われてもよい。
 そして、制御部18は、第1入力部10が決定を示す入力を受け付けたか否かを判定する(S17)。決定を示す入力とは、例えば、第1入力部10の感圧センサ12における所定の押圧力以上の押圧力で押圧することである。
 制御部18は、第1入力部10が決定を示す入力を受け付けた場合(S17でYes)、決定された第1アイコン以外の第1アイコンをグレーアウトし、次のステップS20を実行する。これにより、制御部18は、第2ジェスチャを受け付けるモードに移行する。一方で、制御部18は、第1入力部10が決定を示す入力を受け付けていない場合(S17でNo)、ステップS13に戻る。なお、制御部18は、ステップS17の判定を行わなくてもよい。
 制御部18は、第1タッチセンサ11が第1ジェスチャを受け付けていない場合(S13でNo)、第1ジェスチャを受け付けていない状態で第1時間経過したか否かを判定する(S18)。なお、第1時間は、一度、第1ジェスチャを受け付けている場合には、0であってもよい。つまり、制御部18は、第1ジェスチャを受け付けている状態から、第1ジェスチャを受け付けていない状態へ遷移したか否かを検出してもよい。
 制御部18は、第1ジェスチャを受け付けていない状態で第1時間経過したと判定すると(S18でYes)、第1ゲージバー301の長さを初期状態に戻し(S19)、ステップS13に戻る。
 制御部18は、第1ジェスチャを受け付けていない状態で第1時間経過していないと判定すると(S18でNo)、ステップS13を繰り返す。
 次に、制御部18は、第1タッチセンサ11が第2ジェスチャを受け付けたか否かを判定する(S20)。
 制御部18は、第1タッチセンサ11が第2ジェスチャを受け付けた場合(S20でYes)、第1タッチセンサ11が受け付けた第2ジェスチャの長さに応じた長さの第2ゲージバー302を第2メニュー232Aに重畳して表示する(S21)。制御部18は、第1タッチセンサ11が第2ジェスチャを受け付けていない場合(S20でNo)、ステップS13に戻る。
 次に、制御部18は、第2ゲージバー302の端部302aが位置する第2領域に配置されている第2アイコンを強調表示する(S22)。なお、ステップS21及びS22は、この順に行われなくてもよいし、同時に行われてもよい。
 そして、制御部18は、第1入力部10が決定を示す入力を受け付けたか否かを判定する(S23)。
 制御部18は、第1入力部10が決定を示す入力を受け付けた場合(S23でYes)、強調表示している第2アイコンを選択し、第2アイコンが示す機能を実行する(S24)。
 一方で、制御部18は、第1入力部10が決定を示す入力を受け付けていない場合(S23でNo)、第2ジェスチャを受け付けていない状態で第2時間経過したか否かを判定する(S25)。
 制御部18は、第2ジェスチャを受け付けていない状態で第2時間経過したと判定すると(S25でYes)、第2メニュー2321A及び第2ゲージバー302の表示を削除し、かつ、第1ゲージバー301の長さを初期状態に戻して表示し(S26)。そして、制御部18は、ステップS13に戻る。
 なお、図12及び図13で示すフローチャートは、一例であり、入力装置100は、入力装置の機能構成の欄で説明した処理を行えばよく、必ずしも図12及び図13のような順番で各ステップを行わなくてもよいし、全てのステップを必ずしも行わなくてもよい。
 [4.効果など]
 本実施の形態に係る入力装置100によれば、自動車1に配置される表示部31が表示する、第1メニュー231を含むUI(User Interface)を操作するための入力を行う入力装置100であって、第1入力部10と、制御部18とを備える。第1入力部10は、ユーザのタッチによるジェスチャを受け付ける第1タッチセンサ11を有する。制御部18は、左右方向に並ぶ複数の第1アイコン311~316を第1メニュー231として表示部31に表示させる。制御部18は、第1メニュー231上の第1基準位置を起点として左右方向に延びる第1ゲージバー301であって、第1タッチセンサ11に入力された左右方向に沿った第1ジェスチャの長さに応じた長さの第1ゲージバー301を表示部31に表示させる。また、制御部18は、隙間無く並ぶ複数の第1領域321~326のそれぞれに配置されている複数の第1アイコン311~316のうち、第1入力部10への決定を示す入力がされたときに表示部31に表示されている第1ゲージバー301の端部301aが位置する第1領域内に配置されている第1アイコンを選択する。
 これによれば、複数の第1アイコン311~316の並び方向と、第1ゲージバー301の長さを調整するための第1ジェスチャの方向とが一致しているため、ユーザは、直感的に複数の第1アイコン311~316のうちの所望の第1アイコンを選択することができる。また、ユーザは、第1ジェスチャの長さを調節するだけで第1ゲージバー301の長さを調整できるため、第1ゲージバー301の、起点とは反対側の端部301aの位置を容易に調整することができる。
 また、複数の第1アイコン311~316は、隙間無く並ぶ複数の第1領域321~326にそれぞれ配置されている。このため、所望の第1アイコンとは異なる第1アイコンの第1領域に第1ゲージバー301の端部301aが位置する場合には、ユーザは、所望の第1アイコンが配置されている第1領域に向けて第1ゲージバー301の端部301aを移動させるように第1ジェスチャを行えばよい。このため、ユーザは、素早く所望の第1アイコンが配置されている第1領域に第1ゲージバー301の端部301aを移動させることができる。よって、ユーザは、運転などの他の作業を行っている場合であっても、表示部31に表示されているメニュー231、232A、232Bへの入力を、精度よく容易に行うことができる。
 また、本実施の形態に係る入力装置100において、制御部18は、第2メニュー232Aを表示部31に表示させている状態において、第1タッチセンサ11が上下方向に沿った第2ジェスチャを受け付けた場合、第2メニュー232A上の第2基準位置を起点として上下方向に延びる第2ゲージバー302であって、第2ジェスチャの長さに応じた長さの第2ゲージバー302を表示部31に表示させる。そして、制御部18は、隙間無く並ぶ複数の第2領域341A~344Aのそれぞれに配置されている複数の第2アイコン331A~334Aのうち、第1入力部10への決定を示す入力がされたときに表示部31に表示されている第2ゲージバー302の端部302aが位置する第2領域内に配置されている第2アイコンを選択する。
 これによれば、左右方向に略直交する上下方向に沿った第2ジェスチャにより第2ゲージバー302を表示させることができるため、第2メニュー232Aが表示されている場合であっても、第1メニュー231への入力と第2メニュー232Aへの入力とを分けることができる。
 また、第1メニュー231への入力と同様に、複数の第2アイコン331A~334Aの並び方向と、第2ゲージバー302の長さを調整するための第2ジェスチャの方向とが一致しているため、ユーザは、直感的に複数の第2アイコン331A~334Aのうちの所望の第2アイコンを選択することができる。また、ユーザは、第2ジェスチャの長さを調節するだけで第2ゲージバー302の長さを調整できるため、第2ゲージバー302の、起点とは反対側の端部302aの位置を容易に調整することができる。
 また、複数の第2アイコン331A~334Aは、隙間無く並ぶ複数の第2領域341A~344Aにそれぞれ配置されている。このため、所望の第2アイコンとは異なる第2アイコンの第2領域に第2ゲージバー302の端部302aが位置する場合には、ユーザは、所望の第2アイコンが配置されている第2領域に向けて第2ゲージバー302の端部302aを移動させるように第2ジェスチャを行えばよいため、素早く所望の第2アイコンが配置されている第2領域に第2ゲージバー302の端部302aを移動させることができる。よって、ユーザは、運転などの他の作業を行っている場合であっても、表示部31に表示されているメニュー231、232A、232Bへの入力を、精度よく容易に行うことができる。
 [5.変形例]
 上記実施の形態では、制御部18は、第1基準位置を第1メニュー231の左端の位置としたが、これに限らない。制御部18は、第1ジェスチャの起点を受け付けた第1タッチセンサ11における位置が、第1タッチセンサのタッチの検出領域における左右方向の他端よりも一端に近い場合、第1基準位置を第1メニューのうちの左右方向の一端の位置として、一端から他端へ向かう第1の向きに延びる第1ゲージバーを表示部31に表示させてもよい。例えば、図14に示すように、第1タッチセンサ11の検出領域における右半分の領域R12に第1ジェスチャの起点が入力された場合、第1メニュー231の右端を第1基準位置として左方向側に延びる第1ゲージバー301Aを表示してもよい。
 つまり、第1タッチセンサ11の領域R12に第1ジェスチャの起点が入力された場合、当該起点は、第1タッチセンサ11の検出領域の左右方向における左端よりも右端に近い位置で検出されることとなる。このため、制御部18は、第1基準点を第1メニュー231の右端とした第1ゲージバー301Aを表示させる。そして、この場合、始めに第1アイコン316aがフォーカスされ、第1アイコン316aに対応する第2メニュー232Cが表示される。なお、第1タッチセンサ11の検出領域における左半分の領域R11に第1ジェスチャが入力された場合には、図6と同様の第1ゲージバー301が表示されることとなる。
 このように、制御部18は、第1タッチセンサ11の検出領域のうち第1ジェスチャの起点を受け付けた位置に応じて、第1メニュー231上の第1基準位置を受け付けた位置に近い方向側の端部に決定する。また、制御部18は、第1ゲージバー301、301Aの第1基準位置から延びる方向を、第1方向における検出領域の両端のうち受け付けた位置から遠い方の端部への方向とする。このため、制御部18は、第1ゲージバー301、301Aの長さを調整するための第1ジェスチャの長さを検出領域の第1方向における長さの1/2以上とすることができ、ユーザは、第1ゲージバーの長さの調整を容易に行うことができる。
 また、上記実施の形態および本変形例では、制御部18は、第1基準位置を第1メニュー231の端部としたが、これに限らずに、端部以外の位置、例えば、左右方向の中心の位置としてもよい。この場合、制御部18は、第1ジェスチャが右方向であれば、第1基準位置から右側に延びる第1ゲージバーを表示させ、第1ジェスチャが左方向であれば、第1基準位置から左側に延びる第1ゲージバーを表示させる。
 また、第1基準位置は、複数の第1アイコン311~316の優先度に応じて決定されてもよい。例えば、入力装置100は、複数の第1アイコン311~316のそれぞれに異なる値で対応付けられた優先度を記憶している記憶部(図示せず)を有しており、制御部18は、第1ゲージバー301を表示部31に表示させる場合、記憶部が記憶している優先度が最も大きい第1アイコンが配置されている領域内の位置を第1基準位置としてもよい。このため、ユーザは、優先度が最も大きい第1アイコンへの選択を容易に行うことができる。
 また、制御部18は、第1メニュー231を表示部31に表示させる場合、複数の第1アイコン311~316の優先度が大きい順に左右方向に複数の第1アイコン311~316を並べて表示させてもよい。例えば、制御部18は、複数の第1アイコン311~316を優先度が大きい順に左から並べて表示させてもよい。このため、ユーザは、例えば、選択する頻度が高い第1アイコンを選択するために入力する第1ジェスチャの長さを短くすることができる。よって、ユーザは、第1アイコンを選択するまでの時間を短縮でき、第1アイコンの選択を容易に行うことができる。
 また、上記記憶部は、ユーザにより予め設定された複数の第1アイコン311~316の優先度を、優先度として記憶していてもよい。このため、ユーザは、選択する頻度が高い第1アイコンを選択するために入力する第1ジェスチャの長さを短くすることができる。よって、ユーザは、第1アイコンを選択するまでの時間を短縮でき、第1アイコンの選択を容易に行うことができる。
 また、制御部18は、現在までの所定期間内においてユーザにより選択された頻度が高いほど大きくした優先度を複数の第1アイコン311~316に対応付け、上記記憶部に記憶されている優先度を対応付けした優先度に更新してもよい。このため、ユーザは、選択する頻度が高い第1アイコンを選択するために入力する第1ジェスチャの長さを短くすることができる。よって、ユーザは、第1アイコンの選択を容易に行うことができる。
 また、第2基準位置は、複数の第2アイコン331A~334A、331B~334Bの優先度に応じて決定されてもよい。例えば、上記記憶部は、複数の第2アイコン331A~334A、331B~334Bのそれぞれに異なる値で対応付けられた優先度を記憶していてもよい。制御部18は、第2ゲージバー302を表示部31に表示させる場合、記憶部が記憶している優先度が最も大きい第2アイコンが配置されている領域内の位置を第2基準位置としてもよい。このため、ユーザは、優先度が最も大きい第2アイコンへの選択を容易に行うことができる。なお、以下では、制御部18が第2メニュー232Aを表示させている場合を例に説明する。第2メニュー232Bを表示させている場合については、第2メニュー232Aと同様に説明できるため、説明を省略する。
 また、制御部18は、第2メニュー232Aを表示部31に表示させる場合、複数の第2アイコン331A~334Aの優先度が大きい順に上下方向に複数の第2アイコン331A~334Aを並べて表示させてもよい。例えば、制御部18は、複数の第2アイコン331A~334Aを優先度が大きい順に下から並べて表示させてもよい。このため、ユーザは、例えば、選択する頻度が高い第2アイコンを選択するために入力する第2ジェスチャの長さを短くすることができる。よって、ユーザは、第2アイコンを選択するまでの時間を短縮でき、第2アイコンの選択を容易に行うことができる。
 また、上記記憶部は、ユーザにより予め設定された複数の第2アイコン331A~334Aの優先度を、優先度として記憶していてもよい。このため、ユーザは、選択する頻度が高い第2アイコンを選択するために入力する第2ジェスチャの長さを短くすることができる。よって、ユーザは、第2アイコンを選択するまでの時間を短縮でき、第2アイコンの選択を容易に行うことができる。
 また、制御部18は、現在までの所定期間内においてユーザにより選択された頻度が高いほど大きくした優先度を複数の第2アイコン331A~334Aに対応付け、上記記憶部に記憶されている優先度を対応付けした優先度に更新してもよい。このため、ユーザは、選択する頻度が高い第2アイコンを選択するために入力する第2ジェスチャの長さを短くすることができる。よって、ユーザは、第2アイコンの選択を容易に行うことができる。
 なお、制御部18は、優先度に応じた複数の第1アイコン311~316の表示制御と、複数の第2アイコン331A~334Aの表示制御とのうちの一方のみを行ってもよいし、両方を行ってもよい。
 また、上記実施の形態及び変形例では、表示部31に第1領域R1及び第2領域R2を設けているが、第1領域R1及び第2領域R2を設けずに、第3領域R3のみを設けていてもよい。つまり、操作画面230、230Aのみを表示部31に表示させる構成であってもよい。
 また、上記実施の形態及び変形例では、第1メニュー231及び第2メニュー232A~232Cを第3領域R3に表示させるとしたが、第3領域R3以外の領域に表示させてもよいし、第1領域R1、第2領域R2及び第3領域R3のうちの2以上の領域に跨がって表示させてもよい。
 また、上記実施の形態及び変形例では、第1メニュー231及び第2メニュー232A~232Cを操作画面230Aに重畳して表示させるとしたが、操作画面230の代わりに第1メニュー231及び第2メニュー232A~232Cのみを表示させる構成としてもよい。
 また、上記実施の形態及び変形例では、第1方向を左右方向とし、第2方向を上下方向としたが、これに限らずに、第1方向を上下方向とし、第2方向を左右方向としてもよい。
 また、上記実施の形態及び変形例では、第1メニュー231の上方に第2メニュー232A~232Cを表示させるとしたが、第1メニュー231の下方に第2メニュー232A~232Cを表示させる構成としてもよい。また、第1メニュー231の複数の第1アイコン311~316を上下方向に並べて表示させる場合には、第1メニュー231の右側または左側に第2メニュー232A~232Cを表示させる構成としてもよい。
 また、上記実施の形態及び変形例では、制御部18は、決定を示す入力が行われることで第1アイコン311aが選択されたときに、第2メニュー232Aに、第2ゲージバー302を表示させるとしたが、決定を示す入力が行われなくても第2ゲージバー302を表示させる構成としてもよい。
 また、上記実施の形態及び変形例では、決定を示す入力は、感圧センサ12への入力としたが、これに限らずに、第1タッチセンサ11へのタップ、ダブルタップなどであってもよいし、他のタッチスイッチ13~17へのタッチ入力であってもよい。
 上記実施の形態では、タッチセンサとして、自動車1のステアリング50を除く位置に配置される第1タッチセンサ11を用いるとしたが、これに限らない。例えば、図15および図16に示すように、自動車1Aのステアリング50に配置される第2タッチセンサ21を含む第2入力部20備える入力装置100Aを採用してもよい。
 図15は、変形例に係る入力装置及び入力装置が配置されている車両の車室の構成の一例を示す図である。図16は、変形例に係る自動車に搭載される入力装置の機能的な構成の一例を示すブロック図である。
 変形例に係る入力装置100Aは、実施の形態の入力装置100と比較して、第2入力部20の構成、及び、制御部18Aの機能のみが異なるため、第2入力部20の説明を行い、その他の構成の説明は省略する。
 第2入力部20は、ステアリング50に配置される。第2入力部20は、第2タッチセンサ21を有するスイッチである。第2入力部20は、例えばステアリング50が有するスポーク52に配置されている。
 運転者は、ステアリング50のリム51を握る右手の指で第2入力部20に対して入力を行うことにより、車載機器30を操作することができる。
 第2タッチセンサ21は、ユーザの身体の一部(例えば指)によりタッチされた位置を検出するセンサである。第2タッチセンサ21への入力が行われると、当該入力を示す入力信号が制御部18Aに出力される。
 制御部18Aは、第1タッチセンサ11へのジェスチャの代わりに、第2タッチセンサ21へのジェスチャに応じて、上記実施の形態の動作を行ってもよい。
 なお、第2タッチセンサ21へのタッチ入力に伴う表示画面は、表示部31に表示される構成に限定されるものではなく、例えばメータ内に設けたディスプレイに表示される構成としてもよい。この場合、運転者が運転中に第2タッチセンサ21を操作した結果が、最小限の目線移動で視認できる。また、第1タッチセンサ11を操作した結果が、メータ内のディスプレイに表示される構成としてもよい。
 また、図15及び図16の構成では、第1入力部10と第2入力部20との両方を備える構成としたが、第2入力部20のみを備える構成としてもよい。
 上記実施の形態及び変形例によれば、入力装置100、100Aは、表示部31を含まない構成であるとしたが、さらに、表示部31を含む構成としてもよい。
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の入力装置などを実現するソフトウェアは、次のようなプログラムである。
 すなわち、このプログラムは、コンピュータに、車両に配置される表示部が表示する、第1メニューを含むUI(User Interface)を操作するための入力を行う入力装置による入力方法であって、第1方向に並ぶ複数の第1アイコンを前記第1メニューとして前記表示部に表示させ、前記第1メニュー上の第1基準位置を起点として前記第1方向に延びる第1ゲージバーであって、前記入力装置が備えるセンサにユーザのタッチにより入力された前記第1方向に沿った第1ジェスチャの長さに応じた長さの第1ゲージバーを前記表示部に表示させ、隙間無く並ぶ複数の領域のそれぞれに配置されている前記複数の第1アイコンのうち、前記センサへの決定を示す入力がされたときに前記表示部に表示されている前記第1ゲージバーの前記第1方向側の端部が位置する領域内に配置されている第1アイコンを選択する入力方法を実行させる。
 以上、本開示の一つまたは複数の態様に係る入力装置及び入力方法について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。
 本開示は、ユーザが他の作業を行っている場合であっても、表示部に表示されているメニューへの入力を、精度よく容易に行うことができる入力装置及び入力方法などとして有用である。
  1、1A  自動車
 10  第1入力部
 11  第1タッチセンサ
 12  感圧センサ
 13~17  タッチスイッチ
 18、18A  制御部
 19  アクチュエータ
 20  第2入力部
 21  第2タッチセンサ
 30  車載機器
 31  表示部
 40  シフトレバー
 50  ステアリング
 51  リム
 52  スポーク
 53  ホーンスイッチカバー
 60  シート
100、100A  入力装置
200、200A  表示画面
210  第1ジェスチャガイド
211~214  ジェスチャ
215~218  アイコン
220  第2ジェスチャガイド
221、222  ジェスチャ
223~225  アイコン
226  フォーカス表示
230、230A  操作画面
231  第1メニュー
232A~232C  第2メニュー
301、301A  第1ゲージバー
301a  端部
302  第2ゲージバー
302a  端部
311~316、311a、312a、316a  第1アイコン
321~326  第1領域
331A~334A、331B~334B  第2アイコン
341A~344A、341B~344B  第2領域
 α1  第1角度範囲
 α2  第2角度範囲
 d1~d5  長さ
 D1~D5  長さ

Claims (22)

  1.  車両に配置される表示部が表示する、第1メニューを含むUI(User Interface)を操作するための入力を行う入力装置であって、
     ユーザのタッチによるジェスチャを受け付けるセンサと、
     第1方向に並ぶ複数の第1アイコンを前記第1メニューとして前記表示部に表示させる制御部と、を備え、
     前記制御部は、
     前記第1メニュー上の第1基準位置を起点として前記第1方向に延びる第1ゲージバーであって、前記センサに入力された前記第1方向に沿った第1ジェスチャの長さに応じた長さの第1ゲージバーを前記表示部に表示させ、
     隙間無く並ぶ複数の第1領域のそれぞれに配置されている前記複数の第1アイコンのうち、前記センサへの決定を示す入力がされたときに前記表示部に表示されている前記第1ゲージバーの前記第1方向側の端部が位置する第1領域内に配置されている第1アイコンを選択する
     入力装置。
  2.  前記第1基準位置は、前記第1メニューのうちの前記第1方向の一端の位置であり、
     前記制御部は、前記第1ジェスチャの向きが前記第1メニューの前記一端から他端へ向かう第1の向きに対応している場合、前記第1基準位置から前記第1の向きに延びる前記第1ゲージバーを前記表示部に表示させる
     請求項1に記載の入力装置。
  3.  前記制御部は、前記第1ジェスチャの起点を受け付けた前記センサにおける位置が、前記センサの前記タッチの検出領域における前記第1方向の他端よりも一端に近い場合、前記第1基準位置を前記第1メニューのうちの前記第1方向の一端の位置として、前記一端から前記他端へ向かう第1の向きに延びる前記第1ゲージバーを前記表示部に表示させる
     請求項1に記載の入力装置。
  4.  さらに、
     前記センサに所定の触覚を与えるアクチュエータを備え、
     前記制御部は、前記第1ゲージバーの前記第1方向側の端部が前記複数の第1領域のうちの一の第1領域から前記一の第1領域に隣接する他の第1領域に移動した場合、前記アクチュエータを起動させる
     請求項1から3のいずれか1項に記載の入力装置。
  5.  前記制御部は、前記第1ゲージバーを前記表示部に表示させている状態において、前記センサにより前記タッチが受け付けられていない状態が第1時間続くと、前記第1基準位置から前記複数の第1領域の前記第1方向における第1の幅以下の長さに変更した前記第1ゲージバーを前記表示部に表示させる
     請求項1から4のいずれか1項に記載の入力装置。
  6.  前記制御部は、前記第1ゲージバーの前記第1方向側の端部が位置する第1領域に配置されている第1アイコンが示す機能に含まれる複数のサブ機能に対応する第2メニューを前記表示部に表示させ、
     前記第2メニューは、前記複数のサブ機能にそれぞれ対応している複数の第2アイコンであって、前記第1方向に略直交する第2方向に並ぶ複数の第2アイコンにより構成される
     請求項1から5のいずれか1項に記載の入力装置。
  7.  前記制御部は、
      前記第2メニューを前記表示部に表示させている状態において、前記センサが前記第2方向に沿った第2ジェスチャを受け付けた場合、前記第2メニュー上の第2基準位置を起点として前記第2方向に延びる第2ゲージバーであって、前記第2ジェスチャの長さに応じた長さの第2ゲージバーを前記表示部に表示させ、
      隙間無く並ぶ複数の第2領域のそれぞれに配置されている前記複数の第2アイコンのうち、前記センサへの決定を示す入力がされたときに前記表示部に表示されている前記第2ゲージバーの前記第2方向側の端部が位置する第2領域内に配置されている第2アイコンを選択する
     請求項6に記載の入力装置。
  8.  前記制御部は、前記第2メニューを前記表示部に表示させている状態において、前記センサにより前記タッチが受け付けられていない状態が第2時間続くと、前記表示部に前記第2メニューの表示を消去させる
     請求項7に記載の入力装置。
  9.  前記制御部は、前記センサへの入力の起点から前記第1方向を含む第1角度範囲へのジェスチャを前記第1ジェスチャとして認識し、前記起点から前記第1角度範囲に隣接する第2角度範囲であって、前記第2方向を含む第2角度範囲へのジェスチャを前記第2ジェスチャとして認識する
     請求項7または8に記載の入力装置。
  10.  さらに、
     前記複数の第1アイコンのそれぞれに異なる値で対応付けられた優先度を記憶している記憶部を備え、
     前記制御部は、前記第1ゲージバーを前記表示部に表示させる場合、前記記憶部が記憶している前記優先度が最も大きい第1アイコンが配置されている領域内の位置を前記第1基準位置とする
     請求項1から9のいずれか1項に記載の入力装置。
  11.  前記制御部は、前記第1メニューを前記表示部に表示させる場合、前記複数の第1アイコンの優先度が大きい順に前記第1方向に前記複数の第1アイコンを並べる
     請求項10に記載の入力装置。
  12.  前記記憶部は、ユーザにより予め設定された前記複数の第1アイコンの優先度を前記優先度として記憶している
     請求項10または11に記載の入力装置。
  13.  前記制御部は、現在までの所定期間内において前記ユーザにより選択された頻度が高いほど大きくした優先度を前記複数の第1アイコンに対応付け、前記記憶部に記憶されている前記優先度を対応付けした優先度に更新する
     請求項10から12のいずれか1項に記載の入力装置。
  14.  前記制御部は、前記第1ゲージバーを前記表示部に表示させている場合、前記第1ゲージバーを前記表示部に表示させている前記第1ゲージバーの前記第1方向側の端部が位置する領域内に配置されている第1アイコンを強調して表示させる
     請求項1から13のいずれか1項に記載の入力装置。
  15.  さらに、
     前記複数の第2アイコンのそれぞれに異なる値で対応付けられた優先度を記憶している記憶部を備え、
     前記制御部は、前記第2ゲージバーを前記表示部に表示させる場合、前記記憶部が記憶している前記優先度が最も大きい第2アイコンが配置されている領域内の位置を前記第2基準位置とする
     請求項7から9のいずれか1項に記載の入力装置。
  16.  前記制御部は、前記第2メニューを前記表示部に表示させる場合、前記複数の第2アイコンの優先度が大きい順に前記第2方向に前記複数の第2アイコンを並べる
     請求項15に記載の入力装置。
  17.  前記記憶部は、ユーザにより予め設定された前記複数の第2アイコンの優先度を前記優先度として記憶している
     請求項15または16に記載の入力装置。
  18.  前記制御部は、現在までの所定期間内において前記ユーザにより選択された頻度が高いほど大きくした優先度を前記複数の第1アイコンに対応付け、前記記憶部に記憶されている前記優先度を対応付けした優先度に更新する
     請求項15から17のいずれか1項に記載の入力装置。
  19.  前記制御部は、前記第2ゲージバーを前記表示部に表示させている場合、前記第2ゲージバーを前記表示部に表示させている前記第2ゲージバーの前記第2方向側の端部が位置する領域内に配置されている第2アイコンを強調して表示させる
     請求項7、15から18のいずれか1項に記載の入力装置。
  20.  前記センサは、前記車両のセンターコンソールまたは前記車両のステアリングホイールに配置される
     請求項1から19のいずれか1項に記載の入力装置。
  21.  さらに、
     前記表示部を備える
     請求項1から20のいずれか1項に記載の入力装置。
  22.  車両に配置される表示部が表示する、第1メニューを含むUI(User Interface)を操作するための入力を行う入力装置による入力方法であって、
     第1方向に並ぶ複数の第1アイコンを前記第1メニューとして前記表示部に表示させ、
     前記第1メニュー上の第1基準位置を起点として前記第1方向に延びる第1ゲージバーであって、前記入力装置が備えるセンサにユーザのタッチにより入力された前記第1方向に沿った第1ジェスチャの長さに応じた長さの第1ゲージバーを前記表示部に表示させ、
     隙間無く並ぶ複数の領域のそれぞれに配置されている前記複数の第1アイコンのうち、前記センサへの決定を示す入力がされたときに前記表示部に表示されている前記第1ゲージバーの前記第1方向側の端部が位置する領域内に配置されている第1アイコンを選択する
     入力方法。
PCT/JP2018/037204 2017-12-08 2018-10-04 入力装置、及び、入力方法 WO2019111515A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019530235A JP6719087B2 (ja) 2017-12-08 2018-10-04 入力装置、及び、入力方法
US16/561,964 US11144193B2 (en) 2017-12-08 2019-09-05 Input device and input method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-235934 2017-12-08
JP2017235934 2017-12-08

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/561,964 Continuation US11144193B2 (en) 2017-12-08 2019-09-05 Input device and input method

Publications (1)

Publication Number Publication Date
WO2019111515A1 true WO2019111515A1 (ja) 2019-06-13

Family

ID=66749917

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/037204 WO2019111515A1 (ja) 2017-12-08 2018-10-04 入力装置、及び、入力方法

Country Status (3)

Country Link
US (1) US11144193B2 (ja)
JP (1) JP6719087B2 (ja)
WO (1) WO2019111515A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111515A1 (ja) * 2017-12-08 2019-06-13 パナソニックIpマネジメント株式会社 入力装置、及び、入力方法
JP7377088B2 (ja) * 2019-12-10 2023-11-09 キヤノン株式会社 電子機器およびその制御方法、プログラム、並びに記憶媒体
CN111866381B (zh) * 2020-07-08 2022-05-10 Oppo广东移动通信有限公司 一种调焦方法、装置、设备及计算机可读存储介质
US20240212829A1 (en) * 2022-12-21 2024-06-27 GE Precision Healthcare LLC Systems and methods for automating workflows

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007199980A (ja) * 2006-01-26 2007-08-09 Xanavi Informatics Corp 表示制御装置、地図表示装置およびナビゲーション装置
JP2013134717A (ja) * 2011-12-27 2013-07-08 Aisin Aw Co Ltd 操作入力システム
JP2016004541A (ja) * 2014-06-19 2016-01-12 本田技研工業株式会社 車両用操作入力装置
JP2017049788A (ja) * 2015-09-01 2017-03-09 三菱自動車工業株式会社 車載情報処理装置

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7076734B2 (en) * 2001-06-22 2006-07-11 Microsoft Corporation Systems and methods for providing a dynamically controllable user interface that embraces a variety of media
CN1860429A (zh) * 2003-09-30 2006-11-08 皇家飞利浦电子股份有限公司 定义内容窗口在显示器上的位置、尺寸和/或内容的姿势
JP4000570B2 (ja) 2004-04-14 2007-10-31 ソニー株式会社 情報処理装置および方法
JP4769552B2 (ja) * 2005-11-14 2011-09-07 株式会社エヌ・ティ・ティ・ドコモ 端末及び端末の制御プログラム
KR101181766B1 (ko) * 2005-12-23 2012-09-12 엘지전자 주식회사 이동통신 단말기에서의 메뉴 표시 방법, 및 그 방법을구현하기 위한 이동통신 단말기
US20080165145A1 (en) * 2007-01-07 2008-07-10 Scott Herz Portable Multifunction Device, Method, and Graphical User Interface for Interpreting a Finger Swipe Gesture
US9442648B2 (en) * 2008-10-07 2016-09-13 Blackberry Limited Portable electronic device and method of controlling same
KR101640463B1 (ko) * 2009-05-19 2016-07-18 삼성전자 주식회사 휴대 단말기의 운용 방법 및 이를 지원하는 휴대 단말기
CN102422249B (zh) * 2010-03-10 2015-11-25 松下电器(美国)知识产权公司 按入位置控制装置、按入位置控制方法以及触摸传感器系统
CN102860034B (zh) * 2010-04-28 2016-05-18 Lg电子株式会社 图像显示设备和操作图像显示设备的方法
WO2011158475A1 (ja) * 2010-06-16 2011-12-22 パナソニック株式会社 情報入力装置、情報入力方法及びプログラム
WO2012027600A2 (en) * 2010-08-27 2012-03-01 Intel Corporation Transcoder enabled cloud of remotely controlled devices
JP5782699B2 (ja) * 2010-10-15 2015-09-24 ソニー株式会社 情報処理装置、情報処理装置の入力制御方法及びプログラム
JP5434887B2 (ja) * 2010-11-02 2014-03-05 コニカミノルタ株式会社 表示処理装置およびコンピュータプログラム
JP5452566B2 (ja) * 2011-10-31 2014-03-26 本田技研工業株式会社 車両用入力装置
KR102028119B1 (ko) * 2012-11-28 2019-11-04 삼성전자주식회사 애플리케이션을 디스플레이하는 방법 및 그 전자 장치
JP5928397B2 (ja) * 2013-04-03 2016-06-01 株式会社デンソー 入力装置
KR20140129412A (ko) * 2013-04-29 2014-11-07 삼성전자주식회사 전자 장치의 아이콘 정렬 방법 및 그 전자 장치
IL226621A0 (en) * 2013-05-28 2013-09-30 Michel Kamoun A digital personality system to collect a person's emotion or response to a subject by analyzing finger movements on a touch-sensitive surface or panel
KR20150072719A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR102138526B1 (ko) * 2014-01-14 2020-07-28 엘지전자 주식회사 퀵 컨트롤 메뉴를 제공하는 디지털 디바이스 및 그 제어 방법
JP6277786B2 (ja) * 2014-03-11 2018-02-14 トヨタ自動車株式会社 車両用操作装置
KR20150107528A (ko) * 2014-03-14 2015-09-23 삼성전자주식회사 사용자 인터페이스를 제공하는 방법과 전자 장치
US10073493B2 (en) * 2014-03-19 2018-09-11 Sony Corporation Device and method for controlling a display panel
US9811239B2 (en) * 2014-05-05 2017-11-07 Cellco Partnership Systems and methods for efficiently searching applications
KR20150137452A (ko) * 2014-05-29 2015-12-09 삼성전자주식회사 디스플레이 장치 제어 방법 및 이를 위한 원격 제어 장치
KR102251541B1 (ko) * 2014-06-23 2021-05-14 엘지전자 주식회사 이동단말기 및 그것의 제어방법
US20160041702A1 (en) * 2014-07-08 2016-02-11 Nan Wang Pull and Swipe Navigation
JP6561141B2 (ja) * 2015-05-29 2019-08-14 華為技術有限公司Huawei Technologies Co.,Ltd. タッチパッドを用いて携帯端末の撮影焦点距離を調整する方法および携帯端末
US9652125B2 (en) * 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
WO2017051567A1 (ja) * 2015-09-24 2017-03-30 アイシン・エィ・ダブリュ株式会社 操作システム、操作方法、及び操作プログラム
KR20170046969A (ko) * 2015-10-22 2017-05-04 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
DK201670583A1 (en) * 2016-03-28 2017-10-16 Apple Inc Keyboard input to an electronic device
KR101811344B1 (ko) * 2016-07-28 2017-12-26 네이버 주식회사 디스플레이 제어 방법, 장치 및 컴퓨터프로그램
JP6614087B2 (ja) * 2016-10-06 2019-12-04 トヨタ自動車株式会社 車両用操作装置
EP3333688B1 (en) * 2016-12-08 2020-09-02 LG Electronics Inc. Mobile terminal and method for controlling the same
KR102463993B1 (ko) * 2017-03-08 2022-11-07 삼성전자주식회사 핸들러 표시 방법 및 이를 위한 전자 장치
KR20190041632A (ko) * 2017-10-13 2019-04-23 현대자동차주식회사 차량 및 그 제어 방법
WO2019111515A1 (ja) * 2017-12-08 2019-06-13 パナソニックIpマネジメント株式会社 入力装置、及び、入力方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007199980A (ja) * 2006-01-26 2007-08-09 Xanavi Informatics Corp 表示制御装置、地図表示装置およびナビゲーション装置
JP2013134717A (ja) * 2011-12-27 2013-07-08 Aisin Aw Co Ltd 操作入力システム
JP2016004541A (ja) * 2014-06-19 2016-01-12 本田技研工業株式会社 車両用操作入力装置
JP2017049788A (ja) * 2015-09-01 2017-03-09 三菱自動車工業株式会社 車載情報処理装置

Also Published As

Publication number Publication date
JP6719087B2 (ja) 2020-07-08
JPWO2019111515A1 (ja) 2020-01-16
US11144193B2 (en) 2021-10-12
US20190391736A1 (en) 2019-12-26

Similar Documents

Publication Publication Date Title
US10394375B2 (en) Systems and methods for controlling multiple displays of a motor vehicle
WO2019111515A1 (ja) 入力装置、及び、入力方法
JP2021166058A (ja) 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム
JP5644962B2 (ja) 操作装置
JP6653489B2 (ja) 入力装置、及び、入力方法
JP6269343B2 (ja) 車両用操作装置
JP2014102660A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
JP2007310496A (ja) タッチ操作入力装置
WO2009128148A1 (ja) 遠隔操作装置
JP7338184B2 (ja) 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム
US20190212910A1 (en) Method for operating a human-machine interface and human-machine interface
JP5079582B2 (ja) タッチ式センサ
US10802701B2 (en) Vehicle including touch input device and control method of the vehicle
JP2011198210A (ja) 表示装置、表示方法、及び表示プログラム
JP2015228118A (ja) 操作装置
JP2014102656A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
JP2009286175A (ja) 車両用表示装置
JP6390657B2 (ja) 車両用表示装置
JP6473610B2 (ja) 操作装置、及び、操作システム
JP7042931B2 (ja) 表示制御装置、表示制御システム、及び、表示制御方法
JP2014211738A (ja) 車載機器の制御装置、車載機器
JP2014100998A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
US11269438B2 (en) Electronic device
JP6429699B2 (ja) 車両用入力システム
JP6414288B2 (ja) 車両用操作装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019530235

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18886587

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18886587

Country of ref document: EP

Kind code of ref document: A1