[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016110424A - Manipulation system - Google Patents

Manipulation system Download PDF

Info

Publication number
JP2016110424A
JP2016110424A JP2014247821A JP2014247821A JP2016110424A JP 2016110424 A JP2016110424 A JP 2016110424A JP 2014247821 A JP2014247821 A JP 2014247821A JP 2014247821 A JP2014247821 A JP 2014247821A JP 2016110424 A JP2016110424 A JP 2016110424A
Authority
JP
Japan
Prior art keywords
user
line
sight
touch sensor
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014247821A
Other languages
Japanese (ja)
Other versions
JP2016110424A5 (en
JP6549839B2 (en
Inventor
真史 露梨
Masashi Tsuyunashi
真史 露梨
大和 俊孝
Toshitaka Yamato
俊孝 大和
田中 省吾
Shogo Tanaka
省吾 田中
橋本 欣和
Yoshikazu Hashimoto
欣和 橋本
太田 崇史
Takashi Ota
崇史 太田
哲 杉江
Satoru Sugie
哲 杉江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2014247821A priority Critical patent/JP6549839B2/en
Publication of JP2016110424A publication Critical patent/JP2016110424A/en
Publication of JP2016110424A5 publication Critical patent/JP2016110424A5/ja
Application granted granted Critical
Publication of JP6549839B2 publication Critical patent/JP6549839B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique that allows for avoiding safety problems that may be encountered when a user manipulates on a touch sensor.SOLUTION: A vehicle-mounted manipulation system 1 includes a touch sensor of a remote control unit 20 located at a position manipulatable by a user of a vehicle, an HUD (head-up display) unit 30 that displays a scene ahead of the vehicle on a manipulation screen, and an eye-gaze detection unit 40 that detects eye-gaze of the user. Manipulation on the touch sensor is enabled only when eye-gaze of the user is directed to a display area of a manipulation screen.SELECTED DRAWING: Figure 2

Description

本発明は、操作システムに関する。   The present invention relates to an operation system.

従来のタッチパネルは、ユーザの操作によってタッチパネル自体が物理的に変位しないため、操作に対するフィードバックがなく、ユーザは操作感を得ることができなかった。このため、ユーザの操作があった際にタッチパネルを振動させて、操作に対するフィードバックをユーザに与える技術が知られている。なお、本発明と関連する技術としては、例えば特許文献1がある。   In the conventional touch panel, since the touch panel itself is not physically displaced by a user operation, there is no feedback on the operation, and the user cannot obtain a feeling of operation. For this reason, a technique is known in which when a user's operation is performed, the touch panel is vibrated and feedback to the operation is given to the user. As a technique related to the present invention, there is, for example, Patent Document 1.

特開2012-027765号公報Japanese Unexamined Patent Publication No. 2012-027765

ところで、操作内容を示す表示画面とタッチセンサとが別の電子機器である場合には、フィードバックを与えることによってブラインドでの操作が可能になる。例えば、車両に用いた場合には、表示画面を前方にすることで運転中でも前方視界から目を離さずにタッチセンサの操作が可能になるという効果が期待できる。しかしながら、ドライバが自身の意思で又は無意識の内にタッチセンサを見てしまう可能性もあり、この場合には安全面での問題が生じることが懸念される。   By the way, when the display screen showing the operation content and the touch sensor are different electronic devices, the blind operation can be performed by giving feedback. For example, when used in a vehicle, it can be expected that the touch sensor can be operated without taking your eyes off the front view even during driving by setting the display screen forward. However, there is a possibility that the driver may see the touch sensor with his own intention or unconsciously. In this case, there is a concern that a safety problem may occur.

本発明は、上記課題に鑑みてなされたものであり、ユーザがタッチセンサを操作する際に安全面での問題が生じることを回避することが可能な技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of avoiding the occurrence of a safety problem when a user operates a touch sensor.

上記課題を解決するため、請求項1の発明は、車両に搭載される操作システムであって、前記車両のユーザが操作可能な位置に配置されたタッチセンサと、前記車両の前方方向に操作画面を表示する表示装置と、前記ユーザの視線を検出する視線検出装置と、を備え、前記ユーザの視線が、前記操作画面が表示されている領域内にある場合には、前記タッチセンサへの操作を有効にする操作システムである。   In order to solve the above-mentioned problem, an invention according to claim 1 is an operation system mounted on a vehicle, wherein the touch sensor is disposed at a position where the user of the vehicle can operate, and an operation screen in the forward direction of the vehicle. Display device and a gaze detection device that detects the user's gaze, and when the user's gaze is in the area where the operation screen is displayed, the operation to the touch sensor It is an operation system to enable.

また、請求項2の発明は、車両に搭載される操作システムであって、前記車両のユーザが操作可能な位置に配置されたタッチセンサと、前記ユーザの視線を検出する視線検出装置と、を備え、ユーザの視線が、前記タッチセンサが配置されている領域内にある場合には、タッチセンサへの操作を無効にする操作システムである。   The invention of claim 2 is an operation system mounted on a vehicle, comprising: a touch sensor disposed at a position operable by a user of the vehicle; and a line-of-sight detection device that detects the line of sight of the user. And an operation system that disables an operation on the touch sensor when the user's line of sight is within an area where the touch sensor is disposed.

また、請求項3の発明は、車両に搭載される操作システムであって、前記車両のユーザが操作可能な位置に配置されたタッチセンサと、前記ユーザの視線を検出する視線検出装置と、を備え、ユーザの視線が、前記タッチセンサが配置されている領域外にある場合には、タッチセンサへの操作を有効にする操作システムである。   The invention of claim 3 is an operation system mounted on a vehicle, comprising: a touch sensor disposed at a position operable by a user of the vehicle; and a line-of-sight detection device that detects the line of sight of the user. And an operation system that enables an operation to the touch sensor when the user's line of sight is outside the area where the touch sensor is disposed.

また、請求項4の発明は、車両に搭載される操作システムであって、前記車両のユーザが操作可能な位置に配置された第1のタッチセンサと、前記車両の前方方向に第1のタッチセンサで操作する操作画面を表示する表示装置と、第2のタッチセンサ及び表示部を有し、車両のユーザが操作可能な位置に配置されたタッチパネル装置と、前記ユーザの視線を検出する視線検出装置と、を備え、前記ユーザの視線が、前記操作画面が表示されている領域内にある場合には、前記第1のタッチセンサへの操作を有効にし、第2のタッチセンサへの操作を無効にする操作システムである。   According to a fourth aspect of the present invention, there is provided an operation system mounted on a vehicle, the first touch sensor disposed at a position where the user of the vehicle can operate, and the first touch in the forward direction of the vehicle. A display device that displays an operation screen operated by a sensor, a second touch sensor and a display unit, a touch panel device that is disposed at a position where the user of the vehicle can operate, and a gaze detection that detects the gaze of the user And when the user's line of sight is within the area where the operation screen is displayed, the operation to the first touch sensor is enabled and the operation to the second touch sensor is performed. The operating system to disable.

また、請求項5の発明は、車両に搭載される操作システムであって、前記車両のユーザが操作可能な位置に配置されたタッチセンサと、前記ユーザの視線を検出する視線検出装置と、を備え、前記ユーザの視線方向に車両設備が配置されている場合には、前記タッチセンサによる該車両設備への調整操作を可能にする操作システムである。   Further, the invention of claim 5 is an operation system mounted on a vehicle, comprising: a touch sensor disposed at a position operable by a user of the vehicle; and a line-of-sight detection device that detects the line of sight of the user. And an operation system that enables an adjustment operation to the vehicle facility by the touch sensor when the vehicle facility is arranged in the direction of the line of sight of the user.

また、請求項6の発明は、請求項1ないし5のいずれかに記載の操作システムにおいて、前記タッチセンサには、ユーザに対して触感を付与する触感付与手段が設けられている。   According to a sixth aspect of the present invention, in the operation system according to any of the first to fifth aspects, the touch sensor is provided with tactile sensation imparting means for imparting a tactile sensation to the user.

また、請求項7の発明は、請求項1ないし6のいずれかに記載の操作システムにおいて、前記車両が停車している場合には、前記タッチセンサへの操作の無効化を行わない。   The invention according to claim 7 is the operation system according to any one of claims 1 to 6, wherein when the vehicle is stopped, the operation to the touch sensor is not invalidated.

請求項1ないし6の発明によれば、ユーザの視線に応じてタッチセンサを有効又は無効にするため、車両のユーザが操作する場合においても安全面での問題が生じることを回避することが可能になる。   According to the first to sixth aspects of the invention, since the touch sensor is enabled or disabled according to the user's line of sight, it is possible to avoid a safety problem even when the user of the vehicle operates. become.

図1は、操作システムの概要を示す図である。FIG. 1 is a diagram showing an outline of the operation system. 図2は、操作システムの概要を示す図である。FIG. 2 is a diagram showing an outline of the operation system. 図3は、制御装置の概要を示す図である。FIG. 3 is a diagram showing an outline of the control device. 図4は、遠隔操作装置の概要を示す図である。FIG. 4 is a diagram showing an outline of the remote control device. 図5は、タッチパネルの概要を示す図である。FIG. 5 is a diagram showing an outline of the touch panel. 図6は、HUD装置の概要を示す図である。FIG. 6 is a diagram showing an outline of the HUD device. 図7は、視線検出装置の概要を示す図である。FIG. 7 is a diagram illustrating an outline of the visual line detection device. 図8は、操作システムの処理を示すフローチャートである。FIG. 8 is a flowchart showing processing of the operation system. 図9は、操作システムの概要を示す図である。FIG. 9 is a diagram showing an outline of the operation system. 図10は、制御装置の概要を示す図である。FIG. 10 is a diagram showing an outline of the control device. 図11は、操作システムの処理を示すフローチャートである。FIG. 11 is a flowchart showing processing of the operation system. 図12は、操作システムの概要を示す図である。FIG. 12 is a diagram showing an outline of the operation system. 図13は、操作システムの概要を示す図である。FIG. 13 is a diagram showing an outline of the operation system. 図14は、制御装置の概要を示す図である。FIG. 14 is a diagram illustrating an outline of the control device. 図15は、操作システムの処理を示すフローチャートである。FIG. 15 is a flowchart showing processing of the operation system. 図16は、操作システムの概要を示す図である。FIG. 16 is a diagram showing an outline of the operation system. 図17は、操作システムの概要を示す図である。FIG. 17 is a diagram showing an outline of the operation system. 図18は、制御装置の概要を示す図である。FIG. 18 is a diagram illustrating an outline of the control device. 図19は、操作システムの処理を示すフローチャートである。FIG. 19 is a flowchart showing processing of the operation system.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1の実施の形態>
<1−1.システムの概要>
図1及び図2は、操作システム1の概要を示す図である。本実施の形態では、自動車などの車両に搭載された操作システム1を例に用いて説明する。図1は、操作システム1が搭載される車両の車室内の様子を示す図である。図2は、操作システム1の概略構成を示す図である。
<1. First Embodiment>
<1-1. System overview>
1 and 2 are diagrams showing an outline of the operation system 1. In the present embodiment, an operation system 1 mounted on a vehicle such as an automobile will be described as an example. FIG. 1 is a diagram illustrating a state in a passenger compartment of a vehicle on which the operation system 1 is mounted. FIG. 2 is a diagram illustrating a schematic configuration of the operation system 1.

図1及び図2に示すように、操作システム1は、制御装置10と、遠隔操作装置20と、ヘッドアップディスプレイ装置(以下「HUD装置」と記載する)30と、視線検出装置40とを備えている。制御装置10は、遠隔操作装置20、HUD装置30及び視線検出装置40の各々と電気的に接続されており、各装置との間で信号の送受信が可能である。   As shown in FIGS. 1 and 2, the operation system 1 includes a control device 10, a remote operation device 20, a head-up display device (hereinafter referred to as “HUD device”) 30, and a line-of-sight detection device 40. ing. The control device 10 is electrically connected to each of the remote control device 20, the HUD device 30, and the line-of-sight detection device 40, and can send and receive signals to and from each device.

制御装置10は、車両に設けられた他の装置(例えば遠隔操作装置20等)を制御する。本実施の形態では、ユーザ(代表的にはドライバ)の視線に応じて遠隔操作装置20の動作状態を制御するようになっており、制御装置10はこのような制御を行う。   The control device 10 controls other devices (for example, the remote operation device 20) provided in the vehicle. In the present embodiment, the operation state of the remote control device 20 is controlled according to the line of sight of the user (typically a driver), and the control device 10 performs such control.

遠隔操作装置20は、タッチセンサを備えた操作装置であり、車両のセンターコンソールのユーザの手の届く範囲に設けられている。そして、この遠隔操作装置20を用いた操作内容を示す画像は、HUD装置30にて表示される。操作システム1では、ユーザはHUD装置30が表示した画面を見ながら手元の遠隔操作装置20を操作するようになっている。つまり、操作システム1は、操作する手元を見ることなく(ブラインドで)、遠隔での操作が可能なシステムである。   The remote operation device 20 is an operation device provided with a touch sensor, and is provided within the reach of the user of the center console of the vehicle. An image showing the operation content using the remote operation device 20 is displayed on the HUD device 30. In the operation system 1, the user operates the remote operation device 20 at hand while looking at the screen displayed by the HUD device 30. That is, the operation system 1 is a system that can be operated remotely without looking at the operating hand (with a blind).

さらに、ユーザが遠隔操作装置20のタッチセンサを操作すると、タッチセンサが振動する。これにより、ユーザは触感を得ることができるようになっており、すなわち操作に対するフィードバックを得ることができる。   Further, when the user operates the touch sensor of the remote control device 20, the touch sensor vibrates. As a result, the user can obtain a tactile sensation, that is, feedback for the operation can be obtained.

HUD装置30は、ユーザの略正面のフロントガラス部分に画像を投影する装置である。ユーザは、このHUD装置30が投影した画面を見ながら遠隔操作装置20のタッチセンサを操作する。   The HUD device 30 is a device that projects an image on a windshield portion substantially in front of the user. The user operates the touch sensor of the remote control device 20 while viewing the screen projected by the HUD device 30.

また、視線検出装置40は、ユーザの視線を検出する装置である。視線検出装置40は、例えばカメラでユーザの顔を撮影し、その画像を解析することでユーザの視線を検出する。視線検出装置40が検出したユーザの視線情報は、制御装置10が遠隔操作装置20の動作状態を制御する際に用いられる。   The line-of-sight detection device 40 is a device that detects a user's line of sight. The line-of-sight detection device 40 detects the user's line of sight by, for example, photographing the user's face with a camera and analyzing the image. The user's line-of-sight information detected by the line-of-sight detection device 40 is used when the control device 10 controls the operating state of the remote control device 20.

このように、操作システム1は、タッチセンサと表示画面とが異なる位置にあり、ユーザが遠隔で操作可能なシステムであって、ユーザの視線方向に応じてタッチセンサの動作状態を制御するシステムである。以下、各構成の具体的な内容について説明する。   As described above, the operation system 1 is a system in which the touch sensor and the display screen are at different positions and can be remotely operated by the user, and is a system that controls the operation state of the touch sensor in accordance with the user's line-of-sight direction. is there. Hereinafter, specific contents of each component will be described.

<1−2.システムの構成>
操作システム1の具体的な構成について図3ないし図7を用いて説明する。まず、制御装置10の構成について説明する。図3は、制御装置10の概略構成を示す図である。図3に示すように、制御装置10は、通信部11、記憶部12、及び、制御部13を備えている。
<1-2. System configuration>
A specific configuration of the operation system 1 will be described with reference to FIGS. 3 to 7. First, the configuration of the control device 10 will be described. FIG. 3 is a diagram illustrating a schematic configuration of the control device 10. As illustrated in FIG. 3, the control device 10 includes a communication unit 11, a storage unit 12, and a control unit 13.

通信部11は、Wi−Fi(ワイファイ:登録商標)等による無線通信により遠隔操作装置20と通信可能に接続され、遠隔操作装置20との間で各種データの送受信を行う。また、通信部11は、CAN(Controller Area Network)等の車載LAN(Local Area Network)を介してHUD装置30及び視線検出装置40の各装置と通信可能に接続されており、HUD装置30及び視線検出装置40の各装置と各種データの送受信を行う。なお、これらの接続は一例であり、有線及び無線のいずれであってもよい。   The communication unit 11 is communicably connected to the remote operation device 20 by wireless communication using Wi-Fi (registered trademark) or the like, and transmits and receives various data to and from the remote operation device 20. The communication unit 11 is communicably connected to each of the HUD device 30 and the line-of-sight detection device 40 via an in-vehicle LAN (Local Area Network) such as a CAN (Controller Area Network), and the HUD device 30 and the line of sight Various data is transmitted / received to / from each device of the detection device 40. These connections are examples, and may be wired or wireless.

記憶部12は、電気的にデータの読み書きが可能であって、電源を遮断されていてもデータが消去されない不揮発性の半導体メモリである。記憶部12としては、例えば、EEPROM(Electrical Erasable Programmable Read-Only memory)やフラッシュメモリを用いることができる。ただし、他の記憶媒体を用いてもよく、磁気ディスクを備えたハードディスクドライブで構成することもできる。記憶部12には、プログラム12aなどが記憶されている。プログラム12aは、制御部13により読みだされ、制御部13が制御装置10を制御するために実行される、いわゆるシステムソフトウェアである。   The storage unit 12 is a nonvolatile semiconductor memory that can electrically read and write data and does not erase data even when the power is shut off. As the storage unit 12, for example, an EEPROM (Electrical Erasable Programmable Read-Only Memory) or a flash memory can be used. However, other storage media may be used, and a hard disk drive provided with a magnetic disk may be used. The storage unit 12 stores a program 12a and the like. The program 12 a is so-called system software that is read by the control unit 13 and executed for the control unit 13 to control the control device 10.

制御部13は、例えば、CPU、RAM、及びROMなどを備えるマイクロコンピュータであり、主として制御装置10や遠隔操作装置20などを制御する。制御部13のCPUが記憶部12に記憶されたプログラム12aを実行する(プログラム12aに従った演算処理を行う)ことにより、制御部13として必要な各種の機能が実現される。   The control unit 13 is, for example, a microcomputer including a CPU, a RAM, a ROM, and the like, and mainly controls the control device 10, the remote operation device 20, and the like. When the CPU of the control unit 13 executes the program 12a stored in the storage unit 12 (performs arithmetic processing according to the program 12a), various functions necessary for the control unit 13 are realized.

図3に示す操作判別部13a、画像生成部13b、振動制御部13c、視線判定部13d及び動作制御部13eは、プログラム12aの実行により実現される制御部13の機能のうちの一部である。   The operation determination unit 13a, the image generation unit 13b, the vibration control unit 13c, the line-of-sight determination unit 13d, and the operation control unit 13e illustrated in FIG. 3 are some of the functions of the control unit 13 realized by executing the program 12a. .

操作判別部13aは、ユーザの操作内容を判別する。具体的には、操作判別部13aは、遠隔操作装置20からユーザがタッチした位置の情報を取得して、この位置情報に基づいてユーザが遠隔操作装置20を操作したことや、ジェスチャーなどの操作内容を判別する。例えば、操作判別部13aは、遠隔操作装置20から取得した時間的に連続する位置情報をつないだ結果に基づいてユーザのジェスチャーを判別する。   The operation determination unit 13a determines the user's operation content. Specifically, the operation determination unit 13a acquires information on a position touched by the user from the remote operation device 20, and based on the position information, the operation of the remote operation device 20 or an operation such as a gesture is performed. Determine the contents. For example, the operation determination unit 13a determines the user's gesture based on the result of connecting the temporally continuous position information acquired from the remote operation device 20.

画像生成部13bは、HUD装置30が投影する画像データを生成し、通信部11を介してHUD装置30に送信する。例えば、ユーザが遠隔操作装置20を操作してエアコンやオーディオなどの設定の調整指示を入力すると、画像生成部13bは、対応する調整画像のデータを生成してHUD装置30に送信する。これにより、HUD装置30は、対応する調整画像を投影して表示することになる。   The image generation unit 13 b generates image data projected by the HUD device 30 and transmits the image data to the HUD device 30 via the communication unit 11. For example, when the user operates the remote control device 20 to input an adjustment instruction for setting of an air conditioner, audio, or the like, the image generation unit 13b generates data of a corresponding adjustment image and transmits it to the HUD device 30. Thereby, the HUD device 30 projects and displays the corresponding adjustment image.

振動制御部13cは、操作判別部13aの判別結果に応じて遠隔操作装置20のタッチセンサの振動を制御する。具体的には、振動制御部13cは、ユーザが遠隔操作装置20を操作すると、後述する振動素子を振動させる。例えば、振動制御部13cは、振動素子を一定の強度で振動させたり、一定の周期で強弱を変化させながら振動させる等の制御を行う。   The vibration control unit 13c controls the vibration of the touch sensor of the remote operation device 20 according to the determination result of the operation determination unit 13a. Specifically, when the user operates the remote control device 20, the vibration control unit 13c vibrates a vibration element described later. For example, the vibration control unit 13c performs control such that the vibration element is vibrated at a constant strength, or is vibrated while changing the strength at a constant cycle.

視線判定部13dは、ユーザの視線が、HUD装置30が投影した画像の方向を向いているか否かを判定する。具体的には、視線判定部13dは、視線検出装置40が検出した視線の情報を取得し、その視線方向とHUD装置30の投影画面の位置とを比較して判定する。   The line-of-sight determination unit 13d determines whether or not the user's line of sight faces the direction of the image projected by the HUD device 30. Specifically, the line-of-sight determination unit 13d acquires information on the line of sight detected by the line-of-sight detection device 40, and compares the line-of-sight direction with the position of the projection screen of the HUD device 30 for determination.

動作制御部13eは、ユーザの視線に応じて遠隔操作装置20の動作状態を制御する。例えば、ユーザの視線がHUD装置30の投影画面の方向を向いている場合に、動作制御部13eが遠隔操作装置20の操作を有効にする等である。   The operation control unit 13e controls the operation state of the remote operation device 20 according to the user's line of sight. For example, when the user's line of sight faces the direction of the projection screen of the HUD device 30, the operation control unit 13 e enables the operation of the remote operation device 20.

次に、遠隔操作装置20の構成について説明する。図4は、遠隔操作装置20の概略構成を示す図である。図4に示すように、遠隔操作装置20は、タッチセンサ21、タッチセンサコントローラ22、通信部23、及び、振動素子24を備えている。   Next, the configuration of the remote control device 20 will be described. FIG. 4 is a diagram illustrating a schematic configuration of the remote control device 20. As shown in FIG. 4, the remote control device 20 includes a touch sensor 21, a touch sensor controller 22, a communication unit 23, and a vibration element 24.

なお、遠隔操作装置20は、表示機能を有していないため、いわゆるタッチパッドとして機能する。また、遠隔操作装置20のタッチセンサ21の位置と、HUD装置30による投影画面の位置とが対応付けられており、ユーザはHUD装置30によって投影された画面を見ながらタッチセンサ21を操作することができるようになっている。   Note that the remote operation device 20 does not have a display function, and thus functions as a so-called touch pad. Further, the position of the touch sensor 21 of the remote operation device 20 and the position of the projection screen by the HUD device 30 are associated with each other, and the user operates the touch sensor 21 while viewing the screen projected by the HUD device 30. Can be done.

タッチセンサ21は、ユーザが入力操作を行う平板状のセンサーである。なお、遠隔操作装置20自身は表示機能を有しておらず、タッチセンサ21はいわゆるタッチパッドとして機能する。例えば、HUD装置30の投影画面に表示されたコマンドボタンに対応するタッチセンサ21上の領域を指でタッチすると、コマンドボタンに関連付けられた指示を行うことができる。   The touch sensor 21 is a flat plate sensor that the user performs an input operation. The remote control device 20 itself does not have a display function, and the touch sensor 21 functions as a so-called touch pad. For example, when an area on the touch sensor 21 corresponding to the command button displayed on the projection screen of the HUD device 30 is touched with a finger, an instruction associated with the command button can be performed.

タッチセンサ21の方式としては、例えば、静電容量の変化を捉えて位置を検出する静電容量方式を採用することができる。ユーザは、タッチセンサ21の操作面に対して、一点でタッチする操作のみならず、複数点でタッチする操作であるマルチタッチを行うことも可能になっている。   As a method of the touch sensor 21, for example, a capacitance method that detects a position by detecting a change in capacitance can be employed. The user can perform not only an operation of touching at one point on the operation surface of the touch sensor 21 but also a multi-touch that is an operation of touching at a plurality of points.

タッチセンサコントローラ22は、例えば、ハードウェア回路であり、タッチセンサ21の動作を制御する。タッチセンサコントローラ22は、タッチセンサ21で生じた信号に基づいて、タッチセンサ21の操作面中のユーザがタッチした位置を検出するタッチ検出部22aを備えている。   The touch sensor controller 22 is a hardware circuit, for example, and controls the operation of the touch sensor 21. The touch sensor controller 22 includes a touch detection unit 22 a that detects a position touched by the user on the operation surface of the touch sensor 21 based on a signal generated by the touch sensor 21.

タッチ検出部22aは、例えば、駆動電極及び受信電極の2電極間の静電容量の変化を測定する相互容量方式で、ユーザがタッチした位置(例えばXY座標)を検出する。タッチ検出部22aは、ユーザの指での電界の遮断によって受信電極が受信する電荷が減少することに基づいて、ユーザがタッチしたか否かを検出する。   The touch detection unit 22a detects, for example, a position (for example, XY coordinates) touched by the user by a mutual capacitance method that measures a change in capacitance between the two electrodes of the drive electrode and the reception electrode. The touch detection unit 22a detects whether or not the user has touched based on the decrease in the charge received by the reception electrode due to the electric field being blocked by the user's finger.

タッチ検出部22aは、タッチセンサ21の操作面に、ユーザが一点及び複数点のいずれでタッチしたかを判別することができる。そして、タッチ検出部22aは、タッチセンサ21の操作面にユーザが一点でタッチした場合にはその一点の位置を検出し、ユーザが複数点でタッチした場合にはその複数点のそれぞれの位置を検出する。   The touch detection unit 22a can determine whether the user touches the operation surface of the touch sensor 21 at one point or a plurality of points. When the user touches the operation surface of the touch sensor 21 with one point, the touch detection unit 22a detects the position of the one point, and when the user touches with a plurality of points, the touch detection unit 22a detects the positions of the plurality of points. To detect.

通信部23は、Wi−Fi(ワイファイ:登録商標)等による無線通信により制御装置10と通信可能に接続され、制御装置10との間で各種データの送受信を行う。例えば、通信部23は、タッチ検出部22aで検出したユーザがタッチした位置情報(例えばXY座標)を制御装置10に送信し、制御装置10から振動素子24を振動させる制御信号(以下「振動制御信号」という)を受信する。   The communication unit 23 is communicably connected to the control device 10 by wireless communication using Wi-Fi (Wi-Fi: registered trademark) or the like, and transmits / receives various data to / from the control device 10. For example, the communication unit 23 transmits position information (for example, XY coordinates) touched by the user detected by the touch detection unit 22a to the control device 10, and a control signal (hereinafter referred to as “vibration control”) that vibrates the vibration element 24 from the control device 10. Signal)).

振動素子24は、タッチセンサ21の操作面を振動させる部材である。振動素子24は、図5に示すように、タッチセンサ21の操作面の周囲に複数配置されている。そして、この振動素子24自身が振動することでタッチセンサ21の操作面を振動させる。振動素子24は、制御装置10からの振動制御信号に基づいて振動する。この振動素子24としては、例えば、ピエゾ素子などの圧電素子を用いることができる。   The vibration element 24 is a member that vibrates the operation surface of the touch sensor 21. As shown in FIG. 5, a plurality of vibration elements 24 are arranged around the operation surface of the touch sensor 21. The vibration element 24 itself vibrates to vibrate the operation surface of the touch sensor 21. The vibration element 24 vibrates based on a vibration control signal from the control device 10. As the vibration element 24, for example, a piezoelectric element such as a piezoelectric element can be used.

このように、振動素子24が振動してタッチセンサ21を振動させることでタッチセンサ21を操作しているユーザに対して触感を与えることができる。すなわち、操作に対するフィードバックを与えることができる。   As described above, the vibration element 24 vibrates to vibrate the touch sensor 21, so that a tactile sensation can be given to the user operating the touch sensor 21. That is, feedback for the operation can be given.

次に、HUD装置30の構成について説明する。図6は、HUD装置30の概略構成を示す図である。図6に示すように、HUD装置30は、信号受信部31、画像処理部32、プロジェクタ33、及び、制御部34を備えている。   Next, the configuration of the HUD device 30 will be described. FIG. 6 is a diagram illustrating a schematic configuration of the HUD device 30. As illustrated in FIG. 6, the HUD device 30 includes a signal receiving unit 31, an image processing unit 32, a projector 33, and a control unit 34.

信号受信部31は、制御装置10から画像データを受信する。例えば、ユーザが遠隔操作装置30のタッチセンサ21を操作してエアコンやオーディオ等の設定を調整する指示を入力すると、制御装置10から対応する調整画像のデータを受信する。   The signal receiving unit 31 receives image data from the control device 10. For example, when the user operates the touch sensor 21 of the remote operation device 30 and inputs an instruction to adjust settings such as an air conditioner and audio, the corresponding adjustment image data is received from the control device 10.

画像処理部32は、信号受信部31が受信した画像データに対して表示に必要な処理を行い、処理後の画像データをプロジェクタ33に出力する。   The image processing unit 32 performs processing necessary for display on the image data received by the signal receiving unit 31, and outputs the processed image data to the projector 33.

プロジェクタ33は、例えば、DLP(登録商標)やLCOSなどの方式を用いて、画像データの画像を示す投影光をレンズから照射し、フロントガラスや専用のスクリーンに投影して画像を表示させる。   For example, the projector 33 irradiates projection light indicating an image of image data from a lens using a system such as DLP (registered trademark) or LCOS, and displays the image on a windshield or a dedicated screen.

制御部34は、例えば、CPU、RAM及びROMなどを備えるマイクロコンピュータであり、HUD装置30全体を統括的に制御する。   The control unit 34 is, for example, a microcomputer including a CPU, a RAM, a ROM, and the like, and controls the entire HUD device 30 in an integrated manner.

次に、視線検出装置40の構成について説明する。図7は、視線検出装置40の概略構成を示す図である。図7に示すように、視線検出装置40は、視線カメラ41、制御部42、及び、通信部43を備えている。   Next, the configuration of the line-of-sight detection device 40 will be described. FIG. 7 is a diagram illustrating a schematic configuration of the line-of-sight detection device 40. As shown in FIG. 7, the line-of-sight detection device 40 includes a line-of-sight camera 41, a control unit 42, and a communication unit 43.

視線カメラ41は、視線検出用のカメラであり、ユーザの顔(特に目)を写すためのカメラである。したがって、この視線カメラ41は、被写体となるユーザ(ドライバ)の略正面のインストルメントパネル付近に設けられている。視線カメラ41としては、視線検出に用いることができるものであれば特に限定されるものではなく、可視光カメラや赤外線カメラを用いることができる。なお、赤外線カメラを用いる場合には、赤外線LEDなどを別途設け、ユーザの顔に赤外光を照射した状態で撮影する。   The line-of-sight camera 41 is a camera for line-of-sight detection, and is a camera for photographing the user's face (especially eyes). Accordingly, the line-of-sight camera 41 is provided in the vicinity of the instrument panel in front of the user (driver) that is the subject. The line-of-sight camera 41 is not particularly limited as long as it can be used for line-of-sight detection, and a visible light camera or an infrared camera can be used. In addition, when using an infrared camera, infrared LED etc. are provided separately and it image | photographs in the state which irradiated the infrared light to the user's face.

制御部42は、例えば、CPU、RAM及びROMなどを備えるマイクロコンピュータであり、視線検出装置40全体を統括的に制御する。制御部42は、視線カメラ41の撮影データを用いてユーザの視線を検出する視線検出部42aを備えている。   The control unit 42 is a microcomputer including a CPU, a RAM, a ROM, and the like, for example, and comprehensively controls the visual line detection device 40 as a whole. The control unit 42 includes a line-of-sight detection unit 42 a that detects the line of sight of the user using the shooting data of the line-of-sight camera 41.

視線検出部42aは、例えば、視線カメラ41で撮影した撮影データの中からユーザの目に該当する画像データを抽出する。そして、目に該当する画像データの中から動きのない点と、動きのある点とを抽出する。そして、視線検出部42aは、これら各点の位置関係に基づいてユーザの視線を検出する。なお、視線の検出方法については後述する。   The line-of-sight detection unit 42a extracts, for example, image data corresponding to the eyes of the user from the image data captured by the line-of-sight camera 41. Then, a point with no motion and a point with motion are extracted from the image data corresponding to the eyes. The line-of-sight detection unit 42a detects the user's line of sight based on the positional relationship between these points. A method for detecting the line of sight will be described later.

通信部43は、CAN等の車載LANを介して制御装置10と通信可能に接続されており、制御装置10と各種データの送受信を行う。例えば、視線検出装置40は、視線検出部42aで検出した視線情報を、通信部43を介して制御装置10に送信する。   The communication unit 43 is communicably connected to the control device 10 via an in-vehicle LAN such as CAN, and transmits / receives various data to / from the control device 10. For example, the line-of-sight detection device 40 transmits the line-of-sight information detected by the line-of-sight detection unit 42 a to the control device 10 via the communication unit 43.

<1−3.触感の発生方法と種類>
ここで、タッチセンサ21を振動させることによって触感を発生させる方法と、触感の種類について説明する。
<1-3. Tactile generation methods and types>
Here, a method for generating a tactile sensation by vibrating the touch sensor 21 and types of tactile sensations will be described.

図5は、タッチセンサ21を模式的に表した図である。上述したように、タッチセンサ21の周囲には、複数の振動素子24が配置されている。なお、本実施の形態では、対向する2辺に並べて配置しているが、これに限定されるものではなく、任意の辺に任意の数の振動素子24を配置すればよい。   FIG. 5 is a diagram schematically showing the touch sensor 21. As described above, a plurality of vibration elements 24 are arranged around the touch sensor 21. In the present embodiment, they are arranged side by side on the two opposite sides. However, the present invention is not limited to this, and any number of vibration elements 24 may be arranged on any side.

触感を発生させるためには、まず制御装置10からの振動制御信号に基づいて振動素子24を高速で振動させる。この高速での振動とは例えば超音波振動である。振動素子24を超音波振動させることでタッチセンサ21の表面を超音波振動させることができる。図5に示すような対向する2辺に配置した振動素子24を振動させればタッチセンサ21全面を略均一に振動させることができる。   In order to generate a tactile sensation, first, the vibration element 24 is vibrated at high speed based on a vibration control signal from the control device 10. This high-speed vibration is, for example, ultrasonic vibration. By ultrasonically vibrating the vibration element 24, the surface of the touch sensor 21 can be ultrasonically vibrated. If the vibration elements 24 arranged on two opposite sides as shown in FIG. 5 are vibrated, the entire surface of the touch sensor 21 can be vibrated substantially uniformly.

タッチセンサ21表面が超音波振動した状態でタッチセンサ21表面を指で操作すると、指と高速で振動しているタッチセンサ21表面との間に高圧の空気膜が発生して摩擦抵抗が減少する。これにより、ユーザは、振動していない状態に比べてツルツルと滑らかにすべる触感(以下「ツルツル感」という)を得ることができる。   When the surface of the touch sensor 21 is operated with a finger while the surface of the touch sensor 21 is ultrasonically vibrated, a high-pressure air film is generated between the finger and the surface of the touch sensor 21 that vibrates at high speed, thereby reducing frictional resistance. . Thus, the user can obtain a smooth and smooth feel (hereinafter referred to as “smooth”) compared to a state in which the user does not vibrate.

また、タッチセンサ21表面を超音波振動させた状態のときに振動素子24の振動を停止させると、タッチセンサ21表面の超音波振動も停止する。すると、タッチセンサ21表面の摩擦抵抗は、減少していた状態から本来の状態(振動していない状態)に戻る。すなわち、低摩擦の状態から高摩擦の状態に変化する。この場合、ツルツル感のあった触感からひっかかりの感じる触感に変化する。ユーザは、このツルツル感からひっかかりの感じる触感に変化する際にカチッとした触感を得ることができる。このカチッとした触感を以下においては「クリック感」という。   Further, when the vibration of the vibration element 24 is stopped while the surface of the touch sensor 21 is ultrasonically vibrated, the ultrasonic vibration of the surface of the touch sensor 21 is also stopped. Then, the frictional resistance on the surface of the touch sensor 21 returns from the reduced state to the original state (the state in which it does not vibrate). That is, the state changes from a low friction state to a high friction state. In this case, the tactile sensation changes from a smooth sensation to a tactile sensation. The user can obtain a tactile sensation when changing from the slick feel to a tactile feel. This clicking feeling is hereinafter referred to as “clicking feeling”.

また、振動素子24の振動強度に変化をつけてタッチセンサ21表面を超音波振動させると、タッチセンサ21表面を相対的に大振幅で振動させたり小振幅で振動させたりすることが可能になる。これにより、タッチセンサ21表面を高摩擦状態と低摩擦状態とが繰り返された状態にすることができる。つまり、ユーザは、ツルツル感とクリック感とを交互に触感として感じることになり、この場合凸凹した触感やザラザラした触感(以下「ザラザラ感」という)を得ることができる。   Further, when the surface of the touch sensor 21 is ultrasonically vibrated by changing the vibration intensity of the vibration element 24, the surface of the touch sensor 21 can be vibrated with a relatively large amplitude or a small amplitude. . Thereby, the touch sensor 21 surface can be made into the state in which the high friction state and the low friction state were repeated. In other words, the user feels the smooth feeling and the click feeling alternately as a tactile sensation, and in this case, it is possible to obtain an uneven tactile sensation or a rough tactile sensation (hereinafter referred to as “gritty feel”).

また、振動の強弱の大きさを変えたり、強弱を変化させる周期を変えることでザラザラ度合いを変化させることができる。これにより、ザラザラ度合いの強いザラザラ感や弱いザラザラ感、またザラザラ感の疎密度感など、段階的に複数種類のザラザラ感を実現することが可能になる。   Further, the degree of roughness can be changed by changing the magnitude of the vibration intensity or changing the period for changing the intensity. As a result, it is possible to realize a plurality of types of gritty feelings in stages, such as a gritty feeling with a strong gritty degree, a weak gritty feeling, and a sparse density feeling.

このように、本実施の形態では、振動素子24を超音波振動させてタッチセンサ21表面を超音波振動させることで、ユーザに対して触感を与えることができる。また、超音波振動の開始や停止のタイミング、強弱などを適宜制御すれば、その表面の摩擦抵抗を変化させることができ、それを利用することで種々の触感を与えることが可能になっている。   As described above, in this embodiment, the vibration element 24 is ultrasonically vibrated and the surface of the touch sensor 21 is ultrasonically vibrated, so that a tactile sensation can be given to the user. In addition, if the start and stop timing, strength, etc. of ultrasonic vibration are appropriately controlled, the frictional resistance of the surface can be changed, and various tactile sensations can be given by using this. .

<1−4.視線の検出と動作状態の制御>
次に、ユーザの視線を検出する処理について説明する。本実施の形態では、上述したように、カメラを用いて撮影した画像データからユーザの視線を検出している。以下、具体的に説明する。
<1-4. Eye Gaze Detection and Operational State Control>
Next, processing for detecting the user's line of sight will be described. In the present embodiment, as described above, the user's line of sight is detected from image data captured using a camera. This will be specifically described below.

視線検出装置40は、既存のアルゴリズムを用いて、視線カメラ41で撮影した画像データに含まれる人間の顔や目を抽出する。これら既存のアルゴリズムとしては、顔のパーツの形や大きさ、相対位置などを元にして認識するものや、テンプレートマッチングにより認識するもの、3次元の輪郭などの特徴を抽出するものなど、種々のものを用いることができる。   The line-of-sight detection device 40 extracts a human face and eyes contained in image data captured by the line-of-sight camera 41 using an existing algorithm. These existing algorithms include various types such as those that are recognized based on the shape, size, and relative position of facial parts, those that are recognized by template matching, and those that extract features such as three-dimensional contours. Things can be used.

そして、視線検出装置40は、目に該当する画像データの中から動きのない点を基準点として設定し、動きのある点を動点として設定する。視線カメラ41として可視光カメラを用いた場合には、例えば、目頭を基準点として設定し、虹彩を動点として設定する。そして、視線検出部42aが、虹彩と目頭との位置関係に基づいてユーザの視線を検出する。つまり、ユーザがいずれの方向を見ているかを検出する。例えば、左目の虹彩が目頭から離れていれば、ユーザは左側を見ている等である。   Then, the line-of-sight detection device 40 sets a point that does not move from the image data corresponding to the eye as a reference point, and sets a point that moves as a moving point. When a visible light camera is used as the visual line camera 41, for example, the eye is set as a reference point and the iris is set as a moving point. The line-of-sight detection unit 42a detects the user's line of sight based on the positional relationship between the iris and the eyes. That is, it is detected which direction the user is looking at. For example, if the iris of the left eye is far from the eye, the user is looking at the left side.

また、視線カメラ41として赤外線カメラを用いた場合には、例えば、赤外光を照射してできた反射光の角膜上の位置(角膜反射)を基準点として設定し、瞳孔を動点として設定する。そして、視線検出部42aが、角膜反射と瞳孔との位置関係に基づいてユーザの視線を検出する。つまり、ユーザがいずれの方向を見ているかを検出する。例えば、左目の角膜反射よりも瞳孔が目じり側にあれば、ユーザは左側を見ている等である。   When an infrared camera is used as the line-of-sight camera 41, for example, a position on the cornea (corneal reflection) of reflected light generated by irradiating infrared light is set as a reference point, and a pupil is set as a moving point. To do. The line-of-sight detection unit 42a detects the user's line of sight based on the positional relationship between the corneal reflection and the pupil. That is, it is detected which direction the user is looking at. For example, if the pupil is closer to the eye than the corneal reflection of the left eye, the user is looking at the left side.

視線検出装置40は、視線を検出すると、その情報を制御装置10に送信する。そして、制御装置10は、視線情報を受信するとその情報に基づいて遠隔操作装置20の動作状態を制御するようになっている。そこで、以下において、制御装置10による遠隔操作装置20の動作状態の制御について説明する。   When detecting the line of sight, the line-of-sight detection device 40 transmits the information to the control device 10. And the control apparatus 10 will control the operation state of the remote control apparatus 20 based on the information, if line-of-sight information is received. Therefore, hereinafter, control of the operation state of the remote operation device 20 by the control device 10 will be described.

制御装置10は、視線検出装置40から視線情報を受信すると、視線判定部13dが、HUD装置30によって投影された画像が表示される領域(以下「投影画面領域」という)内にユーザの視線が含まれているか否かを判定する。投影画面領域の位置は予め定められているため、視線判定部13dは、視線情報に基づいて導出したユーザの視線(の延長線)が投影画面領域内にあるか否かを判定する。   When the control device 10 receives the line-of-sight information from the line-of-sight detection device 40, the line-of-sight determination unit 13d displays the line of sight of the user within the region where the image projected by the HUD device 30 is displayed (hereinafter referred to as “projection screen region”). It is determined whether or not it is included. Since the position of the projection screen area is determined in advance, the line-of-sight determination unit 13d determines whether or not the user's line of sight (extension line) derived based on the line-of-sight information is within the projection screen area.

視線検出装置40は、所定の間隔でユーザの視線を検出している。所定の間隔とは例えば100msである。したがって、制御装置10は、視線検出装置40から100ms毎に視線情報を受信して、各視線情報毎にユーザの視線が投影画面領域内にあるか否かを判定している。   The line-of-sight detection device 40 detects the user's line of sight at a predetermined interval. The predetermined interval is, for example, 100 ms. Therefore, the control device 10 receives the line-of-sight information from the line-of-sight detection device 40 every 100 ms, and determines whether or not the user's line of sight is within the projection screen area for each piece of line-of-sight information.

視線判定部13dは、ユーザの視線が投影画面領域内にあるとの判定結果が所定回数以上連続した場合に、ユーザは投影画面領域を見ていると判定する。視線判定部13dは、それ以外の場合には、ユーザは投影画面領域を見ていないと判定する。所定回数は、ユーザが投影画面領域を見ていると判定可能な回数であればよく、適宜設定可能である。   The line-of-sight determination unit 13d determines that the user is looking at the projection screen area when the determination result that the user's line of sight is within the projection screen area continues for a predetermined number of times or more. In other cases, the line-of-sight determination unit 13d determines that the user is not looking at the projection screen area. The predetermined number of times may be any number as long as it can be determined that the user is looking at the projection screen area, and can be set as appropriate.

ユーザが投影画面領域を見ている場合には、動作制御部13eは、遠隔操作装置20の操作を有効にする。例えば、動作制御部13eが、遠隔操作装置20の電源をオンにする制御をしたり、遠隔操作装置20への操作を受け付ける制御をしたり、遠隔操作装置20から受信した操作位置の情報を有効な情報として処理する等である。   When the user is looking at the projection screen area, the operation control unit 13e enables the operation of the remote operation device 20. For example, the operation control unit 13e performs control to turn on the power of the remote operation device 20, performs control to accept an operation to the remote operation device 20, or validates the operation position information received from the remote operation device 20. For example, it is processed as irrelevant information.

一方、ユーザが投影画面領域を見ていない場合には、動作制御部13eは、遠隔操作装置20の操作を無効にする。例えば、動作制御部13eが、遠隔操作装置20の電源をオフにする制御をしたり、遠隔操作装置20への操作を禁止する制御をしたり、遠隔操作装置20から受信した操作位置の情報を無効な情報として処理する等である。   On the other hand, when the user is not looking at the projection screen area, the operation control unit 13e invalidates the operation of the remote operation device 20. For example, the operation control unit 13e performs control to turn off the power of the remote operation device 20, performs control to prohibit the operation to the remote operation device 20, or receives the operation position information received from the remote operation device 20. For example, it is processed as invalid information.

<1−5.システムの処理>
次に、操作システム1の処理について説明する。図8は、視線検出装置40及び制御装置10の処理を示すフローチャートである。視線検出装置40及び制御装置10は、電源が投入されて起動することにより処理を開始する。
<1-5. System processing>
Next, processing of the operation system 1 will be described. FIG. 8 is a flowchart showing processing of the line-of-sight detection device 40 and the control device 10. The line-of-sight detection device 40 and the control device 10 start processing when powered on and activated.

まず、視線検出装置40は、ユーザの視線を検出する(ステップS10)。これは、上述したように、視線カメラ41で撮影した画像データに基づいて視線検出部42aが基準点及び動点を設定して行う。そして、視線検出装置40は、検出した視線に関する情報(視線情報)を制御装置10に送信する(ステップS11)。   First, the line-of-sight detection device 40 detects a user's line of sight (step S10). As described above, this is performed by the line-of-sight detection unit 42a setting the reference point and the moving point based on the image data captured by the line-of-sight camera 41. Then, the line-of-sight detection device 40 transmits information (line-of-sight information) regarding the detected line of sight to the control device 10 (step S11).

視線検出装置40は、この視線検出処理を所定の間隔で繰り返し実行する。所定の間隔とは、例えば100msであるが、これに限定されるものではない。制御装置10が、ユーザが投影画面領域を見ているか否かの判定を行うことができる程度の間隔であればよく、適宜設定可能である。なお、視線検出装置40は、電源がオフしたり、処理の停止指示があると処理を終了する。   The line-of-sight detection device 40 repeatedly executes this line-of-sight detection process at predetermined intervals. The predetermined interval is, for example, 100 ms, but is not limited thereto. It is sufficient that the control device 10 can determine whether or not the user is looking at the projection screen area and can be set as appropriate. The line-of-sight detection device 40 ends the process when the power is turned off or a process stop instruction is issued.

そして、制御装置10が視線情報を受信し(ステップS20)、判定処理を実行する(ステップS21)。この判定処理は、ユーザの視線が投影画面領域内にあるか否かを判定する処理である。上述したように、投影画面領域の位置は予め定められているため、視線判定部13dは、ユーザの視線(の延長線)がこの予め定められた領域内に含まれるか否かを判定する。なお、この判定処理は、定期的に受信する全視線情報に対して実行される。   Then, the control device 10 receives the line-of-sight information (step S20), and executes a determination process (step S21). This determination process is a process for determining whether or not the user's line of sight is within the projection screen area. As described above, since the position of the projection screen area is determined in advance, the line-of-sight determination unit 13d determines whether or not the user's line of sight (an extension thereof) is included in the predetermined area. This determination process is executed for all line-of-sight information received periodically.

そして、制御装置10は、ユーザの視線が投影画面領域に含まれているとの判定結果が、所定回数連続したか否かを判定する(ステップS22)。所定回数連続した場合には(ステップS22でYes)、視線判定部13dは、ユーザが投影画面を見ていると判定し、動作制御部13eが遠隔操作装置20を有効にする(ステップS23)。すなわち、動作制御部13eは、動作状態の制御として、遠隔操作装置20の電源のオンや、操作の受け付けや、遠隔操作装置20からの受信信号の有効化等を実行する。   Then, the control device 10 determines whether or not the determination result that the user's line of sight is included in the projection screen area is continued a predetermined number of times (step S22). When it continues for a predetermined number of times (Yes in step S22), the line-of-sight determination unit 13d determines that the user is looking at the projection screen, and the operation control unit 13e enables the remote control device 20 (step S23). That is, the operation control unit 13e executes power-on of the remote operation device 20, acceptance of an operation, validation of a reception signal from the remote operation device 20 and the like as operation state control.

一方、所定回数連続していない場合には(ステップS22でNo)、視線判定部13dは、ユーザが投影画面を見ていないと判定し、動作制御部13eが遠隔操作装置20を無効にする(ステップS24)。すなわち、動作制御部13eは、動作状態の制御として、遠隔操作装置20の電源のオフや、操作の禁止や、遠隔操作装置20からの受信信号の無効化等を実行する。   On the other hand, if the predetermined number of times has not been continued (No in step S22), the line-of-sight determination unit 13d determines that the user is not looking at the projection screen, and the operation control unit 13e invalidates the remote operation device 20 ( Step S24). That is, the operation control unit 13e executes, for example, turning off the power of the remote operation device 20, prohibiting the operation, or invalidating the reception signal from the remote operation device 20 as the operation state control.

このように、前方の表示画面を見ながら手元のタッチセンサを操作するような遠隔操作のシステムにおいて、ユーザが表示画面を見ているときだけタッチセンサの操作を有効にするため、安全面での問題が生じることを回避することができると共に、誤操作を低減させることができる。   In this way, in a remote operation system that operates the touch sensor at hand while looking at the front display screen, the operation of the touch sensor is enabled only when the user is looking at the display screen. It is possible to avoid the occurrence of problems and to reduce erroneous operations.

<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第1の実施の形態では、ユーザの視線を検出し、ユーザが投影画面領域を見ているか否かに応じて遠隔操作装置20の動作状態を制御する内容について説明したが、これに限定されるものではない。例えば、ユーザが遠隔操作装置20を見ているか否かに応じて遠隔操作装置20自身の動作状態を制御する内容としてもよい。以下においては、この内容について第1の実施の形態と異なる点を中心に説明する。
<2. Second Embodiment>
Next, a second embodiment will be described. In the first embodiment, the content of detecting the user's line of sight and controlling the operation state of the remote control device 20 according to whether or not the user is looking at the projection screen area has been described. It is not a thing. For example, it is good also as the content which controls the operation state of remote control apparatus 20 itself according to whether the user is looking at remote control apparatus 20 or not. In the following, this content will be described with a focus on differences from the first embodiment.

<2−1.構成>
図9は、本実施の形態にかかる操作システム2の概略構成を示す図である。図9に示すように、操作システム2は、第1の実施の形態で説明した操作システム1と略同様の構成を有しており、制御装置14、遠隔操作装置20、HUD装置30及び視線検出装置40を備えている。このうち、遠隔操作装置20、HUD装置30及び視線検出装置40は、第1の実施の形態の各装置と同様の構成である。
<2-1. Configuration>
FIG. 9 is a diagram showing a schematic configuration of the operation system 2 according to the present embodiment. As shown in FIG. 9, the operation system 2 has substantially the same configuration as the operation system 1 described in the first embodiment, and includes a control device 14, a remote operation device 20, a HUD device 30, and line-of-sight detection. A device 40 is provided. Among these, the remote control device 20, the HUD device 30, and the line-of-sight detection device 40 have the same configuration as each device of the first embodiment.

そこで、制御装置14の構成について第1の実施の形態との相違点を中心に図10を用いて説明する。図10は、制御装置14の概略構成を示す図である。   Therefore, the configuration of the control device 14 will be described with reference to FIG. 10 with a focus on differences from the first embodiment. FIG. 10 is a diagram illustrating a schematic configuration of the control device 14.

図10に示すように、制御装置14は、通信部11、記憶部12、及び、制御部13を備えている。このうち、通信部11及び記憶部12は、第1の実施の形態の各部と同様の構成である。また、制御部13のうち、操作判別部13a、画像生成部13b及び振動制御部13cの機能は、第1の実施の形態で説明した各機能と同様である。これに対して、視線判定部13f及び動作制御部13gの機能が、第1の実施の形態で説明した各機能と相違する。このため、以下においては、視線判定部13f及び動作制御部13gについて説明する。   As illustrated in FIG. 10, the control device 14 includes a communication unit 11, a storage unit 12, and a control unit 13. Among these, the communication part 11 and the memory | storage part 12 are the structures similar to each part of 1st Embodiment. In addition, among the control unit 13, the functions of the operation determination unit 13a, the image generation unit 13b, and the vibration control unit 13c are the same as the functions described in the first embodiment. On the other hand, the functions of the line-of-sight determination unit 13f and the operation control unit 13g are different from the functions described in the first embodiment. Therefore, in the following, the line-of-sight determination unit 13f and the operation control unit 13g will be described.

第1の実施の形態の視線判定部13dは、ユーザの視線が投影画面領域内に含まれるか否かを判定するのに対して、本実施の形態の視線判定部13fは、ユーザの視線が遠隔操作装置20のタッチセンサ21が配置された領域(以下「タッチセンサ領域」という)に含まれるか否かを判定する。   The line-of-sight determination unit 13d according to the first embodiment determines whether or not the user's line of sight is included in the projection screen area, whereas the line-of-sight determination unit 13f according to the present embodiment determines that the user's line of sight is It is determined whether the touch sensor 21 of the remote control device 20 is included in an area (hereinafter referred to as “touch sensor area”).

また、第1の実施の形態の動作制御部13eは、ユーザが投影画面領域を見ている場合に遠隔操作装置20を有効にし、見ていない場合に無効にするのに対して、本実施の形態の動作制御部13gは、ユーザがタッチセンサ領域を見ている場合に遠隔操作装置20を無効にし、見ていない場合に有効にする。   In addition, the operation control unit 13e according to the first embodiment enables the remote control device 20 when the user is looking at the projection screen area, and disables the remote control device 20 when the user is not looking at the screen. The mode operation control unit 13g disables the remote operation device 20 when the user is looking at the touch sensor area, and enables it when the user is not looking at the touch sensor region.

<2−2.処理>
次に、本実施の形態の操作システム2の処理について説明する。図11は、本実施の形態にかかる操作システム2の処理を示すフローチャートである。
<2-2. Processing>
Next, processing of the operation system 2 according to the present embodiment will be described. FIG. 11 is a flowchart showing processing of the operation system 2 according to the present embodiment.

図11に示すように、まず、視線検出装置40がユーザの視線を検出し(ステップS10)、その結果としての視線情報を制御装置14に送信する(ステップS11)。これらの処理は、第1の実施の形態と同様の処理である。   As shown in FIG. 11, first, the line-of-sight detection device 40 detects the user's line of sight (step S10), and transmits the line-of-sight information as a result to the control device 14 (step S11). These processes are the same as those in the first embodiment.

そして、制御装置14は、視線情報を受信すると(ステップS30)、判定処理を実行する(ステップS31)。この判定処理は、ユーザの視線がタッチセンサ領域内にあるか否かを判定する処理である。本実施の形態においても、タッチセンサ領域の位置が予め定められており、視線判定部13fは、ユーザの視線(の延長線)がこのタッチセンサ領域内に含まれるか否かを判定する。なお、この判定処理は、定期的に受信する全視線情報に対して実行される。   And the control apparatus 14 will perform a determination process, if line-of-sight information is received (step S30) (step S31). This determination process is a process of determining whether or not the user's line of sight is within the touch sensor area. Also in the present embodiment, the position of the touch sensor area is determined in advance, and the line-of-sight determination unit 13f determines whether or not the user's line of sight (an extension thereof) is included in the touch sensor area. This determination process is executed for all line-of-sight information received periodically.

次に、制御装置14は、ユーザの視線がタッチセンサ領域内にあるとの判定結果が所定回数連続したか否かを判定する(ステップS32)。所定回数連続した場合には(ステップS32でYes)、視線判定部13fは、ユーザがタッチセンサ領域を見ていると判定し、動作制御部13gが遠隔操作装置20を無効にする(ステップS33)。すなわち、動作制御部13gは、動作状態の制御として、遠隔操作装置20の電源のオフや、操作の禁止や、遠隔操作装置20からの受信信号の無効化等を実行する。   Next, the control device 14 determines whether or not the determination result that the user's line of sight is within the touch sensor area has continued for a predetermined number of times (step S32). When it continues for a predetermined number of times (Yes in step S32), the line-of-sight determination unit 13f determines that the user is looking at the touch sensor area, and the operation control unit 13g invalidates the remote operation device 20 (step S33). . That is, the operation control unit 13g executes power-off of the remote operation device 20, prohibition of operation, invalidation of a reception signal from the remote operation device 20 and the like as operation state control.

一方、所定回数連続していない場合には(ステップS32でNo)、視線判定部13fでは、ユーザがタッチセンサ領域を見ていないと判定し、動作制御部13gが遠隔操作装置20を有効にする(ステップS34)。すなわち、動作制御部13gは、動作状態の制御として、遠隔操作装置20の電源のオンや、操作の受け付けや、遠隔操作装置20からの受信信号の有効化等を実行する。   On the other hand, when the predetermined number of times has not been continued (No in step S32), the line-of-sight determination unit 13f determines that the user is not looking at the touch sensor area, and the operation control unit 13g enables the remote operation device 20. (Step S34). That is, the operation control unit 13g executes power-on of the remote operation device 20, acceptance of an operation, validation of a received signal from the remote operation device 20 and the like as operation state control.

以上のように、ユーザがタッチセンサ領域を見ている場合には、ユーザであるドライバが前方視界から目を離していることを示しているため、タッチセンサ21の操作を有効にすると安全面の問題が懸念される。そこで、本実施の形態では、ユーザがタッチセンサ21を見ている場合には、タッチセンサ21の動作状態を無効にし、見ていない場合に有効にするような制御を行っている。   As described above, when the user is looking at the touch sensor area, it indicates that the driver who is the user is keeping an eye on the front view. The problem is concerned. Therefore, in the present embodiment, when the user is looking at the touch sensor 21, control is performed such that the operation state of the touch sensor 21 is invalidated and valid when the user is not viewing.

これにより、前方の表示画面を見ながら手元のタッチセンサを操作するような遠隔操作のシステムにおいて、ユーザがタッチセンサを見ていないときだけタッチセンサの操作を有効にするため、安全面での問題が生じることを回避することができると共に、誤操作を低減させることができる。   This makes it possible to operate the touch sensor only when the user is not looking at the touch sensor in a remote control system that operates the touch sensor at hand while looking at the front display screen. Can be avoided, and erroneous operations can be reduced.

<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第1の実施の形態では、ユーザの視線を検出し、ユーザが投影画面領域を見ているか否かに応じて遠隔操作装置20の動作状態を制御する内容について説明した。本実施の形態では、他の操作装置をさらに備え、ユーザの視線に応じて遠隔操作装置20及び他の操作装置の動作状態を併せて制御する内容である。以下においては、この内容について第1の実施の形態と異なる点を中心に説明する。
<3. Third Embodiment>
Next, a third embodiment will be described. In the first embodiment, the content of detecting the user's line of sight and controlling the operation state of the remote operation device 20 according to whether or not the user is looking at the projection screen area has been described. In the present embodiment, another operation device is further provided, and the operation states of the remote operation device 20 and the other operation devices are controlled in accordance with the user's line of sight. In the following, this content will be described with a focus on differences from the first embodiment.

<3−1.構成>
図12は、本実施の形態に係る操作システム3が搭載される車室内の様子を示す図である。図13は、操作システム3の概略構成を示す図である。図12及び図13に示すように、操作システム3は、第1の実施の形態で説明した操作システム1とほぼ同様の構成を有しており、制御装置15、遠隔操作装置20、HUD装置30及び視線検出装置40を備えている。このうち、遠隔操作装置20、HUD装置30及び視線検出装置40は、第1の実施の形態の各装置と同様の構成である。
<3-1. Configuration>
FIG. 12 is a diagram showing a state of the passenger compartment in which the operation system 3 according to the present embodiment is mounted. FIG. 13 is a diagram illustrating a schematic configuration of the operation system 3. As shown in FIGS. 12 and 13, the operation system 3 has substantially the same configuration as the operation system 1 described in the first embodiment, and includes a control device 15, a remote operation device 20, and a HUD device 30. And a line-of-sight detection device 40. Among these, the remote control device 20, the HUD device 30, and the line-of-sight detection device 40 have the same configuration as each device of the first embodiment.

そこで、制御装置15の構成について第1の実施の形態との相違点を中心に説明する。制御装置15は、車両のセンターコンソールなどのユーザが視認可能な位置に設けられ、少なくとも表示部とタッチセンサを有する電子機器である。また、制御装置15は、遠隔操作装置20、HUD装置30及び視線検出装置40の各々と電気的に接続されており、各装置との間で信号の送受信が可能である。   Therefore, the configuration of the control device 15 will be described focusing on the differences from the first embodiment. The control device 15 is an electronic device that is provided at a position where the user can visually recognize, such as a center console of a vehicle, and has at least a display unit and a touch sensor. The control device 15 is electrically connected to each of the remote control device 20, the HUD device 30, and the line-of-sight detection device 40, and can send and receive signals to and from each device.

図14は、制御装置15の概略構成を示す図である。図14に示すように、制御装置15は、通信部11、記憶部12、制御部13、表示部16、タッチセンサ17、及び、タッチセンサコントローラ18を備えている。このうち、通信部11及び記憶部12は、第1の実施の形態で説明した各部と同様の構成である。   FIG. 14 is a diagram illustrating a schematic configuration of the control device 15. As illustrated in FIG. 14, the control device 15 includes a communication unit 11, a storage unit 12, a control unit 13, a display unit 16, a touch sensor 17, and a touch sensor controller 18. Among these, the communication part 11 and the memory | storage part 12 are the structures similar to each part demonstrated in 1st Embodiment.

また、制御部13のうち、操作判別部13a、画像生成部13b、振動制御部13c及び視線判定部13dは、第1の実施の形態で説明した制御部13が有する各機能と同様である。これに対して、動作制御部13hは、第1の実施の形態の動作制御部13eとは一部異なる機能であり、表示制御部13iは、本実施の形態の制御部13にて新たに実現される機能である。   Of the control unit 13, the operation determination unit 13a, the image generation unit 13b, the vibration control unit 13c, and the line-of-sight determination unit 13d are the same as the functions of the control unit 13 described in the first embodiment. On the other hand, the operation control unit 13h has a partially different function from the operation control unit 13e of the first embodiment, and the display control unit 13i is newly realized by the control unit 13 of the present embodiment. Function.

動作制御部13hは、ユーザの視線に応じて遠隔操作装置20及びタッチセンサ17の動作状態を制御する。例えば、ユーザの視線がHUD装置30の投影画面領域の方向を見ている場合に、動作制御部13hは、遠隔操作装置20のタッチセンサ21(第1のタッチセンサ)の操作を有効にすると共にタッチセンサ17(第2のタッチセンサ)の操作を無効にする等である。   The operation control unit 13h controls the operation states of the remote operation device 20 and the touch sensor 17 according to the user's line of sight. For example, when the user's line of sight looks at the direction of the projection screen area of the HUD device 30, the operation control unit 13h enables the operation of the touch sensor 21 (first touch sensor) of the remote operation device 20 and For example, the operation of the touch sensor 17 (second touch sensor) is invalidated.

表示制御部13iは、エアコンやオーディオなどの設定値を調整するための調整画像を表示部16に表示させる制御を行う。また、制御装置15がナビゲーション機能を有している場合には、表示制御部13iは、地図画像やナビゲーション画像を表示部16に表示させる制御も行う。   The display control unit 13 i performs control to display an adjustment image for adjusting set values of an air conditioner, an audio, and the like on the display unit 16. Further, when the control device 15 has a navigation function, the display control unit 13 i also performs control to display a map image and a navigation image on the display unit 16.

表示部16は、調整画像や地図画像などを表示する表示装置であり、例えば液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイ等である。   The display unit 16 is a display device that displays an adjustment image, a map image, and the like, and is, for example, a liquid crystal display or an organic EL (Electro Luminescence) display.

タッチセンサ17は、ユーザが操作内容を入力する平板状のセンサーである。タッチセンサ17は、表示部16の表示面上に(ユーザ側の面上に)設けられている。すなわち、表示部16及びその表示面上に設けられたタッチセンサ17がいわゆるタッチパネルとして機能する。   The touch sensor 17 is a flat sensor that allows the user to input operation details. The touch sensor 17 is provided on the display surface of the display unit 16 (on the user-side surface). That is, the display unit 16 and the touch sensor 17 provided on the display surface function as a so-called touch panel.

表示部16の表示面には、適宜、ユーザの指示を受け付けるコマンドボタンが表示される。ユーザは、このようなコマンドボタンの領域に対応するタッチセンサ17の操作面中の領域に指でタッチすることで、コマンドボタンに関連付けられた指示を制御装置15に行うことができる。   On the display surface of the display unit 16, command buttons for receiving user instructions are displayed as appropriate. The user can give an instruction associated with the command button to the control device 15 by touching an area in the operation surface of the touch sensor 17 corresponding to the area of the command button with a finger.

また、タッチセンサ17に振動素子を配置して、ユーザのタッチセンサ17の操作に応じて振動素子を振動させるようにしてもよい。振動素子が振動することでタッチセンサ17の操作面も振動してユーザに対して触感を与えることができる。タッチセンサ17の方式は、上記タッチセンサ21と同様に、例えば静電容量方式を用いることができる。   Further, a vibration element may be arranged on the touch sensor 17 so that the vibration element is vibrated according to the operation of the touch sensor 17 by the user. When the vibration element vibrates, the operation surface of the touch sensor 17 can also vibrate and give a tactile sensation to the user. As the touch sensor 17, as in the touch sensor 21, for example, a capacitive method can be used.

タッチセンサコントローラ18も、上記タッチセンサコントローラ22と同様の構成である。すなわち、タッチセンサコントローラ18は、タッチセンサ17で生じた信号に基づいて、タッチセンサ17の操作面中のユーザがタッチした位置を検出するタッチ検出部18aを備えており、このタッチ検出部18aが、ユーザがタッチしたか否かと、タッチした位置とを検出する。   The touch sensor controller 18 has the same configuration as the touch sensor controller 22 described above. That is, the touch sensor controller 18 includes a touch detection unit 18a that detects a position touched by the user on the operation surface of the touch sensor 17 based on a signal generated by the touch sensor 17, and the touch detection unit 18a Whether or not the user has touched and the touched position are detected.

<3−2.処理>
次に、本実施の形態の操作システム3の処理について説明する。図15は、本実施の形態にかかる操作システム3の処理を示すフローチャートである。
<3-2. Processing>
Next, processing of the operation system 3 according to the present embodiment will be described. FIG. 15 is a flowchart showing processing of the operation system 3 according to the present embodiment.

図15に示すように、まず、視線検出装置40がユーザの視線を検出し(ステップS10)、その結果としての視線情報を制御装置15に送信する(ステップS11)。これらの処理は、第1の実施の形態と同様の処理である。   As shown in FIG. 15, first, the line-of-sight detection device 40 detects the user's line of sight (step S10), and transmits the line-of-sight information as a result to the control device 15 (step S11). These processes are the same as those in the first embodiment.

そして、制御装置15は、視線情報を受信すると(ステップS40)、判定処理を実行して、ユーザの視線が投影画面領域に含まれているか否かを判定する(ステップS41)。次いで、ユーザの視線が投影画面領域に含まれているとの判定結果が所定回数連続したか否かを判定する(ステップS42)。これら各処理も、第1の実施の形態の処理(ステップS20、S21及びS22)と同様の処理である。   Then, when receiving the line-of-sight information (step S40), the control device 15 executes a determination process to determine whether or not the user's line of sight is included in the projection screen area (step S41). Next, it is determined whether or not the determination result that the user's line of sight is included in the projection screen area is continued a predetermined number of times (step S42). Each of these processes is also the same as the process of the first embodiment (Steps S20, S21, and S22).

そして、所定回数連続した場合には(ステップS42でYes)、視線判定部13dは、ユーザが投影画面を見ていると判定する。そして、動作制御部13hが、遠隔操作装置20を有効にする(ステップS43)と共に、制御装置15のタッチセンサ17を無効にする(ステップS44)。すなわち、動作制御部13hは、動作状態の制御として、遠隔操作装置20の電源のオンや、操作の受け付けや、遠隔操作装置20からの受信信号の有効化等を実行する。また、動作制御部13hは、動作状態の制御として、タッチセンサ17への操作の禁止や、タッチ検出部18aが取得した情報の無効化等を実行する。また、タッチセンサ17を無効にする際には、表示部16が、黒画像や白画像などのタッチセンサ17への操作ができないことをユーザに認識させる画像を表示してもよい。   And when it continues for a predetermined number of times (it is Yes at Step S42), line-of-sight determination part 13d determines with a user looking at a projection screen. Then, the operation control unit 13h enables the remote operation device 20 (step S43) and disables the touch sensor 17 of the control device 15 (step S44). That is, the operation control unit 13h executes power-on of the remote operation device 20, acceptance of an operation, validation of a reception signal from the remote operation device 20 and the like as operation state control. Further, the operation control unit 13h executes, for example, prohibition of an operation on the touch sensor 17 or invalidation of information acquired by the touch detection unit 18a as control of the operation state. Further, when the touch sensor 17 is invalidated, the display unit 16 may display an image that allows the user to recognize that the touch sensor 17 cannot be operated, such as a black image or a white image.

一方、所定回数連続していない場合には(ステップS42でNo)、視線判定部13dは、ユーザが投影画面を見ていないと判定する。そして、動作制御部13hが、遠隔操作装置20を無効にする(ステップS45)と共に、制御装置15のタッチセンサ17を有効にする(ステップS46)。すなわち、動作制御部13hは、動作状態の制御として、遠隔操作装置20の電源のオフや、操作の禁止や、遠隔操作装置20からの受信信号の無効化等を実行する。また、動作制御部13hは、動作状態の制御として、タッチセンサ17への操作の受け付けや、タッチ検出部18aが取得した情報の有効化等を実行する。   On the other hand, when the predetermined number of times is not continued (No in step S42), the line-of-sight determination unit 13d determines that the user is not looking at the projection screen. Then, the operation control unit 13h disables the remote operation device 20 (step S45) and enables the touch sensor 17 of the control device 15 (step S46). That is, the operation control unit 13h executes power-off of the remote operation device 20, prohibition of operation, invalidation of a reception signal from the remote operation device 20 and the like as operation state control. In addition, the operation control unit 13h executes operation reception to the touch sensor 17, validation of information acquired by the touch detection unit 18a, and the like as control of the operation state.

このように、前方視界に表示された画面を見ながら手元のタッチセンサを操作するような遠隔操作装置と、前方視界以外の表示画面を見ながら操作する操作装置とを備えたシステムにおいても、ユーザが前方視界に表示された画面を見ているときだけ手元のタッチセンサの操作を有効にして、前方視界以外の表示画面の操作を無効にするため、安全面での問題が生じることを回避することができると共に、誤操作を低減させることができる。   As described above, even in a system including a remote operation device that operates a touch sensor at hand while viewing a screen displayed in the front view, and an operation device that operates while viewing a display screen other than the front view, the user Because the touch sensor operation is enabled only when looking at the screen displayed in the front view and the display screen operation other than the front view is disabled, it is possible to avoid the occurrence of safety problems. In addition, it is possible to reduce erroneous operations.

<4.第4の実施の形態>
次に、第4の実施の形態について説明する。本実施の形態に係る操作システムは、ユーザの視線を検出してユーザが見ている装置に関する操作を遠隔操作装置で行うことができるようにするシステムである。
<4. Fourth Embodiment>
Next, a fourth embodiment will be described. The operation system according to the present embodiment is a system that detects a user's line of sight so that an operation related to an apparatus that the user is viewing can be performed by a remote operation apparatus.

<4−1.構成>
図16は、本実施の形態に係る操作システム4が搭載される車室内の様子を示す図である。図17は、操作システム4の概略構成を示す図である。図16及び図17に示すように、操作システム4は、第3の実施の形態で説明した操作システム1とほぼ同様の構成を有しており、制御装置19、遠隔操作装置20、HUD装置30及び視線検出装置40を備えている。このうち、遠隔操作装置20、HUD装置30及び視線検出装置40は、第1の実施の形態の各装置と同様の構成である。
<4-1. Configuration>
FIG. 16 is a diagram showing a state of the passenger compartment in which the operation system 4 according to the present embodiment is mounted. FIG. 17 is a diagram illustrating a schematic configuration of the operation system 4. As shown in FIGS. 16 and 17, the operation system 4 has substantially the same configuration as the operation system 1 described in the third embodiment, and includes a control device 19, a remote operation device 20, and a HUD device 30. And a line-of-sight detection device 40. Among these, the remote control device 20, the HUD device 30, and the line-of-sight detection device 40 have the same configuration as each device of the first embodiment.

そこで、制御装置19の構成について第3の実施の形態との相違点を中心に説明する。制御装置19は、車両のセンターコンソールなどのユーザが視認可能な位置に設けられ、少なくとも表示部とタッチセンサを有する電子機器である。また、制御装置19は、遠隔操作装置20、HUD装置30及び視線検出装置40の各々と電気的に接続されており、各装置との間で信号の送受信が可能である。   Therefore, the configuration of the control device 19 will be described focusing on the differences from the third embodiment. The control device 19 is an electronic device that is provided at a position visible to the user, such as a vehicle center console, and has at least a display unit and a touch sensor. The control device 19 is electrically connected to each of the remote control device 20, the HUD device 30, and the line-of-sight detection device 40, and can transmit and receive signals to and from each device.

図18は、制御装置19の概略構成を示す図である。図18に示すように、制御装置19は、通信部11、記憶部12、制御部13、表示部16、タッチセンサ17、及び、タッチセンサコントローラ18を備えている。このうち、制御部13以外の各部は第3の実施の形態で説明した各部と同様の構成である。   FIG. 18 is a diagram illustrating a schematic configuration of the control device 19. As illustrated in FIG. 18, the control device 19 includes a communication unit 11, a storage unit 12, a control unit 13, a display unit 16, a touch sensor 17, and a touch sensor controller 18. Among these, each part other than the control part 13 is the same structure as each part demonstrated in 3rd Embodiment.

また、制御部13のうち、操作判別部13a、画像生成部13b、振動制御部13c及び表示制御部13iは、第3の実施の形態で説明した制御部13が有する各機能と同様である。これに対して、視線判定部13j及び動作制御部13kは、第3の実施の形態の各部とは一部異なる機能を有している。   Of the control unit 13, the operation determination unit 13a, the image generation unit 13b, the vibration control unit 13c, and the display control unit 13i are the same as the functions of the control unit 13 described in the third embodiment. On the other hand, the line-of-sight determination unit 13j and the operation control unit 13k have partially different functions from the respective units of the third embodiment.

視線判定部13jは、ユーザの視線方向が車両内のどの領域に含まれるのかを判定する。すなわち、ユーザが車両内のどの位置を見ているのかを判定する。また、視線判定部13jは、ユーザの視線方向に配置されている電子機器や車両設備など(以下「装置等」という)を判定する。すなわち、ユーザが見ている装置等が何であるのかを判定する。   The line-of-sight determination unit 13j determines in which region in the vehicle the user's line-of-sight direction is included. That is, it is determined which position in the vehicle the user is looking at. In addition, the line-of-sight determination unit 13j determines an electronic device, a vehicle facility, or the like (hereinafter referred to as “device or the like”) arranged in the user's line-of-sight direction. That is, it is determined what the device or the like the user is viewing.

具体的には、視線判定部13jは、視線検出装置40が検出した視線情報を取得すると、ユーザの視線方向が含まれる領域を判定する。そして、判定された領域と車両内の装置等の配置情報とを比較して、ユーザの視線方向に配置されている装置等を判定する。   Specifically, the line-of-sight determination unit 13j, when acquiring the line-of-sight information detected by the line-of-sight detection device 40, determines a region including the user's line-of-sight direction. Then, the determined area is compared with the arrangement information of the devices and the like in the vehicle to determine the devices and the like that are arranged in the user's line-of-sight direction.

装置等とは、例えば、表示装置やエアコン吹き出し口やオーディオ装置などである。この例の場合、例えば、センターコンソールの中央部分に相当する位置には表示装置が配置されているという情報や、ダッシュボード左側に相当する位置にはエアコンの吹き出し口50が配置されているという情報が配置情報となる。このように、配置情報は、装置等と、その装置等が配置されている車両内空間における位置とを対応付けた情報である。   Examples of the device include a display device, an air conditioner outlet, and an audio device. In the case of this example, for example, information that a display device is disposed at a position corresponding to the center portion of the center console, or information that an air conditioner outlet 50 is disposed at a position corresponding to the left side of the dashboard. Is placement information. As described above, the arrangement information is information in which a device or the like is associated with a position in the vehicle interior space where the device or the like is arranged.

動作制御部13kは、ユーザの視線方向に配置されている装置等の種類に応じて、遠隔操作装置20の動作状態を制御する。例えば、ユーザの視線がエアコン吹き出し口の方向を向いている場合には、動作制御部13kは、遠隔操作装置20をエアコンの設定調整が可能なモードとなるように制御する等である。   The operation control unit 13k controls the operation state of the remote operation device 20 in accordance with the type of device or the like arranged in the user's line-of-sight direction. For example, when the user's line of sight faces the direction of the air conditioner outlet, the operation control unit 13k controls the remote control device 20 so as to enter a mode in which the air conditioner settings can be adjusted.

<4−2.処理>
次に、本実施の形態の操作システム4の処理について説明する。図19は、本実施の形態にかかる操作システム4の処理を示すフローチャートである。
<4-2. Processing>
Next, processing of the operation system 4 according to the present embodiment will be described. FIG. 19 is a flowchart showing processing of the operation system 4 according to the present embodiment.

図19に示すように、まず、視線検出装置40がユーザの視線を検出し(ステップS10)、その結果としての視線情報を制御装置19に送信する(ステップS11)。これらの処理は、第1の実施の形態と同様の処理である。   As shown in FIG. 19, first, the line-of-sight detection device 40 detects the line of sight of the user (step S10), and transmits the line-of-sight information as a result to the control device 19 (step S11). These processes are the same as those in the first embodiment.

そして、制御装置19は、視線情報を受信すると(ステップS50)、領域判定処理を実行する(ステップS51)。この領域判定処理は、ユーザの視線方向に対応する車両内の領域を判定する処理である。視線判定部13jは、ユーザの視線の延長線が車両内のどの領域に含まれるかを判定する。なお、この領域判定処理は、定期的に受信する全視線情報に対して実行される。   And the control apparatus 19 will perform an area | region determination process, if line-of-sight information is received (step S50) (step S51). This area determination process is a process of determining an area in the vehicle corresponding to the user's line-of-sight direction. The line-of-sight determination unit 13j determines in which region in the vehicle the extension line of the user's line of sight is included. This region determination process is executed for all line-of-sight information received periodically.

そして、制御装置19は、ユーザの視線が同じ領域内にあるとの判定結果が、所定回数連続したか否かを判定する(ステップS52)。つまり、ユーザが同じ領域を一定時間見ていたか否かを判定している。所定回数連続しない場合には(ステップS52でNo)、ユーザは同じ領域を見続けていないとして処理を終了する。   Then, the control device 19 determines whether or not the determination result that the user's line of sight is in the same region has continued a predetermined number of times (step S52). That is, it is determined whether or not the user has looked at the same area for a certain period of time. If the predetermined number of times does not continue (No in step S52), the process is terminated because the user does not continue to look at the same area.

一方、所定回数連続した場合には(ステップS52)、制御装置19は、装置判定処理を実行する(ステップS53)。すなわち、視線判定部13jは、ユーザの視線が所定回数連続して含まれた領域内に存在する装置等が何であるかを判定する。すなわち、ユーザが何の装置等を見ているかを判定する。本実施の形態では、車室内のどの領域に何の装置等が配置されているかの配置情報が予め定められており、視線判定部13dは、この配置情報に基づいて、ユーザの視線方向に存在する装置等を判定する。   On the other hand, when it has continued for a predetermined number of times (step S52), the control device 19 executes a device determination process (step S53). In other words, the line-of-sight determination unit 13j determines what is a device or the like that exists in an area in which the user's line of sight is continuously included a predetermined number of times. That is, it is determined what device the user is looking at. In the present embodiment, arrangement information indicating which device or the like is arranged in which region in the vehicle interior is determined in advance, and the line-of-sight determination unit 13d exists in the user's line-of-sight direction based on this arrangement information. The device to be used is determined.

そして、制御装置19は、モード制御処理を実行する(ステップS54)。すなわち、動作制御部13kは、ユーザの視線方向に存在すると判定された装置等に対応したモードとなるように遠隔操作装置20やHUD装置30を制御する。   And the control apparatus 19 performs a mode control process (step S54). That is, the operation control unit 13k controls the remote operation device 20 and the HUD device 30 so as to be in a mode corresponding to a device or the like determined to be present in the user's line-of-sight direction.

例えば、視線判定部13jが、ユーザの視線がダッシュボード左側の領域にあると所定回数連続して判定した場合には、視線判定部13jは、さらに、配置情報に基づいてその領域にはエアコンの吹き出し口が存在すると判定する。すると、動作制御部13kは、遠隔操作装置20及びHUD装置30をエアコンの操作が可能なモードに制御する。具体的には、動作制御部13kのモード制御により、HUD装置30が温度調整や風量調整などの調整像を投影表示し、遠隔操作装置20がタッチセンサ21にて調整画像に対応した入力操作を受け付け可能な状態になる。すなわち、ユーザがエアコンの調整操作が可能なエアコン操作モードが起動する。   For example, when the line-of-sight determination unit 13j continuously determines that the user's line-of-sight is in the area on the left side of the dashboard a predetermined number of times, the line-of-sight determination unit 13j further includes an air conditioner in the area based on the arrangement information. It is determined that the outlet is present. Then, the operation control unit 13k controls the remote control device 20 and the HUD device 30 to a mode in which an air conditioner can be operated. Specifically, the mode control of the operation control unit 13k causes the HUD device 30 to project and display an adjustment image such as temperature adjustment or air flow adjustment, and the remote operation device 20 performs an input operation corresponding to the adjustment image using the touch sensor 21. It will be ready for acceptance. That is, the air conditioner operation mode in which the user can adjust the air conditioner is activated.

そして、制御装置19は、再び視線検出装置40から視線情報を受信して(ステップS55)、判定処理を実行する(ステップS56)。そして、制御装置19は、ユーザの視線が投影画面領域に含まれているとの判定結果が、所定回数連続したか否かを判定する(ステップS57)。   Then, the control device 19 receives the line-of-sight information from the line-of-sight detection device 40 again (step S55), and executes a determination process (step S56). Then, the control device 19 determines whether or not the determination result that the user's line of sight is included in the projection screen area has continued a predetermined number of times (step S57).

そして、判定結果が所定回数連続した場合には(ステップS57でYes)、動作制御部13kが遠隔操作装置20を有効にする(ステップS58)。一方、判定結果が所定回数連続していない場合には(ステップS57でNo)、動作制御部13kが遠隔操作装置20を無効にする(ステップS59)。これら各処理は、第1の実施の形態のステップS20〜S24と同様の処理である。   If the determination result continues for a predetermined number of times (Yes in step S57), the operation control unit 13k enables the remote operation device 20 (step S58). On the other hand, when the determination results are not consecutive for a predetermined number of times (No in step S57), the operation control unit 13k invalidates the remote operation device 20 (step S59). Each of these processes is the same process as steps S20 to S24 of the first embodiment.

なお、ステップS52にて所定回数連続していないと判定した場合においても、遠隔操作装置20への操作を無効にする。この場合、所定回数連続していないと判定されると、動作制御部13kは、動作状態の制御として、遠隔操作装置20の電源のオフや、操作の禁止や、遠隔操作装置20からの受信信号の無効化等を実行する。   Even when it is determined in step S52 that the predetermined number of times is not continued, the operation on the remote control device 20 is invalidated. In this case, if it is determined that the predetermined number of times is not continued, the operation control unit 13k turns off the power of the remote operation device 20, prohibits the operation, or receives a signal from the remote operation device 20 as control of the operation state. Execute invalidation etc.

このように、ユーザが実際に見ている装置に対応する操作モードが起動するため、ユーザは手元を見ることなく所望の装置を操作することが可能となり利便性が向上すると共に、誤操作を低減させることが可能になる。また、ユーザが表示画面を見ているときだけタッチセンサの操作を有効にするため、安全面での問題が生じることを回避することができると共に、誤操作を低減させることができる。   In this way, since the operation mode corresponding to the device that the user is actually viewing is activated, the user can operate the desired device without looking at the hand, improving convenience and reducing erroneous operations. It becomes possible. In addition, since the operation of the touch sensor is enabled only when the user is looking at the display screen, it is possible to avoid the occurrence of a safety problem and to reduce erroneous operations.

なお、ステップS52での所定回数とステップS57での所定回数とでは、ステップS57の所定回数を多くすることが好ましい。すなわち、ユーザが投影画面領域を見ているかの決定判断の時間は、ユーザが車両内のどの領域を見ているかの決定判断の時間よりも短くすることが好ましい。また、各判断の決定時には対応する効果音を出力することが好ましい。   In addition, it is preferable to increase the predetermined number of times of step S57 with the predetermined number of times in step S52 and the predetermined number of times in step S57. That is, it is preferable that the time for determining whether the user is looking at the projection screen area is shorter than the time for determining where the user is looking in the vehicle. Moreover, it is preferable to output a corresponding sound effect when each determination is made.

また、本実施の形態においては、制御装置19がモード制御処理(ステップS54)を実行すると、遠隔操作装置20への操作を有効にする構成としてもよい。この場合、制御装置19は、図19のステップS55〜S59の処理は行わず、ユーザの操作を受け付け可能な状態となる。また、ステップS52でNoの場合には処理は終了する。   Moreover, in this Embodiment, it is good also as a structure which validates operation with respect to the remote control device 20, when the control apparatus 19 performs a mode control process (step S54). In this case, the control device 19 does not perform the processes in steps S55 to S59 in FIG. Moreover, a process is complete | finished when it is No at step S52.

<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記各実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記各実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<5. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made. Below, such a modification is demonstrated. All the embodiments including the embodiments described above and the embodiments described below can be appropriately combined.

上記各実施の形態では、操作システムは車両に搭載され、安全面での問題を回避するシステムの例について説明している。すなわち、例えば、ユーザがHUD装置の投影画面を見ていないときは遠隔操作装置への操作を無効にする等である。しかしながら、車両が停車しているときは、ユーザが遠隔操作装置を操作しても安全面に問題が生じることはないため、必ずしもこのような場合にまでも無効にする必要はない。   In each of the above-described embodiments, an example of a system in which an operation system is mounted on a vehicle and a safety problem is avoided has been described. That is, for example, when the user is not looking at the projection screen of the HUD device, the operation on the remote control device is invalidated. However, when the vehicle is stopped, there is no problem in safety even if the user operates the remote control device. Therefore, it is not always necessary to invalidate the case.

したがって、上記各実施の形態における操作システムは、車両が停車している場合には、遠隔操作装置への操作の無効化処理は行わない構成としてもよい。車両が停車している場合とは、例えば、車速が0の場合やパーキングブレーキがオンの場合などである。   Therefore, the operation system in each of the above embodiments may be configured not to invalidate the operation on the remote operation device when the vehicle is stopped. The case where the vehicle is stopped is, for example, the case where the vehicle speed is 0 or the parking brake is on.

また、上記各実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。   Further, in each of the above embodiments, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. May be. Conversely, some of the functions realized by the hardware circuit may be realized by software.

1・2・3・4 操作システム
10・14・15・19 制御装置
20 遠隔操作装置
30 HUD装置
40 音声出力装置
1, 2, 3, 4 Operation system 10, 14, 15, 19 Control device 20 Remote operation device 30 HUD device 40 Audio output device

Claims (7)

車両に搭載される操作システムであって、
前記車両のユーザが操作可能な位置に配置されたタッチセンサと、
前記車両の前方方向に操作画面を表示する表示装置と、
前記ユーザの視線を検出する視線検出装置と、を備え、
前記ユーザの視線が、前記操作画面が表示されている領域内にある場合には、前記タッチセンサへの操作を有効にすることを特徴とする操作システム。
An operation system mounted on a vehicle,
A touch sensor disposed at a position operable by a user of the vehicle;
A display device for displaying an operation screen in a forward direction of the vehicle;
A line-of-sight detection device that detects the line of sight of the user,
When the user's line of sight is within an area where the operation screen is displayed, an operation system for enabling an operation on the touch sensor.
車両に搭載される操作システムであって、
前記車両のユーザが操作可能な位置に配置されたタッチセンサと、
前記ユーザの視線を検出する視線検出装置と、を備え、
ユーザの視線が、前記タッチセンサが配置されている領域内にある場合には、タッチセンサへの操作を無効にすることを特徴とする操作システム。
An operation system mounted on a vehicle,
A touch sensor disposed at a position operable by a user of the vehicle;
A line-of-sight detection device that detects the line of sight of the user,
An operation system that disables an operation to a touch sensor when a user's line of sight is within an area where the touch sensor is disposed.
車両に搭載される操作システムであって、
前記車両のユーザが操作可能な位置に配置されたタッチセンサと、
前記ユーザの視線を検出する視線検出装置と、を備え、
ユーザの視線が、前記タッチセンサが配置されている領域外にある場合には、タッチセンサへの操作を有効にすることを特徴とする操作システム。
An operation system mounted on a vehicle,
A touch sensor disposed at a position operable by a user of the vehicle;
A line-of-sight detection device that detects the line of sight of the user,
An operation system for enabling an operation on a touch sensor when a user's line of sight is outside an area where the touch sensor is disposed.
車両に搭載される操作システムであって、
前記車両のユーザが操作可能な位置に配置された第1のタッチセンサと、
前記車両の前方方向に第1のタッチセンサで操作する操作画面を表示する表示装置と、
第2のタッチセンサ及び表示部を有し、車両のユーザが操作可能な位置に配置されたタッチパネル装置と、
前記ユーザの視線を検出する視線検出装置と、を備え、
前記ユーザの視線が、前記操作画面が表示されている領域内にある場合には、前記第1のタッチセンサへの操作を有効にし、第2のタッチセンサへの操作を無効にすることを特徴とする操作システム。
An operation system mounted on a vehicle,
A first touch sensor disposed at a position operable by a user of the vehicle;
A display device for displaying an operation screen operated by a first touch sensor in a forward direction of the vehicle;
A touch panel device having a second touch sensor and a display unit, and disposed at a position operable by a user of the vehicle;
A line-of-sight detection device that detects the line of sight of the user,
When the user's line of sight is within an area where the operation screen is displayed, the operation to the first touch sensor is enabled and the operation to the second touch sensor is disabled. And operation system.
車両に搭載される操作システムであって、
前記車両のユーザが操作可能な位置に配置されたタッチセンサと、
前記ユーザの視線を検出する視線検出装置と、を備え、
前記ユーザの視線方向に車両設備が配置されている場合には、前記タッチセンサによる該車両設備への調整操作を可能にすることを特徴とする操作システム。
An operation system mounted on a vehicle,
A touch sensor disposed at a position operable by a user of the vehicle;
A line-of-sight detection device that detects the line of sight of the user,
When the vehicle facility is arranged in the direction of the user's line of sight, the operation system enables an adjustment operation to the vehicle facility by the touch sensor.
請求項1ないし5のいずれかに記載の操作システムにおいて、
前記タッチセンサには、ユーザに対して触感を付与する触感付与手段が設けられていることを特徴とする操作システム。
The operation system according to any one of claims 1 to 5,
The touch system is provided with tactile sensation imparting means for imparting tactile sensation to a user.
請求項1ないし6のいずれかに記載の操作システムにおいて、
前記車両が停車している場合には、前記タッチセンサへの操作の無効化を行わないことを特徴とする操作システム。
The operation system according to any one of claims 1 to 6,
An operation system that does not invalidate an operation on the touch sensor when the vehicle is stopped.
JP2014247821A 2014-12-08 2014-12-08 Operation system Active JP6549839B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014247821A JP6549839B2 (en) 2014-12-08 2014-12-08 Operation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014247821A JP6549839B2 (en) 2014-12-08 2014-12-08 Operation system

Publications (3)

Publication Number Publication Date
JP2016110424A true JP2016110424A (en) 2016-06-20
JP2016110424A5 JP2016110424A5 (en) 2018-01-18
JP6549839B2 JP6549839B2 (en) 2019-07-24

Family

ID=56124341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014247821A Active JP6549839B2 (en) 2014-12-08 2014-12-08 Operation system

Country Status (1)

Country Link
JP (1) JP6549839B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109547970A (en) * 2017-08-11 2019-03-29 法雷奥舒适驾驶助手公司 The method of safety is provided for the long-range control manipulation for motor vehicles
JP2019121286A (en) * 2018-01-10 2019-07-22 株式会社デンソーテン Operation input device and touch panel
JP2021043616A (en) * 2019-09-10 2021-03-18 株式会社東海理化電機製作所 Control device, control method, and program
JP2021047897A (en) * 2020-12-08 2021-03-25 株式会社デンソーテン Movement guidance device and movement guidance method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010105417A (en) * 2008-10-28 2010-05-13 Mitsubishi Motors Corp On-vehicle electronic equipment
JP2010127673A (en) * 2008-11-26 2010-06-10 Calsonic Kansei Corp Input device for vehicle
JP2014164388A (en) * 2013-02-22 2014-09-08 Tokai Rika Co Ltd Information presentation device
US20140292665A1 (en) * 2013-03-26 2014-10-02 Audi Ag System, components and methodologies for gaze dependent gesture input control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010105417A (en) * 2008-10-28 2010-05-13 Mitsubishi Motors Corp On-vehicle electronic equipment
JP2010127673A (en) * 2008-11-26 2010-06-10 Calsonic Kansei Corp Input device for vehicle
JP2014164388A (en) * 2013-02-22 2014-09-08 Tokai Rika Co Ltd Information presentation device
US20140292665A1 (en) * 2013-03-26 2014-10-02 Audi Ag System, components and methodologies for gaze dependent gesture input control

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109547970A (en) * 2017-08-11 2019-03-29 法雷奥舒适驾驶助手公司 The method of safety is provided for the long-range control manipulation for motor vehicles
JP2019121286A (en) * 2018-01-10 2019-07-22 株式会社デンソーテン Operation input device and touch panel
JP7141215B2 (en) 2018-01-10 2022-09-22 株式会社デンソーテン Operation input device and touch panel
JP2021043616A (en) * 2019-09-10 2021-03-18 株式会社東海理化電機製作所 Control device, control method, and program
WO2021049079A1 (en) * 2019-09-10 2021-03-18 株式会社東海理化電機製作所 Control device, control method, and program
JP7344057B2 (en) 2019-09-10 2023-09-13 株式会社東海理化電機製作所 Control device, control method, and program
JP2021047897A (en) * 2020-12-08 2021-03-25 株式会社デンソーテン Movement guidance device and movement guidance method
JP7194160B2 (en) 2020-12-08 2022-12-21 株式会社デンソーテン Movement guidance device and movement guidance method

Also Published As

Publication number Publication date
JP6549839B2 (en) 2019-07-24

Similar Documents

Publication Publication Date Title
EP3598341B1 (en) Implementation of biometric authentication using a viewfinder
KR101550601B1 (en) Curved touch display apparatus for providing tactile feedback and method thereof
US9346358B2 (en) Vehicle control apparatus
JP6214752B2 (en) Display control device, display control method for display control device, gaze direction detection system, and calibration control method for gaze direction detection system
JP2019197575A (en) System and method for controlling plural displays by using one controller and user interface which can use haptic effects
JPWO2012132495A1 (en) Operating device
US20160162092A1 (en) Operation device
JP6549839B2 (en) Operation system
CN103869970B (en) Pass through the system and method for 2D camera operation user interfaces
US20150274176A1 (en) Moving amount derivation apparatus
JP2010205223A (en) System and device for control following gesture for virtual object
JP6700034B2 (en) Techniques for dynamically changing the haptic surface of a haptic controller to convey interactive system information
JP6473610B2 (en) Operating device and operating system
JP6620682B2 (en) In-vehicle display device
JP2009190675A (en) Operating device for vehicle
JP2014211738A (en) On-vehicle device controller and on-vehicle device
KR101704065B1 (en) Interaction System for Vehicles
KR20150027608A (en) Remote control system based on gesture and method thereof
US20220392320A1 (en) Tactile presentation device and tactile presentation method
JP6781236B2 (en) Operating device
JP2017113136A (en) Eye adjusting function support system, eye adjusting function support device, eye adjusting function support method, and control method of eye adjusting function support instrument
WO2021059479A1 (en) Display control device for displaying operation subject within operable range
CN120245714A (en) Auxiliary operating system and auxiliary operating method for vehicle device
JP2016110421A (en) Operation device
KR20150072203A (en) Vehicle Control Apparatus And Vehicle Control Method Using the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190628

R150 Certificate of patent or registration of utility model

Ref document number: 6549839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250