[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7377615B2 - 車両の非接触操作装置、および車両 - Google Patents

車両の非接触操作装置、および車両 Download PDF

Info

Publication number
JP7377615B2
JP7377615B2 JP2019060596A JP2019060596A JP7377615B2 JP 7377615 B2 JP7377615 B2 JP 7377615B2 JP 2019060596 A JP2019060596 A JP 2019060596A JP 2019060596 A JP2019060596 A JP 2019060596A JP 7377615 B2 JP7377615 B2 JP 7377615B2
Authority
JP
Japan
Prior art keywords
image
occupant
contact
stimulation
ecu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019060596A
Other languages
English (en)
Other versions
JP2020160874A (ja
Inventor
隆 角田
秀幸 佐瀬
武己 小栗
知之 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2019060596A priority Critical patent/JP7377615B2/ja
Priority to CN202010010056.0A priority patent/CN111746398A/zh
Priority to DE102020101297.7A priority patent/DE102020101297A1/de
Priority to US16/751,382 priority patent/US11385715B2/en
Publication of JP2020160874A publication Critical patent/JP2020160874A/ja
Application granted granted Critical
Publication of JP7377615B2 publication Critical patent/JP7377615B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/25Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両の非接触操作装置に関する。
車両には、各種の操作部材が設けられる。たとえば、車両には、車両の走行を制御するためのスタートスイッチ、ハンドル、シフトレバー、ペダルなどがある。また、車両には、空調装置、ナビゲーション装置、オーディオ装置、映像受信装置、ハンズフリー通話装置、その他の設備機器の操作部材が設けられる。このように、車両には、多数の操作部材が設けられている。これら多数の操作部材は車室の内面に対してレイアウトされるものであるが、近年においては車室のレイアウト面が不足する傾向にある。今後さらに、たとえばゲーム装置、ネットワーク通信装置、エンターテイメント装置などが追加されることを考えた場合、それらの装置の操作部材を増設できなくなる可能性もある。
特に、車両では、自動運転技術の開発が進められており、実際にその開発が進展して乗員が直接に車両の走行を制御しなくても車両が自律的に走行できるようになるとすると、乗員は、たとえばシートを倒した状態で乗車する可能性がある。この場合、乗員は、何かの操作をしようとする場合には、操作のために体を起こして、車室の内面に対してレイアウトされている操作部材まで腕を伸ばして操作をする必要がある。
特開2017-027401号公報
このため、車両では、特許文献1に開示されるように、車両の車室へ投影された映像を操作するような新たな操作装置の開発が求められている。
特許文献1では、映像を提示し、提示した映像に対応する操作に対して超音波場による触覚刺激を乗員の操作部位へ出力する。このため、乗員は、映像に対応する操作をしたとの実感を得ることができる。
しかしながら、特許文献1では、操作部位の移動方向に応じて触覚刺激を強弱させるだけであり、その触覚刺激は映像そのものや映像の変化に対応するものではない。その結果、たとえば映像の変化に対して、触覚刺激の変化が対応しないため、視覚から受ける感覚と触覚から受ける感覚との間に相違やずれによる違和感を生じてしまう可能性がある。
このように、車両では、操作装置を改善することが求められている。
本発明に係る車両の非接触操作装置は、車両の車室の空間へ映像を投影する投影デバイスと、前記投影デバイスにより投影される前記映像を生成および更新する生成部と、前記車室の前記空間に投影されている前記映像に対して操作をする前記車両の乗員の操作部位に対して、超音波場による触覚刺激を前記操作に対する応答として出力する刺激応答出力部と、前記車室の前記空間に投影されている前記映像に対して非接触の操作をする前記乗員の前記操作部位を検出する検出デバイスと、を有し、前記生成部および前記刺激応答出力部は、前記検出デバイスにより検出される前記乗員の前記操作部位の操作情報に応じて、前記映像と前記触覚刺激の出力とを更新する、ものであり、前記刺激応答出力部は、前記映像についての、前記乗員の前記操作部位により操作される接触箇所、前記乗員の前記操作部位の動き方向、および、前記乗員の前記操作部位の動き速度に応じて異なる前記触覚刺激を出力し、前記生成部および前記刺激応答出力部は、前記検出デバイスにより検出される前記乗員の前記操作部位の操作情報に応じて前記映像と前記触覚刺激の出力とを更新する際に、前記乗員の前記操作部位についての前記映像の表面までの距離が変化したか否かを判断し、前記映像の表面までの距離が変化している場合には、さらに、前記乗員の前記操作部位が前記映像の表面と接触したか否かと、前記乗員の前記操作部位がすでに前記映像と接触していたか否かと、を判断し、前記乗員の前記操作部位が前記映像の表面と接触していない場合には、前記映像の表面までの残距離または深さに応じた強度に変更しながら、刺激の出力を維持し、前記乗員の前記操作部位が前記映像の表面と接触しているがすでに前記映像と接触していない場合には、刺激の種類を変更し、前記乗員の前記操作部位が前記映像の表面と接触していて且つすでに前記映像と接触していた場合には、同じ出力を継続する。
好適には、前記生成部により生成される前記映像は、投影する部位ごとに異なる属性を持ち、前記刺激応答出力部は、前記乗員の前記操作部位により操作される接触箇所となる前記部位に応じて異なる前記触覚刺激を出力する、とよい。
好適には、前記刺激応答出力部は、操作に応じて前記生成部が前記映像を更新する際に、前記超音波場による触覚刺激の出力を、更新される前記映像に対応させて変更する、とよい。
好適には、前記生成部は、前記映像についての、前記乗員の前記操作部位により操作される前記接触箇所に応じて、前記映像の前記接触箇所の変形、前記映像の移動、およびそれらの組み合わせ、により、前記映像を更新し、前記刺激応答出力部は、前記生成部が前記映像の前記接触箇所を変形させるように前記映像を更新する場合、前記超音波場による触覚刺激の出力を変化させ、前記生成部が前記映像を移動させるように前記映像を更新する場合、前記超音波場による触覚刺激の出力を、同じ方向へずらす、とよい。
好適には、前記生成部および前記刺激応答出力部は、前記乗員の前記操作部位の動き方向へ沿って、前記映像と前記触覚刺激の出力とを移動させる、とよい。
好適には、前記生成部および前記刺激応答出力部は、前記乗員の前記操作部位の動き速度に応じた量で、前記映像と前記触覚刺激の出力とを移動させる、とよい。
好適には、前記刺激応答出力部は、前記生成部の更新による前記映像の形状の変化に合わせて、前記形状の変化後の前記触覚刺激を、前記形状の変化前の前記触覚刺激から変化させる、とよい。
好適には、前記刺激応答出力部は、前記生成部による前記映像の更新により前記乗員の前記操作部位と前記映像との接触量の変化に合わせて、前記映像の更新後の前記触覚刺激を、前記映像の更新前の前記触覚刺激から増減させる、とよい。
好適には、前記車室へ音を出力する音出力デバイスと、前記車室に投影されている前記映像に対する前記乗員の前記操作部位の動き、および前記映像の前記接触箇所に応じて異なる音を、前記音出力デバイスから出力する音応答出力部と、を有する、とよい

本発明に係る車両は、上述したいずれかの非接触操作装置と、前記非接触操作装置とネットワークを通じて接続され、車両を制御する被制御装置と、前記非接触操作装置とネットワークを通じて接続され、前記車両の外と通信する通信装置と、を有し、前記非接触操作装置は、前記通信装置が受信するコンテンツを映像として投影する。
本発明では、車両の車室へ投影される映像を生成部により生成し、投影デバイスは、生成された映像を車両の車室へ投影する。また、乗員の操作を検出する検出デバイスは、車室による空間に投影されている映像に対して非接触の操作をする乗員の操作部位を検出する。刺激応答出力部は、車室に投影されている映像に対して操作をする乗員の操作部位に対して、超音波場による触覚刺激を操作に対する応答として出力する。
これにより、乗員は、車室の空間へ投影される映像に対する非接触の操作をすると、その操作をした操作部位に対して、操作に対する応答としての超音波場による触覚刺激が与えられる。乗員は、車室の空間へ投影される映像に対して実際に操作をしたかのような実感を得ることができる。乗員は、実際に操作している感覚を持ちながら、映像を操作することができる。
しかも、乗員は、実際には車室の空間において操作部位を非接触に操作するため、車室のたとえば内面やハンドルなどの操作部材のように直接に構造物に触れて操作する必要はない。車室には、乗員は、実際が操作部位により操作をする空間そのものに、操作部位により直接に接触可能な操作部材を設ける必要はない。
乗員の近くに、乗員の操作部位により直接に操作する操作部材を新たに配置することなく、乗員の操作性を改善できる。
また、表示を変更することにより、複数の装置のそれぞれの操作に適した操作パネルなどを切り替えて投影することができる。
特に、本発明では、生成部および刺激応答出力部は、検出デバイスにより検出される乗員の操作部位の操作情報に応じて、映像と触覚刺激の出力とを更新する。たとえば、操作に応じて生成部が映像を更新する際に、刺激応答出力部は、超音波場による触覚刺激の出力を、更新される映像に対応させて変更する。映像の更新により映像の表面形状または表面位置が変更されると、刺激応答出力部は、変更後の映像の表面形状または表面位置を基準として、超音波場による触覚刺激の出力の仕方または位置を更新する。
しかも、生成部および刺激応答出力部は、車室による空間に投影されている映像に対して非接触の操作をする乗員の操作部位を検出する検出デバイスにより検出される乗員の操作部位の操作情報に応じて、映像と触覚刺激の出力とを更新する。触覚刺激は、映像そのものや映像の変化に対応して変化し得る。たとえば映像の変化に対して、触覚刺激の変化が対応できる。乗員は、視覚から受ける感覚と触覚から受ける感覚との間に相違やずれによる違和感を生じ難くなる。
これにより、本発明では、映像に対して最初の操作をした後においても、操作に応じて映像および触覚刺激が同期するように変更される。
乗員は、映像に対する操作を開始した後の操作中においても、操作に応じて変化する映像に対して実際に操作している感覚を持ちながら、操作に応じて変化する映像の操作を継続することができる。映像と触覚とが同期して変化することにより、乗員は実態が存在しない操作部材を中空で操作しつづけたとしても、実感を持ったままその操作を継続することができる。
これに対し、映像の変化と触覚の変化とが同期して更新されない場合には、最初の映像について乗員は実感を持って操作することができるものの、その後の操作については実感を持って操作することが難しくなる。
図1は、本発明の実施形態に係る自動車の模式的な説明図である。 図2は、図1の自動車の制御系の模式的な説明図である。 図3は、図1の自動車に設けられる非接触操作装置の構成図である。 図4は、図3の非接触操作装置の構成要素の車室での配置の一例を説明する図である。 図5は、第一実施形態での非接触操作処理の流れを示すフローチャートである。 図6は、第二実施形態での非接触操作処理の要部の流れを示すフローチャートである。 図7は、図6のステップST19の刺激内容変更処理の流れを示すフローチャートである。 図8は、図6のステップST20の映像更新処理の流れを示すフローチャートである。
以下、本発明の実施形態を、図面に基づいて説明する。
[第一実施形態]
図1は、本発明の実施形態に係る自動車1の模式的な説明図である。
図1(A)は上面図、図1(B)は側面図、図1(C)は側面図、である。
図1の自動車1は、車両の一例である。自動車1は、乗員が乗車する車室3が設けられる車体2を有する。車室3には、乗員が着座するシート4が設けられる。車室3の前部には、乗員が自動車1の走行を操作するために、ハンドル5、シフトレバー6、ブレーキペダル7、アクセルペダル8、が設けられる。乗員は、図1(B)に示すように、シート4に着座したまま、これらハンドル5などの操作部材を操作することができる。
図2は、図1の自動車1の制御系10の模式的な説明図である。図2には、制御系10を構成する複数の制御装置が、それぞれに組み込まれる制御ECU(Electronic Control Unit)により代表して示されている。
具体的には、図2には、駆動ECU11、操舵ECU12、制動ECU13、自動運転/運転支援ECU14、運転操作ECU15、検出ECU16、空調ECU17、乗員監視ECU18、外通信ECU19、非接触操作装置40の操作ECU20、システムECU21、が図示されている。これら複数の制御ECUは、自動車1で採用されるたとえばCAN(Controller Area Network)やLIN(Local Interconnect Network)といった車ネットワーク26により、中継装置としてのセントラルゲートウェイ(CGW)27に接続される。
そして、各制御モジュールにおいて、制御ECUは、自動車1で用いる電子機器に接続される。起動された制御ECUは、各種の処理を実行し、車ネットワーク26から取得する情報(データ)に基づいてそれぞれに接続されている電子機器の動作を制御する。また、制御ECUは、それぞれに接続されている電子機器の動作状態などの情報(データ)を車ネットワーク26へ出力する。
たとえば、運転操作ECU15には、乗員が自動車1の走行を制御するために操作するハンドル5、ブレーキペダル7、アクセルペダル8、シフトレバー6などの操作検出センサが接続される。運転操作ECU15は、操作量に応じた制御情報を、車ネットワーク26へ出力する。駆動ECU11、操舵ECU12、制動ECU13は、車ネットワーク26から情報を取得し、自動車1の走行を制御する。
検出ECU16には、自動車1の速度センサ31、衝突などによる自動車1の加速度を検出可能な加速度センサ32、外カメラ33、などが接続される。検出ECU16には、自動車1の速度センサ31および加速度センサ32の値、外カメラ33の画像などを、車ネットワーク26へ出力する。検出ECU16は、外カメラ33の画像に基づいて衝突を予測し、予測結果を車ネットワーク26へ出力してよい。セントラルゲートウェイ27は、情報を中継する。操作ECU20は、車ネットワーク26から情報を取得し、それに接続される図示外の表示デバイスに、これらの情報を表示する。操作ECU20には、表示デバイスとともに、乗員が操作する図示外の操作デバイスが接続される。
乗員監視ECU18には、内カメラ34、が接続される。乗員監視ECU18は、内カメラ34の画像、車ネットワーク26から取得するたとえば衝撃の加速度などの情報に応じて、自動車1に乗車している乗員に関する各種の処理を実行する。乗員監視ECU18は、必要に応じて画像、音、その他の情報(データ)を車ネットワーク26へ出力する。
外通信ECU19は、たとえば、自動車1の外に存在する通信基地局81、他の自動車82の通信装置と無線通信する。通信基地局81、および他の自動車82の通信装置は、サーバ装置83とともに、交通システム80を構成する。外通信ECU19は、車ネットワーク26から取得した情報を、通信基地局81、他の自動車82の通信装置へ無線送信する。送信された情報は、たとえばサーバ装置83や他の自動車82において利用され得る。また、外通信ECU19は、通信基地局81、他の自動車82の通信装置から、情報を受信し、車ネットワーク26へ出力する。これにより、自動車1のたとえば乗員監視ECU18は、外通信ECU19を通じて、車外のサーバ装置83や他の自動車82との間で情報(データ)を送受することができる。
また、図2に示す制御系10は、自動車1に設けられるバッテリ91から各部へ電力が供給されることにより動作し得る。バッテリ91から各部への電力供給線は、たとえば車ネットワーク26の通信ケーブルとともに自動車1に張り巡らされる。制御系10は、バッテリ91のほかにも、発電機、受電機から電力が供給されてもよい。
このように操作ECU20は、自動車1において、車ネットワーク26を通じて他の制御装置と接続される。図2において操作ECU20以外のECUは、自動車1を制御する被制御装置である。ただし、外通信ECU19は、自動車1の外と通信する通信装置である。
ところで、自動車1には、上述したように各種の装置およびその操作部材が設けられる。たとえば、自動車1には、自動車1の走行を制御するためのスタートスイッチ、ハンドル5、シフトレバー6、ペダルなどがある。また、自動車1には、上述した装置以外にも、ナビゲーション装置、オーディオ装置、映像受信装置、ハンズフリー通話装置、その他の設備機器の操作部材が設けられる。このように、自動車1には、多数の操作部材が設けられている。これら多数の操作部材は車室3の内面に対してレイアウトされるものであるが、近年においては車室3のレイアウト面が不足する傾向にある。今後さらに、たとえばゲーム装置、ネットワーク通信装置、エンターテイメント装置などが追加されることを考えた場合、それらの装置の操作部材を増設できなくなる可能性もある。
特に、自動車1では、自動運転技術の開発が進められており、実際にその開発が進展して乗員が直接に自動車1の走行を制御しなくても自動車1が自律的に走行できるようになるとすると、乗員は、たとえば図1(C)に示すように、シート4を倒した状態で乗車する可能性がある。この場合、乗員は、何かの操作をしようとする場合には、操作のために体をシート4から起こして、車室3の内面に対してレイアウトされているハンドル5などの操作部材まで腕を伸ばして操作をする必要がある。
このため、自動車1では、たとえば自動車1の車室3へ投影された映像を操作するような新たな操作装置の開発が求められている。
このように、自動車1の操作装置は、さらに改善することが求められている。
図3は、図1の自動車1に設けられる非接触操作装置40の構成図である。
図3の非接触操作装置40は、車内通信部41、タイマ42、3D映像投影デバイス43、操作検出デバイス44、刺激出力デバイス45、音出力デバイス46、メモリ47、およびこれらが接続される操作ECU20、を有する。
メモリ47は、たとえば不揮発性メモリである。メモリ47は、非接触操作用のプログラム、およびデータを記録する。プログラムには、AIにより処理を実行するものであってもよい。プログラムには、AI処理のための学習プログラムが含まれてよい。データには、非接触操作の際に投影する映像の三次元モデルデータなどが含まれる。三次元モデルデータは、非接触操作のための映像データであり、たとえばモデルの表面を構成する複数のポリゴンデータを有する。
操作ECU20は、たとえば中央処理装置、ASIC、DSPなどのマイクロコンピュータでよい。操作ECU20は、メモリ47から非接触操作用のプログラムを読み込んで実行する。これにより、操作ECU20には、非接触操作装置40の制御部が実現される。非接触操作装置40の制御部は、非接触操作装置40の全体の動作を制御し、非接触操作装置40に非接触操作のための各種の機能を実現する。たとえば、操作ECU20には、非接触操作のための各種の機能として、映像生成部51、操作判定部52、刺激応答出力部53、音応答出力部54、が実現される。
車内通信部41は、車ネットワーク26に接続される。車内通信部41は、車ネットワーク26を通じて、たとえば図中に例示するように空調ECU17、自動運転/運転支援ECU14、などの他の制御ECUとの間で情報(データ)を送受する。たとえば、車内通信部41は、空調ECU17から空調操作映像の表示指示を取得し、操作ECU20へ出力する。車内通信部41は、自動運転/運転支援ECU14から、自動運転/運転支援のための設定操作映像の表示指示を取得し、操作ECU20へ出力する。
タイマ42は、経過時間または時刻を計測する。
映像生成部51は、表示指示に基づいて、投影する映像のデータを生成するために、メモリ47または車内通信部41から三次元モデルデータを取得する。映像生成部51は、取得した三次元モデルデータから、三次元モデルを生成する。映像生成部51は、乗員から見た車室3での三次元モデルの投影位置および向きを決定し、三次元モデル(立体モデル)から投影用の映像データを生成する。映像生成部51は、投影用の映像データを3D映像投影デバイス43へ出力する。映像生成部51は、二次元モデルデータから、二次元モデル(平面モデル)を生成して、投影用の映像データを生成してもよい。なお、映像生成部51は、表示指示がない場合でも、メモリ47または車内通信部41から動画や静止画といったコンテンツの表示データを読み込み、コンテンツの三次元映像(立体映像)または二次元映像(平面映像)の映像データを生成し、3D映像投影デバイス43へ出力してもよい。
3D映像投影デバイス43は、自動車1の車室3による空間へ3D(三次元)の映像または2D(二次元)の映像を、車室3の空間へ投影する。3D映像投影デバイス43は、たとえばホログラム方式、ミラー方式により、車室3についての中空の空間に映像を投影してよい。これにより、車室3の投影位置には、乗員が三次元モデルを視認できるように、立体的な映像が投影される。
操作検出デバイス44は、乗員の所定の操作部位を検出する。操作検出デバイス44は、たとえば2つの撮像素子が並べて配列されたステレオカメラ63でよい。この場合、操作検出デバイス44は、2つの撮像素子の画像により、車室3の中空に投影される映像に対する乗員による操作を検出する。
操作判定部52は、操作検出デバイス44からたとえばステレオカメラ63の画像といった検出情報を取得し、それに基づいて車室3の空間に投影されている映像に対する乗員の操作を判定する。操作判定部52は、乗員の操作部位の位置や動きを判定する。動きには、移動の方向、速度、加速度などの操作部位の運動の情報が含まれる。操作判定部52は、たとえばAI処理により画像から乗員の指先の特徴を含む画素位置を取得し、ステレオカメラ63の画像についての三角測量法により指先の位置情報を生成する。操作判定部52は、時間をずらした撮像結果から、指先の動き、たとえば移動方向、移動速度、移動の加速度などの情報を生成する。操作判定部52は、映像の投影位置を基準として乗員の操作部位の位置や動きを判定して、車室3による空間に投影されている映像に対する乗員の操作を判定する。操作判定部52は、投影される映像への乗員の操作部位の接触の有無、接触までの残距離、接触する深さなどを判定する。操作判定部52は、判定したこれらの操作情報を、操作ECU20の各部へ出力する。操作判定部52は、操作情報を、映像生成部51、刺激応答出力部53、音応答出力部54、へ出力する。映像生成部51は、乗員の操作に応じて投影用の映像データを更新して3D映像投影デバイス43へ出力する。これにより、3D映像投影デバイス43により車室3に投影される映像は、操作に応答して更新される。
また、操作判定部52は、操作情報に基づいて、車室3の空間に投影されている映像に対する乗員の操作がなされたと判断した場合、その乗員の操作による入力情報を、車内通信部41を通じて自動車1の各部へ出力する。操作判定部52は、たとえば投影される映像の操作ボタンが操作されている場合、操作による入力情報を生成し、車内通信部41へ出力する。車内通信部41は、入力情報を、車ネットワーク26を通じて被制御装置へ出力する。
刺激出力デバイス45は、たとえば電気信号により、乗員の操作部位に対して触感を与えることができるものであればよい。非接触に触感を与えるデバイスとしては、たとえば超音波の場を生成して、乗員の操作部位へ超音波の場または場の変動を与えることにより、操作部位の皮膚に触感を与えるものがある。刺激出力デバイス45は、たとえば手の下に離れた平面に、複数の超音波素子65が配列される素子アレイでよい。複数の超音波素子65から選択的に超音波を出力することにより、乗員の手のたとえば指先といった局所的な部位に、物体に触れているかのような触感を与えることができる。
刺激応答出力部53は、刺激出力デバイス45へ電気信号を出力し、操作に応じた超音波を複数の超音波素子65から選択的に出力する。これにより、刺激応答出力部53は、車室3に超音波場を生成することができる。刺激応答出力部53は、操作判定部52により映像と接触していると判断される乗員の操作部位へ局所的に超音波の場または場の変動を与える。人は、超音波場にたとえば手を入れると、手の表面の皮膚により超音波場を感じ取ることができる。これにより、刺激応答出力部53は、車室3による空間に投影されている映像に対して非接触の操作をする乗員の操作部位に対して、超音波場による触感の刺激を操作に対する応答として出力することができる。
この他にもたとえば、刺激応答出力部53は、複数の圧力出力素子が配列される素子アレイを有してもよい。この場合、刺激応答出力部53は、複数の圧力出力素子の動作を個別に制御することにより、人の皮膚に対して圧力を作用させることができる。これにより、乗員は、操作に応じた感触を得ることができる。
音出力デバイス46は、たとえば音信号により駆動されるスピーカでよい。
音応答出力部54は、音出力デバイス46へ音信号を出力し、操作に応じた音を音出力デバイス46から出力する。音応答出力部54は、メモリ47に記録されている音声データを選択して取得し、音声データから生成した音信号を音出力デバイス46としてのスピーカへ出力する。これにより、乗員は、操作に応じた音を聞くことができる。
図4は、図3の非接触操作装置40の構成要素の車室3での配置の一例を説明する図である。図4には、指先で映像を操作する乗員が併せて示されている。
非接触操作装置40は、自動車1の車室3に設けられる。
図4には、図3の3D映像投影デバイス43、操作検出デバイス44、および、刺激出力デバイス45の具体的な組み合わせ例の模式的な説明図である。
図4には、3D映像投影デバイス43として、表示スクリーン61、ハーフミラー62が図示されている。操作検出デバイス44として、ステレオカメラ63が図示されている。刺激出力デバイス45として、素子アレイが図示されている。
刺激出力デバイス45は、中空の四角枠体64を有する。四角枠体64の4つの面のそれぞれには、複数の超音波素子65が配列された素子アレイが設けられる。四角枠体64の上下左右の面の素子アレイを動作させることにより、図示するように四角枠体64の内へ入れた指先には、超音波場が作用する。これにより、人は指先が触られている触感を得ることができる。
ハーフミラー62は、刺激出力デバイス45の中空の四角枠体64について、人の反対側に設けられる。ハーフミラー62は、一点鎖線で示す四角枠体64の軸心に対して45度で傾けて設けられる。ハーフミラー62の下側には、三次元映像(立体映像)または二次元映像(平面映像)を表示するための表示スクリーン61が配置される。これにより、人からは、刺激出力デバイス45についての中空の四角枠体64の内側に、三次元映像(立体映像)または二次元映像(平面映像)が視認できる。図中に円で示す三次元映像としての球体を、人は、中空の四角枠体64の内側に視認することができる。
ステレオカメラ63は、たとえばハーフミラー62の後側に設けてよい。これにより、ステレオカメラ63の2つの撮像素子は、四角枠体64の軸心に対して対象となる位置に設けられる。これにより、ステレオカメラ63は、刺激出力デバイス45の中空の四角枠体64に入る指などを撮像することができる。以下、必要に応じて、四角枠体64の軸心に沿った方向をZ方向とよび、それに垂直な方向をY方向およびX方向とよぶ。また、通常は、Z方向が自動車1の前後方向とするとよい。
なお、図3の非接触操作装置40の構成要素は、図4に示すように一か所にまとめて配置される必要はない。
たとえば、刺激出力デバイス45の中空の四角枠体64は、乗員の前に配置された場合、乗員がハンドル5などを操作する際に操作の邪魔となる可能性がある。中空の四角枠体64は、図1に示すように、車体2の外周面に沿って四角枠状に設けられてよい。この場合、乗員が着座するシート4の前に、四角枠体64などの構造物を設ける必要がない。この場合であっても、図中に点線円で示すように、車室3の空間に映像を投影することができる。また、投影される映像に対応する操作エリアは、四角枠体64の内側に位置することになる。また、中空の四角枠体64は、必ずしも正四角形の枠形状でなくてもよい。車体2の外周に沿って素子アレイを配置してもよい。また、車室3の内面に全体的に、素子アレイを配置してもよい。
ハーフミラー62は、基本的に、刺激出力デバイス45の中空の四角枠体64を基準として、乗員の頭部とは反対側に設ければよい。また、映像を四角枠体64の内側の中空に投影するためだけであれば、ハーフミラー62の替わりに、フル反射ミラーを用いてよい。また、刺激出力デバイス45の中空の四角枠体64を基準として、乗員の頭部とは反対側に表示スクリーン61そのものを配置してもよい。この場合、ハーフミラー62またはフル反射ミラーは不要である。このようなハーフミラー62またはフル反射ミラーおよび表示スクリーン61は、たとえばトーボードやルーフに配置してよい。
ステレオカメラ63などの検出デバイスは、ルームミラー、バックミラーなどに配置してよい。また、DMSなどの乗員監視装置の撮像素子により、車室3を撮像してもよい。ステレオカメラ63などの検出デバイスは、乗員についての指先などの検出しようとする部位が撮像できるものであればよい。また、画像によらず、たとえば車室3をレーザースキャンして、乗員の指先などを検出してもよい。
図5は、第一実施形態での非接触操作処理の流れを示すフローチャートである。
ステップST1において、操作ECU20は、映像を投影した非接触操作を開始するか否かを判断する。操作ECU20は、たとえば表示指示がある場合、またはコンテンツを表示する場合、非接触操作を開始と判断し、処理をステップST2へ進める。それ以外の場合、操作ECU20は、非接触操作を開始しないと判断し、図5の処理を終了する。
ステップST2において、操作ECU20は、映像生成部51として、最初の3D映像を生成して表示する。操作ECU20は、メモリ47または車内通信部41から取得する三次元モデルデータから三次元モデルを生成し、さらに投影用の映像データを生成する。操作ECU20は、三次元モデルについてあらかじめ設定された映像の最初の投影位置および表示向きの設定に基づいて、三次元モデルから投影用の映像データを生成する。操作ECU20は、生成した三次元モデルをメモリ47に一時的に記録してもよい。この場合、操作ECU20は、映像を更新するための次回の生成処理ではメモリ47から三次元モデルを読み込んで、投影用の映像データを生成することができる。操作ECU20は、生成した投影用の映像データを3D映像投影デバイス43へ出力する。3D映像投影デバイス43は、投影用の映像データによる映像を、車室3の空間に投影する。これにより、たとえば図4に示すように乗員の前の所定の投影位置には、三次元モデルが所定の表示向きにより表示される。所定の投影位置は、たとえば図1(B)のようにシート4に着座する乗員がそのまま手を伸ばせば届く範囲となる位置とするとよい。所定の表示向きは、たとえば三次元モデルに向きがある場合にはその正面が乗員へ向かう向きとすればよい。
ステップST3において、操作ECU20は、操作判定部52として、映像に対する乗員の操作を検出しているか否かを判断する。操作ECU20は、操作検出デバイス44からたとえばステレオカメラ63の画像といった検出情報を取得し、乗員のたとえば指先といった所定の部位を抽出し、所定の操作部位についてのたとえば車室3での位置の変化や動きの有無に基づいて、映像に対する乗員の操作を検出する。この時点での操作検出では、操作ECU20は、乗員の操作部位が映像を操作していなくても、映像に対する乗員の操作を検出したと判断してよい。映像に対する乗員の操作を検出しない場合、操作ECU20は、本ステップの判断処理を繰り返す。映像に対する乗員の操作を検出した場合、操作ECU20は、処理をステップST4へ進める。
ステップST4において、操作ECU20は、操作判定部52として、映像に対する乗員の操作を判定する。操作ECU20は、映像の表面の投影位置を基準として、乗員の操作部位が映像に接触している状態にあるか否かを判定し、操作部位が映像を操作している状態にある場合にはさらに操作部位の接触形状、位置および動き(方向、速度)を判定する。接触形状は、たとえば接触している指の本数、手の位置などでよい。さらに、操作ECU20は、映像の表面の投影位置を基準として、操作部位が映像に接触するまでの残距離、操作部位が映像に対して接触している深さ、などを判定してもよい。
また、操作ECU20は、操作情報に基づいて、車室3の空間に投影されている映像のたとえばボタンといった所定の映像部分に対する乗員の操作がなされたと判断した場合、その乗員の操作による入力情報を生成する。
ステップST5において、操作ECU20は、操作判定部52として、判定した乗員の操作についての操作情報および操作による入力情報を、装置の内外へ出力する。操作ECU20は、操作情報を、映像生成部51、刺激応答出力部53、音応答出力部54、へ出力する。操作ECU20は、入力情報を、車内通信部41を通じて自動車1の各部へ出力する。
ステップST6において、操作ECU20は、操作情報に基づいて、操作に対する応答を触覚および音により出力する。
操作ECU20は、刺激応答出力部53として、操作情報に基づいて、映像に接触している状態にある乗員の操作部位の位置を特定し、その位置へ向けて超音波を出力するように、超音波を出力する複数の超音波素子65を選択し、刺激出力デバイス45へ電気信号を出力する。刺激出力デバイス45は、選択された複数の超音波素子65から超音波を出力する。乗員は、超音波による応答により、映像を操作している触感を得ることができる。
操作ECU20は、音応答出力部54として、操作情報に基づいて特定される映像に接触している状態にある乗員の操作部位の動き、および映像の接触箇所に応じて、メモリ47から音声データを選択し、音信号を音出力デバイス46へ出力する。音出力デバイス46は、音信号に基づく音を車室3へ出力する。これにより、乗員は、操作の応答音として、乗員の操作部位の動きおよび映像の接触箇所に応じて異なる音を聞くことができる。
ステップST7において、操作ECU20は、映像生成部51として、操作情報に基づいて、操作に対する応答のために、投影する3D映像を更新する。操作ECU20は、メモリ47に記録してある三次元モデルを読み込んで、投影用の映像データを更新し、3D映像投影デバイス43へ出力する。3D映像投影デバイス43は、更新された映像を、車室3へ投影する。これにより、乗員は、映像の変化により、映像に対して操作をしていることを視覚的に認識することができる。操作ECU20は、操作検出デバイス44により検出される同じ乗員の操作部位の操作情報に応じて、映像と刺激の出力とを同期するように更新する。
ステップST8において、操作ECU20は、非接触操作を終了するか否かを判断する。操作ECU20は、たとえば操作に基づく入力情報を出力し終えている場合、新たな表示指示がない場合、または、表示しているコンテンツが終了する場合、非接触操作を終了と判断し、図5の処理を終了する。それ以外の場合、操作ECU20は、処理をステップST3へ戻す。操作ECU20は、ステップST8において非接触操作を終了と判断するまで、ステップST3からステップST8の処理を繰り返す。この繰返処理の間、操作ECU20は、映像に対する乗員の操作に応じて、乗員の操作部位に対する刺激の応答、音の応答、映像の更新による応答の処理を繰り返す。すなわち、操作ECU20は、操作に応じて映像を更新する際に、超音波場による刺激の出力を、更新される映像に対応させて変更することになる。
以上のように、本実施形態では、操作ECU20は、自動車1の車室3へ投影される映像を生成し、操作検出デバイス44は、生成された映像を自動車1の車室3へ投影する。また、乗員の操作を検出する操作検出デバイス44は、車室3による空間に投影されている映像に対して非接触の操作をする乗員の操作部位を検出する。
刺激応答出力部53は、複数の超音波素子65が配列される素子アレイを有し、乗員の操作部位の操作情報に応じて、車室3による空間に投影されている映像に対して非接触の操作をする乗員の操作部位に対して、超音波場による刺激を操作に対する応答として出力する。これにより、乗員は、車室3の空間へ投影される映像に対する非接触の操作をすると、その操作をした操作部位に対して、操作に対する応答としての超音波場による刺激が与えられる。
また、操作ECU20は、操作検出デバイス44により検出される同じ乗員の操作部位の操作情報に応じて、刺激の出力と同期するように映像を更新する。これにより、乗員は、車室3の空間へ投影される映像に対する非接触の操作をすると、その操作をした映像が、操作に対する応答として変更される。
また、操作ECU20は、操作検出デバイス44により検出される同じ乗員の操作部位の操作情報に基づいて、乗員の操作部位の動きおよび映像の接触箇所に応じて異なる音を、音出力デバイス46から車室3へ出力する。これにより、乗員は、車室3の空間へ投影される映像に対する非接触の操作をすると、その操作に応じて異なる音を聞くことができる。
これらの視覚、触覚、および聴覚の組み合わせによる応答により、乗員は、車室3の空間へ投影される映像に対して実際に操作をしたかのような実感を得ることができる。乗員は、実際に操作している感覚を持ちながら、映像を操作することができる。
しかも、乗員は、実際には車室3の空間において操作部位を非接触に操作するため、車室3のたとえば内面やハンドル5などの操作部材のように直接に構造物に触れて操作する必要はない。車室3には、乗員は、実際が操作部位により操作をする空間そのものに、操作部位により直接に接触可能な操作部材を設ける必要はない。乗員の近くに、乗員の操作部位により直接に操作する操作部材を新たに配置することなく、乗員の操作性を改善できる。また、表示を変更することにより、複数の装置のそれぞれの操作に適した操作パネルなどを切り替えて投影することができる。
特に、本実施形態では、生成部および刺激応答出力部53は、操作検出デバイス44により検出される同じ乗員の操作部位の操作情報に応じて、映像と刺激の出力とを同期するように更新する。たとえば、操作に応じて生成部が映像を更新する際に、刺激応答出力部53は、超音波場による刺激の出力を、更新される映像に対応させて変更する。映像の更新により映像の表面形状または表面位置が変更されると、刺激応答出力部53は、変更後の映像の表面形状または表面位置を基準として、超音波場による刺激の出力の仕方または位置を更新する。しかも、映像生成部51および刺激応答出力部53は、車室3による空間に投影されている映像に対して非接触の操作をする乗員の操作部位を検出する検出デバイスにより検出される同じ乗員の操作部位の操作情報に応じて、映像と刺激の出力とを更新する。刺激は、映像そのものや映像の変化に対応して変化し得る。たとえば映像の変化に対して、刺激の変化が対応できる。乗員は、視覚から受ける感覚と触覚から受ける感覚との間に相違やずれによる違和感を生じ難くなる。これにより、映像に対して最初の操作をした後においても、操作に応じて映像および刺激が同期するように変更される。乗員は、映像に対する操作を開始した後の操作中においても、操作に応じて変化する映像に対して実際に操作している感覚を持ちながら、操作に応じて変化する映像の操作を継続することができる。映像と刺激とが同期して変化することにより、乗員は実態が存在しない操作部材を中空で操作しつづけたとしても、実感を持ったままその操作を継続することができる。
これに対し、映像の変化と刺激の変化とが同期して更新されるようになっていない場合、最初の映像に対する操作については、乗員は実感を持って操作することができるものの、その後の操作については実感を持って操作することが難しくなる。
[第二実施形態]
次に、本発明の第二実施形態に係る自動車1の非接触操作装置40を説明する。本実施形態では、上述した実施形態に対応する構成要素に対してと上述した実施形態と同じ符号を使用して、その説明を省略する。
図6は、第二実施形態での非接触操作処理の要部の流れを示すフローチャートである。図6は、たとえば図5のノードAの下側の点線枠の内側の処理に置き換えることが可能である。
本実施形態では、通信装置がコンテンツデータを受信し、非接触操作装置40は、車ネットワーク26を通じてコンテンツデータを外通信ECU19から取得して、映像を投影する。ユーザは、コンテンツとしての映像に対して操作をする。コンテンツデータを取得して投影する場合、非接触操作装置40の操作判定部52は、図5のステップST5において、操作による入力情報を装置の外へ出力する必要はない。
ステップST11において、操作ECU20は、すでに投影を始めているコンテンツの映像に対する乗員の操作の有無を判断する。操作ECU20は、たとえば操作検出デバイス44からたとえばステレオカメラ63の画像といった検出情報を取得し、乗員のたとえば指先といった所定の部位を抽出し、所定の操作部位についてのたとえば車室3での位置の変化や動きの有無に基づいて、映像に対する乗員の操作を検出する。操作ECU20は、乗員の操作部位が映像の投影位置の近くにある場合、乗員の操作部位が映像を操作していなくても、操作を検出したと判断する。映像に対する乗員の操作を検出しない場合、操作ECU20は、本ステップの判断処理を繰り返す。映像に対する乗員の操作を検出した場合、操作ECU20は、処理をステップST12へ進める。
ステップST12において、操作ECU20は、操作判定部52として、映像に対する乗員の操作を判定し、判定した操作情報を生成する。操作ECU20は、操作情報として、乗員の操作部位による映像操作の有無、操作部位の接触形状、位置および動き(方向、速度)、残距離、深さ、などを判定する。操作ECU20は、判定した操作情報を、映像生成部51、刺激応答出力部53、へ出力する。操作ECU20は、必要がある場合、操作情報に基づいて、操作による入力情報を判定して、車ネットワーク26を通じて装置の外へ出力してよい。通信装置は、操作による入力情報を取得して、自動車1の外へ送信してもよい。
ステップST13において、操作ECU20は、操作判定部52として、乗員の操作部位による映像への操作が、映像の表面またはその近傍での操作であるか否かを判断する。映像の表面またはその近傍での操作でない場合、操作ECU20は、処理をステップS12へ戻す。映像の表面またはその近傍での操作である場合、操作ECU20は、処理をステップS14へ進める。
ステップST14において、操作ECU20は、刺激応答出力部53として、映像の表面またはその近傍での操作についての操作情報に基づいて、乗員の操作部位に与える刺激の種類を選択する。操作ECU20は、メモリ47において予め複数の操作情報と対応付けて分類されている複数の刺激の中から、今回の操作情報に基づいて1つの刺激の種類を選択する。
ステップST15において、操作ECU20は、刺激応答出力部53として、刺激の出力位置、強度を設定する。操作ECU20は、操作情報に基づいて、映像に接触している状態にある乗員の操作部位の位置を、刺激の出力位置として設定する。操作ECU20は、選択した刺激の種類に基づいて、刺激の出力強度を設定する。
ステップST16において、操作ECU20は、刺激応答出力部53として、刺激の出力を開始する。操作ECU20は、ステップST15で選択した位置へ向けて、超音波を出力する複数の超音波素子65を選択し、刺激の出力強度に対応する超音波を出力するように、刺激出力デバイス45へ電気信号を出力する。刺激出力デバイス45は、選択された複数の超音波素子65から、刺激の出力強度に対応する出力で超音波を出力する。乗員は、選択された刺激により、映像を触って操作している触感を得ることができる。
ステップST17において、操作ECU20は、刺激の出力を終了するか否かを判断する。操作ECU20は、たとえばコンテンツにおいて刺激出力の停止が指示されている場合、コンテンツが終了する場合、出力終了と判断し、図6の処理を終了する。それ以外の場合、操作ECU20は、処理をステップST18へ進める。
ステップST18において、操作ECU20は、操作判定部52として、たとえばステップST11の実行後の新たな操作検出デバイス44のステレオカメラ63の画像に基づいて、映像に対する乗員の次の操作を判定して、操作情報を更新する。操作ECU20は、判定した操作情報を、映像生成部51、刺激応答出力部53、へ出力する。
ステップST19において、操作ECU20は、刺激応答出力部53として、更新された操作情報に基づいて、刺激の内容を変更する。操作ECU20は、更新された操作情報に基づいて、乗員の操作部位に与える刺激の種類を選択する。また、操作ECU20は、刺激の出力位置、強度を設定して、超音波を出力する複数の超音波素子65を選択し、刺激出力デバイス45へ電気信号を出力する。刺激出力デバイス45は、選択された複数の超音波素子65から、映像に接触している状態にある乗員の操作部位へ向けて、刺激の出力強度に対応する超音波を出力する。乗員は、映像を触る操作により更新された刺激により、触感の変化を得ることができる。
ステップST20において、操作ECU20は、映像生成部51として、更新された操作情報に基づいて、投影する映像を更新する。操作ECU20は、コンテンツデータから操作された三次元モデルを生成し、操作された三次元モデルから投影用の映像データを生成する。操作ECU20は、更新した投影用の映像データを3D映像投影デバイス43へ出力する。3D映像投影デバイス43は、更新された投影用の映像データによる映像を、車室3の空間に投影する。これにより、乗員の前に投影される三次元モデルの映像は、乗員の操作部位による映像操作に対応するように変形または移動した映像へ更新される。その後、操作ECU20は、処理をステップST17へ戻す。
操作ECU20は、ステップST17において出力終了と判断するまで、ステップST17からステップST20の処理を繰り返す。この繰返処理の間、操作ECU20は、映像に対する乗員の操作に応じて、乗員の操作部位に対する刺激の応答、映像の更新による応答の処理を繰り返す。これにより、操作ECU20は、操作に応じて映像を更新する際に、超音波場による刺激の出力を、更新される映像に対応させて変更することにもなる。
図7は、図6のステップST19の刺激内容変更処理の流れを示すフローチャートである。
ステップST31において、刺激応答出力部53としての操作ECU20は、更新された操作情報に基づいて、更新前と比べて、乗員の操作部位についての映像の表面までの距離が変化したか否かを判断する。映像の表面までの距離が変化していない場合、操作ECU20は、図7の処理を終了する。この場合、触感への刺激応答は、操作情報の更新前の状態から変更されない。映像の表面までの距離が変化している場合、操作ECU20は、処理をステップST32へ進める。
ステップST32において、操作ECU20は、更新された操作情報に基づいて、映像の表面までの距離が変化した乗員の操作部位について、映像の表面と接触したか否かを判断する。更新された操作情報において映像の表面と接触していない場合、操作ECU20は、処理をステップST33へ進める。更新された操作情報において映像の表面と接触している場合、操作ECU20は、処理をステップST34へ進める。
ステップST33において、操作ECU20は、映像の表面と接触していないため、刺激の出力を、同一刺激に維持する。また、操作ECU20は、更新された操作情報での残距離または深さに応じた強度へ変更する。この場合、刺激応答は、更新前のものと同じ刺激であり、その強度のみが操作情報に応じて増減する。その後、操作ECU20は、図7の処理を終了する。
ステップST34において、操作ECU20は、更新された操作情報より前の操作情報において、乗員の操作部位がすでに映像と接触していたか否かを判断する。映像と接触していなかった場合、操作ECU20は、処理をステップST35へ進める。すでに映像と接触していた場合、操作ECU20は、処理をステップST36へ進める。
ステップST35において、操作ECU20は、今回更新された操作情報において乗員の操作部位が映像と接触し始めたことから、刺激を変更する。操作ECU20は、更新された操作情報に基づいて、乗員の操作部位に与える刺激の種類を選択する。また、操作ECU20は、刺激の出力位置、強度を設定して、超音波を出力する複数の超音波素子65を選択し、刺激出力デバイス45へ電気信号を出力する。刺激出力デバイス45は、選択された複数の超音波素子65から、映像に接触している状態にある乗員の操作部位へ向けて、刺激の出力強度に対応する超音波を出力する。乗員は、映像に接触し始めたことにより変更された刺激により、映像に接触していない状態から、映像に接触している状態へ、操作が変化したことを体感することができる。乗員は、接触の前後の触感を得ることができる。その後、操作ECU20は、図7の処理を終了する。
ステップST36において、操作ECU20は、乗員の操作部位がすでに映像と接触していることから、同じ出力を継続する。操作ECU20は、刺激出力デバイス45により、前回と同じ刺激を出力する。乗員は、映像の表面に接触している状態について、一定の触感を得ることができる。その後、操作ECU20は、図7の処理を終了する。
図8は、図6のステップST20の映像更新処理の流れを示すフローチャートである。
ステップST41において、映像生成部51としての操作ECU20は、更新された操作情報に基づいて、乗員の操作部位が映像に接触しているか否かを判断する。乗員の操作部位が映像と接触していない場合、操作ECU20は、図8の処理を終了する。この場合、映像は、操作情報の更新前の状態から変更されない。それ以外の場合、操作ECU20は、処理をステップST42へ進める。
ステップST42において、操作ECU20は、更新された操作情報に基づいて、乗員の操作部位が接触している映像の接触箇所が、映像変化が可能なエリアであるか否かを判断する。接触している映像の接触箇所が映像変化の可能エリアである場合、操作ECU20は、処理をステップST43へ進める。映像の接触箇所が映像変化の可能エリアでない場合、操作ECU20は、処理をステップST44へ進める。
ステップST43において、操作ECU20は、更新された操作情報に基づいて、映像変化可能エリアである映像の接触箇所を、操作に応じて変形させるように、映像を更新する。3D映像投影デバイス43は、更新された投影用の映像データによる映像を、車室3の空間に投影する。これにより、乗員の前に投影される三次元モデルの映像の形状は、乗員の操作部位による映像操作に対応するように変形する。投影される映像の形状は、接触している操作に応じて変化する。その後、操作ECU20は、処理をステップST44へ進める。
ステップST44において、操作ECU20は、更新された操作情報に基づいて、映像の位置や向きを移動させる必要があるか否かを判断する。映像の位置や向きを移動させる必要がない場合、操作ECU20は、図8の処理を終了する。映像の位置や向きを移動させる必要がある場合、操作ECU20は、処理をステップST45へ進める。
ステップST45において、操作ECU20は、更新された操作情報に基づいて、映像を操作に応じて移動または回転させるように、映像を更新する。3D映像投影デバイス43は、更新された投影用の映像データによる映像を、車室3の空間に投影する。
これにより、乗員の前に投影される三次元モデルの映像の位置や向きは、乗員の操作部位による映像操作に対応するように更新される。投影される映像の位置や向きは、接触している操作に応じて変化する。その後、操作ECU20は、図8の処理を終了する。
このような処理により、操作ECU20は、以下のような視覚と触覚とで協調した操作応答を実現できる。
たとえば、操作ECU20は、映像についての、乗員の操作部位により操作される接触箇所に応じて、映像の接触箇所の変形、映像の移動、およびそれらの組み合わせ、により、映像を更新する。そして、映像の接触箇所を変形させるように映像を更新する場合、操作ECU20は、映像の応答に用いたものと同じ操作情報に基づいて、超音波場による刺激の出力レベルまたは出力の仕方を変化させることができる。また、映像を移動させるように映像を更新する場合、操作ECU20は、超音波場による刺激の出力範囲または出力位置を、同じ方向へずらすことができる。たとえば、操作ECU20は、乗員の操作部位の動き方向へ沿って、映像と刺激の出力とを移動させることができる。また、操作ECU20は、乗員の操作部位の動き速度に応じた量で、映像と刺激の出力とを移動させることができる。
この他にもたとえば、操作ECU20は、映像の投影位置と操作情報とに基づいて判定できる、映像についての、乗員の操作部位により操作される接触箇所(エリア)に応じて、異なる刺激を出力することができる。操作ECU20は、操作情報に基づいて判定できる、乗員の操作部位の動き方向および動き速度に応じて、異なる刺激を出力することができる。操作ECU20は、映像に触れる際のジェスチャに応じて、異なる刺激を出力することができる。たとえば、操作ECU20は、映像の更新による形状の変化に合わせて、形状の変化後の刺激を、形状の変化前の刺激から変化させることができる。また、操作ECU20は、映像の更新により乗員の操作部位と映像との接触量の変化に合わせて、映像の更新後の刺激を、映像の更新前の刺激から増減させることができる。
次に、車室3の空間に表示する映像と、それに対する操作および応答との組み合わせの具体例について説明する。
(具体例1)
操作ECU20は、3D映像投影デバイスにより、車室3のダッシュボードの上となる空間に、犬の3D映像を投影する。
乗員は、ダッシュボードの上の映像へ手を伸ばして、3D映像の犬を掌でなでる。
操作ECU20は、操作検出デバイス44により掌を検出し、3D映像の犬の表面の位置を基準として3D映像の犬をなでる掌の位置および動きを判定する。
操作ECU20は、判定した掌のなでる動きについての操作情報に応答するように、刺激出力デバイス45から掌へ向けて超音波を出力して刺激を与え、音出力デバイス46から犬の鳴き声を出力する。
また、操作ECU20は、同じ操作情報に基づいて、投影している犬の3D映像を変化させる。操作ECU20は、掌が接触している映像の接触箇所に応じて、映像を更新する。操作ECU20は、投影する犬の3D映像を、接触箇所での接触に反応している映像へ変更する。操作ECU20は、投影する犬の3D映像を、掌の操作方向へ移動させるように更新する。
なお、これらの一連の制御において、操作ECU20は、接触刺激を、投影している犬の表面を基準として、所定距離以内へ乗員の掌が近づくと、刺激出力デバイス45から掌へ向けて超音波を出力して刺激を与えてもよい。この場合、操作ECU20は、乗員の掌から映像の表面までの距離が短くなるほど、刺激出力デバイス45から掌へ向けて出力して刺激を強くしてよい。刺激は、映像の表面において極大としてよい。
このように、操作ECU20は、乗員の掌による映像への操作を検出し、その操作に応じて犬の3D映像と触覚への刺激応答とを同期して更新できる。3D映像と音波場とは、同期して移動することができる。
(具体例2)
操作ECU20は、3D映像投影デバイスにより、車室3の空間に、キャラクタの3D映像を投影する。
乗員は、映像へ手を伸ばして、3D映像のキャラクタのお腹を指で押す。
操作ECU20は、操作検出デバイス44により指を検出し、3D映像の表面位置を基準として指の位置および動きを判定する。
操作ECU20は、判定した指の押す動きについての操作情報に応答するように、投影しているキャラクタの3D映像を変化させる。操作ECU20は、3D映像を、指により操作された接触箇所を凹ませた映像へ変更する。
操作ECU20は、同じ操作情報に基づいて、刺激出力デバイス45から指先へ向けて超音波を出力して刺激を与える。操作ECU20は、3D映像の押される前の当初の表面位置を基準として、指の先端についての、映像の表面位置からの侵入深さ(映像の凹み量)に応じて増加する超音波を、刺激出力デバイス45から出力する。これにより、映像が指により弾性変形している触感を、指に与えることができる。
(具体例3)
操作ECU20は、3D映像投影デバイスにより、車室3の空間に、硬質な部位と、軟質な部位とを有するキャラクタの3D映像を投影する。
なお、投影する映像についての各部の質のパラメータは、たとえばポリゴンデータに1つの属性として持たせればよい。また、操作ECU20は、3Dモデルでの各部の位置に応じて、AI処理などにより独自に各部の質を判定してもよい。
乗員は、映像へ手を伸ばして、3D映像のキャラクタを指で押す。
操作ECU20は、操作検出デバイス44により指を検出し、3D映像の表面位置を基準として指の位置および動きを判定する。
操作ECU20は、判定した指の押す動きについての操作情報に応答するように、投影しているキャラクタの3D映像を変化させる。
映像についての指で押された部位が硬質な部位である場合、操作ECU20は、指により操作された映像を、指の操作方向へ移動させる。操作ECU20は、指の押しの速度および量に応じた移動量で、映像を移動させる。
映像についての指で押された部位が軟質な部位である場合、操作ECU20は、指により操作された接触箇所を、指の操作方向へ凹ませる。操作ECU20は、指の押しの速度および量に応じた凹み量で、映像を変形させる。
操作ECU20は、同じ操作情報に基づいて、刺激出力デバイス45から指先へ向けて超音波を出力して刺激を与える。
映像についての指で押された部位が硬質な部位である場合、操作ECU20は、3D映像の前回の表面位置を基準として、指の先端についての、映像の表面位置からの侵入量に応じて急激に増加する超音波を、指の先端部位のみへ、刺激出力デバイス45から出力する。
映像についての指で押された部位が軟質な部位である場合、操作ECU20は、3D映像の前回の表面位置を基準として、指の先端についての、映像の表面位置からの侵入量に応じてゆっくりと増加する超音波を、指の全体へ、刺激出力デバイス45から出力する。
これにより、映像の各部の質感を、指の触感により乗員に与えることができる。
たとえば投影されるキャラクタの固い部分を操作すると、キャラクタは、少ない凹みで変形しつつ、速いスピードで大きく移動する。操作ECU20は、この変形および移動に応じた刺激を、乗員の指先のみへ出力できる。
また、キャラクタの柔らかい部分を操作すると、映像は、大きな凹みで変形しつつ、遅いスピードで少しだけ移動する。操作ECU20は、この変形および移動に応じた刺激を、乗員の指の全体へ出力できる。
このように、3D映像への乗員の接触箇所と、操作部位の動き(操作方向、操作速度および操作量)とに基づいて、映像の変形と移動とを切り換え、さらに触覚への刺激を異ならせるように切り替えることにより、乗員に映像の各部の質感の違いを認識させることができる。
(具体例4)
操作ECU20は、3D映像投影デバイスにより、車室3の空間に、キャラクタの頭部の3D映像を投影する。
なお、投影する映像についての頭部の眼、鼻、口、耳、頬、毛髪などの各部の属性は、たとえばポリゴンデータに持たせればよい。また、操作ECU20は、3Dモデルでの各部の位置に応じて、AI処理などにより独自に各部の質を判定してもよい。
乗員は、映像へ手を伸ばして、掌で3D映像の頭部を触る。
操作ECU20は、操作検出デバイス44により掌を検出し、3D映像の表面位置を基準として掌の位置および動きを判定する。
操作ECU20は、判定した掌の動きについての操作情報に応答するように、投影しているキャラクタの3D映像を変化させる。
たとえば掌で毛髪をなでている場合、操作ECU20は、なでられた毛髪の映像を、頭部の表面に沿った曲面内で揺らすように、映像を更新する。
指で頬を押している場合、操作ECU20は、押された頬が凹むように、映像を更新する。
操作ECU20は、同じ操作情報に基づいて、刺激出力デバイス45から掌へ向けて超音波を出力して刺激を与える。
頭部の表面に沿った曲面に沿って毛髪を掌でなでている場合、操作ECU20は、刺激出力デバイス45から弱く変動する超音波を掌の全体へ向けて出力する。これにより、乗員は、揺れる毛髪についてのさらさらして滑らかな触感を得ることができる。
頬の部位を、頭部の表面に対して略垂直に指で押している場合、操作ECU20は、頭部の当初の表面位置を基準として、表面位置からの侵入量に応じて変動しながら増加する強い超音波を、刺激出力デバイス45から指の先端へ向けて出力する。超音波は、指の先端の全周へ向けて圧迫感を与えるように出力されてよい。超音波は、映像に進入した指や拳の体積などに応じて無段階で強くしてよい。超音波は、映像の形状の変化に応じて変動させてよい。これにより、乗員は、押した頬についての揺れながら凹むような触感を得ることができる。
このようにキャラクタの頭部についての接触箇所と、操作部位の接触速度、接触方向の組合せに応じて刺激を異ならせることにより、乗員は、本当の頭部を触っているかのような触感を得ることができる。
操作ECU20は、頭部の各部ごとに複数のジェスチャ(操作の仕方)を分類したパターンをメモリ47から取得し、これに基づいて、頭部の各部に対する操作の種別を判断してもよい。また、肌、髪、服、固定物といった接触箇所を分類してもよい。
また、操作ECU20は、操作の仕方などのジェスチャに応じて、超音波を出力する期間や、超音波の減衰速度などを異ならせてもよい。これにより、素早い接触と、長い接触の場合とのそれぞれにおいて刺激の更新のされ方を異ならせることができる。叩くような強くて短い刺激には、インパルス的に大きく増減する刺激を応答出力しつつ、なでるような弱くて長い刺激には、ゆっくりと小さく増減する刺激を応答出力することができる。
このように、3D映像への乗員の接触箇所と、操作部位の動き(操作方向、操作速度および操作量)とに基づいて、映像の変形と移動とを切り換え、さらに触覚への刺激を異ならせるように切り替えることにより、乗員に映像の各部の質感の違いや操作の内容を認識させることができる。
(具体例5)
操作ECU20は、3D映像投影デバイスにより、車室3の空間に、キャラクタの腕の3D映像を投影する。
なお、投影する映像についての腕の可動範囲などの属性は、たとえばポリゴンデータに持たせればよい。また、操作ECU20は、3Dモデルでの各部の位置に応じて、AI処理などにより独自に各部の属性を判定してもよい。
乗員は、映像へ手を伸ばして、映像の腕を手で持って動かす。
操作ECU20は、操作検出デバイス44により乗員の手を検出し、3D映像の表面位置を基準として手の位置および動きを判定する。
操作ECU20は、判定した手の動きについての操作情報に応答するように、投影しているキャラクタの3D映像を変化させる。
たとえば手で映像の腕を持って動かしている場合、操作ECU20は、手の位置や動きに合わせて腕の映像を動かすように、映像を更新する。操作ECU20は、可動範囲において、腕の映像を動かすように、映像を更新する。
操作ECU20は、同じ操作情報に基づいて、刺激出力デバイス45から手へ向けて超音波を出力して刺激を与える。
腕が可動範囲において動かされている場合、操作ECU20は、腕の重さや腕を抑える抵抗に応じた超音波を手へ向けて出力する。これにより、乗員は、重さのある腕を持っているような触感、または抵抗する腕を持っているような触感、を得ることができる。
腕が可動範囲を超えて動かされている場合、操作ECU20は、可動範囲で出力するものより大きい超音波を手へ向けて出力する。これにより、乗員は、可動範囲を超えて腕を動かそうとする場合に作用するような強い反力の触感、を得ることができる。
このように3D映像への乗員の接触箇所と、操作部位の動き(操作方向、操作速度および操作量)とに基づいて、映像の変形と移動とを切り換え、さらに触覚への刺激を異ならせるように切り替えることにより、乗員に映像の各部の質感の違いや操作の内容を認識させることができる。
(具体例6)
操作ECU20は、3D映像投影デバイスにより、車室3の空間に、指で押したら凹むことができる人や動物といったキャラクタ、または指で押しても凹まないスイッチなどの構造物の3D映像を投影する。
なお、投影する映像についての、キャラクタや構造物といった種別の属性は、たとえばポリゴンデータに持たせればよい。また、操作ECU20は、3Dモデルに基づいて、AI処理などにより独自に種別を判定してもよい。
乗員は、映像へ手を伸ばして、映像を指で押す。
操作ECU20は、操作検出デバイス44により乗員の指を検出し、3D映像の表面位置を基準として指の位置および動きを判定する。
操作ECU20は、判定した指の動きについての操作情報に応答するように、表示する映像の種別に応じて、投影しているキャラクタの3D映像を変化させる。
たとえばキャラクタを表示している場合、操作ECU20は、指の位置や動きに合わせてキャラクタの3D映像が操作箇所において凹むように、映像を更新する。
スイッチなどの構造物を表示している場合、操作ECU20は、指の位置や動きによって構造物の3D映像が操作箇所において凹むことがないように、映像を更新する。操作ECU20は、スイッチの色などを変更するように、映像を更新する。この場合、操作する指先は、3D映像の表面の裏側へ入り込むことになる。操作ECU20は、指先が映像の裏側へ入り込んだ場合、スイッチの色を薄くして半透過とし、構造物の内部構造をスケルトン表示するようにしてもよい。操作ECU20は、指の動きに応じて、構造物の3D映像を移動させてもよい。
操作ECU20は、同じ操作情報に基づいて、刺激出力デバイス45から指へ向けて超音波を出力して刺激を与える。
たとえばキャラクタを表示している場合、操作ECU20は、キャラクタの当初の投影位置を基準として、指が入り込んだ量に応じた強さの超音波を、指先の周囲へ向けて出力する。
スイッチなどの構造物を表示している場合、操作ECU20は、一定の強さの超音波を、指先へ向けて出力する。
このように3D映像により投影する物に応じて、映像の変形を切り換え、さらに触覚への刺激を異ならせるように切り替えることにより、乗員には投影される映像の種別に応じた操作感の違いを認識することができる。
以上のように、本発明の実施形態では、車室3の空間に投影される映像に対して乗員が操作をすると、その操作情報に基づいて、投影する映像を更新し、操作部位へ超音波を出力し、音を出力する。これにより、車室3の空間に投影される映像に対して非接触の操作をした乗員は、視覚、触覚、聴覚により操作内容に応じた応答を受け、リアルな操作感を得ることができる。
このような非接触操作装置40は、たとえば車室3内で図1(C)のようにくつろいで横たわる乗員に対して、単に操作部材の映像による良好なユーザインタフェースを提供できるだけでなく、高いエンターテインメント性を有するコンテンツを提供する場合に好適に利用することができる。乗員などのユーザは、操作内容に応じて異なる応答を受け取ることにより、多彩な操作をそれぞれの操作について操作の実感を持ちながら、連続的に操作をすることができる。
以上の実施形態は、本発明の好適な実施形態の例であるが、本発明は、これに限定されるのもではなく、発明の要旨を逸脱しない範囲において種々の変形または変更が可能である。
たとえば上記実施形態では、非接触操作装置40は、自動車1といった車両に設けられている。
この他にもたとえば、非接触操作装置40は、ユーザが使用する家具や家電製品に設けられてもよい。また、非接触操作装置40は、車両、家具または家電製品と別体に設けられ、ユーザが自ら車両、家具または家電製品に対して設置できるものでもよい。
1…自動車(車両)、2…車体、3…車室、4…シート、10…制御系、19…外通信ECU、20…操作ECU、40…非接触操作装置、41…車内通信部、42…タイマ、43…3D映像投影デバイス、44…操作検出デバイス、45…刺激出力デバイス、46…音出力デバイス、47…メモリ、51…映像生成部、52…操作判定部、53…刺激応答出力部、54…音応答出力部、61…表示スクリーン、62…ハーフミラー、63…ステレオカメラ、64…四角枠体、65…超音波素子

Claims (10)

  1. 車両の車室の空間へ映像を投影する投影デバイスと、
    前記投影デバイスにより投影される前記映像を生成および更新する生成部と、
    前記車室の前記空間に投影されている前記映像に対して操作をする前記車両の乗員の操作部位に対して、超音波場による触覚刺激を前記操作に対する応答として出力する刺激応答出力部と、
    前記車室の前記空間に投影されている前記映像に対して非接触の操作をする前記乗員の前記操作部位を検出する検出デバイスと、
    を有し、
    前記生成部および前記刺激応答出力部は、前記検出デバイスにより検出される前記乗員の前記操作部位の操作情報に応じて、前記映像と前記触覚刺激の出力とを更新する、ものであり、
    前記刺激応答出力部は、前記映像についての、前記乗員の前記操作部位により操作される接触箇所、前記乗員の前記操作部位の動き方向、および、前記乗員の前記操作部位の動き速度に応じて異なる前記触覚刺激を出力し、
    前記生成部および前記刺激応答出力部は、前記検出デバイスにより検出される前記乗員の前記操作部位の操作情報に応じて前記映像と前記触覚刺激の出力とを更新する際に、
    前記乗員の前記操作部位についての前記映像の表面までの距離が変化したか否かを判断し、前記映像の表面までの距離が変化している場合には、さらに、前記乗員の前記操作部位が前記映像の表面と接触したか否かと、前記乗員の前記操作部位がすでに前記映像と接触していたか否かと、を判断し、
    前記乗員の前記操作部位が前記映像の表面と接触していない場合には、前記映像の表面までの残距離または深さに応じた強度に変更しながら、刺激の出力を維持し、
    前記乗員の前記操作部位が前記映像の表面と接触しているがすでに前記映像と接触していない場合には、刺激の種類を変更し、
    前記乗員の前記操作部位が前記映像の表面と接触していて且つすでに前記映像と接触していた場合には、同じ出力を継続する、
    車両の非接触操作装置。
  2. 前記生成部により生成される前記映像は、投影する部位ごとに異なる属性を持ち、
    前記刺激応答出力部は、前記乗員の前記操作部位により操作される接触箇所となる前記部位に応じて異なる前記触覚刺激を出力する、
    請求項1記載の車両の非接触操作装置。
  3. 前記刺激応答出力部は、操作に応じて前記生成部が前記映像を更新する際に、前記超音波場による触覚刺激の出力を、更新される前記映像に対応させて変更する、
    請求項1または2記載の車両の非接触操作装置。
  4. 前記生成部は、前記映像についての、前記乗員の前記操作部位により操作される前記接触箇所に応じて、前記映像の前記接触箇所の変形、前記映像の移動、およびそれらの組み合わせ、により、前記映像を更新し、
    前記刺激応答出力部は、
    前記生成部が前記映像の前記接触箇所を変形させるように前記映像を更新する場合、前記超音波場による触覚刺激の出力を変化させ、
    前記生成部が前記映像を移動させるように前記映像を更新する場合、前記超音波場による触覚刺激の出力を、同じ方向へずらす、
    請求項1から3のいずれか一項記載の車両の非接触操作装置。
  5. 前記生成部および前記刺激応答出力部は、前記乗員の前記操作部位の動き方向へ沿って、前記映像と前記触覚刺激の出力とを移動させる、
    請求項4記載の車両の非接触操作装置。
  6. 前記生成部および前記刺激応答出力部は、前記乗員の前記操作部位の動き速度に応じた量で、前記映像と前記触覚刺激の出力とを移動させる、
    請求項4または5記載の車両の非接触操作装置。
  7. 前記刺激応答出力部は、前記生成部の更新による前記映像の形状の変化に合わせて、前記形状の変化後の前記触覚刺激を、前記形状の変化前の前記触覚刺激から変化させる、
    請求項1から6のいずれか一項記載の車両の非接触操作装置。
  8. 前記刺激応答出力部は、前記生成部による前記映像の更新により前記乗員の前記操作部位と前記映像との接触量の変化に合わせて、前記映像の更新後の前記触覚刺激を、前記映像の更新前の前記触覚刺激から増減させる、
    請求項1から7のいずれか一項記載の車両の非接触操作装置。
  9. 前記車室へ音を出力する音出力デバイスと、
    前記車室に投影されている前記映像に対する前記乗員の前記操作部位の動き、および前記映像の前記接触箇所に応じて異なる音を、前記音出力デバイスから出力する音応答出力部と、
    を有する、
    請求項1から8のいずれか一項記載の車両の非接触操作装置。
  10. 請求項1から9のいずれか一項記載の非接触操作装置と、
    前記非接触操作装置とネットワークを通じて接続され、車両を制御する被制御装置と、
    前記非接触操作装置とネットワークを通じて接続され、前記車両の外と通信する通信装置と、
    を有し、
    前記非接触操作装置は、前記通信装置が受信するコンテンツを映像として投影する、
    車両。
JP2019060596A 2019-03-27 2019-03-27 車両の非接触操作装置、および車両 Active JP7377615B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019060596A JP7377615B2 (ja) 2019-03-27 2019-03-27 車両の非接触操作装置、および車両
CN202010010056.0A CN111746398A (zh) 2019-03-27 2020-01-06 车辆的非接触操作装置和车辆
DE102020101297.7A DE102020101297A1 (de) 2019-03-27 2020-01-21 Berührungsfreie betriebsvorrichtung für fahrzeuge und fahrzeug
US16/751,382 US11385715B2 (en) 2019-03-27 2020-01-24 Non-contact operating apparatus for vehicle and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060596A JP7377615B2 (ja) 2019-03-27 2019-03-27 車両の非接触操作装置、および車両

Publications (2)

Publication Number Publication Date
JP2020160874A JP2020160874A (ja) 2020-10-01
JP7377615B2 true JP7377615B2 (ja) 2023-11-10

Family

ID=72607830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060596A Active JP7377615B2 (ja) 2019-03-27 2019-03-27 車両の非接触操作装置、および車両

Country Status (4)

Country Link
US (1) US11385715B2 (ja)
JP (1) JP7377615B2 (ja)
CN (1) CN111746398A (ja)
DE (1) DE102020101297A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7310729B2 (ja) * 2020-06-19 2023-07-19 トヨタ自動車株式会社 情報処理装置、情報処理システム、プログラム、及び車両
JP2022113411A (ja) 2021-01-25 2022-08-04 マクセル株式会社 空間浮遊映像表示装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353183A (ja) 1999-06-09 2000-12-19 Agency Of Ind Science & Technol 三次元構造体作製システム
JP2006244231A (ja) 2005-03-04 2006-09-14 Xanavi Informatics Corp 入力制御装置、および入力制御方法
WO2009035100A1 (ja) 2007-09-14 2009-03-19 National Institute Of Advanced Industrial Science And Technology バーチャルリアリティ環境生成装置及びコントローラ装置
JP2011096171A (ja) 2009-11-02 2011-05-12 National Institute Of Information & Communication Technology 多感覚インタラクションシステム
WO2012011321A1 (ja) 2010-07-23 2012-01-26 日本電気株式会社 立体表示装置及び立体表示方法
WO2012095944A1 (ja) 2011-01-11 2012-07-19 トヨタ自動車 株式会社 サービス配信装置及びサービス表示装置
JP2015089073A (ja) 2013-11-01 2015-05-07 クラリオン株式会社 情報表示システムおよび車載装置
JP2017027401A (ja) 2015-07-23 2017-02-02 株式会社デンソー 表示操作装置
JP2018206149A (ja) 2017-06-06 2018-12-27 オムロン株式会社 入力装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170029320A (ko) * 2015-09-07 2017-03-15 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10877559B2 (en) * 2016-03-29 2020-12-29 Intel Corporation System to provide tactile feedback during non-contact interaction
US11170580B2 (en) * 2017-02-16 2021-11-09 Sony Corporation Information processing device, information processing method, and recording medium
JP6950390B2 (ja) * 2017-09-15 2021-10-13 富士通株式会社 表示制御プログラム、装置、及び方法
US11221741B2 (en) * 2018-08-30 2022-01-11 Sony Corporation Display control of interactive content based on direction-of-view of occupant in vehicle

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353183A (ja) 1999-06-09 2000-12-19 Agency Of Ind Science & Technol 三次元構造体作製システム
JP2006244231A (ja) 2005-03-04 2006-09-14 Xanavi Informatics Corp 入力制御装置、および入力制御方法
WO2009035100A1 (ja) 2007-09-14 2009-03-19 National Institute Of Advanced Industrial Science And Technology バーチャルリアリティ環境生成装置及びコントローラ装置
JP2011096171A (ja) 2009-11-02 2011-05-12 National Institute Of Information & Communication Technology 多感覚インタラクションシステム
WO2012011321A1 (ja) 2010-07-23 2012-01-26 日本電気株式会社 立体表示装置及び立体表示方法
WO2012095944A1 (ja) 2011-01-11 2012-07-19 トヨタ自動車 株式会社 サービス配信装置及びサービス表示装置
JP2015089073A (ja) 2013-11-01 2015-05-07 クラリオン株式会社 情報表示システムおよび車載装置
JP2017027401A (ja) 2015-07-23 2017-02-02 株式会社デンソー 表示操作装置
JP2018206149A (ja) 2017-06-06 2018-12-27 オムロン株式会社 入力装置

Also Published As

Publication number Publication date
CN111746398A (zh) 2020-10-09
US20200310546A1 (en) 2020-10-01
DE102020101297A1 (de) 2020-10-01
US11385715B2 (en) 2022-07-12
JP2020160874A (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
CN104750247B (zh) 使用单个控制器和支持触觉的用户接口控制多个显示器的系统和方法
CN109710055A (zh) 车载智能交互系统和车载交互终端的交互控制方法
JP7377615B2 (ja) 車両の非接触操作装置、および車両
CN114746304B (zh) 座椅系统
CN112752675B (zh) 用于操作座椅系统的方法、座椅系统和运输工具
CN112092704A (zh) 用于自动驾驶车辆的娱乐装置
JP2019086805A (ja) 車内システム
JP7336228B2 (ja) 車両の非接触操作装置、および車両
EP4023493B1 (en) Vibration generating method for vehicle
JP7304184B2 (ja) 車両の非接触操作装置、および車両
JP2006047478A (ja) バーチャルリアリティ演出装置、バーチャルリアリティ演出制御装置及びバーチャルリアリティ演出制御プログラム
US20220194264A1 (en) Seat system
JP7290972B2 (ja) 車両の同乗者コミュニケーション装置
CN114067032A (zh) 一种车内全息卡通影像仿真交互方法
CN107783647A (zh) 柔性屏输入设备及信息娱乐系统
JP7108716B2 (ja) 画像表示装置、画像表示システムおよび画像表示方法
JP2021039260A (ja) 提示装置
CN116533910A (zh) 车辆部件调节方法、装置、车辆及程序产品
JP2024043115A (ja) シート用振動伝達装置、シート用振動制御装置、振動伝達シート、及び振動伝達装置の制御方法
JPH07244746A (ja) 画像表示システム
KR20220122056A (ko) 차량의 인테리어 디스플레이 제어 장치 및 방법
JP2023104401A (ja) 情報処理装置、車載仮想表示装置、仮想表示システムおよび仮想体験提供方法
JP2024149537A (ja) シートシステム
JP2021099562A (ja) 制御装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20221223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230803

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231030

R150 Certificate of patent or registration of utility model

Ref document number: 7377615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150