[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6900133B2 - ジェスチャー操作装置およびジェスチャー操作方法 - Google Patents

ジェスチャー操作装置およびジェスチャー操作方法 Download PDF

Info

Publication number
JP6900133B2
JP6900133B2 JP2019567457A JP2019567457A JP6900133B2 JP 6900133 B2 JP6900133 B2 JP 6900133B2 JP 2019567457 A JP2019567457 A JP 2019567457A JP 2019567457 A JP2019567457 A JP 2019567457A JP 6900133 B2 JP6900133 B2 JP 6900133B2
Authority
JP
Japan
Prior art keywords
display
gesture operation
operator
gesture
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019567457A
Other languages
English (en)
Other versions
JPWO2019146032A1 (ja
Inventor
直志 宮原
直志 宮原
下谷 光生
光生 下谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019146032A1 publication Critical patent/JPWO2019146032A1/ja
Application granted granted Critical
Publication of JP6900133B2 publication Critical patent/JP6900133B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ジェスチャー操作装置およびジェスチャー操作方法に関し、特に、操作者にジェスチャー操作を誘導するジェスチャー操作装置およびジェスチャー操作方法に関する。
従来、運転者などの操作者がジェスチャー操作することによって、音量調整または着信応答などを行うジェスチャー操作装置が開発されている。ジェスチャー操作とは、三次元空間における任意の方向に自身の手などを動かすことによって、任意の機能を実行するための操作のことをいう。例えば、任意の機能を実行する際に、操作者が行うべきジェスチャー操作を誘導する情報を表示する技術が開示されている(例えば、特許文献1参照)。
国際公開第2012/011263号
特許文献1では、ジェスチャー操作を誘導する情報を二次元で表示している。従って、三次元方向の動きを伴うジェスチャー操作の場合、当該ジェスチャー操作を誘導する情報は二次元で表現されるため、操作者がジェスチャー操作を正確に理解することができないことがある。この場合、ジェスチャー操作装置は、操作者が行ったジェスチャー操作を精度良く判断することができない可能性がある。
本発明は、このような問題を解決するためになされたものであり、操作者が行ったジェスチャー操作を精度良く判断することが可能なジェスチャー操作装置およびジェスチャー操作方法を提供することを目的とする。
上記の課題を解決するために、本発明によるジェスチャー操作装置は、イベントを検出するイベント検出部と、イベント検出部が検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行う表示制御部とを備え、表示制御部は、操作オブジェクトとともにジェスチャー操作の対象となる機能を表す操作対象オブジェクトを表示する制御を行い、操作対象オブジェクトを手で操作する態様で操作オブジェクトを表示する制御を行い、操作オブジェクトは、操作者が裸眼で表示画面を見たときに三次元表示空間において奥行きを有し、操作者のジェスチャー操作を取得するジェスチャー操作取得部と、ジェスチャー操作取得部が取得したジェスチャー操作が操作オブジェクトに従う動きであるか否かを判断する操作判断部と、操作判断部が判断した結果を操作履歴情報として記憶する操作履歴情報記憶部とをさらに備える。
また、本発明によるジェスチャー操作方法は、イベントを検出し、検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行い、操作オブジェクトとともにジェスチャー操作の対象となる機能を表す操作対象オブジェクトを表示する制御を行い、操作対象オブジェクトを手で操作する態様で操作オブジェクトを表示する制御を行い、操作オブジェクトは、操作者が裸眼で表示画面を見たときに三次元表示空間において奥行きを有し、操作者のジェスチャー操作を取得し、取得したジェスチャー操作が操作オブジェクトに従う動きであるか否かを判断し、判断した結果を操作履歴情報として記憶する。
本発明によると、ジェスチャー操作装置は、イベントを検出するイベント検出部と、イベント検出部が検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行う表示制御部とを備え、表示制御部は、操作オブジェクトとともにジェスチャー操作の対象となる機能を表す操作対象オブジェクトを表示する制御を行い、操作対象オブジェクトを手で操作する態様で操作オブジェクトを表示する制御を行い、操作オブジェクトは、操作者が裸眼で表示画面を見たときに三次元表示空間において奥行きを有し、操作者のジェスチャー操作を取得するジェスチャー操作取得部と、ジェスチャー操作取得部が取得したジェスチャー操作が操作オブジェクトに従う動きであるか否かを判断する操作判断部と、操作判断部が判断した結果を操作履歴情報として記憶する操作履歴情報記憶部とをさらに備えるため、操作者が行ったジェスチャー操作を精度良く判断することが可能となる。
また、ジェスチャー操作方法は、イベントを検出し、検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行い、操作オブジェクトとともにジェスチャー操作の対象となる機能を表す操作対象オブジェクトを表示する制御を行い、操作対象オブジェクトを手で操作する態様で操作オブジェクトを表示する制御を行い、操作オブジェクトは、操作者が裸眼で表示画面を見たときに三次元表示空間において奥行きを有し、操作者のジェスチャー操作を取得し、取得したジェスチャー操作が操作オブジェクトに従う動きであるか否かを判断し、判断した結果を操作履歴情報として記憶するため、操作者が行ったジェスチャー操作を精度良く判断することが可能となる。

本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
本発明の実施の形態1によるジェスチャー操作装置の構成の一例を示すブロック図である。 本発明の実施の形態1によるジェスチャー操作の一例を示す図である。 本発明の実施の形態1によるジェスチャー操作の一例を示す図である。 本発明の実施の形態1によるジェスチャー操作の一例を示す図である。 本発明の実施の形態1による表示装置の一例を示す図である。 本発明の実施の形態1による表示装置の一例を示す図である。 本発明の実施の形態1による表示装置の一例を示す図である。 本発明の実施の形態1によるジェスチャー操作装置の構成の一例を示すブロック図である。 本発明の実施の形態1によるジェスチャー操作検出装置の構成の一例を示す図である。 本発明の実施の形態1によるジェスチャー操作検出装置の構成の一例を示す図である。 本発明の実施の形態1によるジェスチャー操作装置のハードウェア構成の一例を示すブロック図である。 本発明の実施の形態1によるジェスチャー操作装置の動作の一例を示すフローチャートである。 本発明の実施の形態1によるジェスチャー操作装置の動作の一例を示すフローチャートである。 本発明の実施の形態1による操作オブジェクトの表示の一例を示す図である。 本発明の実施の形態1によるジェスチャー操作装置の動作の一例を示すフローチャートである。 本発明の実施の形態1による操作オブジェクトの表示の一例を示す図である。 本発明の実施の形態1による操作オブジェクトの一例を示す図である。 本発明の実施の形態1による操作オブジェクトの一例を示す図である。 本発明の実施の形態1による操作オブジェクトの一例を示す図である。 本発明の実施の形態1による携帯通信端末の操作画面の表示の一例を示す図である。 本発明の実施の形態1による操作オブジェクトの一例を示す図である。 本発明の実施の形態1による携帯通信端末の操作画面の表示の一例を示す図である。 本発明の実施の形態1による操作オブジェクトの一例を示す図である。 本発明の実施の形態1による階層化された画面の一例を示す図である。 本発明の実施の形態2によるジェスチャー操作装置の構成の一例を示すブロック図である。 本発明の実施の形態1による操作オブジェクトの一例を示す図である。 本発明の実施の形態3によるジェスチャー操作装置の構成の一例を示すブロック図である。 本発明の実施の形態4によるジェスチャー操作装置の構成の一例を示すブロック図である。 本発明の実施の形態4によるジェスチャー操作装置の動作の一例を示すフローチャートである。 本発明の実施の形態4によるジェスチャー操作装置の動作の一例を示すフローチャートである。 本発明の実施の形態5によるジェスチャー操作装置の構成の一例を示すブロック図である。 本発明の実施の形態5による操作オブジェクトの一例を示す図である。 本発明の実施の形態6によるジェスチャー操作装置の構成の一例を示すブロック図である。 本発明の実施の形態6による操作オブジェクトの一例を示す図である。 本発明の実施の形態6による操作オブジェクトの一例を示す図である。 本発明の実施の形態によるジェスチャー操作システムの構成の一例を示すブロック図である。
本発明の実施の形態について、図面に基づいて以下に説明する。
<実施の形態1>
<構成>
図1は、本実施の形態1によるジェスチャー操作装置1の構成の一例を示すブロック図である。なお、図1では、本実施の形態によるジェスチャー操作装置を構成する必要最小限の構成を示している。また、以下では、操作者が自身の手を動かすことによってジェスチャー操作を行う場合について説明するが、これに限るものではない。
図1に示すように、ジェスチャー操作装置1は、イベント検出部2と、表示制御部3とを備えている。イベント検出部2は、イベントを検出する。イベントしては、後述のように、例えばメール着信、電話着信、車載機器の操作時などが挙げられる。表示制御部3は、表示装置4に接続されており、イベント検出部2が検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行う。
図2〜4は、ジェスチャー操作の一例を示す図である。図2〜4において、X軸は操作者から見て左右方向を示し、Y軸は操作者から見て上下方向を示し、Z軸は操作者から見て前後方向を示している。
図2に示すように、操作者は、自身の手を前後方向かつ上下方向に回転させるジェスチャー操作を行うことができる。図3に示すように、操作者は、自身の手を前後方向に移動させるジェスチャー操作を行うことができる。図4に示すように、操作者は、自身の手を左右方向に移動させるジェスチャー操作を行うことができる。このように、操作者は、三次元空間における任意の方向に手を動かすことによってジェスチャー操作を行うことができる。
図5〜7は、表示装置4の一例を示す図である。図5〜7において、X軸は操作者から見て左右方向を示し、Y軸は操作者から見て上下方向を示し、Z軸は操作者から見て前後方向を示している。
図5は、裸眼立体表示を行う表示装置4の一例を示している。裸眼立体表示とは、操作者5が裸眼で表示画面を見たときに画像が立体的に表示されているように、すなわち三次元表示空間において奥行きを感じるように認識させることをいう。具体的には、図5に示すように、操作者5の右目用の表示オブジェクトと左目用の表示オブジェクトとをX−Y平面上に交互に表示することによって、操作者5に表示オブジェクトが立体的に表示されているように認識させる。
図6は、HUD(Head Up Display)など、虚像表示を行う表示装置4の一例を示している。図6に示すように、虚像である表示オブジェクトの焦点距離を変えることによって、操作者5は表示オブジェクトが立体的に表示されているように認識することができる。
図7は、透過型の表示面をz軸方向に複数重ねて構成される表示装置4の一例を示している。一の表示オブジェクトを各表示面に重ねて表示することによって、操作者5は表示オブジェクトが立体的に表示されているように認識することができる。
表示装置4は、図5〜7に示すいずれかまたは任意の組み合わせの表示装置で構成され、表示制御部3の制御によって図2〜4に示すような三次元空間におけるジェスチャー操作を誘導する操作オブジェクトを三次元で表示する。操作オブジェクトの詳細については後述する。
次に、図1に示すジェスチャー操作装置1を含むジェスチャー操作装置の他の構成について説明する。
図8は、他の構成に係るジェスチャー操作装置6の構成の一例を示すブロック図である。
図8に示すように、ジェスチャー操作装置6は、イベント検出部2と、表示制御部3と、通信部7と、ジェスチャー操作取得部8と、操作判断部9と、機器制御部10とを備えている。
通信部7は、携帯通信端末12と通信接続可能な端末通信部11を有している。端末通信部11は、携帯通信端末12から、例えばメールを着信した旨の情報、および電話を着信した旨の情報などを受信する。また、端末通信部11は、操作判断部9の判断結果に従って、携帯通信端末12に当該携帯通信端末12を操作する情報を送信する。
イベント検出部2は、端末通信部11がメールを着信した旨の情報、または電話を着信した旨の情報などを携帯通信端末12から受信したことをイベントとして検出する。表示制御部3は、表示装置4に対して、イベント検出部2が検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行う。
ジェスチャー操作取得部8は、ジェスチャー操作検出装置13に接続されており、操作者5のジェスチャー操作をジェスチャー操作検出装置13から取得する。図9は、ジェスチャー操作検出装置13の構成の一例を示す図である。図9に示すように、ジェスチャー操作検出装置13は、例えば車内のフロアコンソールに設置されており、ToF(Time of Flight)センサ、画像センサ、および近接センサのうちの少なくとも1つを備えている。ジェスチャー操作空間17は、ジェスチャー操作検出装置13による検出範囲に相当する。すなわち、ジェスチャー操作検出装置13は、ジェスチャー操作空間17において操作者5が行ったジェスチャー操作を検出する。このとき、ジェスチャー操作検出装置13が検出するジェスチャー操作は、後述するイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作を行うためのジェスチャー操作だけでなく、その他の手の動きもジェスチャー操作として検出する。
なお、ジェスチャー操作検出装置13を構成するセンサは、1つでもよい。この場合、ジェスチャー操作検出装置13は一方向からジェスチャー操作を検出することになる。また、ジェスチャー操作検出装置13を構成するセンサは、複数でもよい。この場合、例えば図10に示すように3つのセンサをA点、B点、およびC点の3箇所に設ければ、ジェスチャー操作検出装置13は三方向からジェスチャー操作を検出することになるため、センサが1つの場合よりもジェスチャー操作の検出精度を高めることができる。
図8に戻り、操作判断部9は、ジェスチャー操作取得部8が取得したジェスチャー操作が操作オブジェクトに従う動きであるか否かを判断する。また、操作判断部9は、音声入力装置14と接続されており、操作者5が音声入力装置14を介して発話した内容に基づいて、どのような操作をするのかを判断することができる。このように、操作判断部9は、操作者5による音声操作の内容を判断することができる。
機器制御部10は、操作判断部9が操作オブジェクトに従うジェスチャー操作であると判断した場合、当該ジェスチャー操作に基づいて車載機器15および音声出力装置16などの機器を制御する。また、機器制御部10は、操作判断部9が操作オブジェクトに従うジェスチャー操作であると判断した場合、当該ジェスチャー操作に基づいて、通信部7と通信している携帯通信端末12を制御する。車載機器15としては、例えばナビゲーション装置、音響機器、および車両内に設けられた各種制御装置などが挙げられる。音声出力装置16としては、例えばスピーカなどが挙げられる。
図11は、ジェスチャー操作装置6のハードウェア構成の一例を示すブロック図である。なお、図1に示すジェスチャー操作装置1についても同様である。
ジェスチャー操作装置6における端末通信部11、イベント検出部2、表示制御部3、ジェスチャー操作取得部8、操作判断部9、および機器制御部10の各機能は、処理回路により実現される。すなわち、ジェスチャー操作装置6は、携帯通信端末12と通信し、イベントを検出し、表示の制御を行い、ジェスチャー操作を取得し、ジェスチャー操作を判断し、機器を制御するための処理回路を備える。処理回路は、メモリ19に格納されたプログラムを実行するプロセッサ18(中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)ともいう)である。
ジェスチャー操作装置6における端末通信部11、イベント検出部2、表示制御部3、ジェスチャー操作取得部8、操作判断部9、および機器制御部10の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ19に格納される。処理回路は、メモリ19に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、ジェスチャー操作装置6は、携帯通信端末12と通信するステップ、イベントを検出するステップ、表示の制御を行うステップ、ジェスチャー操作を取得するステップ、ジェスチャー操作を判断するステップ、機器を制御するステップが結果的に実行されることになるプログラムを格納するためのメモリ19を備える。また、これらのプログラムは、端末通信部11、イベント検出部2、表示制御部3、ジェスチャー操作取得部8、操作判断部9、および機器制御部10の手順または方法をコンピュータに実行させるものであるともいえる。ここで、メモリとは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等、または、今後使用されるあらゆる記憶媒体であってもよい。
<動作>
図12は、図1に示すジェスチャー操作装置1の動作の一例を示すフローチャートである。
ステップS101において、イベント検出部2は、イベントを検出したか否かを判断する。イベント検出部2は、イベントを検出するまでステップS101の処理を繰り返し、イベントを検出したと判断するとステップS102に移行する。
ステップS102において、表示制御部3は、イベント検出部2が検出したイベントに対して、当該イベントを進行させるために操作者5が行うことが可能な動作に、操作者5の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示するように表示装置4を制御する。具体的には、表示制御部3の制御によって、図2〜4に示すような三次元のジェスチャー操作を誘導する三次元の操作オブジェクトを、三次元で表示可能な表示装置4に表示する。
図13は、図8に示すジェスチャー操作装置6の動作の一例を示すフローチャートである。なお、図13では、操作オブジェクトをチュートリアルで表示する場合について、図14を用いて説明する。本実施の形態において、チュートリアルとは、イベントに対応して操作者5が行うべき一連のジェスチャー操作を操作オブジェクトとして表示装置4に表示することをいう。
ステップS201において、イベント検出部2は、イベントを検出したか否かを判断する。具体的には、イベント検出部2は、端末通信部11がメールまたは電話を着信した旨の情報を携帯通信端末12から受信するまでステップS201の処理を繰り返す。そして、イベント検出部2は、端末通信部11がメールまたは電話を着信した旨の情報を携帯通信端末12から受信したときにイベントを検出したと判断し、ステップS202に移行する。
例えば、図14に示すように、端末通信部11が携帯通信端末12からメールが着信した旨の情報を受信すると、表示装置4には未読アイコン20が表示される。図14の例では、未読のメールが2件あることを示している。
ステップS202において、表示制御部3は、イベント検出部2が検出したイベントに対応して、当該イベントを進行させるために操作者5行うべき一連のジェスチャー操作を示す操作オブジェクトを三次元で表示するように表示装置4を制御する。
図14の例では、操作者5が表示装置4に表示されている未読アイコン20を選択するジェスチャー操作を行うと未読メールの一覧が表示され、さらに操作者5が未読メールの一覧から特定のメールを選択するジェスチャー操作を行うと当該メールの内容を音声で読み上げる旨をチュートリアルで表示する。図14では、表示装置4には、未読アイコン20を選択するジェスチャー操作を示す操作オブジェクト21が三次元で表示されている。このとき、操作オブジェクト21は、表示装置4の手前から奥へ移動して未読アイコン20を選択するように動く。また、表示装置4には、「メールを選んで音声で読み上げ可能」の文字が表示されている。
ステップS203において、ジェスチャー操作取得部8は、ジェスチャー操作検出装置13から、当該ジェスチャー操作検出装置13が検出した操作者5によるジェスチャー操作を取得したか、すなわち操作者5がジェスチャー操作をしたか否かを判断する。ジェスチャー操作を取得した場合は、ステップS205に移行する。一方、ジェスチャー操作を取得していない場合は、ステップS204に移行する。
ステップS204において、ジェスチャー操作取得部8は、一定時間が経過したか否かを判断する。なお、この時間は、予め設定された時間であってもよく、ユーザが任意に設定した時間であってもよい。一定時間が経過した場合は、図13に示す動作を終了する。一方、一定時間が経過していない場合は、ステップS203に戻る。
ステップS205において、操作判断部9は、ジェスチャー操作取得部8が取得した操作者5によるジェスチャー操作が、表示装置4に表示されたチュートリアルに従う動きであるか否かを判断する。すなわち、操作判断部9は、操作者5によるジェスチャー操作がチュートリアルで示された操作オブジェクトに従った操作であるか否かを判断する。ジェスチャー操作がチュートリアルに従った操作でない場合は、ステップS206に移行する。一方、ジェスチャー操作がチュートリアルに従った操作である場合は、ステップS207に移行する。
ステップS206において、表示制御部3は、ジェスチャー操作が失敗した旨を報知する制御を行う。具体的には、表示制御部3は、操作者5によるジェスチャー操作がチュートリアルに従った操作でない旨を表示装置4に表示する制御を行う。
ステップS207において、機器制御部10は、操作者5によるジェスチャー操作がチュートリアルに従った操作であると判断すると、当該ジェスチャー操作に基づいて対象となる機器を制御する。図14の例では、操作者5がジェスチャー操作で選択したメールの内容を読み上げる。このとき、機器制御部10は、音声出力装置16からメールの内容を読み上げるように音声出力装置16を制御してもよく、携帯通信端末12からメールの内容を読み上げるように端末通信部11を制御してもよい。
ステップS208において、操作判断部9は、操作者5によるジェスチャー操作が終了したか否かを判断する。具体的には、操作判断部9は、ジェスチャー操作取得部8が取得したジェスチャー操作が、表示装置4に表示したチュートリアルに従う全ての操作を行ったか否かを判断する。ジェスチャー操作が終了した場合は、図13に示す動作を終了する。一方、ジェスチャー操作が終了していない場合は、ステップS207に戻る。
図13に示すように、チュートリアルを表示装置4に表示することによって、操作者5は、メールを着信したときにどのようなジェスチャー操作を行えば良いのかを正確に理解することができる。特に、表示装置4が図6に示すようなHUDである場合、操作者5である運転者は、前方から視線を逸らすことなくジェスチャー操作することが可能である。
図15は、図8に示すジェスチャー操作装置6の動作の一例を示すフローチャートである。なお、図15では、イベントが生じたときに操作者5が次に行うべき一のジェスチャー操作を誘導する操作オブジェクトを表示する場合について、図16を用いて説明する。
ステップS301において、イベント検出部2は、図13のステップS201と同様、イベントを検出するまでステップS301の処理を繰り返す。そして、イベント検出部2がイベントを検出したと判断すると、ステップS302に移行する。
例えば、図16に示すように、端末通信部11が携帯通信端末12から電話を着信した旨の情報を受信すると、表示装置4には受話器のアイコンとともに、電話の発信元の情報が表示される。図16の例では、電話の発信元の情報として「岩崎さんからの電話」と表示される。
ステップS302において、表示制御部3は、イベント検出部2が検出したイベントに対して操作者5が次に行うべき一のジェスチャー操作を示す操作オブジェクトを三次元で表示するように表示装置4を制御する。
図16の例では、受話器のアイコンに手を掛けた操作オブジェクト21が表示される。なお、表示制御部3は、受話器のアイコンに手を掛ける動きを表現するように操作オブジェクト21を表示する制御を行ってもよい。
ステップS303において、ジェスチャー操作取得部8は、ジェスチャー操作検出装置13から、当該ジェスチャー操作検出装置13が検出した操作者5によるジェスチャー操作を取得したか、すなわち操作者5がジェスチャー操作をしたか否かを判断する。図16の例では、ジェスチャー操作検出装置13で検出された操作者5の手に対応する検出アイコン22が表示装置4に表示されている。このとき、表示装置4では、受話器のアイコン、操作オブジェクト21、および検出アイコン22を奥から手前に向かって順に表示してもよい。すなわち、表示制御部3は、操作オブジェクト21を三次元表示空間における奥側に表示し、ジェスチャー操作取得部8が取得した操作者5の手のアイコンである検出アイコン22を三次元表示空間における手前側に表示する制御を行う。ジェスチャー操作を取得した場合は、ステップS305に移行する。一方、ジェスチャー操作を取得していない場合は、ステップS304に移行する。
ステップS304において、図13のステップS204と同様、ジェスチャー操作取得部8は、一定時間が経過したか否かを判断する。一定時間が経過した場合は、図15に示す動作を終了する。一方、一定時間が経過していない場合は、ステップS303に戻る。
ステップS305において、操作判断部9は、ジェスチャー操作取得部8が取得した操作者5によるジェスチャー操作が、表示装置4に表示された操作オブジェクトに従う動きであるか否かを判断する。ジェスチャー操作が操作オブジェクトに従った操作でない場合は、ステップS306に移行する。一方、ジェスチャー操作が操作オブジェクトに従った操作である場合は、ステップS307に移行する。
ステップS306において、図13のステップS206と同様、表示制御部3は、ジェスチャー操作が失敗した旨を報知する制御を行う。具体的には、表示制御部3は、操作者5によるジェスチャー操作が操作オブジェクトに従った操作でない旨を表示装置4に表示する制御を行う。
ステップS307において、機器制御部10は、操作者5によるジェスチャー操作が操作オブジェクトに従う操作であると判断すると、当該ジェスチャー操作に基づいて対象となる機器を制御する。図16の例では、検出アイコン22が受話器のアイコンに重なると、通話が可能となる。このとき、機器制御部10は、携帯通信端末12で通話が可能となるように端末通信部11を制御する。
ステップS308において、操作判断部9は、操作者5によるジェスチャー操作が終了したか否かを判断する。具体的には、操作判断部9は、ジェスチャー操作取得部8が取得したジェスチャー操作が、表示装置4に表示した操作オブジェクトに従う操作を行ったか否かを判断する。ジェスチャー操作が終了した場合は、図15に示す動作を終了する。一方、ジェスチャー操作が終了していない場合は、ステップS302に戻る。
図15に示すように、イベントが生じたときに操作者5が次に行うべき一のジェスチャー操作を誘導する操作オブジェクトを表示することによって、操作者5は、電話を着信したときにどのようなジェスチャー操作を行えば良いのかを正確に理解することができる。
<変形例1>
図13では操作オブジェクトをチュートリアルで表示する場合の動作を示し、図15ではイベントが生じたときに操作者5が次に行うべき一のジェスチャー操作を誘導する操作オブジェクトを表示する場合の動作を示しているが、これらの動作を組み合わせてもよい。例えば、操作者5が初めて経験するイベントの場合は図13の動作を行って操作オブジェクトをチュートリアルで表示し、次回以降に同様のイベントを経験したときは図15の動作を行って次に行うべき一のジェスチャー操作を誘導する操作オブジェクトを表示するようにしてもよい。操作者5が複数存在する場合は、操作者5ごとに図13または図15の動作を行ってもよい。この場合、操作者5を個別に認識する必要がある。
<変形例2>
図13のステップS202または図15のステップS302において、表示制御部3は、例えば図17または図18に示すように、操作オブジェクトとともにジェスチャー操作の対象となる機能を表すオブジェクトを表示する制御を行ってもよい。図17では、時計回りまたは反時計回りのジェスチャー操作を誘導する操作オブジェクト21とともにダイヤルが表示されている。ダイヤルとしては、例えば音量調整を行うためのダイヤルなどが挙げられる。図18では、操作者5から見て前後方向に回転させるジェスチャー操作を誘導する操作オブジェクト21とともにフォルダA〜Cが表示されている。フォルダとしては、例えば電話帳などが挙げられる。このような表示を行うことによって、操作者5は、物理的な操作ボタンがなくてもどのような操作を行えばよいのかを正確に理解することができる。図17,18において、手は表示せず、矢印のみを表示してもよい。
なお、図17,18の例は、図13のステップS202または図15のステップS302において静止画として表示されるが、図13のステップS205または図15のステップS305において操作者5が実際にジェスチャー操作を行った場合は、実際のジェスチャー操作に合わせてダイヤルが回転し、またはフォルダA〜Cの順序が変わるように動くことになる。すなわち、操作判断部9が操作者5によるジェスチャー操作が操作オブジェクトに従う動きであると判断した場合、表示制御部3はジェスチャー操作取得部8が取得したジェスチャー操作に合わせて操作オブジェクトが動くように制御する。
また、実際のジェスチャー操作に合わせてフォルダA〜Cが動くとき、当該動きに合わせて効果音を加えてもよい。これにより、操作者5はより直感的にどのような操作を行えばよいのかを正確に理解することができる。
<変形例3>
図13のステップS202または図15のステップS302において、表示制御部3は、例えば図19に示すように、操作項目の一覧が手の動きに合わせて回転するように制御してもよい。操作項目の一覧は、例えば車載機器15の機能に対応している。図19では、操作項目の一覧が、操作者5から見て前後方向に輪を描くように配置されている。操作者5が「Setting」を選択すると各種設定を行うための画面に遷移し、「AM Radio」を選択するとAMラジオを視聴するための機能が実行され、「FM Radio」を選択するとFMラジオを視聴するための機能が実行され、「Music」を選択するとFMラジオを視聴するための機能が実行され、「Navigation」を選択すると目的地までの経路案内などのナビゲーション機能が実行される。このような表示を行うことによって、操作者5は、操作対象の動的な操作感を正確に理解することができる。図19において、手は表示せず、矢印のみを表示してもよい。
なお、図13のステップS205または図15のステップS305において操作者5が実際にジェスチャー操作を行った場合は、実際のジェスチャー操作に合わせて操作項目の一覧が動くことになる。また、図19の例に限らず、図17においてダイヤルが回転する表示にしてもよく、図18においてフォルダA〜Cの順序が変わるように表示してもよい。
また、実際のジェスチャー操作に合わせて操作項目の一覧が動くとき、当該動きに合わせて効果音を加えてもよい。これにより、操作者5はより直感的にどのような操作を行えばよいのかを正確に理解することができる。
<実施例1>
操作者5が普段使用している携帯通信端末12の操作と同様の操作でジェスチャー操作を行うようにしてもよい。
図20は、携帯通信端末12の操作画面を表示装置4に三次元で表示する一例を示している。図20に示す携帯通信端末12の操作画面は、電話を着信したときに表示される画面である。端末通信部11は、携帯通信端末12から電話を着信した旨の情報とともに、電話を着信したときに携帯通信端末12に表示される操作画面の情報を携帯通信端末12から取得する。そして、図13のステップS202または図15のステップS302において、表示制御部3は、例えば図21に示すように、応答することを示す受話器のアイコンを右方向にスライドさせることを示す操作オブジェクトを表示装置4に表示する制御を行う。操作者5は、図21に示す操作オブジェクトに従ってジェスチャー操作することによって、電話の着信に応答することができる。このとき、操作者5は、三次元で表示された操作画面を見ながらジェスチャー操作することになるため、操作者5が普段使用している携帯通信端末12と同様の操作感覚でジェスチャー操作をすることができる。
また、他の例として、携帯通信端末12が電話を着信したとき、表示装置4に図22に示すような操作画面を表示してもよい。この場合、表示制御部3は、例えば図23に示すように、応答することを示す受話器のアイコンを選択することを示す操作オブジェクトを表示装置4に表示する制御を行う。操作者5は、図22に従ってジェスチャー操作することによって、電話の着信に応答することができる。
なお、図20〜図23に示す携帯通信端末12の操作画面は、上記で説明したように電話の着信時に端末通信部11が携帯通信端末12から取得してもよいが、これに限るものではない。例えば、ジェスチャー操作装置6が図示しない記憶部に携帯通信端末12の操作画面を記憶しておいてもよく、通信部7が外部のサーバなどから携帯通信端末12に対応する操作画面の情報を取得してもよい。
<実施例2>
車載機器15がラジオおよび音楽を再生する機能を有している場合、これらの機能をジェスチャー操作で実行してもよい。例えば、操作者5が自身の手をかざしながら「音楽」、「ラジオ」、または「携帯の音楽」などと発話すると、イベント検出部2はこれらの動作をイベントとして検出する。
そして、操作者5が「音楽」と発話した場合、表示制御部3は、表示装置4に例えば音楽の再生リストおよび手のアイコンを操作オブジェクトとして表示する。このとき、表示制御部3は、上下方向にフリックするジェスチャー操作を行うと、リストのスクロールが可能であることを示す操作オブジェクトを表示してもよい。
操作者5は、表示装置4に表示された操作オブジェクトに従って上下方向にフリックするジェスチャー操作を行うことによってリストをスクロールし、楽曲名を読み上げることによって特定の楽曲を選択する。なお、楽曲の選択は、ジェスチャー操作によって選択してもよく、表示装置4がタッチパネルを備えている場合はタッチ操作によって選択してもよい。
また、音量調整をする際は、例えば図17に示すような操作オブジェクトを表示装置4に表示してもよい。この場合、操作者5は、例えば自身の親指、人差し指、および中指でダイヤルを回転させるようなジェスチャー操作を行うことによって、音量調整をすることができる。このとき、操作者5の操作感覚を高めるために、ダイヤルの回転軸が操作者5側に傾いた形状であってもよい。
<実施例3>
車載機器15がナビゲーション機能を有している場合、当該機能をジェスチャー操作で実行してもよい。例えば、操作者5が自身の手をかざしながら「ナビゲーション」、「目的地」、または「地図」などと発話すると、イベント検出部2はこれらの動作をイベントとして検出する。
そして、操作者5が「目的地」と発話した場合、表示制御部3は、例えば目的地のリストおよび手のアイコンを操作オブジェクトとして表示する。このとき、表示制御部3は、上下方向にフリックするジェスチャー操作を行うとリストのスクロールが可能であり、タッチするジェスチャー操作を行うと特定の目的を選択可能であることを示す操作オブジェクトを表示してもよい。操作者5は、表示装置4に表示された操作オブジェクトに従って上下方向にフリックするジェスチャー操作を行うことによってリストをスクロールし、タッチするジェスチャー操作を行うと特定の目的を選択する。なお、目的地の選択は、例えば目的地の地名を読み上げることによって選択してもよい。
操作者5が「地図」と発話した場合、表示制御部3は、例えば地図および手のアイコンを操作オブジェクトとして表示する。このとき、表示制御部3は、ピンチインまたはピンチアウトするジェスチャー操作を行うと地図の拡大または縮小が可能であることを示す操作オブジェクトを表示してもよい。また、手のひらを下に向けたまま前後左右方向に移動させるジェスチャー操作を行うと地図のスクロールが可能であることを示す操作オブジェクトを表示してもよい。
例えば、図24に示すように、ホーム画面23、現在地画面24、および地図スクロール画面25が階層化されている場合において、表示制御部3は、手のひらを上に向けたまま上方に動かすジェスチャー操作を行う度に、ホーム画面23、現在地画面24、および地図スクロール画面25の順序が変わることを示す操作オブジェクトを表示してもよい。この場合、手を裏返すジェスチャー操作を行うと、ホーム画面23が最上位に表示されるようにしてもよい。ホーム画面23において選択可能な項目がある場合、表示制御部3は、例えばタッチするジェスチャー操作を行うと特定の項目を選択することを示す操作オブジェクトを表示してもよい。
以上のことから、本実施の形態1によれば、三次元方向の動きを伴うジェスチャー操作を誘導する操作オブジェクトを三次元で表示しているため、操作者5はどのようなジェスチャー操作を行えばよいのかを正確に理解することができる。従って、ジェスチャー操作装置6は、操作者5が行ったジェスチャー操作を精度良く判断することができる。
<実施の形態2>
図25は、本発明の実施の形態2によるジェスチャー操作装置26の構成の一例を示すブロック図である。
図25に示すように、本実施の形態2によるジェスチャー操作装置26は、機器制御部10が音像制御部27を有していることを特徴としている。その他の構成および動作は、実施の形態1と同様であるため、ここでは詳細な説明を省略する。
音像制御部27は、音声出力装置16に接続されており、音声出力装置16から出力される音声の音像を制御する。具体的には、音像制御部27は、表示制御部3の制御によって表示装置4に表示された操作オブジェクトの表示位置に応じて音像を制御する。
例えば、表示装置4に図26に示すような操作オブジェクトが表示されている場合について説明する。図26では、着信メールを保存フォルダとゴミ箱とに分別するときの操作オブジェクトを示している。表示装置4には、左手前には着信メールが表示され、右手前にはゴミ箱が表示され、右奥には保存フォルダが表示されている。操作オブジェクトにおいて、手のアイコンが、着信メールからゴミ箱または保存フォルダに向かう矢印に沿って移動する。このとき、音像制御部27は、手のアイコンの動きに合わせて音像を制御するため、手のアイコンがゴミ箱に向かって移動するときの音と、手のアイコンが保存フォルダに向かって移動するときの音とが異なる。
なお、音像制御部27は、操作者5が実際にジェスチャー操作をする際に、当該ジェスチャー操作に合わせて音像を制御してもよい。
以上のことから、本実施の形態2によれば、三次元方向の動きを伴うジェスチャー操作を誘導する操作オブジェクトを三次元で表示するとともに音場を制御しているため、操作者5はどのようなジェスチャー操作を行えばよいのかを直感的かつ正確に理解することができる。従って、ジェスチャー操作装置6は、操作者5が行ったジェスチャー操作を精度良く判断することができる。
<実施の形態3>
図27は、本発明の実施の形態3によるジェスチャー操作装置28の構成の一例を示すブロック図である。
図27に示すように、本実施の形態3によるジェスチャー操作装置28は、状態取得部29を備えることを特徴としている。その他の構成および動作は、実施の形態1と同様であるため、ここでは詳細な説明を省略する。
状態取得部29は、状態検出装置30に接続されており、状態検出装置30が検出した少なくとも操作者5の目の位置および視線を含む操作者5の状態を取得する。状態検出装置30は、カメラで構成されており、操作者5の目の位置または視線をカメラで撮影された画像から特定する。表示制御部3は、状態取得部29が取得した操作者5の状態に基づいて操作オブジェクトの表示位置を制御する。
以上のことから、本実施の形態3によれば、操作者5の状態に基づいて操作オブジェクトの表示位置を制御しているため、操作者5にとって見やすい操作オブジェクトを表示することができる。これにより、操作者5はどのようなジェスチャー操作を行えばよいのかを正確に理解することができる。従って、ジェスチャー操作装置6は、操作者5が行ったジェスチャー操作を精度良く判断することができる。
<実施の形態4>
<構成>
図28は、本発明の実施の形態4によるジェスチャー操作装置31の構成の一例を示すブロック図である。
図28に示すように、本実施の形態4によるジェスチャー操作装置31は、操作履歴情報記憶部32を備えることを特徴としている。その他の構成および動作は、実施の形態3と同様であるため、ここでは詳細な説明を省略する。
操作履歴情報記憶部32は、例えばハードディスク(Hard Disk Drive:HDD)または半導体メモリ等の記憶装置から構成されており、操作判断部9によってジェスチャー操作が操作オブジェクトに従う動きであるか否かが判断された結果を記憶する。
<動作>
図29は、ジェスチャー操作装置31の動作の一例を示すフローチャートである。なお、図29のステップS401〜ステップS406は図13のステップS201〜ステップS206に対応し、図29のステップS408,ステップS409は図13のステップS207,ステップS208に対応しているため、ここでは説明を省略する。以下では、ステップS407について説明する。
ステップS407において、操作履歴情報記憶部32は、操作判断部9が判断した結果を操作履歴情報として記憶する。具体的には、ステップS405において操作判断部9が操作者5によるジェスチャー操作がチュートリアルで示された操作オブジェクトに従った操作でないと判断すると、当該判断結果が操作履歴情報記憶部32に記憶される。操作履歴情報記憶部32に記憶される操作履歴情報は、操作者5ごとに記憶される。なお、各操作者5の識別は、状態検出装置30が検出した操作者5の顔の画像に基づくものであってもよい。
操作判断部9は、次回以降のステップS405において、操作履歴情報記憶部32に記憶された操作履歴情報を用いて、操作者5によるジェスチャー操作がチュートリアルで示された操作オブジェクトに従った操作であるか否かを判断することができる。また、操作判断部9は、蓄積された操作履歴情報を用いて機械学習を行うことができる。これにより、操作者5によるジェスチャー操作がチュートリアルで示した操作オブジェクトとは少し異なる場合であっても操作オブジェクトに従った操作であると判断するなど、操作者5によるジェスチャー操作の癖を考慮した判断をすることができる。
図30は、ジェスチャー操作装置31の動作の一例を示すフローチャートである。なお、図30のステップS501〜ステップS506は図13のステップS201〜ステップS206に対応し、図30のステップS509,ステップS510は図13のステップS207,ステップS208に対応しているため、ここでは説明を省略する。以下では、ステップS507,ステップS508について説明する。
ステップS507において、状態取得部29は、操作判断部9が判断した結果に対する操作者5の反応を操作者5の状態として取得する。具体的には、ステップS505において操作判断部9が操作者5によるジェスチャー操作がチュートリアルで示された操作オブジェクトに従った操作でないと判断して、ステップS506においてジェスチャー操作が失敗した旨を報知したときの操作者5の反応を状態検出装置30が検出し、当該検出した操作者5の反応を状態取得部29が取得する。操作者5の反応としては、操作者5の表情、または動きなどが挙げられる。
ステップS508において、操作履歴情報記憶部32は、操作判断部9による判断結果と、状態取得部29が取得した操作者5の反応とを対応付けて操作履歴情報として記憶する。操作履歴情報記憶部32に記憶される操作履歴情報は、操作者5ごとに記憶される。なお、各操作者5の識別は、状態検出装置30が検出した操作者5の顔の画像に基づくものであってもよい。
操作判断部9は、次回以降のステップS505において、操作履歴情報記憶部32に記憶された操作履歴情報を用いて、操作者5によるジェスチャー操作がチュートリアルで示された操作オブジェクトに従った操作であるか否かを判断することができる。また、操作判断部9は、蓄積された操作履歴情報を用いて機械学習を行うことができる。これにより、操作者5によるジェスチャー操作がチュートリアルで示した操作オブジェクトとは少し異なる場合であっても操作オブジェクトに従った操作であると判断するなど、操作者5によるジェスチャー操作の癖を考慮した判断をすることができる。
なお、図29,30では、チュートリアルを表示する場合について説明したが、イベントが生じたときに操作者5が次に行うべき一のジェスチャー操作を誘導する操作オブジェクトを表示する場合にも適用可能である。
操作者5がシフトレバーまたは遠隔操作装置などジェスチャー操作以外の他の操作を行った場合、操作判断部9は、図29のステップS405または図30のステップS505の処理を行わなくてもよい。
以上のことから、本実施の形態4によれば、操作履歴情報記憶部32に記憶された操作履歴情報を用いて、操作者5によるジェスチャー操作がチュートリアルで示された操作オブジェクトに従った操作であるか否かを判断するため、操作者5によるジェスチャー操作の癖を考慮した判断をすることができる。
<実施の形態5>
図31は、本発明の実施の形態5によるジェスチャー操作装置33の構成の一例を示すブロック図である。
図31に示すように、本実施の形態5によるジェスチャー操作装置33は、通信部7が外部情報取得部34を有することを特徴としている。その他の構成および動作は、実施の形態1と同様であるため、ここでは詳細な説明を省略する。
外部情報取得部34は、外部から種々の外部情報を取得する。外部情報としては、例えば、操作者5に関連する情報、交通情報、天候情報などが挙げられる。操作者5に関連する情報としては、例えば、操作者5のスケジュール、連絡先、好みの楽曲、SNS(Social Networking Service)の情報、設定した目的地に関する交通情報または天候情報、POI(Point Of Interest)情報、購買行動情報、自宅のネットワークに接続された家電の情報などが挙げられる。
例えば、外部情報取得部34が操作者5の自宅のネットワークに接続された家電の情報を取得すると、イベント検出部2は外部情報取得部34が家電の情報を取得したことをイベントとして検出する。そして、表示制御部3は、図32に示すように、操作者5の自宅の1階に設置されているエアコンの電源をオンまたはオフする動作を示す操作オブジェクト21を表示装置4に表示するように制御する。例えば、手のアイコンがスイッチのアイコンを押すごとに電源のオンおよびオフが交互に繰り返して表示されるような操作オブジェクトを表示してもよい。これにより、操作者5は、自宅のどの部屋の家電を操作するのかを容易に把握することができるとともに、どのようなジェスチャー操作を行えばよいのかを正確に理解することができる。
以上のことから、本実施の形態5によれば、外部情報を用いて操作オブジェクトを表示しているため、操作者5は例えば自宅に設置された家電を制御するためのジェスチャー操作を正確に理解することができる。従って、ジェスチャー操作装置6は、操作者5が行ったジェスチャー操作を精度良く判断することができる。
<実施の形態6>
図33は、本発明の実施の形態6によるジェスチャー操作装置35の構成の一例を示すブロック図である。
図33に示すように、本実施の形態6によるジェスチャー操作装置35は、機器制御部10が車両情報取得部36を有することを特徴としている。その他の構成および動作は、実施の形態1と同様であるため、ここでは詳細な説明を省略する。
車両情報取得部36は、車載機器15である車両内に設けられた各種制御装置から車両情報を取得する。車両情報は、車両に関する種々の情報である。
例えば、車両情報取得部36が車載機器15から車両のトランクの扉が開いていることを示す情報を取得すると、イベント検出部2は車両情報取得部36が車両情報を取得したことをイベントとして検出する。そして、表示制御部3は、図34に示すように、車両のトランクを閉める動作を示す操作オブジェクト21を表示装置4に表示するように制御する。これにより、操作者5は、車両のトランクを閉めるためのジェスチャー操作を正確に理解することができる。
また、例えば、端末通信部11が携帯通信端末12から当該携帯通信端末12に関する情報を取得すると、イベント検出部2は端末通信部11が携帯通信端末12に関する情報を取得したことをイベントとして検出する。そして、表示制御部3は、図35に示すように、携帯通信端末12に関する情報の表示の切り替えを行う動作を示す操作オブジェクト21を表示装置4に表示するように制御する。これにより、操作者5は、携帯通信端末12に関する情報の表示の切り替えを行うためのジェスチャー操作を正確に理解することができる。
以上のことから、本実施の形態6によれば、車載機器15または携帯通信端末12から取得した情報を用いて操作オブジェクトを表示しているため、操作者5は車載機器15または携帯通信端末12を制御するためのジェスチャー操作を正確に理解することができる。従って、ジェスチャー操作装置6は、操作者5が行ったジェスチャー操作を精度良く判断することができる。
以上で説明したジェスチャー操作装置は、車載用ナビゲーション装置、すなわちカーナビゲーション装置だけでなく、車両に搭載可能なPND(Portable Navigation Device)、および車両の外部に設けられるサーバなどを適宜に組み合わせてシステムとして構築されるナビゲーション装置あるいはナビゲーション装置以外の装置にも適用することができる。この場合、ジェスチャー操作装置の各機能あるいは各構成要素は、上記システムを構築する各機能に分散して配置される。
具体的には、一例として、ジェスチャー操作装置の機能をサーバに配置することができる。例えば、図36に示すように、ユーザ側は、表示装置4、携帯通信端末12、ジェスチャー操作検出装置13、音声入力装置14、車載機器15、および音声出力装置16を備えている。サーバ37は、イベント検出部2、表示制御部3、通信部7、ジェスチャー操作取得部8、操作判断部9、機器制御部10、および端末通信部11を備えている。このような構成とすることによって、ジェスチャー操作システムを構築することができる。図25に示すジェスチャー操作装置26、図27に示すジェスチャー操作装置28、図28に示すジェスチャー操作装置31、図31に示すジェスチャー操作装置33、および図33に示すジェスチャー操作装置35についても同様である。
このように、ジェスチャー操作装置の各機能を、システムを構築する各機能に分散して配置した構成であっても、上記の実施の形態と同様の効果が得られる。
また、上記の実施の形態における動作を実行するソフトウェアを、例えばサーバに組み込んでもよい。このソフトウェアをサーバが実行することにより実現されるジェスチャー操作方法は、イベントを検出し、検出したイベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行うことである。
このように、上記の実施の形態における動作を実行するソフトウェアをサーバに組み込んで動作させることによって、上記の実施の形態と同様の効果が得られる。
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。
本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
1 ジェスチャー操作装置、2 イベント検出部、3 表示制御部、4 表示装置、5 操作者、6 ジェスチャー操作装置、7 通信部、8 ジェスチャー操作取得部、9 操作判断部、10 機器制御部、11 端末通信部、12 携帯通信端末、13 ジェスチャー操作検出装置、14 音声入力装置、15 車載機器、16 音声出力装置、17 ジェスチャー操作空間、18 プロセッサ、19 メモリ、20 未読アイコン、21 操作オブジェクト、22 検出アイコン、23 ホーム画面、24 現在地画面、25 地図スクロール画面、26 ジェスチャー操作装置、27 音像制御部、28 ジェスチャー操作装置、29 状態取得部、30 状態検出装置、31 ジェスチャー操作装置、32 操作履歴情報記憶部、33 ジェスチャー操作装置、34 外部情報取得部、35 ジェスチャー操作装置、36 車両情報取得部、37 サーバ。

Claims (19)

  1. イベントを検出するイベント検出部と、
    前記イベント検出部が検出した前記イベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、前記操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行う表示制御部と、
    を備え、
    前記表示制御部は、前記操作オブジェクトとともに前記ジェスチャー操作の対象となる機能を表す操作対象オブジェクトを表示する制御を行い、前記操作対象オブジェクトを手で操作する態様で前記操作オブジェクトを表示する制御を行い、
    前記操作オブジェクトは、前記操作者が裸眼で表示画面を見たときに三次元表示空間において奥行きを有し、
    前記操作者の前記ジェスチャー操作を取得するジェスチャー操作取得部と、
    前記ジェスチャー操作取得部が取得した前記ジェスチャー操作が前記操作オブジェクトに従う動きであるか否かを判断する操作判断部と、
    前記操作判断部が判断した結果を操作履歴情報として記憶する操作履歴情報記憶部と、
    をさらに備える、ジェスチャー操作装置。
  2. 前記表示制御部は、前記イベントに対応して前記操作者が行うべき一連の前記ジェスチャー操作を示す前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。
  3. 前記表示制御部は、前記イベントに対して前記操作者が次に行うべき一の前記ジェスチャー操作を示す前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。
  4. 記表示制御部は、前記操作オブジェクトを前記三次元表示空間における奥側に表示し、前記ジェスチャー操作取得部が取得した前記操作者の手のアイコンを前記三次元表示空間における手前側に表示する制御を行い、
    前記表示制御部は、前記操作者の手のアイコンが、前記操作対象オブジェクトに対する前記操作者の手の位置に対応する位置に表示する制御を行い、
    前記操作判断部は、前記操作者の手のアイコンが前記操作対象オブジェクトに重なったとき、前記ジェスチャー操作が前記操作オブジェクトに従う動きであると判断することを特徴とする、請求項3に記載のジェスチャー操作装置。
  5. 記操作判断部が前記操作オブジェクトに従う動きであると判断した場合、前記表示制御部は、前記ジェスチャー操作取得部が取得した前記ジェスチャー操作に合わせて前記操作オブジェクトが動くように制御することを特徴とする、請求項1に記載のジェスチャー操作装置。
  6. 携帯通信端末と通信接続可能な端末通信部をさらに備え、
    前記表示制御部は、前記端末通信部が通信している前記携帯通信端末の操作画面を前記操作対象オブジェクトとして表示する制御を行い、前記端末通信部を介して取得した前記携帯通信端末の情報に基づいて前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。
  7. 音像を制御する音像制御部をさらに備え、
    前記音像制御部は、前記操作オブジェクトの表示位置に応じて前記音像を制御することを特徴とする、請求項1に記載のジェスチャー操作装置。
  8. 少なくとも前記操作者の目の位置および視線を含む前記操作者の状態を取得する状態取得部をさらに備え、
    前記表示制御部は、前記状態取得部が取得した前記操作者の状態に基づいて前記操作オブジェクトの表示位置を制御することを特徴とする、請求項1に記載のジェスチャー操作装置。
  9. 前記操作者の状態を取得する状態取得部をさらに備え、
    前記状態取得部は、前記操作判断部が判断した結果に対する前記操作者の反応を取得し、
    前記操作履歴情報記憶部は、前記操作者の反応を前記操作履歴情報に含めて記憶することを特徴とする、請求項に記載のジェスチャー操作装置。
  10. 前記操作判断部は、前記操作者が前記ジェスチャー操作以外の他の操作を行った場合は前記判断を行わないことを特徴とする、請求項に記載のジェスチャー操作装置。
  11. 外部情報を取得する外部情報取得部をさらに備え、
    前記表示制御部は、前記外部情報取得部が取得した前記外部情報に基づいて、前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。
  12. 車両情報を取得する車両情報取得部をさらに備え、
    前記表示制御部は、前記車両情報取得部が取得した前記車両情報に基づいて、前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。
  13. 音像を制御する音像制御部をさらに備え、
    前記音像制御部は、前記操作者の手のアイコンの表示位置に応じて前記音像を制御することを特徴とする、請求項4に記載のジェスチャー操作装置。
  14. 前記表示制御部は、裸眼立体表示を行う表示装置、虚像表示を行う表示装置、および透過型の表示面を複数重ねて構成される表示装置のうちの少なくとも1つに前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。
  15. 記操作判断部が前記操作オブジェクトに従う動きであると判断した場合、前記ジェスチャー操作に基づいて機器を制御する機器制御部をさらに備える、請求項1に記載のジェスチャー操作装置。
  16. 前記表示制御部は、前記イベントが進行する前記ジェスチャー操作に対応した動きとなるように前記操作オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載のジェスチャー操作装置。
  17. 前記表示制御部は、前記車両情報に基づく車両機構を前記操作対象オブジェクトとして表示する制御を行うことを特徴とする、請求項12に記載のジェスチャー操作装置。
  18. 前記操作オブジェクトは、時間的に奥行きが変化することを特徴とする、請求項1に記載のジェスチャー操作装置。
  19. イベントを検出し、
    前記検出した前記イベントに対して、当該イベントを進行させるために操作者が行うことが可能な動作に、前記操作者の意図を示すジェスチャー操作を誘導する操作オブジェクトを三次元で表示する制御を行い、
    前記操作オブジェクトとともに前記ジェスチャー操作の対象となる機能を表す操作対象オブジェクトを表示する制御を行い、
    前記操作対象オブジェクトを手で操作する態様で前記操作オブジェクトを表示する制御を行い、
    前記操作オブジェクトは、前記操作者が裸眼で表示画面を見たときに三次元表示空間において奥行きを有し、
    前記操作者の前記ジェスチャー操作を取得し、
    取得した前記ジェスチャー操作が前記操作オブジェクトに従う動きであるか否かを判断し、
    判断した結果を操作履歴情報として記憶する、ジェスチャー操作方法。
JP2019567457A 2018-01-25 2018-01-25 ジェスチャー操作装置およびジェスチャー操作方法 Active JP6900133B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/002242 WO2019146032A1 (ja) 2018-01-25 2018-01-25 ジェスチャー操作装置およびジェスチャー操作方法

Publications (2)

Publication Number Publication Date
JPWO2019146032A1 JPWO2019146032A1 (ja) 2020-07-02
JP6900133B2 true JP6900133B2 (ja) 2021-07-07

Family

ID=67395344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019567457A Active JP6900133B2 (ja) 2018-01-25 2018-01-25 ジェスチャー操作装置およびジェスチャー操作方法

Country Status (2)

Country Link
JP (1) JP6900133B2 (ja)
WO (1) WO2019146032A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11003345B2 (en) 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
EP3991067A1 (en) 2019-06-26 2022-05-04 Google LLC Radar-based authentication status feedback
CN113853566B (zh) 2019-07-26 2024-05-28 谷歌有限责任公司 基于雷达的姿势识别的情境敏感控制
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
EP3966662B1 (en) 2019-07-26 2024-01-10 Google LLC Reducing a state based on imu and radar
JP7316383B2 (ja) 2019-07-26 2023-07-27 グーグル エルエルシー Imuおよびレーダーを介した認証管理
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
KR102661485B1 (ko) 2019-08-30 2024-04-29 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
WO2021040745A1 (en) 2019-08-30 2021-03-04 Google Llc Input methods for mobile devices
US20210103348A1 (en) * 2019-10-03 2021-04-08 Google Llc Facilitating User-Proficiency in Using Radar Gestures to Interact with an Electronic Device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008089985A (ja) * 2006-10-02 2008-04-17 Pioneer Electronic Corp 画像表示装置
JP2009089068A (ja) * 2007-09-28 2009-04-23 Victor Co Of Japan Ltd 電子機器の制御装置、制御方法及び制御プログラム
WO2010007787A1 (ja) * 2008-07-15 2010-01-21 Yoshida Kenji 裸眼立体映像表示システム、裸眼立体映像表示装置、遊技ゲーム機、パララックスバリアシート
US9134800B2 (en) * 2010-07-20 2015-09-15 Panasonic Intellectual Property Corporation Of America Gesture input device and gesture input method
US8970484B2 (en) * 2010-07-23 2015-03-03 Nec Corporation Three dimensional display device and three dimensional display method
JP2013211712A (ja) * 2012-03-30 2013-10-10 Sony Corp 出力制御装置、出力制御方法、及びプログラム
EP3047363B1 (en) * 2013-09-17 2019-11-06 Amazon Technologies, Inc. Approaches for three-dimensional object display
CN107148614B (zh) * 2014-12-02 2020-09-08 索尼公司 信息处理设备、信息处理方法和程序
JP2017027401A (ja) * 2015-07-23 2017-02-02 株式会社デンソー 表示操作装置

Also Published As

Publication number Publication date
JPWO2019146032A1 (ja) 2020-07-02
WO2019146032A1 (ja) 2019-08-01

Similar Documents

Publication Publication Date Title
JP6900133B2 (ja) ジェスチャー操作装置およびジェスチャー操作方法
JP5238635B2 (ja) 情報処理装置及びアプリケーションプログラムの起動方法
EP2992418B1 (en) Device, method, and graphical user interface for synchronizing two or more displays
EP3000013B1 (en) Interactive multi-touch remote control
EP3099040B1 (en) Button operation processing method in single-hand mode, apparatus and electronic device
WO2016132876A1 (ja) 情報処理装置
WO2016002872A1 (ja) 情報処理装置
JP7338184B2 (ja) 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム
JP2010211500A (ja) 操作装置
WO2014208691A1 (ja) 携帯機器、携帯機器の制御方法
US11048401B2 (en) Device, computer program and method for gesture based scrolling
US20150363083A1 (en) User Interface and Method for Adapting Semantic Scaling of a Tile
US20150253887A1 (en) Information processing apparatus
WO2016143613A1 (ja) ミラー、車載操作装置、および車両
KR20140118664A (ko) 타스크 스위칭 방법 및 이를 위한 디바이스
JP6844936B2 (ja) 表示制御装置
CN109358929A (zh) 分屏显示方法、装置及存储介质
US9733725B2 (en) Control unit, input apparatus and method for an information and communication system
JP7340150B2 (ja) 操作画像表示装置、操作画像表示システム、及び操作画像表示プログラム
US9582150B2 (en) User terminal, electronic device, and control method thereof
US20200272325A1 (en) Input control device, input device, and input control method
JP2015106173A (ja) 電子機器
CN111373359A (zh) 能够改变图像的显示部分的电子装置
JP2015011386A (ja) 携帯機器、携帯機器の制御方法およびプログラム
KR20140117092A (ko) 디스플레이 장치 및 그 제어 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210405

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210405

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210414

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210615

R150 Certificate of patent or registration of utility model

Ref document number: 6900133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250