JP2017211739A - ユーザインターフェース装置およびユーザインターフェースプログラム - Google Patents
ユーザインターフェース装置およびユーザインターフェースプログラム Download PDFInfo
- Publication number
- JP2017211739A JP2017211739A JP2016103046A JP2016103046A JP2017211739A JP 2017211739 A JP2017211739 A JP 2017211739A JP 2016103046 A JP2016103046 A JP 2016103046A JP 2016103046 A JP2016103046 A JP 2016103046A JP 2017211739 A JP2017211739 A JP 2017211739A
- Authority
- JP
- Japan
- Prior art keywords
- operation area
- virtual operation
- operator
- user interface
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】操作性および視認性に優れた新規なユーザインターフェースを提供する。【解決手段】対象物検出部3bは、時系列的な一連のセンサ画像のそれぞれにおいて、操作者の右手および左手を検出する。仮想操作領域保持部3cは、センサ画像における左右の手の検出位置に基づいて、同一の実操作領域に対応付けられ、かつ、互いにオーバーラップしないようにセンサ空間上に設定された複数の仮想操作領域の設定位置を保持する。位置指示部3dは、一連のセンサ画像のそれぞれにおける左右の手の検出位置を、対応する仮想操作領域の設定位置に基づいて、実操作領域の座標系に変換して、実操作領域における複数の操作子の指示位置を出力する。【選択図】図2
Description
本発明は、ユーザインターフェース装置およびユーザインターフェースプログラムに係り、特に、ジェスチャ認識を用いたカーソル操作に関する。
従来より、ジェスチャ認識を用いた様々なユーザインターフェースが提案されている。例えば、特許文献1には、CCDカメラによって撮像された画像に基づき操作者の片手を認識し、認識された片手の動き(手振り)に応じて、カーソルにてアイコン選択を行うインターフェース装置が開示されている。また、特許文献2には、カメラによって操作者の両手を撮像し、撮像画像より認識された両手の動きに応じて、カーソルの移動やオブジェクトの選択といった操作を行う情報入力装置が開示されている。具体的には、選択領域内における一方の手の指の動きに応じてカーソルを移動させ、他方の手のひらの開閉によって、このカーソルによって選択されたアイコンのクリック等が行われる。
上述した従来技術において、片手または両手で操作される対象は、単一のカーソルである。そのため、複数のアイコンを同時に選択するといった如く、表示画面の異なる位置に配置された複数のオブジェクトを同時に操作することはできない。この点、操作者の左右の手のそれぞれにカーソルを割り当てれば、複数のカーソルによるオブジェクトの同時操作が可能となり、操作性の向上を図ることができる。しかしながら、その際、複数のカーソルを移動させるために、カメラと向き合っている操作者が自身の顔の手前で両手を重ねたり、両腕を交差させるといった動作を伴うことは好ましくない。両手や両腕によって、操作者の視界が妨げられ、表示画面の一部が見えなくなってしまうからである。
本発明は、かかる事情に鑑みてなされたものであり、その目的は、操作性および視認性に優れた新規なユーザインターフェースを提供することである。
かかる課題を解決すべく、第1の発明は、操作者のジェスチャに応じて、複数の操作子を制御するユーザインターフェース装置を提供する。このユーザインターフェース装置は、対象物検出部と、仮想操作領域保持部と、位置指示部とを有する。対象物検出部は、時系列的な一連のセンサ画像のそれぞれにおいて、第1の対象物および第2の対象物を検出する。第1の対象物は、操作者の右手、または、この右手によって操作される物体として予め定められている。第2の対象物は、操作者の左手、または、この左手によって操作させる物体として予め定められている。仮想操作領域保持部は、第1のセンサ画像における第1の対象物の検出位置に基づいて、第1の仮想操作領域の設定位置を保持する。第1の仮想操作領域は、所定の実操作領域に対応付けてセンサ空間上に設定される。また、仮想操作領域保持部は、第1のセンサ画像における第2の対象物の検出位置に基づいて、第2の仮想操作領域の設定位置を保持する。第2の仮想操作領域は、第1の仮想操作領域と同一の実操作領域に対応付けられ、かつ、第1の仮想操作領域とはオーバーラップしないようにセンサ空間上に設定される。位置指示部は、実操作領域における第1の操作子の指示位置と、第2の操作子の指示位置とを特定する。第1の操作子の指示位置は、一連のセンサ画像のそれぞれにおける右手の検出位置を、第1の仮想操作領域の設定位置に基づいて、実操作領域の座標系に変換することによって特定される。また、第2の操作子の指示位置は、一連のセンサ画像のそれぞれにおける左手の検出位置を、第2の仮想操作領域の設定位置に基づいて、実操作領域の座標系に変換することによって特定される。
ここで、第1の発明において、上記対象物検出部は、顔検出部と、両手検出部とを有することが好ましい。顔検出部は、センサ画像に基づいて、操作者の顔を検出する。両手検出部は、センサ画像における顔の位置に基づいて、第1の対象物の検索領域および第2の対象物の検索領域のそれぞれをセンサ空間上に設定し、検索領域のそれぞれを検索することによって、第1の対象物および第2の対象物を検出する。この場合、上記両手検出部は、顔検出部によって顔が複数検出された場合、第1の対象物および第2の対象物の検出を顔毎に行うと共に、上記仮想操作領域保持部は、第1の仮想操作領域および第2の仮想操作領域の設定を、両手検出部によって検出された第1の対象物および第2の対象物の個数分行うことが好ましい。また、上記両手検出部は、顔検出部によって検出された顔の大きさに応じて、検索領域のサイズを可変に設定してもよい。
第1の発明において、上記対象物検出部は、第1の対象物の検出位置に基づいて設定された第1の仮想操作領域と、第2の対象物の検出位置に基づいて設定された第2の仮想操作領域とがオーバーラップする場合、このオーバーラップが解消するように、第1の仮想操作領域および第2の仮想操作領域を水平方向にシフトさせてもよい。
第1の発明において、操作指示部をさらに設けてもよい。操作指示部は、対象物検出部によって検出された第1の対象物の形状の変化に応じて、第1の操作子の指示位置における操作内容を指示する。また、操作指示部は、対象物検出部によって検出された第2の対象物の形状の変化に応じて、第2の操作子の指示位置における操作内容を指示する。
第2の発明は、操作者のジェスチャに応じて、複数の操作子を制御するユーザインターフェースプログラムを提供する。このユーザインターフェースプログラムは、以下の第1から第3のステップまでを有する処理をコンピュータに実行させる。まず、第1のステップでは、コンピュータが、時系列的な一連のセンサ画像のそれぞれにおいて、操作者によって操作される第1の対象物および第2の対象物を検出する。第1の対象物は、操作者の右手、または、この右手によって操作される物体として予め定められている。第2の対象物は、操作者の左手、または、この左手によって操作させる物体として予め定められている。第2のステップでは、コンピュータが、第1のセンサ画像における右手の検出位置に基づいて、第1の仮想操作領域の設定位置を保持する。第1の仮想操作領域は、所定の実操作領域に対応付けてセンサ空間上に設定される。それとともに、第2のステップでは、コンピュータが、第1のセンサ画像における左手の検出位置に基づいて、第2の仮想操作領域の設定位置を保持する。第2の仮想操作領域は、第1の仮想操作領域と同一の実操作領域に対応付けられ、かつ、第1の仮想操作領域とはオーバーラップしないようにセンサ空間上に設定される。第3のステップでは、コンピュータが、実操作領域における第1の操作子の指示位置と、第2の操作子の指示位置とを特定する。第1の操作子の指示位置は、一連のセンサ画像のそれぞれにおける右手の検出位置を、第1の仮想操作領域の設定位置に基づいて、実操作領域の座標系に変換することによって特定される。また、第2の操作子の指示位置は、一連のセンサ画像のそれぞれにおける右手の検出位置を、第2の仮想操作領域の設定位置に基づいて、実操作領域の座標系に変換することによって特定される。
ここで、第2の発明において、上記第1のステップは、コンピュータが、センサ画像に基づいて、操作者の顔を検出する第4のステップと、コンピュータが、センサ画像における顔の位置に基づいて、第1の対象物の検索領域および第2の対象物の検索領域のそれぞれをセンサ空間上に設定し、検索領域のそれぞれを検索することによって、第1の対象物および第2の対象物を検出する第5のステップとを有することが好ましい。この場合、上記第5のステップは、第4のステップによって顔が複数検出された場合、第1の対象物および第2の対象物の検出を顔毎に行うと共に、上記第2のステップは、第1の仮想操作領域および第2の仮想操作領域の設定を、第5のステップによって検出された第1の対象物および第2の対象物の個数分行うことが好ましい。また、上記第5のステップは、第4のステップによって検出された顔の大きさに応じて、検索領域のサイズを可変に設定してもよい。
第2の発明において、上記第1のステップは、第1の対象物の検出位置に基づいて設定された第1の仮想操作領域と、第2の対象物の検出位置に基づいて設定された第2の仮想操作領域とがオーバーラップするか否かを判断するステップと、第1の仮想操作領域および第2の仮想操作領域がオーバーラップすると判断された場合、このオーバーラップが解消するように、第1の仮想操作領域および第2の仮想操作領域を水平方向にシフトさせるステップとを有していてもよい。
第2の発明において、第7のステップをさらに設けてもよい。第7のステップでは、コンピュータが、第1のステップによって検出された第1の対象物の形状の変化に応じて、第1の操作子の指示位置における操作内容を指示すると共に、第1のステップによって検出された第2の対象物の形状の変化に応じて、第2の操作子の指示位置における操作内容を指示する。
また、第1または第2の発明において、上記センサ画像は、上記センサとしてのカメラによって撮像された撮像画像であってもよい。
本発明によれば、同一の実操作領域に対応付けて、第1および第2の仮想操作領域を設定し、それぞれの仮想操作領域における第1および第2の対象物の検出位置より、実操作領域における第1および第2の操作子の指示位置が個別に指示される。このような位置の指示をセンサ画像毎に繰り返すことで、実操作領域の全体に亘って、左右の手の動きに追従して、第1および第2の操作子を高い自由度で別々に移動させることができる。また、第1および第2の仮想操作領域は、センサ空間上において互いにオーバーラップしないように設定される。これにより、実操作領域上の第1および第2の操作子がどのような位置的関係であろうとも、操作者が自身の顔の手前で両手を重ねたり、両腕を交差させたりする必要はない。その結果、操作性および視認性に優れたユーザインターフェースを実現できる。
(第1の実施形態)
図1は、本実施形態に係るジェスチャ認識システムの全体構成図である。このジェスチャ認識システム1は、カメラ2と、ユーザインターフェース装置3と、コンピュータ4と、表示装置5とを主体に構成されている。イメージセンサであるカメラ2は、操作者Uと向き合うように配置されており、少なくとも操作者Uの上半身を含むセンサ空間(撮像空間)を所定のフレーム間隔で撮像する。ユーザインターフェース装置3は、カメラ2によって時系列的に取得された一連のセンサ画像(撮像画像)に基づき、操作者Uのジェスチャ、具体的には、操作者Uの左右の手の挙動を検出・認識し、これらの挙動に追従するように、表示装置5の画面上に表示された複数のカーソル(ポインタ)を制御する。コンピュータ4は、オペレーティングシステムやアプリケーションプログラムが実行されている状態において、ユーザインターフェース装置3からの指示に基づいて、表示画面上のカーソルの移動や各種の操作を実行する。
図1は、本実施形態に係るジェスチャ認識システムの全体構成図である。このジェスチャ認識システム1は、カメラ2と、ユーザインターフェース装置3と、コンピュータ4と、表示装置5とを主体に構成されている。イメージセンサであるカメラ2は、操作者Uと向き合うように配置されており、少なくとも操作者Uの上半身を含むセンサ空間(撮像空間)を所定のフレーム間隔で撮像する。ユーザインターフェース装置3は、カメラ2によって時系列的に取得された一連のセンサ画像(撮像画像)に基づき、操作者Uのジェスチャ、具体的には、操作者Uの左右の手の挙動を検出・認識し、これらの挙動に追従するように、表示装置5の画面上に表示された複数のカーソル(ポインタ)を制御する。コンピュータ4は、オペレーティングシステムやアプリケーションプログラムが実行されている状態において、ユーザインターフェース装置3からの指示に基づいて、表示画面上のカーソルの移動や各種の操作を実行する。
操作者Uは、表示装置5の表示画面を見ながら、カメラ2に左右の手のひらを向けた状態で、左右の手を動かしたり、左右の手の形状を変化させたりする。左手に割り当てられたカーソル(左手カーソル)は、左手の動きに追従して表示画面上を移動すると共に、左手の形状の変化に応じて、このカーソルの指示位置における所定の操作が行われる。また、右手に割り当てられたカーソル(右手カーソル)は、右手の動きに追従して表示画面上を移動すると共に、右手の形状の変化に応じて、このカーソルの指示位置における所定の操作が行われる。
なお、図1の構成では、ユーザインターフェース装置3をカメラ2およびコンピュータ4とは別個のユニットとして例示しているが、インターフェース装置3にカメラ2を内蔵してもよい。また、ユーザインターフェース装置3の機能をコンピュータ4に担わせてもよく、この場合、コンピュータ4自体が「ユーザインターフェース装置」となる。すなわち、本発明において、図示したユーザインターフェース装置3の機能を備えるユニットが「ユーザインターフェース装置」に相当する。
図2は、ユーザインターフェース装置3のブロック図である。このユーザインターフェース装置3は、フレームメモリ3aと、対象物検出部3bと、仮想操作領域保持部3cと、位置指示部3dと、操作指示部3eとを有する。フレームメモリ3aには、カメラ2によって時系列的に取得された一連のセンサ画像がフレーム単位で格納・更新される。
対象物検出部3bは、フレームメモリ3aからセンサ画像をフレーム単位で読み出し、このセンサ画像において、操作者Uの右手と左手とを検出する。本実施形態において、対象物検出部3bは、左右の手を検出する両手検出部3gの他に、顔検出部3fを含んでいる。顔検出部3fは、操作者Uの顔を検出する。両手検出部3gは、センサ画像における顔の検出位置を基準に検索領域を設定し、その上で、検索領域内における左右の手の検出を行う。操作者Uを正面から撮影した場合、センサ画像における顔の位置および両手の位置には関連性がある。そこで、左右の手を検索する検索領域を顔の位置を基準に設定し、その範囲を限定すれば、センサ画像全体を検索する場合と比較して、演算量を有効に低減できる。検索領域を限定することは、センサ画像のフレームレートを上げて、カーソルの応答性を高める上で有利である。ただし、演算量や時間的制約を考慮する必要がなければ、顔の検出を行うことなく、センサ画像全体を検索して左右の手の検出を行ってもよい。また、対象物検出部3bは、操作者Uの左右の手の形状の変化も併せて検出する。
仮想操作領域保持部3cは、左右の手の仮想操作領域に関する設定位置を保持する。左手の仮想操作領域は、左手の動きが左手カーソルの動きとして反映される範囲に相当し、右手の仮想操作領域は、右手の動きが右手カーソルの動きとして反映される範囲に相当する。後述するように、これらの仮想操作領域は、カーソルが実際に移動する同一の実操作領域に対応付けられている。
位置指示部3dは、仮想操作領域保持部3cによって保持された左手の仮想操作領域の設定位置に基づき、左手の検出位置を座標変換することによって、実操作領域上における左手カーソルの指示位置(座標))を算出する。それとともに、位置指示部3dは、仮想操作領域保持部3cによって保持された右手の仮想操作領域の設定位置に基づき、右手の検出位置を座標変換することによって、実操作領域上における右手カーソルの指示位置(座標)を算出する。仮想操作領域上の座標と、実操作領域上の座標とは、一対一の位置的関係にあり、手の検出位置が仮想操作領域内にあることを前提として、手の検出位置からカーソルの指示位置が一義的に特定される。位置指示部3dによって算出された左右のカーソルの指示位置は、コンピュータ4に出力・指示される。
操作指示部3eは、対象物検出部3bによって検出された右手の形状の変化に応じて、右手カーソルによって指示された位置における操作内容を特定する。それとともに、操作指示部3eは、対象物検出部3bによって検出された左手の形状の変化に応じて、左手カーソルによって指示された位置における操作内容を特定する。例えば、手を開いた状態から親指を残して手を閉じた状態に変えると、カーソルの指示位置においてクリック操作が行われるといった如くである。このような操作者Uのジェスチャと、実行されるアクションとの対応関係は、システム上、予め設定されている。操作指示部3eによって特定された操作内容は、コンピュータ4に出力・指示される。
つぎに、図3および図4に示すフローチャートを参照しつつ、ユーザインターフェース装置3において実行される処理について詳述する。同図に示した一連の処理は、カメラ2によって取得された各フレームのセンサ画像を対象に行われ、所定のフレーム間隔で繰り返される。また、処理対象となるセンサ画像の一例として、図5に示すように、表示装置5の表示画面を見ている1名の操作者Uが、カメラ2に向かって左右の手L,R(手のひら)をかざしている状態を想定する。
まず、ステップ1において、対象物検出部3bは、センサ画像の座標系において、左右の手の仮想操作領域が設定済みであるか否かを判定する。仮想操作領域が設定済みでない場合とは、典型的には、システム起動直後の初期状態や、設定済みの仮想操作領域が途中で解除された直後の状態である。この場合、ステップ1の判断からステップ2に進み、仮想操作領域の設定と、左右の手の動きに追従したカーソルの位置の指示とが行われる(ステップ2〜9)。一方、仮想操作領域が設定済みの場合、すなわち、一旦設定された仮想操作領域が解除されることなく維持されている状態では、ステップ1の判断からステップ10に進み、センサ画像の座標系に仮想操作領域を固定・維持したままで、左右の手の動きに追従したカーソルの位置の指示が行われる(ステップ10〜13)
つぎに、ステップ2において、顔検出部3fは、センサ画像を検索することによって、操作者Uの顔O(図5参照)の検出を行う。顔Oの検出を含めた物体検出手法そのものは、デジタルカメラやスマートフォン等でも広く実装されているように、古くから研究が行われている周知技術であり、トラッキングや物体認識の任意の手法を広く採用することができる。例えば、ユーザーによる探索領域指定、トラッキングを行うことによる探索空間の削減、深度画像取得を利用した三次元形状取得や背景除去といったセンサデータ自体の高度化、画像の色や輝度の分布やWaveletやFFT画像といった画像全体を特徴量とする手法、二値化画像の輪郭の凹凸パターンなどの形状要素を特徴量とする手法、Log-Polar変換画像を併用するFFT画像などのアフィン変換不変特徴量を使用する手法、SIFTなどに代表される種々の局所画像特徴量と様々な統計的機械学習手法を併用する特定物体認識、特徴量の表現方法をバイナリ化やハッシュなどにより簡素化したりカーネル関数を用いることで計算量を削減する手法、局所的な画像の誤差を許容するテンプレートマッチング手法を用いた特定物体認識、三次元形状モデルやスケルトンモデルなどの形状モデルや運動モデルとセンサデータのデータ融合、認識対象物体の個々の要素への分解と再構築を用いる手法、Haar-likeやHoG(Histograms of Oriented Gradients)やそれらのJoint特徴量などの画像認識のために人為的に設計された特徴量と不要特徴量削減を含めた各種の統計的機械学習手法を併用する一般物体認識手法、Deep Learningをはじめとする特徴量の自動生成と物体認識を行う一般物体認識手法、といった如くである。また、このステップ2において、顔Oが検出された場合、センサ画像上における顔Oの位置および縦横の大きさ(顔の横幅および顔の長さ)も併せて特定される。
ステップ3において、顔検出部3fは、センサ画像上に顔Oが検出されたか否かを判断する。顔Oが検出されなかった場合、今回のサイクルにおける処理を終了し、次回のサイクルにおける処理の開始を待つ。これに対して、顔Oが検出された場合、ステップ4に進む。
ステップ4において、両手検出部3gは、左手の検索領域Slと、右手の検索領域Srとをセンサ画面上に個別に設定する。図6は、センサ画像上に設定される検索領域Sl,Srの説明図である。通常、センサ画像における左右の手L,Rは顔Oよりも低い位置に左右対称で、かつ、同じ高さに存在するので、そのような位置に検索領域Sl,Srが設定される。ただし、左右の手の具体的な位置は、操作者Uの体格(大人・子供、体の大きさ)によって異なる。そこで、顔Oの検出領域Soの中心から横幅に比例した位置に検索領域Sr,Slが設定される。両手検出部3gは、顔検出部3fによって検出された顔Oの大きさに応じて、検索領域Sl,Srのサイズを可変に設定する。すなわち、検索領域Sl,Srの縦横の大きさは、顔の検出領域Soの縦横の大きさに比例する。
なお、検索領域Sl,Srの設定位置や大きさは、目的や用途に応じて可変に設定できるようにしてもよい。これにより、センサ画像上の特定の位置で左右の手を操作させるなどの調整が可能となる。また、第2の実施形態で述べるように、演算量や時間的制約を考慮する必要がなければ、ステップ2〜4を省略し、部分的な検索領域Sl,Srを設定することなく、センサ画像全体を対象として左右の手の検出を行ってもよい。
本実施形態において、左右の手の検索領域Sl,Srは、水平方向において十分に離れていることが条件となる。ここで、「十分に離れている」とは、操作者Uが検索領域Sl,Sr内でどのように両手をかざしたとしても(ワーストケースとして、両手を最も近づけた場合)、あるいは、後述する仮想操作領域Vl,Vrをどのような大きさに設定したとしても(ワーストケースとして、最大サイズに設定した場合)、仮想操作領域Vl,Vrが互いにオーバーラップしないことを保証できる程度の距離をいう。
ステップ5において、操作者Uに対して両手をかざすことを促した上で、両手検出部3gは、センサ画像に設定されたそれぞれの検索領域Sl,Sr内を検索し、左右の手L,Rの検出を行う。顔Oと同様、左右の手L,Rの検出についても、周知の物体検出手法を広く採用することができる。なお、検出すべき左右の手L,Rは、ステップ2で検出された顔Oの大きさに対応したものとする。そして、ステップ6において、両手検出部3gは、検索領域Sl,Sr内において左右の手L,Rが検出されたか否かを判断する。左右の手L,Rが検出されなかった場合、今回のサイクルにおける処理を終了する。これに対して、左右の手L,Rが検出された場合、ステップ7に進む。
ステップ7において、両手検出部3gは、左手の仮想操作領域Vlと、右手の仮想操作領域Vrとをセンサ画面上に個別に設定する。図7は、センサ画像上に設定される仮想操作領域Vl,Vrの説明図である。左手の仮想操作領域Vlは、センサ画像における左手の検出位置(例えば左手の中心)を基準に設定され、所定の大きさを有する。また、右手の仮想操作領域Vrは、センサ画像における右手の検出位置(例えば右手の中心)を基準に設定され、左手の仮想操作領域Vlと同じ大きさを有する。これらの仮想操作領域Vl,Vrは、センサ画面における高さが一致しており、左右どちらか先に検出された手の仮想操作領域と同じ高さに、残りの手(検出されたことが条件とされる。)の仮想操作領域が設定される。
仮想操作領域Vl,Vrの設定に関しては、以下の2つの条件を満たすことが要求される。
(1)同一の実操作領域に対応付けられていること
(2)センサ画像の座標系において、互いにオーバーラップ(部分的なオーバーラップを含む。)しないこと
(1)同一の実操作領域に対応付けられていること
(2)センサ画像の座標系において、互いにオーバーラップ(部分的なオーバーラップを含む。)しないこと
条件(1)により、仮想操作領域Vl,Vrに対応付けられた実操作領域が、左手カーソルおよび右手カーソルによって共有された単一の操作領域となる。ここで、実操作領域とは、カーソル(操作子)による操作を行うことができる範囲をいい、この範囲内において、カーソルの移動が行われる。カーソルの画面表示を行う場合、実操作領域は、画面に表示されたカーソルが移動する表示画面領域に相当する。この表示画面領域は、表示画面全体であってもよいし、表示画面の一部であってもよい。ただし、実操作領域上の位置が指示されたカーソルを表示すべきではない状況や必須ではない状況が考えられるので、カーソルの画面表示が常に行われることは、本発明の必須事項ではない。例えば、VR(Virtual Reality)やMR(Mixed Reality)の分野において、手や操作体が視界にあり、カーソルを表示する必要がない場合や表示すべきでない場合がある。また、手や操作体で円を描くなどのジェスチャー操作により、特定の機能(例えば、映像の再生や停止)への割り当てを行う場合には、カーソルが非表示でも機能を果たすことができる。
また、条件(1)の「対応付けられる」とは、仮想操作領域Vl,Vr上の位置と、実操作領域上の位置とが一対一の関係にあることをいう。この関係から、座標変換によって、仮想操作領域Vl,Vr上の位置(座標)および実操作領域上の位置(座標)の一方から他方が一義的に特定される。
また、条件(2)により、実操作領域上において、左手カーソルと、右手カーソルとがどのような位置的関係にあろうとも、操作者Uが自身の顔の手前で両手を重ねたり、両腕を交差させたりする必要はない。本実施形態において、検索領域Sl,Srは、互いにオーバーラップしないように、センサ画像の水平方向にある程度離れて設定され、その範囲内で左右の手L,Rの検出が行われる。したがって、検索領域Sl,Srを離すことをもって、仮想操作領域Vl,Vrがオーバーラップしないことが保証される。
なお、仮想操作領域Vl,Vrの大きさは可変に設定できるようにしてもよい。これにより、左右の手L,Rの動きに対するカーソルの移動量を調整することができる。例えば、手L,Rの動きに対してカーソルの動きが大きすぎる場合、仮想操作領域Vl,Vrを現在のサイズよりも大きくする。逆に、手L,Rの動きに対してカーソルの動きが小さすぎるすぎる場合、仮想操作領域Vl,Vrを現在のサイズよりも小さくする。これにより、操作者Uによって扱い易い最適な状態を個別に設定することができる。このような仮想操作領域Vl,Vrの調整は、オペレーティングシステムやアプリケーションプログラムの指示に基づいて、行うことができる。
ステップ8において、両手検出部3gは、左右の手の検出位置として、図7に示した操作点pl,prを設定する。操作点pl,prは、手のひらの特定の位置、例えば、手のひらの中心として特定される。そして、ステップ9において、位置指示部3eは、仮想操作領域上の操作点pl,prよりカーソルの指示位置Pl,Pr(実操作領域上の指示点)を特定する。すなわち、左手カーソルの指示位置Plは、左手の仮想操作領域Vlの設定位置に基づき、左手の操作点plを実操作領域の座標系に変換することによって、算出される。また、右手カーソルの指示位置Prは、右手の仮想操作領域Vrの設定位置に基づき、右手の操作点prを実操作領域の座標系に変換することによって、算出される。これらの指示位置Pl,Prは、位置指示部3eよりコンピュータ4に出力・指示される。これにより、図7に示した実操作領域上の指示位置Plに左手カーソルPlが表示されると共に、指示位置Prに右手カーソルPlが表示される。以上をもって、今回のサイクルにおける処理を終了する。
一方、仮想操作領域Vl,Vrが設定された次回以降のサイクルでは、図3のステップ1の判定結果を経て、図4のステップ10に進む。ステップ10において、両手検出部3gは、センサ画像における左右の手の検出を行う。ただし、前後のフレーム間における手の変化量は少ないので、前フレームで検出された手の位置を基準とした狭い範囲内で手の検索を行えばよい。そして、ステップ11において、両手検出部3gは、左右の手L,Rが検出されたか否かを判断する。左右の手L,Rが検出されなかった場合、設定済みの仮想操作領域Vl,Vrを解除した上で(ステップ14)、今回のサイクルにおける処理を終了する。これにより、次回のサイクルにおいて、仮想操作領域Vl,Vrの設定が再度行われる。一方、左右の手L,Rが検出された場合、ステップ12に進む。
ステップ12において、両手検出部3gは、ステップ8と同様、左右の手の検出位置として、操作点pl,prを設定する。そして、ステップ13において、位置指示部3eは、ステップ9と同様、操作点pl,prよりカーソルの指示位置Pl,Prを特定する。以上をもって、今回のサイクルにおける処理を終了する。
図8は、左右の手の動きに追従したカーソルの移動を示す図である。図3および図4に示した処理が繰り返し実行されることで、実操作領域に表示された2つのカーソルPl,Prは、仮想操作領域Vl,Vr内における左右の手の動きに追従しながら移動する。具体的には、タイミングt1において、左右の手の仮想操作領域Vl,Vrが設定されると共に、操作点pl,prに対応した実操作領域上の位置にカーソルPl,Prが表示される。それ以降、タイミングt2,t3・・・と時間が経過するにつれて、固定された仮想操作領域Vl,Vr内で操作点pl,prが移動すると、これらに追従して、実操作領域上のカーするPl,Prも経時的に移動していく。
図9は、センサ画像の他の一例を示す図である。この例は、複数の操作者Uが、カメラ2に向かって左右の手L,R(手のひら)をかざした状態を示している。このセンサ画像では、顔検出部3fによって複数の顔Oが検出される。この場合、両手検出部3gは、右手および左手の検出を顔毎に行う。そして、仮想操作領域保持部3cは、仮想操作領域Vl,Vrの設定を、両手検出部によって検出された左右の手のセットの個数分行う。これにより、実操作領域上には、左右の手のカーソルのセットが人数分表示されることになる。
このように、第1の実施形態によれば、同一の実操作領域に対応付けられた左右の手の仮想操作領域Vl,Vrを個別に設定し、それぞれの仮想操作領域Vl,Vrにおける左右の手の位置、すなわち、操作点pl,prに基づき、実操作領域におけるカーソルPl,Prの指示位置が決められる。これにより、同一の実操作領域において、左右の手に割り当てられたカーソルPl,Prを、それぞれの手の動きに追従して、高い自由度で別々に移動させることができる。
また、第1の実施形態によれば、左右の手を検索する検索領域Sl,Srを水平方向に十分に離すことで、仮想操作領域Vl,Vrが互いにオーバーラップしないことを保証できる。これにより、実操作領域上のカーソルPl,Prがどのような位置的関係にあっても、操作者Uが自身の顔の手前で両手を重ねたり、両腕を交差させたりする必要が生じないので、操作性および視認性に優れたユーザインターフェースを実現できる。また、仮想操作領域Vl,Vrをオーバーラップしないようにすることは、ジェスチャの認識精度の点でも有利である。カメラの撮像空間のようなセンサ空間(三次元)での挙動は、タッチパネルのような平面上(二次元)での挙動とは異なり、奥行き方向の自由度がある(タッチパネル上の挙動では奥行き方向の自由度は殆どない)。そのため、特に、両手が重ねられた状態で左右の手の形状を精度よく認識することは、システム処理上、必ずしも容易ではない。この点、本実施形態では、カーソルPl,Prを操作するためのジェスチャとして、このような挙動を考慮しなくてよいので、認識精度の確保に寄与する。
さらに、第1の実施形態によれば、検索領域Sl,Srを設けて、左右の手L,Rを検索する領域を限定することで、センサ画像全体を検索する場合と比較して、検索に要する演算量を低減できる。
(第2の実施形態)
本実施形態では、第1の実施形態とは異なり、検索領域Sl,Srを設定することなく、センサ画像全体を検索することによって、互いにオーバーラップしない仮想操作領域Vl,Vrを設定する。図10は、第2の実施形態に係るユーザインターフェース処理のフローチャートである。図3のフローチャートと異なるのは、図3のステップ2からステップ7の処理を、ステップ20からステップ25の処理に置換した点である。それ以外の点については、基本的に第1の実施形態と同様なので、図2と同一のステップ番号を付して、ここでの説明を省略する。
本実施形態では、第1の実施形態とは異なり、検索領域Sl,Srを設定することなく、センサ画像全体を検索することによって、互いにオーバーラップしない仮想操作領域Vl,Vrを設定する。図10は、第2の実施形態に係るユーザインターフェース処理のフローチャートである。図3のフローチャートと異なるのは、図3のステップ2からステップ7の処理を、ステップ20からステップ25の処理に置換した点である。それ以外の点については、基本的に第1の実施形態と同様なので、図2と同一のステップ番号を付して、ここでの説明を省略する。
まず、ステップ20において、操作者Uに対して両手をかざすことを促した上で、両手検出部3gは、センサ画像全体を検索し、左右の手L,Rの検出を行う。ステップ21において、両手検出部3gは、センサ画像内において左右の手L,Rが検出されたか否かを判断する。左右の手L,Rが検出されなかった場合、仮想操作領域Vl,Vrを設定することなく、今回のサイクルにおける処理を終了する。これに対して、左右の手L,Rが検出された場合、ステップ22に進む。
ステップ22において、両手検出部3gは、左手の仮想操作領域Vlと、右手の仮想操作領域Vrとをセンサ画面上に個別に初期設定する。第1の実施形態のステップ7と同様、仮想操作領域Vl,Vrの初期位置としては、例えば、それぞれの手の中心を基準に設定することができる。
ステップ23において、両手検出部3は、左右の仮想操作領域Vl,Vrがセンサ画像の座標系において、互いにオーバーラップするか否かを判断する。仮想操作領域Vl,Vrがオーバーラップしない場合、仮想操作領域Vl,Vrの現在位置が設定位置として確定した上で、左右の手の操作点の設定(ステップ8)と、指示位置の特定(ステップ9)とが行われる。これに対して、仮想操作領域Vl,Vrがオーバーラップする場合、ステップ24の判断を経て、オーバーラップが低減するように、すなわち、仮想操作領域Vl,Vrが離れるように、仮想操作領域Vl,Vrを水平方向に所定量だけシフトさせた上で(ステップ25)、ステップ23のオーバーラップ判定に戻る。これにより、図11に示すように、初期設定された仮想操作領域Vl’,Vr’がオーバーラップしている場合、このオーバーラップが解消する方向に仮想操作領域Vl’,Vr’が少しずつシフトしていき、オーバーラップが解消された位置に仮想操作領域Vl,Vrが設定されることになる。なお、仮想操作領域Vl,Vrを所定の最大シフト量だけシフトさせても、オーバーラップが解消されない場合、ステップ24の判断により、仮想操作領域Vl,Vrを設定することなく、今回のサイクルにおける処理を終了する。
このように、第2の実施形態によれば、第1の実施形態と同様、操作性および視認性に優れたユーザインターフェースを実現できる他、検索領域Sl,Srを設けなくとも、オーバーラップしないような仮想操作領域Vl,Vrを適切に設定することができる。
なお、上述した各実施形態では、操作者Uが操作する対象として、カーソル(ポインタ)を例に説明したが、本発明はこれに限定されるものではなく、操作者Uによって表示画面上を移動可能な、所定の操作を行うための「操作子」に対して広く適用することができる。例えば、ピアノを演奏するアプリケーションプログラムにおいて、画面上に表示されたピアノのキーを、手の形をした操作子で押し下げることで、両手で演奏するといった如くである。
また、上述した各実施形態では、操作者Uのジェスチャとして、操作者Uの左右の手そのものを認識する例について説明したが、ジェスチャの認識対象は、本発明はこれに限定されるものではなく、左右の手によって操作される物体であってもよい。例えば、左右の手のそれぞれに握られた刀や杖を認識するといった如くである。ユーザインターフェース装置3によって認識される対象物(手や物体)を予め定めておき、その形状的な特徴と、形状の変化パターンとを適切に設定しておけば、認識対象が物体であっても、本実施形態と同様のユーザインターフェースを実現できる。
また、上述した各実施形態では、操作者Uのジェスチャを認識するためのセンサとして、単眼カメラを用いているが、ステレオカメラやマルチカメラ、一台もしくは複数台の深度画像を取得できるセンサを用いてもよい。ただし、本発明は、単眼カメラにも適用し得ることから、不要なコストアップを避ける観点からは、単眼カメラを用いた方が好適である。また、カメラに代えてレーザを用い、レーザ画像(レーザの反射強度の二次元的な分布)をセンサ画像とすることも可能である。さらに、カメラやレーザ等のセンサの配置位置は、操作者Uと向き合うように位置に限定されるものではなく、例えば、操作者Uの頭部に装着されたヘッドマウントディスプレイ(HMD)の内蔵カメラによって、操作者Uの両手(手の甲)を撮像してもよいし、天井に設置されたカメラによって、上方から操作者Uの両手を撮像してもよい。
さらに、上述したユーザインターフェース装置3の機能をコンピュータ4に担わせる場合、図3および図4は、コンピュータプログラムにおける一連の手順を示すフローチャートとしても捉えることができる。
1 ジェスチャ認識システム
2 カメラ
3 ユーザインターフェース装置
3a フレームメモリ
3b 対象物検出部
3c 仮想操作領域保持部
3d 位置指示部
3e 操作指示部
3f 顔検出部
3g 両手検出部
4 コンピュータ
5 表示装置
2 カメラ
3 ユーザインターフェース装置
3a フレームメモリ
3b 対象物検出部
3c 仮想操作領域保持部
3d 位置指示部
3e 操作指示部
3f 顔検出部
3g 両手検出部
4 コンピュータ
5 表示装置
Claims (14)
- 操作者のジェスチャに応じて、複数の操作子を制御するユーザインターフェース装置において、
時系列的な一連のセンサ画像のそれぞれにおいて、操作者の右手または右手によって操作される物体として予め定められた第1の対象物と、操作者の左手または左手によって操作させる物体として予め定められた第2の対象物とを検出する対象物検出部と、
第1のセンサ画像における前記第1の対象物の検出位置に基づいて、所定の実操作領域に対応付けてセンサ空間上に設定された第1の仮想操作領域の設定位置を保持すると共に、前記第1のセンサ画像における前記第2の対象物の検出位置に基づいて、前記第1の仮想操作領域と同一の実操作領域に対応付けられ、かつ、前記第1の仮想操作領域とはオーバーラップしないようにセンサ空間上に設定された第2の仮想操作領域の設定位置を保持する仮想操作領域保持部と、
前記一連のセンサ画像のそれぞれにおける前記第1の対象物の検出位置を、前記第1の仮想操作領域の設定位置に基づいて前記実操作領域の座標系に変換することによって、前記実操作領域における第1の操作子の指示位置を指示すると共に、前記一連のセンサ画像のそれぞれにおける前記第2の対象物の検出位置を、前記第2の仮想操作領域の設定位置に基づいて前記実操作領域の座標系に変換することによって、前記実操作領域における第2の操作子の指示位置を特定する位置指示部と
を有することを特徴とするユーザインターフェース装置。 - 前記対象物検出部は、
前記センサ画像に基づいて、操作者の顔を検出する顔検出部と、
前記センサ画像における顔の位置に基づいて、前記第1の対象物の検索領域および前記第2の対象物の検索領域を互いにオーバーラップしないようにセンサ空間上に設定し、前記検索領域のそれぞれを検索することによって、前記センサ画像において、前記第1の対象物および前記第2の対象物を検出する両手検出部と
を有することを特徴とする請求項1に記載されたユーザインターフェース装置。 - 前記両手検出部は、前記顔検出部によって顔が複数検出された場合、前記第1の対象物および前記第2の対象物の検出を顔毎に行い、
前記仮想操作領域保持部は、前記第1の仮想操作領域および前記第2の仮想操作領域の設定を、前記両手検出部によって検出された前記第1の対象物および前記第2の対象物の個数分行うことを特徴とする請求項2に記載されたユーザインターフェース装置。 - 前記両手検出部は、前記顔検出部によって検出された顔の大きさに応じて、前記検索領域のサイズを可変に設定することを特徴とする請求項3に記載されたユーザインターフェース装置。
- 前記対象物検出部は、前記第1の対象物の検出位置に基づいて設定された前記第1の仮想操作領域と、前記第2の対象物の検出位置に基づいて設定された前記第2の仮想操作領域とがオーバーラップする場合、当該オーバーラップが解消するように、前記第1の仮想操作領域および前記第2の仮想操作領域を水平方向にシフトさせることを特徴とする請求項1に記載されたユーザインターフェース装置。
- 前記対象物検出部によって検出された前記第1の対象物の形状の変化に応じて、前記第1の操作子の指示位置における操作内容を指示すると共に、前記対象物検出部によって検出された前記第2の対象物の形状の変化に応じて、前記第2の操作子の指示位置における操作内容を指示する操作指示部をさらに有することを特徴とする請求項1から5のいずれかに記載されたユーザインターフェース装置。
- 前記センサ画像は、前記センサとしてのカメラによって撮像された撮像画像であることを特徴とする請求項1から6のいずれかに記載されたユーザインターフェース装置。
- 操作者のジェスチャに応じて、複数の操作子を制御するユーザインターフェースプログラムにおいて、
コンピュータが、時系列的な一連のセンサ画像のそれぞれにおいて、操作者の右手または右手によって操作される物体として予め定められた第1の対象物と、操作者の左手または左手によって操作させる物体として予め定められた第2の対象物を検出する第1のステップと、
コンピュータが、第1のセンサ画像における前記第1の対象物の検出位置に基づいて、所定の実操作領域に対応付けてセンサ空間上に設定された第1の仮想操作領域の設定位置を保持すると共に、前記第1のセンサ画像における前記第2の対象物の検出位置に基づいて、前記第1の仮想操作領域と同一の実操作領域に対応付けられ、かつ、前記第1の仮想操作領域とはオーバーラップしないようにセンサ空間上に設定された第2の仮想操作領域を設定位置を保持する第2のステップと、
コンピュータが、前記一連のセンサ画像のそれぞれにおける前記第1の対象物の検出位置を、前記第1の仮想操作領域の設定位置に基づいて前記実操作領域の座標系に変換することによって、前記実操作領域における第1の操作子の指示位置を指示すると共に、前記一連のセンサ画像のそれぞれにおける前記第2の対象物の検出位置を、前記第2の仮想操作領域の設定位置に基づいて前記実操作領域の座標系に変換することによって、前記実操作領域における第2の操作子の指示位置を特定する第3のステップと
を有する処理をコンピュータに実行させることを特徴とするユーザインターフェースプログラム。 - 前記第1のステップは、
コンピュータが、前記センサ画像に基づいて、操作者の顔を検出する第4のステップと、
コンピュータが、前記センサ画像における顔の位置に基づいて、前記第1の対象物の検索領域および前記第2の対象物の検索領域を互いにオーバーラップしないようにセンサ空間上に設定し、前記検索領域のそれぞれを検索することによって、センサ画像において、前記第1の対象物および前記第2の対象物とを検出する第5のステップと
を有することを特徴とする請求項8に記載されたユーザインターフェースプログラム。 - 前記第5のステップは、
前記第4のステップによって顔が複数検出された場合、前記第1の対象物および前記第2の対象物の検出を顔毎に行い、
前記第2のステップは、
前記第1の仮想操作領域および前記第2の仮想操作領域の設定を、前記第5のステップによって検出された前記第1の対象物および前記第2の対象物の個数分行うことを特徴とする請求項9に記載されたユーザインターフェースプログラム。 - 前記第5のステップは、
前記第4のステップによって検出された顔の大きさに応じて、前記検索領域のサイズを可変に設定することを特徴とする請求項10に記載されたユーザインターフェースプログラム。 - 前記第1のステップは、
前記第1の対象物の検出位置に基づいて設定された前記第1の仮想操作領域と、前記第2の対象物の検出位置に基づいて設定された前記第2の仮想操作領域とがオーバーラップするか否かを判断するステップと、
前記第1の仮想操作領域および前記第2の仮想操作領域がオーバーラップすると判断された場合、当該オーバーラップが解消するように、前記第1の仮想操作領域および前記第2の仮想操作領域を水平方向にシフトさせるステップと
を有することを特徴とする請求項8に記載されたユーザインターフェースプログラム。 - 前記第1のステップによって検出された前記第1の対象物の形状の変化に応じて、前記第1の操作子の指示位置における操作内容を指示すると共に、前記第1のステップによって検出された前記第2の対象物の形状の変化に応じて、前記第2の操作子の指示位置における操作内容を指示する第7のステップをさらに有することを特徴とする請求項8から111のいずれかに記載されたユーザインターフェースプログラム。
- 前記センサ画像は、前記センサとしてのカメラによって撮像された撮像画像であることを特徴とする請求項8から12のいずれかに記載されたユーザインターフェースプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016103046A JP2017211739A (ja) | 2016-05-24 | 2016-05-24 | ユーザインターフェース装置およびユーザインターフェースプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016103046A JP2017211739A (ja) | 2016-05-24 | 2016-05-24 | ユーザインターフェース装置およびユーザインターフェースプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017211739A true JP2017211739A (ja) | 2017-11-30 |
Family
ID=60475513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016103046A Pending JP2017211739A (ja) | 2016-05-24 | 2016-05-24 | ユーザインターフェース装置およびユーザインターフェースプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017211739A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4115273A4 (en) * | 2020-03-20 | 2023-04-12 | Huawei Technologies Co., Ltd. | METHODS AND SYSTEMS FOR HAND GESTURE BASED CONTROL OF A DEVICE |
US12093465B2 (en) | 2020-03-23 | 2024-09-17 | Huawei Technologies Co., Ltd. | Methods and systems for hand gesture-based control of a device |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011028573A (ja) * | 2009-07-27 | 2011-02-10 | Panasonic Electric Works Co Ltd | 操作装置 |
US20110080337A1 (en) * | 2009-10-05 | 2011-04-07 | Hitachi Consumer Electronics Co., Ltd. | Image display device and display control method thereof |
EP2426621A2 (en) * | 2010-09-07 | 2012-03-07 | Sony Corporation | Information processing device and information processing method |
JP2012068854A (ja) * | 2010-09-22 | 2012-04-05 | Shimane Prefecture | 操作入力装置および操作判定方法並びにプログラム |
KR20130022996A (ko) * | 2011-08-27 | 2013-03-07 | 이경자 | 가상터치스크린을 생성과 제어하는 장치 |
US20130181897A1 (en) * | 2010-09-22 | 2013-07-18 | Shimane Prefectural Government | Operation input apparatus, operation input method, and program |
JP2014081788A (ja) * | 2012-10-16 | 2014-05-08 | Canon Inc | ハンドジェスチャ認識装置及びその制御方法 |
WO2014194148A2 (en) * | 2013-05-29 | 2014-12-04 | Weijie Zhang | Systems and methods involving gesture based user interaction, user interface and/or other features |
JP2015035060A (ja) * | 2013-08-08 | 2015-02-19 | 株式会社ニコン | 撮像装置 |
JP2015207908A (ja) * | 2014-04-21 | 2015-11-19 | シャープ株式会社 | 情報処理装置 |
-
2016
- 2016-05-24 JP JP2016103046A patent/JP2017211739A/ja active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011028573A (ja) * | 2009-07-27 | 2011-02-10 | Panasonic Electric Works Co Ltd | 操作装置 |
US20110080337A1 (en) * | 2009-10-05 | 2011-04-07 | Hitachi Consumer Electronics Co., Ltd. | Image display device and display control method thereof |
JP2011081506A (ja) * | 2009-10-05 | 2011-04-21 | Hitachi Consumer Electronics Co Ltd | 映像表示装置、および、その表示制御方法 |
EP2426621A2 (en) * | 2010-09-07 | 2012-03-07 | Sony Corporation | Information processing device and information processing method |
JP2012058884A (ja) * | 2010-09-07 | 2012-03-22 | Sony Corp | 情報処理装置、および情報処理方法 |
JP2012068854A (ja) * | 2010-09-22 | 2012-04-05 | Shimane Prefecture | 操作入力装置および操作判定方法並びにプログラム |
US20130181897A1 (en) * | 2010-09-22 | 2013-07-18 | Shimane Prefectural Government | Operation input apparatus, operation input method, and program |
KR20130022996A (ko) * | 2011-08-27 | 2013-03-07 | 이경자 | 가상터치스크린을 생성과 제어하는 장치 |
JP2014081788A (ja) * | 2012-10-16 | 2014-05-08 | Canon Inc | ハンドジェスチャ認識装置及びその制御方法 |
WO2014194148A2 (en) * | 2013-05-29 | 2014-12-04 | Weijie Zhang | Systems and methods involving gesture based user interaction, user interface and/or other features |
JP2015035060A (ja) * | 2013-08-08 | 2015-02-19 | 株式会社ニコン | 撮像装置 |
JP2015207908A (ja) * | 2014-04-21 | 2015-11-19 | シャープ株式会社 | 情報処理装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4115273A4 (en) * | 2020-03-20 | 2023-04-12 | Huawei Technologies Co., Ltd. | METHODS AND SYSTEMS FOR HAND GESTURE BASED CONTROL OF A DEVICE |
US12093465B2 (en) | 2020-03-23 | 2024-09-17 | Huawei Technologies Co., Ltd. | Methods and systems for hand gesture-based control of a device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10394334B2 (en) | Gesture-based control system | |
US8648808B2 (en) | Three-dimensional human-computer interaction system that supports mouse operations through the motion of a finger and an operation method thereof | |
JP4768196B2 (ja) | 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法 | |
CN103809733B (zh) | 人机交互系统和方法 | |
JP6598617B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US9030498B2 (en) | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface | |
US8643598B2 (en) | Image processing apparatus and method, and program therefor | |
JP6350772B2 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
JP6618276B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
US20140139429A1 (en) | System and method for computer vision based hand gesture identification | |
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
KR20130105725A (ko) | 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전 | |
JP6711817B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
CN105589553A (zh) | 一种智能设备的手势控制方法和系统 | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
JP6141108B2 (ja) | 情報処理装置およびその方法 | |
WO2013149475A1 (zh) | 一种用户界面的控制方法及装置 | |
KR101256046B1 (ko) | 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템 | |
JP2016143414A (ja) | インタラクティブシステム、リモコン及びその操作方法 | |
US20130229348A1 (en) | Driving method of virtual mouse | |
JP2017211960A (ja) | ユーザインターフェース装置およびユーザインターフェースプログラム | |
JP2017211739A (ja) | ユーザインターフェース装置およびユーザインターフェースプログラム | |
JP2007034525A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
JP6632298B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR101447958B1 (ko) | 신체 부분 검출 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190507 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200124 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200720 |