JP2011204019A - ジェスチャ入力装置、ジェスチャ入力方法およびプログラム - Google Patents
ジェスチャ入力装置、ジェスチャ入力方法およびプログラム Download PDFInfo
- Publication number
- JP2011204019A JP2011204019A JP2010070757A JP2010070757A JP2011204019A JP 2011204019 A JP2011204019 A JP 2011204019A JP 2010070757 A JP2010070757 A JP 2010070757A JP 2010070757 A JP2010070757 A JP 2010070757A JP 2011204019 A JP2011204019 A JP 2011204019A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- user
- input
- sub
- gestures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 12
- 230000009471 action Effects 0.000 claims abstract description 48
- 238000001514 detection method Methods 0.000 claims abstract description 27
- 230000007704 transition Effects 0.000 claims description 16
- 230000006870 function Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 7
- 239000003086 colorant Substances 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ジェスチャの種類および/または複雑度が増してもジェスチャを適切に入力可能な、ジェスチャ入力装置、ジェスチャ入力方法およびプログラムを提供する。
【解決手段】ユーザの動作を表す画像情報および音声情報のうち少なくとも一方が入力される入力部11と、入力された画像情報および音声情報のうち少なくとも一方から、ユーザの動作を検出する検出部13と、動作の検出結果に基づき、ユーザが入力しようとする1以上のジェスチャを予測する予測部19と、予測された1以上のジェスチャを入力するために、ユーザが次にとるべき動作をユーザに通知する通知部21とを備える。
【選択図】図1
【解決手段】ユーザの動作を表す画像情報および音声情報のうち少なくとも一方が入力される入力部11と、入力された画像情報および音声情報のうち少なくとも一方から、ユーザの動作を検出する検出部13と、動作の検出結果に基づき、ユーザが入力しようとする1以上のジェスチャを予測する予測部19と、予測された1以上のジェスチャを入力するために、ユーザが次にとるべき動作をユーザに通知する通知部21とを備える。
【選択図】図1
Description
本発明は、ジェスチャ入力装置、ジェスチャ入力方法およびプログラムに関する。
近年、ジェスチャを用いた様々なユーザインターフェイスが提案されている(例えば下記特許文献1〜3参照)。この種のインターフェイスでは、ユーザがジェスチャを入力すると、ユーザの動作を表す画像情報および/または音声情報の検出結果からジェスチャが認識され、認識結果が各種の処理制御に利用される。
ところで、この種のインターフェイスの技術が進展すると、利便性が向上する一方で、ユーザにより入力されるジェスチャの種類および/または複雑度が増すことが予想される。結果として、ユーザは、多様なジェスチャを覚えることを強いられ、かえって利便性が低下してしまう場合がある。また、ユーザは、ジェスチャが適切に認識されずにイラツキを覚えたり、ジェスチャが適切に認識されるか不安に感じたりする場合もある。そして、この傾向は、ジェスチャの種類および/または複雑度が増すにつれて顕著になると考えられる。
そこで、本発明は、ジェスチャの種類および/または複雑度が増してもジェスチャを適切に入力可能な、ジェスチャ入力装置、ジェスチャ入力方法およびプログラムを提供しようとするものである。
本発明のある観点によれば、ユーザの動作を表す画像情報および音声情報のうち少なくとも一方が入力される入力部と、入力された画像情報および音声情報のうち少なくとも一方から、ユーザの動作を検出する検出部と、動作の検出結果に基づき、ユーザが入力しようとする1以上のジェスチャを予測する予測部と、予測された1以上のジェスチャを入力するために、ユーザが次にとるべき動作をユーザに通知する通知部とを備えるジェスチャ入力装置が提供される。
かかる構成によれば、ユーザの動作の検出結果に基づき、ユーザが入力しようとする1以上のジェスチャが予測され、予測された1以上のジェスチャを入力するために、ユーザが次にとるべき動作がユーザに通知される。これにより、ユーザは、ジェスチャの種類および/または複雑度が増しても、次にとるべき動作の通知に従ってジェスチャを適切に入力することができる。
上記ジェスチャが2以上のサブジェスチャからなり、上記ジェスチャ入力装置は、動作の検出結果に基づき、ユーザが入力したサブジェスチャを認識する認識部をさらに備え、上記予測部は、直前に入力されたサブジェスチャの認識結果に基づき、ユーザが次に入力しようとする1以上のサブジェスチャを予測し、上記通知部は、予測された1以上のサブジェスチャを入力するために、ユーザが次にとるべき動作をユーザに通知してもよい。
上記サブジェスチャ間の遷移確率が算出されており、上記通知部は、直前に入力されたサブジェスチャとユーザが次に入力しようとする1以上のサブジェスチャ間の遷移確率に応じて各サブジェスチャが区別されるように、ユーザが次にとるべき動作をユーザに通知してもよい。
上記各ジェスチャの入力頻度が記録されており、上記通知部は、予測された1以上のジェスチャに含まれる各ジェスチャの入力頻度に応じて各ジェスチャが区別されるように、ユーザが次にとるべき動作をユーザに通知してもよい。
また、本発明の別の観点によれば、ユーザの動作を表す画像情報および音声情報のうち少なくとも一方から、ユーザの動作を検出するステップと、動作の検出結果に基づきユーザが入力しようとする1以上のジェスチャを予測するステップと、予測された1以上のジェスチャを入力するために、ユーザが次にとるべき動作をユーザに通知するステップとを含むジェスチャ入力方法が提供される。
また、本発明の別の観点によれば、上記ジェスチャ入力方法をコンピュータに実行させるためのプログラムが提供される。ここで、プログラムは、コンピュータ読取り可能な記録媒体を用いて提供されてもよく、通信手段を介して提供されてもよい。
以上説明したように本発明によれば、ジェスチャの種類および/または複雑度が増してもジェスチャを適切に入力可能な、ジェスチャ入力装置、ジェスチャ入力方法およびプログラムが提供される。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[1.ジェスチャ入力装置の構成]
まず、本発明の実施形態に係るジェスチャ入力装置の構成について説明する。図1には、ジェスチャ入力装置の主要な機能構成が示されている。
まず、本発明の実施形態に係るジェスチャ入力装置の構成について説明する。図1には、ジェスチャ入力装置の主要な機能構成が示されている。
図1に示すように、ジェスチャ入力装置は、入力部11、検出部13、記憶部15、認識部17、予測部19、通知部21および演算処理部23からなる。
入力部11は、ビデオカメラ等の画像入力部11aおよびマイク等の音声入力部11bからなる。画像入力部11aには、ユーザの動作A(ユーザの動作、ユーザの動作に伴う他の物体の動作を含む。)を表す画像情報が入力される。音声入力部11bには、ユーザの動作A(ユーザが発する音声、ユーザの動作に伴い他の物体が発する音声を含む。)を表す音声情報が入力される。なお、入力部11は、画像入力部11aまたは音声入力部11bのいずれか一方のみからなってもよい。
検出部13は、画像入力部11aに入力された画像情報から画像特徴を抽出してユーザの動作Aを検出し、入力された音声情報から音声特徴を抽出してユーザの動作Aを検出する。ここで、検出部13は、画像特徴または音声特徴からユーザの動作Aを検出してもよく、画像特徴および音声特徴の組合せからユーザの動作Aを検出してもよい。検出部13は、動作Aの検出結果を認識部17および予測部19に供給する。
記憶部15は、動作Aの検出結果に基づき、各種のジェスチャG(およびジェスチャGを構成する各サブジェスチャSG)を特定するための特定情報を記憶している。特定情報は、ユーザの動作Aを表す画像情報および/または音声情報の特徴量の時系列変化からなる。記憶部15は、1以上のジェスチャGを入力するためにユーザが次にとるべき動作Aを示すメッセージMを記憶している。また、詳細は後述するが、記憶部15は、各ジェスチャGの入力頻度を記憶してもよく、ジェスチャGを構成するサブジェスチャSG間の遷移確率Pを記憶してもよい。
認識部17は、動作Aの検出結果に基づき、ユーザが入力したジェスチャG(またはサブジェスチャSG)を認識し、認識結果を演算処理部23に供給する。認識部17は、ユーザの動作Aを表す特徴量の時系列変化に基づきジェスチャG(またはサブジェスチャSG)を認識する。例えば手の動きによりジェスチャGが入力される場合、手の重心位置、各指の重心位置、各指の傾き、指の数等が特徴量として用いられる。また、ユーザの発話によりジェスチャGが入力される場合、発話音声の周波数特性等が特徴量として用いられる。
予測部19は、動作Aの検出結果(またはサブジェスチャSGの認識結果)に基づき、ユーザが入力しようとする1以上のジェスチャG(またはサブジェスチャSG)を予測し、予測結果を演算処理部23に供給する。予測部19は、動作Aの検出結果(またはサブジェスチャSGの認識結果)と特定情報を比較することで、ユーザが入力しようとする1以上のジェスチャGを予測する。例えばユーザの手の動きによりジェスチャGが入力される場合、検出された手の動きを表す特徴量を特定情報に含む1以上のジェスチャGが予測される。また、ユーザの発話によりジェスチャGが入力される場合、検出された発話音声を表す特徴量を特定情報に含む1以上のジェスチャGが予測される。
通知部21は、ディスプレイ等の画像通知部21aおよびスピーカ等の音声通知部21bからなる。通知部21には、予測された1以上のジェスチャGを入力するためにユーザが次にとるべき動作Aを示すメッセージMが演算処理部23から供給される。通知部21は、メッセージMを画像メッセージおよび/または音声メッセージとして出力する。
演算処理部23は、CPU、ROM、RAMを含んでおり、CPUは、ROMからプログラムを読出し、RAMに展開して実行することで、ジェスチャ入力装置を動作制御するための演算処理を行う。演算処理部23は、ジェスチャGの予測結果に対応するメッセージMを記憶部15から読出し、通知指令とともに通知部21に供給する。ここで、詳細は後述するが、メッセージMには、予測された1以上のジェスチャGに応じて各種の処理が施されてもよい。また、演算処理部23は、認識部17から供給される認識結果に応じて、ジェスチャG毎にあらかじめ定められた機能を実行するために所定の演算処理を行う。
[2.ジェスチャ入力装置の基本動作]
つぎに、ジェスチャ入力装置の基本動作について説明する。図2には、ジェスチャ入力装置の基本的な動作手順が示されている。
つぎに、ジェスチャ入力装置の基本動作について説明する。図2には、ジェスチャ入力装置の基本的な動作手順が示されている。
ジェスチャ入力装置では、ユーザの動作Aを表す画像情報および/または音声情報が入力部11に入力される(ステップS1)。ユーザが動作Aを行うと、まず、検出部13は、入力された画像情報および/または音声情報から特徴量を抽出してユーザの動作Aを検出し(S3)、検出結果を予測部19に供給する。
予測部19は、動作Aの検出結果と特定情報を比較し、比較結果に基づきユーザが入力しようとする1以上のジェスチャGを予測し(S5)、予測結果を演算処理部23に供給する。演算処理部23は、予測結果に対応するメッセージMを記憶部15から読出し、通知指令とともに通知部21に供給し、通知部21は、予測された1以上のジェスチャGを入力するためにユーザが次にとるべき動作Aを示すメッセージMをユーザに通知する(S7)。
[3.ジェスチャ入力装置の動作例]
以下では、図3〜図4を参照しながら、ジェスチャ入力装置の第1〜第4の動作例について説明する。なお、動作例の間で重複する説明は省略する。
以下では、図3〜図4を参照しながら、ジェスチャ入力装置の第1〜第4の動作例について説明する。なお、動作例の間で重複する説明は省略する。
(第1の動作例)
まず、図3A、3Bを参照しながら、ジェスチャ入力装置の第1の動作例について説明する。
まず、図3A、3Bを参照しながら、ジェスチャ入力装置の第1の動作例について説明する。
第1の動作例では、図3Aに示すように、じゃんけんの「パー」形状の手を正位置から右に傾ける第1のジェスチャG11と、左に傾ける第2のジェスチャG12が入力される。認識部17は、「パー」形状の手が正位置で検出された後に右に傾いた状態で検出されると、第1のジェスチャG11を認識し、「パー」形状の手が正位置で検出された後に左に傾いた状態で検出されると、第2のジェスチャG12を認識する。
ここで、図3Bに示すように、「パー」形状の手が正位置で検出されずに、右に傾いた状態A1で所定期間に亘って検出された場合を想定する。この場合、予測部19は、「パー」形状の手が右に傾いた状態A1で検出されたので、ユーザが入力しようとするジェスチャGとして、「パー」形状の手の動作A1を含む第1および第2のジェスチャG11、G12を予測する。そして、演算処理部23は、予測結果に基づき、第1または第2のジェスチャG11、G12を入力するためにユーザが次にとるべき動作Aを示すメッセージM1を通知部21に供給する。
ここで、第1または第2のジェスチャG11、G12を入力する場合、「パー」形状の手を一旦正位置に戻す必要がある。このため、「パー」形状の手を正位置に戻す動作Aをユーザに促すために、「手を正位置に戻してください。」というメッセージM1が供給される。そして、通知部21は、供給されたメッセージM1を、例えば画像メッセージとしてユーザに通知する。なお、供給されたメッセージM1は、音声メッセージとしてユーザに通知されてもよい。
メッセージM1が通知されると、ユーザは、ジェスチャGが適切に認識されていないことに気付く。そして、ユーザは、メッセージM1に従って、「パー」形状の手を一旦正位置に戻した後に、例えば右に傾ける動作Aをとる。すると、認識部17は、「パー」形状の手が正位置で検出された後に右に傾いた状態で検出されたことで、第1のジェスチャG11を認識する。
(第2の動作例)
つぎに、図4A、4Bを参照しながら、ジェスチャ入力装置の第2の動作例について説明する。
つぎに、図4A、4Bを参照しながら、ジェスチャ入力装置の第2の動作例について説明する。
第2の動作例では、図4Aに示すように、「パー」形状の手で反時計回りに円を描く第1のジェスチャG21と、「パー」形状の手を右へ移動させながら「グー」形状に変化させる第2のジェスチャG22が入力される。認識部17は、反時計回りに円を描く「パー」形状の手が検出されると、第1のジェスチャG21を認識し、右へ移動しながら「パー」形状から「グー」形状に変化する手が検出されると、第2のジェスチャG22を認識する。
ここで、図4Bに示すように、右へ移動している「パー」形状の手の状態A2が検出された場合を想定する。この場合、予測部19は、「パー」形状の手が右へ移動している状態A2で検出されたので、ユーザが入力しようとするジェスチャGとして、「パー」形状の手を右へ移動させる動作A2を含む第1および第2のジェスチャG21、G22を予測する。そして、演算処理部23は、予測結果に基づき、第1または第2のジェスチャG21、G22を入力するためにユーザが次にとるべき動作Aを示すメッセージM2を通知部21に供給する。
ここで、第1のジェスチャG21を入力する場合、「パー」形状の手で反時計回りに円を描く必要があり、第2のジェスチャG22を入力する場合、「パー」形状の手を右へ移動させながら「グー」形状に変化させる必要がある。このため、第1または第2のジェスチャG21、G22を入力するための適切な動作Aを促すために、「○○機能を実行する場合は、「パー」の手で反時計回りに円を描いてください。△△機能を実行する場合は、「パー」の手を右へ移動させながら「グー」に変化させてください。」というメッセージM2が供給される。そして、通知部21は、供給されたメッセージM2を、例えば画像メッセージとしてユーザに通知する。
ここで、2以上のジェスチャGを入力するための動作Aを示すメッセージM3を通知する場合、通知部21は、各ジェスチャGの入力頻度に応じて各ジェスチャGが区別されるように、メッセージM3を通知してもよい。例えば、第1のジェスチャG21の入力頻度が高い場合、第1のジェスチャG21を入力するための動作Aを示す部分の表示を大きい文字や明るい色で出力してもよく、この部分を大きな音量で出力してもよい。これにより、ユーザは、入力頻度の高いジェスチャGを容易に確認することができる。
メッセージM2が通知されると、ユーザは、所望の操作を行うために入力すべきジェスチャGを確認する。そして、ユーザは、メッセージM2に従って、例えば「パー」形状の手で反時計回りに円を描く動作Aをとる。すると、認識部17は、反時計回りに円を描く「パー」形状の手が検出されたことで、第1のジェスチャG21を認識する。
ここで、手の動きを表す画像情報に代えて、ユーザの発話を表す音声情報からユーザの動作Aを検出してジェスチャGが予測されてもよい。例えば楽曲再生システムにおいて、発話「1曲送れ」による第1のジェスチャG21´と、発話「1曲戻せ」による第2のジェスチャG22´が入力される場合において、発話A2´「1曲…(沈黙)」が検出された場合を想定する。この場合、予測部19は、第1および第2のジェスチャG21´、G22´を予測し、通知部21は、「曲を送る場合は、「1曲送れ」と発話してください。曲を戻す場合は、「1曲戻せ」と発話してください。」というメッセージM2´をユーザに通知する。
(第3の動作例)
つぎに、図5A、5Bを参照しながら、ジェスチャ入力装置の第3の動作例について説明する。
つぎに、図5A、5Bを参照しながら、ジェスチャ入力装置の第3の動作例について説明する。
第3の動作例では、図5Aに示すように、サブジェスチャSG31と、サブジェスチャSG321、SG322、SG323のいずれかの組合せからなる、第1〜第3のジェスチャG31〜G33が入力される。第1のジェスチャG1では、「パー」形状の手を右に移動させながら「グー」形状に変化させる第1のサブジェスチャSG31に続いて、「グー」形状の手で時計回りに円を描く第2のサブジェスチャSG321が行われる。
第2のジェスチャG32では、第1のサブジェスチャSG1に続いて、「グー」形状の手を上下に移動させる第2のサブジェスチャSG322が行われる。第3のジェスチャG33では、第1のサブジェスチャSG31に続いて、「グー」形状の手を右に移動させながら「パー」形状に変化させる第2のサブジェスチャSG323が行われる。
認識部17は、第1のサブジェスチャSG31を認識した後に第2のサブジェスチャSG321を認識すると、第1のジェスチャG1を認識する。同様に、認識部17は、第1のサブジェスチャSG31に続いて、第2のサブジェスチャSG322を認識すると、第2のジェスチャG32を認識し、第2のサブジェスチャSG323を認識すると、第3のジェスチャG33を認識する。
ここで、図5Bに示すように、第1のサブジェスチャSG31が認識された場合を想定する。この場合、予測部19は、ユーザが入力しようとするジェスチャGとして、第1のサブジェスチャSG31を含む第1〜第3のジェスチャG31〜G33を予測する。そして、演算処理部23は、予測結果に基づき、第1、第2または第3のジェスチャG31、G32、G33を入力するためにユーザが次にとるべき動作Aを示すメッセージM3を通知部21に供給する。
ここで、第1のジェスチャG31を入力する場合、第2のサブジェスチャSG321を次に入力する必要があり、第2のジェスチャG32を入力する場合、第2のサブジェスチャSG322を次に入力する必要があり、第3のジェスチャG33を入力する場合、第2のサブジェスチャSG323を次に入力する必要がある。
このため、第1、第2または第3のジェスチャG31、G32、G33を入力するための適切な動作Aを促すために、「○○機能を実行する場合は、「グー」の手で時計回りに円を描いてください。△△機能を実行する場合は、「グー」の手を上下に移動させてください。□□機能を実行する場合は、「グー」の手を右に移動させながら「パー」に変化させてください。」というメッセージM3が供給される。そして、通知部21は、供給されたメッセージM3を、例えば画像メッセージとしてユーザに通知する。
ここで、2以上のジェスチャGを入力するためのメッセージMを通知する場合、通知部21は、直前に入力されたサブジェスチャSGとユーザが次に入力しようとする1以上のサブジェスチャSG間の遷移確率Pに応じて各サブジェスチャSGが区別されるように、メッセージM4を通知してもよい。
例えば、第1のサブジェスチャSG31から第2のサブジェスチャSG321への遷移確率P1が第2のサブジェスチャSG322、SG323への遷移確率P2、P3よりも高い場合、第2のサブジェスチャSG321を入力するための動作Aを示す部分の表示を大きい文字や明るい色で出力してもよく、この部分を大きな音量で出力してもよい。なお、サブジェスチャSG間の遷移確率Pは、オンラインで学習されてもよく、オフラインで学習されてもよい。これにより、ユーザは、遷移確率の高いサブジェスチャSGを容易に確認することができる。
メッセージM3が通知されると、ユーザは、所望の操作を行うために入力すべきサブジェスチャSGを確認する。そして、ユーザは、メッセージM3に従って、例えば第2のサブジェスチャSG321に相当する動作Aをとる。すると、認識部17は、第2のサブジェスチャSG321に相当する動作Aが検出されたことで、第1のジェスチャG31を認識する。
ここで、手の動きを表す画像情報に代えて、ユーザの発話を表す音声情報からユーザの動作Aを検出してジェスチャGが予測されてもよい。例えば楽曲再生システムにおいて、第1のジェスチャG31´として、第1のサブジェスチャSG311´(発話)「次のアルバムに変更し」に続いて、第2のサブジェスチャSG321´(発話)「連続再生せよ」が行われ、第2のジェスチャG32´として、第1のサブジェスチャSG311´に続いて、第2のサブジェスチャSG322´「シャッフル再生せよ」が行われる。そして、第1のサブジェスチャSG311´「次のアルバムに変更し…(沈黙)」が検出された場合を想定する。
この場合、予測部19は、連続再生および第1および第2のジェスチャG31´、G32´を予測し、通知部21は、「次のアルバムを連続再生する場合は、「次のアルバムに変更し」、「連続再生せよ」と発話してください。次のアルバムをシャッフル再生する場合は、「次のアルバムに変更し」、「シャッフル再生せよ」と発話してください。」というメッセージM3´をユーザに通知する。
(第4の動作例)
つぎに、図6A、6Bを参照しながら、ジェスチャ入力装置の第4の動作例について説明する。
つぎに、図6A、6Bを参照しながら、ジェスチャ入力装置の第4の動作例について説明する。
第4の動作例では、図6Aに示すように、不特定数のサブジェスチャSGからなる複数のジェスチャGが入力される。例えば、第1のジェスチャG41では、「グー」形状の手を静止させる第1のサブジェスチャSG41、「グー」形状の手を右に移動させる第2のサブジェスチャSG42、「パー」形状の手を静止させる第3のサブジェスチャSG431に続いて、第4のサブジェスチャSG441、…、第n1のサブジェスチャSGn1が行われる。
同様に、第2のジェスチャG42では、第1および第2のサブジェスチャSG41、SG42、「グー」形状の手で時計回りに円を描く第3のサブジェスチャSG432に続いて、第4のサブジェスチャSG442、…、第n2のサブジェスチャSGn2が行われる。また、第3のジェスチャG43では、第1および第2のサブジェスチャSG41、SG42、「グー」形状の手を上に移動させる第3のサブジェスチャSG433に続いて、第4のサブジェスチャSG443、…、第n3のサブジェスチャSGn3が行われる。
なお、第4のサブジェスチャSG441〜SG443は、同一のサブジェスチャSGでもよく、相異なるサブジェスチャSGでもよい。また、各ジェスチャG41、G42、G43を構成するサブジェスチャSGの数n1、n2、n3は、同一数でもよく、相異なる数でもよい。
ここで、例えば第2のサブジェスチャSG42と第3のサブジェスチャSG431、SG432、SG433の間では、サブジェスチャSG間の遷移確率PがP1、P2、P3として予め定められている。また、例えば第1のサブジェスチャSG41では、同一のサブジェスチャSG41を繰返す反復確率Pと、第2のサブジェスチャSG42に遷移する遷移確率Pが予め定められている。
認識部17は、第1、第2のサブジェスチャSG41、SG42、第3のサブジェスチャSG431、第4のサブジェスチャSG441、…、第n1のサブジェスチャSGn1を認識すると、第1のジェスチャG41を認識する。同様に、認識部17は、第1、第2のサブジェスチャSG41、SG42、第3のサブジェスチャSG432、第4のサブジェスチャSG442、…、第n2のサブジェスチャSGn2を認識すると、第2のジェスチャG42を認識し、第1、第2のサブジェスチャSG41、SG42、第3のサブジェスチャSG433、第4のサブジェスチャSG443、…、第n3のサブジェスチャSGn3を認識すると、第3のジェスチャG43を認識する。
ここで、図6Bに示すように、第2のサブジェスチャSG42が認識された場合を想定する。この場合、予測部19は、ユーザが入力しようとするジェスチャGとして、第1および第2のサブジェスチャSG41、SG42を含む少なくとも第1〜第3のジェスチャG41〜G43を予測する。そして、演算処理部23は、予測結果に基づき、少なくとも第1〜第3のジェスチャG41〜G43を入力するためにユーザが次にとるべき動作Aを示すメッセージM4を通知部21に供給する。
ここで、第1のジェスチャG41を入力する場合、第3のサブジェスチャSG431を次に入力する必要があり、第2のジェスチャG42を入力する場合、第3のサブジェスチャSG432を次に入力する必要があり、第3のジェスチャG43を入力する場合、第3のサブジェスチャSG433を次に入力する必要がある。
このため、第1、第2または第3のジェスチャG41、G42、G43を入力するための適切な動作Aを促すために、「○○機能を実行する場合は、「パー」の手を静止させてください。△△機能を実行する場合は、「グー」の手で時計回りに円を描いてください。□□機能を実行する場合は、「グー」の手を上に移動させてください。」というメッセージM4が供給される。そして、通知部21は、供給されたメッセージM4を、例えば画像メッセージとしてユーザに通知する。
ここで、2以上のジェスチャGを入力するための動作Aを示すメッセージM4を通知する場合、通知部21は、直前に入力されたサブジェスチャSGとユーザが次に入力しようとする1以上のサブジェスチャSG間の遷移確率Pに応じて各サブジェスチャSGが区別されるように、メッセージM4を通知してもよい。
例えば、第2のサブジェスチャSG42から第3のサブジェスチャSG431への遷移確率P1が第3のサブジェスチャSG432、SG433への遷移確率P2、P3よりも高い場合、第3のサブジェスチャSG431を入力するための動作Aを示す部分の表示を大きい文字や明るい色で出力してもよく、この部分を大きな音量で出力してもよい。なお、サブジェスチャSG間の遷移確率Pは、オンラインで学習されてもよく、オフラインで学習されてもよい。
メッセージM4が通知されると、ユーザは、所望の操作を行うために入力すべきサブジェスチャSGを確認する。そして、ユーザは、メッセージM4に従って、例えば第3のサブジェスチャSG431に相当する動作Aをとる。すると、認識部17は、第3のサブジェスチャSG431に相当する動作Aが検出されたことで、第4のサブジェスチャSG44について認識処理を行う。ここで、演算処理部23は、第3のサブジェスチャSG431が入力されたことで、ユーザが第2および第3のジェスチャG42、G43とは異なるジェスチャGを入力しようとしていると判断することができる。
ここで、手の動きを表す画像情報に代えて、ユーザの発話を表す音声情報からユーザの動作Aを検出してジェスチャGが予測されてもよい。また、ユーザの動作Aを表す画像情報と音声情報の組合せからユーザの動作Aを検出してジェスチャGが予測されてもよい。この場合、各サブジェスチャSGは、画像情報または音声情報から予測されてもよく、画像情報および音声情報の組合せから予測されてもよい。また、各ジェスチャGは、画像情報から特定されるサブジェスチャSG、および/または音声情報から特定されるサブジェスチャSGから構成されてもよい。
[4.まとめ]
以上説明したように、本発明の実施形態に係るジェスチャ入力装置によれば、ユーザの動作Aの検出結果に基づき、ユーザが入力しようとする1以上のジェスチャGが予測され、予測された1以上のジェスチャGを入力するために、ユーザが次にとるべき動作Aがユーザに通知される。これにより、ユーザは、ジェスチャGの種類および/または複雑度が増しても、次にとるべき動作Aの通知に従ってジェスチャGを適切に入力することができる。
以上説明したように、本発明の実施形態に係るジェスチャ入力装置によれば、ユーザの動作Aの検出結果に基づき、ユーザが入力しようとする1以上のジェスチャGが予測され、予測された1以上のジェスチャGを入力するために、ユーザが次にとるべき動作Aがユーザに通知される。これにより、ユーザは、ジェスチャGの種類および/または複雑度が増しても、次にとるべき動作Aの通知に従ってジェスチャGを適切に入力することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記動作例の説明では、ユーザの動作を表す画像情報に基づきジェスチャを予測する場合について主に説明した。しかし、ユーザの動作を表す画像情報に代えて音声情報に基づき、または画像情報および音声情報の組合せに基づきジェスチャを予測してもよい。
11、11a、11b 入力部
13 検出部
15 記憶部
17 認識部
19 予測部
21、21a、21b 通知部
23 演算処理部
A1、A2 ユーザの動作
G11、G12、G21、G22、G31〜G33、G41〜G43 ジェスチャ
SG31、SG321、SG322、SG323、SG41、SG42、SG431、SG432、SG433 サブジェスチャ
M1〜M4 メッセージ(通知)
13 検出部
15 記憶部
17 認識部
19 予測部
21、21a、21b 通知部
23 演算処理部
A1、A2 ユーザの動作
G11、G12、G21、G22、G31〜G33、G41〜G43 ジェスチャ
SG31、SG321、SG322、SG323、SG41、SG42、SG431、SG432、SG433 サブジェスチャ
M1〜M4 メッセージ(通知)
Claims (6)
- ユーザの動作を表す画像情報および音声情報のうち少なくとも一方が入力される入力部と、
前記入力された画像情報および音声情報のうち少なくとも一方から、前記ユーザの動作を検出する検出部と、
前記動作の検出結果に基づき、ユーザが入力しようとする1以上のジェスチャを予測する予測部と、
前記予測された1以上のジェスチャを入力するために、前記ユーザが次にとるべき動作をユーザに通知する通知部と
を備えるジェスチャ入力装置。 - 前記ジェスチャが2以上のサブジェスチャからなり、
前記動作の検出結果に基づき、ユーザが入力したサブジェスチャを認識する認識部をさらに備え、
前記予測部は、直前に入力されたサブジェスチャの認識結果に基づき、ユーザが次に入力しようとする1以上のサブジェスチャを予測し、
前記通知部は、前記予測された1以上のサブジェスチャを入力するために、前記ユーザが次にとるべき動作をユーザに通知する、請求項1に記載のジェスチャ入力装置。 - 前記サブジェスチャ間の遷移確率が算出されており、
前記通知部は、直前に入力されたサブジェスチャとユーザが次に入力しようとする1以上のサブジェスチャ間の遷移確率に応じて各サブジェスチャが区別されるように、前記ユーザが次にとるべき動作をユーザに通知する、請求項2に記載のジェスチャ入力装置。 - 各ジェスチャの入力頻度が記録されており、
前記通知部は、前記予測された1以上のジェスチャに含まれる各ジェスチャの入力頻度に応じて各ジェスチャが区別されるように、前記ユーザが次にとるべき動作をユーザに通知する、請求項1に記載のジェスチャ入力装置。 - ユーザの動作を表す画像情報および音声情報のうち少なくとも一方から、前記ユーザの動作を検出するステップと、
前記動作の検出結果に基づき、ユーザが入力しようとする1以上のジェスチャを予測するステップと、
前記予測された1以上のジェスチャを入力するために、前記ユーザが次にとるべき動作をユーザに通知するステップと
を含むジェスチャ入力方法。 - ユーザの動作を表す画像情報および音声情報のうち少なくとも一方から、前記ユーザの動作を検出するステップと、
前記動作の検出結果に基づき、ユーザが入力しようとする1以上のジェスチャを予測するステップと、
前記予測された1以上のジェスチャを入力するために、前記ユーザが次にとるべき動作をユーザに通知するステップと
を含むジェスチャ入力方法をコンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010070757A JP2011204019A (ja) | 2010-03-25 | 2010-03-25 | ジェスチャ入力装置、ジェスチャ入力方法およびプログラム |
US13/045,777 US8726196B2 (en) | 2010-03-25 | 2011-03-11 | Gesture input device, gesture input method, and program |
CN2011100658474A CN102200831A (zh) | 2010-03-25 | 2011-03-18 | 手势输入设备、手势输入方法和程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010070757A JP2011204019A (ja) | 2010-03-25 | 2010-03-25 | ジェスチャ入力装置、ジェスチャ入力方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011204019A true JP2011204019A (ja) | 2011-10-13 |
Family
ID=44657776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010070757A Withdrawn JP2011204019A (ja) | 2010-03-25 | 2010-03-25 | ジェスチャ入力装置、ジェスチャ入力方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8726196B2 (ja) |
JP (1) | JP2011204019A (ja) |
CN (1) | CN102200831A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013161406A (ja) * | 2012-02-08 | 2013-08-19 | Sharp Corp | データ入力装置、表示装置、データ入力方法、及びデータ入力プログラム |
JP2014501413A (ja) * | 2010-12-30 | 2014-01-20 | トムソン ライセンシング | ジェスチャ認識のためのユーザ・インタフェース、装置および方法 |
WO2014027666A1 (ja) * | 2012-08-17 | 2014-02-20 | Necシステムテクノロジー株式会社 | 入力装置、入力方法、及び記憶媒体 |
US8922483B2 (en) | 2012-08-29 | 2014-12-30 | Alpine Electronics, Inc. | Information system having centrally located camera and gesture recognition |
JP2020091904A (ja) * | 2014-09-10 | 2020-06-11 | ソニー株式会社 | システムおよびコントローラ |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012098771A (ja) | 2010-10-29 | 2012-05-24 | Sony Corp | 画像処理装置および方法、並びに、プログラム |
JP5929387B2 (ja) * | 2012-03-22 | 2016-06-08 | 株式会社リコー | 情報処理装置、履歴データ生成プログラム及び投影システム |
US20140007019A1 (en) * | 2012-06-29 | 2014-01-02 | Nokia Corporation | Method and apparatus for related user inputs |
FR2995704B1 (fr) * | 2012-09-19 | 2015-12-25 | Inst Nat De Sciences Appliquees | Methode de selection de mode d'interactivite |
TWI456430B (zh) * | 2012-12-07 | 2014-10-11 | Pixart Imaging Inc | 手勢判斷裝置、其操作方法與手勢判斷方法 |
JP5782061B2 (ja) * | 2013-03-11 | 2015-09-24 | レノボ・シンガポール・プライベート・リミテッド | 移動物体の動作を認識する方法および携帯式コンピュータ |
JP6550643B2 (ja) * | 2014-03-14 | 2019-07-31 | 本田技研工業株式会社 | 動作推定装置、ロボット、及び動作推定方法 |
KR102265143B1 (ko) * | 2014-05-16 | 2021-06-15 | 삼성전자주식회사 | 입력 처리 장치 및 방법 |
DE102015002811A1 (de) | 2014-05-30 | 2015-12-03 | Elmos Semiconductor Aktiengesellschaft | Verfahren zur verbesserten Gestensteuerung mittels optischer, nicht Kamera basierter Gestenerkennungssysteme |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US9811164B2 (en) | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
CN104754224A (zh) * | 2015-03-23 | 2015-07-01 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
US10016162B1 (en) | 2015-03-23 | 2018-07-10 | Google Llc | In-ear health monitoring |
US9848780B1 (en) | 2015-04-08 | 2017-12-26 | Google Inc. | Assessing cardiovascular function using an optical sensor |
WO2016167331A1 (ja) * | 2015-04-17 | 2016-10-20 | 三菱電機株式会社 | ジェスチャー認識装置、ジェスチャー認識方法、及び情報処理装置 |
EP3289432B1 (en) | 2015-04-30 | 2019-06-12 | Google LLC | Rf-based micro-motion tracking for gesture tracking and recognition |
EP3289433A1 (en) | 2015-04-30 | 2018-03-07 | Google LLC | Type-agnostic rf signal representations |
WO2016176574A1 (en) | 2015-04-30 | 2016-11-03 | Google Inc. | Wide-field radar-based gesture recognition |
US10080528B2 (en) | 2015-05-19 | 2018-09-25 | Google Llc | Optical central venous pressure measurement |
US9693592B2 (en) | 2015-05-27 | 2017-07-04 | Google Inc. | Attaching electronic components to interactive textiles |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
US10376195B1 (en) | 2015-06-04 | 2019-08-13 | Google Llc | Automated nursing assessment |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
WO2017104207A1 (ja) * | 2015-12-16 | 2017-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10492302B2 (en) | 2016-05-03 | 2019-11-26 | Google Llc | Connecting an electronic component to an interactive textile |
US10579150B2 (en) | 2016-12-05 | 2020-03-03 | Google Llc | Concurrent detection of absolute distance and relative movement for sensing action gestures |
CN112527093A (zh) * | 2019-09-18 | 2021-03-19 | 华为技术有限公司 | 手势输入方法及电子设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7274800B2 (en) * | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
WO2003009218A1 (en) * | 2001-07-18 | 2003-01-30 | Intel Zao | Dynamic gesture recognition from stereo sequences |
JP4692159B2 (ja) | 2004-08-31 | 2011-06-01 | パナソニック電工株式会社 | ジェスチャースイッチ |
JP4609054B2 (ja) | 2004-12-07 | 2011-01-12 | ブラザー工業株式会社 | 入力支援装置 |
KR100960577B1 (ko) | 2005-02-08 | 2010-06-03 | 오블롱 인더스트리즈, 인크 | 제스처 기반의 제어 시스템을 위한 시스템 및 방법 |
US7770136B2 (en) * | 2007-01-24 | 2010-08-03 | Microsoft Corporation | Gesture recognition interactive feedback |
CN101510121A (zh) * | 2009-03-12 | 2009-08-19 | 重庆大学 | 一种基于手势识别的界面漫游操作方法与装置 |
US9377857B2 (en) * | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
US20110199292A1 (en) * | 2010-02-18 | 2011-08-18 | Kilbride Paul E | Wrist-Mounted Gesture Device |
-
2010
- 2010-03-25 JP JP2010070757A patent/JP2011204019A/ja not_active Withdrawn
-
2011
- 2011-03-11 US US13/045,777 patent/US8726196B2/en active Active
- 2011-03-18 CN CN2011100658474A patent/CN102200831A/zh active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014501413A (ja) * | 2010-12-30 | 2014-01-20 | トムソン ライセンシング | ジェスチャ認識のためのユーザ・インタフェース、装置および方法 |
JP2013161406A (ja) * | 2012-02-08 | 2013-08-19 | Sharp Corp | データ入力装置、表示装置、データ入力方法、及びデータ入力プログラム |
WO2014027666A1 (ja) * | 2012-08-17 | 2014-02-20 | Necシステムテクノロジー株式会社 | 入力装置、入力方法、及び記憶媒体 |
JP2014038527A (ja) * | 2012-08-17 | 2014-02-27 | Nec System Technologies Ltd | 入力装置、入力方法、及びプログラム |
KR20150034258A (ko) * | 2012-08-17 | 2015-04-02 | 엔이씨 솔루션 이노베이터 가부시키가이샤 | 입력 장치, 입력 방법, 및 기억 매체 |
KR101624215B1 (ko) | 2012-08-17 | 2016-06-07 | 엔이씨 솔루션 이노베이터 가부시키가이샤 | 입력 장치, 입력 방법, 및 기억 매체 |
US9753545B2 (en) | 2012-08-17 | 2017-09-05 | Nec Solutions Innovators, Ltd. | Input device, input method, and storage medium |
US8922483B2 (en) | 2012-08-29 | 2014-12-30 | Alpine Electronics, Inc. | Information system having centrally located camera and gesture recognition |
JP2020091904A (ja) * | 2014-09-10 | 2020-06-11 | ソニー株式会社 | システムおよびコントローラ |
US11157080B2 (en) | 2014-09-10 | 2021-10-26 | Sony Corporation | Detection device, detection method, control device, and control method |
Also Published As
Publication number | Publication date |
---|---|
CN102200831A (zh) | 2011-09-28 |
US20110239118A1 (en) | 2011-09-29 |
US8726196B2 (en) | 2014-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011204019A (ja) | ジェスチャ入力装置、ジェスチャ入力方法およびプログラム | |
US9354842B2 (en) | Apparatus and method of controlling voice input in electronic device supporting voice recognition | |
JP3979209B2 (ja) | データ入力方法およびデータ入力装置 | |
US10592198B2 (en) | Audio recording/playback device | |
US9678943B2 (en) | Partial gesture text entry | |
US10209954B2 (en) | Equal access to speech and touch input | |
JP2012008772A (ja) | ジェスチャ認識装置、ジェスチャ認識方法およびプログラム | |
CN102422547B (zh) | 通过输入信号的类型激活用户功能的方法及适应于该方法的便携式终端 | |
JP5717601B2 (ja) | 車載機に接続された外部機器の動作制御装置および動作制御方法 | |
CN103187063A (zh) | 电子装置和控制电子装置的方法 | |
JP2008096541A5 (ja) | ||
JP2003076389A (ja) | タッチスクリーン又は音声認識を通じて動作制御される情報端末及びその命令実行方法 | |
JP2011209787A (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
JP2005182208A (ja) | 情報処理装置およびデータ入力方法 | |
CN109491562A (zh) | 一种语音助手应用程序的界面显示方法及终端设备 | |
JP6906018B2 (ja) | 情報処理プログラム、ゲーム装置および情報処理方法 | |
JP2008145693A (ja) | 情報処理装置及び情報処理方法 | |
KR20140096573A (ko) | 컨텐츠 재생을 제어하기 위한 방법 및 장치 | |
JP2004005038A (ja) | コンピュータ装置、表示制御装置、ポインタの位置制御方法、プログラム | |
WO2016098463A1 (ja) | 情報処理プログラムおよび情報処理方法 | |
JP2008181367A (ja) | ミュージックプレーヤ | |
KR102393774B1 (ko) | 음성 인식 장치 및 그 제어방법 | |
JP6211427B2 (ja) | 車載機器制御装置 | |
JP2007293595A (ja) | 情報処理装置及び情報処理方法 | |
KR101075642B1 (ko) | 터치스크린을 이용한 한글 입력 장치, 그 방법 및 터치스크린입력수단을 이용한 한글 입력 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130604 |