JP2015088161A - ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム - Google Patents
ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム Download PDFInfo
- Publication number
- JP2015088161A JP2015088161A JP2014087684A JP2014087684A JP2015088161A JP 2015088161 A JP2015088161 A JP 2015088161A JP 2014087684 A JP2014087684 A JP 2014087684A JP 2014087684 A JP2014087684 A JP 2014087684A JP 2015088161 A JP2015088161 A JP 2015088161A
- Authority
- JP
- Japan
- Prior art keywords
- state
- wrist
- flag
- dorsiflexion
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
前記観測部は、手首を観測し、前記手首の状態を示す状態情報を出力する。
他の実施の形態のジェスチャ入力装置は、観測部、判定部、および処理部を備える。
前記判定部は、前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定する。
他の実施の形態のジェスチャ入力装置は、観測部、判定部、および処理部を備える。
前記判定部は、前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定する。
図1は、実施の形態に係るシステムの構成図である。
フラグ管理装置401は、センサ情報取得装置301および処理装置501と有線または無線で接続し、通信可能となっている。
また、身体状態観測装置201、センサ情報取得装置301、フラグ管理装置401、および処理装置501は、それぞれ物理的に異なる装置であってもよいし、これら装置を含む一体型の装置であってもよい。
図2は、実施の形態に係るシステムの第1の構成例である。
手首装着型デバイス1601は、背屈検出スイッチ1201およびマイクロプロセッサ1602を備える。手首装着型デバイス1601は、手首に装着して使用される装置である。
システム2101は、手首装着型デバイス2601、PC2602、および処理装置2501を備える。
システム3101は、手首装着型デバイス3601、スマートフォン3401、および処理装置3501を備える。
スイッチ変化取得部3301は、背屈検出スイッチ3201から身体状態情報を受信し、該情報をスマートフォン3401に送信する。スイッチ変化取得部3301は、図1のセンサ情報取得装置301に対応する。
システム4101は、カメラ4201、画像取得用PC4301、フラグ管理用PC4401、および処理装置4501を備える。
ステップS601において、フラグ判定部411は、初期値として、変数j=0、フラグ=終了に設定する。
処理装置501は、フラグ受信部511、記憶部521、処理状態判定部531、処理実行部541、および状態変化通知部551を備える。
処理状態判定部531は、フラグ522に基づいて処理状態を判定し、処理状態を処理実行部541および状態変化通知部551に通知する。処理状態判定部531は、例えば、フラグ=開始の場合に処理状態=開始と判定する。
(1)ハードウェアの制御
処理装置501の電源をオンまたはオフにする。無線(例えば、Bluetooth(登録商標)やWireless Fidelity(Wi-Fi))の接続を行う。
画面に情報を表示する。音を出す。振動させる。印刷する。外部機器に有線/無線で情報を送信する。
アイコンの透過度を変える。音量を変える。振動の強さを変える。形状を変える。情報を初期化する。座標の原点とする。操作対象を変える。タイマをスタート/停止させる。操作者を切り替える。
Near field communication(NFC)タグ/バーコード/2次元コードの読取り。同一部位のジェスチャ認識。音声認識。手書き文字認識。タッチパネルやボタンの入力認識。個人認証。
ニュース、位置情報、天気、または交通情報の更新。メールの受信。
・背屈状態の場合のみ音声入力の認識期間とする。
・背屈状態の場合のみ手書き文字を認識する。
・背屈状態の場合のみRFIDタグを読取る。
・背屈状態の期間のみ音声や手書き、タグで命令を認識し、その後の身体動作で命令の実行や取り消しを選択する、何もせずに背屈を終了した場合は取り消しとする。
・背屈状態となってから一定時間の間のみHMDや腕時計型デバイスに情報を提示し、背屈状態で手首を振ると表示時間を延長する。
・背屈状態の場合のみHMDに表示される情報の透過度を下げ、手首を振る回数に応じて透過度を下げる(はっきりと見えるようになる)。
・背屈状態の場合のみ処理装置の電源をオンにする。
・図8に示すように、背屈状態の間に複数のNFCタグ591−1〜591−6をタッチすることにより検出した複数のNFCタグ591−1〜591−6を1つのグループとして設定する。
・背屈状態の間に検出したスイッチや二次元コード等を1つのグループとして設定する。
・背屈状態の場合のみ腕時計型デバイスのタッチパネルを操作可能とする。
上述のように、表示装置は、処理装置501に設けられていても良いし、処理装置501と有線または無線により接続しても良い。表示装置は、例えば、液晶ディスプレイ、電子ペーパー、またはLight Emitting Diode(LED)などである。表示装置は、平面形状でも良いし曲面形状でも良い。表示装置には、ユーザの状態、例えば、背屈状態であるか否かなどの情報が表示される。
図9Aにおいて、表示装置561−1は、ベルト562−1によって、手首の内側に取り付けられている。
図8は、実施の形態に係る処理装置の第1の構成例である。
処理装置1501は、フラグ受信部1511、記憶部1521、ジェスチャ認識状態判定部1531、ジェスチャ認識処理部1541、および状態変化通知部1551を備える。
ジェスチャ認識処理部1541は、通知された処理状態に基づいて、ジャスチャの認識を行う。ジェスチャ認識処理部1541には、身体状態観測装置201または他の装置(不図示)から、身体の所定の部位の形状、状態、および/または動きを示す情報(ジェスチャ)が入力される。尚、身体状態観測装置201から送信される身体状態情報をジェスチャとして使用してもよい。
状態変化通知部1551は、図7の状態変化通知部551に対応し、同様の機能を有するので説明は省略する。
ステップS1601において、ジェスチャ認識状態判定部1531は、初期状態として、処理状態=終了に設定する。
図10は、処理装置がフラグの状態に応じた表示制御を行う装置である場合の構成を示す。
画面制御部2552は、処理装置2501が有する若しくは処理装置2501と接続する表示装置(不図示)の表示の制御を行う。
タイマ制御部2551、画面制御部2552、およびタイマ2553は、それぞれ図7の処理状態判定部531、処理実行部541、および状態変化通知部551に対応する。
図11の処理では、フラグが開始となってから終了となり、フラグが終了となってから所定の時間経過するまで画面表示をオンにしている。
手首の状態をフラグの判定に用いる場合、第1の方法として、手首が背屈状態であるか否かに応じて、フラグを判定する。
背屈角は、手首をまっすぐに伸ばしたときの手の甲を基準とし、手首をまっすぐに伸ばしたときの手の甲と手首を背屈させたときの手の甲のなす角である。すなわち、手首をまっすぐに伸ばしたときの背屈角は0度となる。
図13の左側は、脱力時の手首の状態を示し、右側は意図的に手首を限界まで背屈(随意可動)させた状態を示す。
図15は、脱力時と随意可動時の背屈角の平均値のグラフである。
図16は、脱力時と随意可動時の背屈角の差の平均値のグラフである。
また、角度差の平均をグラフにすると図16に示すようになる。
図17は、手首の背屈状態の検出方法(その1)を示す図である。
図18では、サーモグラフィー5201−2を用いて背屈状態を検出する。サーモグラフィー5201−2は、図1の身体状態観測装置201に対応する。
図19では、プッシュスイッチ5201−3を用いて背屈状態を検出する。プッシュスイッチ5201−3は、手首に装着して用いる手首装着型デバイス5202−3に搭載される。プッシュスイッチ5201−3および手首装着型デバイス5202−3は、図1の身体状態観測装置201に対応する。
図19の左側に示すように、手首が脱力状態の場合、プッシュスイッチ5201−3のボタンは押下されておらず、プッシュスイッチ5201−3の状態はオフである。
図20では、近接センサ5201−4を用いて背屈状態を検出する。近接センサ5201−4は、手首に装着して用いる手首装着型デバイス5202−4に搭載される。近接センサ5201−4および手首装着型デバイス5202−4は、図1の身体状態観測装置201に対応する。
図20の左側に示すように、手首が脱力状態の場合、近接センサ5201−4は手の甲を検出せず、検出信号はオフである。
図21では、測距センサ5201−5を用いて背屈状態を検出する。測距センサ5201−5は、手首に装着して用いる手首装着型デバイス5202−5に搭載される。測距センサ5201−5および手首装着型デバイス5202−5は、図1の身体状態観測装置201に対応する。
図21の左側に示すように、手首が脱力状態の場合、測距センサ5201−5は、手の甲を検出せず、距離は測定されない。
図22では、温度センサ5201−6を用いて背屈状態を検出する。温度センサ5201−6は、手首に装着して用いる手首装着型デバイス5202−6に搭載される。温度センサ5201−6および手首装着型デバイス5202−6は、図1の身体状態観測装置201に対応する。
図22の左側に示すように、手首が脱力状態の場合、測定領域に手の甲は存在せず、測定領域の温度データは、手の周辺の空間の温度が計測されている。
図23では、曲げセンサ5201−7を用いて背屈状態を検出する。曲げセンサ5201−7は、手首に装着して用いる手首装着型デバイス5202−7に搭載される。曲げセンサ5201−7および手首装着型デバイス5202−7は、図1の身体状態観測装置201に対応する。
図23の左側に示すように、手首が脱力状態の場合、曲げセンサ5201−7の屈曲は小さい。
図24では、角度センサ5201−8を用いて背屈状態を検出する。角度センサ5201−8は、手首に装着して用いる手首装着型デバイス5202−8に搭載される。角度センサ5201−8および手首装着型デバイス5202−7は、図1の身体状態観測装置201に対応する。
角度センサ5201−8は、測定板の回転角度を回転センサで測定する。
図24の左側に示すように、手首が脱力状態の場合、測定板の回転角度は小さい。
図24の右側に示すように、手首を背屈させるに従い、測定板の回転角度は大きくなる。
図25では、計測装置5201−9を用いて背屈状態を検出する。計測装置5201−9は、手首に装着して用いる手首装着型デバイス5202−9に搭載される。計測装置5201−9は、リング5203−9を備え、リング5203−9は手首を囲むように取り付けられる。計測装置5201−9、手首装着型デバイス5202−9、およびリング5203−9は、図1の身体状態観測装置201に対応する。
手首装着型デバイス5202−9は、距離または抵抗値をセンサ情報取得装置301を介してフラグ判定部411に出力する。
図26では、計測用マイク5201−10およびスピーカ5202−10を用いて背屈状態を検出する。計測用マイク5201−10およびスピーカ5202−10は、手首に装着して用いる手首装着型デバイス5203−10に搭載される。
図27では、筋電位計測装置5201−11を用いて背屈状態を検出する。筋電位計測装置5201−11は、手首に装着して用いる手首装着型デバイス5202−11に搭載される。筋電位計測装置5201−11および手首装着型デバイス5202−11は、図1の身体状態観測装置201に対応する。
図27の左側は脱力時、右側は背屈時の手首を示す。図27の下側には、筋電位のグラフを示す。該グラフは、脱力状態から手首を背屈させたときのグラフである。
手首装着型デバイス5202−11は、計測した筋電位をセンサ情報取得装置301を介してフラグ判定部411に出力する。
図28では、加速度/角速度センサ5201−12を用いて背屈状態を検出する。加速度/角速度センサ5201−12は、手の甲に設置される。加速度/角速度センサ5201−12は、図1の身体状態観測装置201に対応する。
加速度/角速度センサ5201−12は、Z軸の加速度または角速度を測定する。
図29では、傾斜センサ/地磁気センサ5201−13を用いて背屈状態を検出する。傾斜センサ/地磁気センサ5201−13は、手の甲に設置される。傾斜センサ/地磁気センサ5201−13は、図1の身体状態観測装置201に対応する。
傾斜センサ/地磁気センサ5201−13は、重力方向に対するZ軸の傾きまたは地磁気の方向に対するZ軸の傾きを測定する。
傾斜センサ/地磁気センサ5201−13は、Z軸の傾きをセンサ情報取得装置301を介してフラグ判定部411に出力する。
図32では、プッシュスイッチ5201−14を用いて背屈状態を検出する。プッシュスイッチ5201−14は、手の甲に装着して用いる装着型デバイス5202−14に搭載される。装着型デバイス5202−14は、ベルト5203−14を手に巻きつけることにより、手の甲側に設置される。プッシュスイッチ5201−14、装着型デバイス5202−14、およびベルト5203−14は、図1の身体状態観測装置201に対応する。
図32の左側に示すように、手首が脱力状態の場合、プッシュスイッチ5201−14のボタンは押下されておらず、プッシュスイッチ5201−14の状態はオフである。
図33は、センサ5201−15を用いて背屈状態を検出する。センサ5201−15は、グローブ5202−15の手の平側に取り付けられる。センサ5201−15およびグローブ5202−15は、図1の身体状態観測装置201に対応する。図33において、ユーザは、グローブ5202−15を手にはめている。
図33の下部に示すように、センサ5201−15は、グローブ5202−15の手の平側に取り付けられている。
センサ5201−15は、加速度/角速度センサ、または傾斜センサ/地磁気センサである。
図34Aでは、ケーブル5201−16を用いて背屈状態を検出する。ケーブル5201−16の一端は手首に取り付けられた腕輪5202−16、他端はグローブ5203−16の手の平部分に設けられた掌部5204−16にそれぞれ接続している。ユーザはグローブ5203−16を嵌めている。
図34Aの下部に示すように、ケーブル5201−16の一端は腕輪5202−16の手の平側、他端は掌部5204−16にそれぞれ接続している。
図34Aの右側に示すように、手首を背屈させると、ケーブル5201−16が引っ張られる。
図34Bは、掌部5204−16の内部の構成を示す。
図34Cは、腕輪5202−16は、伸縮可能なゴム紐5209−16を有する。ゴム紐5209−16の一端は腕輪5202−16と接続し、他端はケーブル5201−16と接続している。腕輪5202−16には端子5210−16、ゴム紐5209−16には端子5211−16がそれぞれ取り付けられている。ケーブル5201−1に引っ張られるのに応じてゴム紐5209−16は伸び、端子5211−16はゴム紐5209−16が伸びるのに応じて移動して、端子5210−16と接触する。
図35では、スマートフォン5201−17に搭載されるセンサ5202−17を用いて背屈状態を検出する。スマートフォン5201−17は、グローブ5203−17に取り付けられ、ユーザはグローブ5203−17を嵌めている。スマートフォン5201−17およびグローブ5203−17は、図1の身体状態観測装置201に対応する。
センサ5202−17は、照度センサまたは近接センサである。グローブ5203−17の手の甲の部分には突起5204−17が設けられている。
図36では、スマートフォン5201−18に搭載されるセンサ5202−18とスマートフォン5201−18のカバー5203−18に設けられた検出スイッチ5204−18を用いて背屈状態を検出する。
カバー5203−18には検出スイッチ5204−18が設けられており、手首を背屈すると、手の甲によって検出スイッチ5204−18が押される。
手首の状態をフラグの判定に用いる場合、第2の方法として、手首が掌屈状態であるか否かに応じて、フラグを判定する。
掌屈角は、手首をまっすぐに伸ばしたときの手の甲を基準とし、手首をまっすぐに伸ばしたときの手の甲と手首を掌屈させたときの手の甲のなす角である。すなわち、手首をまっすぐに伸ばしたときの掌屈角は0度となる。
次に足首の状態をフラグに用いる場合を説明する。
(2)足首の状態を用いる場合。
足首の状態をフラグの判定に用いる場合、足首が底屈状態であるか否かに応じて、フラグを判定する。
底屈角は、足首から下腿に向かう方向と足首からつま先に向かう方向のなす角から90度を引いた角度である。すなわち、足首から下腿に向かう方向と足首からつま先に向かう方向のなす角が直角のとき、底屈角は0度となる。
図31の上側は、脱力時の足首の状態を示し、下側は意図的に足首を限界まで底屈(随意可動)した状態を示す。
このように、脱力時の底屈角と随意可動時の底屈角の間には大きなギャップがあるため、底屈角が大きい場合には、ユーザが意図的に足首を底屈させていると判断できる。
図32では、曲げセンサ5201−19を用いて底屈状態を検出する。曲げセンサ5201−19は、図1の身体状態観測装置201に対応する。
(3)唇の状態を用いる場合
唇の状態をフラグの判定に用いる場合、唇が巻き込み状態であるか否かに応じて、フラグを判定する。
図33の上側は、脱力時の唇の状態を示し、下側は意図的に唇を口の中に巻き込んだ状態を示す。
図34では、カメラ5201−20を用いて巻き込み状態を検出する。カメラ5201−20は、図1の身体状態観測装置201に対応する。
図35の処理は、図6のステップS604に対応する
ここでは、露出度に基づく巻き込み状態の検出方法について説明する。ここでは、図34で述べたように、カメラ5201−20により顔が撮影され、撮影された画像がフラグ判定部411に入力されているとする。
通常の日常生活においては、背屈角が閾値以上となることはない。一方で、特定の上肢の姿勢や手の状態においては、意図せずとも背屈角が大きくなってしまう場合がある。よって、このような意図せずに背屈角が閾値以上となった場合でも、背屈状態であると判定しないようにする。
図44は、手の状態の検出方法(その1)を示す図である。
図45は、手の状態の検出方法(その2)を示す図である。
処理装置501は、背屈状態を検出したときの手の形状に応じて処理を行う。
図47は、手の形状の検出方法(その1)を示す図である。
図41の左側に示すように、手が閉じている(指を曲げている)場合、距離センサ5201−23は、指を検出しない。
図48では、曲げセンサ5201−24を用いて指の形状を検出する。曲げセンサ5201−24は、グローブ5202−24の各指の間接部分に取り付けられる。ユーザは、グローブ5202−24を装着する。
図49では、距離を計測するセンサが搭載された腕輪5201−25を用いて手の形状を検出する。腕輪5201−25は、図1の身体状態観測装置201に対応する。腕輪5201−25は、ユーザの手首に取り付けられている。
フラグ判定部411は、計測値に基づいて、手の形状を判定する。
図50では、カメラ5201−26を用いて手の形状を判定する。カメラ5201−26は、図1の身体状態観測装置201に対応する。
ここで、背屈状態において指の形状に応じて処理を変えるシステムの構成について述べる。
システム6101は、手首装着型デバイス6601および処理装置6501を備える。
処理装置6501は、受信部6511、記憶部6521、ジェスチャ認識状態判定部6531、ジェスチャ認識処理部6541、および状態変化通知部6551を備える。
ジェスチャ認識処理部6541は、通知された処理状態および補助状態に基づいて、ジャスチャの認識を行う。ジェスチャ認識処理部6541には、身体状態観測装置201または他の装置(不図示)から、身体の所定の部位の形状、状態、および/または動きを示す情報(ジェスチャ)が入力される。尚、身体状態観測装置201から送信される身体状態情報をジェスチャとして使用してもよい。
状態変化通知部6551は、図7の状態変化通知部551に対応し、同様の機能を有するので説明は省略する。
ステップS6601において、フラグ判定部6411は、初期値として、変数j=0、フラグ=終了に設定する。
図54は、図53のステップS6611に対応する。
図55は、第5の構成例の処理装置のフラグ制御処理のフローチャートである。
図56は、図54のステップS6635に対応する。
図57は、図55のステップS6637に対応する。
図58は、実施の形態に係るシステムの第6の構成例である。
手首装着型デバイス7601は、背屈検出スイッチ7201−1、カメラ7201−2、およびマイクロプロセッサ7602を備える。手首装着型デバイス7601は、手首に装着して使用される装置である。
処理部7505は、フラグおよび補助状態に基づいて、所定の処理を実施する。
ステップS7631において、処理部7505は、処理状態および補助状態を初期化する。尚、処理状態および補助状態は、以下の処理で用いられる情報である。
ステップS7651において、形状判定部7503は、画像取得部7502から形状情報、すなわちカメラ7201−2の撮影画像を受信する。
例えば、処理装置501は、背屈状態となったときに、手首が上を向いている場合(図61A)は「OK」の処理、手首が下を向いている場合場合(図61B)は「キャンセル」の処理、手首が左を向いている場合(図61C)は「1ページ次へ」の処理、手首が右を向いている場合(図46D)は「2ページ先へ」の処理をそれぞれ実行する。
背屈状態および掌屈状態を用いてジェスチャの認識を行う場合、手首が背屈状態であるか掌屈状態であるかに応じて、同一のジェスチャに対して異なる処理を割り当てる。
図64では、カメラ5201−27を用いて手の形状を判定する。カメラ5201−27は、図1の身体状態観測装置201に対応する。
図66は、図65のステップS8603に対応する。
図67は、図65のステップS8604に対応する。
処理装置501は、底屈状態を検出し、図69の下側に示すように、足首が底屈状態となる度に追加、消去、または塗りつぶし等のモードを順に切り替える。
処理装置501は、唇の巻き込み状態と顔の向きを検出し、図70の上側に示すように、巻き込み状態のときの顔の向きに応じて、操作対象を装置を変更する。
実施の形態のシステム101、身体状態観測装置201、センサ情報取得装置301、フラグ管理装置401、処理装置501は、例えば、図36に示すような情報処理装置1によって実現される。
出力部5は、例えば、ディスプレイ、プリンタ等である。
記録媒体駆動部7は、可搬記録媒体10を駆動し、その記録内容にアクセスする。可搬記録媒体としては、メモリカード、フレキシブルディスク、Compact Disk Read Only Memory(CD-ROM)、光ディスク、光磁気ディスク等、任意のコンピュータ読み取り可能な記録媒体が用いられる。ユーザは、この可搬記録媒体10に上述のプログラムとデータを格納しておき、必要に応じて、それらをメモリ3に読み出して使用する。
(付記1)
手首を観測し、前記手首の状態を示す状態情報を出力する状態観測部と
前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定する判定部と、
前記手首が背屈状態であるか否かに応じて、所定の処理を行う処理部と、
を備えるジェスチャ入力装置。
(付記2)
前記ジェスチャ入力装置には、前記手首を含む手のジェスチャが入力され、
前記処理部は、前記手首が背屈状態の場合、前記ジェスチャに応じた制御を行うことを特徴とする付記1記載のジェスチャ入力装置。
(付記3)
前記処理部は、前記手首が背屈状態の場合、前記手首が背屈状態であることを通知することを特徴とする付記2記載のジェスチャ入力装置。
(付記4)
手を観測し、前記手の形状を示す形状情報を出力する形状観測部をさらに備え、
前記判定部は、前記形状情報に基づいて、前記手の形状を判定し、
前記処理部は、前記手の形状と前記手首が背屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする付記1記載のジェスチャ入力装置。
(付記5)
前記判定部は、前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定し、
前記処理部は、前記手首が背屈状態であるか否かおよび前記手首が掌屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする付記1記載のジェスチャ入力装置。
(付記6)
手の姿勢または前記手に加えられる外力を計測し、前記姿勢または前記外力を示す制限情報を出力する計測部をさらに備え、
前記判定部は、前記制限情報に基づいて、前記手首が背屈状態であるか否かを判定する
ことを特徴とする付記1記載のジェスチャ入力装置。
(付記7)
手首を観測し、前記手首の状態を示す状態情報を出力する観測部と
前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定する判定部と、
前記手首が掌屈状態であるか否かに応じて、所定の処理を行う処理部と、
を備えるジェスチャ入力装置。
(付記8)
足首を観測し、前記足首の状態を示す状態情報を出力する状態観測部と
前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定する判定部と、
前記足首が底屈状態であるか否かに応じて、所定の処理を行う処理部と、
を備えるジェスチャ入力装置。
(付記9)
唇を観測し、前記唇の状態を示す状態情報を出力する状態観測部と
前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定する判定部と、
前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う処理部と、
を備えるジェスチャ入力装置。
(付記10)
手首を観測し、
前記手首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定し、
前記手首が背屈状態であるか否かに応じて、所定の処理を行う
ことを特徴とするジェスチャ入力方法。
(付記11)
前記ジェスチャ入力方法はさらに
前記手首を含む手のジェスチャを受信し、
前記手首が背屈状態の場合、前記ジェスチャに応じた制御を行うことを特徴とする付記10記載のジェスチャ入力方法。
(付記12)
前記ジェスチャ入力方法はさらに
前記手首が背屈状態の場合、前記手首が背屈状態であることを通知することを特徴とする付記11記載のジェスチャ入力方法。
(付記13)
前記ジェスチャ入力方法はさらに
手を観測し、
前記手の形状を示す形状情報を出力し、
前記判定する処理において、前記形状情報に基づいて、前記手の形状を判定し、
前記所定の処理を行う処理において、前記手の形状と前記手首が背屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする付記10記載のジェスチャ入力方法。
(付記14)
前記判定する処理において、前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定し、
前記所定の処理を行う処理において、前記手首が背屈状態であるか否かおよび前記手首が掌屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする付記10記載のジェスチャ入力方法。
(付記15)
前記ジェスチャ入力方法はさらに
手の姿勢または前記手に加えられる外力を計測し、
前記姿勢または前記外力を示す制限情報を出力し、
前記判定する処理は、前記制限情報に基づいて、前記手首が背屈状態であるか否かを判定することを特徴とする付記10記載のジェスチャ入力方法。
(付記16)
手首を観測し、
前記手首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定し、
前記手首が掌屈状態であるか否かに応じて、所定の処理を行う
ことを特徴とするジェスチャ入力方法。
(付記17)
足首を観測し、
前記足首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定し、
前記足首が底屈状態であるか否かに応じて、所定の処理を行う
ことを特徴とするジェスチャ入力方法。
(付記18)
唇を観測し、
前記唇の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定し、
前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う
ことを特徴とするジェスチャ入力方法。
(付記19)
コンピュータに
手首を観測し、
前記手首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定し、
前記手首が背屈状態であるか否かに応じて、所定の処理を行う
処理を実行させるジェスチャ入力プログラム。
(付記20)
前記手首を含む手のジェスチャを受信し、
前記手首が背屈状態の場合、前記ジェスチャに応じた制御を行う
処理をさらに実行させることを特徴とする付記19記載のジェスチャ入力プログラム。
(付記21)
前記手首が背屈状態の場合、前記手首が背屈状態であることを通知する処理をさらに実行させることを特徴とする付記20記載のジェスチャプログラム。
(付記22)
手を観測し、
前記手の形状を示す形状情報を出力する
処理をさらに実行させ、
前記判定する処理において、前記形状情報に基づいて、前記手の形状を判定し、
前記所定の処理を行う処理において、前記手の形状と前記手首が背屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする付記19記載のジェスチャ入力方法。
(付記23)
前記判定する処理において、前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定し、
前記所定の処理を行う処理において、前記手首が背屈状態であるか否かおよび前記手首が掌屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする付記19記載のジェスチャ入力プログラム。
(付記24)
手の姿勢または前記手に加えられる外力を計測し、
前記姿勢または前記外力を示す制限情報を出力し、
前記判定する処理は、前記制限情報に基づいて、前記手首が背屈状態であるか否かを判定することを特徴とする付記19記載のジェスチャプログラム。
(付記25)
コンピュータに
手首を観測し、
前記手首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定し、
前記手首が掌屈状態であるか否かに応じて、所定の処理を行う
処理を実行させるジェスチャ入力プログラム。
(付記26)
コンピュータに
足首を観測し、
前記足首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定し、
前記足首が底屈状態であるか否かに応じて、所定の処理を行う
処理を実行させるジェスチャ入力プログラム。
(付記27)
コンピュータに
唇を観測し、
前記唇の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定し、
前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う
処理を実行させるジェスチャ入力プログラム。
201 身体状態観測装置
301 センサ情報取得装置
401 フラグ管理装置
411 フラグ判定装置
421 フラグ通知部
501 処理装置
511 フラグ受信部
521 記憶部
522 フラグ
531 処理状態判定部
541 処理実行部
551 状態変化通知部
561 表示装置
Claims (15)
- 手首を観測し、前記手首の状態を示す状態情報を出力する状態観測部と、
前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定する判定部と、
前記手首が背屈状態であるか否かに応じて、所定の処理を行う処理部と、
を備えるジェスチャ入力装置。 - 前記ジェスチャ入力装置には、前記手首を含む手のジェスチャが入力され、
前記処理部は、前記手首が背屈状態の場合、前記ジェスチャに応じた制御を行うことを特徴とする請求項1記載のジェスチャ入力装置。 - 前記処理部は、前記手首が背屈状態の場合、前記手首が背屈状態であることを通知することを特徴とする請求項2記載のジェスチャ入力装置。
- 手を観測し、前記手の形状を示す形状情報を出力する形状観測部をさらに備え、
前記判定部は、前記形状情報に基づいて、前記手の形状を判定し、
前記手の形状と前記手首が背屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする請求項1記載のジェスチャ入力装置。 - 前記判定部は、前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定し、
前記処理部は、前記手首が背屈状態であるか否かおよび前記手首が掌屈状態であるか否かに基づいて、前記所定の処理を行うことを特徴とする請求項1記載のジェスチャ入力装置。 - 手の姿勢または前記手に加えられる外力を計測し、前記姿勢または前記外力を示す制限情報を出力する計測部をさらに備え、
前記判定部は、前記制限情報に基づいて、前記手首が背屈状態であるか否かを判定する
ことを特徴とする請求項1記載のジェスチャ入力装置。 - 手首を観測し、前記手首の状態を示す状態情報を出力する観測部と
前記状態情報に基づいて、前記手首が掌屈状態であるか否かを判定する判定部と、
前記手首が掌屈状態であるか否かに応じて、所定の処理を行う処理部と、
を備えるジェスチャ入力装置。 - 足首を観測し、前記足首の状態を示す状態情報を出力する状態観測部と
前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定する判定部と、
前記足首が底屈状態であるか否かに応じて、所定の処理を行う処理部と、
を備えるジェスチャ入力装置。 - 唇を観測し、前記唇の状態を示す状態情報を出力する状態観測部と
前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定する判定部と、
前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う処理部と、
を備えるジェスチャ入力装置。 - 手首を観測し、
前記手首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定し、
前記手首が背屈状態であるか否かに応じて、所定の処理を行う
ことを特徴とするジェスチャ入力方法。 - 足首を観測し、
前記足首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定し、
前記足首が底屈状態であるか否かに応じて、所定の処理を行う
ことを特徴とするジェスチャ入力方法。 - 唇を観測し、
前記唇の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定し、
前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う
ことを特徴とするジェスチャ入力方法。 - コンピュータに
手首を観測し、
前記手首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記手首が背屈状態であるか否かを判定し、
前記手首が背屈状態であるか否かに応じて、所定の処理を行う
処理を実行させるジェスチャ入力プログラム。 - コンピュータに
足首を観測し、
前記足首の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記足首が底屈状態であるか否かを判定し、
前記足首が底屈状態であるか否かに応じて、所定の処理を行う
処理を実行させるジェスチャ入力プログラム。 - コンピュータに
唇を観測し、
前記唇の状態を示す状態情報を出力し、
前記状態情報に基づいて、前記唇が巻き込み状態であるか否かを判定し、
前記唇が巻き込み状態であるか否かに応じて、所定の処理を行う
処理を実行させるジェスチャ入力プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014087684A JP6344032B2 (ja) | 2013-09-26 | 2014-04-21 | ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム |
US14/471,485 US9639164B2 (en) | 2013-09-26 | 2014-08-28 | Gesture input method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013199135 | 2013-09-26 | ||
JP2013199135 | 2013-09-26 | ||
JP2014087684A JP6344032B2 (ja) | 2013-09-26 | 2014-04-21 | ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015088161A true JP2015088161A (ja) | 2015-05-07 |
JP6344032B2 JP6344032B2 (ja) | 2018-06-20 |
Family
ID=52692214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014087684A Active JP6344032B2 (ja) | 2013-09-26 | 2014-04-21 | ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US9639164B2 (ja) |
JP (1) | JP6344032B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170128668A (ko) * | 2016-05-12 | 2017-11-23 | 한국전자통신연구원 | 핸드 제스처 인식 장치 및 방법 |
JP2018180840A (ja) * | 2017-04-11 | 2018-11-15 | 富士フイルム株式会社 | ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム |
WO2019159332A1 (ja) * | 2018-02-16 | 2019-08-22 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、コントローラデバイス、情報処理方法、及びプログラム |
WO2022254693A1 (ja) * | 2021-06-04 | 2022-12-08 | 日産自動車株式会社 | 操作検出装置及び操作検出方法 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015041052A (ja) * | 2013-08-23 | 2015-03-02 | ソニー株式会社 | リストバンド型情報処理装置および記憶媒体 |
US10019625B2 (en) * | 2015-07-23 | 2018-07-10 | Orcam Technologies Ltd. | Wearable camera for reporting the time based on wrist-related trigger |
CN105162979B (zh) * | 2015-08-26 | 2019-02-05 | Oppo广东移动通信有限公司 | 一种来电静音控制方法及智能手表 |
JP5996138B1 (ja) * | 2016-03-18 | 2016-09-21 | 株式会社コロプラ | ゲームプログラム、方法およびゲームシステム |
JP6926781B2 (ja) * | 2017-07-28 | 2021-08-25 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
CN108647597B (zh) * | 2018-04-27 | 2021-02-02 | 京东方科技集团股份有限公司 | 一种手腕识别方法、手势识别方法、装置和电子设备 |
US10977717B2 (en) * | 2019-07-22 | 2021-04-13 | Pickey Solutions Ltd. | Hand actions monitoring device |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001188916A (ja) * | 1999-12-28 | 2001-07-10 | Nippon Telegr & Teleph Corp <Ntt> | 仮想空間操作方法、仮想空間システム、仮想空間操作入力装置及び仮想空間操作プログラムを記録した記録媒体 |
JP2005352739A (ja) * | 2004-06-10 | 2005-12-22 | Nec Corp | 携帯端末装置、入力システム、情報入力方法 |
JP2006155244A (ja) * | 2004-11-29 | 2006-06-15 | Olympus Corp | 情報表示装置 |
JP2006330136A (ja) * | 2005-05-24 | 2006-12-07 | Advanced Telecommunication Research Institute International | 表情付け音声発生装置 |
JP2007249595A (ja) * | 2006-03-15 | 2007-09-27 | Omron Corp | 表示装置、プロジェクタ、表示システム、表示方法、表示プログラム、および記録媒体 |
JP2008116551A (ja) * | 2006-11-01 | 2008-05-22 | Advanced Telecommunication Research Institute International | 表情付け音声発生装置 |
JP2008203911A (ja) * | 2007-02-16 | 2008-09-04 | Lenovo Singapore Pte Ltd | ポインティング・デバイス、およびコンピュータ |
JP2010522380A (ja) * | 2007-03-19 | 2010-07-01 | ゼブラ・イメージング・インコーポレイテッド | ユーザ入力により動的3次元ディスプレイをアップデートするシステム及び方法 |
JP2011253493A (ja) * | 2010-06-04 | 2011-12-15 | Sony Corp | 操作端末装置、電子機器、および電子機器システム |
JP2012185833A (ja) * | 2012-04-17 | 2012-09-27 | Omron Corp | ジェスチャ入力装置およびジェスチャ入力装置の制御方法 |
JP2012247966A (ja) * | 2011-05-27 | 2012-12-13 | Panasonic Corp | 操作入力装置、プログラム |
JP2013533537A (ja) * | 2010-06-02 | 2013-08-22 | マイクロソフト コーポレーション | アバター・ジェスチャーの表示制限 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US6577998B1 (en) * | 1998-09-01 | 2003-06-10 | Image Link Co., Ltd | Systems and methods for communicating through computer animated images |
JPH09311759A (ja) | 1996-05-22 | 1997-12-02 | Hitachi Ltd | ジェスチャ認識方法および装置 |
US6747632B2 (en) * | 1997-03-06 | 2004-06-08 | Harmonic Research, Inc. | Wireless control device |
JP2000132305A (ja) * | 1998-10-23 | 2000-05-12 | Olympus Optical Co Ltd | 操作入力装置 |
JP2001216069A (ja) | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
US20040064195A1 (en) * | 2002-07-15 | 2004-04-01 | Hugh Herr | Variable-mechanical-impedance artificial legs |
JP3752246B2 (ja) * | 2003-08-11 | 2006-03-08 | 学校法人慶應義塾 | ハンドパターンスイッチ装置 |
JP2005063090A (ja) | 2003-08-11 | 2005-03-10 | Keio Gijuku | ハンドパターンスイッチ装置 |
US8075633B2 (en) * | 2003-09-25 | 2011-12-13 | Massachusetts Institute Of Technology | Active ankle foot orthosis |
US8864846B2 (en) * | 2005-03-31 | 2014-10-21 | Massachusetts Institute Of Technology | Model-based neuromechanical controller for a robotic leg |
US20070043449A1 (en) * | 2005-03-31 | 2007-02-22 | Massachusetts Institute Of Technology | Artificial ankle-foot system with spring, variable-damping, and series-elastic actuator components |
US20070162152A1 (en) * | 2005-03-31 | 2007-07-12 | Massachusetts Institute Of Technology | Artificial joints using agonist-antagonist actuators |
US8512415B2 (en) * | 2005-03-31 | 2013-08-20 | Massachusetts Institute Of Technology | Powered ankle-foot prothesis |
JP2007087089A (ja) | 2005-09-21 | 2007-04-05 | Fujitsu Ltd | ジェスチャ認識装置、ジェスチャ認識プログラムおよびジェスチャ認識方法 |
US9229630B2 (en) * | 2006-04-03 | 2016-01-05 | Respironics Oxytec, Inc | User interface for a portable oxygen concentrator |
GB0701662D0 (en) * | 2006-12-14 | 2007-03-07 | Blatchford & Sons Ltd | A lower limb prosthesis |
US7985265B2 (en) * | 2006-12-14 | 2011-07-26 | Chas. A. Blatchford & Sons Limited | Prosthetic ankle and foot combination |
JP5207513B2 (ja) | 2007-08-02 | 2013-06-12 | 公立大学法人首都大学東京 | 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム |
US8628585B2 (en) * | 2007-12-14 | 2014-01-14 | Blatchford Products Limited | Lower limb prosthesis |
DE102008008281A1 (de) * | 2008-02-07 | 2009-08-20 | Otto Bock Healthcare Gmbh | Passives orthopädisches Hilfsmittel in Form einer Fußprothese oder Fußorthese |
US8226589B2 (en) * | 2008-04-18 | 2012-07-24 | Darco International, Inc. | Night splint with digital dorsiflexion |
US8624836B1 (en) * | 2008-10-24 | 2014-01-07 | Google Inc. | Gesture-based small device input |
US20100152619A1 (en) * | 2008-12-16 | 2010-06-17 | 24/8 Llc | System, method, and computer-program product for measuring pressure points |
US20110043496A1 (en) * | 2009-08-24 | 2011-02-24 | Ray Avalani Bianca R | Display device |
US8717291B2 (en) * | 2009-10-07 | 2014-05-06 | AFA Micro Co. | Motion sensitive gesture device |
US20110199292A1 (en) * | 2010-02-18 | 2011-08-18 | Kilbride Paul E | Wrist-Mounted Gesture Device |
US9849020B2 (en) * | 2010-06-24 | 2017-12-26 | Eugenio R. Silva | Ankle foot orthosis |
KR101413539B1 (ko) * | 2010-11-22 | 2014-07-02 | 한국전자통신연구원 | 자세인식을 이용하는 제어신호 입력장치 및 제어신호 입력방법 |
EP2663267B1 (en) * | 2011-01-10 | 2019-07-31 | Iwalk, Inc. | Powered joint orthosis |
EP2663904A2 (en) * | 2011-01-12 | 2013-11-20 | Iwalk, Inc. | Controlling powered human augmentation devices |
US8761437B2 (en) * | 2011-02-18 | 2014-06-24 | Microsoft Corporation | Motion recognition |
EP2678757B1 (en) * | 2011-02-21 | 2017-08-16 | Koninklijke Philips N.V. | Gesture recognition system |
US8913005B2 (en) * | 2011-04-08 | 2014-12-16 | Fotonation Limited | Methods and systems for ergonomic feedback using an image analysis module |
JP5709227B2 (ja) * | 2011-04-28 | 2015-04-30 | Necソリューションイノベータ株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9218058B2 (en) * | 2011-06-16 | 2015-12-22 | Daniel Bress | Wearable digital input device for multipoint free space data collection and analysis |
US20130079686A1 (en) * | 2011-09-23 | 2013-03-28 | Blake Sessions | Apparatus, methods and systems to augment bipedal locomotion |
-
2014
- 2014-04-21 JP JP2014087684A patent/JP6344032B2/ja active Active
- 2014-08-28 US US14/471,485 patent/US9639164B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001188916A (ja) * | 1999-12-28 | 2001-07-10 | Nippon Telegr & Teleph Corp <Ntt> | 仮想空間操作方法、仮想空間システム、仮想空間操作入力装置及び仮想空間操作プログラムを記録した記録媒体 |
JP2005352739A (ja) * | 2004-06-10 | 2005-12-22 | Nec Corp | 携帯端末装置、入力システム、情報入力方法 |
JP2006155244A (ja) * | 2004-11-29 | 2006-06-15 | Olympus Corp | 情報表示装置 |
JP2006330136A (ja) * | 2005-05-24 | 2006-12-07 | Advanced Telecommunication Research Institute International | 表情付け音声発生装置 |
JP2007249595A (ja) * | 2006-03-15 | 2007-09-27 | Omron Corp | 表示装置、プロジェクタ、表示システム、表示方法、表示プログラム、および記録媒体 |
JP2008116551A (ja) * | 2006-11-01 | 2008-05-22 | Advanced Telecommunication Research Institute International | 表情付け音声発生装置 |
JP2008203911A (ja) * | 2007-02-16 | 2008-09-04 | Lenovo Singapore Pte Ltd | ポインティング・デバイス、およびコンピュータ |
JP2010522380A (ja) * | 2007-03-19 | 2010-07-01 | ゼブラ・イメージング・インコーポレイテッド | ユーザ入力により動的3次元ディスプレイをアップデートするシステム及び方法 |
JP2013533537A (ja) * | 2010-06-02 | 2013-08-22 | マイクロソフト コーポレーション | アバター・ジェスチャーの表示制限 |
JP2011253493A (ja) * | 2010-06-04 | 2011-12-15 | Sony Corp | 操作端末装置、電子機器、および電子機器システム |
JP2012247966A (ja) * | 2011-05-27 | 2012-12-13 | Panasonic Corp | 操作入力装置、プログラム |
JP2012185833A (ja) * | 2012-04-17 | 2012-09-27 | Omron Corp | ジェスチャ入力装置およびジェスチャ入力装置の制御方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170128668A (ko) * | 2016-05-12 | 2017-11-23 | 한국전자통신연구원 | 핸드 제스처 인식 장치 및 방법 |
JP2018180840A (ja) * | 2017-04-11 | 2018-11-15 | 富士フイルム株式会社 | ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム |
WO2019159332A1 (ja) * | 2018-02-16 | 2019-08-22 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、コントローラデバイス、情報処理方法、及びプログラム |
JPWO2019159332A1 (ja) * | 2018-02-16 | 2020-09-10 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、コントローラデバイス、情報処理方法、及びプログラム |
US11400363B2 (en) | 2018-02-16 | 2022-08-02 | Sony Interactive Entertainment Inc. | Information processing apparatus, information processing system, controller device, information processing method, and program |
WO2022254693A1 (ja) * | 2021-06-04 | 2022-12-08 | 日産自動車株式会社 | 操作検出装置及び操作検出方法 |
Also Published As
Publication number | Publication date |
---|---|
US20150089455A1 (en) | 2015-03-26 |
US9639164B2 (en) | 2017-05-02 |
JP6344032B2 (ja) | 2018-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6344032B2 (ja) | ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム | |
US10758158B2 (en) | System and method for rehabilitation exercise of the hands | |
JP6669069B2 (ja) | 検出装置、検出方法、制御装置、および制御方法 | |
US11567573B2 (en) | Neuromuscular text entry, writing and drawing in augmented reality systems | |
Ann et al. | Human activity recognition: A review | |
US8421634B2 (en) | Sensing mechanical energy to appropriate the body for data input | |
JP2022500729A (ja) | 拡張現実システムの神経筋制御 | |
US20130069883A1 (en) | Portable information processing terminal | |
US20150109197A1 (en) | Information processing apparatus, information processing method, and program | |
CN105706024A (zh) | 使用手腕移动的腕带设备输入 | |
US11237632B2 (en) | Ring device having an antenna, a touch pad, and/or a charging pad to control a computing device based on user motions | |
CN103631368B (zh) | 检测装置、检测方法以及电子设备 | |
JP6170973B2 (ja) | 携帯情報端末、情報処理方法、及び、プログラム | |
US20230034807A1 (en) | Systems and methods including a device for personalized activity monitoring involving the hands | |
WO2021207033A1 (en) | Input device to control a computing device with a touch pad having a curved surface configured to sense touch input | |
KR101211808B1 (ko) | 동작인식장치 및 동작인식방법 | |
US12093464B2 (en) | Systems for interpreting a digit-to-digit gesture by a user differently based on roll values of a wrist-wearable device worn by the user, and methods of use thereof | |
Yamagishi et al. | A system for controlling personal computers by hand gestures using a wireless sensor device | |
KR101771927B1 (ko) | 사용자와 스마트 기기간의 근전도 신호를 이용한 비접촉 인터페이싱 장치 및 방법 | |
US10901814B2 (en) | Information processing apparatus and information processing method | |
KR101723076B1 (ko) | 사용자와 스마트 기기간의 근전도 신호를 이용한 비접촉 인터페이싱 장치 및 방법 | |
US20200166990A1 (en) | Device and methodology for the interaction through gestures and movements of human limbs and fingers | |
EP4418079A1 (en) | Ring device | |
CN118502580A (zh) | 环设备 | |
KR20200053248A (ko) | 손동작 인식 기능이 구비된 프리젠터 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170919 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171117 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180320 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180424 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180507 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6344032 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |