JP5401675B1 - Information input device and information input method - Google Patents
Information input device and information input method Download PDFInfo
- Publication number
- JP5401675B1 JP5401675B1 JP2012217295A JP2012217295A JP5401675B1 JP 5401675 B1 JP5401675 B1 JP 5401675B1 JP 2012217295 A JP2012217295 A JP 2012217295A JP 2012217295 A JP2012217295 A JP 2012217295A JP 5401675 B1 JP5401675 B1 JP 5401675B1
- Authority
- JP
- Japan
- Prior art keywords
- area
- operator
- selection
- information input
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】操作対象画面の範囲を絞ることによって操作者の手の動きを正しく認識し、その手の動きに基づいて行なわれるオブジェクトに対する操作を適切に行うことを可能にすること。
【解決手段】情報入力装置は、表示部101と、操作者が入力指示を行うための入力指示領域を設定する領域設定部104と、入力指示が行われる操作者の状況を取得する取得部102と、取得された状況情報に基づいて判断される操作者の両手の動作に応じて、表示領域の全領域のうちの一部の領域に対応付けられ、その一部の領域内に対する操作者の選択操作を受け入れるための選択領域と、操作者の決定操作を受け入れるための決定領域とを、入力指示領域上で区別して配置する制御部105とを含む。
【選択図】図7An object of the present invention is to make it possible to correctly recognize the movement of an operator's hand by narrowing down the range of an operation target screen and to appropriately perform an operation on an object performed based on the movement of the hand.
An information input device includes a display unit, an area setting unit for setting an input instruction area for an operator to input an input, and an acquisition unit for acquiring a situation of the operator who performs the input instruction. In accordance with the movement of both hands of the operator determined based on the acquired situation information, the display area is associated with a part of the entire display area, and the operator's The control unit 105 includes a selection area for accepting a selection operation and a determination area for accepting an operator's determination operation, which are separately arranged on the input instruction area.
[Selection] Figure 7
Description
本発明は、情報入力装置および情報入力方法に関し、より詳細には、操作者の手の動きを利用して入力操作を行うための情報入力装置および情報入力方法に関する。 The present invention relates to an information input device and an information input method, and more particularly to an information input device and an information input method for performing an input operation using the movement of an operator's hand.
従来、操作者が手を動かすことによってコンピュータに入力指示を与え、この入力指示に基づいて行われる入力操作を実施する情報入力装置が知られている。例えば、特許文献1では、CCDカメラと、このCCDカメラで撮像された画像中の物体の形状等を認識するコンピュータと、このコンピュータによって認識された物体を表示するディスプレイとを備え、ユーザの手振りによってディスプレイ上に表示されるカーソルの選択操作を行うようにする装置が開示されている。
2. Description of the Related Art Conventionally, there is known an information input device that gives an input instruction to a computer by moving an operator's hand and performs an input operation performed based on the input instruction. For example,
特許文献2では、仮想平面上での操作者の手の動きで例えばドラッグ操作を行うようにする装置が開示されている。
特許文献1、2に開示された装置では、操作者が手を動かして操作する対象画面の範囲が広くなっている。しかしながら、操作される対象画面の範囲が広い状況下では、操作者の手の動きが正しく認識されず、従来の装置は、その手の動きに伴って、選択対象となるカーソル等のオブジェクトの移動を適切に行うことができないという問題があった。
In the apparatuses disclosed in
そこで本発明は、操作対象画面の範囲を絞ることによって操作者の手の動きを正しく認識し、その手の動きに基づいて行なわれるオブジェクトに対する操作を適切に行うことを可能にする情報入力装置および情報入力方法を提供することを目的とする。 Accordingly, the present invention provides an information input device that can correctly recognize the movement of the operator's hand by narrowing the range of the operation target screen and appropriately perform an operation on the object performed based on the movement of the hand. An object is to provide an information input method.
このような目的を達成するためするための情報入力装置は、表示領域を備える表示部と、操作者が入力指示を行うための入力指示領域を設定する領域設定部と、上記入力指示が行われる上記操作者の状況を取得する取得部と、上記取得された状況情報に基づいて判断される上記操作者の両手の動作に応じて、上記表示領域の全領域のうちの一部の領域に対応付けられ、上記一部の領域内に対する上記操作者の選択操作を受け入れるための選択領域と、上記操作者の決定操作を受け入れるための決定領域とを、上記入力指示領域上で区別して配置する制御部とを含み、上記制御部は、上記操作者の両手の動作の変化から認識される当該操作者の指のパターンに応じて、上記選択領域と上記決定領域とを入れ替えて配置する。 An information input device for achieving such an object includes a display section having a display area, an area setting section for setting an input instruction area for an operator to input instructions, and the input instruction. Corresponding to a part of the entire display area according to the action of both hands of the operator, which is determined based on the acquired situation information, and an acquisition unit for acquiring the operator's situation And a control area for distinguishing and arranging a selection area for accepting the operator's selection operation in the partial area and a decision area for accepting the operator's decision operation on the input instruction area. The control unit arranges the selection area and the determination area in accordance with a pattern of the finger of the operator recognized from a change in the operation of both hands of the operator .
また、上記目的を達成するための情報入力方法は、操作者が入力指示を行う状況を取得するステップと、上記取得された状況情報に基づいて判断される上記操作者の両手の動作に応じて、表示部の全表示領域のうちの一部の領域に対応付けられ、上記一部の領域内に対する上記操作者の選択操作を受け入れるための選択領域と、上記操作者の決定操作を受け入れるための決定領域とを区別して配置するステップとを含み、上記配置するステップは、上記操作者の両手の動作の変化から認識される当該操作者の指のパターンに応じて、上記選択領域と上記決定領域とを入れ替えて配置する。 In addition, an information input method for achieving the above object includes a step of acquiring a situation in which an operator gives an input instruction, and an operation of both hands of the operator determined based on the acquired situation information. A selection area for accepting the operator's selection operation in the partial area, and a selection area for accepting the operator's decision operation. A step of distinguishing the determined region from the determined region, and the step of arranging the selected region and the determined region according to a pattern of the operator's finger recognized from a change in operation of both hands of the operator. And arrange them .
さらに、上記目的を達成するためのプログラムは、上記情報入力方法をコンピュータに実行させるためのものである。 Further, a program for achieving the above object is for causing a computer to execute the above information input method.
本発明によれば、操作対象画面の範囲を絞ることによって操作者の手の動きを正しく認識し、その手の動きに基づいて行なわれるオブジェクトに対する操作を適切に行うことができる。 According to the present invention, it is possible to correctly recognize the movement of the operator's hand by narrowing down the range of the operation target screen, and appropriately perform an operation on the object performed based on the movement of the hand.
以下、本発明の実施形態である情報入力装置について説明する。実施形態に係る情報入力装置は、操作者の手の動きに応じて操作者に入力操作をさせるものである。 Hereinafter, an information input device according to an embodiment of the present invention will be described. The information input device according to the embodiment causes the operator to perform an input operation according to the movement of the operator's hand.
[情報入力装置1の構成]
図1は、本発明の一実施形態に係る情報入力装置1のハードウエア上の構成例を示す図である。図1に示すように、情報入力装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、カメラ14と、表示装置15と、入力装置16とを備える。
[Configuration of information input device 1]
FIG. 1 is a diagram showing a hardware configuration example of an
CPU11は、各構成要素とバスで接続されて制御信号やデータの転送処理を行うとともに、情報入力装置1全体の動作を実現するための各種のプログラムの実行、演算処理等を行う。
The
ROM12には、情報入力装置1全体の動作に必要なプログラムやデータが記録される。このプログラムはDVD−ROM等の記録媒体に格納されており、RAM13に読み出されてCPU11による実行が開始され、本実施形態の情報入力装置1が実現される。
The
RAM13には、データやプログラムが一時的に保持される。
The
カメラ14は、操作者によって行われる入力指示の状況を撮像し、その画像がCPU11へ伝送されて画像認識が行われる。後述するように、この実施形態の情報入力装置1では、カメラ14は操作者によって行われる入力指示を認識するための二次元または三次元の画像を撮像するが、この撮像処理が可能であれば、カメラ14の構成としていかなる方式もとり得る。カメラ14は、例えば、CCD(Charge Coupled Device)センサー搭載のカメラ、CMOS(Complementary Metal Oxide Semiconductor)センサー搭載のカメラ、赤外線カメラなどである。
The
表示装置15は、例えば、液晶ディスプレイ、EL(Electro-Luminescence)などのフラットパネル表示器とすることができる。
The
入力装置16は、例えば、キーボード、マウス、操作ボタン、タッチパネル、入力ペン、センサーなどを含む。
The
[入力指示の概略]
次に、情報入力装置1によって実現される操作者による入力指示の概略について説明する。
[Outline of input instructions]
Next, an outline of an input instruction by the operator realized by the
先ず、操作者の入力指示の態様について図2〜図4を参照して説明する。図2は、操作者の入力指示の態様の一例を示す図である。図3は、選択領域および決定領域を上からみたときの各領域の位置関係の一例を示す図である。図4は、選択領域および決定領域を横からみたときの各領域の位置関係の一例を示す図である。 First, an aspect of an operator's input instruction will be described with reference to FIGS. FIG. 2 is a diagram illustrating an example of an input instruction form of the operator. FIG. 3 is a diagram illustrating an example of the positional relationship of each region when the selection region and the determination region are viewed from above. FIG. 4 is a diagram illustrating an example of the positional relationship of each region when the selection region and the determination region are viewed from the side.
図2に示すように、この情報入力装置1において、表示装置15にはカメラ14が取り付けられ、カメラ14は、操作者が入力指示を行う状況、すなわち操作者500の両手502,503の動きを撮像するように構成されている。
As shown in FIG. 2, in the
情報入力装置1は、カメラ14によって撮像された画像から、操作者の両手502,503の指の形を認識し、その結果によって、仮想の入力指示領域としての選択領域R1と決定領域R2とを区別して配置するように構成されている。
The
選択操作は、表示装置15上に表示されるオブジェクト(アイコン、ポインタ、カーソルなど)に対する選択指示である。決定操作は、クリック等の決定指示である。選択操作および決定操作については、後に詳細に説明する。
The selection operation is a selection instruction for an object (icon, pointer, cursor, etc.) displayed on the
例えば、図2の例では、操作者500が左手502を開き、右手503の人差し指を立てることによって、CPU11は、操作者500の指の形に応じて、右手503側に、操作者500の選択操作を受け入れるための選択領域R1を配置し、左手502側に、操作者500の決定操作を受け入れるための決定領域R2を配置する。
For example, in the example of FIG. 2, when the
以下の実施形態の説明では、人差し指を立てた状態の手の形のパターンを、選択領域R1の「手のパターン」と称する。この実施形態の情報入力装置1では、操作者500の入力指示に伴う手のパターンでは、選択領域R1がその手の側に配置される。さらに、別の手の側に、決定領域R2が配置される。このことは、CPU11によって選択領域R1の手のパターンが認識されるたびに、選択領域R1と決定領域R2とが入れ替えて配置されることを意味し、これにより、操作者500による選択操作が、例えば人差し指を立てた状態で行われることになる。
In the following description of the embodiment, a hand-shaped pattern with the index finger raised is referred to as a “hand pattern” of the selection region R1. In the
図2に示した2つの選択領域R1および決定領域R2は、予め定められた仮想の入力操作領域に配置される。例えば、図2〜図4に示すように、選択領域R1および決定領域R2はともに、操作者の視点501と表示画面15の表示領域の四隅とを結ぶ範囲(図2〜図4において一点鎖線で示す。)に入らないように設けられる。そして図3に示すように、入力装置16としてのキーボードと表示装置15との間に、選択領域R1および決定領域R2が配置されている。これにより、カメラ14は、操作者500の両手の動きを認識可能なように撮像することができる。
The two selection areas R1 and determination area R2 shown in FIG. 2 are arranged in a predetermined virtual input operation area. For example, as shown in FIGS. 2 to 4, both the selection area R <b> 1 and the determination area R <b> 2 are ranges that connect the operator's
選択領域R1および決定領域R2が配置される位置は、上述した例に限られず、操作者500による入力指示の状況を認識可能に撮像することができれば変更可能である。
The positions where the selection region R1 and the determination region R2 are arranged are not limited to the above-described example, and can be changed as long as the situation of the input instruction by the
[領域R1,R2の入れ替え処理]
次に、選択領域R1と決定領域R2とを入れ替えて配置するための操作者500の手の動きについて、図5を参照して説明する。図5は、選択領域R1と決定領域R2とが入れ替えて配置される場合の手502,503の動きの変化態様の一例を示す図であって、(a)右手503による選択操作の様子と、(b)左手502による選択操作の様子とを示している。
[Replacement of areas R1 and R2]
Next, the movement of the hand of the
図5(a)(b)では、いずれかの手の人差し指を立てることによって、その手の側に選択領域R1が配置されている。この例では、右手503が、人差し指を立てた状態→指を全部開いた状態と変化し、左手502が、指を全部開いた状態→人差し指を立てた状態と変化している。情報入力装置1では、この変化に伴って、選択領域R1は、右手503→左手502の側に入れ替えて配置し、さらに、決定領域R2は、左手502→右手503の側に入れ替えて配置する。
In FIGS. 5A and 5B, the selection region R1 is arranged on the hand side by raising the index finger of either hand. In this example, the
[選択領域R1内での操作者の選択操作]
次に、選択領域R1内での操作者500の選択操作について、図6を参照して説明する。図6は、表示装置15に表示されるポインタ40が、選択領域R1における指の動きに対応して移動する場合の操作者500の操作態様の一例を示す図であって、(a)右手503による選択操作の様子と、(b)左手503による選択操作の様子とを示している。
[Operator's selection operation in selection area R1]
Next, the selection operation of the
図6(a)(b)では、選択領域R1は、表示装置15の表示領域の全領域のうちの一部の領域151(図中、斜線で示す。)に対応付けられている。この情報入力装置1では、上述した領域151は、表示領域の中央(図中、上下方向に一点鎖線で示す。)で均等に2分割した領域よりも大きくなるように設定される。
In FIGS. 6A and 6B, the selection area R1 is associated with a partial area 151 (shown by hatching in the drawing) of the entire display area of the
図6(a)の例では、選択領域R1が右手503側に配置されているため、選択領域R1に対応付けられる一部の領域151は、例えば表示領域の中央(図中、上下方向に一点鎖線で示す。)よりも左側の領域を含めて設定される。そのため、選択領域R1内において、操作者500が選択操作を行える表示領域は、図6(a)に示す領域151となる。
In the example of FIG. 6A, since the selection area R1 is arranged on the
また、図6(a)では、選択領域R1内で右手502の人差し指を動かした場合に、その動きに伴って、人差し指20の位置に対応付けられた領域151上のポインタ40も動く様子を、符号20,30に示す実線で示してある。このようにして、選択領域R1内での選択操作が可能となる。
In FIG. 6A, when the index finger of the
一方、図6(b)に示す選択領域R1に対応付けられる一部の領域151は、表示領域の中央(図中、上下方向に一点鎖線で示す。)よりも右側の領域を含めて設定される。
On the other hand, a part of the
図6(a)(b)に示した選択領域R1内における選択操作の判定は、例えば、図6(a)(b)に示した領域151に対応付けられた選択領域R1を撮像するようにカメラ14の画角を設定しておき、上述した画角を有するカメラ14からの画像に基づいて行われる。選択領域R1と領域151との対応付けは、例えばそれぞれの領域の座標データを変換するためのマッピングテーブルに従って行われる。例えば図6(a)に示したように、選択領域R1において操作者500が人差し指を動かす場合には、CPU11は、その人差し指が指し示す選択領域R1上の位置(座標データ)に対応付けられる領域151内の「ポインタ40の選択操作」と判定する。そして、CPU11では、選択領域R1内での人差し指の移動に伴って、領域151内でポインタ40を移動させる。
The determination of the selection operation in the selection area R1 shown in FIGS. 6A and 6B is performed, for example, so that the selection area R1 associated with the
選択領域R1に対応付けられる領域151の範囲は、上述した例に限られず、全表示領域を二分割した領域<領域151<全表示領域となるように設定すれば、変更可能である。
The range of the
このように本実施形態の情報入力装置1では、操作者500の手の動きに応じて、選択領域R1と決定領域R2とを入れ替えて配置することになるので、操作者500がいずれかの手を使用して適切な選択操作を行うことになる。このことは、操作者500が、選択対象となるオブジェクト(アイコン等)から近くにある手で選択指示を与えることによって、そのオブジェクトが選択されて選択操作がより直感的に行われることになり、これにより操作性が向上する。
As described above, in the
[決定領域R2内での操作者の決定操作]
次に、決定領域R2内での操作者500の決定操作について、図2を参照して説明する。
[Operator's decision operation in decision area R2]
Next, the determination operation of the
情報入力装置1では、図2に示した決定領域R2内において、操作者500が左手502を使って所定の動作をすることによって、正しい決定操作と判定される。所定の動作の例として、決定領域R2から、左手502が表示装置15に向かって押し出される場合、決定領域R2で左手502が、開いた状態→閉じた状態→開いた状態に変化する場合などがある。
In the
[情報入力装置1の機能構成]
図7は、図1に示したハードウエア構成上で実現される情報入力装置1の機能構成の一例を示す図である。
[Functional configuration of information input device 1]
FIG. 7 is a diagram illustrating an example of a functional configuration of the
図7に示すように、情報入力装置1は、表示部101、取得部102、記憶部103、領域設定部104および制御部105を備える。
As illustrated in FIG. 7, the
表示部101は、図1における表示装置15によって構成され、選択対象としてのオブジェクトを操作者に対して視認可能にするために設けられる。
The
取得部102は、操作者が入力指示を行う際の状況を取得する。この実施形態では、取得部102は、例えば図1におけるカメラ(撮像部)14によって構成され、操作者が入力指示を行う際の状況を撮像するために設けられる。なお、取得部102は、操作者が入力指示を行う際の状況を取得できるのであれば、当業者に知られた他の構成、例えば操作者の手の動きを感知するモーションセンサを適用することもできる。
The
記憶部103は、図1におけるROM12およびRAM13によって構成され、データを記憶する。
The
領域設定部104および制御部105は、CPU11によって機能する。領域設定部104は、操作者500が入力指示を行うための入力指示領域を設定する。入力指示領域は、上述した選択領域R1および決定領域R2を配置するための仮想の領域である。
The
制御部105は、取得部102により得られる状況情報に基づいて判断される操作者500の両手の動作に応じて、表示部101の全表示領域のうちの一部の領域151に対応付けられ、この領域151内に対する操作者500の選択操作を受け入れるための選択領域R1と、操作者500の決定操作を受け入れるための決定領域R2とを、上記入力指示領域上に区別して配置する。この実施形態では、一例として、取得部102をカメラ14とするので、制御部105は、カメラ14により撮像された画像、すなわち状況情報に基づいて、選択領域R1と決定領域R2との配置を行う。
The
[情報入力装置1の動作]
以下、この情報入力装置1の動作について、図1、図2および図6〜図8を参照して説明する。図8は、情報入力装置1の動作例を示すフローチャートである。
[Operation of information input device 1]
Hereinafter, the operation of the
図8において、情報入力装置1のCPU11(領域設定部104)は、操作者500が入力指示を行うための入力指示領域を設定する(S1)。この入力指示領域は、例えば座標データとしてROM12に格納される。
In FIG. 8, the CPU 11 (area setting unit 104) of the
カメラ(取得部102)14は、図2に示すような状況、すなわち操作者500が入力指示を行う状況を撮像(取得)する(S2)。
The camera (acquiring unit 102) 14 captures (acquires) a situation as shown in FIG. 2, that is, a situation where the
CPU11(制御部105)は、カメラ14により得られる画像(状況情報)に基づいて、選択領域R1と決定領域R2とを区別して配置する。この場合、CPU11は、画像中に、選択領域R1の手のパターンがあると判断したときは、その手の側に選択領域R1を配置し、他方の手の側に決定領域R2を配置する。
CPU11 (control part 105) distinguishes and arrange | positions selection area | region R1 and determination area | region R2 based on the image (situation information) obtained with the
例えば、図2の例では、選択領域R1が右手503側の入力指示領域に配置され、決定領域R2が左手502側の入力指示領域に配置されている。上述した選択領域R1は、表示装置11の全表示領域のうちの一部の領域151に対応付けられる(図6参照)ので、図2の操作者500は、図6に示した領域151内に対する選択操作を例えば右手503で行うことになる。図6(a)では、選択操作として、領域151内のポインタ40が、右手503の人差し指を動かすことで移動している例を示している。
For example, in the example of FIG. 2, the selection area R1 is arranged in the input instruction area on the
なお、入力指示領域に配置される各領域R1,R2の位置関係は、例えば座標データなどによって対応付けられる。 Note that the positional relationship between the regions R1 and R2 arranged in the input instruction region is associated with, for example, coordinate data.
CPU11(制御部105)は、操作者500による入力指示に基づく表示を行う(S4)。例えば、図6(a)の例では、ポインタ40に対する選択操作でポインタ40が右回りに移動している。この場合、CPU11(制御部105)は、全表示領域のうちの一部の領域151を撮像するカメラ14からの画像に基づいて、選択領域R1内での操作者の人差し指の動きに伴う選択操作を判定し、その結果として、ポインタ40を移動させる。
CPU11 (control part 105) performs the display based on the input instruction by the operator 500 (S4). For example, in the example of FIG. 6A, the
なお、図8において、CPU11(制御部105)は、カメラ14からの画像に基づいて、選択領域R1の手のパターンか否かを判定し、その手のパターンであると判定した場合には、選択領域R1と決定領域R2とを入れ替えて配置し(S3)、入力指示に基づく表示を行うようにしてもよい(S4)。例えば、図6(a)(b)では、両手の動きで、選択領域R1と決定領域R2とが入れ替えられて配置されている例を示している。
In FIG. 8, the CPU 11 (control unit 105) determines whether or not the hand pattern is in the selection region R <b> 1 based on the image from the
以上説明したように、本実施形態の情報入力装置1によれば、操作者500が手を動かし、いずれかの手で選択領域R1の手のパターンとすることにより選択操作が行われる。ここで、選択操作は、選択領域R1に対応付けられた全表示領域の一部の領域に対して行うことが可能となるので、選択領域R1を撮像するようにカメラ14の画角を設定することができる。これにより、本実施形態のカメラ14では、全表示領域を撮像するように設定するようにした従来のものと異なり、画角を狭くすることができる。また、この情報入力装置1において、上述した画角の狭いカメラ14からの画像に基づいて、操作者500の選択操作の判定を行うため、操作者500の手の動きを認識するべき画像認識の対象範囲が狭くなり、画像認識の精度が高くなる。例えば、表示装置15が横ワイドディスプレイ(横:縦=16:9など)の場合、画像認識するべきジェスチャ操作の領域を狭くすることができるので、情報入力装置1は、カメラ14から得られる画像認識の精度を高めることができる。換言すれば、情報入力装置1では、操作者500の手の動きをより正確に認識することができる。したがって、操作者500による選択操作がより正確に行える。
As described above, according to the
また、本実施形態の情報入力装置1において、選択領域R1は、全表示領域の一部の領域151に対応付けられているので、操作者500のジェスチャ操作によって、例えばポインタ40が、全表示領域の一部の領域151内を移動させることが可能になる。このとき、カメラ14から得られる画像に基づいて認識される結果は、全表示領域ではなく、その一部の領域151に絞ってポインタ40の操作に反映することができる。そのため、情報入力装置1では、操作者500のジェスチャ操作に基づいて行なわれるオブジェクトに対する操作を適切に行うことができる。
Further, in the
さらに、選択対象に対するポインティングや決定操作としてのジェスチャは、左右の領域が入れ替えられて行われることで、操作者500による一方の手だけの動作が防止される。このため、肉体疲労の軽減を実現するだけでなく、ポインティングの操作をポインティング対象に近い手・指で行うことができる。
Furthermore, a gesture as a pointing or determination operation with respect to a selection target is performed by switching the left and right regions, thereby preventing the
また、選択領域R1に対応付けられる領域を全表示領域の一部とすることにより、選択領域R1が操作者500の視野から入りにくくなる。したがって、カメラ14は、操作者500の手の形を撮像しやすくなり、情報入力装置1は画像認識を行ないやすくなる。さらに、搭載するカメラ14の視野角を必要最小限にすることができ、広角ではない一般的なカメラ会議等の用途のカメラを使用することが可能となる。
In addition, by making the region associated with the selection region R1 a part of the entire display region, the selection region R1 is difficult to enter from the view of the
次に、本実施形態の情報入力装置1の変形例について説明する。
Next, a modified example of the
(変形例1)
以上では、図2を参照して、1台のカメラ14によって、操作者が入力指示を行う状況を撮像する場合について説明した。しかしながら、複数のカメラを設けるようにしてもよい。
(Modification 1)
In the above, with reference to FIG. 2, the case has been described in which a
図9は、情報入力装置1に備えられるカメラが4台の場合の変形例を示す図である。図9の例では、4台のカメラ14A,14B,14C,14Dが表示装置14に取り付けられている。このように構成することで、画像認識の精度を高めることができる。
FIG. 9 is a diagram illustrating a modification in the case where the
(変形例2)
選択領域R1および決定領域R2の位置は、自由に設定することができる。例えば、図10は、選択領域R1および決定領域R2が机面上に設定されるようにした変形例を示している。このようにすることで、操作者500の手による入力指示の負担が軽減する。
(Modification 2)
The positions of the selection area R1 and the determination area R2 can be freely set. For example, FIG. 10 shows a modification in which the selection area R1 and the determination area R2 are set on the desk. By doing in this way, the burden of the input instruction by the hand of the
(変形例3)
選択領域R1の手のパターンは、変更可能である。例えば、親指を立てるようにすることもできるし、手を閉じた状態にすることもできる。
(Modification 3)
The hand pattern of the selection region R1 can be changed. For example, a thumb can be put up, or a hand can be closed.
1 情報入力装置
11 CPU
14 カメラ
15 表示装置
101 表示部
102 取得部
104 領域設定部
105 制御部
500 操作者
R1 選択領域
R2 決定領域
1
14
Claims (6)
操作者が入力指示を行うための入力指示領域を設定する領域設定部と、
前記入力指示が行われる前記操作者の状況を取得する取得部と、
前記取得された状況情報に基づいて判断される前記操作者の両手の動作に応じて、前記表示領域の全領域のうちの一部の領域に対応付けられ、前記一部の領域内に対する前記操作者の選択操作を受け入れるための選択領域と、前記操作者の決定操作を受け入れるための決定領域とを、前記入力指示領域上で区別して配置する制御部と、
を含み、
前記制御部は、前記操作者の両手の動作の変化から認識される当該操作者の指のパターンに応じて、前記選択領域と前記決定領域とを入れ替えて配置することを特徴とする情報入力装置。 A display unit comprising a display area;
An area setting unit for setting an input instruction area for an operator to input instructions;
An acquisition unit for acquiring the status of the operator for which the input instruction is performed;
In response to the movement of both hands of the operator determined based on the acquired situation information, the operation is performed in a part of the display area and is associated with a part of the whole area. A control unit that distinguishes and arranges a selection region for accepting an operator's selection operation and a decision region for accepting the operator's decision operation on the input instruction region;
Including
The control unit arranges the selection area and the determination area in accordance with a pattern of the finger of the operator recognized from a change in movement of both hands of the operator. .
前記制御部は、前記撮像部からの前記画像に基づいて、前記選択領域における前記操作者の選択操作を判定するように構成されている請求項1または2に記載の情報入力装置。 When the acquisition unit is an imaging unit that captures the situation of the operator, the imaging unit sets an angle of view so as to capture the selected region associated with the partial region, and the imaging unit Acquired images as the situation information,
Wherein the control part, based on the image from the imaging unit, the information input device according to claim 1 or 2 is configured to determine the operator's selecting operation in said selection area.
前記取得された状況情報に基づいて判断される前記操作者の両手の動作に応じて、表示部の全表示領域のうちの一部の領域に対応付けられ、前記一部の領域内に対する前記操作者の選択操作を受け入れるための選択領域と、前記操作者の決定操作を受け入れるための決定領域とを区別して配置するステップと、
を含み、
前記配置するステップは、前記操作者の両手の動作の変化から認識される当該操作者の指のパターンに応じて、前記選択領域と前記決定領域とを入れ替えて配置することを特徴とする情報入力方法。 Obtaining a situation in which the operator gives input instructions;
In response to the movement of both hands of the operator determined based on the acquired situation information, the operation is performed in a part of the entire display area and is associated with a part of the display area. Distinguishing and arranging a selection area for accepting an operator's selection operation and a decision area for accepting the operator's decision operation;
Including
The information input is characterized in that the step of arranging arranges the selection area and the determination area in accordance with a pattern of the finger of the operator recognized from a change in movement of both hands of the operator. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012217295A JP5401675B1 (en) | 2012-09-28 | 2012-09-28 | Information input device and information input method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012217295A JP5401675B1 (en) | 2012-09-28 | 2012-09-28 | Information input device and information input method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5401675B1 true JP5401675B1 (en) | 2014-01-29 |
JP2014071672A JP2014071672A (en) | 2014-04-21 |
Family
ID=50112421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012217295A Expired - Fee Related JP5401675B1 (en) | 2012-09-28 | 2012-09-28 | Information input device and information input method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5401675B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109643208B (en) * | 2016-06-28 | 2022-08-19 | 株式会社尼康 | Display device, storage medium, display method, and control device |
JP6822473B2 (en) * | 2016-06-28 | 2021-01-27 | 株式会社ニコン | Display device |
WO2018083737A1 (en) * | 2016-11-01 | 2018-05-11 | マクセル株式会社 | Display device and remote operation controller |
JP7186999B2 (en) * | 2018-05-16 | 2022-12-12 | 株式会社ネクステッジテクノロジー | Operation input device, operation input method and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005100391A (en) * | 2003-09-10 | 2005-04-14 | Mitsubishi Electric Research Laboratories Inc | Method for recognizing hand gesture |
JP2012068854A (en) * | 2010-09-22 | 2012-04-05 | Shimane Prefecture | Operation input device and operation determination method and program |
WO2012049942A1 (en) * | 2010-10-13 | 2012-04-19 | Necカシオモバイルコミュニケーションズ株式会社 | Mobile terminal device and display method for touch panel in mobile terminal device |
-
2012
- 2012-09-28 JP JP2012217295A patent/JP5401675B1/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005100391A (en) * | 2003-09-10 | 2005-04-14 | Mitsubishi Electric Research Laboratories Inc | Method for recognizing hand gesture |
JP2012068854A (en) * | 2010-09-22 | 2012-04-05 | Shimane Prefecture | Operation input device and operation determination method and program |
WO2012049942A1 (en) * | 2010-10-13 | 2012-04-19 | Necカシオモバイルコミュニケーションズ株式会社 | Mobile terminal device and display method for touch panel in mobile terminal device |
Also Published As
Publication number | Publication date |
---|---|
JP2014071672A (en) | 2014-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11782511B2 (en) | Tactile glove for human-computer interaction | |
EP2620849B1 (en) | Operation input apparatus, operation input method, and program | |
JP5515067B2 (en) | Operation input device, operation determination method, and program | |
JP5167523B2 (en) | Operation input device, operation determination method, and program | |
JP5802667B2 (en) | Gesture input device and gesture input method | |
TWI464640B (en) | Gesture sensing apparatus and electronic system having gesture input function | |
JP6159323B2 (en) | Information processing method and information processing apparatus | |
US8537181B2 (en) | Modes and interfaces for observation, and manipulation of digital images on computer screen in support of pathologist's workflow | |
JP6524661B2 (en) | INPUT SUPPORT METHOD, INPUT SUPPORT PROGRAM, AND INPUT SUPPORT DEVICE | |
US9317130B2 (en) | Visual feedback by identifying anatomical features of a hand | |
CN102314301A (en) | Virtual touch sensing system and method | |
JP2006209563A (en) | Interface device | |
JP5401675B1 (en) | Information input device and information input method | |
JP2014026355A (en) | Image display device and image display method | |
JP2024103514A (en) | Object attitude control program and information processing device | |
KR101394604B1 (en) | method for implementing user interface based on motion detection and apparatus thereof | |
JP6008904B2 (en) | Display control apparatus, display control method, and program | |
US20150323999A1 (en) | Information input device and information input method | |
JP6998775B2 (en) | Image measuring machine and program | |
CA2855055A1 (en) | Information input device and information input method | |
KR20250005559A (en) | Electronic apparatus and program | |
JP2017041002A (en) | Display control device, display control method and program for display control | |
JP2007206777A (en) | Information input system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
R150 | Certificate of patent or registration of utility model |
Ref document number: 5401675 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |