JP5184384B2 - Control system and control method - Google Patents
Control system and control method Download PDFInfo
- Publication number
- JP5184384B2 JP5184384B2 JP2009000156A JP2009000156A JP5184384B2 JP 5184384 B2 JP5184384 B2 JP 5184384B2 JP 2009000156 A JP2009000156 A JP 2009000156A JP 2009000156 A JP2009000156 A JP 2009000156A JP 5184384 B2 JP5184384 B2 JP 5184384B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- input
- paper
- input part
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、電子機器などの制御技術に関し、とくに、ユーザの体の一部や、ユーザにより操作される物体などを含む入力部位の形状又は動作、又は入力部位までの距離などによりユーザの指示を入力することが可能なユーザインタフェイスを備えた制御システム及び方法に関する。 The present invention relates to a control technology for electronic devices and the like, and in particular, gives a user instruction based on the shape or operation of an input part including a part of the user's body, an object operated by the user, or the distance to the input part. The present invention relates to a control system and method having a user interface capable of inputting.
ITの発達に伴い、高度な機能を有する電子機器が多数登場している。電子機器の機能が高度になるにつれて、ユーザが電子機器に機能を実行させるための指示の内容も多様化しており、分かりやすく操作性に優れたユーザインタフェイス(User Interface:UI)の必要性が増している。たとえば、パーソナルコンピュータ(Personal Computer:PC)においては、以前は、ユーザがキーボードによりコマンド文字列を入力するキャラクタベースのユーザインタフェイスが主に採用されていたが、現在では、アイコンやウィンドウなどの画像を表示画面に提示し、表示画面上のポインタをユーザがマウスなどのポインティングデバイスにより操作して指示を入力するグラフィカル・ユーザインタフェイス(Graphical User Interface:GUI)が主流となっている。 Along with the development of IT, many electronic devices having advanced functions have appeared. As the functions of electronic devices become more advanced, the contents of instructions for causing users to execute functions on electronic devices are diversified, and there is a need for a user interface (UI) that is easy to understand and has excellent operability. It is increasing. For example, in a personal computer (PC), a character-based user interface in which a user inputs a command character string with a keyboard has been mainly used before, but now, an image such as an icon or a window is used. A graphical user interface (GUI) in which a user operates the pointer on the display screen with a pointing device such as a mouse to input an instruction is mainstream.
GUIの登場により、ユーザは、所望の機能をPCに実行させるためのコマンド文字列を覚え、入力する煩わしさから解放された。しかし、PCが広く大衆に普及したとは言え、子供や高齢者などを中心に、マウスなどの操作に慣れておらず、抵抗感を感じるユーザもいる。また、より現実世界に近い感覚で指示を入力することが可能なUIを求める声もある。今後、PCなどの電子機器が更に生活の中に浸透し、より多様なユーザ層により使用されることが予想されるため、より直感的で分かりやすく、操作性に優れたUIの開発が望まれる。 With the advent of the GUI, the user is freed from the hassle of remembering and inputting a command character string for causing a PC to execute a desired function. However, even though PCs have spread widely to the general public, some users feel uncomfortable and not comfortable with the operation of a mouse or the like, especially children and elderly people. In addition, there is a voice for a UI that can input an instruction with a sense closer to the real world. In the future, it is expected that electronic devices such as PCs will further penetrate into daily life, and will be used by a wider variety of user groups. Therefore, it is desired to develop UIs that are more intuitive, easy to understand, and excellent in operability. .
本発明はこうした状況に鑑みてなされたものであり、その目的は、操作性に優れたユーザインタフェイスの提供にある。 The present invention has been made in view of such circumstances, and an object thereof is to provide a user interface having excellent operability.
本発明のある態様は、制御システムに関する。この制御システムは、ユーザの体の少なくとも一部又はユーザにより操作される物体の少なくとも一部を含む単数又は複数の入力部位の形状又は動作、又は前記入力部位までの距離を検知する検知部と、入力部により検知された入力部位の形状又は動作、又は入力部位までの距離を解析して、ユーザの指示を判別する解析部と、解析部により判別されたユーザの指示に対応する機能を実行する制御部と、を備えることを特徴とする。 One embodiment of the present invention relates to a control system. The control system includes a detection unit that detects a shape or operation of one or more input parts including at least a part of a user's body or an object operated by the user, or a distance to the input part; Analyzing the shape or operation of the input part detected by the input part, or the distance to the input part, and executing the function corresponding to the user instruction determined by the analysis part and the analysis part for determining the user instruction And a control unit.
検知部は、入力部位までの距離情報を取得可能な撮像装置であってもよい。検知部は、複数の電極を含み、入力部位の接近による前記電極間の静電容量の変化を検知する入力装置であってもよい。 The detection unit may be an imaging device that can acquire distance information to the input site. The detection unit may include an input device that includes a plurality of electrodes and detects a change in capacitance between the electrodes due to the approach of the input part.
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.
本発明によれば、操作性に優れたユーザインタフェイスを提供することができる。 According to the present invention, a user interface excellent in operability can be provided.
(第1の実施の形態)
図1は、第1の実施の形態に係る制御システム10の構成を示す。制御システム10は、ユーザからの指示を入力する入力装置20と、入力装置20から入力される指示に応じてアプリケーションなどの動作を制御する制御装置40と、制御装置40から出力される画像を表示する表示装置30とを備える。本実施の形態の制御システム10は、ユーザが、指、手、足、頭など、体の一部を使って、動作(ジェスチャー)により指示を入力することが可能なユーザインタフェイス(以下、「ジェスチュラルインタフェイス」という)を提供する。これにより、ユーザが、現実世界と同様な動作で表示画面に表示されたオブジェクトを扱ったり、アプリケーションに指示を入力したりすることを可能とし、直感的に分かりやすく、操作性に優れたユーザインタフェイスを実現することができる。本実施の形態において、入力装置20は、ユーザの体の少なくとも一部を含む入力部位の形状又は動作、又は入力部位までの距離を検知する検知部の機能を有する。
(First embodiment)
FIG. 1 shows a configuration of a
図2は、実施の形態に係る入力装置20および表示装置30の構成例を示す。図2に示した例では、表示装置30として、液晶ディスプレイ装置、プラズマディスプレイ装置、陰極線管(Cathord Ray Tube:CRT)ディスプレイ装置などの任意の表示装置32が用いられ、入力装置20として、表示装置32と一体的に、または別体として設けられた、測距機能を有する撮像装置22が用いられる。制御装置40は、撮像装置22により撮影されたユーザの動作を画像処理により解析し、ユーザが行ったジェスチャーを判別し、ユーザの指示を取得する。この構成例によれば、ユーザの体の広い範囲を撮影して、その動作を判別することができるので、ユーザは、指だけでなく、手や足などを用いたジェスチャーにより指示を行うことができる。この方式は、撮像装置22からある程度離れた位置でユーザがジェスチャーを行う場合に適している。ユーザとの距離に依存しない方式のジェスチュラルインタフェイスを採用する場合は、入力装置20として、測距機能を有しない撮像装置を用いてもよいが、後述するように、ユーザが表示画面上のオブジェクトを指などを用いて扱うことが可能なジェスチュラルインタフェイスを提供するためには、測距機能を有する撮像装置22を用いるのが好ましい。
FIG. 2 shows a configuration example of the
図3は、実施の形態に係る入力装置20および表示装置30の他の構成例を示す。図3に示した例では、表示装置30として、スクリーン38に画像を投影するプロジェクタ36が用いられ、入力装置20として、測距機能を有する撮像装置22が用いられる。図3の例では、ユーザの後方上部に設けられたプロジェクタ36により、ユーザの前方に設けられたガラスなどの透明または半透明のスクリーン38に画像を投影し、スクリーン38に表示された画像に向かってジェスチャーを行うユーザを、スクリーン38の反対側に設けられた撮像装置22により撮影している。この構成例によれば、ユーザの体の広い範囲の動作を取得できるとともに、ユーザがスクリーン38に投影された画像に直接触れながら、または画像の近傍で動作を行うことができるので、スクリーン38に投影されたオブジェクトなどを手などで直接扱っているような操作感をユーザに与えることができる。また、撮像装置22をスクリーン38から離れた位置に配置することができるので、スクリーン38の近傍でユーザがジェスチャーを行っても、ユーザの体の部位までの距離を精度良く検知することができる。
FIG. 3 shows another configuration example of the
図4は、実施の形態に係る入力装置20および表示装置30のさらに別の構成例を示す。図4に示した例では、表示装置30として、液晶ディスプレイ装置、プラズマディスプレイ装置、CRTディスプレイ装置などの任意の表示装置32が用いられ、入力装置20として、表示装置32の表示画面34の内側に設けられたタッチパネル24が用いられる。または、プロジェクタによりタッチパネル24の表面に画像を投影する構成であってもよい。タッチパネル24は、抵抗感圧方式、赤外線検出方式など、任意の方式のタッチパネルであってよい。この構成例によれば、ユーザは、表示画面34に表示されているオブジェクトなどに直接触れつつ指示を入力することができる。
FIG. 4 shows still another configuration example of the
図5は、実施の形態に係る入力装置20および表示装置30のさらに別の構成例を示す。図5に示した例では、表示装置30として、液晶ディスプレイ装置、プラズマディスプレイ装置、CRTディスプレイ装置などの任意の表示装置32が用いられ、入力装置20として、表示装置32の表示画面34の内側に設けられた非接触型入力装置26が用いられる。または、プロジェクタにより非接触型入力装置26の表面に画像を投影する構成であってもよい。この非接触型入力装置26は、ユーザの指先などの物体が接近したときに、その物体の形状や物体までの距離などを検知可能な入力装置であり、たとえば、特開2002−342033号公報に開示された入力装置を利用可能である。特開2002−342033号公報に開示された非接触型入力装置は、縦横に配列された複数の線状の電極を備え、ユーザの指先などの導電性の物体が電極に近づいたときに、その接近の程度に応じた静電容量の変化を検知し、入力装置の近傍にある物体の3次元位置情報を取得する。この構成例によれば、非接触型入力装置26を表示画面34に近接して設けることができ、表示画面34の近傍におけるユーザの動作や体の部位の形状を精度良く検知することができるので、ユーザは、表示画面34に表示された画像を見ながら、その画像の近傍で指などの入力部位により指示を入力することができる。非接触型入力装置26では、ユーザの体のうち、入力装置の近傍に接近した部位のみが検出されるので、動作を解析するために特定の部位を抽出する手間が省け、処理を簡略化することができる。また、接近させただけで、形状や距離を検知することができるので、表示画面34に触れなくても指示入力が可能であり、表示画面34に直接触ることに抵抗を感じるユーザであっても快適に使用することができる。さらに、表示画面34を強く押す必要が無く、ユーザが表示画面34に触れる前から接近を検知することができるので、反応性が良く、操作感に優れたユーザインタフェイスを提供することができる。
FIG. 5 shows still another configuration example of the
上述した複数の構成例のうち、いずれの構成を採用するかは、本制御システム10を設置する場所の環境、制御するアプリケーションやコンテンツなどの種類などに応じて決定されてもよい。たとえば、複数のユーザが一つの表示装置30を共有して利用するようなアプリケーションの場合、または、映画などのコンテンツを再生するアプリケーションの場合、ユーザが表示装置30から比較的距離をとって指示を入力することが想定されるので、図2または図3に示した構成例を採用してもよい。また、一人のユーザが個人的に利用するようなアプリケーションの場合、たとえば、画像や文書などのデータを編集する場合、ユーザと表示装置30との間の距離は比較的短いことが想定されるので、図4または図5に示した構成例を採用してもよい。複数の構成例を併用した制御システム10を構築する場合は、アプリケーションやコンテンツごとに、いずれの方式のジェスチュラルインタフェイスを採用するかを選択し、入力装置20を適宜切り替えて利用してもよい。
Which of the above-described configuration examples is to be adopted may be determined according to the environment of the place where the
図6は、制御装置40の内部構成を示す。この構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。制御装置40は、入力装置20により検知された入力信号を取得する取得部42と、取得部42が取得した入力信号からユーザの動作を解析してユーザの指示を判別する解析部44と、解析部44により判別されたユーザの指示に対応する機能を実行する制御部46とを含む。
FIG. 6 shows the internal configuration of the
入力装置20が測距機能付き撮像装置であった場合、解析部44は、撮像装置が撮影した距離情報を有する画像を取得して、画像処理によりユーザの動作を判別する。解析部44は、形状認識技術によりユーザの体の一部、たとえば、頭、目、手、指、足などを抽出し、抽出した体の部位の動きを解析することにより、ユーザの動作を判別してもよい。入力装置20がタッチパネルであった場合、解析部44は、入力信号の形状や時間変化を解析することにより、ユーザの動作を判別してもよい。入力装置20が非接触型入力装置であった場合、解析部44は、入力信号の形状や距離、それらの時間変化を解析することにより、ユーザの動作を判別してもよい。
When the
図7は、制御装置40のハードウェアコンポーネントを示す。制御装置40は、CPU120、入力インタフェイス122、表示インタフェイス124、メモリ130、ハードディスク132、およびドライブ装置128を備える。これらの構成は、バス126などの信号伝送路により電気的に接続されている。
FIG. 7 shows the hardware components of the
入力インタフェイス122は、入力装置20が検知した入力信号を取得する。表示インタフェイス124は、表示装置30に表示する画像信号を出力する。ハードディスク132は、大容量の磁気記憶装置であり、各種ファイルなどを記憶する。記録媒体140は、上述した制御装置40の機能を、CPU120に実現させるためのプログラムを記録する。記録媒体140がドライブ装置128に挿入されると、そのプログラムは、メモリ130またはハードディスク132に読み出され、CPU120は、読み出されたプログラムにより本実施の形態の制御処理を行う。この記録媒体140は、CD−ROM、DVD、FDなどのコンピュータ読み取り可能な媒体である。
The
ここでは、プログラムが記録媒体140に記録されている例について説明したが、別の例においては、このプログラムは、無線、有線を問わず、外部のサーバから送信されてもよい。図7に示したハードウェア構成において、プログラムは、コンピュータに本実施の形態の制御機能を実現させればよいのであって、外部から供給される場合だけでなく、予めハードディスク132に格納されていてよいことも当業者には理解されるところである。
Here, an example in which the program is recorded in the
制御部46の機能は、コンピュータのCPUなどにより実行されるオペレーティング・システム(Operating System:OS)や、入出力制御用のアプリケーションなどにより実現されてもよい。たとえば、ウィンドウシステムなどのGUIを採用したOSの場合は、ユーザの指などの入力部位が接近した場所の近傍の位置で最上位にあるウィンドウのアプリケーションにユーザの指示が通知され、そのアプリケーションがユーザの指示に対応づけられた機能を実行してもよい。その位置にウィンドウがない場合は、OSまたは入出力制御用アプリケーションがその指示に対応づけられた機能を実行してもよい。
The function of the
1.複数点による指示入力の例
従来のポインティングデバイスを利用したユーザインタフェイスでは、1点のポインタにより指示入力を行っていたが、本実施の形態の制御システム10が提供するジェスチュラルインタフェイスによれば、ユーザが指、手、足などを用いて、複数点の入力部位により指示を行うことができる。
1. Example of instruction input by a plurality of points In a conventional user interface using a pointing device, an instruction is input by a single pointer, but according to a gesture interface provided by the
図8および図9は、ユーザの複数の指の動きにより指示を入力する例を説明するための図である。図8に示すように、ユーザが親指と人差し指を閉じた状態で、表示装置30の画面上に表示されたアイコン200上に指を近づけ、図9に示すように、親指と人差し指を開く動作を行ったとする。このとき、取得部42は、入力装置20が検知した入力信号を解析部44に送り、解析部44は、ユーザの指の動きを解析して、ユーザが指を開く指示を行ったことを判別する。
8 and 9 are diagrams for explaining an example in which an instruction is input by movement of a plurality of fingers of the user. As shown in FIG. 8, with the user closing his / her thumb and index finger, the user brings his / her finger close to the
入力装置20が測距機能付きカメラであった場合、解析部44は、形状認識などの技術によりユーザの手を抽出して指の動きを追跡し、ユーザが指を開く動作を行ったことを判別する。入力装置20がタッチパネルまたは非接触型入力装置であった場合、解析部44は、表示画面上のアイコン200の近傍の座標に接近した、または触れた一かたまりの入力部位が二つに分かれ、それぞれが離れる方向に移動したときに、ユーザが指を開く動作を行ったと判定する。一かたまりの入力部位が二つに分かれる場合だけでなく、2つの入力部位が互いに離れる方向に移動したときにも、ユーザが指を開く動作を行ったと判定してもよい。
When the
ユーザが指を開く動作を行ったとき、制御部46は、指を開く動作に対応づけられた機能を実行する。たとえば、制御部46は、ユーザの指の近傍に表示されているアイコン200に対応づけられたアプリケーションを起動する機能を実行してもよい。そのアイコン200が、ファイルに対応づけられていた場合は、そのファイルを扱うことが可能なアプリケーションを起動して、そのファイルを開く機能を実行してもよい。このように、「指を開く」動作と、「アプリケーションを開く」、「ファイルを開く」などの機能を対応づけることで、ユーザの動作とアプリケーションの動作が感覚的に一致するので、より直感的に分かりやすく、親和性の高いユーザインタフェイスを実現することができる。
When the user performs an operation of opening the finger, the
指を開く動作と、「開始する」、「決定する」、「確定する」などの機能を対応づけてもよい。その他、各アプリケーションが、指を開く動作に対応した機能を実装してもよい。たとえば、画像処理用のアプリケーションにおいて、ユーザが画像上で指を開く動作を行ったとき、その部分を拡大する、またはその部分を指を開いた方向に伸ばす機能を実行してもよい。 The operation of opening a finger may be associated with functions such as “start”, “decide”, and “confirm”. In addition, each application may implement a function corresponding to the operation of opening a finger. For example, in an image processing application, when the user performs an operation of opening a finger on the image, a function of enlarging the part or extending the part in the direction in which the finger is opened may be executed.
逆に、ユーザが、図9に示すように、親指と人差し指を開いた状態で、表示装置30の画面上に表示されたアイコン200上に指を近づけ、図8に示すように、親指と人差し指を閉じる動作を行ったとき、解析部44が、ユーザがアイコン200上で指を閉じる動作を行ったと判定し、制御部46が、指を閉じる動作に対応づけられた機能を実行してもよい。たとえば、制御部46は、ユーザの指の近傍に表示されているアイコン200又はウィンドウに対応づけられたアプリケーションを終了する機能を実行してもよいし、アイコン200又はウィンドウに対応づけられたファイルを閉じる機能を実行してもよい。また、画像処理用のアプリケーションにおいて、ユーザが画像上で指を閉じる動作を行ったとき、その部分を縮小する、またはその部分を指を閉じた方向に縮める機能を実行してもよい。
Conversely, as shown in FIG. 9, the user brings his / her finger close to the
上述の例では、指を開く又は閉じる動作について説明したが、その他、制御部46は、ユーザの指や手などを含む複数の入力部位を用いた指示を受け付けて、その動作に対応づけられた機能を実行してもよい。たとえば、本を閲覧するアプリケーションにおいて、ユーザが表示された本のページの角をつまむ動作を行ったとき、そのページを記憶して、「しおりを挟む」機能を実行してもよい。また、ロールプレイングゲームにおいて、ユーザが表示されたアイテムの近傍に指をおいて、そのアイテムをつかむ動作を行ったとき、そのアイテムを「拾う」機能を実行してもよい。
In the above-described example, the operation of opening or closing the finger has been described. In addition, the
2.形状を利用した指示入力の例
図10は、ユーザの手の形状により指示を入力する例を説明するための図である。図9に示したように、ユーザが手を開いた状態で表示画面上に手の平を置いたとする。入力装置20が測距機能付きカメラであった場合、解析部44は、形状認識などの技術によりユーザの手を抽出して手の形状を判別する。入力装置20がタッチパネルまたは非接触型入力装置であった場合、解析部44は、表示画面上に接近した、または触れた物体の形状から、既知の技術により特徴点を抽出して、または所定の評価式により評価して、物体の形状を判別する。一般的な手の形状をデータベースに保持しておき、データベースに照合して一致する形状を抽出することにより、手の形状を判別してもよい。検出した物体の面積に基づいて形状を判定してもよい。たとえば、ユーザが手を表示画面上に置いたとき、手を開いた状態が最も面積が大きくなり、手を握った状態が最も面積が小さくなる。このことを利用して、手の形状を判別してもよい。ユーザが手を開いた状態で画面上に手の平を置いたとき、制御部46は、その形状に対応する機能、たとえば、手の平を置いた位置において最上位に表示中のウィンドウ210に対応するアプリケーションを「終了する」機能を実行する。「手の平を置く」という動作と、「停止する」、「終了する」などの機能を対応づけることで、直感的に分かりやすく、操作性の良いユーザインタフェイスを実現することができる。
2. Example of Instruction Input Using Shape FIG. 10 is a diagram for explaining an example of inputting an instruction according to the shape of the user's hand. As shown in FIG. 9, it is assumed that the user puts the palm on the display screen with the hand open. When the
図11は、手の形状に対してオブジェクトをマッピングする例を説明するための図である。図11に示したように、ユーザが一方の手、ここでは左手で特定の形状を作り、他方の手、ここでは右手で表示画面上のオブジェクト220の位置から左手の方向へ指をずらす動作を行ったとする。手の形状の判別方法は、上述した例と同様である。このとき、制御部46は、左手の形状に対応するハードディスク132の格納場所に、右手の指で移動させたオブジェクト220に対応するファイルを格納する機能を実行する。左手の形状に対応する格納場所は、ファイルシステムにおけるディレクトリまたはフォルダなどであってもよいし、仮想的なフォルダであってもよい。また、手の形状にファイル自身を対応づけてもよい。一つの形状に対して一つの格納場所を対応づけるだけでなく、たとえば、開いた手の各指に対してそれぞれ格納場所を対応づけてもよい。
FIG. 11 is a diagram for explaining an example of mapping an object to a hand shape. As shown in FIG. 11, the user moves a finger in the direction of the left hand from the position of the
図12は、手の形状に対してオブジェクトをマッピングするためのテーブルの例を示す。テーブル230は、制御装置40のメモリ130またはハードディスク132などに保持される。テーブル230には、形状欄232、格納場所欄234が設けられている。形状欄232は、手の形状を表す画像、パラメータなどを保持する。手の形状を画像として認識する場合は、その画像ファイルのファイル名などを保持してもよいし、手の形状を特徴点または評価式などでパラメータ化して認識する場合は、そのパラメータ、またはパラメータが格納されたファイルのファイル名などを保持してもよい。格納場所欄234は、オブジェクトの格納場所を保持する。手の形状と、その形状に対応する格納場所は、予め登録されていてもよいし、ユーザが図11に示した操作を行ったときに、手の形状が未登録の形状であった場合、制御部46が、その手の形状と格納場所をテーブル230に登録してもよい。このとき、ユーザが格納場所を指示してもよいし、自動的に適当な格納場所を割り当ててもよい。手の形状にファイル自身を対応づける場合は、格納場所欄234は、そのファイルのファイル名を保持する。
FIG. 12 shows an example of a table for mapping objects to hand shapes. The table 230 is held in the
図13は、図11に示した操作により格納されたオブジェクトを取り出す例を説明するための図である。図13に示したように、ユーザが一方の手、ここでは左手で取り出したいオブジェクトの格納場所に対応する手の形状を作り、他方の手、ここでは右手で左手の近傍の位置から離れる方向へ指をずらす動作を行う。このとき、制御部46は、左手の形状に対応する格納場所に格納されたオブジェクトを特定し、表示画面上に表示する。制御部46は、このオブジェクトに対応するファイルを開く機能を実行してもよい。
FIG. 13 is a diagram for explaining an example of extracting an object stored by the operation shown in FIG. As shown in FIG. 13, the user creates a hand shape corresponding to the storage location of the object to be taken out with one hand, here the left hand, and away from the position near the left hand with the other hand, here the right hand. Move your finger. At this time, the
3.距離に応じた指示入力の例
図2および図3に示した測距機能付きの撮像装置22を用いた構成例、および図5に示した非接触型入力装置26を用いた構成例では、表示装置30からユーザの体の部位までの距離を検知することができる。以下、距離に応じた指示入力の例について説明する。
3. Example of instruction input according to distance In the configuration example using the
図14は、距離に応じた指示入力の例を説明するための図である。図14に示した例では、制御部46が表示装置に魚が泳いでいる動画像を表示している。ここで、ユーザが表示画面に手を近づけたときに、表示画面からユーザの手までの距離が所定のしきい値を下回ると、制御部46は、ユーザの手の近傍から魚が逃げる動画像に表示を切り替える。これにより、現実に生きた魚が表示画面中を泳いでいるような臨場感を与えることができる。後述の例4に関連するが、ユーザの手が近づくときの速度を算出し、速度が速いときは、表示を切り替えるしきい値を大きくして、手が遠い位置にあるときから魚が逃げ始めるようにし、速度が遅いときは、しきい値を小さくして、手が近い位置に来るまで魚が逃げないようにしてもよい。制御部46は、ユーザの手と表示画面との間の距離が所定値以上であるときは、魚が自由に泳いでいる動画像を表示し、距離が所定値を下回っているときは、魚がユーザの手の位置を避けて泳ぐ動画像を表示してもよい。非接触型入力装置は、表示画面の近傍の距離情報を精度良く検知することができるので、この例では、入力装置20として非接触型入力装置を用いることがより好ましい。
FIG. 14 is a diagram for explaining an example of instruction input according to the distance. In the example shown in FIG. 14, the
入力装置20として撮像装置を用いる場合は、測距機能や画像処理の精度の関係から、ユーザが撮像装置から離れすぎていると正確にユーザの指示を判別できない恐れがある。また、入力装置20として非接触型入力装置を用いる場合は、ユーザの手などの部位が入力装置20に近づかないと、静電容量の変化が起こらず検知できない。このように、入力装置20の特性に応じて、ユーザが指示入力を行うことが可能な距離の上限値が存在するので、上述の魚が泳ぐ動画像の例を、指示入力の可否を提示する手段として利用してもよい。たとえば、ユーザの手の位置が入力装置20から離れすぎていて指示入力が不可能な距離であるときには、魚が自由に泳ぎ回っている動画像を表示して、入力が不可能であることをユーザに提示し、ユーザが入力装置に近づいて指示入力が可能な距離になったときに、ユーザの手の回りを魚が避けるように泳ぐ動画像を表示して、入力が可能であることをユーザに提示してもよい。制御部46は、入力装置20に対する指示入力の可否を判断するための距離のしきい値を予め保持しておいてもよい。
When an imaging device is used as the
4.移動量、速度、加速度に応じた指示入力の例
図15および図16は、画面上に表示されたオブジェクトを移動する機能について説明するための図である。図15および図16の例では、ユーザが表示装置30に表示されたオブジェクトを指でずらして移動させようとしている。このとき、制御部46は、ユーザの指などの部位の移動量、速度、加速度を検知して、それに応じてオブジェクトの移動量を決定する。たとえば、オブジェクトごとに重さ、すなわちオブジェクトを移動させるために必要な仮想的なエネルギー値を予め設定しておき、そのエネルギー値と、ユーザがオブジェクトを移動させようと指を動かすときの移動量、速度、または加速度に基づいて、オブジェクトの移動状態を制御する。制御部46は、軽いオブジェクトについては、図15に示すように、ユーザが素早く指をずらした場合にも、それに追随してオブジェクトを移動させるが、重いオブジェクトについては、図16に示すように、ユーザが素早く指をずらした場合にはオブジェクトを移動させない。重いオブジェクトは、初めはユーザがゆっくりと指をずらすことで移動し始め、徐々に指を早く移動させると、それに追随して移動するようにする。これにより、現実の静止摩擦および動摩擦抵抗を模した移動状況を擬似的に再現することができ、ユーザにオブジェクトの重みを反映した操作感を与えることができる。この例で説明した技術は、従来のポインティングデバイスを用いたユーザインタフェイスにおいても利用可能である。
4). Example of Instruction Input According to Movement Amount, Speed, and Acceleration FIGS. 15 and 16 are diagrams for explaining a function of moving an object displayed on the screen. In the example of FIGS. 15 and 16, the user tries to move the object displayed on the
制御部46は、ユーザがオブジェクトに与える力の大きさを判定して、その力の大きさに応じてオブジェクトの移動状態を制御してもよい。入力装置20として撮像装置または非接触型入力装置を用いる場合は、入力装置20とユーザの手の間の距離に基づいて力の大きさを判定してもよい。たとえば、ユーザの手が表示画面に近いほど大きな力をオブジェクトに与えることができるようにしてもよい。入力装置20としてタッチパネルを用いる場合は、押圧する力の大きさに基づいて力の大きさを判定してもよい。従来のポインティングデバイスを用いる場合は、感圧式マウスなどの押圧の度合いにより力の大きさを判定してもよい。
The
図17は、紙を扱う機能について説明するための図である。図17では、制御部46が本を開いた画像を表示装置30に表示している。ユーザがページの上に指をおき、ゆっくり指をずらすと、制御部46は、ユーザの指の動きに追随してページが徐々にめくれていき、所定の位置を超えるとページがめくれて次のページにうつるような画像を表示する。ユーザが素早く指を動かした場合は、制御部46は、紙が指の動きに追随できずに、途中までめくれて元に戻るような画像を表示する。これにより、現実に本を読んでいるような臨場感をユーザに与えることができる。制御部46は、紙がユーザの動きに追随できるか否かを判断するために用いる速度のしきい値を予め保持してもよい。その他、紙を扱う例として、制御部46は、ユーザの指の動きが早過ぎた場合に、紙がしわを作る様子を表示したり、ユーザが紙をつまむ、破る、などの動作を行ったときに、紙に凹凸をつけたり、紙が破れた様子を表示したりしてもよい。
FIG. 17 is a diagram for explaining a function of handling paper. In FIG. 17, the
移動量、速度、加速度に応じた指示入力の他の例として、ユーザがあるオブジェクトを指などにより移動させ、他のオブジェクトの上を通過させたとき、移動速度に応じて他のオブジェクトに所定の処理を行ってもよい。たとえば、移動中のオブジェクトに対応するファイルを、通過したオブジェクトに対応するアプリケーションにより開く機能を実行してもよい。 As another example of the instruction input according to the movement amount, the speed, and the acceleration, when the user moves an object with a finger or the like and passes over the other object, the other object is given a predetermined value according to the moving speed. Processing may be performed. For example, a function of opening a file corresponding to the moving object by an application corresponding to the passed object may be executed.
5.3次元オブジェクトに対する指示入力の例
従来、3次元オブジェクトを表示画面上に表示し、ユーザから3次元オブジェクトの移動、回転などの操作を受け付ける場合、ポインタの動きが2次元的であるから、3次元的な指示入力が困難であるという問題があった。図2および図3に示した測距機能付きの撮像装置22を用いた構成例、および図5に示した非接触型入力装置26を用いた構成例では、ユーザの体の部位の動きを3次元的に取得することができるので、3次元空間を扱うのに適したジェスチュラルインタフェイスを提供することができる。
5. Example of instruction input to a three-dimensional object Conventionally, when a three-dimensional object is displayed on a display screen and an operation such as movement or rotation of the three-dimensional object is received from the user, the movement of the pointer is two-dimensional. There has been a problem that three-dimensional instruction input is difficult. In the configuration example using the
図18は、3次元オブジェクトを扱う例を説明するための図である。制御部46が表示装置30に表示した3次元オブジェクト240の近傍で、ユーザがオブジェクト240をつかんで紙面奥方向へ回すジェスチャーを行うと、制御部46は、ユーザが手を回した方向と同じ方向に3次元オブジェクト240を回転させる。このように、本実施の形態のジェスチュラルインタフェイスによれば、3次元オブジェクトを実際に手で扱っているような操作感を与えることができ、3次元空間を扱うためのユーザインタフェイスの操作性を飛躍的に向上させることができる。
FIG. 18 is a diagram for explaining an example of handling a three-dimensional object. When the
(第2の実施の形態)
第2の実施の形態では、ユーザの体の一部ではなく、ユーザにより操作される物体の形状又は動作、又は物体までの距離により指示を入力する技術について説明する。本実施の形態の制御システム10の全体構成、入力装置20、表示装置30、制御装置40の内部構成は、それぞれ第1の実施の形態と同様である。本実施の形態では、主に、図5に示した非接触型入力装置26を用いた構成例について説明するが、他の構成例を用いた場合についても同様である。静電容量の変化を検知する非接触型入力装置の場合、導電性の物体を表示画面上に置き、その物体にユーザが触れると、静電容量が変化して物体の形状が検知される。これを利用して、導電性物体の形状や動きに所定の機能を対応づけてユーザインタフェイスを構築することができる。
(Second Embodiment)
In the second embodiment, a technique for inputting an instruction based on the shape or motion of an object operated by the user, or the distance to the object, instead of a part of the user's body will be described. The overall configuration of the
図19は、物体の形状や動きにより指示を入力する例を説明するための図である。図19に示した例では、表示装置30に、制御部46により制御される音楽再生アプリケーションのウインドウ250が表示されている。このとき、ユーザが、音量調節機能に対応づけられた形状を有する音量調節ユニット260を表示画面上に置いて、ツマミ262を左右に動かしたとする。解析部44は、入力信号の形状を解析して、これが音量調節ユニット260であることを検知し、さらにツマミ262の動きを解析して制御部46に伝える。制御部46は、ツマミ262の移動量に応じて、音楽再生アプリケーションにおける音量を制御する。
FIG. 19 is a diagram for explaining an example in which an instruction is input based on the shape or movement of an object. In the example shown in FIG. 19, a music
静電容量の変化を検知する非接触型入力装置は、導電性物体のみを検知するので、絶縁性物体の底面に導線により特定の形状を描き、その形状と所定の機能とを対応づけてもよい。 A non-contact type input device that detects a change in capacitance detects only a conductive object. Therefore, even if a specific shape is drawn on the bottom surface of an insulating object with a conductive wire and the shape is associated with a predetermined function. Good.
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. is there.
実施の形態では、制御システム10がパーソナルコンピュータなどの電子機器に相当する例について説明した。他の例では、入力装置20として非接触型入力装置26を用い、テーブルの天板に表示装置30および入力装置20を設け、その上でゲームなどを楽しめるように構成してもよい。また、通路の床などに表示装置30および入力装置20を設け、ユーザが歩いた足跡を表示したり、ユーザの行き先を画像や光などでナビゲーションするように構成してもよい。
In the embodiment, an example in which the
10・・・制御システム、20・・・入力装置、22・・・撮像装置、24・・・タッチパネル、26・・・非接触型入力装置、30・・・表示装置、40・・・制御装置、42・・・取得部、44・・・解析部、46・・・制御部。
DESCRIPTION OF
Claims (8)
ユーザの体の少なくとも一部又はユーザにより操作される物体の少なくとも一部を含む入力部位の動作を検知する検知部と、
前記検知部が、ユーザが表示された紙の上に前記入力部位をおき、所定値よりもゆっくり前記入力部位をずらしたことを検知すると、前記入力部位の動きに追随して前記紙が徐々にめくれていく画像を前記表示部に表示させる制御部と、
を備え、
前記制御部は、ユーザが前記入力部位を前記所定値よりも速く動かした場合は、前記紙が前記入力部位の動きに追随できずに、途中までめくれて元に戻るような画像を前記表示部に表示させる
ことを特徴とする制御システム。 A display for presenting a paper image to the user;
A detection unit for detecting an operation of an input part including at least a part of a user's body or an object operated by the user;
When the detection unit detects that the user places the input part on the displayed paper and shifts the input part more slowly than a predetermined value, the paper gradually follows the movement of the input part. A control unit for displaying a turning image on the display unit;
Equipped with a,
When the user moves the input site faster than the predetermined value, the control unit displays an image such that the paper is not able to follow the movement of the input site but is turned halfway and returned to the original state. A control system characterized by being displayed on the screen .
コンピュータに備えられた検知部が、ユーザの体の少なくとも一部又はユーザにより操作される物体の少なくとも一部を含む入力部位の動作を検知するステップと、
コンピュータに備えられた制御部が、ユーザが表示された紙の上に前記入力部位をおき、所定値よりもゆっくり前記入力部位をずらしたことを検知すると、前記入力部位の動きに追随して前記紙が徐々にめくれていく画像を表示させるステップと、
前記制御部が、ユーザが前記入力部位を前記所定値よりも速く動かした場合は、前記紙が前記入力部位の動きに追随できずに、途中までめくれて元に戻るような画像を表示させるステップと、
を含むことを特徴とする制御方法。 A display unit provided in the computer presents a paper image to the user;
A step of detecting a motion of an input part including at least a part of a user's body or at least a part of an object operated by the user by a detection unit provided in the computer ;
When the control unit included in the computer places the input part on the displayed paper and detects that the input part has been shifted more slowly than a predetermined value , the control unit follows the movement of the input part. A step of displaying an image of the paper turning over gradually,
When the user moves the input part faster than the predetermined value, the control unit displays an image in which the paper is not able to follow the movement of the input part but is turned halfway and returned to the original state. When,
The control method characterized by including.
ユーザの体の少なくとも一部又はユーザにより操作される物体の少なくとも一部を含む入力部位の動作を検知する機能と、
ユーザが表示された紙の上に前記入力部位をおき、所定値よりもゆっくり前記入力部位をずらしたことを検知すると、前記入力部位の動きに追随して前記紙が徐々にめくれていく画像を表示させる機能と、
ユーザが前記入力部位を前記所定値よりも速く動かした場合は、前記紙が前記入力部位の動きに追随できずに、途中までめくれて元に戻るような画像を表示させる機能と、
をコンピュータに実現させるためのコンピュータプログラム。 The ability to present paper images to the user;
A function of detecting an operation of an input part including at least a part of a user's body or an object operated by the user;
When the user places the input part on the displayed paper and detects that the input part is shifted more slowly than a predetermined value, an image in which the paper gradually turns up following the movement of the input part is displayed. A function to display,
When the user moves the input part faster than the predetermined value, the function of causing the paper to follow the movement of the input part and to display an image that turns up halfway and returns to the original position;
A computer program for realizing a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009000156A JP5184384B2 (en) | 2009-01-05 | 2009-01-05 | Control system and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009000156A JP5184384B2 (en) | 2009-01-05 | 2009-01-05 | Control system and control method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003193738A Division JP4723799B2 (en) | 2003-07-08 | 2003-07-08 | Control system and control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009070416A JP2009070416A (en) | 2009-04-02 |
JP5184384B2 true JP5184384B2 (en) | 2013-04-17 |
Family
ID=40606525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009000156A Expired - Fee Related JP5184384B2 (en) | 2009-01-05 | 2009-01-05 | Control system and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5184384B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110769906A (en) * | 2017-06-12 | 2020-02-07 | 株式会社万代南梦宫娱乐 | Simulation system, image processing method, and information storage medium |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012003734A (en) * | 2010-06-17 | 2012-01-05 | Yoichi Ochiai | Icon on capacitance type touch sensor |
JP2012118637A (en) * | 2010-11-29 | 2012-06-21 | Nissha Printing Co Ltd | Authentication system, input device, and authentication program |
WO2012105703A1 (en) * | 2011-02-04 | 2012-08-09 | シャープ株式会社 | Display device, display image generating method, program, and recording medium |
JP5725923B2 (en) * | 2011-03-25 | 2015-05-27 | 京セラ株式会社 | Electronics |
JP2012216148A (en) * | 2011-04-01 | 2012-11-08 | Sharp Corp | Display device, display method, computer program, and recording medium |
US20140089859A1 (en) * | 2011-05-24 | 2014-03-27 | Mitsubishi Electric Corporation | Equipment control device, operation reception method, and program |
JP2013114467A (en) * | 2011-11-29 | 2013-06-10 | Nikon Corp | Display system, display method and program |
JP5983264B2 (en) * | 2012-10-03 | 2016-08-31 | コニカミノルタ株式会社 | Control apparatus, image forming apparatus, display method, and control program |
JP7361853B1 (en) * | 2022-08-10 | 2023-10-16 | 功憲 末次 | E-book display system and e-book display program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2827612B2 (en) * | 1991-10-07 | 1998-11-25 | 富士通株式会社 | A touch panel device and a method for displaying an object on the touch panel device. |
JP3521187B2 (en) * | 1996-10-18 | 2004-04-19 | 株式会社東芝 | Solid-state imaging device |
JPH10198517A (en) * | 1997-01-10 | 1998-07-31 | Tokyo Noukou Univ | Method for controlling display content of display device |
JP4542637B2 (en) * | 1998-11-25 | 2010-09-15 | セイコーエプソン株式会社 | Portable information device and information storage medium |
JP3491616B2 (en) * | 2001-02-27 | 2004-01-26 | 株式会社日立製作所 | Page turning apparatus and page turning method |
JP3770829B2 (en) * | 2001-12-05 | 2006-04-26 | 日立オムロンターミナルソリューションズ株式会社 | Booklet handling equipment |
-
2009
- 2009-01-05 JP JP2009000156A patent/JP5184384B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110769906A (en) * | 2017-06-12 | 2020-02-07 | 株式会社万代南梦宫娱乐 | Simulation system, image processing method, and information storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2009070416A (en) | 2009-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4723799B2 (en) | Control system and control method | |
JP5184384B2 (en) | Control system and control method | |
US11048333B2 (en) | System and method for close-range movement tracking | |
JP6074170B2 (en) | Short range motion tracking system and method | |
Hinckley et al. | Sensor synaesthesia: touch in motion, and motion in touch | |
KR100984596B1 (en) | Gestures for touch sensitive input devices | |
US10353570B1 (en) | Thumb touch interface | |
KR101544364B1 (en) | Mobile terminal having dual touch screen and method for controlling contents thereof | |
US9348458B2 (en) | Gestures for touch sensitive input devices | |
US9791918B2 (en) | Breath-sensitive digital interface | |
EP2717120B1 (en) | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications | |
US8941600B2 (en) | Apparatus for providing touch feedback for user input to a touch sensitive surface | |
US9696882B2 (en) | Operation processing method, operation processing device, and control method | |
JP2013037675A5 (en) | ||
US20120105367A1 (en) | Methods of using tactile force sensing for intuitive user interface | |
US20140191972A1 (en) | Identification and use of gestures in proximity to a sensor | |
TW201020896A (en) | Method of gesture control | |
KR102194778B1 (en) | Control method of terminal by using spatial interaction | |
TWI534653B (en) | Input device and method of input mode switching thereof | |
Shittu et al. | A review on interaction techniques on mobile phones | |
Wu | Study and design of interaction techniques to facilitate object selection and manipulation in virtual environments on mobile devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090204 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20101126 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110301 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110420 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110517 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20110808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130116 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160125 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |