[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4447823B2 - Portable information equipment - Google Patents

Portable information equipment Download PDF

Info

Publication number
JP4447823B2
JP4447823B2 JP2002174493A JP2002174493A JP4447823B2 JP 4447823 B2 JP4447823 B2 JP 4447823B2 JP 2002174493 A JP2002174493 A JP 2002174493A JP 2002174493 A JP2002174493 A JP 2002174493A JP 4447823 B2 JP4447823 B2 JP 4447823B2
Authority
JP
Japan
Prior art keywords
user
gesture input
portable information
input
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002174493A
Other languages
Japanese (ja)
Other versions
JP2004021528A (en
Inventor
プピレフ イワン
栄二郎 森
シュヴェージグ カーステン
純一 暦本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002174493A priority Critical patent/JP4447823B2/en
Priority to US10/456,186 priority patent/US7456823B2/en
Publication of JP2004021528A publication Critical patent/JP2004021528A/en
Application granted granted Critical
Publication of JP4447823B2 publication Critical patent/JP4447823B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Calculators And Similar Devices (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザからの入力動作に応答して所定の情報処理サービスを提供する携帯情報機器に係り、特に、機器に標準で装備されている入力装置を介したユーザ入力に応答して動作する携帯情報機器に関する。
【0002】
さらに詳しくは、本発明は、複雑な入力オペレーションを比較的簡単なユーザ動作で実現する携帯情報機器に係り、特に、ユーザの物理的なジェスチャを受容する物理的なユーザ・インターフェースを備えて入力操作を簡単にした携帯情報機器に関する。
【0003】
【従来の技術】
人の手は、極めて優秀なツールである。すなわち、手や指が持つ多数の自由度を効果的にコントロールすることによってさまざまの複雑な操作を成し遂げることができる。例えば、バイオリニストなどの音楽家は、弓で弦を同時に2つの方向(例えば弦と同じ方向並びにこれを横切る方向)に弾いたり、同時に弦に異なる張力を印加することができる。
【0004】
これと同様に、最近のコンピュータにおいては、マウスやペンなどの入力装置を用いて、コンピュータ・スクリーン上で位置と力を同時に入力することができる。例えば、マウスでスクリーン上の特定の場所を指示しながらボタンを押下したり、タブレット上でペンを押下操作する。
【0005】
また、S. Zhai、P. Milgram共著の論文”Human performance evaluation of manipulation schemes in virtual environments”(Proceedings of VRAIS'93. 1993. IEEE. pp. 155-61)では、位置制御(アイソトニック・コントロール)と力制御(アイソメトリック・コントロール)は、マニュアル・コントロールの生理学的及び心理学的メカニズムが相違し、人間にとって基本的には制御方向が直交関係にある、ということが示唆されている。
【0006】
携帯型若しくはハンドヘルド型の機器においては、データ入力が難作業であり、効果的なインタラクションを行なえない、ということが長らく重要な課題であった。通常、携帯型機器における入力機能は、例えばタッチ・スクリーンを介したペン入力や、ボタン、ジョグダイヤル式のコントローラなどに限定される。また、タッチ・スクリーンを用いた場合、スクリーンの表示内容を遮ったり、ペンの使用がしばしば必要になったり、タッチ・センサが持つ解像度の限界のためにペン入力が困難になることがある。
【0007】
タッチ・スクリーンを介したインタラクションは、GUIインターフェース・オブジェクトに対する連続的な操作を直接行なうといったような、ある特定のインタラクションにおいては推奨される。例えば、地図をズームするために、スクロールやズーム機能を連続的に適用しなければならない場合などである。このような入力オペレーションを単一のジェスチャで実現することができれば、作業は著しく簡素化され、ユーザの負担を軽減することができる。
【0008】
ユーザが携帯型コンピュータに対して物理的なジェスチャを印加することによってすべてのコンピュータ操作を行なったり、さまざまなタスクを実現するという物理的なユーザ・インターフェースに関する提案も幾つかなされている。
【0009】
例えば、米国特許第6,243,074号明細書には、処理されたデータ構造に関する情報を表示するフィードバック・モジュールと、ユーザの手操作を検出するディテクタを備え、手操作に応答してデータ構造の表示形態を変更する携帯型機器について開示されている。また、米国特許第5,602,566号明細書には、片手で持つことができ、機器本体の傾きに応じて画面をスクロールさせる小型情報処理装置について開示されている。これらの場合、ユーザが機器に印加したアクションを機器本体に内蔵されたセンサが検出することによって、インターフェースをコントロールするようになっている。
【0010】
また、J. Rekimoto著の論文”Tilting operations for small screen interfaces”( Proceedings of UIST'96. 1996. ACM. pp. 167-168)には、傾斜センサを用いて機器の傾きを検出して、これを情報表示におけるスクロールに使用するという小型表示インターフェースについて開示されている。
【0011】
しかしながら、これらのインターフェースは、ある特定の機能を実現することに着目したものである。言い換えれば、コンピュータに対する物理的なインタラクションは非同期的なものと考えられており、例えば、他のアクションを形成した後にユーザ・アクションが続く。複数のジェスチャを透過的に組み合わせて取り扱える機器というものは、これまで開発されてこなかった。
【0012】
例えば、R. Balakrishnan、G. Fitzmaurice、G. Kurtenbach、K. Singh共著の論文”Exploring interactive curve and surface manipulation using a bend and twist sensitive input strip”(Proceedings of Symposium on Interactive 3D graphics. 1999. ACM. pp. 111-118)や米国特許第5,396,265号明細書には、回転センサを用いて互いに機械的に接続されている感知部品を撓ませるという、可撓性のインターフェースについて開示されている。しかしながら、このようなインターフェースは、単に形を生成するという作業に着目したに過ぎず、携帯型機器やさらには一般的な機器インターフェースに適用するという汎用インターフェースを提案するものではない。
【0013】
例えば、スペース・ボールなどの力検出装置を用いて、デスクトップ・コンピュータのための物理的インタラクションが実現されている。しかしながら、この種の装置の用途は、一般に、3次元空間におけるナビゲーションなどに限定されたものである。
【0014】
【発明が解決しようとする課題】
本発明の目的は、複雑な入力オペレーションを比較的簡単なユーザ動作で実現することができる、優れた携帯情報機器を提供することにある。
【0015】
本発明のさらなる目的は、ユーザの物理的なジェスチャを受容する物理的なユーザ・インターフェースを備えて入力操作を簡単にすることができる、優れた携帯情報機器を提供することにある。
【0016】
本発明のさらなる目的は、ユーザが行なう複数のジェスチャを透過的に組み合わせて機器に対する入力として取り扱うことができる、優れた携帯情報機器を提供することにある。
【0017】
本発明のさらなる目的は、機器に対する物理的なインタラクションを機器への汎用的なインターフェースとして用いることができる、優れた携帯情報機器を提供することにある。
【0018】
【課題を解決するための手段及び作用】
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、ユーザ入力に応答して動作する携帯情報機器であって、
機器本体と、
前記機器本体に対してユーザが印加した物理的インタラクションを取得するジェスチャ入力手段と、
ユーザ入力に応じた処理を実行する処理手段と、
を具備することを特徴とする携帯型情報機器である。
【0019】
例えば機器本体を曲げる、撓ませるといったジェスチャをユーザ入力として採取することによって、ユーザは自分の感情や衝動に従って直感的に機器操作を行なうことができるので、効率的な物理的インタラクションを実現することができる。
【0020】
本発明に係る携帯型情報機器は、前記機器本体正面に配設されて、前記処理手段による処理結果を視覚的に表示する視覚的ディスプレイと、前記機器本体背面に配設されて、ユーザの指先による操作に応じてディスプレイ・スクリーン上で方向入力又は座標指示入力を行なう方向入力手段とをさらに備えていてもよい。
【0021】
また、本発明に係る携帯型情報機器は、前記処理手段による処理結果を力覚的にユーザにフィードバックする力覚提示部をさらに備えていてもよい。このような場合、前記ジェスチャ入力手段を介して機器本体に有効に印加された物理的インタラクションの程度や回数などを、ユーザに力覚的にフィードバックすることができる。
【0022】
前記ジェスチャ入力手段は、例えば、前記機器本体の左右両端に回動自在に結合された操作部と、前記操作部の前記機器本体に対する回転操作量を検出する回転センサと、前記回転センサのセンサ出力をジェスチャ入力として前記処理手段に供給するデータ取得部とで構成することができる。
【0023】
このような場合、ユーザはそれぞれの手で左右の操作部をつかんで、機器本体に対して操作部を撓ませることができる。このとき、回転センサによって検出された回転操作量はジェスチャ入力として取得される。
【0024】
機器本体に対して操作部を撓ませるというジェスチャは、ユーザの感情や衝動に従って直感的に行なうことができるものであり、効率的な物理的インタラクションである。
【0025】
このようなジェスチャ入力は、視覚的ディスプレイの表示内容を確認しながら行なうことができる。また、ユーザは機器本体の左右側縁をつかんでジェスチャ入力を行なうことから、表示スクリーンが遮られるというオクルージョンの問題はない。
【0026】
また、ユーザは、機器正面の表示スクリーン上の表示内容を確認しながら、その背面で指を走査することによって2次元的な座標指示を行なうことができる。このような場合、座標指示を行なう指先が表示スクリーンを遮ることはない。また、正面側の視覚的ディスプレイ上にGUI操作画面を用意するとともに、背面側のタッチ・センサ上での座標指示位置に応じてこのGUI操作画面上にカーソルを表示して、タッチ・センサ上での2次元的な座標指示入力と視覚的ディスプレイ上でのGUI操作を連動させてもよい。
【0027】
あるいは、前記機器本体を可撓性の構造体にすることによって、前記ジェスチャ入力手段は、ユーザによる物理的インタラクションによる前記機器本体の撓み量を検出する撓みセンサと、前記撓みセンサのセンサ出力をジェスチャ入力として前記処理手段に供給するデータ取得部とで構成することができる。そして、前記撓みセンサは前記機器本体の撓み量と撓み方向を検出して、撓み量と撓み方向の組み合わせに対してコンピュータ上のデータやコマンドをマッピングすることができる。
【0028】
このような場合、機器本体が変形することから、視覚的ディスプレイには有機EL素子のような可撓性の表示装置を利用するとともに、可撓性の静電容量型メッシュ・センサをタッチ・センサに利用するようにすればよい。
【0029】
あるいは、前記ジェスチャ入力手段は、前記機器本体の左右両端に取り付けられた操作部と、前記機器本体に対して前記操作部を変形させる外力を検出する力センサと、前記回転センサのセンサ出力をジェスチャ入力として前記処理手段に供給するデータ取得部とで構成することができる。この場合、ユーザが機器本体を撓ませるような外力を操作部に印加すると、力センサがこれをジェスチャ入力として検出することができる。
【0030】
あるいは、前記ジェスチャ入力手段は、前記機器本体を変形させようと印加された外力を検出する圧力センサと、前記圧力センサのセンサ出力をジェスチャ入力として前記処理手段に供給するデータ取得部とで構成することもできる。
【0031】
例えば、ユーザが機器本体の端部を親指と人差し指等で挟み込むように摘んで、撓ませるような外力を印加すると、圧力センサが親指から印加される圧力をジェスチャ入力として検出する。
【0032】
また、機器本体の上下の各面に力センサを配設することによって、単に力の強度を検出するだけでなく、ユーザが印加する物理的インタラクションの方向、すなわち前記機器本体を上下いずれの方向に撓ませようとしているかを判別することができる。
【0033】
また、前記処理手段は、前記ジェスチャ入力手段を介したジェスチャ入力と前記方向入力手段を介した方向入力を同時で透過的に処理するようにしてもよい。
【0034】
このような場合、前記処理手段は、前記方向入力手段を介して指定された前記ディスプレイ・スクリーン上のオブジェクトに対して、前記ジェスチャ入力手段を介した物理的インタラクションに応じた処理を適用するようことができる。
【0035】
例えば、前記方向入力手段を介した指示座標を基に地図の表示場所をスクロールしながら、入力されたジェスチャに応じて縮尺を切り替えていく(物理的な操作量の増大とともにズームさせていく)といったインタラクションを行なうことができる。
【0036】
また、前記ジェスチャ入力手段は、ユーザが前記機器本体に印加した物理的インタラクションの強度を検出する力センサで構成され、前記処理手段は、前記力センサによる連続的なセンサ出力をインターフェース・コントロールのためのアナログ値として取り扱うようにしてもよい。そして、前記ジェスチャ手段を介してどれだけのアナログ値が入力されたかを、力感的提示部によってユーザに力覚的にフィードバックするようにしてもよい。
【0037】
あるいは、前記処理手段は、前記力センサによるセンサ出力が所定の閾値を越えたことに応答して、システムに対するコマンドを発行したり、インターフェースの状態や動作モードを切り替えたり、その他のGUIオペレーションを実行するなど、システム・オペレーションを制御するようにしてもよい。また、前記ジェスチャ手段を介した物理的インタラクションが有効に作用したことをユーザに力覚的に通知するようにしてよい。
【0038】
例えば、ユーザは、方向入力手段を介してメニュー上の所望の要素が選択し、さらに機器本体を撓ませるような物理的インタラクションを行なえばよい。そして、このとき印加された外力が所定の閾値に到達したことに応答して、該当するメニュー・コマンドが実行される。
【0039】
あるいは、前記処理手段は、前記力センサにより検出された力のパターンを認識して特定のコマンドとして取り扱うようにしてもよい。
【0040】
例えば、機器本体を同じ方向又は逆方向に撓ませたり、異なる時刻に撓ませたり、所定の間隔を置いて撓ませたりすることによって、さまざまなジェスチャを作ることができる。そして、これら個々のジェスチャのパターンに対して、システム・オペレーション上のコマンドを割り当てることができる。
【0041】
また、前記ジェスチャ手段を介した物理的インタラクションの認識並びに該当するコマンドの実行が成功したことをユーザに力覚的に通知するようにしてもよい。
【0042】
要するに、本発明は、コンピュータ・インターフェースが方向入力若しくは座標指示と力の伝達を同時に行なうことができるコンピュータ・インターフェースを提供するものである。多元的なユーザ入力を同時に行なうことができるので、操作性が高まるとともにインタラクションの表現力が増す。
【0043】
このようなユーザ入力の組み合わせを用いることは、とりわけハンドヘルド若しくは携帯型、携行型のコンピュータにおいて効果的であり、ユーザに豊かなインタラクションをもたらすことができる。
【0044】
このようなインターフェースによれば、ユーザは、相違する直交性の情報に関するインタラクションを単一のジェスチャだけで実現することができる。例えば、市街地の地図をスクロールしながら同時に縮尺を変えていくといったインタラクションを単一のジェスチャにより行なうことができる。
【0045】
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
【0046】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施形態について詳解する。
【0047】
図1には、本発明の一実施形態に係る携帯型機器100のハードウェア構成を模式的に示している。
【0048】
同図に示すように、携帯型機器100は、メイン・コントローラとしてのプロセッサ・ユニット108と、ユーザ入力を行なうインターフェースとして力センサ101、撓みセンサ102、圧力センサ103、回転センサ104、並びにユーザが2次元位置を入力するためのタッチ・センサ105と、ユーザ出力を行なうインターフェースとしての視覚的ディスプレイ106並びに力覚的(Tactile)ディスプレイ109を備えている。
【0049】
プロセッサ・ユニット108は、例えば、処理エンジンとしてのCPU(Central Processing Unit)と、実行プログラムをロードしたり作業データを一時保存するRAM(Random Access Memory)、プログラム・コードやその他のデータを恒久的に格納するROM(Read Only Memory)などの組み合わせで構成され、オペレーティング・システム(OS)が提供する実行環境下で、ユーザのジェスチャなどの物理的なインタラクションを利用したアプリケーションを実行する。
【0050】
視覚的ディスプレイ106は、例えば液晶表示ディスプレイ(LCD)などで構成され、プロセッサ・ユニット108における処理結果を視覚表示する。
【0051】
また、タッチ・センサ105は、例えば、視覚的ディスプレイ106に重畳されていてもよい。あるいは、機器100本体の視覚的ディスプレイ106とは反対側(すなわち、機器100の背面側)に配設されている。後者の場合、ユーザは、機器100正面の表示スクリーン上の表示内容を確認しながら、その背面を指先で走査することによって2次元的な座標指示を行なうことができる。したがって、座標指示を行なう指先が視覚的ディスプレイ106の表示スクリーンを遮ることはない。
【0052】
力覚的ディスプレイ109は、プロセッサ・ユニット108における処理結果を力覚的にフィードバックするためのデバイスである。力覚的ディスプレイ109に任意の制御信号を印加することにより、力覚パターンを自由に変更することができる。プロセッサ・ユニット108は処理結果データに従って電圧の時間関数である制御信号を生成すればよい。例えば、多層ピエゾ可撓性アクチュエータで力覚的ディスプレイ109を構成することができる。多層ピエゾ・アクチュエータは、上層ピエゾ・アクチュエータと、下層ピエゾ・アクチュエータからなり、上層及び下層の各ピエゾ・アクチュエータに対して逆方向の電圧を印加することによって、上層を収縮させると同時に下層を拡張させて、多層ピエゾ可撓性アクチュエータ全体としては、上方あるいは下方に撓ませることができる。なお、力覚的ディスプレイに関しては、本出願人に既に譲渡されている特願2002−18228号明細書に記述されている。
【0053】
力センサ101、撓みセンサ102、圧力センサ103、回転センサ104は、ユーザのジェスチャなどの物理的なインタラクションを検出して、コンピュータ・データとして取り込むためのデバイスである。物理的なインタラクションを取得するために、携帯型機器100がこれらすべてのセンサ101〜104を装備する必要はなく、これらのうち少なくとも1つを備えていればよい。
【0054】
データ取得部107は、これらのセンサ出力をデジタライズしてプロセッサ・ユニット108に供給する。そして、プロセッサ・ユニット108においては、タッチ・センサ105からの2次元位置の入力と、データ取得部107を介したジェスチャ入力とを同時で透過的に処理することにより、相違する直交性の情報に関するインタラクションを単一のジェスチャだけで実現することができる。プロセッサ・ユニット108は、例えば、市街地の地図をスクロールしながら同時に縮尺を変えていくといったインタラクションを提供する。ジェスチャを基調とするインタラクションは、直感的で効率的であり、また楽しい。
【0055】
図2には、携帯型機器100の外観構成の一例を示している。同図に示す例では、携帯型機器100本体の左右両端縁にそれぞれ操作部111が回動可能にヒンジ結合されている。また、ヒンジ部分には回転センサ104が装備されており、機器100本体に対する操作部111の回転操作量を検出することができる。
【0056】
例えば、ユーザは図示のようにそれぞれの手で左右の操作部111をつかんで、機器100本体に対して操作部111を撓ませることができる。このとき、回転センサ104によって検出された回転操作量はジェスチャ入力としてデータ取得部107を介してプロセッサ・ユニット108に与えられる。このようなジェスチャ入力は、視覚的ディスプレイ106の表示内容を確認しながら行なうことができる。ユーザは機器100本体の左右側縁をつかんでジェスチャ入力を行なうことから、表示スクリーンが遮られるというオクルージョンの問題はない。
【0057】
機器100本体に対して操作部111を撓ませるというジェスチャは、ユーザの感情や衝動に従って直感的に行なうことができるものであり、効率的な物理的インタラクションである。
【0058】
また、図3には、図2に示した携帯型機器100の変形例を示している。
【0059】
図示の通り、機器100本体の正面側に視覚的ディスプレイ106が配設されるとともに、その反対側すなわち機器100の背面側にはタッチ・センサ105が配設されている。したがって、ユーザは、機器100正面の表示スクリーン上の表示内容を確認しながら、その背面を指先で走査することによって2次元的な座標指示を行なうことができる。このような場合、座標指示を行なう指先が表示スクリーンを遮ることはない。また、正面側の視覚的ディスプレイ106上にGUI操作画面を用意するとともに、背面側のタッチ・センサ105上での座標指示位置に応じてこのGUI操作画面上にカーソルを表示して、タッチ・センサ105上での2次元的な座標指示入力と視覚的ディスプレイ106上でのGUI操作を連動させてもよい。
【0060】
プロセッサ・ユニット108では、左右の操作部111を用いたジェスチャ入力と、タッチ・センサ105を介した2次元的な座標指示入力を同時で透過的に処理することができる。例えば、市街地の地図表示アプリケーションにおいて、タッチ・センサ105による指示座標を基に地図の表示場所をスクロールしながら、ジェスチャすなわち操作部111の回転操作量に応じて縮尺を切り替えていく(回転操作量の増大とともにズームさせていく)といったインタラクションを行なうことができる。
【0061】
図4には、携帯型機器100のさらに他の変形例を示している。
【0062】
図示の通り、機器100本体の正面側に視覚的ディスプレイ106が配設されるとともに、その反対側すなわち機器100の背面側にはタッチ・センサ105が配設されている。ユーザは、機器100正面の表示スクリーン上の表示内容を確認しながら、その背面のタッチ・センサ105上を指先で走査することによって2次元的な座標指示を行なうことができる。このような場合、座標指示を行なう指先が表示スクリーンを遮ることはない。
【0063】
勿論、正面側の視覚的ディスプレイ106上にGUI操作画面を用意するとともに、背面側のタッチ・センサ105上での座標指示位置に応じてこのGUI操作画面上にカーソルを表示して、タッチ・センサ105上での2次元的な座標指示入力と視覚的ディスプレイ106上でのGUI操作を連動させてもよい。
【0064】
また、この変形例では、ジェスチャ入力の手段として、機器100本体に対する操作部の回転量ではなく、機器100本体に印加される撓みを利用する。この場合、機器100本体に内蔵されている撓みセンサ102からのセンサ出力を基にユーザの物理的なインタラクションを計測する。そして、プロセッサ・ユニット108は、データ取得部107を介してジェスチャ入力を取得する。
【0065】
この実施形態では、ジェスチャ入力に応じて機器100本体が変形する。このため、視覚的ディスプレイ106には有機EL素子のような可撓性の表示装置を利用するとともに、可撓性の静電容量型メッシュ・センサをタッチ・センサ105に利用するようにすればよい。
【0066】
図5には、携帯型機器100のさらに他の変形例を示している。
【0067】
図示の通り、機器100本体の正面側に視覚的ディスプレイ106が配設されるとともに、その反対側すなわち機器100の背面側にはタッチ・センサ105が配設されている。ユーザは、機器100正面の表示スクリーン上の表示内容を確認しながら、その背面のタッチ・センサ105上を指先で走査することによって2次元的な座標指示を行なうことができるので、座標指示を行なう指先が表示スクリーンを遮ることはない。
【0068】
勿論、正面側の視覚的ディスプレイ106上にGUI操作画面を用意するとともに、背面側のタッチ・センサ105上での座標指示位置に応じてこのGUI操作画面上にカーソルを表示して、タッチ・センサ105上での2次元的な座標指示入力と視覚的ディスプレイ106上でのGUI操作を連動させてもよい。
【0069】
また、同図に示す例では、携帯型機器100本体の左右両端縁にそれぞれ操作部111が力センサ101を介して連結されている。したがって、ユーザが機器100本体を撓ませるような外力を操作部111に印加すると、力センサ101がこれをジェスチャ入力として検出する。
【0070】
したがって、ユーザは、機器100本体の左右を両手で把持して、視覚的ディスプレイ106を眺めながら親指を押し付けることによって、座標指示入力と同時に透過的なジェスチャ入力を行なうことができる。機器100本体を撓ませるというジェスチャは、ユーザの感情や衝動に従って直感的に行なうことができるものであり、効率的な物理的インタラクションである。
【0071】
この実施形態では、ジェスチャ入力に応じて機器100本体が変形することはないので、視覚的ディスプレイ106として可撓性のデバイスを使用する必要は必ずしもない。
【0072】
図6には、携帯型機器100のさらに他の変形例を示している。
【0073】
図示の通り、機器100本体の正面側に視覚的ディスプレイ106が配設されるとともに、その反対側すなわち機器100の背面側にはタッチ・センサ105が配設されている。ユーザは、機器100正面の表示スクリーン上の表示内容を確認しながら、その背面のタッチ・センサ105上を指先で走査することによって2次元的な座標指示を行なうことができる。このような場合、座標指示を行なう指先が表示スクリーンを遮ることはない。
【0074】
勿論、正面側の視覚的ディスプレイ106上にGUI操作画面を用意するとともに、背面側のタッチ・センサ105上での座標指示位置に応じてこのGUI操作画面上にカーソルを表示して、タッチ・センサ105上での2次元的な座標指示入力と視覚的ディスプレイ106上でのGUI操作を連動させてもよい。
【0075】
また、この変形例では、ジェスチャ入力の手段として、機器100本体の左右の両端には、表裏双方に圧力センサ103が配設されている。したがって、ユーザが機器100本体の端部を親指と人差し指等で挟み込むように摘んで、撓ませるような外力を印加すると、圧力センサ103が親指から印加される圧力をジェスチャ入力として検出する。
【0076】
したがって、ユーザは、機器100本体の左右を両手で把持して視覚的ディスプレイ106を眺めながら、親指と人差し指等で挟み込んだ姿勢で機器100本体の表面をせり出すように上方向に撓ませる力を印加したり、あるいは表面を凹ませるように下方向に力を印加することによって、座標指示入力と同時に透過的なジェスチャ入力を行なうことができる。機器100本体を撓ませるというジェスチャは、ユーザの感情や衝動に従って直感的に行なうことができるものであり、効率的な物理的インタラクションである。
【0077】
この実施形態では、ジェスチャ入力に応じて機器100本体が変形することはないので、視覚的ディスプレイ106として可撓性のデバイスを使用する必要は必ずしもない。
【0078】
圧力センサ103を用いてジェスチャ入力を実現するためのメカニズムを、図7〜図8を参照しながら説明する。
【0079】
図7に示すように、2つの圧力センサ103が機器100本体の正面及び背面にそれぞれ貼設されている。そして、一方の手の親指並びに人差し指等を用いて各々の面で圧力センサ103に触れている。
【0080】
ユーザは、このように親指並びに人差し指等で挟み込むように摘んで、機器100本体の表面をせり出すように上方向に撓ませる力を印加したり、あるいは表面を凹ませるような下方向に力を印加することができる。ユーザが機器100本体に対していずれの方向に力を印加しているかは、正面及び背面それぞれに配設した圧力センサ103間のセンサ出力の差分によって検出することができる。すなわち、正面側の圧力センサ103の出力の方が背面側よりも大きければ下方向の力が印加され、下方向へのジェスチャ入力が行なわれていると判断される(図8を参照のこと)。
【0081】
勿論、圧力センサ103を正面又は背面のいずれか一方にのみ配設して、構造を簡素化してもよい。このような場合、力の印加はいずれか一方においてのみ可能で、また圧力の大小のみでジェスチャ入力が行なわれる。
【0082】
本発明は、コンピュータ・インターフェースが座標指示と力の伝達を同時に行なうことができるコンピュータ・インターフェースを提供するものである。図3〜図6に示したように、本発明に係る携帯型機器100における必須の構成として、タッチ・パネル105を機器100本体の背面に配設することが挙げられる。このような構成により、ユーザは、機器本体の左右両端を両手で把持することにより、ごく自然に機器100を持つことができる。そして、ユーザは、手で機器100本体に力を伝達してジェスチャ入力を行なうと同時に、タッチ・パネル105上に置いた指先を自由に移動することによって、座標指示入力を透過的に行なうことができる。
【0083】
このようなコンピュータ・インターフェースによれば、キーボードやマウス、ペンなどを使用しなくても、ハンドヘルド型のコンピュータに対して複雑なインタラクションを実現することができる。また、機器の視覚的ディスプレイ106を遮るという問題もない。したがって、このコンピュータ・インターフェースを、小型の表示ディスプレイしか持たない機器と組み合わせることにより、快適な操作環境を提供することができる。
【0084】
携帯型機器100は、タッチ・パネル105上に指先を置いて座標指示のためのインタラクションを行ないながら、ユーザが機器本体に力を印加してジェスチャ入力インタラクションを行ない易いようなフォームファクタを備えていることが好ましい。
【0085】
本実施形態に係る携帯型機器100によれば、視覚的ディスプレイ106によって提供された表示情報又はGUIオブジェクトに対して座標指示入力を行なうと同時に、ジェスチャ入力に応答して指示された特定の位置に対してさらなる処理を適用することができる。以下では、本実施形態に係る携帯型機器100におけるこのようなデータの同時入力の方法について説明する。
【0086】
(1)座標指示入力と連続的な力制御の組み合わせ:
この場合、ユーザが機器100本体に印加する力は、インターフェース・コントロールにおけるアナログ値にマッピングされる。
【0087】
例えば、視覚的ディスプレイ106上に地図を表示して、機器100本体背面のタッチ・パネル105を利用して地図上の場所を指示すると同時に、ユーザの物理的インタラクションを力センサ101で検出して、このセンサ出力に従って地図の縮尺をコントロールする。そして、機器100本体に印加された撓み量が小さければ視覚的ディスプレイ106上の地図表示を拡大又は縮小する。また、機器100が剛体で力を加えても実際には変形しない場合には、どれだけのアナログ値が機器100本体に入力されたかを力覚的ディスプレイ109を用いてユーザにフィードバックするようにしてもよい。
【0088】
(2)座標指示入力と閾値を越えた力制御の組み合わせ:
ユーザが機器100本体に印加した力が所定の閾値を越えたときに、システムに対するコマンドを発行したり、インターフェースの状態や動作モードを切り替えたり、その他のGUIオペレーションを実行する。
【0089】
例えば、ユーザは、タッチ・パネル105を介してメニュー上のセレクタを移動してメニューを閲覧することができる。所望の要素が選択されたときに、さらに機器100本体を撓ませるような物理的インタラクションを行なえばよい。そして、このとき印加された外力が所定の閾値に到達したことに応答して、該当するメニュー・コマンドが実行される。ユーザが行なったジェスチャの力が所定レベルに到達して、物理的インタラクションが有効に作用したことを、例えば力覚的ディスプレイ109を用いてユーザに通知するようにしてもよい。
【0090】
(3)座標指示入力とジェスチャ・ベースの力制御:
機器100本体に印加された力のパターンを認識して、特定のコマンドとして取り扱う。
【0091】
例えば、ユーザは視覚的ディスプレイ106上で表示されている地図上で所望の位置をタッチ・パネル105を介して走査して、さらに、機器100本体を垂直方向に2回だけ瞬時に撓ませることによって、画面表示を切り替える。
【0092】
このような場合、例えば機器100本体を同じ方向又は逆方向に撓ませたり、異なる時刻に撓ませたり、所定の間隔を置いて撓ませたりすることによって、さまざまなジェスチャを作ることができる。そして、機器100本体に印加した物理的インタラクションの認識並びに該当するコマンドの実行が成功したことを、例えば力覚的ディスプレイ109を用いてユーザに通知するようにしてもよい。
【0093】
図9には、ジェスチャ入力を利用したシステム・オペレーションをフローチャートの形式で示している。このような処理は、実際には、所定のプログラム・コードを起動するプロセッサ・ユニット108が、ジェスチャ入力並びにタッチ・パネル105を介した座標指示入力を同時且つ透過的に取り扱うことによって実現される。
【0094】
まず、タッチ・パネル105を介した指示座標値(X,Y)、並びに力センサ101で検出された力F、若しくは撓みセンサ102、圧力センサ103、回転センサ104を介したジェスチャを入力する(ステップS1)。
【0095】
ここで、ユーザがジェスチャを形成した場合(例えば、機器100本体を2回だけ変形させる)には(ステップS2)、力覚的ディスプレイ109を介してユーザに力覚的フィードバックを返した後(ステップS3)、メニューを表示するなど所定のアクションを実行する(ステップS4)。また、ユーザがジェスチャを行なわなかった場合には、入力データの読み込みを継続する(ステップS5)。
【0096】
また、タッチ・パネル105を介した座標指示入力が行なわれた場合には、支持座標に対応するGUIオブジェクトを探索する(ステップS6)。
【0097】
次いで、指定されたGUIオブジェクトがメニュー項目やハイパーリンクなどの選択可能なオブジェクトかどうかを判別する(ステップS7)。
【0098】
そして、指定されたGUIオブジェクトが選択可能である場合には、さらに、ジェスチャ入力により機器100本体に印加された力Fが所定の閾値を越える(あるいは、ジェスチャ入力の程度が所定レベルを越える)かどうかを判別する(ステップS8)。
【0099】
力Fが所定の閾値を越える場合には、入力されたジェスチャを有効化して、力覚的ディスプレイ109を介してユーザに力覚的フィードバックを返した後(ステップS9)、選択されたメニューの実行やハイパーリンクの探索など、指示座標に基づくコマンドを発行する(ステップS10)。また、力Fが所定の閾値に達しないなどジェスチャ入力が有効化されなかった場合には、入力データの読み込みを継続する(ステップS11)。
【0100】
また、ステップS7において、選択可能なGUIオブジェクトが指示されていないと判断された場合には、さらに、このGUIオブジェクトが縮尺や色合い、サイズといった連続的な値をコントロールするものかどうかを判別する(ステップS12)。
【0101】
GUIオブジェクトが連続的な値をコントロールするものである場合には、機器100本体に印加された力F(あるいは、その他の入力されたジェスチャ)を、地図表示のズームなど制御値の変更にマッピングする(ステップS13)。そして、力覚的ディスプレイ109を介してユーザに力覚的フィードバックを返した後(ステップS14)、入力データの読み込みを継続する(ステップS15)。
【0102】
また、ステップS12における判断結果が否定的である場合には、指示されたGUIオブジェクトがヘルプやプレビュー、他のビューなどの付加的な情報レイヤを持つかどうかをさらに判別する(ステップS16)。
【0103】
付加的な情報レイヤを持つ場合には、ジェスチャ入力による連続的なコントロールが可能かどうかを判別する(ステップS17)。そして、ジェスチャ入力による連続的なコントロールが可能である場合には、機器100本体に印加された力F(あるいは、その他の入力されたジェスチャ)を、ズーム・イン/アウトやブレンドなど付加的な情報レイヤにマッピングする(ステップS18)。そして、力覚的ディスプレイ109を介してユーザに力覚的フィードバックを返した後(ステップS19)、入力データの読み込みを継続する(ステップS20)。
【0104】
一方、ジェスチャ入力による連続的なコントロールが可能でない場合には、さらに、機器100本体に印加された力Fが所定の閾値を越える(あるいは、ジェスチャ入力の程度が所定レベルを越える)かどうかを判別する(ステップS21)。力Fが所定の閾値を越える場合には、力覚的ディスプレイ109を介してユーザに力覚的フィードバックを返した後(ステップS22)、ポップ・アップ・ヘルプなどの付加的な情報を表示する(ステップS23)。また、力Fが所定の閾値に達しないなどジェスチャ入力が有効化されなかった場合には、入力データの読み込みを継続する(ステップS24)。
【0105】
また、ステップS16において、指示されたGUIオブジェクトが付加的な情報を持たないと判別された場合には、入力データの読み込みを継続する(ステップS25)。
【0106】
以上説明してきたように、本実施形態に係るジェスチャ入力は、マウスやタッチ・スクリーン、キーボードなどを使用しないハンドヘルド型の機器におけるインタラクションに利用することができる。例えば以下のような用途を挙げることができる。
【0107】
▲1▼ディスプレイ・スクリーンのための先進的なリモート・コントロール
▲2▼TV受像機のための先進的なリモート・コントロール(図10を参照のこと)
▲3▼PDA(Personal Digital Assistant)やその他の個人情報の閲覧や管理
▲4▼携帯電話機
▲5▼電子ブック
▲6▼ハンドヘルド型のゲーム・コントローラ
【0108】
図10には、本実施形態に係るジェスチャ入力をTV受像機などのオーディオ機器用リモート・コントローラに適用した様子を示している。同図に示すような実施形態においては、ユーザはリモート・コントローラ本体を上下各方向に曲げるという物理的インタラクションを印加する。このとき、曲げ量又は本体に印加する力の強弱のパターンを変える。そして、リモート・コントローラ内ではこのようなジェスチャを機器コントロール用のデータやコマンドにデコードして、機器本体に転送する。
【0109】
[追補]
以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
【0110】
【発明の効果】
以上詳記したように、本発明によれば、複雑な入力オペレーションを比較的簡単なユーザ動作で実現することができる、優れた携帯情報機器を提供することができる。
【0111】
また、本発明によれば、ユーザの物理的なジェスチャを受容する物理的なユーザ・インターフェースを備えて入力操作を簡単にすることができる、優れた携帯情報機器を提供することができる。
【0112】
また、本発明によれば、ユーザが行なう複数のジェスチャを透過的に組み合わせて機器に対する入力として取り扱うことができる、優れた携帯情報機器を提供することができる。
【0113】
また、本発明によれば、機器に対する物理的なインタラクションを機器への汎用的なインターフェースとして用いることができる、優れた携帯情報機器を提供することができる。
【0114】
本発明によれば、コンピュータ・インターフェースが座標指示と力の伝達を同時に行なうことができるコンピュータ・インターフェースを提供することができる。すなわち、多元的なユーザ入力を同時に行なうことができるので、操作性が高まるとともにインタラクションの表現力が増す。
【0115】
このようなユーザ入力の組み合わせを用いることは、とりわけハンドヘルド若しくは携帯型、携行型のコンピュータにおいて効果的であり、マウスやタッチ・パネル、キーボードなどを用いなくても、ユーザに豊かなインタラクションをもたらすことができる。また、本発明に係るインターフェースは、表示スクリーンとは干渉しないので、ジェスチャによるインタラクションにおいてスクリーンの表示内容が遮られることはない。
【0116】
本発明に係るインターフェースによれば、ユーザは、相違する直交性の情報に関するインタラクションを単一のジェスチャだけで実現することができる。ジェスチャを基調とするインタラクションは、直感的で効率的であり、また楽しい。
【0117】
本発明に係るインターフェースによれば、小型のハンドヘルド・コンピュータ上で、2次元的な座標指示と力入力を同時で透過的に行なうことができる。例えば、市街地の地図をスクロールしながら同時に縮尺を変えていくといったインタラクションを単一のジェスチャにより行なうことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る携帯型機器100のハードウェア構成を模式的に示した図である。
【図2】携帯型機器100の外観構成の一例を示した図である。
【図3】図2に示した携帯型機器100の変形例を示した図である。
【図4】図2に示した携帯型機器100の変形例を示した図である。
【図5】図2に示した携帯型機器100の変形例を示した図である。
【図6】図2に示した携帯型機器100の変形例を示した図である。
【図7】圧力センサ103を用いてジェスチャ入力を実現するためのメカニズムを説明するための図である。
【図8】圧力センサ103を用いてジェスチャ入力を実現するためのメカニズムを説明するための図である。
【図9】ジェスチャ入力を利用したシステム・オペレーションを示したフローチャートである。
【図10】ジェスチャ入力の応用例を示した図である。
【符号の説明】
100…携帯型情報機器
101…力センサ,102…撓みセンサ
103…圧力センサ,104…回転センサ
105…タッチ・パネル
106…視覚的ディスプレイ
107…データ取得部
108…プロセッサ・ユニット
109…力覚的ディスプレイ
111…操作部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a portable information device that provides a predetermined information processing service in response to an input operation from a user, and in particular, operates in response to a user input via an input device that is provided as a standard in the device. It relates to portable information equipment.
[0002]
More particularly, the present invention relates to a portable information device that realizes a complicated input operation with a relatively simple user operation, and more particularly, an input operation including a physical user interface that accepts a user's physical gesture. The present invention relates to a portable information device.
[0003]
[Prior art]
The human hand is an excellent tool. That is, various complicated operations can be accomplished by effectively controlling the many degrees of freedom of the hands and fingers. For example, a musician such as a violinist can play a string with a bow simultaneously in two directions (eg, in the same direction as the string and across it), or simultaneously apply different tensions to the string.
[0004]
Similarly, in modern computers, the position and force can be input simultaneously on the computer screen using an input device such as a mouse or pen. For example, a button is pressed while pointing a specific place on the screen with a mouse, or a pen is pressed on a tablet.
[0005]
In the paper “Human performance evaluation of manipulation schemes in virtual environments” (Proceedings of VRAIS'93. 1993. IEEE. Pp. 155-61) co-authored by S. Zhai and P. Milgram, position control (isotonic control) and Force control (isometric control) suggests that the physiological and psychological mechanisms of manual control are different and that the control direction is basically orthogonal for humans.
[0006]
In portable or handheld devices, it has been a long and important issue that data input is a difficult task and effective interaction cannot be performed. Usually, the input function in a portable device is limited to, for example, pen input via a touch screen, buttons, a jog dial type controller, and the like. In addition, when a touch screen is used, the display content on the screen may be interrupted, the use of a pen is often required, and pen input may be difficult due to the limited resolution of the touch sensor.
[0007]
Interaction via the touch screen is recommended for certain interactions, such as performing direct manipulations on GUI interface objects directly. For example, in order to zoom the map, scrolling and zooming functions must be applied continuously. If such an input operation can be realized with a single gesture, the operation is remarkably simplified and the burden on the user can be reduced.
[0008]
Some proposals have been made regarding a physical user interface in which a user performs all computer operations by applying a physical gesture to a portable computer and realizes various tasks.
[0009]
For example, US Pat. No. 6,243,074 includes a feedback module that displays information about a processed data structure and a detector that detects a user's manual operation, and the data structure in response to the manual operation. A portable device that changes the display mode is disclosed. In addition, US Pat. No. 5,602,566 discloses a small information processing apparatus that can be held with one hand and scrolls the screen according to the inclination of the apparatus body. In these cases, the interface is controlled by detecting an action applied by the user to the device by a sensor built in the device body.
[0010]
Also, J. Rekimoto's paper “Tilting operations for small screen interfaces” (Proceedings of UIST'96. 1996. ACM. Pp. 167-168) uses tilt sensors to detect the tilt of equipment. Is used for scrolling in information display.
[0011]
However, these interfaces focus on realizing certain functions. In other words, the physical interaction with the computer is considered to be asynchronous, eg, user actions follow after forming other actions. Until now, no device that can handle multiple gestures in a transparent combination has been developed.
[0012]
For example, a paper by R. Balakrishnan, G. Fitzmaurice, G. Kurtenbach, and K. Singh “Exploring interactive curve and surface manipulation using a bend and twist sensitive input strip” (Proceedings of Symposium on Interactive 3D graphics. 1999. ACM. Pp. 111-118) and US Pat. No. 5,396,265 disclose a flexible interface that uses a rotation sensor to deflect sensing components that are mechanically connected to each other. . However, such an interface merely focuses on the task of generating a shape, and does not propose a general-purpose interface to be applied to a portable device or even a general device interface.
[0013]
For example, physical interaction for desktop computers has been realized using force sensing devices such as space balls. However, the use of this type of device is generally limited to navigation in a three-dimensional space.
[0014]
[Problems to be solved by the invention]
An object of the present invention is to provide an excellent portable information device capable of realizing a complicated input operation with a relatively simple user operation.
[0015]
It is a further object of the present invention to provide an excellent portable information device that has a physical user interface that accepts a user's physical gesture and can simplify input operations.
[0016]
A further object of the present invention is to provide an excellent portable information device that can transparently combine a plurality of gestures performed by a user and handle it as an input to the device.
[0017]
It is a further object of the present invention to provide an excellent portable information device that can use physical interaction with a device as a general-purpose interface to the device.
[0018]
[Means and Actions for Solving the Problems]
The present invention has been made in view of the above problems, and a first aspect thereof is a portable information device that operates in response to a user input,
The device body,
Gesture input means for acquiring physical interaction applied by a user to the device body;
Processing means for executing processing according to user input;
It is a portable information device characterized by comprising.
[0019]
For example, by collecting gestures such as bending or bending the device body as user input, the user can intuitively operate the device according to his / her feelings and impulses, so that efficient physical interaction can be realized. it can.
[0020]
The portable information device according to the present invention is disposed on the front surface of the device main body and visually displays the processing result of the processing means, and is disposed on the back surface of the device main body, and the user's fingertip. There may be further provided a direction input means for performing a direction input or a coordinate instruction input on the display screen in accordance with the operation by.
[0021]
The portable information device according to the present invention may further include a force sense presentation unit that forcefully feeds back a processing result obtained by the processing means to the user. In such a case, the degree and number of physical interactions that are effectively applied to the device body via the gesture input means can be fed back to the user.
[0022]
The gesture input means includes, for example, an operation unit rotatably coupled to both left and right ends of the device main body, a rotation sensor that detects a rotation operation amount of the operation unit with respect to the device main body, and a sensor output of the rotation sensor And a data acquisition unit that supplies the processing means as a gesture input.
[0023]
In such a case, the user can bend the operation unit with respect to the device body by holding the left and right operation units with their respective hands. At this time, the rotation operation amount detected by the rotation sensor is acquired as a gesture input.
[0024]
The gesture of bending the operation unit with respect to the device main body can be performed intuitively according to the user's emotions and impulses, and is an efficient physical interaction.
[0025]
Such gesture input can be performed while confirming the display content of the visual display. In addition, since the user performs gesture input by grasping the left and right edges of the device body, there is no occlusion problem that the display screen is blocked.
[0026]
Also, the user can give a two-dimensional coordinate instruction by scanning the finger on the back of the device while confirming the display content on the display screen in front of the device. In such a case, the fingertip that performs the coordinate instruction does not block the display screen. In addition, a GUI operation screen is prepared on the front visual display, and a cursor is displayed on the GUI operation screen in accordance with the coordinate instruction position on the touch sensor on the rear side. The two-dimensional coordinate instruction input and the GUI operation on the visual display may be linked.
[0027]
Alternatively, by making the device main body a flexible structure, the gesture input means gestures a deflection sensor for detecting a deflection amount of the device main body due to physical interaction by a user, and a sensor output of the deflection sensor. A data acquisition unit that supplies the processing means as an input can be used. The deflection sensor can detect a deflection amount and a deflection direction of the device main body, and map data and commands on a computer to a combination of the deflection amount and the deflection direction.
[0028]
In such a case, since the device main body is deformed, a flexible display device such as an organic EL element is used for the visual display, and the flexible capacitive mesh sensor is used as a touch sensor. It should be used for.
[0029]
Alternatively, the gesture input means gestures an operation unit attached to both right and left ends of the device body, a force sensor that detects an external force that deforms the operation unit with respect to the device body, and a sensor output of the rotation sensor. A data acquisition unit that supplies the processing means as an input can be used. In this case, when the user applies an external force that bends the device main body to the operation unit, the force sensor can detect this as a gesture input.
[0030]
Alternatively, the gesture input unit includes a pressure sensor that detects an external force applied to deform the device main body, and a data acquisition unit that supplies the sensor output of the pressure sensor to the processing unit as a gesture input. You can also.
[0031]
For example, when the user grips an end of the device main body so as to be sandwiched between a thumb and an index finger and applies an external force to bend it, the pressure sensor detects the pressure applied from the thumb as a gesture input.
[0032]
Also, by arranging force sensors on the upper and lower surfaces of the device main body, not only simply detecting the strength of the force, but also the direction of the physical interaction applied by the user, that is, the device main body in either the upper or lower direction It is possible to determine whether or not it is bent.
[0033]
The processing unit may transparently process a gesture input via the gesture input unit and a direction input via the direction input unit simultaneously.
[0034]
In such a case, the processing means applies a process corresponding to a physical interaction via the gesture input means to an object on the display screen designated via the direction input means. Can do.
[0035]
For example, while scrolling the display location of the map based on the designated coordinates via the direction input means, the scale is switched according to the input gesture (zoom is performed as the physical operation amount increases). Interaction can be performed.
[0036]
The gesture input means includes a force sensor that detects the strength of physical interaction applied by the user to the device main body, and the processing means outputs a continuous sensor output from the force sensor for interface control. It may be handled as an analog value. Then, how much analog value is input via the gesture means may be fed back to the user by force sense presentation unit.
[0037]
Alternatively, in response to the sensor output from the force sensor exceeding a predetermined threshold, the processing means issues a command to the system, switches the interface state and operation mode, and executes other GUI operations. For example, the system operation may be controlled. Further, the user may be happily notified that the physical interaction via the gesture means has been effectively performed.
[0038]
For example, the user may select a desired element on the menu via the direction input means and perform a physical interaction that causes the device body to bend. Then, in response to the external force applied at this time reaching a predetermined threshold value, the corresponding menu command is executed.
[0039]
Alternatively, the processing means may recognize a force pattern detected by the force sensor and handle it as a specific command.
[0040]
For example, various gestures can be created by bending the device body in the same direction or in the opposite direction, bending at different times, or bending at a predetermined interval. Then, commands for system operation can be assigned to these individual gesture patterns.
[0041]
In addition, the user may be happily notified that the physical interaction has been recognized through the gesture means and that the corresponding command has been successfully executed.
[0042]
In short, the present invention provides a computer interface in which the computer interface can perform direction input or coordinate indication and force transmission at the same time. Since multi-dimensional user input can be performed at the same time, the operability is enhanced and the expressiveness of the interaction is increased.
[0043]
Using such a combination of user inputs is particularly effective in handheld, portable, and portable computers, and can provide rich interaction to the user.
[0044]
According to such an interface, the user can realize interaction related to different orthogonality information by only a single gesture. For example, an interaction such as scrolling a city map and simultaneously changing the scale can be performed with a single gesture.
[0045]
Other objects, features, and advantages of the present invention will become apparent from more detailed description based on embodiments of the present invention described later and the accompanying drawings.
[0046]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0047]
FIG. 1 schematically shows a hardware configuration of a portable device 100 according to an embodiment of the present invention.
[0048]
As shown in the figure, the portable device 100 includes a processor unit 108 as a main controller, a force sensor 101, a deflection sensor 102, a pressure sensor 103, a rotation sensor 104, and two users as interfaces for performing user input. A touch sensor 105 for inputting a dimensional position, a visual display 106 as an interface for performing user output, and a tactile display 109 are provided.
[0049]
The processor unit 108 is, for example, a CPU (Central Processing Unit) as a processing engine, a RAM (Random Access Memory) for loading an execution program or temporarily storing work data, a program code, and other data permanently. An application using physical interaction such as a user gesture is executed in an execution environment provided by an operating system (OS), which is configured by a combination of ROM (Read Only Memory) to be stored.
[0050]
The visual display 106 is composed of a liquid crystal display (LCD), for example, and visually displays the processing result in the processor unit 108.
[0051]
The touch sensor 105 may be superimposed on the visual display 106, for example. Alternatively, the device 100 is disposed on the opposite side of the main body of the device 100 from the visual display 106 (that is, the back side of the device 100). In the latter case, the user can give a two-dimensional coordinate instruction by scanning the back of the device 100 with a fingertip while confirming the display content on the display screen in front of the device 100. Therefore, the fingertip that performs the coordinate instruction does not block the display screen of the visual display 106.
[0052]
The haptic display 109 is a device for hapticly feeding back the processing result in the processor unit 108. By applying an arbitrary control signal to the haptic display 109, the haptic pattern can be freely changed. The processor unit 108 may generate a control signal that is a time function of voltage according to the processing result data. For example, the haptic display 109 can be constructed with a multilayer piezo flexible actuator. A multilayer piezo actuator consists of an upper layer piezo actuator and a lower layer piezo actuator. By applying reverse voltages to the upper and lower piezo actuators, the upper layer contracts and the lower layer expands simultaneously. Thus, the entire multilayer piezoelectric flexible actuator can be bent upward or downward. The force display is described in Japanese Patent Application No. 2002-18228 already assigned to the present applicant.
[0053]
The force sensor 101, the deflection sensor 102, the pressure sensor 103, and the rotation sensor 104 are devices for detecting physical interactions such as user gestures and capturing them as computer data. In order to acquire a physical interaction, the portable device 100 does not need to be equipped with all of these sensors 101 to 104, and may be provided with at least one of them.
[0054]
The data acquisition unit 107 digitizes these sensor outputs and supplies them to the processor unit 108. In the processor unit 108, the two-dimensional position input from the touch sensor 105 and the gesture input via the data acquisition unit 107 are simultaneously and transparently processed, so that different orthogonality information is related. Interaction can be achieved with only a single gesture. The processor unit 108 provides, for example, an interaction in which the scale is simultaneously changed while scrolling a city map. Gesture-based interaction is intuitive, efficient, and fun.
[0055]
FIG. 2 shows an example of the external configuration of the portable device 100. In the example shown in the figure, the operating unit 111 is hingedly coupled to both left and right edges of the portable device 100 main body. In addition, a rotation sensor 104 is provided at the hinge portion, and the amount of rotation operation of the operation unit 111 with respect to the device 100 main body can be detected.
[0056]
For example, the user can bend the operation unit 111 with respect to the main body of the device 100 by holding the left and right operation units 111 with respective hands as illustrated. At this time, the rotation operation amount detected by the rotation sensor 104 is given to the processor unit 108 via the data acquisition unit 107 as a gesture input. Such gesture input can be performed while confirming the display content of the visual display 106. Since the user performs gesture input by grasping the left and right side edges of the device 100 main body, there is no occlusion problem that the display screen is blocked.
[0057]
The gesture of bending the operation unit 111 with respect to the main body of the device 100 can be performed intuitively according to the user's emotions and impulses, and is an efficient physical interaction.
[0058]
FIG. 3 shows a modification of the portable device 100 shown in FIG.
[0059]
As shown in the drawing, a visual display 106 is disposed on the front side of the main body of the device 100, and a touch sensor 105 is disposed on the opposite side, that is, on the back side of the device 100. Accordingly, the user can give a two-dimensional coordinate instruction by scanning the back surface of the device 100 with the fingertip while confirming the display content on the display screen in front of the device 100. In such a case, the fingertip that performs the coordinate instruction does not block the display screen. In addition, a GUI operation screen is prepared on the visual display 106 on the front side, and a cursor is displayed on the GUI operation screen in accordance with the coordinate instruction position on the touch sensor 105 on the back side, so that the touch sensor is displayed. A two-dimensional coordinate instruction input on 105 and a GUI operation on the visual display 106 may be linked.
[0060]
The processor unit 108 can simultaneously and transparently process a gesture input using the left and right operation units 111 and a two-dimensional coordinate instruction input via the touch sensor 105. For example, in a map display application in an urban area, the scale is switched in accordance with the gesture, that is, the rotation operation amount of the operation unit 111 while scrolling the map display location based on the coordinates indicated by the touch sensor 105 (rotation operation amount Zoom in as you increase).
[0061]
FIG. 4 shows still another modification of the portable device 100.
[0062]
As shown in the drawing, a visual display 106 is disposed on the front side of the main body of the device 100, and a touch sensor 105 is disposed on the opposite side, that is, on the back side of the device 100. The user can give a two-dimensional coordinate instruction by scanning the touch sensor 105 on the back of the device 100 with a fingertip while confirming the display content on the display screen in front of the device 100. In such a case, the fingertip that performs the coordinate instruction does not block the display screen.
[0063]
Of course, a GUI operation screen is prepared on the visual display 106 on the front side, and a cursor is displayed on the GUI operation screen in accordance with the coordinate instruction position on the touch sensor 105 on the back side, so that the touch sensor is displayed. A two-dimensional coordinate instruction input on 105 and a GUI operation on the visual display 106 may be linked.
[0064]
Further, in this modification, as a gesture input means, not the amount of rotation of the operation unit with respect to the main body of the device 100 but a deflection applied to the main body of the device 100 is used. In this case, the physical interaction of the user is measured based on the sensor output from the deflection sensor 102 built in the device 100 main body. Then, the processor unit 108 acquires a gesture input via the data acquisition unit 107.
[0065]
In this embodiment, the device 100 main body is deformed in response to a gesture input. For this reason, a flexible display device such as an organic EL element is used for the visual display 106, and a flexible capacitive mesh sensor may be used for the touch sensor 105. .
[0066]
FIG. 5 shows still another modification of the portable device 100.
[0067]
As shown in the drawing, a visual display 106 is disposed on the front side of the main body of the device 100, and a touch sensor 105 is disposed on the opposite side, that is, on the back side of the device 100. The user can perform a two-dimensional coordinate instruction by scanning the touch sensor 105 on the back surface of the device 100 while checking the display content on the display screen in front of the device 100. The fingertip does not block the display screen.
[0068]
Of course, a GUI operation screen is prepared on the visual display 106 on the front side, and a cursor is displayed on the GUI operation screen in accordance with the coordinate instruction position on the touch sensor 105 on the back side, so that the touch sensor is displayed. A two-dimensional coordinate instruction input on 105 and a GUI operation on the visual display 106 may be linked.
[0069]
Further, in the example shown in the figure, the operation unit 111 is connected to the left and right end edges of the portable device 100 via the force sensor 101, respectively. Therefore, when the user applies an external force that causes the device 100 to bend to the operation unit 111, the force sensor 101 detects this as a gesture input.
[0070]
Therefore, the user can perform transparent gesture input simultaneously with coordinate instruction input by holding the left and right sides of the apparatus 100 with both hands and pressing the thumb while looking at the visual display 106. The gesture of bending the main body of the device 100 can be performed intuitively according to the user's emotions and impulses, and is an efficient physical interaction.
[0071]
In this embodiment, since the main body of the device 100 is not deformed in response to the gesture input, it is not always necessary to use a flexible device as the visual display 106.
[0072]
FIG. 6 shows still another modification of the portable device 100.
[0073]
As shown in the drawing, a visual display 106 is disposed on the front side of the main body of the device 100, and a touch sensor 105 is disposed on the opposite side, that is, on the back side of the device 100. The user can give a two-dimensional coordinate instruction by scanning the touch sensor 105 on the back of the device 100 with a fingertip while confirming the display content on the display screen in front of the device 100. In such a case, the fingertip that performs the coordinate instruction does not block the display screen.
[0074]
Of course, a GUI operation screen is prepared on the visual display 106 on the front side, and a cursor is displayed on the GUI operation screen in accordance with the coordinate instruction position on the touch sensor 105 on the back side, so that the touch sensor is displayed. A two-dimensional coordinate instruction input on 105 and a GUI operation on the visual display 106 may be linked.
[0075]
Further, in this modification, pressure sensors 103 are disposed on both the front and back sides of the apparatus 100 main body as the gesture input means. Therefore, when the user grips the end of the main body of the apparatus 100 with the thumb and index finger or the like and applies an external force to bend it, the pressure sensor 103 detects the pressure applied from the thumb as a gesture input.
[0076]
Therefore, the user applies a force to bend upward so that the surface of the device 100 body sticks out while holding the left and right sides of the device 100 body with both hands and looking at the visual display 106 with a posture sandwiched between a thumb and an index finger. Or by applying a downward force so as to dent the surface, a transparent gesture input can be performed simultaneously with a coordinate instruction input. The gesture of bending the main body of the device 100 can be performed intuitively according to the user's emotions and impulses, and is an efficient physical interaction.
[0077]
In this embodiment, since the main body of the device 100 is not deformed in response to the gesture input, it is not always necessary to use a flexible device as the visual display 106.
[0078]
A mechanism for realizing gesture input using the pressure sensor 103 will be described with reference to FIGS.
[0079]
As shown in FIG. 7, two pressure sensors 103 are attached to the front surface and the back surface of the main body of the device 100, respectively. The pressure sensor 103 is touched on each surface using the thumb and index finger of one hand.
[0080]
In this way, the user picks it so that it is sandwiched between the thumb and forefinger, and applies a force that deflects upward so as to project the surface of the main body of the device 100 or a force that applies downward force that dents the surface. can do. In which direction the user is applying force to the main body of the device 100 can be detected by the difference in sensor output between the pressure sensors 103 arranged on the front and back surfaces. That is, if the output of the pressure sensor 103 on the front side is larger than that on the back side, a downward force is applied and it is determined that a downward gesture input is being performed (see FIG. 8). .
[0081]
Of course, the pressure sensor 103 may be disposed only on either the front or the back to simplify the structure. In such a case, the force can be applied only in either one, and the gesture input is performed only with the magnitude of the pressure.
[0082]
The present invention provides a computer interface in which the computer interface can simultaneously perform coordinate indication and force transmission. As shown in FIGS. 3 to 6, as an essential configuration of the portable device 100 according to the present invention, the touch panel 105 is disposed on the back surface of the device 100 main body. With such a configuration, the user can naturally hold the device 100 by gripping both left and right ends of the device body with both hands. Then, the user can perform a gesture input by transmitting force to the main body of the device 100 by hand, and at the same time, by freely moving a fingertip placed on the touch panel 105, a coordinate instruction input can be performed transparently. it can.
[0083]
According to such a computer interface, a complicated interaction can be realized for a handheld computer without using a keyboard, a mouse, a pen, or the like. There is also no problem of blocking the visual display 106 of the device. Therefore, a comfortable operating environment can be provided by combining this computer interface with a device having only a small display.
[0084]
The portable device 100 has a form factor that makes it easy for a user to perform a gesture input interaction by applying a force to the device body while placing a fingertip on the touch panel 105 and performing an interaction for coordinate instruction. It is preferable.
[0085]
According to the portable device 100 according to the present embodiment, the coordinate information is input to the display information or the GUI object provided by the visual display 106, and at the same time, the specific position indicated in response to the gesture input is performed. Further processing can be applied to it. Hereinafter, a method for simultaneous input of such data in the portable device 100 according to the present embodiment will be described.
[0086]
(1) Combination of coordinate command input and continuous force control:
In this case, the force applied by the user to the main body of the device 100 is mapped to an analog value in the interface control.
[0087]
For example, a map is displayed on the visual display 106, the location on the map is indicated using the touch panel 105 on the back of the device 100, and the physical interaction of the user is detected by the force sensor 101. The scale of the map is controlled according to this sensor output. If the amount of deflection applied to the device 100 is small, the map display on the visual display 106 is enlarged or reduced. If the device 100 is a rigid body and does not actually deform even when a force is applied, how much analog value is input to the device 100 main body is fed back to the user using the haptic display 109. Also good.
[0088]
(2) Combination of coordinate instruction input and force control exceeding threshold:
When the force applied to the main body of the device 100 by the user exceeds a predetermined threshold, a command for the system is issued, the interface state and the operation mode are switched, and other GUI operations are executed.
[0089]
For example, the user can browse the menu by moving the selector on the menu via the touch panel 105. What is necessary is just to perform the physical interaction which bends the apparatus 100 main body further, when a desired element is selected. Then, in response to the external force applied at this time reaching a predetermined threshold value, the corresponding menu command is executed. For example, the haptic display 109 may be used to notify the user that the force of the gesture performed by the user has reached a predetermined level and the physical interaction has been effectively performed.
[0090]
(3) Coordinate command input and gesture-based force control:
A pattern of force applied to the main body of the device 100 is recognized and handled as a specific command.
[0091]
For example, the user scans a desired position on the map displayed on the visual display 106 via the touch panel 105, and further flexes the device 100 body only twice in the vertical direction instantly. Switch the screen display.
[0092]
In such a case, for example, various gestures can be made by bending the main body of the device 100 in the same direction or in the opposite direction, bending at different times, or bending at a predetermined interval. Then, the user may be notified of the recognition of the physical interaction applied to the main body of the device 100 and the successful execution of the corresponding command using, for example, the haptic display 109.
[0093]
FIG. 9 shows a system operation using gesture input in the form of a flowchart. Such processing is actually realized by the processor unit 108 that activates a predetermined program code simultaneously and transparently handling the gesture input and the coordinate instruction input via the touch panel 105.
[0094]
First, the designated coordinate values (X, Y) via the touch panel 105 and the force F detected by the force sensor 101 or the gesture via the deflection sensor 102, the pressure sensor 103, and the rotation sensor 104 are input (step). S1).
[0095]
Here, when the user forms a gesture (for example, when the main body of the device 100 is deformed only twice) (step S2), after a haptic feedback is returned to the user via the haptic display 109 (step S2). S3), a predetermined action such as displaying a menu is executed (step S4). If the user does not make a gesture, reading of the input data is continued (step S5).
[0096]
When a coordinate instruction input is made via the touch panel 105, a GUI object corresponding to the support coordinates is searched (step S6).
[0097]
Next, it is determined whether the designated GUI object is a selectable object such as a menu item or a hyperlink (step S7).
[0098]
If the designated GUI object can be selected, whether the force F applied to the main body of the device 100 by the gesture input exceeds a predetermined threshold (or the degree of the gesture input exceeds a predetermined level). It is determined whether or not (step S8).
[0099]
If the force F exceeds a predetermined threshold, the input gesture is validated and haptic feedback is returned to the user via the haptic display 109 (step S9), and the selected menu is executed. A command based on the designated coordinates, such as searching for a hyperlink or the like, is issued (step S10). If the gesture input is not validated, for example, the force F does not reach a predetermined threshold value, the input data reading is continued (step S11).
[0100]
If it is determined in step S7 that a selectable GUI object is not designated, it is further determined whether or not the GUI object controls continuous values such as a scale, a hue, and a size ( Step S12).
[0101]
When the GUI object controls a continuous value, the force F (or other input gesture) applied to the main body of the device 100 is mapped to a change in control value such as zooming of the map display. (Step S13). And after returning a tactile feedback to a user via the tactile display 109 (step S14), reading of input data is continued (step S15).
[0102]
If the determination result in step S12 is negative, it is further determined whether or not the instructed GUI object has an additional information layer such as help, preview, or another view (step S16).
[0103]
If there is an additional information layer, it is determined whether continuous control by gesture input is possible (step S17). If continuous control by gesture input is possible, the force F (or other input gesture) applied to the main body of the device 100 is used as additional information such as zoom in / out and blending. Mapping to a layer (step S18). And after returning a tactile feedback to a user via the tactile display 109 (step S19), reading of input data is continued (step S20).
[0104]
On the other hand, if continuous control by gesture input is not possible, it is further determined whether or not the force F applied to the main body of the device 100 exceeds a predetermined threshold (or the degree of gesture input exceeds a predetermined level). (Step S21). If the force F exceeds a predetermined threshold, haptic feedback is returned to the user via the haptic display 109 (step S22), and additional information such as pop-up help is displayed (step S22). Step S23). If the gesture input is not validated because the force F does not reach a predetermined threshold value, the input data is continuously read (step S24).
[0105]
If it is determined in step S16 that the instructed GUI object does not have additional information, reading of input data is continued (step S25).
[0106]
As described above, the gesture input according to the present embodiment can be used for interaction in a handheld device that does not use a mouse, a touch screen, a keyboard, or the like. For example, the following uses can be mentioned.
[0107]
(1) Advanced remote control for display screen
(2) Advanced remote control for TV receiver (see Fig. 10)
(3) Viewing and managing PDA (Personal Digital Assistant) and other personal information
(4) Mobile phone
▲ 5 ▼ Electronic book
(6) Handheld game controller
[0108]
FIG. 10 shows a state in which the gesture input according to the present embodiment is applied to a remote controller for audio equipment such as a TV receiver. In the embodiment shown in the figure, the user applies a physical interaction in which the remote controller body is bent in each direction. At this time, the pattern of the amount of bending or the strength of the force applied to the body is changed. In the remote controller, such a gesture is decoded into device control data and commands and transferred to the device body.
[0109]
[Supplement]
The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiment without departing from the gist of the present invention. That is, the present invention has been disclosed in the form of exemplification, and the contents described in the present specification should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims section described at the beginning should be considered.
[0110]
【The invention's effect】
As described in detail above, according to the present invention, it is possible to provide an excellent portable information device capable of realizing a complicated input operation with a relatively simple user operation.
[0111]
Further, according to the present invention, it is possible to provide an excellent portable information device that includes a physical user interface that accepts a user's physical gesture and can simplify an input operation.
[0112]
Further, according to the present invention, it is possible to provide an excellent portable information device that can be used as an input to the device by transparently combining a plurality of gestures performed by the user.
[0113]
Furthermore, according to the present invention, it is possible to provide an excellent portable information device that can use physical interaction with a device as a general-purpose interface to the device.
[0114]
ADVANTAGE OF THE INVENTION According to this invention, the computer interface which can perform a coordinate instruction | indication and force transmission simultaneously can be provided. That is, since multi-dimensional user input can be performed simultaneously, operability is enhanced and interaction expressiveness is increased.
[0115]
Using such a combination of user inputs is particularly effective in handheld, portable, and portable computers, and brings rich interaction to users without using a mouse, touch panel, keyboard, etc. Can do. Further, since the interface according to the present invention does not interfere with the display screen, the display content of the screen is not obstructed in the interaction by the gesture.
[0116]
According to the interface according to the present invention, the user can realize the interaction related to the different orthogonality information only by a single gesture. Gesture-based interaction is intuitive, efficient, and fun.
[0117]
According to the interface of the present invention, two-dimensional coordinate instruction and force input can be simultaneously and transparently performed on a small handheld computer. For example, an interaction such as scrolling a city map and simultaneously changing the scale can be performed with a single gesture.
[Brief description of the drawings]
FIG. 1 is a diagram schematically showing a hardware configuration of a portable device 100 according to an embodiment of the present invention.
FIG. 2 is a diagram showing an example of an external configuration of a portable device 100. FIG.
FIG. 3 is a view showing a modification of the portable device 100 shown in FIG. 2;
4 is a diagram showing a modification of the portable device 100 shown in FIG.
FIG. 5 is a view showing a modification of the portable device 100 shown in FIG. 2;
6 is a diagram showing a modification of the portable device 100 shown in FIG. 2. FIG.
FIG. 7 is a diagram for explaining a mechanism for realizing gesture input using a pressure sensor 103;
FIG. 8 is a diagram for explaining a mechanism for realizing gesture input using the pressure sensor 103;
FIG. 9 is a flowchart showing a system operation using a gesture input.
FIG. 10 is a diagram showing an application example of gesture input.
[Explanation of symbols]
100: Portable information device
101: Force sensor, 102: Deflection sensor
103 ... Pressure sensor, 104 ... Rotation sensor
105 ... Touch panel
106: Visual display
107: Data acquisition unit
108: Processor unit
109 ... Haptic display
111 ... operation unit

Claims (11)

ユーザ入力に応答して動作する携帯情報機器であって、
機器本体と、
前記機器本体の正面の左右両端に配設された第1の圧力センサと、
前記機器本体の背面の左右両端に配設された第2の圧力センサと、
前記第1及び第2の圧力センサの出力の差分に基づいて、前記機器本体の左右両端を指で挟み込むように摘んだユーザが前記機器本体の表面をせり出すような上方向に撓ませる力又は該表面を凹ませるような下方向の力のいずれを印加しているかを検出して、ユーザが行なうジェスチャ入力の方向を判断するジェスチャ入力手段と、
ユーザからの前記ジェスチャ入力に応じた処理を実行する処理手段と、
を具備することを特徴とする携帯型情報機器。
A portable information device which operates in response to user input,
The device body,
A first pressure sensor disposed at both left and right ends of the front of the device body;
A second pressure sensor disposed on each of the left and right ends of the back of the device body;
Based on the difference between the outputs of the first and second pressure sensors, a user who picks up the left and right ends of the device main body with fingers and deflects the surface of the device main body upward or the A gesture input means for detecting which of the downward force to dent the surface is applied and determining the direction of the gesture input performed by the user;
Processing means for executing processing according to the gesture input from the user;
A portable information device comprising:
前記機器本体正面に配設されて、前記処理手段による処理結果を視覚的に表示する視覚的ディスプレイと、
前記機器本体背面に配設されて、ユーザの指先による操作に応じてディスプレイ・スクリーン上で方向入力を行なう方向入力手段と、
をさらに備えることを特徴とする請求項1に記載の携帯型情報機器。
A visual display disposed on the front surface of the device body for visually displaying a processing result by the processing means;
A direction input means disposed on the back of the device body for performing direction input on a display screen in accordance with an operation by a user's fingertip;
The portable information device according to claim 1, further comprising:
前記処理手段による処理結果を力覚的にユーザにフィードバックする力覚提示部をさらに備える、
ことを特徴とする請求項1に記載の携帯型情報機器。
A force sense presentation unit for forcefully feeding back a processing result by the processing means to the user;
The portable information device according to claim 1.
前記機器本体正面に配設されて、前記処理手段による処理結果を視覚的に表示する視覚的ディスプレイと、
ディスプレイ・スクリーン上での方向入力を行なう方向入力手段をさらに備え、
前記処理手段は、前記ジェスチャ入力手段を介したジェスチャ入力と前記方向入力手段を介した方向入力を同時処理する、
ことを特徴とする請求項1に記載の携帯型情報機器。
A visual display disposed on the front surface of the device body for visually displaying a processing result by the processing means;
A direction input means for inputting a direction on the display screen;
It said processing means processes the direction input through the direction input means and gesture input via the gesture input means simultaneously,
The portable information device according to claim 1.
前記処理手段は、前記方向入力手段を介して指定された前記ディスプレイ・スクリーン上のオブジェクトに対して、前記ジェスチャ入力手段を介した前記ジェスチャ入力に応じた処理を適用する、
ことを特徴とする請求項4に記載の携帯型情報機器。
The processing means applies a process according to the gesture input via the gesture input means to an object on the display screen designated via the direction input means.
The portable information device according to claim 4.
前記処理手段は、前記ジェスチャ入力手段が検出した連続的な検出出力をインターフェース・コントロールのためのアナログ値として取り扱う、
ことを特徴とする請求項1に記載の携帯型情報機器。
The processing means handles the continuous detection output detected by the gesture input means as an analog value for interface control.
The portable information device according to claim 1.
前記ジェスチャ入力手段を介してどれだけのアナログ値が入力されたかをユーザに力覚的にフィードバックする力覚的提示部をさらに備える、
ことを特徴とする請求項6に記載の携帯型情報機器。
A haptic presentation unit that happily feeds back to the user how many analog values have been input via the gesture input means;
The portable information device according to claim 6.
前記処理手段は、前記ジェスチャ入力手段による検出出力が所定の閾値を越えたことに応答してシステム・オペレーションを制御する、
ことを特徴とする請求項1に記載の携帯型情報機器。
The processing means controls a system operation in response to a detection output by the gesture input means exceeding a predetermined threshold value.
The portable information device according to claim 1.
前記ジェスチャ入力手段を介した前記ジェスチャ入力が有効に作用したことをユーザに力覚的に通知する力覚的提示部をさらに備える、
ことを特徴とする請求項8に記載の携帯型情報機器。
A haptic presentation unit that happily notifies the user that the gesture input via the gesture input means has effectively acted;
The portable information device according to claim 8.
前記処理手段は、前記ジェスチャ入力手段により検出された力のパターンを認識して特定のコマンドとして取り扱う、
ことを特徴とする請求項1に記載の携帯型情報機器。
The processing means recognizes the force pattern detected by the gesture input means and handles it as a specific command.
The portable information device according to claim 1.
前記ジェスチャ入力手段を介した前記ジェスチャ入力の認識並びに該当するコマンドの実行が成功したことをユーザに力覚的に通知する力覚的提示部をさらに備える、
ことを特徴とする請求項10に記載の携帯型情報機器。
A haptic presentation unit that happily notifies the user that the gesture input has been recognized and that the corresponding command has been successfully executed via the gesture input unit;
The portable information device according to claim 10.
JP2002174493A 2002-06-14 2002-06-14 Portable information equipment Expired - Fee Related JP4447823B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002174493A JP4447823B2 (en) 2002-06-14 2002-06-14 Portable information equipment
US10/456,186 US7456823B2 (en) 2002-06-14 2003-06-06 User interface apparatus and portable information apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002174493A JP4447823B2 (en) 2002-06-14 2002-06-14 Portable information equipment

Publications (2)

Publication Number Publication Date
JP2004021528A JP2004021528A (en) 2004-01-22
JP4447823B2 true JP4447823B2 (en) 2010-04-07

Family

ID=31173446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002174493A Expired - Fee Related JP4447823B2 (en) 2002-06-14 2002-06-14 Portable information equipment

Country Status (1)

Country Link
JP (1) JP4447823B2 (en)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023892A (en) * 2004-07-07 2006-01-26 Sony Computer Entertainment Inc Operation input device and terminal equipment using the same
JP2007293407A (en) * 2006-04-21 2007-11-08 E-Lead Electronic Co Ltd Shouldering type input device
KR101345343B1 (en) 2006-11-24 2013-12-27 삼성전자 주식회사 Method and apparatus for providing feedback corresponding to movement of a controlled object
JP4905287B2 (en) 2007-08-02 2012-03-28 ブラザー工業株式会社 Printer
JP2010086471A (en) 2008-10-02 2010-04-15 Sony Corp Operation feeling providing device, and operation feeling feedback method, and program
CN102246123A (en) * 2008-12-15 2011-11-16 皇家飞利浦电子股份有限公司 User interface device and method
TWI393935B (en) * 2009-01-08 2013-04-21 Prime View Int Co Ltd Touch-control structure for a flexible display device
KR20100138725A (en) * 2009-06-25 2010-12-31 삼성전자주식회사 Method and apparatus for processing virtual world
US8502651B2 (en) 2009-07-22 2013-08-06 Immersion Corporation Interactive touch screen gaming metaphors with haptic feedback
KR101753582B1 (en) * 2009-11-03 2017-07-06 엘지전자 주식회사 A portable terminal device
EP2315186B1 (en) 2009-10-26 2016-09-21 Lg Electronics Inc. Mobile terminal with flexible body for inputting a signal upon bending said body
JP5440136B2 (en) * 2009-12-04 2014-03-12 ソニー株式会社 Display device and display device control method
US8432368B2 (en) * 2010-01-06 2013-04-30 Qualcomm Incorporated User interface methods and systems for providing force-sensitive input
WO2012063069A1 (en) * 2010-11-10 2012-05-18 Jt Consultancy Limited A simulator including a controller
JP5835916B2 (en) * 2011-03-18 2015-12-24 京セラ株式会社 Portable electronic devices
JP5327256B2 (en) * 2011-03-30 2013-10-30 ブラザー工業株式会社 Input device and image display device
EP2696163B1 (en) * 2011-04-08 2018-05-23 Murata Manufacturing Co., Ltd. Displacement sensor, displacement detecting apparatus, and operation device
US9411423B2 (en) * 2012-02-08 2016-08-09 Immersion Corporation Method and apparatus for haptic flex gesturing
KR101454685B1 (en) * 2012-02-29 2014-10-27 주식회사 팬택 Apparatus, portable terminal and method for user interface using that get bent of the flexible display
JP5713943B2 (en) * 2012-03-19 2015-05-07 ヤフー株式会社 Information processing apparatus, information processing method, and program
KR101948665B1 (en) 2012-08-23 2019-02-18 삼성전자주식회사 Flexible apparatus and control method thereof
CN103853514A (en) * 2012-12-04 2014-06-11 联想(北京)有限公司 Information processing method and electronic equipment
US9524030B2 (en) * 2013-04-26 2016-12-20 Immersion Corporation Haptic feedback for interactions with foldable-bendable displays
CN105144035B (en) 2013-04-26 2019-03-22 意美森公司 Utilize the simulation Tangible User Interfaces interaction of haptic unit array and gesture
KR102305508B1 (en) * 2015-02-25 2021-09-28 삼성디스플레이 주식회사 Foldable display apparatus
WO2016138085A1 (en) * 2015-02-25 2016-09-01 Immersion Corporation Systems and methods for user interaction with a curved display
JP2020067701A (en) 2018-10-22 2020-04-30 ソニー株式会社 Tactile sensation presentation device and tactile sensation presentation method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08123760A (en) * 1994-10-26 1996-05-17 Matsushita Electric Ind Co Ltd Portable electronic equipment
JP2717067B2 (en) * 1995-01-20 1998-02-18 松下電器産業株式会社 Information processing device
US6160540A (en) * 1998-01-12 2000-12-12 Xerox Company Zoomorphic computer user interface

Also Published As

Publication number Publication date
JP2004021528A (en) 2004-01-22

Similar Documents

Publication Publication Date Title
JP4447823B2 (en) Portable information equipment
US7456823B2 (en) User interface apparatus and portable information apparatus
US8604364B2 (en) Sensors, algorithms and applications for a high dimensional touchpad
US8941600B2 (en) Apparatus for providing touch feedback for user input to a touch sensitive surface
US9152185B2 (en) Dorsal touch input
US5917476A (en) Cursor feedback text input method
Hinckley et al. Sensor synaesthesia: touch in motion, and motion in touch
US6400376B1 (en) Display control for hand-held data processing device
JP5198874B2 (en) Computer mouse peripherals
EP2433275B1 (en) Hand-held device with ancillary touch activated zoom or transformation of active element, method of operation and computer readable medium
US7091954B2 (en) Computer keyboard and cursor control system and method with keyboard map switching
TWI382739B (en) Method for providing a scrolling movement of information,computer program product,electronic device and scrolling multi-function key module
US9086741B2 (en) User input device
US20110216015A1 (en) Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions
EP1942399A1 (en) Multi-event input system
US20060119588A1 (en) Apparatus and method of processing information input using a touchpad
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
JPH0778120A (en) Hand-held arithmetic unit and processing method of input signal in hand-held arithmetic unit
US20120127070A1 (en) Control signal input device and method using posture recognition
Holman et al. Unifone: Designing for auxiliary finger input in one-handed mobile interactions
EP2282256A1 (en) Electronic device and method for controlling an electronic device
WO2008131544A1 (en) Pressure augmented mouse
JP4135487B2 (en) User interface device and portable information device
US20100127969A1 (en) Non-Contact Input Electronic Device and Method Thereof
JPH09160713A (en) Signal conversion device, signal input device and force-electricity transducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061030

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070207

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070308

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140129

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees