[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2010277197A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2010277197A
JP2010277197A JP2009126949A JP2009126949A JP2010277197A JP 2010277197 A JP2010277197 A JP 2010277197A JP 2009126949 A JP2009126949 A JP 2009126949A JP 2009126949 A JP2009126949 A JP 2009126949A JP 2010277197 A JP2010277197 A JP 2010277197A
Authority
JP
Japan
Prior art keywords
operating tool
display panel
information processing
proximity
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009126949A
Other languages
English (en)
Inventor
Reiko Miyazaki
麗子 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009126949A priority Critical patent/JP2010277197A/ja
Priority to RU2011147125/08A priority patent/RU2011147125A/ru
Priority to US13/320,992 priority patent/US9690475B2/en
Priority to PCT/JP2010/055682 priority patent/WO2010137400A1/ja
Priority to BRPI1012863A priority patent/BRPI1012863A2/pt
Priority to KR1020117025355A priority patent/KR20120026043A/ko
Priority to CN201080021934.3A priority patent/CN102428437B/zh
Priority to EP10780357.9A priority patent/EP2437147B1/en
Priority to TW099110420A priority patent/TW201101126A/zh
Publication of JP2010277197A publication Critical patent/JP2010277197A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Numerical Control (AREA)

Abstract

【課題】ユーザに対する表示パネルの向きに依存しない操作を可能にする、情報処理装置、情報処理方法およびプログラムを提供する。
【解決手段】表示パネル101に接触する操作体Mの指示方向を検出する操作体検出部109と、検出された操作体の指示方向に基づいて、操作体により入力される操作の方向を特定する操作特定部107と、を備える。これにより、操作体の指示方向に基づいて操作の方向が特定されるので、操作者に対する表示パネルの向きに依存しない操作が可能になる。
【選択図】図1

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
従来、指、手、スタイラス等の操作体の動作を各種センサにより検出し、ユーザとインタラクションを行う情報処理装置が知られている。情報処理装置は、例えば、センサに対する操作体の接触・近接状態、センサに捉えられる操作体の遠隔動作等を検出し、ユーザにより入力される操作を特定する。
特に、タッチパネル式インタフェースを用いる情報処理装置は、表示パネルに対する操作体の接触状態に基づいて、ユーザにより入力される操作を特定している。ここで、ユーザは、表示パネル上でグラフィカルユーザインタフェース(GUI)の表示方向を認識した上で、その方向に対応するように操作を行っている。
例えば、GUI表示の上下方向にスライダのオブジェクトが表示されている場合、ユーザは、スライダのツマミを選択し、GUI表示の方向を認識した上で、GUI表示の上下方向に対応するようにドラッグ操作する。
ここで、ユーザに対する表示パネルの向きとGUI表示の向きが一致していない場合(例えば、表示パネルの上部がユーザに対して左側となるように配置されている場合)、ユーザは、GUI表示の方向に対応する操作を直感的に入力できない場合がある。
この場合、ユーザは、GUI表示の上下方向に対応するように、表示パネルに対して左右方向にドラッグ操作することとなる。また、ユーザは、表示パネルの向きを変更した後、GUI表示の上下方向に対応するように、表示パネルに対して上下方向にドラッグ操作することになる。
いずれにしても、ユーザは、GUI表示の方向、換言すればユーザに対する表示パネルの向きに依存した操作を強いられるので、必ずしも良好な操作環境を享受できているといえない。
近年では、特に、オブジェクトを介してコンテンツを間接的に操作する代わりに、コンテンツ自体を直接的に操作する(表示パネル上の位置を特定せずに操作する。)ことが行われている。このため、ユーザに対する表示パネルの向きに依存しない操作を可能にすれば、直感的な操作が可能となり、操作環境の向上を図ることができる。
そこで、本発明は、ユーザに対する表示パネルの向きに依存しない操作を可能にする、情報処理装置、情報処理方法およびプログラムを提供しようとするものである。
本発明の第1の観点によれば、表示パネルに接触する操作体の指示方向を検出する操作体検出部と、検出された操作体の指示方向に基づいて、操作体により入力される操作の方向を特定する操作特定部と、を備える情報処理装置が提供される。ここで、上記操作体検出部は、操作体の先端部の向きに基づいて、操作体の指示方向を決定してもよい。これにより、操作体の指示方向に基づいて操作の方向が特定されるので、操作者に対する表示パネルの向きに依存しない操作が可能になる。
上記操作体検出部は、表示パネルに接触して移動する操作体の指示方向および移動方向を検出し、操作特定部は、検出された操作体の指示方向および移動方向に基づいて、操作体により入力される操作の方向を特定してもよい。ここで、上記操作特定部は、検出された操作体の指示方向と移動方向により定義される角度に基づいて、操作体により入力される操作の方向を特定してもよい。これにより、操作体の指示方向および移動方向から特定された操作の方向に基づいて、操作者に対する表示パネルの向きに依存しないドラッグ操作が可能になる。
上記情報処理装置は、表示パネルの表示を制御する表示制御部をさらに備え、上記操作特定部は、検出された操作体の指示方向に基づいて、表示パネルの表示を回転させる操作の方向を特定し、表示制御部は、特定された操作の方向に応じて表示パネルの表示を回転させてもよい。これにより、操作体の指示方向から特定された操作の方向に基づいて回転する表示パネルの表示に基づいて、操作者に対する表示パネルの向きに依存しない操作が可能になる。
上記操作体検出部は、操作体の指示方向を連続して検出し、連続して検出された操作体の指示方向が所定の閾値内にある場合に、連続して検出された操作体の指示方向に基づいて、操作体の指示方向を決定してもよい。これにより、操作体の指示方向の検出精度を高めることができる。
また、本発明の第2の観点によれば、表示パネルに接触する操作体の指示方向を検出するステップと、検出された操作体の指示方向に基づいて、操作体により入力される操作の方向を特定するステップと、を含む情報処理方法が提供される。
また、本発明の第3の観点によれば、本発明の第2の観点による情報処理方法をコンピュータに実行させるためのプログラムが提供される。
本発明によれば、ユーザに対する表示パネルの向きに依存しない操作を可能にする、情報処理装置、情報処理方法およびプログラムを提供することができる。
本発明の一実施形態に係る情報処理装置の概要を示す図である。 本発明の一実施形態に係る情報処理装置の機能構成例を示すブロック図である。 表示パネル上の操作体の状態を示す図である。 図3Aに示す状態において、センサ画像上で特定された領域を示す図である。 表示パネル上の操作体の状態を示す図である。 図4Aに示す状態において、センサ画像上で特定された領域を示す図である。 図3AのA−A線上の輝度値の分布を示す図である。 図3AのB−B線上の輝度値の分布を示す図である。 操作方向の特定処理を示すフロー図である。 操作方向の特定処理を示す模式図である。 操作方向の特定処理を示す模式図である。 操作方向の特定処理を示す模式図である。 操作方向の特定処理を示す模式図である。 操作方向の特定処理を示す模式図である。 表示方向の回転処理を示すフロー図である。 表示方向の回転処理を示す模式図である。 表示方向の回転処理を示す模式図である。 近接ジェスチャに基づく操作の特定処理を示すフロー図である。 近接ジェスチャに基づく操作の特定処理(静止ジェスチャ)を示す模式図である。 近接ジェスチャに基づく操作の特定処理(反復移動ジェスチャ)を示す模式図である。 近接ジェスチャに基づく操作の特定処理(移動ジェスチャ)を示す模式図である。 接触ジェスチャに基づく操作の特定処理を示すフロー図である。 接触ジェスチャに基づく操作の特定処理(ポイントジェスチャ)を示す模式図である。 接触ジェスチャに基づく操作の特定処理(プッシュジェスチャ)を示す模式図である。 接触ジェスチャに基づく操作の特定処理(カバージェスチャ)を示す模式図である。 接触・近接状態に基づく操作の特定処理を示すフロー図である。 近接検出モードの制御処理を示すフロー図である。 近接検出モードの制御処理を示す模式図である。 近接検出モードの制御処理を示す模式図である。 近接・遠隔検出モードの制御処理を示すフロー図である。 近接・遠隔検出モードの制御処理を示す模式図である。 近接・遠隔検出モードの制御処理を示す模式図である。 接触検出モードの制御処理を示すフロー図である。 接触検出モードの制御処理を示す模式図である。 接触検出モードの制御処理を示す模式図である。 アプリケーションの起動制御処理を示すフロー図である。 アプリケーションの起動制御処理を示す模式図である。 アプリケーションの起動制御処理を示す模式図である。 アプリケーションの起動制御処理を示す模式図である。 情報処理装置のハードウェア構成例を示すブロック図である。
以下に、添付した図面を参照しながら、本発明の好適な実施形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[1.情報処理装置100の概要]
図1は、本発明の一実施形態に係る情報処理装置100の概要を示す図である。本発明の一実施形態に係る情報処理装置100は、指、手、スタイラス等の操作体Mの表示パネル101に対する接触状態を少なくとも検出する。なお、以下では、情報処理装置100が表示パネル101を内蔵する場合について説明するが、情報処理装置100は、通信手段を介して表示パネル101に接続されてもよい。
情報処理装置100は、表示パネル101に接触する操作体Mの指示方向を検出し、検出された操作体Mの指示方向に基づいて、操作体Mにより入力される操作の方向を特定する。ここで、情報処理装置100は、例えば、指の先端等、操作体Mの先端部の向きに基づいて、操作体Mの指示方向を検出する。これにより、操作体Mの指示方向に基づいて操作の方向が特定されるので、ユーザに対する表示パネル101の向きに依存しない操作が可能になる。
特に、情報処理装置100は、表示パネル101に接触して移動する操作体Mの指示方向および移動方向を検出し、検出された操作体Mの指示方向および移動方向に基づいて、操作体Mにより入力される操作の方向を特定する。これにより、表示パネル101の向きが横向きまたは縦向きにかかわらず、が操作体Mの指示方向および移動方向から特定された操作の方向に基づいて、ユーザに対する表示パネル101の向きに依存しないドラッグ操作が可能になる。
[2.情報処理装置100の機能構成]
図2は、本発明の一実施形態に係る情報処理装置100の機能構成例を示すブロック図である。情報処理装置100は、表示パネル101、遠隔センサ107、操作体検出部109、状態検出部111、記憶部113、表示制御部115、制御部117を含んで構成される。
表示パネル101は、接触近接センサ103および表示部105として機能する。接触近接センサ103は、操作体Mの接触・近接状態を捉える。接触近接センサ103は、光学式、静電容量式等のセンサであるが、以下では、表示パネル101の受光状態に基づいて、操作体Mの接触・近接状態を捉える場合を想定する。表示部105は、表示制御部115の制御下で、オブジェクト、コンテンツ、アプリケーションの処理結果等を表示する。なお、オブジェクトとは、例えば、アイコン、ボタン、サムネイル等、GUIを構成する任意のオブジェクトである。
遠隔センサ107は、ステレオカメラ等からなり、所定のジェスチャ等、操作体Mの遠隔動作を撮像して捉える。
操作体検出部109は、接触近接センサ103および遠隔センサ107を用いて操作体Mの状態を検出する。操作体検出部109は、操作体Mの接触・近接・移動状態、遠隔動作を検出する。操作体検出部109は、特に操作体Mの指示方向、所定のジェスチャ等を検出する。操作体検出部109は、表示パネル101に対する操作体Mの指示方向を検出し、特に、表示パネル101に接触して移動する操作体Mの指示方向および移動方向を検出する。なお、接触時とともに近接時にも操作体Mの指示方向を検出してもよい。
操作体検出部109は、表示パネル101の受光状態に基づいて、表示パネル101に対する操作体Mの接触・近接の有無、操作体Mの接触・近接面積、操作体Mの指示方向、接触・近接ジェスチャを検出する。なお、接触近接センサ103による操作体Mの検出方法の詳細については後述する。操作体検出部109は、遠隔センサ107の撮像結果に基づいて、遠隔ジェスチャを検出する。操作体検出部109は、操作体Mの接触・近接・遠隔動作を、予め登録されたジェスチャ情報と照合することで、所定のジェスチャを検出する。
状態検出部111は、加速度センサ、ジャイロセンサ等を含み、自装置の静止状態、向きを検出する。表示制御部115は、表示部105によるオブジェクト、コンテンツ、アプリケーションの処理結果等の表示を制御する。
記憶部113は、情報処理プログラム、アプリケーションプログラム、オブジェクトのデータ、ジェスチャ情報等を記憶している。制御部117は、情報処理プログラムの実行により各部を制御し、情報処理装置100全体の動作を制御する。
制御部117は、操作体Mの指示方向に基づいて、操作体Mにより入力される操作の方向を特定する操作特定部として機能する。ここで、制御部117は、特に、検出された操作体Mの指示方向および移動方向に基づいて、操作体Mにより入力される操作の方向を特定する。
また、制御部117は、自装置の静止状態または向きに応じて、操作体Mによる自装置に対する操作を検出するモードを制御するモード制御部として機能する。
[3.操作体Mの検出方法]
表示パネル101には、RGB画素および受光センサがマトリクス状に配置されている。受光センサは、表示パネル101から放射されて操作体Mで反射された光を受光し、受光状態に基づいて、操作体Mの接触・近接状態を捉えることで、接触近接センサ103として機能する。そして、操作体検出部109は、接触近接センサ103の出力結果をデジタル処理することで、センサ画像Sを生成する。
操作体検出部109は、センサ画像Sに基づいて各画素に対応する受光状態を表す輝度値を算出し、所定の2つの閾値Th1、Th2を用いて輝度値を3値化処理する。3値化処理では、各画素の輝度値が第1、第2、第3のカテゴリに分類され、センサ画像Sの領域が各カテゴリに対応する第1、第2、第3の領域A1、A2、A3に区分される。第1、第2、第3の領域A1、A2、A3は、輝度大、輝度中、輝度小の領域に対応しており、操作体Mの接触領域、近接領域、非接触・非近接領域として各々に特定される。
操作体検出部109は、第1の領域A1の存在に基づいて、表示パネル101に対する操作体Mの接触を検出し、第2の領域A2の存在に基づいて、表示パネル101に対する操作体Mの近接を検出する。また、操作体検出部109は、第1および第2の領域A1、A2の面積を算出することで、操作体Mの接触面積および近接面積を各々に検出する。
特に、操作体検出部109は、第1および第2の領域A1、A2の重心位置G1、G2を算出し、算出された重心位置G1、G2同士を結ぶ直線(重心線)の方向を算出し、第1の領域A1の重心位置G1および重心線に基づいて、操作体Mの指示方向を検出する。操作体Mの指示方向は、第1の領域A1の重心位置G1を重心線に沿って指示する方向として定義される。
以下では、図3〜図5を参照しながら、操作体Mの指示方向の検出方法について説明する。図3および図4は、表示パネル101上の操作体Mの状態(図3A、図4A)、およびセンサ画像S1、S2上で特定された第1および第2の領域(図3B、図4B)を示す図である。図5は、図3Bのセンサ画像S1上の輝度値の分布を示す図であり、図5Aおよび図5BがA−A線上およびB−B線上の輝度値の分布を各々に示している。
図3および図4には、表示パネル101上で操作体Mの指示方向を変更する場合が示されている。この場合、通常、操作体Mの先端部(指先)が表示パネル101に接触し、先端部以外の部分(指の腹)が表示パネル101に近接する。
図3に示す状態では、操作体Mは、GUI表示の上方向を指示している(図3A参照)。この場合、操作体検出部109は、センサ画像S1上の輝度値の分布に基づいて、GUI表示の上方向として操作体Mの指示方向を検出する(図3B参照)。例えば、図5に示す例では、A−A線上で検出された第1および第2の領域A1、A2により、操作体Mの接触および近接が検出され(図5A参照)、B−B線上で検出された第2の領域A2により、操作体Mの近接が検出される(図5B参照)。
図4に示す状態では、操作体Mは、GUI表示の左上方向を指示している(図4A参照)。この場合、操作体検出部109は、センサ画像S2上の輝度値の分布に基づいて、GUI表示の左上方向として操作体Mの指示方向を検出する(図4B参照)。
[4−1.操作方向の特定処理]
以下では、表示パネル101に接触して移動する操作体Mの指示方向および移動方向に基づいて、操作体Mにより入力される操作の方向を特定する処理について説明する。
図8は、操作方向の特定処理を示すフロー図であり、図7および図8は、操作方向の特定処理を示す模式図である。
操作体検出部109は、操作体Mの接触を検知すると(ステップS101)、前述した操作体Mの検出方法に基づいて、操作体Mの指示方向を検出する(S103)。ここで、操作体Mの指示方向は、操作体Mが移動している状態、移動していない状態のいずれで検出されてもよい。
操作体Mの指示方向は、図7Aに示すように、例えば表示パネル101上で仮想的に設定される座標系に基づいて角度θ1として定義される。座標系は、表示パネル101の向きに依存せずに設定可能であるが、以下では表示パネル101の上下方向および左右方向に対応して通常の直交座標系が設定される場合を想定する。この場合、角度θは、直交座標系の第1象限から第4象限に至る反時計回りに定義される。
操作体検出部109は、所定フレーム数に亘って角度θ1を連続して検出したかを判定する(S105)。各検出値は、例えば不図示のバッファ等に保存される。そして、操作体検出部109は、検出結果の変動が所定の閾値θt未満であれば(S107)、検出結果の中間値等として角度θ1を決定する(S109)。
操作体検出部109は、角度θ1を決定した後に、操作体Mの移動開始点と移動終了点を検出し(S111)、操作体Mの移動方向を決定する(S113)。操作体Mの移動方向は、図7Bに示すように、操作体Mの移動開始点と移動終了点を結ぶ移動ベクトルVに基づいて、角度θ1と同一の座標系に基づいて角度θ2として定義される。
以下では、説明の便宜上、操作体Mが一直線上で移動する場合を想定する。この場合、移動開始点は、操作体Mの接触を検出していない状態で、操作体Mの接触が最初に検出された点として定義される。同様に、移動終了点は、接触を伴う操作体Mの移動を検出している状態で、操作体Mの非接触が最初に検出された点として定義される。なお、操作体Mが屈曲移動する場合、移動方向の変化点に基づいて、屈曲移動毎に移動開始点および移動終了点を定義できる。
制御部117は、操作体Mの指示方向および移動方向を表す角度θ1、θ2の差分Δθ(=θ1−θ2)を決定する(S115)。制御部117は、差分Δθに基づいて、操作体Mにより入力される操作の方向を特定する(S117、S119、S121)。操作方向は、図7Cに示すように、角度θ1と角度θ2の差分Δθに基づいて特定される。
操作方向は、例えば、−45°≦Δθ<45°である場合に上方向として特定され(S123)、45°≦Δθ<135°である場合に左方向として特定される(S125)。同様に、操作方向は、135°≦Δθ<180°または−180°≦Δθ<−135°である場合に下方向として特定され(S127)、−135°≦Δθ<−45°である場合に右方向として特定される(S129)。
なお、操作方向の特定精度を高めるために、角度範囲は、例えば−30°≦Δθ<30°の場合に上方向の操作方向として特定するようにしてもよい。また、ユーザの利き手に応じて、角度範囲を調整してもよい。
図8には、操作方向の特定処理の一例として、GUI表示の上下方向に表示されているスライダOのツマミTを選択し、上方向に操作する場合が示されている。
図8Aに示すように、ユーザに対する表示パネル101の向きとGUI表示の向きが一致している場合(例えば、表示パネル101の上部がユーザに対して上側となるように配置されている場合)、ユーザは、GUI表示の上方向に対応するように、表示パネル101に対して上方向にツマミTをドラッグ操作する。ここで、ドラッグ操作は、ツマミTを対象として行われてもよく、ツマミTが選択された状態で、オブジェクトが表示されていない領域等で行われてもよい。
例えば、操作体Mの指示方向および移動方向が角度θ1=135°、角度θ2=120°として検出されると、差分Δθ=15°となり、図7Cに示したように、上方向の操作が特定される。これにより、ユーザは、スライダOを上方向に操作できる。
一方、図8Bに示すように、ユーザに対する表示パネル101の向きとGUI表示の向きが一致していない場合(例えば、表示パネル101の上部がユーザに対して左側となるように配置されている場合)、ユーザは、GUI表示の右方向に対応するように、表示パネル101に対して上方向にドラッグ操作する。
例えば、操作体Mの指示方向および移動方向が角度θ1=45°、角度θ2=20°として検出されると、差分Δθ=25°となり、図7Cに示したように、上方向の操作が特定される。これにより、ユーザは、ユーザに対する表示パネル101の向きとGUI表示の向きが一致していない場合(図8B)でも、両方の向きが一致している場合(図8A)と同様に、表示パネル101に対して上方向にドラッグ操作することで、スライダOを上方向に操作できる。
よって、ユーザは、GUI表示の方向を認識した上で、GUI表示の方向に対応するようにドラッグ操作したり、表示パネル101の向きを変更した後にドラッグ操作したりせずにすむ。このため、GUI表示の方向、換言すれば表示パネル101の向きに依存しない操作が可能になり、操作環境の向上を図ることができる。
例えば、上/下方向の操作により音量を大きく/小さく調節する場合、左/右方向の操作により再生時点を前/後に調節する場合、上/下/左/右方向の操作に対応して表示パネル101の表示をスクロールさせる場合には、表示パネル101の向きに依存しない直感的な操作が可能となる。特に、オブジェクトを指定せずにコンテンツ自体を直接的に操作する場合(表示パネル101上で位置を特定せずにドラッグ操作する場合)に、操作性を向上させることができる。
[4−2.表示方向の回転処理]
以下では、操作体Mの指示方向に基づいて、表示パネル101のGUI表示を回転させる操作の方向を特定する処理について説明する。
図9および図10は、表示方向の回転処理を示すフロー図および模式図である。図10には、表示方向を下方向に回転する場合(図10A)および左方向に回転する場合(図10B)が示されている。
操作体検出部109は、操作体Mの接触を検知すると(S201)、前述した操作体Mの検出方法に基づいて、操作体Mの指示方向を検出する(S203)。ここで、操作体Mの指示方向は、操作体Mが移動している状態、移動していない状態のいずれで検出されてもよい。
操作体Mの指示方向は、図10A、10Bに示すように、例えば表示パネル101上で仮想的に設定される座標系に基づいて角度θ1として定義される。以下では、表示パネル101の上下方向および左右方向に対応して通常の直交座標系が設定される場合を想定する。この場合、角度θ1は、直交座標系上で第1象限から第4象限に至る反時計回りに定義される。
操作体検出部109は、所定フレーム数に亘って角度θ1を連続して検出しているかを判定する(S205)。そして、操作体検出部109は、検出結果の変動が所定の閾値θt未満であれば(S207)、検出結果の中間値等として角度θ1を決定する(S209)。
制御部117は、操作体Mの指示方向を表す角度θ1に基づいて、表示パネル101のGUI表示を回転させる操作の方向を特定する(S211、S213、S215)。表示方向は、例えば、45°≦θ1<135°である場合に下方向として特定され(S217)、135°≦θ1<225°である場合に右方向として特定される(S219)。同様に、表示方向は、225°≦θ1<315°である場合に上方向として特定され(S221)、0°≦θ1<45°または315°≦θ1<360°である場合に左方向として特定される(S223)。
なお、操作方向の特定精度を高めるために、角度範囲は、例えば30°≦Δθ<120°の場合に下方向として特定するようにしてもよい。また、ユーザの利き手に応じて、角度範囲を調整してもよい。
ここで、GUI表示の回転後の方向は、通常使用時(正位置)の表示パネル101に対して、GUI表示の上側が表示される向きとして定義される。つまり、表示方向が下方向とは、正位置の表示パネル101の下部にGUI表示の上側が表示されることを意味し、表示方向が左方向とは、正位置の表示パネル101の左部にGUI表示の上側が表示されることを意味する。
表示制御部115は、表示方向が特定されると、表示方向の変更が必要な場合(S225)には、特定された操作の方向に応じて表示パネル101のGUI表示を回転するように、表示部105を制御する(S227)。なお、指示方向が再び変化すると、変更後の指示方向に応じて表示方向が変更される。
これにより、操作体Mの指示方向に基づいて、表示パネル101のGUI表示の方向を回転させることで、GUI表示の方向、換言すれば表示パネル101の向きに依存しない操作が可能になり、操作環境の向上を図ることができる。
[4−3.近接ジェスチャに基づく操作の特定処理]
以下では、表示パネル101上での操作体Mによる近接ジェスチャに基づいて、操作体Mにより入力される操作を特定する処理について説明する。
図11および図12は、近接ジェスチャに基づく操作の特定処理を示すフロー図および模式図である。図12には、近接ジェスチャの一例として、操作体Mの静止ジェスチャ(図12A)、操作体Mの反復移動ジェスチャ(図12B)、操作体Mの移動ジェスチャ(図12C)が示されている。
例えば、操作体Mの静止ジェスチャは、表示パネル101上で手を静止させる動作として検出される。操作体Mの反復移動ジェスチャは、表示パネル101上で手を水平方向(および/または垂直方向)で反復移動させる動作として検出される。操作体Mの移動ジェスチャは、表示パネル101上で手を水平方向(および/または垂直方向)で移動させる動作として検出される。
以下では、操作体Mの静止ジェスチャ、反復移動ジェスチャ、および移動ジェスチャに対応する3つの操作を特定する場合について説明するが、他の近接ジェスチャに基づいて、4以上の操作を特定してもよい。なお、各近接ジェスチャには、予めジェスチャ情報および特定の操作が対応付けられているものとする。
操作体検出部109は、操作体Mの近接を検知すると(S301)、所定期間(例えば500ms)に亘って操作体Mの近接の有無を連続して検出しているかを判定する(S303)。操作体検出部109は、操作体Mの近接を連続して検出していれば、移動状態の検出を開始し(S305)、検出していなければ、操作体Mの近接を継続して検知する。
操作体Mの移動状態は、接触近接センサ103の検出範囲内で、表示パネル101に対する操作体Mの水平移動および/または垂直移動として検出される。操作体Mの移動状態は、例えば、操作体Mの移動量・速度・加速度等として検出されるが、以下では、操作体Mの移動速度vを検出する場合を想定する。
操作体検出部109は、所定フレーム数に亘って操作体Mの移動速度vを連続して検出しているかを判定する(S307)。
制御部117は、操作体Mの移動速度vの絶対値が所定の閾値vt未満であるかを判定する(S313)。そして、制御部117は、判定結果が肯定的であれば、静止ジェスチャに対応する操作を特定する(S315)。一方、制御部117は、移動速度vが閾値vt以上であり、かつ、移動速度vの変化に一定の反復性が認められれば(S317で“Yes”の場合)、反復移動ジェスチャに対応する操作を特定する(S319)。また、制御部117は、移動速度vが閾値vt以上であり、かつ、移動速度vの変化に一定の反復性が認められなければ(S317で“No”
の場合)、移動ジェスチャに対応する操作を特定する(S321)。
ここで、操作体検出部109は、操作体Mの移動速度vとともに、近接面積Aaを検出してもよい(S309)。そして、制御部117は、近接面積Aaが所定の閾値Aat(例えば、表示パネル101の面積の70%)を満たす場合にのみ(S311)、移動速度vに基づいて操作を特定することで、近接ジェスチャに基づく操作を正確に特定できる。なお、近接面積Aaは、移動速度vと閾値Vtとの比較判定(S313、S317)後に判定されてもよい。
これにより、表示パネル101上での操作体Mの近接ジェスチャに基づいて、様々な操作の入力が可能となる。よって、ユーザは、表示パネル101上のオブジェクト(または情報処理装置100の操作子)に操作体Mを接触させずに、操作体Mにより所望の操作を素早く入力できる。また、静止ジェスチャを消音操作に対応付け、反復移動ジェスチャを再生順序のシャッフル操作に対応付け、移動ジェスチャを再生順序の送り操作に対応付ける等、各近接ジェスチャに任意の意味づけをすることで、ユーザは、直感的な操作を行うことができる。
[4−4.接触ジェスチャに基づく操作の特定処理]
以下では、表示パネル101上での操作体Mによる接触ジェスチャに基づいて、操作体Mにより入力される操作を特定する処理について説明する。
図13および図14は、接触ジェスチャに基づく操作の特定処理を示すフロー図および模式図である。図14には、接触ジェスチャの一例として、オブジェクトを指定したポイントジェスチャ(図14A)、オブジェクトを指定したプッシュジェスチャ(図14B)、オブジェクトを指定しないカバージェスチャ(図14C)が示されている。
例えば、ポイントジェスチャは、オブジェクトに指先を接触させる動作であり、プッシュジェスチャは、オブジェクトに指の腹を接触させる動作である。また、カバージェスチャは、例えば、表示パネル101を複数の指で覆う動作である。ここで、各接触ジェスチャは、表示パネル101に対する操作体Mの接触面積(および/または接触形状)に基づいて検出される。
以下では、ポイントジェスチャ、プッシュジェスチャ、カバージェスチャに対応する3つの操作を特定する場合について説明するが、他の接触ジェスチャに基づいて、4以上の操作を特定してもよい。なお、各接触ジェスチャには、予めジェスチャ情報および特定の操作が対応付けられているものとする。
操作体検出部109は、操作体Mの接触を検出すると(S401)、操作体Mの接触位置Pおよび接触面積Atを検出する(S403)。
制御部117は、操作体Mの接触位置Pが特定のオブジェクトの領域内であるかを判定する(S405)。接触位置Pとオブジェクト領域との関係は、記憶部113に記憶されているオブジェクトの位置に基づいて判定される。また、接触位置Pが複数のオブジェクトの領域内にある場合、オブジェクトを指定しないジェスチャが検出される。
そして、判定結果が肯定的である場合に、制御部117は、接触面積Atを所定の閾値Att1と比較する(S407)。そして、制御部117は、接触面積Atが閾値Att1未満であれば、ポイントジェスチャに対応する操作を特定し(S409)、閾値Att1以上であれば、プッシュジェスチャに対応する操作を特定する(S411)。
一方、ステップS405の判定結果が否定的である場合に、制御部117は、接触面積Atを所定の閾値Att2(Att1<Att2)と比較する(S413)。そして、制御部117は、接触面積Aが閾値Att2以上であれば、カバージェスチャに対応する操作を特定する(S415)。
ここで、接触面積Atは、接触位置Pとオブジェクト領域との比較判定(S405)後に判定されてもよい。また、操作体検出部109は、接触面積Atとともに、接触領域の形状、操作体Mの近接状態等を検出してもよい。そして、制御部117は、接触領域の形状、操作体Mの近接状態に基づいて、指先、指の腹等の接触が検知された場合にのみ、接触面積Atに基づいて操作を特定することで、接触ジェスチャに基づく操作を正確に特定できる。
これにより、表示パネル101上での操作体Mによる接触ジェスチャに基づいて、様々な操作の入力が可能となる。特に、指先によるジェスチャに局所的な操作を対応付け、手の平によるジェスチャに大局的な操作を対応付ける等、各接触ジェスチャに任意の意味づけをすることで、ユーザは、直感的な操作を行うことができる。
[4−5.接触・近接状態に基づく操作の特定処理]
以下では、表示パネル101上での操作体Mの接触・近接状態に基づいて、操作体Mにより入力される操作を特定する処理について説明する。
図15は、接触・近接状態に基づく操作の特定処理を示すフロー図である。
特定処理の開始に際して、操作体検出部109は、表示パネル101に対する操作体Mの接触の有無を検知し、接触を検知すると(S501)、操作体Mの接触位置Pおよび接触面積Atを検出する(S503)。
制御部117は、接触面積Atが閾値Att未満であるかを判定する(S505)。判定結果が否定的である場合に、制御部117は、接触シェード操作(カバージェスチャに対応する操作)を特定する(S513)。一方、判定結果が肯定的である場合に、制御部117は、入力起点と接触位置Pの差が閾値Mt以上であるかを判定し(S507)、判定結果が肯定的である場合に、ドラッグ操作を特定する(S509)。ここで、ドラッグ操作が特定されると、前述した操作方向の特定処理が行われる(S511)。一方、判定結果が否定的である場合に、処理が再開される。
処理の開始に際して、操作体検出部109は、表示パネル101に対する操作体Mの近接の有無を検知する(S515)。近接を検知すると、操作体検出部109は、所定時間に亘って操作体Mの近接を連続して検出していれば(S517で“Yes”)、操作体Mの移動速度vおよび近接面積Aaの検出を開始し(S519)、連続検出していなければ(S517で“No”)、処理が再開される。次に、制御部117は、近接面積Aaが閾値Aat以上であるかを判定し(S521)、判定結果が否定的である場合に、処理が再開される。
一方、ステップS521の判定結果が肯定的である場合に、制御部117は、所定フレーム数に亘って連続検出される移動速度vの絶対値が閾値vt未満であるかを判定する(S523)。そして、制御部117は、判定結果が肯定的である場合に、近接シェード操作(静止ジェスチャに対応する操作)を特定し(S525)、判定結果が否定的である場合に、近接シェイク操作(反復移動ジェスチャに対応する操作)を特定する(S527)。
処理の開始に際して、制御部117は、操作体Mの接触を継続的に検知していたかを判定する(S529)。制御部117は、接触面積Atが所定の閾値Att未満であったかを判定する(S531)。そして、制御部117は、判定結果が肯定的である場合に、入力起点と接触位置Pの差が閾値Mt未満であるかを判定し(S533)、判定結果が肯定的である場合に、タップ操作を特定する(S535)。一方、ステップS529、S531、S533で判定結果が否定的である場合に、処理が再開される。
操作体Mの近接状態を検出する場合、表示パネル101と操作体Mとが隔てられているので、接触状態の検出に比べて、誤検出を生じる可能性が高くなる。しかし、所定閾値Aat以上の近接面積Aaが検出される場合にのみ、近接ジェスチャとして捉えることで、誤検出を抑制できる。
また、操作体Mの接触・近接状態を同時に検出する場合、ユーザが意図する接触ジェスチャを近接ジェスチャとして捉えてしまうことで、誤検出を生じる可能性が高くなる。しかし、所定の継続時間に亘って近接状態が検出される場合にのみ、近接ジェスチャとして捉えることで、誤検出を抑制できる。
[5.検出モードの制御方法]
以下では、情報処理装置100(以下では自装置とも称する。)の静止状態または向きに応じて、操作体Mによる自装置に対する操作を検出するモードを制御する方法について説明する。
[5−1.近接検出モードの制御方法]
まず、自装置の静止状態に応じて、操作体Mによる表示パネル101に対する近接操作を検出するモードを制御する実施例について説明する。
接触近接センサ103は、接触操作の検出部と近接操作の検出部からなる。接触近接センサ103は、情報処理装置100が起動中に接触センサとして継続的に機能しており、近接操作に対応するアプリケーションの起動中に、近接センサとしても機能する。以下では、接触操作の検出部と近接操作の検出部に対する電源系統が別系統で設けられている場合を想定する。状態検出部111は、加速度センサを含み、自装置の静止状態を検出する。
制御部117は、自装置の静止状態に応じて、操作体Mによる自装置に対する操作を検出するモードを制御するモード制御部として機能する。特に、制御部117は、操作体Mによる表示パネル101に対する近接操作を検出する近接検出モードを制御する。
図16および図17は、近接検出モードの制御処理を示すフロー図および模式図である。
制御部117は、近接操作に対応するアプリケーションを起動中であるかを判定し(S601)、判定結果が肯定的である場合に、状態検出部111による検出結果に応じて、自装置が静止状態にあるかを判定する(S603)。一方、制御部117は、判定結果が否定的である場合に、アプリケーションの起動を継続して判定する。
自装置が静止状態にある場合に、制御部117は、静止状態が所定時間に亘って継続しているかを判定し(S605)、判定結果が肯定的である場合に、近接検出モードを有効にする(S607)。一方、ステップS603、S605の判定結果が否定的である場合に、制御部117は、近接検出モードを無効にする(S609)。この場合、近接操作に対応する検出処理、電源供給が省略される。
図17Aには、近接操作に対応するアプリケーションを起動中に、自装置がユーザにより保持されて静止状態にある場合が示されている。この場合、近接検出モードが有効になり、ユーザは、表示パネル101に対する操作体Mの近接状態を変化させることで、近接操作を行うことができる(この状態で接触操作も行うことができる。)。
図17Bには、自装置が誤って移動された場合が示されている。この場合、表示パネル101上に操作体Mが近接すると、近接検出モードが無効にならなければ、ユーザが意図しない近接操作が検出されてしまう。しかし、自装置が移動状態になると、近接検出モードが自動的に無効になり、近接操作が検出されなくなるので、ユーザが意図しない近接操作が検出されずにすむ。そして、自装置が再び静止状態になると、近接検出モードが有効になるので、ユーザは、近接操作を再開できる。
これにより、自装置の静止状態に応じて、近接検出モードが制御されるので、近接操作を検出する必要がない場合には、近接操作に対応する検出処理および電源供給を省略できる。また、ユーザが意図しない近接操作を検出しないですむ。さらに、ユーザは、検出モードを手動で制御せずとも、接触操作と近接操作をシームレスに行える。
[5−2.近接・遠隔検出モードの制御方法]
つぎに、自装置の静止状態に応じて、操作体Mによる表示パネル101に対する近接・遠隔操作を検出するモードを制御する実施例について説明する。
接触近接センサ103および状態検出部111については、前述の実施例と同様である。遠隔センサ107は、所定のジェスチャ等、操作体Mの遠隔動作を撮像して捉える。遠隔センサ107は、ステレオカメラ等からなり、遠隔操作に対応するアプリケーションの起動中に機能する。以下では、接触近接センサ103と遠隔センサ107に対する電源系統が別系統で設けられている場合を想定する。
制御部117は、特に、操作体Mによる表示パネル101に対する近接操作を検出する近接検出モード、および操作体Mによる遠隔センサ107に対する遠隔操作を検出する遠隔検出モードを制御する。
図18および図19は、近接・遠隔検出モードの制御処理を示すフロー図および模式図である。
制御部117は、近接・遠隔操作に対応するアプリケーションを起動中であるかを判定し(S701)、判定結果が肯定的である場合に、状態検出部111による検出結果に応じて、自装置が静止状態にあるかを判定する(S703)。一方、制御部117は、判定結果が否定的である場合に、アプリケーションの起動を継続して判定する。
自装置が静止状態にある場合に、制御部117は、静止状態が所定時間に亘って継続しているかを判定し(S705)、判定結果が肯定的である場合に、近接検出モードを無効にし、遠隔検出モードを有効にする(S707)。この場合、近接操作に対応する検出処理、電源供給が行われない。一方、ステップS703、S705の判定結果が否定的である場合に、制御部117は、近接検出モードを有効にし、遠隔検出モードを無効にする(S709)。この場合、遠隔操作に対応する検出処理、電源供給が省略される。
図19Aには、近接・遠隔操作に対応するアプリケーションを起動中に、自装置が机上に配置されて静止状態にある場合が示されている。この場合、遠隔検出モードが有効になり、近接検出モードが無効になるので、ユーザは、自装置に対する操作体Mの遠隔動作を変化させることで、遠隔操作を行うことができる(この状態で接触操作も行うことができる。)。
図19Bには、車中等で自装置がユーザにより保持されて移動(振動)状態にある場合が示されている。この場合、自装置が移動状態にあるので、遠隔検出モードが無効にならなければ、ユーザが意図しない遠隔操作が検出されてしまう場合がある。しかし、自装置が移動状態になると、遠隔検出モードが自動的に無効になり、遠隔操作が検出されなくなるので、ユーザが意図しない遠隔操作が検出されずにすむ。そして、自装置が再び静止状態になると、遠隔検出モードが有効になるので、ユーザは、遠隔操作を再開できる。
これにより、自装置の静止状態に応じて、近接検出モードおよび遠隔検出モードが制御されるので、近接操作または遠隔操作を検出する必要がない場合には、近接操作または遠隔操作に対応する検出処理および電源供給を省略できる。また、ユーザが意図しない遠隔操作を検出しないですむ。さらに、ユーザは、検出モードを手動で制御せずとも、近接操作と遠隔操作をシームレスに行える。
[5−3.接触検出モードの制御方法]
さらに、自装置の向きに応じて、操作体Mによる自装置に対する接触操作を検出するモードを制御する方法について説明する。
本実施例では、自装置の表示パネル101に主センサ103が設けられ、自装置の長軸方向の側面に副センサ104R、104Lおよび短軸方向の側面に副センサ104U、104Dが各々に設けられる。主センサ103は、表示パネル101に対する操作体Mの接触操作を検出し、副センサ104R、104L、104U、104Dは、例えば、表示パネル101のGUI表示をスクロールさせるために操作体Mの接触操作を検出する。以下では、副センサ104R、104L、104U、104Dに対する電源系統が別系統で設けられている場合を想定する。
状態検出部111は、ジャイロセンサを含み、自装置の向きを検出する。以下では、自装置の長軸方向および短軸方向がユーザに対して上下方向となる場合を各々に縦向きおよび横向きと称する。状態検出部111は、自装置が縦向きにあるか横向きにあるかを検出する。
制御部117は、特に、副センサ104R、104L、104U、104Dに対する接触操作を検出する検出モードを制御する。制御部117は、例えば、自装置が縦向きにある場合に、副センサ104R、104Lによる検出を有効にするとともに副センサ104U、104Dによる検出を無効にし、自装置が横向きにある場合に、副センサ104R、104Lによる検出を無効にするとともに副センサ104U、104Dによる検出を有効にする。特に、制御部117は、自装置の向きに応じて、ユーザの利き手側に対応する副センサ104L、104R、104U、104Dを有効にする。以下では、ユーザが右利きである場合を想定する。
図20および図21は、接触検出モードの制御処理を示すフロー図および模式図である。
制御部117は、状態検出部111からのセンサ出力に応じて、自装置が縦向きにあるかを判定し(S801)、判定結果が肯定的である場合(図21A)に、自装置が所定時間に亘って縦向きであるかを判定する(S803)。そして、判定結果が肯定的である場合に、制御部117は、ユーザに対して右側にある副センサ104Rを有効にし、他の副センサ104L、104U、104Dを無効にする(S805)。
一方、自装置が横向きにある場合(例えば、表示パネル101の上部がユーザに対して左側にある場合)に、自装置が所定時間に亘って横向きであるかを判定する(S807)。判定結果が肯定的である場合(図21B)に、制御部117は、ユーザに対して右側にある副センサ104Dを有効にし、他の副センサ104R、104L、104Uを無効にする(S809)。
また、図22および図23は、アプリケーションの起動制御処理を示すフロー図および模式図である。
制御部117は、状態検出部111による検出結果に応じて、自装置が縦向きにあるかを判定し(S901)、判定結果が肯定的である場合(図23A)に、操作体Mが副センサ104Rに接触しているかを判定する(S903)。次に、判定結果が肯定的である場合に、制御部117は、操作体Mが副センサ104Rに所定時間に亘って接触しているかを判定する(S905)。そして、判定結果が肯定的である場合に、制御部117は、ブックリーダを起動する(S907)。
一方、自装置が横向きにある場合(例えば、表示パネル101の上部がユーザに対して左側にある場合)に、操作体Mが副センサ104Uおよび104Dに接触しているかを判定する(S909)。次に、判定結果が肯定的である場合に、制御部117は、操作体Mが副センサ104Uおよび104Dに所定時間に亘って接触しているかを判定する(S911)。そして、判定結果が肯定的である場合(図23B)に、制御部117は、ゲームを起動する(S913)。
また、例えば、自装置が横向きにあり、ユーザが自装置を持上げようとして、操作体Mが副センサ104R、104L、104U、または104Dのいずれかに接触している場合(図23C)に、制御部117は、ブックリーダを起動せずにすむ。
これにより、自装置の向きに応じて、接触検出モードが制御されるので、接触操作の対象とならない副センサ104では、接触操作に対応する検出処理および電源供給を省略できる。また、ユーザが意図しない接触操作を検出しないですむ。
[6.情報処理装置100のハードウェア構成]
図24は、情報処理装置100のハードウェア構成例を示すブロック図である。
情報処理装置100は、主に、CPU901、ROM903、RAM905、ホストバス907、ブリッジ909、外部バス911、インタフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んで構成される。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置917、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置100の動作を少なくとも部分的に制御する。ROM903は、CPU901が用いるプログラムやパラメータ等を記憶する。RAM905は、CPU901が実行するプログラム、プログラム実行時のパラメータ等を一時記憶する。CPU901、ROM903、RAM905は、ホストバス907により互いに接続される。ホストバス907は、ブリッジ909を介して外部バス911に接続される。
入力装置915は、例えば、マウス、キーボード、表示パネル101、ボタン、スイッチ等、ユーザが操作可能な操作手段である。また、入力装置915は、例えば、赤外線等の電波を用いた遠隔操作手段でもよく、情報処理装置100の操作に対応した携帯電話機、PDA等の外部機器929でもよい。入力装置915は、例えば上記の操作手段を用いてユーザにより入力された操作情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路等を含んで構成される。情報処理装置100のユーザは、入力装置915の操作を介して、情報処理装置100に対して各種のデータを入力し、処理動作を指示する。
出力装置917は、例えば、CRTディスプレイ、液晶ディスプレイ、表示パネル101、ランプ等の表示装置、スピーカ、ヘッドフォン等の音声出力装置、プリンタ、携帯電話機、ファクシミリ等、取得された情報をユーザに対して視覚的または聴覚的に通知可能な装置を含んで構成される。出力装置917は、情報処理装置100の処理結果を出力する。例えば、表示装置は、情報処理装置100による処理結果を、テキスト情報またはイメージ情報として表示し、音声出力装置は、再生された音声データ、音響データ等のオーディオ信号をアナログ信号に変換して出力する。
ストレージ装置919は、データ格納用の装置であり、例えば、HDD等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイス等を含む。ストレージ装置919は、CPU901が実行するプログラム、各種データ、外部から取得された各種データ等を格納する。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置100に内蔵または外付けされる。ドライブ921は、装着される磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体927に対して、記録済みデータを読出してRAM905に出力し、記録対象のデータを書き込む。
接続ポート923は、例えば、USBポート、SCSIポート、RS232Cポート等、外部機器929を情報処理装置100に直接接続するためのポートである。情報処理装置100は、接続ポート923に接続された外部機器929に対して、接続ポート923を介してデータを取得し、データを提供する。
通信装置925は、通信網Nに接続するための通信デバイス等から構成される通信インタフェース913である。通信装置925は、例えば、有線または無線LAN、WUSB用の通信カード、ADSL用のルータ、通信用モデム等である。通信装置925は、例えばインターネットや他の通信機器との間で、所定のプロトコルに則して信号等を送受信する。通信装置925に接続される通信網Nは、有線または無線により接続されたネットワーク等により構成され。例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信、または衛星通信等でもよい。
以上、本発明の実施形態に係る情報処理装置100の機能を実現するためのハードウェア構成の一例について説明した。なお、上記ハードウェアの各構成要素は、汎用的なデバイスを用いて構成されてもよく、各構成要素の機能の特化したデバイスを用いて構成されてもよい。
[7.まとめ]
以上説明したように、本発明の実施形態に係る情報処理装置100は、表示パネル101に接触する操作体Mの指示方向を検出し、検出された操作体Mの指示方向に基づいて、操作体Mにより入力される操作の方向を特定する。これにより、操作体Mの指示方向に基づいて操作の方向が特定されるので、ユーザに対する表示パネル101の向きに依存しない操作が可能になる。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
100 情報処理装置
101 表示パネル
103 接触近接センサ
105 表示部
107 遠隔センサ
109 操作体検出部
111 状態検出部
113 記憶部
115 表示制御部
117 制御部(操作特定部、モード制御部)

Claims (9)

  1. 表示パネルに接触する操作体の指示方向を検出する操作体検出部と、
    前記検出された操作体の指示方向に基づいて、前記操作体により入力される操作の方向を特定する操作特定部と、
    を備える情報処理装置。
  2. 前記操作体検出部は、前記表示パネルに接触して移動する前記操作体の指示方向および移動方向を検出し、
    前記操作特定部は、前記検出された操作体の指示方向および移動方向に基づいて、前記操作体により入力される操作の方向を特定する、請求項1に記載の情報処理装置。
  3. 前記操作特定部は、前記検出された操作体の指示方向と移動方向により定義される角度に基づいて、前記操作体により入力される操作の方向を特定する、請求項2に記載の情報処理装置。
  4. 前記表示パネルの表示を制御する表示制御部をさらに備え、
    前記操作特定部は、前記検出された操作体の指示方向に基づいて、前記表示パネルの表示を回転させる操作の方向を特定し、
    前記表示制御部は、前記特定された操作の方向に応じて前記表示パネルの表示を回転させる、請求項1に記載の情報処理装置。
  5. 前記操作特定部は、操作者に対する前記表示パネルの向きに依存せずに、前記操作体により入力される操作の方向を特定する、請求項1に記載の情報処理装置。
  6. 前記操作体検出部は、前記操作体の先端部の向きに基づいて、前記操作体の指示方向を決定する、請求項1に記載の情報処理装置。
  7. 前記操作体検出部は、前記操作体の指示方向を連続して検出し、前記連続して検出された操作体の指示方向が所定の閾値内にある場合に、前記連続して検出された操作体の指示方向に基づいて、前記操作体の指示方向を決定する、請求項1に記載の情報処理装置。
  8. 表示パネルに接触する操作体の指示方向を検出するステップと、
    前記検出された操作体の指示方向に基づいて、前記操作体により入力される操作の方向を特定するステップと、
    を含む情報処理方法。
  9. 表示パネルに接触する操作体の指示方向を検出するステップと、
    前記検出された操作体の指示方向に基づいて、前記操作体により入力される操作の方向を特定するステップと、
    を含む情報処理方法をコンピュータに実行させるためのプログラム。
JP2009126949A 2009-05-26 2009-05-26 情報処理装置、情報処理方法およびプログラム Pending JP2010277197A (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2009126949A JP2010277197A (ja) 2009-05-26 2009-05-26 情報処理装置、情報処理方法およびプログラム
RU2011147125/08A RU2011147125A (ru) 2009-05-26 2010-03-30 Устройство обработки информации, способ обработки информации и программа
US13/320,992 US9690475B2 (en) 2009-05-26 2010-03-30 Information processing apparatus, information processing method, and program
PCT/JP2010/055682 WO2010137400A1 (ja) 2009-05-26 2010-03-30 情報処理装置、情報処理方法およびプログラム
BRPI1012863A BRPI1012863A2 (pt) 2009-05-26 2010-03-30 aparelho e método de processamento de informação, e, programa
KR1020117025355A KR20120026043A (ko) 2009-05-26 2010-03-30 정보 처리 장치, 정보 처리 방법 및 프로그램
CN201080021934.3A CN102428437B (zh) 2009-05-26 2010-03-30 信息处理设备和信息处理方法
EP10780357.9A EP2437147B1 (en) 2009-05-26 2010-03-30 Information processing device, information processing method, and program
TW099110420A TW201101126A (en) 2009-05-26 2010-04-02 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009126949A JP2010277197A (ja) 2009-05-26 2009-05-26 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2010277197A true JP2010277197A (ja) 2010-12-09

Family

ID=43222523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009126949A Pending JP2010277197A (ja) 2009-05-26 2009-05-26 情報処理装置、情報処理方法およびプログラム

Country Status (9)

Country Link
US (1) US9690475B2 (ja)
EP (1) EP2437147B1 (ja)
JP (1) JP2010277197A (ja)
KR (1) KR20120026043A (ja)
CN (1) CN102428437B (ja)
BR (1) BRPI1012863A2 (ja)
RU (1) RU2011147125A (ja)
TW (1) TW201101126A (ja)
WO (1) WO2010137400A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164115A (ja) * 2011-02-07 2012-08-30 Fujitsu Ltd 操作制御装置,操作制御プログラムおよび操作制御方法
JP2014157402A (ja) * 2013-02-14 2014-08-28 Nec Casio Mobile Communications Ltd 表示装置、電子機器、表示方法及びプログラム
JP2014531080A (ja) * 2011-10-10 2014-11-20 インヴィサージ テクノロジーズ インコーポレイテッドInvisage Technologies,Inc. 空間および時間内のイベントのキャプチャ
JP2015148844A (ja) * 2014-02-04 2015-08-20 シャープ株式会社 情報処理装置
JP2016521894A (ja) * 2013-06-14 2016-07-25 クアルコム,インコーポレイテッド 検出されたジェスチャーに基づいてデバイス動作を実行するためのシステムおよび方法
US9898117B2 (en) 2012-12-10 2018-02-20 Invisage Technologies, Inc. Sensors and systems for the capture of scenes and events in space and time

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI423093B (zh) 2010-12-03 2014-01-11 Au Optronics Corp 觸控面板判斷多點觸控之方法
KR101718893B1 (ko) 2010-12-24 2017-04-05 삼성전자주식회사 터치 인터페이스 제공 방법 및 장치
US20130293454A1 (en) * 2012-05-04 2013-11-07 Samsung Electronics Co. Ltd. Terminal and method for controlling the same based on spatial interaction
US9720456B1 (en) * 2012-07-23 2017-08-01 Amazon Technologies, Inc. Contact-based device interaction
US9176539B2 (en) * 2012-11-10 2015-11-03 Ebay Inc. Key input using an active pixel camera
KR102169952B1 (ko) * 2013-10-18 2020-10-26 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
CN103870199B (zh) 2014-03-31 2017-09-29 华为技术有限公司 手持设备上用户操作模式的识别方法及手持设备
JP2016021229A (ja) * 2014-06-20 2016-02-04 船井電機株式会社 入力装置
US9692968B2 (en) 2014-07-31 2017-06-27 Invisage Technologies, Inc. Multi-mode power-efficient light and gesture sensing in image sensors
WO2016032806A1 (en) * 2014-08-26 2016-03-03 Apple Inc. User interface for limiting notifications and alerts
WO2017004262A1 (en) * 2015-07-01 2017-01-05 Qeexo, Co. Determining pitch for proximity sensitive interactions
EP3362884A4 (en) * 2016-03-03 2019-06-26 Hewlett-Packard Development Company, L.P. INPUT AXIS CURLS
US10795450B2 (en) * 2017-01-12 2020-10-06 Microsoft Technology Licensing, Llc Hover interaction using orientation sensing

Citations (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1144703A (ja) * 1997-07-25 1999-02-16 Matsushita Electric Ind Co Ltd 手振り入力装置
JPH11212726A (ja) * 1998-01-29 1999-08-06 Omron Corp 入力装置
JP2001306243A (ja) * 2000-04-21 2001-11-02 Sony Corp 情報処理装置、認識可能動作通知方法及びプログラム格納媒体
JP2002157079A (ja) * 2000-11-09 2002-05-31 Doko Kagi Kofun Yugenkoshi 意向識別方法
JP2002196855A (ja) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2004178547A (ja) * 2002-09-30 2004-06-24 Sanyo Electric Co Ltd 携帯型電子装置
JP2004246814A (ja) * 2003-02-17 2004-09-02 Takenaka Komuten Co Ltd 指示動作認識装置
JP2004356819A (ja) * 2003-05-28 2004-12-16 Sharp Corp リモート操作装置
JP2005063091A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
JP2005346507A (ja) * 2004-06-03 2005-12-15 Sony Corp 携帯型電子機器、入力操作制御方法及びそのプログラム
JP2006072854A (ja) * 2004-09-03 2006-03-16 Matsushita Electric Ind Co Ltd 入力装置
JP2006072872A (ja) * 2004-09-06 2006-03-16 Matsushita Electric Ind Co Ltd 携帯型情報処理装置、情報処理装置の画面回転方法および合成データ回転方法
JP2006268209A (ja) * 2005-03-23 2006-10-05 Akinori Yoshino ユーザの身体動作による遠隔命令入力装置
JP2006277588A (ja) * 2005-03-30 2006-10-12 Clarion Co Ltd タッチパネル及びタッチパネルを備えた電子機器
JP2007122287A (ja) * 2005-10-26 2007-05-17 Sharp Corp 情報処理装置、階層情報出力方法及びプログラム
JP2008003868A (ja) * 2006-06-22 2008-01-10 Sharp Corp タッチパネル式入力装置、及びこれを備えた表示入力システム
JP2008158675A (ja) * 2006-12-21 2008-07-10 Toyota Motor Corp 車両用操作装置
JP2008192012A (ja) * 2007-02-06 2008-08-21 Sharp Corp 座標入力装置、座標入力方法、制御プログラム、およびコンピュータ読取可能な記録媒体
JP2008250949A (ja) * 2007-03-30 2008-10-16 Sharp Corp 画像処理装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器及び画像処理装置の制御方法
JP2008269225A (ja) * 2007-04-19 2008-11-06 Seiko Epson Corp 検出装置、および、その制御方法
JP2009032028A (ja) * 2007-07-26 2009-02-12 Panasonic Corp タッチパネル装置
WO2009045721A2 (en) * 2007-09-28 2009-04-09 Microsoft Corporation Detecting finger orientation on a touch-sensitive device
JP2009525538A (ja) * 2006-01-30 2009-07-09 アップル インコーポレイテッド マルチポイント感知装置を用いたジェスチャリング
JP2009537924A (ja) * 2006-05-24 2009-10-29 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド データ処理の制御
JP2010503121A (ja) * 2006-09-06 2010-01-28 アップル インコーポレイテッド インスタントメッセージングのためのポータブル電子装置
JP2010503127A (ja) * 2006-09-06 2010-01-28 アップル インコーポレイテッド ヒューリスティックを適用することによりコマンドを決定するためのタッチスクリーン装置、方法及びグラフィックユーザインターフェイス
JP2010515980A (ja) * 2007-01-07 2010-05-13 アップル インコーポレイテッド タッチスクリーンディスプレイ上での指ジェスチャーを解釈するためのポータブルマルチファンクション装置、方法及びグラフィックユーザインターフェイス

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US7401300B2 (en) * 2004-01-09 2008-07-15 Nokia Corporation Adaptive user interface input device
JPWO2006126310A1 (ja) * 2005-05-27 2008-12-25 シャープ株式会社 表示装置
US7714265B2 (en) * 2005-09-30 2010-05-11 Apple Inc. Integrated proximity sensor and light sensor
CN100485591C (zh) * 2006-03-10 2009-05-06 凌阳科技股份有限公司 可在屏幕上显示和接收输入的实体模拟装置及其旋转方法
US20070297028A1 (en) * 2006-06-21 2007-12-27 Thomas Wulff System and device for monitoring a computing device
US7552402B2 (en) * 2006-06-22 2009-06-23 Microsoft Corporation Interface orientation using shadows
US20090167719A1 (en) * 2007-11-02 2009-07-02 Woolley Richard D Gesture commands performed in proximity but without making physical contact with a touchpad
US7898428B2 (en) * 2008-03-06 2011-03-01 Research In Motion Limited Safety for mobile device users while driving

Patent Citations (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1144703A (ja) * 1997-07-25 1999-02-16 Matsushita Electric Ind Co Ltd 手振り入力装置
JPH11212726A (ja) * 1998-01-29 1999-08-06 Omron Corp 入力装置
JP2001306243A (ja) * 2000-04-21 2001-11-02 Sony Corp 情報処理装置、認識可能動作通知方法及びプログラム格納媒体
JP2002196855A (ja) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2002157079A (ja) * 2000-11-09 2002-05-31 Doko Kagi Kofun Yugenkoshi 意向識別方法
JP2004178547A (ja) * 2002-09-30 2004-06-24 Sanyo Electric Co Ltd 携帯型電子装置
JP2004246814A (ja) * 2003-02-17 2004-09-02 Takenaka Komuten Co Ltd 指示動作認識装置
JP2004356819A (ja) * 2003-05-28 2004-12-16 Sharp Corp リモート操作装置
JP2005063091A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
JP2005346507A (ja) * 2004-06-03 2005-12-15 Sony Corp 携帯型電子機器、入力操作制御方法及びそのプログラム
JP2006072854A (ja) * 2004-09-03 2006-03-16 Matsushita Electric Ind Co Ltd 入力装置
JP2006072872A (ja) * 2004-09-06 2006-03-16 Matsushita Electric Ind Co Ltd 携帯型情報処理装置、情報処理装置の画面回転方法および合成データ回転方法
JP2006268209A (ja) * 2005-03-23 2006-10-05 Akinori Yoshino ユーザの身体動作による遠隔命令入力装置
JP2006277588A (ja) * 2005-03-30 2006-10-12 Clarion Co Ltd タッチパネル及びタッチパネルを備えた電子機器
JP2007122287A (ja) * 2005-10-26 2007-05-17 Sharp Corp 情報処理装置、階層情報出力方法及びプログラム
JP2009525538A (ja) * 2006-01-30 2009-07-09 アップル インコーポレイテッド マルチポイント感知装置を用いたジェスチャリング
JP2009537924A (ja) * 2006-05-24 2009-10-29 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド データ処理の制御
JP2008003868A (ja) * 2006-06-22 2008-01-10 Sharp Corp タッチパネル式入力装置、及びこれを備えた表示入力システム
JP2010503127A (ja) * 2006-09-06 2010-01-28 アップル インコーポレイテッド ヒューリスティックを適用することによりコマンドを決定するためのタッチスクリーン装置、方法及びグラフィックユーザインターフェイス
JP2010503121A (ja) * 2006-09-06 2010-01-28 アップル インコーポレイテッド インスタントメッセージングのためのポータブル電子装置
JP2008158675A (ja) * 2006-12-21 2008-07-10 Toyota Motor Corp 車両用操作装置
JP2010515980A (ja) * 2007-01-07 2010-05-13 アップル インコーポレイテッド タッチスクリーンディスプレイ上での指ジェスチャーを解釈するためのポータブルマルチファンクション装置、方法及びグラフィックユーザインターフェイス
JP2008192012A (ja) * 2007-02-06 2008-08-21 Sharp Corp 座標入力装置、座標入力方法、制御プログラム、およびコンピュータ読取可能な記録媒体
JP2008250949A (ja) * 2007-03-30 2008-10-16 Sharp Corp 画像処理装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器及び画像処理装置の制御方法
JP2008269225A (ja) * 2007-04-19 2008-11-06 Seiko Epson Corp 検出装置、および、その制御方法
JP2009032028A (ja) * 2007-07-26 2009-02-12 Panasonic Corp タッチパネル装置
WO2009045721A2 (en) * 2007-09-28 2009-04-09 Microsoft Corporation Detecting finger orientation on a touch-sensitive device
JP2010541073A (ja) * 2007-09-28 2010-12-24 マイクロソフト コーポレーション タッチセンス式装置上の指の向きを検出

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164115A (ja) * 2011-02-07 2012-08-30 Fujitsu Ltd 操作制御装置,操作制御プログラムおよび操作制御方法
JP2014531080A (ja) * 2011-10-10 2014-11-20 インヴィサージ テクノロジーズ インコーポレイテッドInvisage Technologies,Inc. 空間および時間内のイベントのキャプチャ
US9898117B2 (en) 2012-12-10 2018-02-20 Invisage Technologies, Inc. Sensors and systems for the capture of scenes and events in space and time
JP2014157402A (ja) * 2013-02-14 2014-08-28 Nec Casio Mobile Communications Ltd 表示装置、電子機器、表示方法及びプログラム
JP2016521894A (ja) * 2013-06-14 2016-07-25 クアルコム,インコーポレイテッド 検出されたジェスチャーに基づいてデバイス動作を実行するためのシステムおよび方法
JP2015148844A (ja) * 2014-02-04 2015-08-20 シャープ株式会社 情報処理装置

Also Published As

Publication number Publication date
EP2437147A1 (en) 2012-04-04
EP2437147B1 (en) 2014-04-30
RU2011147125A (ru) 2013-05-27
CN102428437B (zh) 2014-05-28
TW201101126A (en) 2011-01-01
WO2010137400A1 (ja) 2010-12-02
CN102428437A (zh) 2012-04-25
US9690475B2 (en) 2017-06-27
KR20120026043A (ko) 2012-03-16
EP2437147A4 (en) 2012-12-26
BRPI1012863A2 (pt) 2018-02-20
US20120092283A1 (en) 2012-04-19

Similar Documents

Publication Publication Date Title
JP5282661B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2010137400A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP5610644B2 (ja) 入力装置、入力支援方法及びプログラム
US9448714B2 (en) Touch and non touch based interaction of a user with a device
JP5507494B2 (ja) タッチ・スクリーンを備える携帯式電子機器および制御方法
WO2018076523A1 (zh) 手势识别的方法、装置及车载系统
US10191603B2 (en) Information processing device and information processing method
US20190258319A1 (en) Information processing device, information processing method, and program
KR20140114913A (ko) 사용자 기기의 센서 운용 방법 및 장치
US20140055385A1 (en) Scaling of gesture based input
US20140068524A1 (en) Input control device, input control method and input control program in a touch sensing display
KR20140047515A (ko) 데이터 입력을 위한 전자 장치 및 그 운용 방법
JP2012027515A (ja) 入力方法及び入力装置
JP5461735B2 (ja) 入力装置、入力支援方法及びプログラム
KR20140055880A (ko) 가상 화면 제어 방법 및 장치
WO2013114499A1 (ja) 入力装置、入力制御方法、および入力制御プログラム
TWI564780B (zh) 觸控螢幕姿態技術
JP6034281B2 (ja) オブジェクト選択方法、装置及びコンピュータ・プログラム
JP5558899B2 (ja) 情報処理装置、その処理方法及びプログラム
US9851801B1 (en) Dual touchpad system
TW201537389A (zh) 體感偵測器之手勢辨識方法
GB2576359A (en) Controlling display of images
JP2012032944A (ja) 情報処理装置及びその制御方法
WO2018131245A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20140066378A (ko) 디스플레이장치와 그 제어방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140311