JP2011150414A - Information processing apparatus, method and program for determining operation input - Google Patents
Information processing apparatus, method and program for determining operation input Download PDFInfo
- Publication number
- JP2011150414A JP2011150414A JP2010009184A JP2010009184A JP2011150414A JP 2011150414 A JP2011150414 A JP 2011150414A JP 2010009184 A JP2010009184 A JP 2010009184A JP 2010009184 A JP2010009184 A JP 2010009184A JP 2011150414 A JP2011150414 A JP 2011150414A
- Authority
- JP
- Japan
- Prior art keywords
- contact
- touch
- proximity
- finger
- indicator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 36
- 238000000034 method Methods 0.000 title description 21
- 238000001514 detection method Methods 0.000 claims description 74
- 238000005070 sampling Methods 0.000 abstract description 5
- 238000004904 shortening Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 9
- 239000004973 liquid crystal related substance Substances 0.000 description 9
- 238000013459 approach Methods 0.000 description 7
- 230000005484 gravity Effects 0.000 description 4
- 230000005057 finger movement Effects 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置、操作入力決定方法及び操作入力決定プログラムに関し、例えばタッチパネルを有する情報処理装置に適用して好適なものである。 The present invention relates to an information processing apparatus, an operation input determination method, and an operation input determination program, and is suitable for application to an information processing apparatus having a touch panel, for example.
昨今、タッチパネルを有する情報処理装置が広く普及している。このような情報処理装置では、タッチパネルに対する指示物(指、タッチペンなど)の接触を検知して、タップ、フリックなどのタッチ操作を認識し、これを操作入力として受け付けて各種処理を実行するようになっている。 In recent years, information processing apparatuses having a touch panel have been widely used. In such an information processing apparatus, the touch of a pointing object (finger, touch pen, etc.) on the touch panel is detected, a touch operation such as tap or flick is recognized, and this is received as an operation input to execute various processes. It has become.
尚、タップとは、操作面上の任意の一点に指示物を接触させた後すぐに離す操作のことであり、フリックとは、操作面を指示物で軽く払う操作のことである。 Note that a tap is an operation of releasing an indicator immediately after contacting an arbitrary point on the operation surface, and a flick is an operation of lightly touching the operation surface with the indicator.
また近年、タッチパネルに対する指示物の接触にくわえて近接も検知し得る情報処理装置が提案されている(例えば特許文献1参照)。この情報処理装置では、タッチパネルに触れていた指がタッチパネルから離れても、近接していれば、指が触れていたときの処理を継続するようになっている。 In recent years, there has been proposed an information processing apparatus that can detect proximity in addition to contact of an indicator with a touch panel (see, for example, Patent Document 1). In this information processing apparatus, even if the finger touching the touch panel is separated from the touch panel, the processing when the finger is touching is continued if the finger is close.
こうすることで、例えば、画面上に表示されたボタンを長押ししようとしたときに、途中で振動などによりタッチパネルから指が離れてしまっても、ボタンが長押しされたときと同様の処理、すなわちユーザの意図する処理を実行することができる。 By doing this, for example, when trying to press and hold a button displayed on the screen, even if the finger is released from the touch panel due to vibration or the like on the way, the same processing as when the button is pressed and held, That is, the process intended by the user can be executed.
ところで、従来のタッチパネルを有する情報処理装置は、例えば、一定時間ごとに、タッチパネルに指示物が接触した位置(これをタッチ位置とも呼ぶ)を検知して、検知結果をもとにタッチ操作を認識するようになっている。 By the way, an information processing apparatus having a conventional touch panel detects, for example, a position (also referred to as a touch position) where an indicator touches the touch panel at regular intervals, and recognizes a touch operation based on the detection result. It is supposed to be.
このような情報処理装置は、例えば、指示物が接触している間におけるタッチ位置の移動を検知した場合にはフリックが行われたと認識し、タッチ位置の移動を検知しなかった場合にはタップが行われたと認識する。 Such an information processing device, for example, recognizes that a flick has been performed when the movement of the touch position is detected while the indicator is in contact, and taps when the movement of the touch position is not detected. Recognize that
しかし近年、情報処理装置において、指示物の近接を検知し得るようタッチパネルの感度を上げたことに伴い、接触や近接を検知する時間間隔(すなわちサンプリング間隔)が従来よりも長くなってしまうことがある。 However, in recent years, in the information processing apparatus, as the sensitivity of the touch panel is increased so that the proximity of the pointing object can be detected, the time interval for detecting contact or proximity (that is, the sampling interval) may become longer than before. is there.
この場合情報処理装置は、フリックにおいて指示物が接触していた時間が非常に短くタッチ位置を例えば1個しか検知できないと、タッチ位置の移動があったことを検知できず、フリックが行われたにもかかわらずタップが行われたと誤認識してしまうことがある。 In this case, the information processing apparatus cannot detect that the touch position has been moved and the flick is performed if only one touch position can be detected, for example, when the indicator is in contact with the flick for a very short time. Nevertheless, it may be misrecognized as tapped.
そこでタッチパネルを有する情報処理装置において、タッチ操作(すなわち指示物の接触による操作入力)の認識精度を向上することが望まれている。 Therefore, it is desired to improve the recognition accuracy of a touch operation (that is, an operation input by contact with an indicator) in an information processing apparatus having a touch panel.
本発明は以上の点を考慮してなされたもので、指示物の接触による操作入力の認識精度を向上し得る情報処理装置、操作入力決定方法及び操作入力決定プログラムを提案しようとするものである。 The present invention has been made in view of the above points, and intends to propose an information processing apparatus, an operation input determination method, and an operation input determination program capable of improving the recognition accuracy of an operation input by contact with an indicator. .
かかる課題を解決するため本発明の情報処理装置においては、操作面に対する指示物の接触を検知する接触検知部と、操作面に対する指示物の近接を検知する近接検知部と、接触検知部により指示物の接触を検知すると、接触検知部による検知結果と、近接検知部による当該指示物の接触前後少なくとも一方の検知結果とに基づいて、当該指示物の接触が所定の操作入力かを決定する制御部とを設けるようにした。 In order to solve this problem, in the information processing apparatus of the present invention, the contact detection unit that detects the contact of the pointing object with the operation surface, the proximity detection unit that detects the proximity of the pointing object with respect to the operation surface, and the contact detection unit When detecting contact of an object, control for determining whether the contact of the indicator is a predetermined operation input based on a detection result by the contact detection unit and at least one of detection results before and after the contact of the indicator by the proximity detection unit Part.
このように本発明の情報処理装置は、接触検知部による検知結果に加えて近接検知部による検知結果に基づいて指示物の接触が所定の操作入力かを決定することにより、接触検知部による検知結果のみに基づいて当該操作入力を認識する場合と比して、当該操作入力の認識精度を向上することができる。またこうすることにより、接触検知部による検知結果のみでは指示物の接触がどのような操作入力かを認識できない場合であっても当該操作入力を確実に認識できるので、例えば指示物の接触を検知する時間間隔を短くしなくても、指示物の接触による操作入力の認識精度を向上することができる。 As described above, the information processing apparatus according to the present invention detects the contact by the contact detection unit by determining whether the contact of the pointing object is a predetermined operation input based on the detection result by the proximity detection unit in addition to the detection result by the contact detection unit. Compared with the case of recognizing the operation input based only on the result, the recognition accuracy of the operation input can be improved. In addition, by doing this, even if the operation input is not recognized only by the detection result of the contact detection unit, the operation input can be reliably recognized. Even if the time interval is not shortened, the recognition accuracy of the operation input by the contact of the pointing object can be improved.
本発明によれば、接触検知部による検知結果に加えて近接検知部による検知結果に基づいて指示物の接触が所定の操作入力かを決定することにより、接触検知部による検知結果のみに基づいて当該操作入力を認識する場合と比して、当該操作入力の認識精度を向上することができる。またこうすることにより、接触検知部による検知結果のみでは指示物の接触がどのような操作入力かを認識できない場合であっても当該操作入力を確実に認識できるので、例えば指示物の接触を検知する時間間隔を短くしなくても、指示物の接触による操作入力の認識精度を向上することができる。かくして、指示物の接触による操作入力の認識精度を向上し得る情報処理装置、操作入力決定方法及び操作入力決定プログラムを実現することができる。 According to the present invention, based on the detection result of the proximity detection unit in addition to the detection result of the contact detection unit, it is determined based on only the detection result of the contact detection unit by determining whether the contact of the pointing object is a predetermined operation input. Compared to the case where the operation input is recognized, the recognition accuracy of the operation input can be improved. In addition, by doing this, even if the operation input is not recognized only by the detection result of the contact detection unit, the operation input can be reliably recognized. Even if the time interval is not shortened, the recognition accuracy of the operation input by the contact of the pointing object can be improved. Thus, it is possible to realize an information processing apparatus, an operation input determination method, and an operation input determination program that can improve the recognition accuracy of an operation input due to contact with an indicator.
以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。尚、説明は以下の順序で行う。
1.実施の形態
2.他の実施の形態
Hereinafter, the best mode for carrying out the invention (hereinafter referred to as an embodiment) will be described. The description will be given in the following order.
1.
<1.実施の形態>
[1−1.実施の形態の概要]
まず、本実施の形態の概要を説明する。この概要を説明した後、本実施の形態の具体例の説明に移る。
<1. Embodiment>
[1-1. Outline of Embodiment]
First, an outline of the present embodiment will be described. After the outline is described, the description moves to a specific example of the present embodiment.
図1において1は、情報処理装置を示す。この情報処理装置1には、操作面(例えばタッチパネルの操作面)に対する指示物の接触を検知する接触検知部2が設けられている。またこの情報処理装置1には、当該操作面に対する指示物の近接を検知する近接検知部3が設けられている。
In FIG. 1,
さらにこの情報処理装置1には、接触検知部2により指示物の接触を検知すると、接触検知部2による検知結果と、近接検知部3による当該指示物の接触前後少なくとも一方の検知結果とに基づいて、当該指示物の接触が所定の操作入力かを決定する制御部4が設けられている。
Further, in this
このように情報処理装置1は、接触検知部2による検知結果に加えて近接検知部3による検知結果に基づいて指示物の接触が所定の操作入力かを決定することにより、接触検知部2による検知結果のみに基づいて当該操作入力を認識する場合と比して、当該操作入力の認識精度を向上することができる。
As described above, the
またこうすることにより、情報処理装置1は、接触検知部2による検知結果のみでは指示物の接触がどのような操作入力かを認識できない場合(例えば指示物が接触している間に検知されたタッチ位置が1個の場合)であっても当該操作入力を確実に認識できる。従って、情報処理装置1は、例えば指示物の接触を検知する時間間隔(サンプリング間隔)を短くしなくても、指示物の接触による操作入力の認識精度を向上することができる。
In addition, by doing so, the
より具体的には、接触検知部2は、操作面に対する指示物の接触位置(タッチ位置)を所定時間ごとに検知する。そして制御部4は、操作面に対する指示物が接触していたときに、接触検知部2が検知した接触位置の個数に基づいて、当該指示物の接触が所定の操作入力かを決定するようにしてもよい。
More specifically, the
また制御部4は、接触検知部2が検知した指示物の接触位置及び近接検知部3が検知した指示物の接触前後少なくとも一方の近接位置に基づいて、当該指示物の接触が所定の操作入力かを決定するようにしてもよい。
Further, the control unit 4 determines that the contact of the indicator is a predetermined operation input based on the contact position of the indicator detected by the
より具体的には、制御部4は、接触位置及び近接位置の2点間の距離に基づいて、当該指示物の接触が所定の操作入力かを決定するようにしてもよい。さらに制御部4は、接触位置及び近接位置の2点を通る直線同士がなす角度に基づいて、当該指示物の接触が所定の操作入力かを決定するようにしてもよい。 More specifically, the control unit 4 may determine whether the contact of the indicator is a predetermined operation input based on the distance between two points of the contact position and the proximity position. Further, the control unit 4 may determine whether the contact of the indicator is a predetermined operation input based on the angle formed by the straight lines passing through the two points of the contact position and the proximity position.
このような構成でなる情報処理装置1の具体例について、以下、詳しく説明する。
A specific example of the
[1−2.携帯端末の外観構成]
次に、図2を用いて、上述した情報処理装置1の具体例である携帯端末100の外観構成について説明する。
[1-2. Appearance structure of mobile terminal
Next, the external configuration of the
携帯端末100は、片手で把持し得る程度の大きさでなる略扁平矩形状の筐体101を有している。
The
筐体101の前面101Aの中央部には、長方形状のタッチスクリーン102が設けられている。タッチスクリーン102は、液晶パネルと、液晶パネルの表示面を覆う薄型透明のタッチパネルとで構成される。ちなみに、このタッチパネルは、例えば、静電容量式で、マルチタッチに対応する。
A
携帯端末100は、このタッチスクリーン102に対する、指(タッチペンなどでも可)によるタッチ操作及び近接操作を操作入力として認識するようになっている。尚、タッチ操作がタッチスクリーンを指で触って行う操作入力であるのに対して、近接操作とは、タッチスクリーンを触らずに指を近づけて行う操作入力のことである。
The
さらにこの携帯端末100の筐体101の前面101Aには、タッチスクリーン102の近傍に、操作ボタン103も設けられている。
Further, an
[1−3.携帯端末のハードウェア構成]
次に図3を用いて、携帯端末100のハードウェア構成について説明する。この携帯端末100では、CPU110が、不揮発性メモリ111に格納されているプログラムをRAM112に展開して読み込み、このプログラムに従って各種処理を実行すると共に各部を制御する。尚、CPUは、Central Processing Unitの略、RAMは、Random Access Memoryの略である。
[1-3. Hardware configuration of mobile terminal]
Next, the hardware configuration of the
CPU110は、タッチスクリーン102に対してタッチ操作又は近接操作が行われたことを認識すると、この操作を操作入力として受け付け、この操作入力に応じた処理を実行する。
When the
タッチスクリーン102は、各種情報を表示する表示デバイスである液晶パネル102Aと、操作入力を受け付ける操作入力デバイスであるタッチパネル102Bとで構成される。
The
タッチパネル102Bは、上述したように、静電容量式のタッチパネルであり、操作面に対して格子状に配置された複数の静電センサ(図示せず)を有している。これら複数の静電センサの各々は、指などの導体が操作面に近づくことで変化する静電容量に応じて、出力値が変化する。
As described above, the
実際、図4に示すように、タッチパネル102Bの操作面に対して指が近づけられたとする。このとき、指の真下に位置する静電センサの出力値は、例えば、操作面と指との距離が30mmのときには「10」、15mmのときには「20」、5mmのときには「40」、操作面に指が接触したときには最大の「80」と変化する。
Actually, as shown in FIG. 4, it is assumed that the finger is brought close to the operation surface of the
CPU110は、このように変化する各静電センサの出力値と、各静電センサの位置とをタッチパネル102Bから取得する。そしてCPU110は、これらをもとに、タッチパネル102Bの操作面上において、指が接触している部分、近接している部分、接触も近接もしていない部分を区別する。尚、ここでは、指が接触している部分を接触部分とも呼び、近接している部分を近接部分、接触も近接もしていない部分を非近接部分とも呼ぶ。
CPU110 acquires the output value of each electrostatic sensor which changes in this way, and the position of each electrostatic sensor from
具体的に、CPU110は、図5に示すように、タッチパネル102Bの操作面上において、静電センサの出力値が「50」以上となる部分を、接触部分と判別する。またCPU110は、出力値が「20」以上「50」未満となる部分を、近接部分と判別し、出力値が「20」未満となる部分を、非近接部分と判別する。
Specifically, as illustrated in FIG. 5, the
CPU110は、このようにしてタッチパネル102Bの操作面上における接触部分、近接部分、非近接部分を判別することで、例えば、操作面に指が接触しているのか、それとも近接しているだけなのかなどを検知できる。また、操作面上のどの位置に指が接触又は近接しているのかを検知することもできる。
In this way, the
このとき、CPU110は、接触部分が存在する場合には、例えばその重心又は中心(操作面上に接触している指の腹の重心又は中心)をタッチ位置として検知するようになっている。またCPU110は、近接部分のみが存在する場合には、例えばその重心又は通信(操作面に近接している指の腹の重心又は中心)を、近接位置として検知するようになっている。
At this time, if there is a contact portion, the
さらにCPU110は、一定時間ごとに、タッチパネル102Bから各静電センサの出力値を取得し、接触部分、近接部分、非近接部分を判別していくことで、これらをもとにタッチ位置及び近接位置の変移を検知する。
Further, the
さらにCPU110は、これらの変移をもとに、タッチパネル102B上での指の動きを特定して、この動きをもとに、タッチスクリーン102に対するタッチ操作及び近接操作を認識する。そして、CPU110は、これを操作入力として受け付け、操作入力に応じた処理を実行するようになっている。
Further, the
またCPU110は、操作ボタン103に対する押下操作を認識すると、これを操作入力として受け付け、この操作入力に応じた処理を実行するようにもなっている。
Further, when the
ここで、タッチスクリーン102に、例えば、不揮発性メモリ111に記憶された音楽データから取得された曲タイトルのリストの一部分が表示された状態で、ユーザがタッチスクリーン102に対してドラッグを行ったとする。尚、ドラッグとは、操作面に指を接触させたまま移動させる操作のことである。
Here, for example, it is assumed that the user performs a drag on the
このときCPU110は、タッチスクリーン102に対するドラッグを認識すると、このドラッグを、リストをスクロールする操作入力として受け付け、ドラッグにおける指の移動に合わせてリストをスクロールさせる。
At this time, when recognizing the drag on the
またこのようにタッチスクリーン102に曲タイトルのリストが表示された状態で、ユーザがタッチスクリーン102に対してフリックを行ったとする。
Further, it is assumed that the user flicks the
このときCPU110は、タッチスクリーン102に対するフリックを認識すると、このフリックを、リストをスクロールする操作入力として受け付け、フリックの速度、方向などに応じてリストを一定時間継続してスクロールさせた後スクロールを停止する。
At this time, when the
またこのようにタッチスクリーン102に曲タイトルのリストが表示された状態で、ユーザが任意の曲タイトルをタップしたとする。
Further, it is assumed that the user taps an arbitrary song title in a state where the list of song titles is displayed on the
このときCPU110は、タッチスクリーン102に対するタップを認識すると、このタップを、音楽データを再生する操作入力として受け付け、不揮発性メモリ111からタップされた曲タイトルに対応する音楽データを読み出して再生部113(図3)に送る。
At this time, when the
再生部113は、CPU110の制御のもと、音楽データに対して、デコード処理、デジタアナログ変換処理、増幅処理などの再生処理を施すことで、音声信号を得、これをヘッドホン端子(図示せず)から出力する。
Under the control of the
こうすることで、ヘッドホン端子に接続されたヘッドホンを介してユーザに音楽を聴かせることができる。 In this way, the user can listen to music via the headphones connected to the headphone terminal.
またこのときCPU110は、読み出した音楽データから、曲タイトル、アーティスト名などの情報を取得して、これを例えば液晶パネル102Aに表示させる。こうすることで、再生中の音楽に関する情報をユーザに提示することができる。
At this time, the
また、例えば、タッチスクリーン102に、Webブラウザを起動する為のWebブラウザアイコンが表示された状態で、ユーザが、このWebブラウザアイコンをタップしたとする。
Further, for example, it is assumed that the user taps the web browser icon while the web browser icon for starting the web browser is displayed on the
このときCPU110は、タッチスクリーン102に対するタップを認識すると、このタップを、Webブラウザを起動する操作入力として受け付け、Webブラウザを起動して、液晶パネル102AにWebブラウザ画面を表示させる。
At this time, when the
またこのときCPU110は、ネットワークインタフェース114を介して、ネットワーク上のサーバと通信して、このサーバからWebページのページデータを取得する。そしてCPU110は、このページデータに基づくページ画像を、Webブラウザ画面上に表示させる。
At this time, the
こうすることで、Webブラウザ画面を介して、ユーザにWebページを閲覧させることができる。 By doing so, the user can browse the Web page via the Web browser screen.
またこのようにタッチスクリーン102にWebブラウザ画面が表示された状態で、ユーザがタッチスクリーン102に対してシャッフルを行ったとする。尚、シャッフルとは、指をタッチパネルに近接させた状態において指でジグザグを描く近接操作のことである。
Further, it is assumed that the user shuffles the
このときCPU110は、タッチスクリーン102に対するシャッフルを認識すると、このシャッフルを、前のページ画像に戻る操作入力として受付、Webブラウザ画面に現在表示しているページ画像に代えて前のページ画像を表示させる。
At this time, when the
因みに本実施の形態の概要で説明した情報処理装置1の接触検知部2及び近接検知部3の具体的なハードウェアの例が、上述した携帯端末100のタッチパネル102Bである。また情報処理装置1の制御部4の具体的なハードウェアの例が、上述した携帯端末100のCPU110である。
Incidentally, a specific example of hardware of the
[1−4.タッチ操作の認識]
このように携帯端末100は、タッチスクリーン102に対するタッチ操作や近接操作を操作入力として認識するようになっている。ここでは、携帯端末100におけるタッチ操作の認識について、以下詳しく説明する。
[1-4. Touch operation recognition]
As described above, the
CPU110は、上述したように、一定時間ごとにタッチパネル102Bから各静電センサの出力値を取得して、タッチ位置又は近接位置を検知する。CPU110は、これらタッチ位置又は近接位置を示す位置データを、操作面に対する接触及び近接の履歴を示す履歴データとして不揮発性メモリ111に記憶するようになっている。尚CPU110は、当該履歴データとして、現時点よりも前の時点における当該位置データを、所定数(例えば5〜6個)不揮発性メモリ111に保持しておくようになっている。
As described above, the
そしてCPU110は、履歴データをもとに、操作面に対する指の接触が所定時間以上継続していることを検知すると、操作面に指をタッチし続ける操作、すなわちドラッグが行われていることを認識し、このドラッグを操作入力として認識する。
When the
一方CPU110は、履歴データをもとに、当該所定時間が経過する前に指が操作面から離されたことを検知すると、指が操作面に接触したあとすぐに離されたことを認識する。
On the other hand, when
するとCPU110は、指が接触し始めたことを検知した時点におけるタッチ位置(これを開始タッチ位置とも呼ぶ)と、指が離されたことを検知した時点の直前に検知されたタッチ位置(これを終了タッチ位置とも呼ぶ)の距離を算出する。すなわちCPU110は、タッチ位置の移動距離(つまり指の接触中に指が移動した距離)を算出する。
Then, the
そしてCPU110は、開始タッチ位置と終了タッチ位置の距離が所定値以上の場合、タッチ位置の移動があったことを検知し、行われた操作入力がフリックであると決定する。一方CPU110は、開始タッチ位置と終了タッチ位置の距離が所定値よりも小さい場合、タッチ位置の移動がなかったことを検知し、行われた操作入力がタップであると決定する。尚、この所定値は、タッチ位置の移動がほぼなかったとみなせる程度の値であり、例えばユーザが意図しない指のぶれなどによるタッチ位置の移動距離はこの所定値よりも小さくなるよう予め設定される。
Then, when the distance between the start touch position and the end touch position is greater than or equal to a predetermined value, the
例えば、図6に示すように、タッチパネル102Bの操作面に対して画面下方向(図中Y軸負の方向)にフリックが行われたとする。
For example, as shown in FIG. 6, it is assumed that a flick is performed in the lower direction of the screen (the negative Y-axis direction in the drawing) with respect to the operation surface of the
このときCPU110は、一定時間Tごとにタッチパネル102Bから各静電センサの出力値を取得してタッチ位置又は近接位置を検知する。CPU110は、例えば、時点t1〜t3において近接位置を検知し、時点t4〜t6においてタッチ位置を検知し、時点t7において近接位置を検知する。
At this time, the
またCPU110は、指が操作面に接触したあとすぐに離されたことを時点t7において認識すると、履歴データをもとに、開始タッチ位置と終了タッチ位置の距離を算出する。
When the
そしてCPU110は、開始タッチ位置と終了タッチ位置の距離が所定値以上であることを認識すると、行われた操作入力がフリックであると決定する。またCPU110は、開始タッチ位置が始点であり終了タッチ位置が終点であるベクトルを検出し、このベクトルから指が画面下方向に移動したことを認識すると、このフリックが画面下方向へのフリックであると認識する。
When the
一方、図7に示すように、タッチパネル102Bの操作面に対して画面下方向に図6に示した場合よりも比較的速いフリックが行われたとする。 On the other hand, as shown in FIG. 7, it is assumed that flicking that is relatively faster than the case shown in FIG.
このときCPU110は、一定時間Tごとにタッチパネル102Bから各静電センサの出力値を取得してタッチ位置又は近接位置を検知する。CPU110は、例えば、時点t11、t12において近接位置を検知し、時点t13においてタッチ位置を検知し、時点t14において近接位置を検知する。
At this time, the
この場合、図6に示した場合と比較してフリックが速いために、指が操作面に接触していた時間が短くタッチ位置が1点しか検知されていない。 In this case, since the flick is faster than the case shown in FIG. 6, the time during which the finger is in contact with the operation surface is short, and only one touch position is detected.
ゆえにCPU110は、指が操作面に接触したあとすぐに離されたことを時点t14において認識したあと、開始タッチ位置と終了タッチ位置の距離を算出できず、タッチ位置の移動があったことを検知できない。
Therefore, the
つまりこの場合、ユーザがタッチパネル102Bに対してフリックを行ったにもかかわらず、携帯端末100はフリックが行われたことを認識することができず、ユーザに不快感を与えてしまうこととなる。
That is, in this case, although the user flicks the
そこでこの場合、携帯端末100は、タッチ位置だけでなく近接位置も用いてタッチ操作を認識するようになっている。
Therefore, in this case, the
具体的にCPU110は、指が操作面に接触したあとすぐに離されたことを時点t14において認識すると、履歴データをもとに、指が操作面に接触している間に検知されたタッチ位置の個数を数える。
Specifically, when the
そしてCPU110は、当該タッチ位置の個数が1個の場合、当該タッチ位置に加え、指が接触する直前及び指が離された直後の時点(ここでは時点t12及び時点t14)に検知された近接位置をもとに、タッチ操作を認識する。
When the number of the touch positions is one, the
ここで、図8(A)及び(B)に、図7に示す画面下方向にフリックが行われた場合の、指が接触する直前の時点t12における近接位置P0、時点t13におけるタッチ位置P1、指が離された直後の時点t14における近接位置P2の位置関係を示す。尚、指が接触する直前の時点における近接位置を、接触前近接位置とも呼び、指が離された直後の時点における近接位置を、接触後近接位置とも呼ぶ。 8A and 8B, when the flick is performed in the downward direction of the screen shown in FIG. 7, the proximity position P0 at the time t12 immediately before the finger touches, the touch position P1 at the time t13, The positional relationship of the proximity position P2 at the time point t14 immediately after the finger is released is shown. Note that the proximity position immediately before the finger contacts is also referred to as a pre-contact proximity position, and the proximity position immediately after the finger is released is also referred to as a post-contact proximity position.
フリックにおいてユーザが指で操作面を軽く払うとき、指は、操作面に近づいて接触し離れるまで、すなわち接触前後も接触中も、ほぼ一定方向(ここでは画面下方向)に直線的に動かされると想定される。ゆえに、接触前近接位置P0とタッチ位置P1との距離La及びタッチ位置P1と接触後近接位置P2との距離Lbは、比較的長くなると考えられる。また、接触前近接位置P0及びタッチ位置P1を通る直線と接触前近接位置P0及び接触後近接位置P2を通る直線とがなす角度αは比較的小さくなると考えられる。 When the user gently flicks the operation surface with his / her finger in the flick, the finger is moved linearly in a substantially constant direction (here, the screen downward direction) until it approaches the operation surface and comes into contact with it, that is, before and after contact. It is assumed. Therefore, the distance La between the proximity position P0 before contact and the touch position P1 and the distance Lb between the touch position P1 and the proximity position P2 after contact are considered to be relatively long. Further, it is considered that the angle α formed by the straight line passing through the pre-contact proximity position P0 and the touch position P1 and the straight line passing through the pre-contact proximity position P0 and the post-contact proximity position P2 is relatively small.
一方図9に示すように、タッチパネル102Bに対してタップが行われ、このときCPU110は、例えば、時点t21及び時点t22において近接位置を検知し、時点t23においてタッチ位置を検知し、時点t24において近接位置を検知したとする。
On the other hand, as shown in FIG. 9, the
この場合の、タッチパネル102Bの操作面上での、時点t22における接触前近接位置P10、時点t23におけるタッチ位置P11、時点t24における接触後近接位置P12の位置関係を図10(A)及び(B)に示す。
In this case, the positional relationship between the pre-contact proximity position P10 at time t22, the touch position P11 at time t23, and the post-contact proximity position P12 at time t24 on the operation surface of the
タップにおいてユーザが指を操作面上の任意の1点にタッチさせるとき、指は、操作面に近づいて接触し離れるまで、操作面上の1点に向かってほぼ垂直に動かされると想定される。すなわち接触前後も接触中も、操作面と平行な面においては指の位置があまり移動しないため、接触前近接位置P10とタッチ位置P11との距離Lc及びタッチ位置P11と接触後近接位置P12との距離Ldは、フリックの際と比較して短くなると考えられる。 When the user touches an arbitrary point on the operation surface at the tap, the finger is assumed to be moved substantially vertically toward the point on the operation surface until the finger approaches and touches the operation surface. . That is, since the position of the finger does not move so much on a plane parallel to the operation surface before and after the contact, the distance Lc between the pre-contact proximity position P10 and the touch position P11 and the touch position P11 and the post-contact proximity position P12. The distance Ld is considered to be shorter than when flicking.
また、タップにおいて、指のぶれなどが原因でユーザが意図せずに操作面と平行な面においては指の位置が移動した場合、操作面と平行な面における指の移動方向は一定ではないことが想定される。ゆえに接触前近接位置P10及びタッチ位置P11を通る直線と接触前近接位置P10及び接触後近接位置P12を通る直線とがなす角度βは、フリックの際と比較して大きくなると考えられる。 Also, when the position of the finger moves on a surface parallel to the operation surface unintentionally by the user due to a shake of the finger, the direction of finger movement on the surface parallel to the operation surface is not constant. Is assumed. Therefore, it is considered that the angle β formed by the straight line passing through the pre-contact proximity position P10 and the touch position P11 and the straight line passing through the pre-contact proximity position P10 and the post-contact proximity position P12 is larger than that at the time of flicking.
そこでCPU110は、指が接触している間に検知されたタッチ位置の個数が1個の場合、接触前近接位置とタッチ位置との距離及びタッチ位置と接触後近接位置との距離(これらをまとめて近接タッチ移動距離とも呼ぶ)が所定値以上であるか否かを判別する。尚、この所定値は、フリックにおいて指を軽く払う際の近接タッチ移動距離が所定値以上となり、タップにおけるユーザの意図しない指のぶれなどによる近接タッチ移動距離が所定値よりも小さくなるよう予め設定される。
Therefore, when the number of touch positions detected while the finger is in contact is 1, the
さらにCPU110は、接触前近接位置及びタッチ位置を通る直線と接触前近接位置及び接触後近接位置を通る直線とがなす角度(これを近接タッチ移動角度とも呼ぶ)が所定値以下であるか否かを判別する。尚、この所定値は、フリックにおいてユーザが指を一定方向に動かそうとしている際の近接タッチ移動角度が所定値以下となり、タップにおけるユーザの意図しない指のぶれなどによる近接タッチ移動角度が所定値よりも大きくなるよう予め設定される。
Further, the
そしてCPU110は、近接タッチ移動距離が所定値以上であり且つ近接タッチ移動角度が所定値以下であると判別すると、タッチパネル102Bに対する操作入力がフリックであると決定し、フリックが行われたことを認識する。
When the
一方CPU110は、近接タッチ移動距離が所定値よりも小さい又は近接タッチ移動角度が所定値よりも大きいことを判別すると、タッチパネル102Bに対する操作入力がタップであると決定し、タップが行われたことを認識する。
On the other hand, when determining that the proximity touch movement distance is smaller than the predetermined value or the proximity touch movement angle is larger than the predetermined value, the
このようにCPU110は、指が接触している間に検知されたタッチ位置の個数が1個である場合には、当該タッチ位置に加え、指の接触前後に検知された近接位置(接触前近接位置及び接触後近接位置)をもとにフリック又はタップを認識するようになっている。
As described above, when the number of touch positions detected while the finger is in contact is one, the
尚CPU110は、指が接触している間に検知されたタッチ位置の個数が2個以上である場合には、上述したようにタッチ位置の移動があったか否かを検知し、この検知結果をもとにフリック又はタップを認識するようになっている。すなわち、CPU110は、指が接触している間に検知されたタッチ位置の個数が2個以上である場合には、タッチ位置のみをもとにフリック又はタップを認識するようになっている。
When the number of touch positions detected while the finger is in contact is two or more, the
このようにして携帯端末100では、タッチパネル102Bに対するタッチ操作(タップ及びフリック)を認識するようになっている。
In this way, the
[1−5.操作認識処理手順]
次に、図11に示すフローチャートを用いて、上述したタッチ操作を認識する処理の手順(これを操作認識処理手順とも呼ぶ)RT1について説明する。この操作認識処理手順RT1は、CPU110が不揮発性メモリ111に格納されているプログラムに従って実行する処理手順である。
[1-5. Operation recognition processing procedure]
Next, a procedure of processing for recognizing the touch operation described above (also referred to as an operation recognition processing procedure) RT1 will be described using the flowchart shown in FIG. This operation recognition processing procedure RT1 is a processing procedure executed by the
CPU110は、例えば携帯端末100の電源がオンされると、操作認識処理手順RT1を開始して、ステップSP1に移る。
For example, when the power of the
ステップSP1においてCPU110は、タッチパネル102Bに対する指の接触又は近接を検知したか否かを判別する。
In step SP1, the
このステップSP1において指の接触又は近接を検知したことにより肯定結果を得ると、CPU110は、次のステップSP2に移る。
If an affirmative result is obtained by detecting finger contact or proximity in step SP1, the
ステップSP2においてCPU110は、検知した指のタッチ位置又は近接位置を示す位置データを、履歴データとして不揮発性メモリ111に記憶し、次のステップSP3に移る。
In step SP2, the
ステップSP3においてCPU110は、履歴データをもとに、指の接触が所定時間以上継続しているか否かを判別する。
In step SP3, the
このステップSP3において肯定結果が得られると、このことは、操作面に指をタッチし続ける操作が行われていることを意味し、このときCPU110は、次のステップSP4に移る。
If a positive result is obtained in step SP3, this means that an operation of continuing to touch the operation surface with a finger is being performed, and at this time, the
ステップSP4においてCPU110は、タッチパネル102Bに対する操作入力がドラッグであると決定してドラッグが行われたことを認識し、このドラッグに応じた処理を行って、再度ステップSP1に戻る。
In step SP4, the
一方ステップSP3において、指の接触が所定時間以上継続していないことより否定結果が得られると、このときCPU110は、次のステップSP5に移る。
On the other hand, if a negative result is obtained in step SP3 because the finger contact has not continued for a predetermined time or longer, the
またステップSP1において指の接触又は近接を検知していないことにより否定結果を得ると、CPU110は、次のステップSP5に移る。
If a negative result is obtained by not detecting finger contact or proximity in step SP1, the
ステップSP5においてCPU110は、履歴データをもとに、操作面から指が離されたか否かを判別する。具体的にCPU110は、タッチ位置が連続して検知されなかった場合、操作面から指が離されたと判別する。
In step SP5, the
このステップSP5において否定結果を得ると、このことは、指が接触し続けている又はもともと指が接触していないことを意味し、このときCPU110は、再度ステップSP1に戻る。
If a negative result is obtained in this step SP5, this means that the finger continues to be in contact or the finger has not been in contact, and at this time, the
一方ステップSP5において操作面から指が離されたことにより肯定結果を得ると、このことは、指の接触が所定時間以上継続する前に指が離された、すなわち指が操作面に接触したあとすぐに離されたことを意味する。このときCPU110は、次のステップSP6に移る。
On the other hand, if a positive result is obtained when the finger is released from the operation surface in step SP5, this means that the finger is released before the finger contact continues for a predetermined time or longer, that is, after the finger contacts the operation surface. It means that it was released immediately. At this time, the
ステップSP6においてCPU110は、履歴データをもとに、指が操作面に接触している間に検知されたタッチ位置の個数が2個以上であるか否かを判別する。
In step SP6, the
このステップSP6において肯定結果を得ると、このことは、タッチ位置のみを用いてタップ又はフリックを認識可能なことを意味し、このときCPU110は、次のステップSP7に移る。
If an affirmative result is obtained in step SP6, this means that a tap or flick can be recognized using only the touch position. At this time, the
ステップSP7においてCPU110は、上述したようにタッチ位置のみをもとに、タッチパネル102Bに対する操作入力がフリックか又はタップかを決定し、フリック又はタップが行われたことを認識する。そしてCPU110は、認識したフリック又はタップに応じた処理を実行して、再度ステップSP1に戻る。
In step SP7, the
一方ステップSP6において、指が操作面に接触している間に検知されたタッチ位置の個数が1個であることより否定結果を得ると、このことは、タッチ位置だけではタップ又はフリックを認識できないことを意味する。このときCPU110は、次のステップSP8に移る。
On the other hand, if a negative result is obtained in step SP6 because the number of touch positions detected while the finger is in contact with the operation surface is one, this means that a tap or flick cannot be recognized only by the touch position. Means that. At this time, the
ステップSP8においてCPU110は、上述したようにタッチ位置及び指の接触前後の時点における近接位置をもとに、タッチパネル102Bに対する操作入力がフリックか又はタップかを決定し、フリック又はタップが行われたことを認識する。そしてCPU110は、認識したフリック又はタップに応じた処理を実行して、再度ステップSP1に戻る。
In step SP8, the
このような操作認識処理手順RT1にしたがって、携帯端末100のCPU110は、タッチ操作を認識するようになっている。
According to such an operation recognition processing procedure RT1, the
[1−6.動作及び効果]
以上の構成において、携帯端末100は、一定時間Tごとに静電容量式のタッチパネル102Bの出力値を取得して、タッチ位置又は近接位置を検知する。
[1-6. Operation and effect]
In the above configuration, the
ここで携帯端末100は、タッチパネル102Bの操作面に指が接触したあとすぐに離されたことを検知すると、指が操作面に接触している間に検知されたタッチ位置の個数が2個以上であるか否かを判別する。
Here, when the
そして携帯端末100は、当該タッチ位置の個数が2個以上である場合には、タッチ位置のみに基づいて、タッチパネル102Bに対する操作入力がフリックか又はタップかを決定し、フリック又はタップが行われたことを認識する。
When the number of touch positions is two or more, the
一方携帯端末100は、当該タッチ位置の個数が2個よりも少ない場合、すなわち当該タッチ位置の個数が1個の場合、タッチ位置と指の接触前後の時点における近接位置とに基づいて、タッチパネル102Bに対する操作入力がフリックか又はタップかを決定し、フリック又はタップが行われたことを認識する。
On the other hand, when the number of the touch positions is less than two, that is, when the number of the touch positions is one, the
このように携帯端末100は、指が操作面に接触している間に検知されたタッチ位置の個数が1個の場合には、タッチ位置に加えて指の接触の前後の近接位置に基づいて、指示物の接触が所定の操作入力(タップ又はフリック)かを決定するようにした。すなわち携帯端末100は、指が操作面に近づいて接触し離れるまでの一連の動きをもとに指示物の接触が所定の操作入力(タップ又はフリック)かを決定するようにした。
Thus, when the number of touch positions detected while the finger is in contact with the operation surface is one, the
これにより携帯端末100は、タッチ位置の個数が少なくタッチ位置のみではどのような操作入力が行われたか認識できない場合であっても、指示物の接触による操作入力(すなわちタッチ操作)を確実に認識することができる。
As a result, the
従って携帯端末100は、指の近接を検知しうるようタッチパネルの感度を上げたことに伴いサンプリング間隔が従来よりも長くなってしまった場合でも、従来のタッチ操作(タップ、フリック)を確実に認識することができる。ゆえにこの携帯端末100は、従来の操作感はそのままで、近接操作を加えた多様な操作入力を実現することができる。
Therefore, even if the sampling interval becomes longer than before due to the increased sensitivity of the touch panel so that the proximity of the finger can be detected, the
またこれにより携帯端末100は、サンプリング間隔を短くして一定時間あたりに検知するタッチ位置の個数を増やさなくてもタッチ操作の認識精度を向上することができるので、例えばサンプリング間隔を短くすることに伴う消費電力の上昇を防ぐことができる。
In addition, the
また携帯端末100では、タッチ位置のみを用いてタッチ操作を認識する場合よりもタッチ位置及び近接位置の両方を用いてタッチ操作を認識する場合の方が、計算量が多いため、処理負荷が大きくなっている。
Further, in the
そこで携帯端末100は、タッチ位置の個数が2個以上である場合、すなわちタッチ位置が移動したか否かを検知できタッチ位置のみでタッチ操作を認識しうる場合には、タッチ位置のみを用いてタッチ操作を認識するようにした。また携帯端末100は、タッチ位置の個数が1個である場合、すなわちタッチ位置が移動したか否かを検知できずタッチ位置のみではタッチ操作を認識できない場合にのみ、タッチ位置及び近接位置の両方を用いてタッチ操作を認識するようにした。
Therefore, when the number of touch positions is two or more, that is, when it is possible to detect whether the touch position has moved and to recognize a touch operation only by the touch position, the
これにより携帯端末100は、タッチ操作を精度よく認識しながらも処理負荷を抑えることができる。
Thereby, the
以上の構成によれば、携帯端末100は、タッチ位置と指の接触前後の近接位置とをもとにタッチ操作を認識することにより、タッチ位置のみをもとにタッチ操作を認識する場合と比してタッチ操作の認識精度を向上することができる。
According to the above configuration, the
<2.他の実施の形態>
[2−1.他の実施の形態1]
なお上述した実施の形態では、CPU110は、指が接触している間に検知されたタッチ位置の個数が2個よりも少ない場合、すなわち1個の場合にのみ、当該タッチ位置と指の接触前後に検知された近接位置とをもとに所定のタッチ操作かを決定するようにした。
<2. Other embodiments>
[2-1. Other Embodiment 1]
In the above-described embodiment, the
このように当該タッチ位置の個数が2個よりも少ない場合に限らず、CPU110は、当該タッチ位置の個数がこの他種々の所定数よりも少ない場合に、当該タッチ位置と指の接触前後に検知された近接位置とをもとに所定のタッチ操作かを決定してもよい。
In this way, not only when the number of touch positions is less than two, but the
尚、この所定数は、タッチ位置の移動があったか否かを判別しうる個数、つまり2個以上の数であれば、種々の値を設定してもよい。またこの所定数は大きくなるほど、タッチ操作の認識精度は高くなるが、これに伴って、計算量が多くなるためCPU110の処理負荷も増えてしまう。従ってこの所定数は、さらに、タッチ操作の認識精度やCPU110の処理能力をふまえて設定されてもよい。
Note that various values may be set as long as the predetermined number is a number that can determine whether or not the touch position has moved, that is, a number that is two or more. In addition, as the predetermined number increases, the recognition accuracy of the touch operation increases. However, the amount of calculation increases and the processing load of the
またこれに限らずCPU110は、指が接触している間に検知されたタッチ位置の個数によらず、常に当該タッチ位置と指の接触前後に検知された近接位置とをもとに所定のタッチ操作かを決定するようにしてもよい。
In addition, the
[2−2.他の実施の形態2]
また上述した実施の形態では、CPU110は、指が接触している間に検知されたタッチ位置と、指が接触する直前及び指が離された直後の時点に検知された近接位置とをもとに所定のタッチ操作かを決定するようにした。
[2-2. Other Embodiment 2]
Further, in the above-described embodiment, the
これに限らずCPU110は、当該タッチ位置と、指の接触前後いずれか一方に検知された近接位置とをもとに所定のタッチ操作かを決定するようにしてもよい。
However, the present invention is not limited to this, and the
この場合CPU110は、指が近づいてから接触するまでの指の動きに特徴のあるタッチ操作であれば、タッチ位置と指の接触前に検知された近接位置をもとに所定のタッチ操作かを決定するようにしてもよい。一方CPU110は、指が接触してから離れるまでの指の動きに特徴のあるタッチ操作であれば、タッチ位置と指の接触後(指が離された後)に検知された近接位置をもとに所定のタッチ操作かを決定するようにしてもよい。
In this case, the
また例えばCPU110は、指の接触前又は接触後に検知された近接位置の何点か(例えば指の接触直前と、その時点の1つ前の時点に検知された近接位置など)とタッチ位置とをもとに所定のタッチ操作かを決定するようにしてもよい。
In addition, for example, the
[2−3.他の実施の形態3]
さらに上述した実施の形態では、CPU110は、指が接触している間に検知されたタッチ位置と指の接触前後に検知された近接位置との距離(近接タッチ移動距離)をもとに所定のタッチ操作かを決定するようにした。
[2-3. Other Embodiment 3]
Further, in the above-described embodiment, the
これに限らずCPU110は、当該タッチ位置及び当該近接位置のうちいずれか2点間の距離をもとに所定のタッチ操作かを決定するようにしてもよい。CPU110は、例えば、指の接触前の近接位置と指の接触後の近接位置との距離をもとに所定のタッチ操作かを決定するようにしてもよい。
Not limited to this, the
[2−4.他の実施の形態4]
さらに上述した実施の形態では、CPU110は、指の接触前に検知された近接位置及び指が接触している間に検知されたタッチ位置を通る直線と、指の接触前に検知された近接位置及び指の接触後に検知された近接位置を通る直線とがなす角度(近接タッチ移動角度)をもとに所定のタッチ操作かを決定するようにした。
[2-4. Other Embodiment 4]
Further, in the above-described embodiment, the
これに限らずCPU110は、当該タッチ位置及び当該近接位置のうちいずれか2点を通る直線同士がなす角度をもとに所定のタッチ操作かを決定するようにしてもよい。CPU110は、例えば、指の接触前に検知された近接位置及び当該タッチ位置を通る直線と、当該タッチ位置及び指の接触後に検知された近接位置を通る直線とがなす角度をもとに所定のタッチ操作かを決定するようにしてもよい。
Not limited to this, the
[2−5.他の実施の形態5]
さらに上述した実施の形態では、CPU110は、近接タッチ移動距離及び近接タッチ移動角度をもとに、所定のタッチ操作かを決定するようにしてもよい。
[2-5. Other Embodiment 5]
Further, in the above-described embodiment, the
これに限らずCPU110は、近接タッチ移動距離又は近接タッチ移動角度いずれか一方をもとにタッチ操作を認識するようにしてもよい。
Not limited to this, the
またCPU110は、指が接触している間に検知されたタッチ位置及び指の接触前後少なくとも一方に検知された近接位置の位置関係であれば、近接タッチ移動距離又は近接タッチ移動角度に限らず、この他種々の位置関係をもとに所定のタッチ操作かを決定してもよい。
Further, the
例えばCPU110は、当該タッチ位置及び当該近接位置を含む最小の範囲(例えば円状の範囲)を検出し、当該範囲の面積が所定値以上か否かを判別するようにしてもよい。そしてCPU110は、当該範囲の面積が所定値以上の場合、指が操作面上で移動した操作、つまりフリックであると決定し、当該範囲の面積が所定値よりも小さい場合、指が操作面上でほぼ移動しない操作、つまりタップであると決定するようにしてもよい。
For example, the
[2−6.他の実施の形態6]
さらに上述した実施の形態では、CPU110は、指が接触している間に検知されたタッチ位置と指の接触前後の近接位置とをもとに、行われた操作入力がタップ又はフリックであるかを決定するようにした。
[2-6. Other Embodiment 6]
Further, in the embodiment described above, the
これに限らずCPU110は、指が近づいてから接触するまでの指の動き、又は指が接触してから離れるまでの指の動きに特徴のあるタッチ操作であれば、この他種々のタッチ操作をタッチ位置と指の接触前後の近接位置とをもとに決定するようにしてもよい。
Not limited to this, the
例えば、CPU110は、操作面上の2点に同時に指が接触した場合に、指が接触した各点において指が接触している間に検知されたタッチ位置の個数が1個ずつであったとする。この場合、CPU110は、タッチ位置のみでは、2点を同時にタップ(これを2点タップとも呼ぶ)したのか、接触させた2本の指の間を広げる操作(ピンチイン)を行ったのか、接触させた2本の指の間を狭める操作(ピンチアウト)を行ったのかを区別できない。
For example, when the finger touches two points on the operation surface at the same time, the
そこでこの場合CPU110は、タッチ位置に加え指の接触後の近接位置をもとに、操作面に平行な面において2本の指が移動したのか否かを区別して、2点タップが行われたのか又はピンチインピンチアウトが行われたのかを決定する。
Therefore, in this case, the
さらにCPU110は、当該タッチ位置及び当該近接位置をもとに、操作面に平行な面において2本の指が近づく方向に移動したのか又は遠ざかる方向に移動したのかを区別して、ピンチインが行われたのか又はピンチアウトが行われたのかを決定する。
Furthermore, the
[2−7.他の実施の形態7]
さらに上述した実施の形態では、CPU110は、指が接触している間に検知されたタッチ位置の個数が1個の場合のみ、タッチ位置及び近接位置をもとに所定のタッチ操作かを決定するようにした。
[2-7. Other Embodiment 7]
Further, in the above-described embodiment, the
これに限らずCPU110は、この他種々の条件で、タッチ位置及び近接位置をもとに所定のタッチ操作かを決定するか、それともタッチ位置のみをもとに所定のタッチ操作を決定するかを切り替えるようにしてもよい。すなわちCPU110は、タッチ位置のみで所定のタッチ操作かを決定できる場合にはタッチ位置のみをもとにタッチ操作を決定し、タッチ位置のみでは所定のタッチ操作かを決定できない場合のみタッチ位置と近接位置とをもとにタッチ操作を決定してもよい。こうすることにより携帯端末100は、タッチ操作を精度よく認識しながらも処理負荷を抑えることができる。
Not limited to this, the
例えば、CPU110は、フリックを操作入力として受け付けるようになされたアプリが実行されている場合にのみ、タッチ位置及び近接位置をもとに操作入力がフリックであるかを決定するようにしてもよい。すなわちCPU110は、例えばタップのみを操作入力として受け付けるアプリの場合は、タップとフリックを区別する必要がないため、タッチ位置のみをもとにタップを認識すればよい。
For example, the
また例えば、CPU110は、タッチ位置を検知したときに当該タッチ位置にフリックが対応づけられている場合にのみ、タッチ位置及び近接位置をもとに操作入力がフリックであるかを決定するようにしてもよい。すなわちCPU110は、当該タッチ位置にタップのみが対応づけられている場合(例えば当該タッチ位置に対応する液晶パネル102A上の箇所にボタンが表示されている場合など)は、タップかフリックかを区別する処理を行わずタップを認識すればよい。
Further, for example, the
[2−8.他の実施の形態8]
さらに上述した実施の形態では、タッチパネル102Bに対するタッチ操作を行う指示物としてユーザの指を用いた場合について述べた。本発明はこれに限らず、タッチパネルで接触及び近接を検知できるような指示物であれば、この他鉛筆、棒、専用のタッチペンなど、この他種々の指示物を用いてもよい。
[2-8. Other Embodiment 8]
Further, in the above-described embodiment, the case where the user's finger is used as an instruction for performing a touch operation on the
[2−9.他の実施の形態9]
さらに上述した実施の形態では、操作面に対する指示物の接触及び近接を検知するためのデバイスとして、静電容量方式のタッチパネル102Bを携帯端末100に設けるようにした。
[2-9. Other Embodiment 9]
Furthermore, in the above-described embodiment, the
これに限らず、操作面に対する指示物の接触及び近接を検知しうる操作入力デバイスであれば、例えば、液晶パネル内に光センサを内蔵した光センサ式のタッチスクリーンなど、この他種々の操作入力デバイスを携帯端末100に設けるようにしてもよい。
Not limited to this, as long as the operation input device can detect the contact and proximity of the pointing object to the operation surface, various other operation inputs such as an optical sensor type touch screen in which an optical sensor is incorporated in a liquid crystal panel, for example. You may make it provide a device in the
また液晶パネル102Aの代わりに、有機EL(Electro Luminescence)パネルなど、この他種々の表示デバイスを用いるようにしてもよい。
Various other display devices such as an organic EL (Electro Luminescence) panel may be used instead of the
[2−10.他の実施の形態10]
さらに上述した実施の形態では、情報処理装置1としての携帯端末100に、接触検知部2及び近接検知部3としてのタッチパネル102Bと、制御部4としてのCPU110を設けるようにした。
[2-10. Other Embodiment 10]
Furthermore, in the above-described embodiment, the
これに限らず、同様の機能を有するのであれば、上述した携帯端末100の各部を、他の種々のハードウェアもしくはソフトウェアにより構成するようにしてもよい。
Not only this but if it has the same function, you may make it comprise each part of the
さらに本発明は、携帯端末100に限らず、デジタルスチルカメラ、据置型のパーソナルコンピュータ、ゲーム機、ポータブルオーディオプレイヤ、携帯型電話機など、この他種々の機器に適用するようにしてもよく、また適用することができる。
Furthermore, the present invention is not limited to the
[2−11.他の実施の形態11]
さらに上述した実施の形態では、各種処理を実行するためのプログラムを、携帯端末100の不揮発性メモリ111に書き込んでおくようにした。
[2-11. Other Embodiment 11]
Furthermore, in the above-described embodiment, a program for executing various processes is written in the
これに限らず、例えば携帯端末100にメモリカードなどの記憶媒体のスロットを設け、CPU110がこのスロットに差し込まれた記憶媒体からプログラムを読み出して実行するようにしてもよい。またCPU110は、プログラムを、ネットワークインタフェース114を介してダウンロードして不揮発性メモリ111にインストールするようにしてもよい。
For example, the
[2−12.他の実施の形態12]
さらに本発明は、上述した実施の形態と他の実施の形態とに限定されるものではない。すなわち本発明は、上述した実施の形態と他の実施の形態の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用領域が及ぶものである。
[2-12. Other Embodiment 12]
Further, the present invention is not limited to the above-described embodiment and other embodiments. That is, the scope of application of the present invention extends to a form in which a part or all of the above-described embodiment and another embodiment are arbitrarily combined, or a form in which a part is extracted.
本発明は、タッチパネルを介して操作入力を行う機器で広く利用することができる。 The present invention can be widely used in devices that perform operation input via a touch panel.
1……情報処理装置、2……接触検知部、3……近接検知部、4……制御部、100……携帯端末、102……タッチスクリーン、102A……液晶パネル、102B……タッチパネル、110……CPU、111……不揮発性メモリ。
DESCRIPTION OF
Claims (7)
上記操作面に対する指示物の近接を検知する近接検知部と、
上記接触検知部により指示物の接触を検知すると、上記接触検知部による検知結果と、上記近接検知部による当該指示物の接触前後少なくとも一方の検知結果とに基づいて、当該指示物の接触が所定の操作入力かを決定する制御部と
を具える情報処理装置。 A contact detection unit that detects contact of an indicator with the operation surface;
A proximity detector that detects the proximity of the pointing object to the operation surface;
When contact of the indicator is detected by the contact detection unit, the contact of the indicator is predetermined based on a detection result by the contact detection unit and at least one detection result before and after the contact of the indicator by the proximity detection unit. An information processing apparatus comprising: a control unit that determines whether the input is an operation input.
上記操作面に対する指示物の接触位置を所定時間ごとに検知し、
上記制御部は、更に、
上記操作面に対する指示物が接触していたときに、上記接触検知部が検知した上記接触位置の個数に基づいて、当該指示物の接触が所定の操作入力かを決定する
請求項1に記載の情報処理装置。 The contact detector is
Detect the contact position of the pointing object with respect to the operation surface every predetermined time,
The control unit further includes:
The determination according to claim 1, wherein when the pointing object is in contact with the operation surface, whether the touch of the pointing object is a predetermined operation input is determined based on the number of the contact positions detected by the contact detection unit. Information processing device.
上記接触検知部が検知した上記指示物の接触位置及び上記近接検知部が検知した上記指示物の接触前後少なくとも一方の近接位置に基づいて、当該指示物の接触が所定の操作入力かを決定する
請求項1に記載の情報処理装置。 The control unit further includes:
Based on the contact position of the indicator detected by the contact detector and at least one proximity position before and after contact of the indicator detected by the proximity detector, it is determined whether the contact of the indicator is a predetermined operation input. The information processing apparatus according to claim 1.
上記接触位置及び上記近接位置の2点間の距離に基づいて、当該指示物の接触が所定の操作入力かを決定する
請求項3に記載の情報処理装置。 The control unit
The information processing apparatus according to claim 3, wherein whether the contact of the indicator is a predetermined operation input is determined based on a distance between two points of the contact position and the proximity position.
上記接触位置及び上記近接位置の2点を通る直線同士がなす角度に基づいて、当該指示物の接触が所定の操作入力かを決定する
請求項3に記載の情報処理装置。 The control unit
The information processing apparatus according to claim 3, wherein whether the contact of the indicator is a predetermined operation input is determined based on an angle formed by straight lines passing through the two points of the contact position and the proximity position.
近接検知部が、上記操作面に対する指示物の近接を検知し、
上記接触検知部により指示物の接触を検知すると、上記接触検知部による検知結果と、上記近接検知部による当該指示物の接触前後少なくとも一方の検知結果とに基づいて、当該指示物の接触が所定の操作入力かを決定する
操作入力決定方法。 The contact detection unit detects the contact of the indicator with the operation surface,
The proximity detection unit detects the proximity of the pointing object to the operation surface,
When contact of the indicator is detected by the contact detection unit, the contact of the indicator is predetermined based on a detection result by the contact detection unit and at least one detection result before and after the contact of the indicator by the proximity detection unit. How to determine the operation input.
接触検知部が、操作面に対する指示物の接触を検知する接触検知ステップと、
近接検知部が、上記操作面に対する指示物の近接を検知する近接検知ステップと、
上記接触検知ステップにより指示物の接触を検知すると、上記接触検知ステップでの検知結果と、上記近接検知ステップでの当該指示物の接触前後少なくとも一方の検知結果とに基づいて、当該指示物の接触が所定の操作入力かを決定する操作入力決定ステップと
を実行させるための操作入力決定プログラム。 For information processing equipment
A contact detection step in which the contact detection unit detects the contact of the indicator with the operation surface;
A proximity detection step in which the proximity detection unit detects the proximity of the pointing object to the operation surface;
When the contact of the indicator is detected in the contact detection step, the contact of the indicator is based on the detection result in the contact detection step and at least one detection result before and after the contact of the indicator in the proximity detection step. An operation input determination program for executing an operation input determination step for determining whether is a predetermined operation input.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010009184A JP2011150414A (en) | 2010-01-19 | 2010-01-19 | Information processing apparatus, method and program for determining operation input |
US12/980,543 US8633909B2 (en) | 2010-01-19 | 2010-12-29 | Information processing apparatus, input operation determination method, and input operation determination program |
CN2011100095328A CN102129313A (en) | 2010-01-19 | 2011-01-12 | Information processing apparatus, input operation determination method, and input operation determination program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010009184A JP2011150414A (en) | 2010-01-19 | 2010-01-19 | Information processing apparatus, method and program for determining operation input |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011150414A true JP2011150414A (en) | 2011-08-04 |
Family
ID=44267417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010009184A Pending JP2011150414A (en) | 2010-01-19 | 2010-01-19 | Information processing apparatus, method and program for determining operation input |
Country Status (3)
Country | Link |
---|---|
US (1) | US8633909B2 (en) |
JP (1) | JP2011150414A (en) |
CN (1) | CN102129313A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013105413A (en) * | 2011-11-16 | 2013-05-30 | Rohm Co Ltd | Touch panel control circuit, control method and touch panel input device using the same, and electronic apparatus |
JP2013242916A (en) * | 2012-04-27 | 2013-12-05 | Panasonic Corp | Input device, input support method, and program |
JP2015049880A (en) * | 2013-09-05 | 2015-03-16 | コニカミノルタ株式会社 | Touch panel input device, control method for touch panel input device, and control program for touch panel input device |
KR20150048526A (en) * | 2013-10-28 | 2015-05-07 | 삼성전자주식회사 | electronic appratus and user gesture recognition method thereof |
US9225810B2 (en) | 2012-07-03 | 2015-12-29 | Sony Corporation | Terminal device, information processing method, program, and storage medium |
JP2016062183A (en) * | 2014-09-16 | 2016-04-25 | キヤノン株式会社 | Information processing apparatus, control method thereof, program, and storage medium |
WO2016063736A1 (en) * | 2014-10-21 | 2016-04-28 | オリンパス株式会社 | Operation device, information processing apparatus provided with operation device, and operation acceptance method for information processing apparatus |
JP2018055720A (en) * | 2017-12-20 | 2018-04-05 | 富士ゼロックス株式会社 | Display controller and program |
US10261630B2 (en) | 2012-04-27 | 2019-04-16 | Panasonic Intellectual Property Corporation Of America | Input device, input support method, and program |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5651494B2 (en) | 2011-02-09 | 2015-01-14 | 日立マクセル株式会社 | Information processing device |
US10345912B2 (en) * | 2011-03-07 | 2019-07-09 | Lenovo (Beijing) Co., Ltd. | Control method, control device, display device and electronic device |
KR101794000B1 (en) * | 2011-06-13 | 2017-11-06 | 삼성전자주식회사 | Apparatus and method for scrolling in portable terminal |
JP5372091B2 (en) * | 2011-09-15 | 2013-12-18 | 株式会社ワコム | Electronic device and display screen control method for electronic device |
JP5806573B2 (en) * | 2011-09-28 | 2015-11-10 | キヤノン株式会社 | Coordinate input device, control method therefor, and coordinate input system |
JP2013105461A (en) * | 2011-11-16 | 2013-05-30 | Canon Inc | Information processing apparatus and method of controlling the same |
US20140208957A1 (en) * | 2012-02-14 | 2014-07-31 | Panasonic Corporation | Electronic device |
KR20130099420A (en) * | 2012-02-29 | 2013-09-06 | 주식회사 팬택 | Terminal having capacitive type touch screen and method of touch position detecting the same |
EP2648086A3 (en) | 2012-04-07 | 2018-04-11 | Samsung Electronics Co., Ltd | Object control method performed in device including transparent display, the device, and computer readable recording medium thereof |
CN102622182A (en) * | 2012-04-16 | 2012-08-01 | 李波 | Off-screen touch interactive system with nearly-joint sensing projection point coordinate indication |
US9310895B2 (en) | 2012-10-12 | 2016-04-12 | Microsoft Technology Licensing, Llc | Touchless input |
CN104035610B (en) * | 2013-03-08 | 2017-07-04 | 原相科技股份有限公司 | Touch control method and contactor control device |
JP5984722B2 (en) * | 2013-03-22 | 2016-09-06 | シャープ株式会社 | Information processing device |
JP6324203B2 (en) * | 2014-05-14 | 2018-05-16 | キヤノン株式会社 | Information processing apparatus, control method therefor, program, and recording medium |
WO2015188011A1 (en) * | 2014-06-04 | 2015-12-10 | Quantum Interface, Llc. | Dynamic environment for object and attribute display and interaction |
CN105469377A (en) * | 2014-08-18 | 2016-04-06 | 中兴通讯股份有限公司 | Touch control device and calibration method thereof |
US9983695B2 (en) * | 2015-03-19 | 2018-05-29 | Lenovo (Singapore)Pte. Ltd. | Apparatus, method, and program product for setting a cursor position |
US10585582B2 (en) * | 2015-08-21 | 2020-03-10 | Motorola Solutions, Inc. | System and method for disambiguating touch interactions |
CN110520831B (en) * | 2017-04-20 | 2023-06-20 | 阿尔卑斯阿尔派株式会社 | Touch sensor type electronic device and sensor control method |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US9292111B2 (en) * | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US6664744B2 (en) * | 2002-04-03 | 2003-12-16 | Mitsubishi Electric Research Laboratories, Inc. | Automatic backlight for handheld devices |
WO2006003590A2 (en) * | 2004-06-29 | 2006-01-12 | Koninklijke Philips Electronics, N.V. | A method and device for preventing staining of a display device |
JP4547622B2 (en) | 2005-04-22 | 2010-09-22 | アルパイン株式会社 | Touch panel input device and operation input determination method |
US7567240B2 (en) * | 2005-05-31 | 2009-07-28 | 3M Innovative Properties Company | Detection of and compensation for stray capacitance in capacitive touch sensors |
US9019209B2 (en) * | 2005-06-08 | 2015-04-28 | 3M Innovative Properties Company | Touch location determination involving multiple touch location processes |
US20080018604A1 (en) * | 2006-07-19 | 2008-01-24 | Tyco Electronics Canada, Ltd. | Touch detection method and system for a touch sensor |
DE102007034273A1 (en) * | 2007-07-19 | 2009-01-22 | Volkswagen Ag | Method for determining the position of a user's finger in a motor vehicle and position determining device |
DE102008051757A1 (en) * | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodal user interface of a driver assistance system for entering and presenting information |
KR101505191B1 (en) * | 2008-01-09 | 2015-03-20 | 엘지전자 주식회사 | Mobile terminal and operation control method thereof |
EP2104024B1 (en) * | 2008-03-20 | 2018-05-02 | LG Electronics Inc. | Portable terminal capable of sensing proximity touch and method for controlling screen using the same |
US9274681B2 (en) * | 2008-03-26 | 2016-03-01 | Lg Electronics Inc. | Terminal and method of controlling the same |
KR101506488B1 (en) * | 2008-04-04 | 2015-03-27 | 엘지전자 주식회사 | Mobile terminal using proximity sensor and control method thereof |
EP2131272A3 (en) * | 2008-06-02 | 2014-05-07 | LG Electronics Inc. | Mobile communication terminal having proximity sensor and display controlling method therein |
US8355003B2 (en) * | 2008-06-13 | 2013-01-15 | Microsoft Corporation | Controller lighting activation by proximity and motion |
US8928595B2 (en) * | 2008-06-24 | 2015-01-06 | Microsoft Corporation | Touch screen calibration sensor |
KR20100010860A (en) * | 2008-07-23 | 2010-02-02 | 엘지전자 주식회사 | Mobile terminal and event control method thereof |
US9658765B2 (en) * | 2008-07-31 | 2017-05-23 | Northrop Grumman Systems Corporation | Image magnification system for computer interface |
US8516397B2 (en) * | 2008-10-27 | 2013-08-20 | Verizon Patent And Licensing Inc. | Proximity interface apparatuses, systems, and methods |
US8799806B2 (en) * | 2008-12-31 | 2014-08-05 | Verizon Patent And Licensing Inc. | Tabbed content view on a touch-screen device |
US8373669B2 (en) * | 2009-07-21 | 2013-02-12 | Cisco Technology, Inc. | Gradual proximity touch screen |
US8587532B2 (en) * | 2009-12-18 | 2013-11-19 | Intel Corporation | Multi-feature interactive touch user interface |
US8232990B2 (en) * | 2010-01-05 | 2012-07-31 | Apple Inc. | Working with 3D objects |
US10007393B2 (en) * | 2010-01-19 | 2018-06-26 | Apple Inc. | 3D view of file structure |
-
2010
- 2010-01-19 JP JP2010009184A patent/JP2011150414A/en active Pending
- 2010-12-29 US US12/980,543 patent/US8633909B2/en active Active
-
2011
- 2011-01-12 CN CN2011100095328A patent/CN102129313A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013105413A (en) * | 2011-11-16 | 2013-05-30 | Rohm Co Ltd | Touch panel control circuit, control method and touch panel input device using the same, and electronic apparatus |
JP2013242916A (en) * | 2012-04-27 | 2013-12-05 | Panasonic Corp | Input device, input support method, and program |
US10261630B2 (en) | 2012-04-27 | 2019-04-16 | Panasonic Intellectual Property Corporation Of America | Input device, input support method, and program |
US9225810B2 (en) | 2012-07-03 | 2015-12-29 | Sony Corporation | Terminal device, information processing method, program, and storage medium |
JP2015049880A (en) * | 2013-09-05 | 2015-03-16 | コニカミノルタ株式会社 | Touch panel input device, control method for touch panel input device, and control program for touch panel input device |
KR20150048526A (en) * | 2013-10-28 | 2015-05-07 | 삼성전자주식회사 | electronic appratus and user gesture recognition method thereof |
KR102159789B1 (en) * | 2013-10-28 | 2020-09-25 | 삼성전자주식회사 | Electronic appratus and user gesture recognition method thereof |
JP2016062183A (en) * | 2014-09-16 | 2016-04-25 | キヤノン株式会社 | Information processing apparatus, control method thereof, program, and storage medium |
WO2016063736A1 (en) * | 2014-10-21 | 2016-04-28 | オリンパス株式会社 | Operation device, information processing apparatus provided with operation device, and operation acceptance method for information processing apparatus |
JPWO2016063736A1 (en) * | 2014-10-21 | 2017-06-15 | オリンパス株式会社 | Operation device, information processing device including operation device, and operation reception method for information processing device |
US10152218B2 (en) | 2014-10-21 | 2018-12-11 | Olympus Corporation | Operation device, information processing apparatus comprising operation device, and operation receiving method for information processing apparatus |
JP2018055720A (en) * | 2017-12-20 | 2018-04-05 | 富士ゼロックス株式会社 | Display controller and program |
Also Published As
Publication number | Publication date |
---|---|
US8633909B2 (en) | 2014-01-21 |
CN102129313A (en) | 2011-07-20 |
US20110175831A1 (en) | 2011-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011150414A (en) | Information processing apparatus, method and program for determining operation input | |
US10606405B2 (en) | Information processing device, operation input method and operation input program | |
JP6506347B2 (en) | Electronic device and home screen editing method thereof | |
US10387016B2 (en) | Method and terminal for displaying a plurality of pages,method and terminal for displaying a plurality of applications being executed on terminal, and method of executing a plurality of applications | |
US9507507B2 (en) | Information processing apparatus, information processing method and program | |
EP2732364B1 (en) | Method and apparatus for controlling content using graphical object | |
US10437360B2 (en) | Method and apparatus for moving contents in terminal | |
KR101974852B1 (en) | Method and apparatus for moving object in terminal having touchscreen | |
JP2011170834A (en) | Information processing apparatus, operation prediction method, and operation prediction program | |
JP2010176330A (en) | Information processing apparatus and display control method | |
JP5837955B2 (en) | Method for executing function of electronic device and electronic device | |
KR20140026966A (en) | Operation method and system for function of stylus pen | |
KR20130090138A (en) | Operation method for plural touch panel and portable device supporting the same | |
JP2012058856A (en) | Information processor, information processing method and information processing program | |
KR20140030387A (en) | Contents operating method and electronic device operating the same | |
WO2022007541A1 (en) | Device control method and apparatus, storage medium, and electronic device | |
US11567725B2 (en) | Data processing method and mobile device | |
US20140085340A1 (en) | Method and electronic device for manipulating scale or rotation of graphic on display | |
WO2015174110A1 (en) | Information-processing apparatus, information-processing method, and program | |
US20160117000A1 (en) | Touchscreen input method and apparatus | |
JP6284459B2 (en) | Terminal device | |
KR20140002900A (en) | Method for sound source reproducing of terminel and terminel thereof | |
EP3101522A1 (en) | Information processing device, information processing method, and program | |
CN117055796A (en) | Control display method and device | |
KR101163926B1 (en) | Control method and device for user terminal having touch screen, recording medium for the same |