[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011150414A - Information processing apparatus, method and program for determining operation input - Google Patents

Information processing apparatus, method and program for determining operation input Download PDF

Info

Publication number
JP2011150414A
JP2011150414A JP2010009184A JP2010009184A JP2011150414A JP 2011150414 A JP2011150414 A JP 2011150414A JP 2010009184 A JP2010009184 A JP 2010009184A JP 2010009184 A JP2010009184 A JP 2010009184A JP 2011150414 A JP2011150414 A JP 2011150414A
Authority
JP
Japan
Prior art keywords
contact
touch
proximity
finger
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010009184A
Other languages
Japanese (ja)
Inventor
Yusuke Miyazawa
悠介 宮沢
Fumitada Honma
文規 本間
Tatsushi Nashida
辰志 梨子田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010009184A priority Critical patent/JP2011150414A/en
Priority to US12/980,543 priority patent/US8633909B2/en
Priority to CN2011100095328A priority patent/CN102129313A/en
Publication of JP2011150414A publication Critical patent/JP2011150414A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve recognition accuracy of operation input by contact of an indicator. <P>SOLUTION: A mobile terminal 100 determines whether the contact of the indicator is the prescribed operation input (a tap or a flick) based on a touch position and a proximity position before and after the contact of a finger. Thereby, even when cannot recognize any operation input is performed from only the touch positions because the number of the touch positions is small, the operation input can be certainly recognized, so that the recognition accuracy of the operation input by the contact of the indicator can be improved even if not increasing the number of the touch positions detected per a prescribed time period by shortening a sampling interval. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、情報処理装置、操作入力決定方法及び操作入力決定プログラムに関し、例えばタッチパネルを有する情報処理装置に適用して好適なものである。   The present invention relates to an information processing apparatus, an operation input determination method, and an operation input determination program, and is suitable for application to an information processing apparatus having a touch panel, for example.

昨今、タッチパネルを有する情報処理装置が広く普及している。このような情報処理装置では、タッチパネルに対する指示物(指、タッチペンなど)の接触を検知して、タップ、フリックなどのタッチ操作を認識し、これを操作入力として受け付けて各種処理を実行するようになっている。   In recent years, information processing apparatuses having a touch panel have been widely used. In such an information processing apparatus, the touch of a pointing object (finger, touch pen, etc.) on the touch panel is detected, a touch operation such as tap or flick is recognized, and this is received as an operation input to execute various processes. It has become.

尚、タップとは、操作面上の任意の一点に指示物を接触させた後すぐに離す操作のことであり、フリックとは、操作面を指示物で軽く払う操作のことである。   Note that a tap is an operation of releasing an indicator immediately after contacting an arbitrary point on the operation surface, and a flick is an operation of lightly touching the operation surface with the indicator.

また近年、タッチパネルに対する指示物の接触にくわえて近接も検知し得る情報処理装置が提案されている(例えば特許文献1参照)。この情報処理装置では、タッチパネルに触れていた指がタッチパネルから離れても、近接していれば、指が触れていたときの処理を継続するようになっている。   In recent years, there has been proposed an information processing apparatus that can detect proximity in addition to contact of an indicator with a touch panel (see, for example, Patent Document 1). In this information processing apparatus, even if the finger touching the touch panel is separated from the touch panel, the processing when the finger is touching is continued if the finger is close.

こうすることで、例えば、画面上に表示されたボタンを長押ししようとしたときに、途中で振動などによりタッチパネルから指が離れてしまっても、ボタンが長押しされたときと同様の処理、すなわちユーザの意図する処理を実行することができる。   By doing this, for example, when trying to press and hold a button displayed on the screen, even if the finger is released from the touch panel due to vibration or the like on the way, the same processing as when the button is pressed and held, That is, the process intended by the user can be executed.

特開2006−302126公報JP 2006-302126 A

ところで、従来のタッチパネルを有する情報処理装置は、例えば、一定時間ごとに、タッチパネルに指示物が接触した位置(これをタッチ位置とも呼ぶ)を検知して、検知結果をもとにタッチ操作を認識するようになっている。   By the way, an information processing apparatus having a conventional touch panel detects, for example, a position (also referred to as a touch position) where an indicator touches the touch panel at regular intervals, and recognizes a touch operation based on the detection result. It is supposed to be.

このような情報処理装置は、例えば、指示物が接触している間におけるタッチ位置の移動を検知した場合にはフリックが行われたと認識し、タッチ位置の移動を検知しなかった場合にはタップが行われたと認識する。   Such an information processing device, for example, recognizes that a flick has been performed when the movement of the touch position is detected while the indicator is in contact, and taps when the movement of the touch position is not detected. Recognize that

しかし近年、情報処理装置において、指示物の近接を検知し得るようタッチパネルの感度を上げたことに伴い、接触や近接を検知する時間間隔(すなわちサンプリング間隔)が従来よりも長くなってしまうことがある。   However, in recent years, in the information processing apparatus, as the sensitivity of the touch panel is increased so that the proximity of the pointing object can be detected, the time interval for detecting contact or proximity (that is, the sampling interval) may become longer than before. is there.

この場合情報処理装置は、フリックにおいて指示物が接触していた時間が非常に短くタッチ位置を例えば1個しか検知できないと、タッチ位置の移動があったことを検知できず、フリックが行われたにもかかわらずタップが行われたと誤認識してしまうことがある。   In this case, the information processing apparatus cannot detect that the touch position has been moved and the flick is performed if only one touch position can be detected, for example, when the indicator is in contact with the flick for a very short time. Nevertheless, it may be misrecognized as tapped.

そこでタッチパネルを有する情報処理装置において、タッチ操作(すなわち指示物の接触による操作入力)の認識精度を向上することが望まれている。   Therefore, it is desired to improve the recognition accuracy of a touch operation (that is, an operation input by contact with an indicator) in an information processing apparatus having a touch panel.

本発明は以上の点を考慮してなされたもので、指示物の接触による操作入力の認識精度を向上し得る情報処理装置、操作入力決定方法及び操作入力決定プログラムを提案しようとするものである。   The present invention has been made in view of the above points, and intends to propose an information processing apparatus, an operation input determination method, and an operation input determination program capable of improving the recognition accuracy of an operation input by contact with an indicator. .

かかる課題を解決するため本発明の情報処理装置においては、操作面に対する指示物の接触を検知する接触検知部と、操作面に対する指示物の近接を検知する近接検知部と、接触検知部により指示物の接触を検知すると、接触検知部による検知結果と、近接検知部による当該指示物の接触前後少なくとも一方の検知結果とに基づいて、当該指示物の接触が所定の操作入力かを決定する制御部とを設けるようにした。   In order to solve this problem, in the information processing apparatus of the present invention, the contact detection unit that detects the contact of the pointing object with the operation surface, the proximity detection unit that detects the proximity of the pointing object with respect to the operation surface, and the contact detection unit When detecting contact of an object, control for determining whether the contact of the indicator is a predetermined operation input based on a detection result by the contact detection unit and at least one of detection results before and after the contact of the indicator by the proximity detection unit Part.

このように本発明の情報処理装置は、接触検知部による検知結果に加えて近接検知部による検知結果に基づいて指示物の接触が所定の操作入力かを決定することにより、接触検知部による検知結果のみに基づいて当該操作入力を認識する場合と比して、当該操作入力の認識精度を向上することができる。またこうすることにより、接触検知部による検知結果のみでは指示物の接触がどのような操作入力かを認識できない場合であっても当該操作入力を確実に認識できるので、例えば指示物の接触を検知する時間間隔を短くしなくても、指示物の接触による操作入力の認識精度を向上することができる。   As described above, the information processing apparatus according to the present invention detects the contact by the contact detection unit by determining whether the contact of the pointing object is a predetermined operation input based on the detection result by the proximity detection unit in addition to the detection result by the contact detection unit. Compared with the case of recognizing the operation input based only on the result, the recognition accuracy of the operation input can be improved. In addition, by doing this, even if the operation input is not recognized only by the detection result of the contact detection unit, the operation input can be reliably recognized. Even if the time interval is not shortened, the recognition accuracy of the operation input by the contact of the pointing object can be improved.

本発明によれば、接触検知部による検知結果に加えて近接検知部による検知結果に基づいて指示物の接触が所定の操作入力かを決定することにより、接触検知部による検知結果のみに基づいて当該操作入力を認識する場合と比して、当該操作入力の認識精度を向上することができる。またこうすることにより、接触検知部による検知結果のみでは指示物の接触がどのような操作入力かを認識できない場合であっても当該操作入力を確実に認識できるので、例えば指示物の接触を検知する時間間隔を短くしなくても、指示物の接触による操作入力の認識精度を向上することができる。かくして、指示物の接触による操作入力の認識精度を向上し得る情報処理装置、操作入力決定方法及び操作入力決定プログラムを実現することができる。   According to the present invention, based on the detection result of the proximity detection unit in addition to the detection result of the contact detection unit, it is determined based on only the detection result of the contact detection unit by determining whether the contact of the pointing object is a predetermined operation input. Compared to the case where the operation input is recognized, the recognition accuracy of the operation input can be improved. In addition, by doing this, even if the operation input is not recognized only by the detection result of the contact detection unit, the operation input can be reliably recognized. Even if the time interval is not shortened, the recognition accuracy of the operation input by the contact of the pointing object can be improved. Thus, it is possible to realize an information processing apparatus, an operation input determination method, and an operation input determination program that can improve the recognition accuracy of an operation input due to contact with an indicator.

本実施の形態の概要となる情報処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the information processing apparatus used as the outline | summary of this Embodiment. 携帯端末の外観構成を示す略線図である。It is a basic diagram which shows the external appearance structure of a portable terminal. 携帯端末のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a portable terminal. 静電センサの出力値の変化の説明に供する略線図である。It is a basic diagram with which it uses for description of the change of the output value of an electrostatic sensor. タッチ位置及び近接位置の検知の説明に供する略線図である。It is an approximate line figure used for explanation of detection of a touch position and a proximity position. フリックの際のタッチ位置及び近接位置(1)の説明に供する略線図である。It is a basic diagram with which it uses for description of the touch position in the case of a flick, and a proximity position (1). フリックの際のタッチ位置及び近接位置(2)の説明に供する略線図である。It is a basic diagram with which it uses for description of the touch position in the case of a flick, and a proximity position (2). フリックの際のタッチ位置及び近接位置(3)の説明に供する略線図である。It is a basic diagram with which it uses for description of the touch position in the case of a flick, and a proximity position (3). タップの際のタッチ位置及び近接位置(1)の説明に供する略線図である。It is a basic diagram with which it uses for description of the touch position in the case of a tap, and a proximity position (1). タップの際のタッチ位置及び近接位置(2)の説明に供する略線図である。It is a basic diagram with which it uses for description of the touch position in the case of a tap, and a proximity position (2). 操作認識処理手順を示すフローチャートである。It is a flowchart which shows the operation recognition process sequence.

以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。尚、説明は以下の順序で行う。
1.実施の形態
2.他の実施の形態
Hereinafter, the best mode for carrying out the invention (hereinafter referred to as an embodiment) will be described. The description will be given in the following order.
1. Embodiment 2. FIG. Other embodiments

<1.実施の形態>
[1−1.実施の形態の概要]
まず、本実施の形態の概要を説明する。この概要を説明した後、本実施の形態の具体例の説明に移る。
<1. Embodiment>
[1-1. Outline of Embodiment]
First, an outline of the present embodiment will be described. After the outline is described, the description moves to a specific example of the present embodiment.

図1において1は、情報処理装置を示す。この情報処理装置1には、操作面(例えばタッチパネルの操作面)に対する指示物の接触を検知する接触検知部2が設けられている。またこの情報処理装置1には、当該操作面に対する指示物の近接を検知する近接検知部3が設けられている。   In FIG. 1, reference numeral 1 denotes an information processing apparatus. The information processing apparatus 1 is provided with a contact detection unit 2 that detects contact of an indicator with an operation surface (for example, an operation surface of a touch panel). Further, the information processing apparatus 1 is provided with a proximity detection unit 3 that detects the proximity of the pointing object to the operation surface.

さらにこの情報処理装置1には、接触検知部2により指示物の接触を検知すると、接触検知部2による検知結果と、近接検知部3による当該指示物の接触前後少なくとも一方の検知結果とに基づいて、当該指示物の接触が所定の操作入力かを決定する制御部4が設けられている。   Further, in this information processing apparatus 1, when the contact detection unit 2 detects the contact of the indicator, the information detection device 1 is based on the detection result by the contact detection unit 2 and the detection result of at least one of the proximity detection unit 3 before and after the contact of the indicator. Thus, a control unit 4 is provided for determining whether the contact of the indicator is a predetermined operation input.

このように情報処理装置1は、接触検知部2による検知結果に加えて近接検知部3による検知結果に基づいて指示物の接触が所定の操作入力かを決定することにより、接触検知部2による検知結果のみに基づいて当該操作入力を認識する場合と比して、当該操作入力の認識精度を向上することができる。   As described above, the information processing apparatus 1 determines whether the contact of the pointing object is a predetermined operation input based on the detection result by the proximity detection unit 3 in addition to the detection result by the contact detection unit 2, thereby Compared with the case where the operation input is recognized based only on the detection result, the recognition accuracy of the operation input can be improved.

またこうすることにより、情報処理装置1は、接触検知部2による検知結果のみでは指示物の接触がどのような操作入力かを認識できない場合(例えば指示物が接触している間に検知されたタッチ位置が1個の場合)であっても当該操作入力を確実に認識できる。従って、情報処理装置1は、例えば指示物の接触を検知する時間間隔(サンプリング間隔)を短くしなくても、指示物の接触による操作入力の認識精度を向上することができる。   In addition, by doing so, the information processing apparatus 1 cannot recognize what operation input the contact of the indicator is based on only the detection result by the contact detection unit 2 (for example, the detection is performed while the indicator is in contact). Even when the number of touch positions is one), the operation input can be reliably recognized. Therefore, for example, the information processing apparatus 1 can improve the accuracy of recognizing the operation input by the contact of the indicator without shortening the time interval (sampling interval) for detecting the contact of the indicator.

より具体的には、接触検知部2は、操作面に対する指示物の接触位置(タッチ位置)を所定時間ごとに検知する。そして制御部4は、操作面に対する指示物が接触していたときに、接触検知部2が検知した接触位置の個数に基づいて、当該指示物の接触が所定の操作入力かを決定するようにしてもよい。   More specifically, the contact detection unit 2 detects the contact position (touch position) of the pointing object with respect to the operation surface every predetermined time. The control unit 4 determines whether the contact of the indicator is a predetermined operation input based on the number of contact positions detected by the contact detection unit 2 when the indicator is in contact with the operation surface. May be.

また制御部4は、接触検知部2が検知した指示物の接触位置及び近接検知部3が検知した指示物の接触前後少なくとも一方の近接位置に基づいて、当該指示物の接触が所定の操作入力かを決定するようにしてもよい。   Further, the control unit 4 determines that the contact of the indicator is a predetermined operation input based on the contact position of the indicator detected by the contact detection unit 2 and at least one proximity position before and after the contact of the indicator detected by the proximity detection unit 3. It may be determined.

より具体的には、制御部4は、接触位置及び近接位置の2点間の距離に基づいて、当該指示物の接触が所定の操作入力かを決定するようにしてもよい。さらに制御部4は、接触位置及び近接位置の2点を通る直線同士がなす角度に基づいて、当該指示物の接触が所定の操作入力かを決定するようにしてもよい。   More specifically, the control unit 4 may determine whether the contact of the indicator is a predetermined operation input based on the distance between two points of the contact position and the proximity position. Further, the control unit 4 may determine whether the contact of the indicator is a predetermined operation input based on the angle formed by the straight lines passing through the two points of the contact position and the proximity position.

このような構成でなる情報処理装置1の具体例について、以下、詳しく説明する。   A specific example of the information processing apparatus 1 having such a configuration will be described in detail below.

[1−2.携帯端末の外観構成]
次に、図2を用いて、上述した情報処理装置1の具体例である携帯端末100の外観構成について説明する。
[1-2. Appearance structure of mobile terminal
Next, the external configuration of the mobile terminal 100, which is a specific example of the information processing apparatus 1 described above, will be described with reference to FIG.

携帯端末100は、片手で把持し得る程度の大きさでなる略扁平矩形状の筐体101を有している。   The portable terminal 100 has a substantially flat rectangular housing 101 that is large enough to be held with one hand.

筐体101の前面101Aの中央部には、長方形状のタッチスクリーン102が設けられている。タッチスクリーン102は、液晶パネルと、液晶パネルの表示面を覆う薄型透明のタッチパネルとで構成される。ちなみに、このタッチパネルは、例えば、静電容量式で、マルチタッチに対応する。   A rectangular touch screen 102 is provided at the center of the front surface 101 </ b> A of the housing 101. The touch screen 102 includes a liquid crystal panel and a thin transparent touch panel that covers a display surface of the liquid crystal panel. By the way, this touch panel is, for example, a capacitance type and supports multi-touch.

携帯端末100は、このタッチスクリーン102に対する、指(タッチペンなどでも可)によるタッチ操作及び近接操作を操作入力として認識するようになっている。尚、タッチ操作がタッチスクリーンを指で触って行う操作入力であるのに対して、近接操作とは、タッチスクリーンを触らずに指を近づけて行う操作入力のことである。   The portable terminal 100 recognizes a touch operation and a proximity operation with a finger (a touch pen or the like) on the touch screen 102 as an operation input. The touch operation is an operation input performed by touching the touch screen with a finger, whereas the proximity operation is an operation input performed by bringing a finger close without touching the touch screen.

さらにこの携帯端末100の筐体101の前面101Aには、タッチスクリーン102の近傍に、操作ボタン103も設けられている。   Further, an operation button 103 is also provided on the front surface 101 </ b> A of the casing 101 of the portable terminal 100 in the vicinity of the touch screen 102.

[1−3.携帯端末のハードウェア構成]
次に図3を用いて、携帯端末100のハードウェア構成について説明する。この携帯端末100では、CPU110が、不揮発性メモリ111に格納されているプログラムをRAM112に展開して読み込み、このプログラムに従って各種処理を実行すると共に各部を制御する。尚、CPUは、Central Processing Unitの略、RAMは、Random Access Memoryの略である。
[1-3. Hardware configuration of mobile terminal]
Next, the hardware configuration of the mobile terminal 100 will be described with reference to FIG. In the portable terminal 100, the CPU 110 loads and loads a program stored in the nonvolatile memory 111 into the RAM 112, executes various processes according to the program, and controls each unit. CPU is an abbreviation for Central Processing Unit, and RAM is an abbreviation for Random Access Memory.

CPU110は、タッチスクリーン102に対してタッチ操作又は近接操作が行われたことを認識すると、この操作を操作入力として受け付け、この操作入力に応じた処理を実行する。   When the CPU 110 recognizes that a touch operation or a proximity operation has been performed on the touch screen 102, the CPU 110 accepts this operation as an operation input, and executes a process according to the operation input.

タッチスクリーン102は、各種情報を表示する表示デバイスである液晶パネル102Aと、操作入力を受け付ける操作入力デバイスであるタッチパネル102Bとで構成される。   The touch screen 102 includes a liquid crystal panel 102A that is a display device that displays various types of information, and a touch panel 102B that is an operation input device that receives an operation input.

タッチパネル102Bは、上述したように、静電容量式のタッチパネルであり、操作面に対して格子状に配置された複数の静電センサ(図示せず)を有している。これら複数の静電センサの各々は、指などの導体が操作面に近づくことで変化する静電容量に応じて、出力値が変化する。   As described above, the touch panel 102B is a capacitive touch panel, and includes a plurality of electrostatic sensors (not shown) arranged in a grid pattern with respect to the operation surface. In each of the plurality of electrostatic sensors, the output value changes according to the capacitance that changes when a conductor such as a finger approaches the operation surface.

実際、図4に示すように、タッチパネル102Bの操作面に対して指が近づけられたとする。このとき、指の真下に位置する静電センサの出力値は、例えば、操作面と指との距離が30mmのときには「10」、15mmのときには「20」、5mmのときには「40」、操作面に指が接触したときには最大の「80」と変化する。   Actually, as shown in FIG. 4, it is assumed that the finger is brought close to the operation surface of the touch panel 102B. At this time, the output value of the electrostatic sensor located directly below the finger is, for example, “10” when the distance between the operation surface and the finger is 30 mm, “20” when the distance is 15 mm, and “40” when the distance is 5 mm. When the finger is touched, the maximum value changes to “80”.

CPU110は、このように変化する各静電センサの出力値と、各静電センサの位置とをタッチパネル102Bから取得する。そしてCPU110は、これらをもとに、タッチパネル102Bの操作面上において、指が接触している部分、近接している部分、接触も近接もしていない部分を区別する。尚、ここでは、指が接触している部分を接触部分とも呼び、近接している部分を近接部分、接触も近接もしていない部分を非近接部分とも呼ぶ。   CPU110 acquires the output value of each electrostatic sensor which changes in this way, and the position of each electrostatic sensor from touch panel 102B. Based on these, the CPU 110 distinguishes between the touched portion, the close portion, and the non-contacting portion on the operation surface of the touch panel 102B. Here, a part in contact with a finger is also referred to as a contact part, a part in proximity is also referred to as a proximity part, and a part that is neither in contact nor proximity is also referred to as a non-proximity part.

具体的に、CPU110は、図5に示すように、タッチパネル102Bの操作面上において、静電センサの出力値が「50」以上となる部分を、接触部分と判別する。またCPU110は、出力値が「20」以上「50」未満となる部分を、近接部分と判別し、出力値が「20」未満となる部分を、非近接部分と判別する。   Specifically, as illustrated in FIG. 5, the CPU 110 determines that a portion where the output value of the electrostatic sensor is “50” or more on the operation surface of the touch panel 102 </ b> B as a contact portion. Further, the CPU 110 determines a portion where the output value is “20” or more and less than “50” as a proximity portion, and determines a portion where the output value is less than “20” as a non-proximity portion.

CPU110は、このようにしてタッチパネル102Bの操作面上における接触部分、近接部分、非近接部分を判別することで、例えば、操作面に指が接触しているのか、それとも近接しているだけなのかなどを検知できる。また、操作面上のどの位置に指が接触又は近接しているのかを検知することもできる。   In this way, the CPU 110 discriminates the contact part, the proximity part, and the non-proximity part on the operation surface of the touch panel 102B, for example, whether the finger is in contact with the operation surface or just the proximity. Can be detected. It is also possible to detect at which position on the operation surface the finger is in contact with or close to.

このとき、CPU110は、接触部分が存在する場合には、例えばその重心又は中心(操作面上に接触している指の腹の重心又は中心)をタッチ位置として検知するようになっている。またCPU110は、近接部分のみが存在する場合には、例えばその重心又は通信(操作面に近接している指の腹の重心又は中心)を、近接位置として検知するようになっている。   At this time, if there is a contact portion, the CPU 110 detects, for example, the center of gravity or the center (the center of gravity or the center of the belly of the finger in contact with the operation surface) as the touch position. Further, when only the proximity portion exists, the CPU 110 detects, for example, the center of gravity or communication (the center of gravity or the center of the belly of the finger close to the operation surface) as the proximity position.

さらにCPU110は、一定時間ごとに、タッチパネル102Bから各静電センサの出力値を取得し、接触部分、近接部分、非近接部分を判別していくことで、これらをもとにタッチ位置及び近接位置の変移を検知する。   Further, the CPU 110 acquires the output value of each electrostatic sensor from the touch panel 102B at regular time intervals, and determines the contact portion, the proximity portion, and the non-proximity portion. Detect transitions in

さらにCPU110は、これらの変移をもとに、タッチパネル102B上での指の動きを特定して、この動きをもとに、タッチスクリーン102に対するタッチ操作及び近接操作を認識する。そして、CPU110は、これを操作入力として受け付け、操作入力に応じた処理を実行するようになっている。   Further, the CPU 110 identifies the movement of the finger on the touch panel 102B based on these transitions, and recognizes the touch operation and the proximity operation on the touch screen 102 based on this movement. Then, the CPU 110 accepts this as an operation input, and executes processing according to the operation input.

またCPU110は、操作ボタン103に対する押下操作を認識すると、これを操作入力として受け付け、この操作入力に応じた処理を実行するようにもなっている。   Further, when the CPU 110 recognizes a pressing operation on the operation button 103, the CPU 110 accepts this as an operation input, and executes processing according to the operation input.

ここで、タッチスクリーン102に、例えば、不揮発性メモリ111に記憶された音楽データから取得された曲タイトルのリストの一部分が表示された状態で、ユーザがタッチスクリーン102に対してドラッグを行ったとする。尚、ドラッグとは、操作面に指を接触させたまま移動させる操作のことである。   Here, for example, it is assumed that the user performs a drag on the touch screen 102 while a part of a list of song titles acquired from music data stored in the nonvolatile memory 111 is displayed on the touch screen 102, for example. . The drag is an operation for moving the finger while keeping the finger in contact with the operation surface.

このときCPU110は、タッチスクリーン102に対するドラッグを認識すると、このドラッグを、リストをスクロールする操作入力として受け付け、ドラッグにおける指の移動に合わせてリストをスクロールさせる。   At this time, when recognizing the drag on the touch screen 102, the CPU 110 accepts the drag as an operation input for scrolling the list, and scrolls the list in accordance with the movement of the finger in the drag.

またこのようにタッチスクリーン102に曲タイトルのリストが表示された状態で、ユーザがタッチスクリーン102に対してフリックを行ったとする。   Further, it is assumed that the user flicks the touch screen 102 while the list of song titles is displayed on the touch screen 102 in this way.

このときCPU110は、タッチスクリーン102に対するフリックを認識すると、このフリックを、リストをスクロールする操作入力として受け付け、フリックの速度、方向などに応じてリストを一定時間継続してスクロールさせた後スクロールを停止する。   At this time, when the CPU 110 recognizes a flick to the touch screen 102, the CPU 110 accepts the flick as an operation input for scrolling the list, and after the list is continuously scrolled for a predetermined time according to the flick speed and direction, the scrolling is stopped. To do.

またこのようにタッチスクリーン102に曲タイトルのリストが表示された状態で、ユーザが任意の曲タイトルをタップしたとする。   Further, it is assumed that the user taps an arbitrary song title in a state where the list of song titles is displayed on the touch screen 102 as described above.

このときCPU110は、タッチスクリーン102に対するタップを認識すると、このタップを、音楽データを再生する操作入力として受け付け、不揮発性メモリ111からタップされた曲タイトルに対応する音楽データを読み出して再生部113(図3)に送る。   At this time, when the CPU 110 recognizes a tap on the touch screen 102, the CPU 110 accepts this tap as an operation input for reproducing music data, reads out music data corresponding to the tapped song title from the nonvolatile memory 111, and reproduces the reproduction unit 113 ( 3).

再生部113は、CPU110の制御のもと、音楽データに対して、デコード処理、デジタアナログ変換処理、増幅処理などの再生処理を施すことで、音声信号を得、これをヘッドホン端子(図示せず)から出力する。   Under the control of the CPU 110, the playback unit 113 performs playback processing such as decoding processing, digital analog conversion processing, and amplification processing on the music data to obtain an audio signal, which is supplied to a headphone terminal (not shown). ).

こうすることで、ヘッドホン端子に接続されたヘッドホンを介してユーザに音楽を聴かせることができる。   In this way, the user can listen to music via the headphones connected to the headphone terminal.

またこのときCPU110は、読み出した音楽データから、曲タイトル、アーティスト名などの情報を取得して、これを例えば液晶パネル102Aに表示させる。こうすることで、再生中の音楽に関する情報をユーザに提示することができる。   At this time, the CPU 110 acquires information such as a song title and an artist name from the read music data, and displays the information on, for example, the liquid crystal panel 102A. In this way, information regarding the music being played can be presented to the user.

また、例えば、タッチスクリーン102に、Webブラウザを起動する為のWebブラウザアイコンが表示された状態で、ユーザが、このWebブラウザアイコンをタップしたとする。   Further, for example, it is assumed that the user taps the web browser icon while the web browser icon for starting the web browser is displayed on the touch screen 102.

このときCPU110は、タッチスクリーン102に対するタップを認識すると、このタップを、Webブラウザを起動する操作入力として受け付け、Webブラウザを起動して、液晶パネル102AにWebブラウザ画面を表示させる。   At this time, when the CPU 110 recognizes a tap on the touch screen 102, the CPU 110 accepts the tap as an operation input for starting the Web browser, starts the Web browser, and displays the Web browser screen on the liquid crystal panel 102A.

またこのときCPU110は、ネットワークインタフェース114を介して、ネットワーク上のサーバと通信して、このサーバからWebページのページデータを取得する。そしてCPU110は、このページデータに基づくページ画像を、Webブラウザ画面上に表示させる。   At this time, the CPU 110 communicates with a server on the network via the network interface 114, and acquires page data of the Web page from this server. Then, the CPU 110 displays a page image based on the page data on the Web browser screen.

こうすることで、Webブラウザ画面を介して、ユーザにWebページを閲覧させることができる。   By doing so, the user can browse the Web page via the Web browser screen.

またこのようにタッチスクリーン102にWebブラウザ画面が表示された状態で、ユーザがタッチスクリーン102に対してシャッフルを行ったとする。尚、シャッフルとは、指をタッチパネルに近接させた状態において指でジグザグを描く近接操作のことである。   Further, it is assumed that the user shuffles the touch screen 102 while the Web browser screen is displayed on the touch screen 102 as described above. Note that shuffling is a proximity operation in which a zigzag is drawn with a finger while the finger is in proximity to the touch panel.

このときCPU110は、タッチスクリーン102に対するシャッフルを認識すると、このシャッフルを、前のページ画像に戻る操作入力として受付、Webブラウザ画面に現在表示しているページ画像に代えて前のページ画像を表示させる。   At this time, when the CPU 110 recognizes the shuffle for the touch screen 102, the CPU 110 accepts the shuffle as an operation input for returning to the previous page image, and displays the previous page image instead of the page image currently displayed on the Web browser screen. .

因みに本実施の形態の概要で説明した情報処理装置1の接触検知部2及び近接検知部3の具体的なハードウェアの例が、上述した携帯端末100のタッチパネル102Bである。また情報処理装置1の制御部4の具体的なハードウェアの例が、上述した携帯端末100のCPU110である。   Incidentally, a specific example of hardware of the contact detection unit 2 and the proximity detection unit 3 of the information processing apparatus 1 described in the outline of the present embodiment is the touch panel 102B of the mobile terminal 100 described above. Further, a specific hardware example of the control unit 4 of the information processing apparatus 1 is the CPU 110 of the mobile terminal 100 described above.

[1−4.タッチ操作の認識]
このように携帯端末100は、タッチスクリーン102に対するタッチ操作や近接操作を操作入力として認識するようになっている。ここでは、携帯端末100におけるタッチ操作の認識について、以下詳しく説明する。
[1-4. Touch operation recognition]
As described above, the mobile terminal 100 recognizes a touch operation or proximity operation on the touch screen 102 as an operation input. Here, the recognition of the touch operation in the mobile terminal 100 will be described in detail below.

CPU110は、上述したように、一定時間ごとにタッチパネル102Bから各静電センサの出力値を取得して、タッチ位置又は近接位置を検知する。CPU110は、これらタッチ位置又は近接位置を示す位置データを、操作面に対する接触及び近接の履歴を示す履歴データとして不揮発性メモリ111に記憶するようになっている。尚CPU110は、当該履歴データとして、現時点よりも前の時点における当該位置データを、所定数(例えば5〜6個)不揮発性メモリ111に保持しておくようになっている。   As described above, the CPU 110 acquires the output value of each electrostatic sensor from the touch panel 102B at regular intervals, and detects the touch position or the proximity position. The CPU 110 stores position data indicating the touch position or the proximity position in the nonvolatile memory 111 as history data indicating a history of contact and proximity to the operation surface. Note that the CPU 110 holds the position data at a time before the current time as the history data in a predetermined number (for example, 5 to 6) of the nonvolatile memory 111.

そしてCPU110は、履歴データをもとに、操作面に対する指の接触が所定時間以上継続していることを検知すると、操作面に指をタッチし続ける操作、すなわちドラッグが行われていることを認識し、このドラッグを操作入力として認識する。   When the CPU 110 detects that the finger contact with the operation surface continues for a predetermined time or more based on the history data, the CPU 110 recognizes that the operation of continuously touching the finger on the operation surface, that is, dragging is being performed. This drag is recognized as an operation input.

一方CPU110は、履歴データをもとに、当該所定時間が経過する前に指が操作面から離されたことを検知すると、指が操作面に接触したあとすぐに離されたことを認識する。   On the other hand, when CPU 110 detects that the finger has been released from the operation surface before the predetermined time has elapsed based on the history data, CPU 110 recognizes that the finger has been released immediately after contacting the operation surface.

するとCPU110は、指が接触し始めたことを検知した時点におけるタッチ位置(これを開始タッチ位置とも呼ぶ)と、指が離されたことを検知した時点の直前に検知されたタッチ位置(これを終了タッチ位置とも呼ぶ)の距離を算出する。すなわちCPU110は、タッチ位置の移動距離(つまり指の接触中に指が移動した距離)を算出する。   Then, the CPU 110 detects the touch position (also referred to as a start touch position) at the time when it is detected that the finger starts to touch, and the touch position (this is detected immediately before the time when the finger is released). Distance) is also calculated. That is, the CPU 110 calculates the moving distance of the touch position (that is, the distance that the finger has moved while the finger is in contact).

そしてCPU110は、開始タッチ位置と終了タッチ位置の距離が所定値以上の場合、タッチ位置の移動があったことを検知し、行われた操作入力がフリックであると決定する。一方CPU110は、開始タッチ位置と終了タッチ位置の距離が所定値よりも小さい場合、タッチ位置の移動がなかったことを検知し、行われた操作入力がタップであると決定する。尚、この所定値は、タッチ位置の移動がほぼなかったとみなせる程度の値であり、例えばユーザが意図しない指のぶれなどによるタッチ位置の移動距離はこの所定値よりも小さくなるよう予め設定される。   Then, when the distance between the start touch position and the end touch position is greater than or equal to a predetermined value, the CPU 110 detects that the touch position has moved and determines that the operation input performed is a flick. On the other hand, when the distance between the start touch position and the end touch position is smaller than a predetermined value, the CPU 110 detects that the touch position has not been moved, and determines that the performed operation input is a tap. Note that the predetermined value is a value that can be regarded as almost no movement of the touch position. For example, the movement distance of the touch position due to a shake of a finger that is not intended by the user is set in advance to be smaller than the predetermined value. .

例えば、図6に示すように、タッチパネル102Bの操作面に対して画面下方向(図中Y軸負の方向)にフリックが行われたとする。   For example, as shown in FIG. 6, it is assumed that a flick is performed in the lower direction of the screen (the negative Y-axis direction in the drawing) with respect to the operation surface of the touch panel 102B.

このときCPU110は、一定時間Tごとにタッチパネル102Bから各静電センサの出力値を取得してタッチ位置又は近接位置を検知する。CPU110は、例えば、時点t1〜t3において近接位置を検知し、時点t4〜t6においてタッチ位置を検知し、時点t7において近接位置を検知する。   At this time, the CPU 110 acquires the output value of each electrostatic sensor from the touch panel 102B at regular time intervals T and detects the touch position or the proximity position. For example, the CPU 110 detects the proximity position at time points t1 to t3, detects the touch position at time points t4 to t6, and detects the proximity position at time point t7.

またCPU110は、指が操作面に接触したあとすぐに離されたことを時点t7において認識すると、履歴データをもとに、開始タッチ位置と終了タッチ位置の距離を算出する。   When the CPU 110 recognizes that the finger is released immediately after touching the operation surface at time t7, the CPU 110 calculates the distance between the start touch position and the end touch position based on the history data.

そしてCPU110は、開始タッチ位置と終了タッチ位置の距離が所定値以上であることを認識すると、行われた操作入力がフリックであると決定する。またCPU110は、開始タッチ位置が始点であり終了タッチ位置が終点であるベクトルを検出し、このベクトルから指が画面下方向に移動したことを認識すると、このフリックが画面下方向へのフリックであると認識する。   When the CPU 110 recognizes that the distance between the start touch position and the end touch position is greater than or equal to a predetermined value, the CPU 110 determines that the performed operation input is a flick. Further, when the CPU 110 detects a vector whose start touch position is the start point and whose end touch position is the end point, and recognizes that the finger has moved downward from the vector, the flick is a flick downward on the screen. Recognize.

一方、図7に示すように、タッチパネル102Bの操作面に対して画面下方向に図6に示した場合よりも比較的速いフリックが行われたとする。   On the other hand, as shown in FIG. 7, it is assumed that flicking that is relatively faster than the case shown in FIG.

このときCPU110は、一定時間Tごとにタッチパネル102Bから各静電センサの出力値を取得してタッチ位置又は近接位置を検知する。CPU110は、例えば、時点t11、t12において近接位置を検知し、時点t13においてタッチ位置を検知し、時点t14において近接位置を検知する。   At this time, the CPU 110 acquires the output value of each electrostatic sensor from the touch panel 102B at regular time intervals T and detects the touch position or the proximity position. For example, the CPU 110 detects the proximity position at times t11 and t12, detects the touch position at time t13, and detects the proximity position at time t14.

この場合、図6に示した場合と比較してフリックが速いために、指が操作面に接触していた時間が短くタッチ位置が1点しか検知されていない。   In this case, since the flick is faster than the case shown in FIG. 6, the time during which the finger is in contact with the operation surface is short, and only one touch position is detected.

ゆえにCPU110は、指が操作面に接触したあとすぐに離されたことを時点t14において認識したあと、開始タッチ位置と終了タッチ位置の距離を算出できず、タッチ位置の移動があったことを検知できない。   Therefore, the CPU 110 cannot calculate the distance between the start touch position and the end touch position after recognizing that the finger is released immediately after touching the operation surface at time t14, and detects that the touch position has moved. Can not.

つまりこの場合、ユーザがタッチパネル102Bに対してフリックを行ったにもかかわらず、携帯端末100はフリックが行われたことを認識することができず、ユーザに不快感を与えてしまうこととなる。   That is, in this case, although the user flicks the touch panel 102 </ b> B, the mobile terminal 100 cannot recognize that the flick has been performed, which causes discomfort to the user.

そこでこの場合、携帯端末100は、タッチ位置だけでなく近接位置も用いてタッチ操作を認識するようになっている。   Therefore, in this case, the mobile terminal 100 recognizes the touch operation using not only the touch position but also the proximity position.

具体的にCPU110は、指が操作面に接触したあとすぐに離されたことを時点t14において認識すると、履歴データをもとに、指が操作面に接触している間に検知されたタッチ位置の個数を数える。   Specifically, when the CPU 110 recognizes that the finger is released immediately after touching the operation surface at time t14, the touch position detected while the finger is in contact with the operation surface based on the history data. Count the number of

そしてCPU110は、当該タッチ位置の個数が1個の場合、当該タッチ位置に加え、指が接触する直前及び指が離された直後の時点(ここでは時点t12及び時点t14)に検知された近接位置をもとに、タッチ操作を認識する。   When the number of the touch positions is one, the CPU 110 detects the proximity position detected at the time immediately before the finger touches and the time immediately after the finger is released (time t12 and time t14 in this case) in addition to the touch position. Recognize touch operation based on

ここで、図8(A)及び(B)に、図7に示す画面下方向にフリックが行われた場合の、指が接触する直前の時点t12における近接位置P0、時点t13におけるタッチ位置P1、指が離された直後の時点t14における近接位置P2の位置関係を示す。尚、指が接触する直前の時点における近接位置を、接触前近接位置とも呼び、指が離された直後の時点における近接位置を、接触後近接位置とも呼ぶ。   8A and 8B, when the flick is performed in the downward direction of the screen shown in FIG. 7, the proximity position P0 at the time t12 immediately before the finger touches, the touch position P1 at the time t13, The positional relationship of the proximity position P2 at the time point t14 immediately after the finger is released is shown. Note that the proximity position immediately before the finger contacts is also referred to as a pre-contact proximity position, and the proximity position immediately after the finger is released is also referred to as a post-contact proximity position.

フリックにおいてユーザが指で操作面を軽く払うとき、指は、操作面に近づいて接触し離れるまで、すなわち接触前後も接触中も、ほぼ一定方向(ここでは画面下方向)に直線的に動かされると想定される。ゆえに、接触前近接位置P0とタッチ位置P1との距離La及びタッチ位置P1と接触後近接位置P2との距離Lbは、比較的長くなると考えられる。また、接触前近接位置P0及びタッチ位置P1を通る直線と接触前近接位置P0及び接触後近接位置P2を通る直線とがなす角度αは比較的小さくなると考えられる。   When the user gently flicks the operation surface with his / her finger in the flick, the finger is moved linearly in a substantially constant direction (here, the screen downward direction) until it approaches the operation surface and comes into contact with it, that is, before and after contact. It is assumed. Therefore, the distance La between the proximity position P0 before contact and the touch position P1 and the distance Lb between the touch position P1 and the proximity position P2 after contact are considered to be relatively long. Further, it is considered that the angle α formed by the straight line passing through the pre-contact proximity position P0 and the touch position P1 and the straight line passing through the pre-contact proximity position P0 and the post-contact proximity position P2 is relatively small.

一方図9に示すように、タッチパネル102Bに対してタップが行われ、このときCPU110は、例えば、時点t21及び時点t22において近接位置を検知し、時点t23においてタッチ位置を検知し、時点t24において近接位置を検知したとする。   On the other hand, as shown in FIG. 9, the touch panel 102B is tapped. At this time, for example, the CPU 110 detects the proximity position at time t21 and time t22, detects the touch position at time t23, and approaches at time t24. Assume that the position is detected.

この場合の、タッチパネル102Bの操作面上での、時点t22における接触前近接位置P10、時点t23におけるタッチ位置P11、時点t24における接触後近接位置P12の位置関係を図10(A)及び(B)に示す。   In this case, the positional relationship between the pre-contact proximity position P10 at time t22, the touch position P11 at time t23, and the post-contact proximity position P12 at time t24 on the operation surface of the touch panel 102B is shown in FIGS. Shown in

タップにおいてユーザが指を操作面上の任意の1点にタッチさせるとき、指は、操作面に近づいて接触し離れるまで、操作面上の1点に向かってほぼ垂直に動かされると想定される。すなわち接触前後も接触中も、操作面と平行な面においては指の位置があまり移動しないため、接触前近接位置P10とタッチ位置P11との距離Lc及びタッチ位置P11と接触後近接位置P12との距離Ldは、フリックの際と比較して短くなると考えられる。   When the user touches an arbitrary point on the operation surface at the tap, the finger is assumed to be moved substantially vertically toward the point on the operation surface until the finger approaches and touches the operation surface. . That is, since the position of the finger does not move so much on a plane parallel to the operation surface before and after the contact, the distance Lc between the pre-contact proximity position P10 and the touch position P11 and the touch position P11 and the post-contact proximity position P12. The distance Ld is considered to be shorter than when flicking.

また、タップにおいて、指のぶれなどが原因でユーザが意図せずに操作面と平行な面においては指の位置が移動した場合、操作面と平行な面における指の移動方向は一定ではないことが想定される。ゆえに接触前近接位置P10及びタッチ位置P11を通る直線と接触前近接位置P10及び接触後近接位置P12を通る直線とがなす角度βは、フリックの際と比較して大きくなると考えられる。   Also, when the position of the finger moves on a surface parallel to the operation surface unintentionally by the user due to a shake of the finger, the direction of finger movement on the surface parallel to the operation surface is not constant. Is assumed. Therefore, it is considered that the angle β formed by the straight line passing through the pre-contact proximity position P10 and the touch position P11 and the straight line passing through the pre-contact proximity position P10 and the post-contact proximity position P12 is larger than that at the time of flicking.

そこでCPU110は、指が接触している間に検知されたタッチ位置の個数が1個の場合、接触前近接位置とタッチ位置との距離及びタッチ位置と接触後近接位置との距離(これらをまとめて近接タッチ移動距離とも呼ぶ)が所定値以上であるか否かを判別する。尚、この所定値は、フリックにおいて指を軽く払う際の近接タッチ移動距離が所定値以上となり、タップにおけるユーザの意図しない指のぶれなどによる近接タッチ移動距離が所定値よりも小さくなるよう予め設定される。   Therefore, when the number of touch positions detected while the finger is in contact is 1, the CPU 110 determines the distance between the pre-contact proximity position and the touch position and the distance between the touch position and the post-contact proximity position (summarizing them). It is determined whether or not the proximity touch movement distance is equal to or greater than a predetermined value. Note that this predetermined value is set in advance so that the proximity touch movement distance when the finger is lightly flicked is greater than or equal to the predetermined value, and the proximity touch movement distance due to unintentional finger movement on the tap is smaller than the predetermined value. Is done.

さらにCPU110は、接触前近接位置及びタッチ位置を通る直線と接触前近接位置及び接触後近接位置を通る直線とがなす角度(これを近接タッチ移動角度とも呼ぶ)が所定値以下であるか否かを判別する。尚、この所定値は、フリックにおいてユーザが指を一定方向に動かそうとしている際の近接タッチ移動角度が所定値以下となり、タップにおけるユーザの意図しない指のぶれなどによる近接タッチ移動角度が所定値よりも大きくなるよう予め設定される。   Further, the CPU 110 determines whether or not an angle formed by a straight line passing through the pre-contact proximity position and the touch position and a straight line passing through the pre-contact proximity position and the post-contact proximity position (also referred to as a proximity touch movement angle) is a predetermined value or less. Is determined. Note that this predetermined value is such that the proximity touch movement angle when the user tries to move the finger in a certain direction in the flick is equal to or less than the predetermined value, and the proximity touch movement angle due to a user's unintended finger shake at the tap is a predetermined value. It is set in advance so as to be larger.

そしてCPU110は、近接タッチ移動距離が所定値以上であり且つ近接タッチ移動角度が所定値以下であると判別すると、タッチパネル102Bに対する操作入力がフリックであると決定し、フリックが行われたことを認識する。   When the CPU 110 determines that the proximity touch movement distance is equal to or greater than the predetermined value and the proximity touch movement angle is equal to or less than the predetermined value, the CPU 110 determines that the operation input to the touch panel 102B is a flick and recognizes that the flick has been performed. To do.

一方CPU110は、近接タッチ移動距離が所定値よりも小さい又は近接タッチ移動角度が所定値よりも大きいことを判別すると、タッチパネル102Bに対する操作入力がタップであると決定し、タップが行われたことを認識する。   On the other hand, when determining that the proximity touch movement distance is smaller than the predetermined value or the proximity touch movement angle is larger than the predetermined value, the CPU 110 determines that the operation input on the touch panel 102B is a tap, and confirms that the tapping has been performed. recognize.

このようにCPU110は、指が接触している間に検知されたタッチ位置の個数が1個である場合には、当該タッチ位置に加え、指の接触前後に検知された近接位置(接触前近接位置及び接触後近接位置)をもとにフリック又はタップを認識するようになっている。   As described above, when the number of touch positions detected while the finger is in contact is one, the CPU 110, in addition to the touch position, the proximity position detected before and after the finger contact (proximity before contact). Flick or tap is recognized based on the position and the proximity position after contact).

尚CPU110は、指が接触している間に検知されたタッチ位置の個数が2個以上である場合には、上述したようにタッチ位置の移動があったか否かを検知し、この検知結果をもとにフリック又はタップを認識するようになっている。すなわち、CPU110は、指が接触している間に検知されたタッチ位置の個数が2個以上である場合には、タッチ位置のみをもとにフリック又はタップを認識するようになっている。   When the number of touch positions detected while the finger is in contact is two or more, the CPU 110 detects whether or not the touch position has moved as described above, and displays the detection result. And flicks or taps are recognized. That is, the CPU 110 recognizes a flick or a tap based only on the touch position when the number of touch positions detected while the finger is in contact is two or more.

このようにして携帯端末100では、タッチパネル102Bに対するタッチ操作(タップ及びフリック)を認識するようになっている。   In this way, the mobile terminal 100 recognizes a touch operation (tap and flick) on the touch panel 102B.

[1−5.操作認識処理手順]
次に、図11に示すフローチャートを用いて、上述したタッチ操作を認識する処理の手順(これを操作認識処理手順とも呼ぶ)RT1について説明する。この操作認識処理手順RT1は、CPU110が不揮発性メモリ111に格納されているプログラムに従って実行する処理手順である。
[1-5. Operation recognition processing procedure]
Next, a procedure of processing for recognizing the touch operation described above (also referred to as an operation recognition processing procedure) RT1 will be described using the flowchart shown in FIG. This operation recognition processing procedure RT1 is a processing procedure executed by the CPU 110 in accordance with a program stored in the nonvolatile memory 111.

CPU110は、例えば携帯端末100の電源がオンされると、操作認識処理手順RT1を開始して、ステップSP1に移る。   For example, when the power of the portable terminal 100 is turned on, the CPU 110 starts an operation recognition processing procedure RT1 and proceeds to step SP1.

ステップSP1においてCPU110は、タッチパネル102Bに対する指の接触又は近接を検知したか否かを判別する。   In step SP1, the CPU 110 determines whether or not a finger contact or proximity to the touch panel 102B has been detected.

このステップSP1において指の接触又は近接を検知したことにより肯定結果を得ると、CPU110は、次のステップSP2に移る。   If an affirmative result is obtained by detecting finger contact or proximity in step SP1, the CPU 110 proceeds to the next step SP2.

ステップSP2においてCPU110は、検知した指のタッチ位置又は近接位置を示す位置データを、履歴データとして不揮発性メモリ111に記憶し、次のステップSP3に移る。   In step SP2, the CPU 110 stores position data indicating the detected finger touch position or proximity position in the nonvolatile memory 111 as history data, and proceeds to the next step SP3.

ステップSP3においてCPU110は、履歴データをもとに、指の接触が所定時間以上継続しているか否かを判別する。   In step SP3, the CPU 110 determines whether or not the finger contact has continued for a predetermined time or more based on the history data.

このステップSP3において肯定結果が得られると、このことは、操作面に指をタッチし続ける操作が行われていることを意味し、このときCPU110は、次のステップSP4に移る。   If a positive result is obtained in step SP3, this means that an operation of continuing to touch the operation surface with a finger is being performed, and at this time, the CPU 110 proceeds to the next step SP4.

ステップSP4においてCPU110は、タッチパネル102Bに対する操作入力がドラッグであると決定してドラッグが行われたことを認識し、このドラッグに応じた処理を行って、再度ステップSP1に戻る。   In step SP4, the CPU 110 determines that the operation input to the touch panel 102B is a drag, recognizes that the drag has been performed, performs a process corresponding to the drag, and returns to step SP1 again.

一方ステップSP3において、指の接触が所定時間以上継続していないことより否定結果が得られると、このときCPU110は、次のステップSP5に移る。   On the other hand, if a negative result is obtained in step SP3 because the finger contact has not continued for a predetermined time or longer, the CPU 110 moves to the next step SP5.

またステップSP1において指の接触又は近接を検知していないことにより否定結果を得ると、CPU110は、次のステップSP5に移る。   If a negative result is obtained by not detecting finger contact or proximity in step SP1, the CPU 110 proceeds to the next step SP5.

ステップSP5においてCPU110は、履歴データをもとに、操作面から指が離されたか否かを判別する。具体的にCPU110は、タッチ位置が連続して検知されなかった場合、操作面から指が離されたと判別する。   In step SP5, the CPU 110 determines whether or not the finger is released from the operation surface based on the history data. Specifically, CPU 110 determines that the finger is released from the operation surface when the touch position is not continuously detected.

このステップSP5において否定結果を得ると、このことは、指が接触し続けている又はもともと指が接触していないことを意味し、このときCPU110は、再度ステップSP1に戻る。   If a negative result is obtained in this step SP5, this means that the finger continues to be in contact or the finger has not been in contact, and at this time, the CPU 110 returns to step SP1 again.

一方ステップSP5において操作面から指が離されたことにより肯定結果を得ると、このことは、指の接触が所定時間以上継続する前に指が離された、すなわち指が操作面に接触したあとすぐに離されたことを意味する。このときCPU110は、次のステップSP6に移る。   On the other hand, if a positive result is obtained when the finger is released from the operation surface in step SP5, this means that the finger is released before the finger contact continues for a predetermined time or longer, that is, after the finger contacts the operation surface. It means that it was released immediately. At this time, the CPU 110 proceeds to the next step SP6.

ステップSP6においてCPU110は、履歴データをもとに、指が操作面に接触している間に検知されたタッチ位置の個数が2個以上であるか否かを判別する。   In step SP6, the CPU 110 determines whether or not the number of touch positions detected while the finger is in contact with the operation surface is two or more based on the history data.

このステップSP6において肯定結果を得ると、このことは、タッチ位置のみを用いてタップ又はフリックを認識可能なことを意味し、このときCPU110は、次のステップSP7に移る。   If an affirmative result is obtained in step SP6, this means that a tap or flick can be recognized using only the touch position. At this time, the CPU 110 proceeds to the next step SP7.

ステップSP7においてCPU110は、上述したようにタッチ位置のみをもとに、タッチパネル102Bに対する操作入力がフリックか又はタップかを決定し、フリック又はタップが行われたことを認識する。そしてCPU110は、認識したフリック又はタップに応じた処理を実行して、再度ステップSP1に戻る。   In step SP7, the CPU 110 determines whether the operation input to the touch panel 102B is a flick or a tap based on only the touch position as described above, and recognizes that the flick or the tap has been performed. And CPU110 performs the process according to the recognized flick or tap, and returns to step SP1 again.

一方ステップSP6において、指が操作面に接触している間に検知されたタッチ位置の個数が1個であることより否定結果を得ると、このことは、タッチ位置だけではタップ又はフリックを認識できないことを意味する。このときCPU110は、次のステップSP8に移る。   On the other hand, if a negative result is obtained in step SP6 because the number of touch positions detected while the finger is in contact with the operation surface is one, this means that a tap or flick cannot be recognized only by the touch position. Means that. At this time, the CPU 110 moves to the next step SP8.

ステップSP8においてCPU110は、上述したようにタッチ位置及び指の接触前後の時点における近接位置をもとに、タッチパネル102Bに対する操作入力がフリックか又はタップかを決定し、フリック又はタップが行われたことを認識する。そしてCPU110は、認識したフリック又はタップに応じた処理を実行して、再度ステップSP1に戻る。   In step SP8, the CPU 110 determines whether the operation input to the touch panel 102B is a flick or a tap based on the touch position and the proximity position before and after the touch of the finger as described above, and the flick or the tap is performed. Recognize And CPU110 performs the process according to the recognized flick or tap, and returns to step SP1 again.

このような操作認識処理手順RT1にしたがって、携帯端末100のCPU110は、タッチ操作を認識するようになっている。   According to such an operation recognition processing procedure RT1, the CPU 110 of the mobile terminal 100 recognizes a touch operation.

[1−6.動作及び効果]
以上の構成において、携帯端末100は、一定時間Tごとに静電容量式のタッチパネル102Bの出力値を取得して、タッチ位置又は近接位置を検知する。
[1-6. Operation and effect]
In the above configuration, the mobile terminal 100 acquires the output value of the capacitive touch panel 102B every predetermined time T, and detects the touch position or the proximity position.

ここで携帯端末100は、タッチパネル102Bの操作面に指が接触したあとすぐに離されたことを検知すると、指が操作面に接触している間に検知されたタッチ位置の個数が2個以上であるか否かを判別する。   Here, when the mobile terminal 100 detects that the finger is released immediately after touching the operation surface of the touch panel 102B, the number of touch positions detected while the finger is in contact with the operation surface is two or more. It is determined whether or not.

そして携帯端末100は、当該タッチ位置の個数が2個以上である場合には、タッチ位置のみに基づいて、タッチパネル102Bに対する操作入力がフリックか又はタップかを決定し、フリック又はタップが行われたことを認識する。   When the number of touch positions is two or more, the mobile terminal 100 determines whether the operation input to the touch panel 102B is a flick or a tap based on only the touch position, and the flick or the tap is performed. Recognize that.

一方携帯端末100は、当該タッチ位置の個数が2個よりも少ない場合、すなわち当該タッチ位置の個数が1個の場合、タッチ位置と指の接触前後の時点における近接位置とに基づいて、タッチパネル102Bに対する操作入力がフリックか又はタップかを決定し、フリック又はタップが行われたことを認識する。   On the other hand, when the number of the touch positions is less than two, that is, when the number of the touch positions is one, the mobile terminal 100 touches the touch panel 102B based on the touch positions and the proximity positions before and after the finger contact. It is determined whether the operation input to flick or tap is performed, and it is recognized that the flick or tap has been performed.

このように携帯端末100は、指が操作面に接触している間に検知されたタッチ位置の個数が1個の場合には、タッチ位置に加えて指の接触の前後の近接位置に基づいて、指示物の接触が所定の操作入力(タップ又はフリック)かを決定するようにした。すなわち携帯端末100は、指が操作面に近づいて接触し離れるまでの一連の動きをもとに指示物の接触が所定の操作入力(タップ又はフリック)かを決定するようにした。   Thus, when the number of touch positions detected while the finger is in contact with the operation surface is one, the mobile terminal 100 is based on the proximity positions before and after the finger contact in addition to the touch position. In addition, it is determined whether the contact of the indicator is a predetermined operation input (tap or flick). That is, the mobile terminal 100 determines whether the contact of the pointing object is a predetermined operation input (tap or flick) based on a series of movements until the finger approaches the operation surface and contacts and leaves.

これにより携帯端末100は、タッチ位置の個数が少なくタッチ位置のみではどのような操作入力が行われたか認識できない場合であっても、指示物の接触による操作入力(すなわちタッチ操作)を確実に認識することができる。   As a result, the mobile terminal 100 reliably recognizes the operation input (i.e., touch operation) due to the contact of the pointing object even when the number of touch positions is small and it is not possible to recognize what operation input has been performed only by the touch position. can do.

従って携帯端末100は、指の近接を検知しうるようタッチパネルの感度を上げたことに伴いサンプリング間隔が従来よりも長くなってしまった場合でも、従来のタッチ操作(タップ、フリック)を確実に認識することができる。ゆえにこの携帯端末100は、従来の操作感はそのままで、近接操作を加えた多様な操作入力を実現することができる。   Therefore, even if the sampling interval becomes longer than before due to the increased sensitivity of the touch panel so that the proximity of the finger can be detected, the mobile terminal 100 reliably recognizes the conventional touch operation (tap, flick). can do. Therefore, the portable terminal 100 can realize various operation inputs with a proximity operation while maintaining the conventional operation feeling.

またこれにより携帯端末100は、サンプリング間隔を短くして一定時間あたりに検知するタッチ位置の個数を増やさなくてもタッチ操作の認識精度を向上することができるので、例えばサンプリング間隔を短くすることに伴う消費電力の上昇を防ぐことができる。   In addition, the portable terminal 100 can improve the recognition accuracy of the touch operation without shortening the sampling interval and increasing the number of touch positions detected per fixed time. The accompanying increase in power consumption can be prevented.

また携帯端末100では、タッチ位置のみを用いてタッチ操作を認識する場合よりもタッチ位置及び近接位置の両方を用いてタッチ操作を認識する場合の方が、計算量が多いため、処理負荷が大きくなっている。   Further, in the portable terminal 100, the processing load is larger because the amount of calculation is larger when the touch operation is recognized using both the touch position and the proximity position than when the touch operation is recognized using only the touch position. It has become.

そこで携帯端末100は、タッチ位置の個数が2個以上である場合、すなわちタッチ位置が移動したか否かを検知できタッチ位置のみでタッチ操作を認識しうる場合には、タッチ位置のみを用いてタッチ操作を認識するようにした。また携帯端末100は、タッチ位置の個数が1個である場合、すなわちタッチ位置が移動したか否かを検知できずタッチ位置のみではタッチ操作を認識できない場合にのみ、タッチ位置及び近接位置の両方を用いてタッチ操作を認識するようにした。   Therefore, when the number of touch positions is two or more, that is, when it is possible to detect whether the touch position has moved and to recognize a touch operation only by the touch position, the mobile terminal 100 uses only the touch position. The touch operation was recognized. Further, the mobile terminal 100 has both the touch position and the proximity position only when the number of touch positions is one, that is, when the touch position cannot be detected and the touch operation cannot be recognized only by the touch position. The touch operation is recognized using.

これにより携帯端末100は、タッチ操作を精度よく認識しながらも処理負荷を抑えることができる。   Thereby, the portable terminal 100 can suppress the processing load while accurately recognizing the touch operation.

以上の構成によれば、携帯端末100は、タッチ位置と指の接触前後の近接位置とをもとにタッチ操作を認識することにより、タッチ位置のみをもとにタッチ操作を認識する場合と比してタッチ操作の認識精度を向上することができる。   According to the above configuration, the mobile terminal 100 recognizes the touch operation based on the touch position and the proximity positions before and after the touch of the finger, so that the mobile terminal 100 recognizes the touch operation based only on the touch position. Thus, the recognition accuracy of the touch operation can be improved.

<2.他の実施の形態>
[2−1.他の実施の形態1]
なお上述した実施の形態では、CPU110は、指が接触している間に検知されたタッチ位置の個数が2個よりも少ない場合、すなわち1個の場合にのみ、当該タッチ位置と指の接触前後に検知された近接位置とをもとに所定のタッチ操作かを決定するようにした。
<2. Other embodiments>
[2-1. Other Embodiment 1]
In the above-described embodiment, the CPU 110 detects that the number of touch positions detected while the finger is touching is less than two, that is, only when the number of touch positions is one, before and after the touch position touches the finger. The predetermined touch operation is determined based on the detected proximity position.

このように当該タッチ位置の個数が2個よりも少ない場合に限らず、CPU110は、当該タッチ位置の個数がこの他種々の所定数よりも少ない場合に、当該タッチ位置と指の接触前後に検知された近接位置とをもとに所定のタッチ操作かを決定してもよい。   In this way, not only when the number of touch positions is less than two, but the CPU 110 detects before and after contact between the touch position and the finger when the number of touch positions is smaller than various other predetermined numbers. A predetermined touch operation may be determined based on the approached proximity position.

尚、この所定数は、タッチ位置の移動があったか否かを判別しうる個数、つまり2個以上の数であれば、種々の値を設定してもよい。またこの所定数は大きくなるほど、タッチ操作の認識精度は高くなるが、これに伴って、計算量が多くなるためCPU110の処理負荷も増えてしまう。従ってこの所定数は、さらに、タッチ操作の認識精度やCPU110の処理能力をふまえて設定されてもよい。   Note that various values may be set as long as the predetermined number is a number that can determine whether or not the touch position has moved, that is, a number that is two or more. In addition, as the predetermined number increases, the recognition accuracy of the touch operation increases. However, the amount of calculation increases and the processing load of the CPU 110 also increases. Therefore, the predetermined number may be set based on the recognition accuracy of the touch operation and the processing capability of the CPU 110.

またこれに限らずCPU110は、指が接触している間に検知されたタッチ位置の個数によらず、常に当該タッチ位置と指の接触前後に検知された近接位置とをもとに所定のタッチ操作かを決定するようにしてもよい。   In addition, the CPU 110 is not limited to this, regardless of the number of touch positions detected while the finger is in contact, and always performs a predetermined touch based on the touch position and the proximity positions detected before and after the finger contact. You may make it determine operation.

[2−2.他の実施の形態2]
また上述した実施の形態では、CPU110は、指が接触している間に検知されたタッチ位置と、指が接触する直前及び指が離された直後の時点に検知された近接位置とをもとに所定のタッチ操作かを決定するようにした。
[2-2. Other Embodiment 2]
Further, in the above-described embodiment, the CPU 110 is based on the touch position detected while the finger is in contact and the proximity position detected immediately before the finger touches and immediately after the finger is released. It is determined whether the predetermined touch operation.

これに限らずCPU110は、当該タッチ位置と、指の接触前後いずれか一方に検知された近接位置とをもとに所定のタッチ操作かを決定するようにしてもよい。   However, the present invention is not limited to this, and the CPU 110 may determine whether the touch operation is a predetermined touch operation based on the touch position and the proximity position detected before or after the touch of the finger.

この場合CPU110は、指が近づいてから接触するまでの指の動きに特徴のあるタッチ操作であれば、タッチ位置と指の接触前に検知された近接位置をもとに所定のタッチ操作かを決定するようにしてもよい。一方CPU110は、指が接触してから離れるまでの指の動きに特徴のあるタッチ操作であれば、タッチ位置と指の接触後(指が離された後)に検知された近接位置をもとに所定のタッチ操作かを決定するようにしてもよい。   In this case, the CPU 110 determines whether the touch operation is a predetermined touch operation based on the touch position and the proximity position detected before the finger touch if the touch operation has a characteristic of finger movement from the time the finger approaches to the touch. It may be determined. On the other hand, if the CPU 110 is a touch operation characterized by the movement of the finger from when the finger comes in contact with the finger, the CPU 110 uses the touch position and the proximity position detected after the finger touches (after the finger is released). It may be determined whether a predetermined touch operation.

また例えばCPU110は、指の接触前又は接触後に検知された近接位置の何点か(例えば指の接触直前と、その時点の1つ前の時点に検知された近接位置など)とタッチ位置とをもとに所定のタッチ操作かを決定するようにしてもよい。   In addition, for example, the CPU 110 determines the touch position based on some of the proximity positions detected before or after the finger contact (for example, the proximity position detected immediately before and immediately before the finger contact). It may be determined based on a predetermined touch operation.

[2−3.他の実施の形態3]
さらに上述した実施の形態では、CPU110は、指が接触している間に検知されたタッチ位置と指の接触前後に検知された近接位置との距離(近接タッチ移動距離)をもとに所定のタッチ操作かを決定するようにした。
[2-3. Other Embodiment 3]
Further, in the above-described embodiment, the CPU 110 performs predetermined processing based on the distance (proximity touch movement distance) between the touch position detected while the finger is in contact and the proximity position detected before and after the finger contact. The touch operation was decided.

これに限らずCPU110は、当該タッチ位置及び当該近接位置のうちいずれか2点間の距離をもとに所定のタッチ操作かを決定するようにしてもよい。CPU110は、例えば、指の接触前の近接位置と指の接触後の近接位置との距離をもとに所定のタッチ操作かを決定するようにしてもよい。   Not limited to this, the CPU 110 may determine whether a predetermined touch operation is performed based on the distance between any two points of the touch position and the proximity position. For example, the CPU 110 may determine whether a predetermined touch operation is performed based on the distance between the proximity position before the finger contact and the proximity position after the finger contact.

[2−4.他の実施の形態4]
さらに上述した実施の形態では、CPU110は、指の接触前に検知された近接位置及び指が接触している間に検知されたタッチ位置を通る直線と、指の接触前に検知された近接位置及び指の接触後に検知された近接位置を通る直線とがなす角度(近接タッチ移動角度)をもとに所定のタッチ操作かを決定するようにした。
[2-4. Other Embodiment 4]
Further, in the above-described embodiment, the CPU 110 detects the proximity position detected before the finger contact, the straight line passing through the touch position detected while the finger is in contact, and the proximity position detected before the finger contact. In addition, a predetermined touch operation is determined based on an angle (proximity touch movement angle) formed by a straight line passing through the proximity position detected after the finger touches.

これに限らずCPU110は、当該タッチ位置及び当該近接位置のうちいずれか2点を通る直線同士がなす角度をもとに所定のタッチ操作かを決定するようにしてもよい。CPU110は、例えば、指の接触前に検知された近接位置及び当該タッチ位置を通る直線と、当該タッチ位置及び指の接触後に検知された近接位置を通る直線とがなす角度をもとに所定のタッチ操作かを決定するようにしてもよい。   Not limited to this, the CPU 110 may determine whether a predetermined touch operation is performed based on an angle formed by straight lines passing through any two points of the touch position and the proximity position. For example, the CPU 110 determines a predetermined position based on an angle formed by a proximity position detected before the finger contact and a straight line passing through the touch position and a straight line passing through the touch position and the proximity position detected after the finger contact. You may make it determine whether it is a touch operation.

[2−5.他の実施の形態5]
さらに上述した実施の形態では、CPU110は、近接タッチ移動距離及び近接タッチ移動角度をもとに、所定のタッチ操作かを決定するようにしてもよい。
[2-5. Other Embodiment 5]
Further, in the above-described embodiment, the CPU 110 may determine whether a predetermined touch operation is performed based on the proximity touch movement distance and the proximity touch movement angle.

これに限らずCPU110は、近接タッチ移動距離又は近接タッチ移動角度いずれか一方をもとにタッチ操作を認識するようにしてもよい。   Not limited to this, the CPU 110 may recognize the touch operation based on either the proximity touch movement distance or the proximity touch movement angle.

またCPU110は、指が接触している間に検知されたタッチ位置及び指の接触前後少なくとも一方に検知された近接位置の位置関係であれば、近接タッチ移動距離又は近接タッチ移動角度に限らず、この他種々の位置関係をもとに所定のタッチ操作かを決定してもよい。   Further, the CPU 110 is not limited to the proximity touch movement distance or the proximity touch movement angle as long as it is a positional relationship between the touch position detected while the finger is in contact and the proximity position detected at least before and after the finger contact. In addition, a predetermined touch operation may be determined based on various positional relationships.

例えばCPU110は、当該タッチ位置及び当該近接位置を含む最小の範囲(例えば円状の範囲)を検出し、当該範囲の面積が所定値以上か否かを判別するようにしてもよい。そしてCPU110は、当該範囲の面積が所定値以上の場合、指が操作面上で移動した操作、つまりフリックであると決定し、当該範囲の面積が所定値よりも小さい場合、指が操作面上でほぼ移動しない操作、つまりタップであると決定するようにしてもよい。   For example, the CPU 110 may detect a minimum range (for example, a circular range) including the touch position and the proximity position, and determine whether or not the area of the range is a predetermined value or more. When the area of the range is equal to or larger than the predetermined value, the CPU 110 determines that the finger has moved on the operation surface, that is, a flick. When the area of the range is smaller than the predetermined value, the finger is on the operation surface. It is also possible to determine that the operation hardly moves, that is, a tap.

[2−6.他の実施の形態6]
さらに上述した実施の形態では、CPU110は、指が接触している間に検知されたタッチ位置と指の接触前後の近接位置とをもとに、行われた操作入力がタップ又はフリックであるかを決定するようにした。
[2-6. Other Embodiment 6]
Further, in the embodiment described above, the CPU 110 determines whether the operation input performed is a tap or a flick based on the touch position detected while the finger is in contact and the proximity positions before and after the finger contact. I decided to decide.

これに限らずCPU110は、指が近づいてから接触するまでの指の動き、又は指が接触してから離れるまでの指の動きに特徴のあるタッチ操作であれば、この他種々のタッチ操作をタッチ位置と指の接触前後の近接位置とをもとに決定するようにしてもよい。   Not limited to this, the CPU 110 performs various other touch operations as long as it is a touch operation characterized by the movement of the finger from when the finger approaches to the contact, or the movement of the finger from when the finger comes into contact. You may make it determine based on a touch position and the proximity position before and behind the contact of a finger.

例えば、CPU110は、操作面上の2点に同時に指が接触した場合に、指が接触した各点において指が接触している間に検知されたタッチ位置の個数が1個ずつであったとする。この場合、CPU110は、タッチ位置のみでは、2点を同時にタップ(これを2点タップとも呼ぶ)したのか、接触させた2本の指の間を広げる操作(ピンチイン)を行ったのか、接触させた2本の指の間を狭める操作(ピンチアウト)を行ったのかを区別できない。   For example, when the finger touches two points on the operation surface at the same time, the CPU 110 assumes that the number of touch positions detected while the finger is touching at each point touched by the finger is one. . In this case, the CPU 110 makes contact with whether only two touch points are tapped at the same time (this is also referred to as a two-point tap), or an operation (pinch-in) is performed to widen the two touched fingers. It is not possible to distinguish whether an operation (pinch out) for narrowing the distance between two fingers is performed.

そこでこの場合CPU110は、タッチ位置に加え指の接触後の近接位置をもとに、操作面に平行な面において2本の指が移動したのか否かを区別して、2点タップが行われたのか又はピンチインピンチアウトが行われたのかを決定する。   Therefore, in this case, the CPU 110 discriminates whether or not two fingers have moved in a plane parallel to the operation surface based on the proximity position after the finger contact in addition to the touch position, and a two-point tap is performed. Or a pinch-in pinch-out has been performed.

さらにCPU110は、当該タッチ位置及び当該近接位置をもとに、操作面に平行な面において2本の指が近づく方向に移動したのか又は遠ざかる方向に移動したのかを区別して、ピンチインが行われたのか又はピンチアウトが行われたのかを決定する。   Furthermore, the CPU 110 discriminates whether the two fingers have moved in a direction approaching or moving away from a plane parallel to the operation surface based on the touch position and the proximity position, and pinch-in is performed. Or whether a pinch out has occurred.

[2−7.他の実施の形態7]
さらに上述した実施の形態では、CPU110は、指が接触している間に検知されたタッチ位置の個数が1個の場合のみ、タッチ位置及び近接位置をもとに所定のタッチ操作かを決定するようにした。
[2-7. Other Embodiment 7]
Further, in the above-described embodiment, the CPU 110 determines whether a predetermined touch operation is performed based on the touch position and the proximity position only when the number of touch positions detected while the finger is in contact is one. I did it.

これに限らずCPU110は、この他種々の条件で、タッチ位置及び近接位置をもとに所定のタッチ操作かを決定するか、それともタッチ位置のみをもとに所定のタッチ操作を決定するかを切り替えるようにしてもよい。すなわちCPU110は、タッチ位置のみで所定のタッチ操作かを決定できる場合にはタッチ位置のみをもとにタッチ操作を決定し、タッチ位置のみでは所定のタッチ操作かを決定できない場合のみタッチ位置と近接位置とをもとにタッチ操作を決定してもよい。こうすることにより携帯端末100は、タッチ操作を精度よく認識しながらも処理負荷を抑えることができる。   Not limited to this, the CPU 110 determines whether a predetermined touch operation is determined based on the touch position and the proximity position or whether the predetermined touch operation is determined based only on the touch position under various other conditions. You may make it switch. That is, the CPU 110 determines the touch operation based only on the touch position when it can be determined only by the touch position, and is close to the touch position only when the predetermined touch operation cannot be determined only by the touch position. The touch operation may be determined based on the position. By doing so, the mobile terminal 100 can suppress the processing load while accurately recognizing the touch operation.

例えば、CPU110は、フリックを操作入力として受け付けるようになされたアプリが実行されている場合にのみ、タッチ位置及び近接位置をもとに操作入力がフリックであるかを決定するようにしてもよい。すなわちCPU110は、例えばタップのみを操作入力として受け付けるアプリの場合は、タップとフリックを区別する必要がないため、タッチ位置のみをもとにタップを認識すればよい。   For example, the CPU 110 may determine whether the operation input is a flick based on the touch position and the proximity position only when an application that accepts a flick as an operation input is being executed. That is, for example, in the case of an app that accepts only a tap as an operation input, the CPU 110 does not need to distinguish between a tap and a flick, and therefore may recognize the tap based only on the touch position.

また例えば、CPU110は、タッチ位置を検知したときに当該タッチ位置にフリックが対応づけられている場合にのみ、タッチ位置及び近接位置をもとに操作入力がフリックであるかを決定するようにしてもよい。すなわちCPU110は、当該タッチ位置にタップのみが対応づけられている場合(例えば当該タッチ位置に対応する液晶パネル102A上の箇所にボタンが表示されている場合など)は、タップかフリックかを区別する処理を行わずタップを認識すればよい。   Further, for example, the CPU 110 determines whether the operation input is a flick based on the touch position and the proximity position only when the flick is associated with the touch position when the touch position is detected. Also good. That is, when only a tap is associated with the touch position (for example, when a button is displayed at a position on the liquid crystal panel 102A corresponding to the touch position), the CPU 110 distinguishes whether the tap is a tap or a flick. What is necessary is just to recognize a tap, without performing a process.

[2−8.他の実施の形態8]
さらに上述した実施の形態では、タッチパネル102Bに対するタッチ操作を行う指示物としてユーザの指を用いた場合について述べた。本発明はこれに限らず、タッチパネルで接触及び近接を検知できるような指示物であれば、この他鉛筆、棒、専用のタッチペンなど、この他種々の指示物を用いてもよい。
[2-8. Other Embodiment 8]
Further, in the above-described embodiment, the case where the user's finger is used as an instruction for performing a touch operation on the touch panel 102B has been described. The present invention is not limited to this, and various other indications such as a pencil, a stick, and a dedicated touch pen may be used as long as the indication can detect contact and proximity with a touch panel.

[2−9.他の実施の形態9]
さらに上述した実施の形態では、操作面に対する指示物の接触及び近接を検知するためのデバイスとして、静電容量方式のタッチパネル102Bを携帯端末100に設けるようにした。
[2-9. Other Embodiment 9]
Furthermore, in the above-described embodiment, the capacitive touch panel 102 </ b> B is provided in the mobile terminal 100 as a device for detecting contact and proximity of the pointing object to the operation surface.

これに限らず、操作面に対する指示物の接触及び近接を検知しうる操作入力デバイスであれば、例えば、液晶パネル内に光センサを内蔵した光センサ式のタッチスクリーンなど、この他種々の操作入力デバイスを携帯端末100に設けるようにしてもよい。   Not limited to this, as long as the operation input device can detect the contact and proximity of the pointing object to the operation surface, various other operation inputs such as an optical sensor type touch screen in which an optical sensor is incorporated in a liquid crystal panel, for example. You may make it provide a device in the portable terminal 100. FIG.

また液晶パネル102Aの代わりに、有機EL(Electro Luminescence)パネルなど、この他種々の表示デバイスを用いるようにしてもよい。   Various other display devices such as an organic EL (Electro Luminescence) panel may be used instead of the liquid crystal panel 102A.

[2−10.他の実施の形態10]
さらに上述した実施の形態では、情報処理装置1としての携帯端末100に、接触検知部2及び近接検知部3としてのタッチパネル102Bと、制御部4としてのCPU110を設けるようにした。
[2-10. Other Embodiment 10]
Furthermore, in the above-described embodiment, the touch panel 102 </ b> B as the contact detection unit 2 and the proximity detection unit 3 and the CPU 110 as the control unit 4 are provided in the portable terminal 100 as the information processing apparatus 1.

これに限らず、同様の機能を有するのであれば、上述した携帯端末100の各部を、他の種々のハードウェアもしくはソフトウェアにより構成するようにしてもよい。   Not only this but if it has the same function, you may make it comprise each part of the portable terminal 100 mentioned above with another various hardware or software.

さらに本発明は、携帯端末100に限らず、デジタルスチルカメラ、据置型のパーソナルコンピュータ、ゲーム機、ポータブルオーディオプレイヤ、携帯型電話機など、この他種々の機器に適用するようにしてもよく、また適用することができる。   Furthermore, the present invention is not limited to the portable terminal 100, and may be applied to various other devices such as a digital still camera, a stationary personal computer, a game machine, a portable audio player, and a portable telephone. can do.

[2−11.他の実施の形態11]
さらに上述した実施の形態では、各種処理を実行するためのプログラムを、携帯端末100の不揮発性メモリ111に書き込んでおくようにした。
[2-11. Other Embodiment 11]
Furthermore, in the above-described embodiment, a program for executing various processes is written in the nonvolatile memory 111 of the mobile terminal 100.

これに限らず、例えば携帯端末100にメモリカードなどの記憶媒体のスロットを設け、CPU110がこのスロットに差し込まれた記憶媒体からプログラムを読み出して実行するようにしてもよい。またCPU110は、プログラムを、ネットワークインタフェース114を介してダウンロードして不揮発性メモリ111にインストールするようにしてもよい。   For example, the portable terminal 100 may be provided with a slot for a storage medium such as a memory card, and the CPU 110 may read and execute the program from the storage medium inserted into the slot. The CPU 110 may download the program via the network interface 114 and install it in the nonvolatile memory 111.

[2−12.他の実施の形態12]
さらに本発明は、上述した実施の形態と他の実施の形態とに限定されるものではない。すなわち本発明は、上述した実施の形態と他の実施の形態の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用領域が及ぶものである。
[2-12. Other Embodiment 12]
Further, the present invention is not limited to the above-described embodiment and other embodiments. That is, the scope of application of the present invention extends to a form in which a part or all of the above-described embodiment and another embodiment are arbitrarily combined, or a form in which a part is extracted.

本発明は、タッチパネルを介して操作入力を行う機器で広く利用することができる。   The present invention can be widely used in devices that perform operation input via a touch panel.

1……情報処理装置、2……接触検知部、3……近接検知部、4……制御部、100……携帯端末、102……タッチスクリーン、102A……液晶パネル、102B……タッチパネル、110……CPU、111……不揮発性メモリ。   DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus, 2 ... Contact detection part, 3 ... Proximity detection part, 4 ... Control part, 100 ... Portable terminal, 102 ... Touch screen, 102A ... Liquid crystal panel, 102B ... Touch panel, 110... CPU, 111.

Claims (7)

操作面に対する指示物の接触を検知する接触検知部と、
上記操作面に対する指示物の近接を検知する近接検知部と、
上記接触検知部により指示物の接触を検知すると、上記接触検知部による検知結果と、上記近接検知部による当該指示物の接触前後少なくとも一方の検知結果とに基づいて、当該指示物の接触が所定の操作入力かを決定する制御部と
を具える情報処理装置。
A contact detection unit that detects contact of an indicator with the operation surface;
A proximity detector that detects the proximity of the pointing object to the operation surface;
When contact of the indicator is detected by the contact detection unit, the contact of the indicator is predetermined based on a detection result by the contact detection unit and at least one detection result before and after the contact of the indicator by the proximity detection unit. An information processing apparatus comprising: a control unit that determines whether the input is an operation input.
上記接触検知部は、
上記操作面に対する指示物の接触位置を所定時間ごとに検知し、
上記制御部は、更に、
上記操作面に対する指示物が接触していたときに、上記接触検知部が検知した上記接触位置の個数に基づいて、当該指示物の接触が所定の操作入力かを決定する
請求項1に記載の情報処理装置。
The contact detector is
Detect the contact position of the pointing object with respect to the operation surface every predetermined time,
The control unit further includes:
The determination according to claim 1, wherein when the pointing object is in contact with the operation surface, whether the touch of the pointing object is a predetermined operation input is determined based on the number of the contact positions detected by the contact detection unit. Information processing device.
上記制御部は、更に、
上記接触検知部が検知した上記指示物の接触位置及び上記近接検知部が検知した上記指示物の接触前後少なくとも一方の近接位置に基づいて、当該指示物の接触が所定の操作入力かを決定する
請求項1に記載の情報処理装置。
The control unit further includes:
Based on the contact position of the indicator detected by the contact detector and at least one proximity position before and after contact of the indicator detected by the proximity detector, it is determined whether the contact of the indicator is a predetermined operation input. The information processing apparatus according to claim 1.
上記制御部は、
上記接触位置及び上記近接位置の2点間の距離に基づいて、当該指示物の接触が所定の操作入力かを決定する
請求項3に記載の情報処理装置。
The control unit
The information processing apparatus according to claim 3, wherein whether the contact of the indicator is a predetermined operation input is determined based on a distance between two points of the contact position and the proximity position.
上記制御部は、
上記接触位置及び上記近接位置の2点を通る直線同士がなす角度に基づいて、当該指示物の接触が所定の操作入力かを決定する
請求項3に記載の情報処理装置。
The control unit
The information processing apparatus according to claim 3, wherein whether the contact of the indicator is a predetermined operation input is determined based on an angle formed by straight lines passing through the two points of the contact position and the proximity position.
接触検知部が、操作面に対する指示物の接触を検知し、
近接検知部が、上記操作面に対する指示物の近接を検知し、
上記接触検知部により指示物の接触を検知すると、上記接触検知部による検知結果と、上記近接検知部による当該指示物の接触前後少なくとも一方の検知結果とに基づいて、当該指示物の接触が所定の操作入力かを決定する
操作入力決定方法。
The contact detection unit detects the contact of the indicator with the operation surface,
The proximity detection unit detects the proximity of the pointing object to the operation surface,
When contact of the indicator is detected by the contact detection unit, the contact of the indicator is predetermined based on a detection result by the contact detection unit and at least one detection result before and after the contact of the indicator by the proximity detection unit. How to determine the operation input.
情報処理装置に対し、
接触検知部が、操作面に対する指示物の接触を検知する接触検知ステップと、
近接検知部が、上記操作面に対する指示物の近接を検知する近接検知ステップと、
上記接触検知ステップにより指示物の接触を検知すると、上記接触検知ステップでの検知結果と、上記近接検知ステップでの当該指示物の接触前後少なくとも一方の検知結果とに基づいて、当該指示物の接触が所定の操作入力かを決定する操作入力決定ステップと
を実行させるための操作入力決定プログラム。
For information processing equipment
A contact detection step in which the contact detection unit detects the contact of the indicator with the operation surface;
A proximity detection step in which the proximity detection unit detects the proximity of the pointing object to the operation surface;
When the contact of the indicator is detected in the contact detection step, the contact of the indicator is based on the detection result in the contact detection step and at least one detection result before and after the contact of the indicator in the proximity detection step. An operation input determination program for executing an operation input determination step for determining whether is a predetermined operation input.
JP2010009184A 2010-01-19 2010-01-19 Information processing apparatus, method and program for determining operation input Pending JP2011150414A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010009184A JP2011150414A (en) 2010-01-19 2010-01-19 Information processing apparatus, method and program for determining operation input
US12/980,543 US8633909B2 (en) 2010-01-19 2010-12-29 Information processing apparatus, input operation determination method, and input operation determination program
CN2011100095328A CN102129313A (en) 2010-01-19 2011-01-12 Information processing apparatus, input operation determination method, and input operation determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010009184A JP2011150414A (en) 2010-01-19 2010-01-19 Information processing apparatus, method and program for determining operation input

Publications (1)

Publication Number Publication Date
JP2011150414A true JP2011150414A (en) 2011-08-04

Family

ID=44267417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010009184A Pending JP2011150414A (en) 2010-01-19 2010-01-19 Information processing apparatus, method and program for determining operation input

Country Status (3)

Country Link
US (1) US8633909B2 (en)
JP (1) JP2011150414A (en)
CN (1) CN102129313A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105413A (en) * 2011-11-16 2013-05-30 Rohm Co Ltd Touch panel control circuit, control method and touch panel input device using the same, and electronic apparatus
JP2013242916A (en) * 2012-04-27 2013-12-05 Panasonic Corp Input device, input support method, and program
JP2015049880A (en) * 2013-09-05 2015-03-16 コニカミノルタ株式会社 Touch panel input device, control method for touch panel input device, and control program for touch panel input device
KR20150048526A (en) * 2013-10-28 2015-05-07 삼성전자주식회사 electronic appratus and user gesture recognition method thereof
US9225810B2 (en) 2012-07-03 2015-12-29 Sony Corporation Terminal device, information processing method, program, and storage medium
JP2016062183A (en) * 2014-09-16 2016-04-25 キヤノン株式会社 Information processing apparatus, control method thereof, program, and storage medium
WO2016063736A1 (en) * 2014-10-21 2016-04-28 オリンパス株式会社 Operation device, information processing apparatus provided with operation device, and operation acceptance method for information processing apparatus
JP2018055720A (en) * 2017-12-20 2018-04-05 富士ゼロックス株式会社 Display controller and program
US10261630B2 (en) 2012-04-27 2019-04-16 Panasonic Intellectual Property Corporation Of America Input device, input support method, and program

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5651494B2 (en) 2011-02-09 2015-01-14 日立マクセル株式会社 Information processing device
US10345912B2 (en) * 2011-03-07 2019-07-09 Lenovo (Beijing) Co., Ltd. Control method, control device, display device and electronic device
KR101794000B1 (en) * 2011-06-13 2017-11-06 삼성전자주식회사 Apparatus and method for scrolling in portable terminal
JP5372091B2 (en) * 2011-09-15 2013-12-18 株式会社ワコム Electronic device and display screen control method for electronic device
JP5806573B2 (en) * 2011-09-28 2015-11-10 キヤノン株式会社 Coordinate input device, control method therefor, and coordinate input system
JP2013105461A (en) * 2011-11-16 2013-05-30 Canon Inc Information processing apparatus and method of controlling the same
US20140208957A1 (en) * 2012-02-14 2014-07-31 Panasonic Corporation Electronic device
KR20130099420A (en) * 2012-02-29 2013-09-06 주식회사 팬택 Terminal having capacitive type touch screen and method of touch position detecting the same
EP2648086A3 (en) 2012-04-07 2018-04-11 Samsung Electronics Co., Ltd Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
CN102622182A (en) * 2012-04-16 2012-08-01 李波 Off-screen touch interactive system with nearly-joint sensing projection point coordinate indication
US9310895B2 (en) 2012-10-12 2016-04-12 Microsoft Technology Licensing, Llc Touchless input
CN104035610B (en) * 2013-03-08 2017-07-04 原相科技股份有限公司 Touch control method and contactor control device
JP5984722B2 (en) * 2013-03-22 2016-09-06 シャープ株式会社 Information processing device
JP6324203B2 (en) * 2014-05-14 2018-05-16 キヤノン株式会社 Information processing apparatus, control method therefor, program, and recording medium
WO2015188011A1 (en) * 2014-06-04 2015-12-10 Quantum Interface, Llc. Dynamic environment for object and attribute display and interaction
CN105469377A (en) * 2014-08-18 2016-04-06 中兴通讯股份有限公司 Touch control device and calibration method thereof
US9983695B2 (en) * 2015-03-19 2018-05-29 Lenovo (Singapore)Pte. Ltd. Apparatus, method, and program product for setting a cursor position
US10585582B2 (en) * 2015-08-21 2020-03-10 Motorola Solutions, Inc. System and method for disambiguating touch interactions
CN110520831B (en) * 2017-04-20 2023-06-20 阿尔卑斯阿尔派株式会社 Touch sensor type electronic device and sensor control method

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6664744B2 (en) * 2002-04-03 2003-12-16 Mitsubishi Electric Research Laboratories, Inc. Automatic backlight for handheld devices
WO2006003590A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. A method and device for preventing staining of a display device
JP4547622B2 (en) 2005-04-22 2010-09-22 アルパイン株式会社 Touch panel input device and operation input determination method
US7567240B2 (en) * 2005-05-31 2009-07-28 3M Innovative Properties Company Detection of and compensation for stray capacitance in capacitive touch sensors
US9019209B2 (en) * 2005-06-08 2015-04-28 3M Innovative Properties Company Touch location determination involving multiple touch location processes
US20080018604A1 (en) * 2006-07-19 2008-01-24 Tyco Electronics Canada, Ltd. Touch detection method and system for a touch sensor
DE102007034273A1 (en) * 2007-07-19 2009-01-22 Volkswagen Ag Method for determining the position of a user's finger in a motor vehicle and position determining device
DE102008051757A1 (en) * 2007-11-12 2009-05-14 Volkswagen Ag Multimodal user interface of a driver assistance system for entering and presenting information
KR101505191B1 (en) * 2008-01-09 2015-03-20 엘지전자 주식회사 Mobile terminal and operation control method thereof
EP2104024B1 (en) * 2008-03-20 2018-05-02 LG Electronics Inc. Portable terminal capable of sensing proximity touch and method for controlling screen using the same
US9274681B2 (en) * 2008-03-26 2016-03-01 Lg Electronics Inc. Terminal and method of controlling the same
KR101506488B1 (en) * 2008-04-04 2015-03-27 엘지전자 주식회사 Mobile terminal using proximity sensor and control method thereof
EP2131272A3 (en) * 2008-06-02 2014-05-07 LG Electronics Inc. Mobile communication terminal having proximity sensor and display controlling method therein
US8355003B2 (en) * 2008-06-13 2013-01-15 Microsoft Corporation Controller lighting activation by proximity and motion
US8928595B2 (en) * 2008-06-24 2015-01-06 Microsoft Corporation Touch screen calibration sensor
KR20100010860A (en) * 2008-07-23 2010-02-02 엘지전자 주식회사 Mobile terminal and event control method thereof
US9658765B2 (en) * 2008-07-31 2017-05-23 Northrop Grumman Systems Corporation Image magnification system for computer interface
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
US8799806B2 (en) * 2008-12-31 2014-08-05 Verizon Patent And Licensing Inc. Tabbed content view on a touch-screen device
US8373669B2 (en) * 2009-07-21 2013-02-12 Cisco Technology, Inc. Gradual proximity touch screen
US8587532B2 (en) * 2009-12-18 2013-11-19 Intel Corporation Multi-feature interactive touch user interface
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105413A (en) * 2011-11-16 2013-05-30 Rohm Co Ltd Touch panel control circuit, control method and touch panel input device using the same, and electronic apparatus
JP2013242916A (en) * 2012-04-27 2013-12-05 Panasonic Corp Input device, input support method, and program
US10261630B2 (en) 2012-04-27 2019-04-16 Panasonic Intellectual Property Corporation Of America Input device, input support method, and program
US9225810B2 (en) 2012-07-03 2015-12-29 Sony Corporation Terminal device, information processing method, program, and storage medium
JP2015049880A (en) * 2013-09-05 2015-03-16 コニカミノルタ株式会社 Touch panel input device, control method for touch panel input device, and control program for touch panel input device
KR20150048526A (en) * 2013-10-28 2015-05-07 삼성전자주식회사 electronic appratus and user gesture recognition method thereof
KR102159789B1 (en) * 2013-10-28 2020-09-25 삼성전자주식회사 Electronic appratus and user gesture recognition method thereof
JP2016062183A (en) * 2014-09-16 2016-04-25 キヤノン株式会社 Information processing apparatus, control method thereof, program, and storage medium
WO2016063736A1 (en) * 2014-10-21 2016-04-28 オリンパス株式会社 Operation device, information processing apparatus provided with operation device, and operation acceptance method for information processing apparatus
JPWO2016063736A1 (en) * 2014-10-21 2017-06-15 オリンパス株式会社 Operation device, information processing device including operation device, and operation reception method for information processing device
US10152218B2 (en) 2014-10-21 2018-12-11 Olympus Corporation Operation device, information processing apparatus comprising operation device, and operation receiving method for information processing apparatus
JP2018055720A (en) * 2017-12-20 2018-04-05 富士ゼロックス株式会社 Display controller and program

Also Published As

Publication number Publication date
US8633909B2 (en) 2014-01-21
CN102129313A (en) 2011-07-20
US20110175831A1 (en) 2011-07-21

Similar Documents

Publication Publication Date Title
JP2011150414A (en) Information processing apparatus, method and program for determining operation input
US10606405B2 (en) Information processing device, operation input method and operation input program
JP6506347B2 (en) Electronic device and home screen editing method thereof
US10387016B2 (en) Method and terminal for displaying a plurality of pages,method and terminal for displaying a plurality of applications being executed on terminal, and method of executing a plurality of applications
US9507507B2 (en) Information processing apparatus, information processing method and program
EP2732364B1 (en) Method and apparatus for controlling content using graphical object
US10437360B2 (en) Method and apparatus for moving contents in terminal
KR101974852B1 (en) Method and apparatus for moving object in terminal having touchscreen
JP2011170834A (en) Information processing apparatus, operation prediction method, and operation prediction program
JP2010176330A (en) Information processing apparatus and display control method
JP5837955B2 (en) Method for executing function of electronic device and electronic device
KR20140026966A (en) Operation method and system for function of stylus pen
KR20130090138A (en) Operation method for plural touch panel and portable device supporting the same
JP2012058856A (en) Information processor, information processing method and information processing program
KR20140030387A (en) Contents operating method and electronic device operating the same
WO2022007541A1 (en) Device control method and apparatus, storage medium, and electronic device
US11567725B2 (en) Data processing method and mobile device
US20140085340A1 (en) Method and electronic device for manipulating scale or rotation of graphic on display
WO2015174110A1 (en) Information-processing apparatus, information-processing method, and program
US20160117000A1 (en) Touchscreen input method and apparatus
JP6284459B2 (en) Terminal device
KR20140002900A (en) Method for sound source reproducing of terminel and terminel thereof
EP3101522A1 (en) Information processing device, information processing method, and program
CN117055796A (en) Control display method and device
KR101163926B1 (en) Control method and device for user terminal having touch screen, recording medium for the same