[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014164763A - フィードバック提供方法及び端末 - Google Patents

フィードバック提供方法及び端末 Download PDF

Info

Publication number
JP2014164763A
JP2014164763A JP2014032226A JP2014032226A JP2014164763A JP 2014164763 A JP2014164763 A JP 2014164763A JP 2014032226 A JP2014032226 A JP 2014032226A JP 2014032226 A JP2014032226 A JP 2014032226A JP 2014164763 A JP2014164763 A JP 2014164763A
Authority
JP
Japan
Prior art keywords
hovering
touch
screen
providing
touch input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014032226A
Other languages
English (en)
Inventor
Jinyong Kim
鎭 龍 金
Ji Young Kang
志 營 姜
Daesung Kim
大 成 金
Boyoung Lee
寶 贏 李
Seungkyung Lim
承 卿 林
Jin Young Jeon
軫 泳 全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014164763A publication Critical patent/JP2014164763A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/13338Input devices, e.g. touch panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04164Connections between sensors and controllers, e.g. routing lines between electrodes and connection pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04801Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04809Textured surface identifying touch areas, e.g. overlay structure for a virtual keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Nonlinear Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】本発明はオブジェクトに対するタッチ入力手段(例、指やペン)のホバリングに応答して視覚的なフィードバックを提供する方法及びこれを具現する端末を提供するためのものである。
【解決手段】本発明によるフィードバック提供方法は、画面に設置されたタッチパネルを有する端末により遂行され、オブジェクトを前記画面に表示するステップと、前記オブジェクトに対するタッチ入力手段のホバリングを検出するステップと、前記ホバリングに応答して前記オブジェクトと前記タッチ入力手段との間の距離である深さ値に対応する視覚的なフィードバックを提供するステップと、を有する。
【選択図】図2

Description

本発明は、フィードバック提供方法及び端末に係り、より詳しくは、タッチパネルに対するユーザの入力に応答してフィードバックを提供する方法及びこれを具現する端末に関するものである。
現在、スマートフォン、タブレットPCのような端末はタッチパネルを備えることが趨勢である。端末はオブジェクトを画面に表示する。ユーザがこれらのうち、特定オブジェクトをタッチすれば、端末はタッチパネルからユーザのタッチを検出し、タッチに応答して該当機能を遂行することができる。例えば、ウェブページで特定テキストがタッチされれば、テキストにリンクされている他のウェブページを画面に表示できる。
ところで、従来ではタッチの前にオブジェクトに対する視覚的な効果を提供できなかった。したがって、オブジェクトがぎっしりと集まっている場合、ユーザは所望のオブジェクトを選択し難いことがある。即ち、ユーザの意図しないオブジェクトがタッチされて機能が実行される問題が発生しうる。また、ユーザはオブジェクトに機能が対応していることさえも知らないことがある。この場合、該当機能はユーザが認知するまで実行されないという問題が発生しうる。一方、オブジェクトの上には他のオブジェクトが表示できる。例えば、ウェブページの上に電子文書が表示できる。即ち、ウェブページの特定オブジェクトが電子文書により表示されないことがある。その場合、電子文書の表示が終了するまでは特定オブジェクトが実行できないという問題が発生しうる。
本発明は上記従来のフィードバック提供方法及び端末における問題点に鑑みてなされたものであって、本発明の目的は、オブジェクトに対するタッチ入力手段(例、指やペン)のホバリングに応答して視覚的なフィードバックを提供する方法及びこれを具現する端末を提供することにある。
上記目的を達成するためになされた本発明によるフィードバック提供方法は、画面に設置されたタッチパネルを有する端末により遂行され、オブジェクトを前記画面に表示するステップと、前記オブジェクトに対するタッチ入力手段のホバリングを検出するステップと、前記ホバリングに応答して前記オブジェクトと前記タッチ入力手段との間の距離である深さ値に対応する視覚的なフィードバックを提供するステップと、を有することを特徴とする。
また、上記目的を達成するためになされた本発明によるフィードバック提供方法は、画面に設置されたタッチパネルを有する端末により遂行され、オブジェクトを前記画面に表示するステップと、前記オブジェクトに対するタッチ入力手段のホバリングを検出するステップと、前記ホバリングに応答して前記オブジェクトに対応する機能と関連した視覚的なフィードバックを提供するステップと、を有することを特徴とする。
また、上記目的を達成するためになされた本発明によるフィードバック提供方法は、画面に設置されたタッチパネルを有する端末により遂行され、オブジェクトを前記画面に表示し、イメージを前記オブジェクトの上に表示するステップと、前記オブジェクトに対するタッチ入力手段のホバリングを検出するステップと、前記ホバリングに応答して前記オブジェクトを前記イメージの上に表示するステップと、前記オブジェクトが前記イメージの上に表示されている状態で、前記オブジェクトに対する前記タッチ入力手段のタッチジェスチャーを検出するステップと、前記タッチジェスチャーに応答して前記オブジェクトの機能を遂行するステップと、を有することを特徴とする。
上記目的を達成するためになされた本発明による端末は、オブジェクトを画面に表示する表示部と、前記表示部の画面に設置されるタッチパネルと、前記表示部及び前記タッチパネルを制御する制御部と、を有し、前記制御部は、前記タッチパネルから前記オブジェクトに対するタッチ入力手段のホバリングを検出し、前記ホバリングに応答して前記オブジェクトと前記タッチ入力手段との間の距離である深さ値に対応する視覚的なフィードバックを提供するよう前記表示部を制御することを特徴とする。
また、上記目的を達成するためになされた本発明による端末は、オブジェクトを画面に表示する表示部と、前記表示部の画面に設置されるタッチパネルと、前記表示部及び前記タッチパネルを制御する制御部と、を有し、前記制御部は、前記タッチパネルから前記オブジェクトに対するタッチ入力手段のホバリングを検出し、前記ホバリングに応答して前記オブジェクトに対応する機能と関連した視覚的なフィードバックを提供するよう前記表示部を制御することを特徴とする。
また、上記目的を達成するためになされた本発明による端末は、オブジェクトを画面に表示しイメージを前記オブジェクトの上に表示する表示部と、前記表示部の前記画面に設置されるタッチパネルと、前記表示部及び前記タッチパネルを制御する制御部と、を有し、前記制御部は、前記タッチパネルから前記オブジェクトに対するタッチ入力手段のホバリングを検出し、前記ホバリングに応答して前記オブジェクトを前記イメージの上に表示するよう制御することを特徴とする。
本発明に係るフィードバック提供方法及び端末によれば、オブジェクトに対するタッチ入力手段のホバリングに応答して視覚的なフィードバックを提供することができるという効果をもたらすものである。
本発明の一実施形態による携帯端末の構成を示すブロック図である。 深さ値による視覚的な効果提供方法を説明するためのフローチャートである。 深さ値による視覚的な効果提供方法を説明するための画面である。 深さ値による視覚的な効果提供方法を説明するための画面である。 深さ値による視覚的な効果提供方法を説明するための画面である。 深さ値による視覚的な効果提供方法を説明するための画面である。 深さ値による視覚的な効果提供方法を説明するための画面である。 インタラクティブオブジェクト(interactive object)に対する視覚的なヒント提供方法を説明するためのフローチャートである。 視覚的なヒント提供方法の一例を説明するための画面である。 視覚的なヒント提供方法の一例を説明するための画面である。 視覚的なヒント提供方法の一例を説明するための画面である。 視覚的なヒント提供方法の他の例を説明するための画面である。 視覚的なヒント提供方法の他の例を説明するための画面である。 視覚的なヒント提供方法の他の例を説明するための画面である。 視覚的なヒント提供方法の他の例を説明するための画面である。 視覚的なヒント提供方法の更に他の例を説明するための画面である。 視覚的なヒント提供方法の更に他の例を説明するための画面である。 視覚的なヒント提供方法の更に他の例を説明するための画面である。 視覚的なヒント提供方法の更に他の例を説明するための画面である。 隠されたインタラクティブオブジェクトと関連した視覚的な情報を提供する方法を説明するためのフローチャートである。 視覚的な情報提供方法の一例を説明するための画面である。 視覚的な情報提供方法の一例を説明するための画面である。 視覚的な情報提供方法の一例を説明するための画面である。
次に本発明に係るフィードバック提供方法及び端末を実施するための形態の具体例を図面を参照しながら詳細に説明する。
以下で使われる用語や単語は通常的または辞典的な意味に限定して解釈されてはならず、本発明の技術的思想に符合する意味と概念として解釈されなければならない。したがって、以下の説明と添付した図面は本発明の好ましい実施形態に過ぎないものであり、本発明の技術的思想を全て代弁するものではないので、本出願時点においてこれらを取り替えることができる多様な均等物と変形例がありうる。また、添付の図面で一部の構成要素は誇張、省略、または概略的に図示され、各構成要素のサイズは実際のサイズを全的に反映するものでない。したがって、本発明は添付した図面に描かれた相対的なサイズや間隔により制限されるものではない。また、本発明と関連した公知機能または構成に対する具体的な説明が本発明の要旨を曖昧にしうると判断される場合、その詳細な説明は省略する。
本発明による端末はタッチパネルを有する。また、本発明による端末は携帯可能な端末、車両などに設置される端末、または業務用または家庭用に使われるコンピュータでありうる。具体的に、本発明による端末は、スマートフォン、タブレットPC、ノートブックPC、ディジタルカメラ、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、メディアプレーヤー(Media Player)(例えば、MP3プレーヤー)、ナビゲーション端末、デスクトップPCなどである。また、本発明による端末は、表示部と、このような表示部に設置されたタッチパネルと、これらを制御する制御部を有する家電機器(例えば、冷蔵庫、TV、洗濯機など)であってもよい。
タッチ入力手段(例、ペン先、指先、静電式タッチペン、電磁気式タッチペンなど)が例えば、10cm以内に画面に接近すれば、端末はタッチ入力手段の接近(proximity)を検出することができる。例えば、両方の間の距離(例えば、深さ(depth))が5cm以内であれば、端末はタッチ入力手段の動きとその方向を検出することができる。例えば、両方の間の距離が3cm以内であれば、端末はタッチ入力手段の位置を検出することができる。このように、タッチ入力手段がその位置を端末が検出することができる水準まで接近することをホバリング(hovering)と称する。ここで、3cmは1つの例示的な値であり、この数値によりホバリングを検出したか否かが定義されるものではない。例えば、端末の性能によってその値が左右される。
本発明による端末は、ホバリングに応答して視覚的なフィードバックを提供することができる。視覚的なフィードバックだけでなく、聴覚的なフィードバック(例、音声)及び触覚的なフィードバック(例、端末の振動)も端末により提供できる。視覚的なフィードバックは、視覚的な情報、視覚的なコンテンツ、視覚的な効果、視覚的なヒントなどと称することもある。聴覚的なフィードバックは、聴覚的な情報、聴覚的なコンテンツ、聴覚的な効果、聴覚的なヒントなどと称することもある。触覚的なフィードバックは、触覚的な情報、触覚的なコンテンツ、触覚的な効果、ハプティック(haptics)などと称することもある。
図1は、本発明の一実施形態による携帯端末の構成を示すブロック図である。
図1を参照すると、本発明の一実施形態による携帯端末100は、表示部110、キー入力部120、格納部130、無線通信部140、オーディオ処理部150、スピーカーSPK、マイクMIC、制御部160、及びペン170を含む。
表示部110は、制御部160の制御下でデータを画面に表示する。即ち、制御部160がデータを処理(例えば、デコーディング(decoding))してバッファに格納すると、表示部110はバッファに格納されたデータをアナログ信号に変換して画面に表示する。表示部110に電源が供給されると、表示部110は固定画像を画面に表示する。固定画像が表示されている状態で固定解除情報が検出されると、制御部160は固定を解除する。表示部110は、制御部160の制御下で固定画像の代わりに、例えばインジケータを画面の上端に表示し、その下にホームイメージを表示する。インジケータは携帯端末100の使用状態をユーザに案内するためのイメージであって、例えば、3G接続状態、バッテリー残量、現在時間、Wi−Fi接続状態などを含むことができる。
ユーザがインジケータをタッチし、その状態で下にドラッグするようにすると、制御部160はこれに応答してインジケータの領域を拡張することができる。拡張された領域では追加情報、例えば、受信メッセージ、天気、株式情報、温度などが表示できる。ホームイメージは、背景(background)イメージ(例えば、ユーザにより設定された写真)とこの上に表示される多数のアイコンを含む。ここで、アイコンは各々アプリケーションまたはコンテンツ(例、写真ファイル、ビデオファイル、録音ファイル、文書、メッセージなど)を示す。アイコンのうちの1つ、例えばアプリケーションアイコンがユーザにより選択されると、制御部160は該当アプリケーションを実行する。表示部110は、制御部160からアプリケーションの実行イメージを受信し、アナログ信号に変換して出力する。
表示部110は、制御部160の制御下でイメージを多層(multi−layer)構造で画面に表示することができる。例えば、表示部110はインジケータとホームイメージの上に写真を表示する。
表示部110は、例えば液晶表示装置(Liquid Crystal Display:LCD)、AMOLED(Active Matrix Organic Light Emitted Diode)、フレキシブルディスプレイ(Flexible display)、または透明ディスプレイからなる。
タッチパネル111は、表示部110の画面に設置される。具体的に、タッチパネル111は表示部110の画面に位置するアドオンタイプ(add−on type)や表示部110の内に挿入されるオンセルタイプ(on−cell type)、またはインセルタイプ(in−cell type)で具現される。
タッチパネル111は、画面に対するユーザのジェスチャーに応答してイベントを発生し、イベントをAD(Analog to Digital)変換して制御部160に伝達する。ここで、イベントは、接近イベント、ホバリングイベント、またはタッチイベントでありうる。
タッチ入力手段が画面に接近すると、タッチパネル111はこれに応答して接近イベントを発生する。接近イベントは、タッチ入力手段の動きとその方向を表す情報を含むことができる。
タッチ入力手段が画面にホバリングすると、タッチパネル111はこれに応答してホバリングイベントを発生する。ホバリングイベントは、1つ以上のホバリング座標(x、y)を含む。例えば、タッチパネル111のタッチIC(Integrated Circuit)はホバリングを検出し、ホバリングに応答して画面でホバリング領域を決定し、ホバリング領域に含まれた座標(x、y)を制御部160に伝達する。ここで、ホバリング座標はピクセル単位でありうる。例えば、画面の解像度が640(横ピクセルの個数)×480(縦ピクセルの個数)である場合、x座標は0〜640であり、y座標は0〜480である。制御部160は、タッチパネル111からホバリング座標が受信されると、タッチ入力手段がタッチパネル111にホバリングされたと判断し、タッチパネル111からホバリング座標が受信されないと、タッチ入力手段のホバリングが解除されたと判断する。また、ホバリングイベントは深さ値を算出するための感知情報を含む。例えば、ホバリング座標は(x、y、z)でありうる。即ち、z値が深さ値を意味する。
タッチ入力手段が画面にタッチすると、タッチパネル110はこれに応答してタッチイベントを発生する。ここで、タッチイベントは1つ以上のタッチ座標(x、y)を含む。例えば、タッチパネル111のタッチICはユーザのタッチを検出し、タッチに応答してタッチ領域を決定し、タッチ領域に含まれたタッチ座標(x、y)を制御部160に伝達する。ここで、タッチ座標はピクセル単位でありうる。
制御部160は、タッチパネル111からタッチ座標を受信した場合、タッチ入力手段がタッチパネル111にタッチされたと判断し、タッチパネル111からタッチ座標を受信しない場合、タッチ入力手段のタッチが解除されたと判断する。また、制御部160はタッチ座標が変化し、その変化量が予め設定された移動しきい値を超過した場合、制御部160はタッチ入力手段の動きが発生したと判断する。
制御部160は、タッチ入力手段の移動に応答してタッチ入力手段の位置変化量(dx、dy)及びタッチ入力手段の移動速度などを算出する。制御部160は、タッチ座標、タッチ入力手段のタッチ解除か否か、タッチ入力手段の移動の有無、タッチ入力手段の位置変化量、及びタッチ入力手段の移動速度などに基づいて画面に対するユーザのジェスチャーをタッチ、マルチタッチ、タップ(Tap)、ダブルタップ(Double Tap)、ロングタップ(Long tap)、タップアンドタッチ(Tap & touch)、ドラッグ(Drag)、フリック(Flick)、プレス(Press)、ピンチイン(pinch in)、及びピンチアウト(pinch out)などのうちからいずれか1つに決定する。
タッチパネル111は、手ジェスチャーを感知する手タッチパネルとペンジェスチャーを感知するペンタッチパネルを含んで構成された複合タッチパネルでありうる。ここで、手タッチパネルは静電容量方式(capacitive type)で具現される。勿論、手タッチパネルは、抵抗膜方式(resistive type)、赤外線方式、または超音波方式で具現することもできる。また、手タッチパネルは手ジェスチャーのみによりイベントを発生するものではなく、他の物体(例、静電容量変化を加えることができる伝導性材質の物体)によってもイベントを生成することができる。ペンタッチパネルは、電子誘導方式(electromagnetic induction type)により構成できる。これによって、ペンタッチパネルは磁場を形成することができるよう特殊製作されたタッチ用ペンによりイベントを生成する。ペンタッチパネルは、キーイベントを発生することができる。例えば、ペンに設置されたキーが押されると、ペンのコイルで発生する磁場が変化する。ペンタッチパネルは磁場の変化に応答してキーイベントを発生し、これを制御部160に伝達する。
キー入力部120は、少なくとも1つのタッチキーを含むことができる。タッチキーは、ユーザのタッチを感知するために静電容量方式や抵抗膜方式などで具現される。タッチキーは、ユーザのタッチに応答してイベントを発生し、これを制御部160に伝達する。また、タッチキーは画面に隣接するよう(例えば、画面の下端)設置できる。また、キー入力部120はタッチ方式の他の異なる方式のキーも含むことができる。例えば、ドーム(dome)キー方式のホームキー(home key)が含まれる。ユーザがホームキーを押せば、ホームキーが変形されて印刷回路基板に接触し、これによって、印刷回路基板でキーイベントが発生して制御部160に伝達される。
格納部(secondary memory unit)130は、ディスク、RAM、ROMまたはフラッシュメモリなどである。格納部130は、制御部160の制御下で、携帯端末100で生成されるか、または無線通信部140を通じて外部装置(例、サーバ、デスクトップPC、タブレットPCなど)から受信したデータを格納する。また、格納部130は複写及び貼り付け(copy & paste)などのためにユーザがメッセージ、写真、ウェブページ、文書などで複写したデータを臨時格納する。また、格納部130は携帯端末100の運営のための多様な設定値(例、画面明るさ、タッチ発生時の振動の有無、画面の自動回転の有無など)を格納する。
格納部130は、ブーティングプログラム、少なくとも1つ以上のオペレーティングシステム及びアプリケーションを格納する。オペレーティングシステムはハードウェアとアプリケーションとの間、そして、アプリケーションの間のインターフェースの役割をし、CPU、GPU、メインメモリ、及び格納部130などのコンピュータ資源を管理する。アプリケーションは、埋め込みアプリケーション(embedded application)とサードパーティアプリケーション(3rd party application)とに分類される。例えば、埋め込みアプリケーションはウェブブラウザ(Web browser)、eメールプログラム、インスタントメッセンジャー(instant messenger)などである。
無線通信部140は制御部160の制御下で、ネットワークを介して外部装置と音声通話、画像通話、またはデータ通信を遂行する。無線通信部140は、送信される信号の周波数を高周波変換及び増幅する無線周波数送信部と、受信される信号の周波数を低雑音増幅及び低周波変換する無線周波数受信部とを含む。また、無線通信部130は移動通信モジュール(例えば、第3世代(3−Generation)移動通信モジュール、第3.5世代(3.5−Generation)移動通信モジュール、または第4世代(4−Generation)移動通信モジュールなど)、ディジタル放送モジュール(例えば、DMB:Digital Multimedia Broadcastingモジュール)及び近距離通信モジュール(例、ワイファイ(Wi−Fi)モジュール、ブルートゥース(bluetooth(登録商標))モジュール、NFC(Near Field Communication)モジュール)を含む。
オーディオ処理部150は、スピーカーSPK及びマイクMICと結合して音声認識、音声録音、ディジタルレコーディング、及び通話のためのオーディオ信号(例、音声データ)の入力及び出力を遂行する。オーディオ処理部150は、制御部160からオーディオ信号を受信し、受信したオーディオ信号をアナログにD/A変換して増幅した後、スピーカーSPKで出力することができる。スピーカーSPKは、オーディオ処理部150から受信したオーディオ信号を音波(sound wave)に変換して出力する。一方、携帯端末100は多数のスピーカーを備えることができる。例えば、第1スピーカーは通話用途であり、レシーバーともいう。即ち、第1スピーカーはユーザが携帯端末100を耳に当てて通話する時に使われるものである。第2スピーカーは通話だけでなく音楽、ビデオなどのようなデータの再生用途であり、別名、ラウドスピーカ(loud speaker)という。マイクMICは、人やその他の音源(sound source)から伝達された音波をオーディオ信号に変換する。オーディオ処理部150は、マイクMICから受信したオーディオ信号をディジタルにA/D変換した後、制御部160に伝達する。
制御部160は、携帯端末100の全般的な動作及び携帯端末100の内部構成の間の信号流れを制御し、データを処理する機能を遂行し、バッテリーから上記構成への電源供給を制御する。
制御部160は、1つ以上の中央処理ユニット(Central Processing Unit:CPU)を含む。周知のように、CPUはデータの演算及び比較と、命令語の解釈及び実行などを遂行するコンピュータシステムの核心的な制御ユニットである。CPUは、データや命令を一時格納する各種レジスタを含む。制御部160は、1つ以上のグラフィック処理ユニット(Graphic Processing Unit:GPU)を含むことができる。GPUはCPUの代わりをして、グラフィックと関連したデータの演算及び比較と、命令語の解釈及び実行などを遂行するグラフィック制御ユニットである。CPUとGPUは、各々2つ以上の独立コア(例、クアッドコア(quad−core))が単一集積回路として機能する1つのパッケージに集積することできる。即ち、CPUは1つのマルチコアプロセッサに集積されたものである。また、多数のGPUも1つのマルチコアプロセッサに集積されたものである。また、CPUとGPUは1つのチップに集積(SoC:System on Chip)されたものでもよい。また、CPUとGPUはマルチレイヤ(multi layer)にパッケージングされたものでもよい。一方、アプリケーションプロセッサ(Application Processor:AP)はCPU及びGPUを含むことができる。延いては、APはISP(Image Signal Processor)をさらに含むこともできる。
制御部160はメインメモリ(main memory unit)、例えばRAMを含む。メインメモリは、格納部130からローディングされた各種プログラム、例えばブーティングプログラム、オペレーティングシステム、及びアプリケーションを格納する。制御部160にバッテリーの電源が供給されると、先にブーティングプログラムが制御部160のメインメモリにローディング(loading)される。このようなブーティングプログラムはオペレーティングシステムをメインメモリにローディングする。オペレーティングシステムは、アプリケーションをメインメモリにローディングする。制御部160(例えば、AP)は、このようなプログラムにアクセスしてプログラムの命令語を解読し、解読結果に従う機能(例、ホバリングに応答してフィードバックを提供する)を実行する。また、制御部160は格納部130に記録(write)するデータを臨時格納し、格納部130から読み出した(read)データを臨時格納するキャッシュメモリを含む。
ペン170は携帯端末100から分離可能な携帯端末100の付属品であって、ペン軸と、ペン軸の先に配置されたペン先と、ペン先に隣接するようにペン軸の内部に配置されて磁場を発生するコイルと、磁場を変化させるためのボタンとを含む。ペン170のコイルはペン先の付近に磁場を形成する。タッチパネル111は磁場を感知し、磁場に対応するイベントを発生する。
一方、携帯端末100はイヤジャック、振動モータ、カメラ、加速度センサ、近接センサ、照度センサ、GPS受信部、アクセサリーなどのように上記に言及のない構成をさらに含むことができる。ここで、アクセサリーは携帯端末100から分離可能な携帯端末100の付属品であって、例えばペン170でもよい。
図2は、深さ値による視覚的な効果提供方法を説明するためのフローチャートである。図3から図7は、深さ値による視覚的な効果提供方法を説明するための画面である。
図2を参照すると、ステップS210で、制御部160はホバリングが検出されるか否かを判断する。ホバリングが検出されると、ステップS220で制御部160はホバリングの深さ値を算出する。
ステップS230で、制御部160はホバリングを検出されたオブジェクトに対して深さ値に対応する視覚的な効果を提供する。
ステップS240で、制御部160はホバリングを解除するか否かを決定する。制御部160は、ホバリングが解除された場合、視覚的な効果の提供を終了し、そうでない場合、ステップS220に戻る。深さ値に対応する視覚的な効果提供方法の具体的な例示は、次の通りである。
図3を参照すると、表示部110は制御部160の制御下で、メッセージリスト310を画面に表示する。
ユーザは、自身の手を画面に接近させる。これに応答して、タッチパネル111は接近イベントを発生して制御部160に伝達する。これによって、制御部160は何かが画面に接近したことを認知する。
図4を参照すると、ユーザは自身の手を画面にさらに接近させる。例えば、ユーザは第1アイテム311に人差し指320を近接させる。これに応答して、タッチパネル111はホバリングイベントを発生する。タッチパネル111は、ホバリングイベントを制御部160に伝達し、制御部160はホバリングを検出されたオブジェクトが第1アイテム311であることを認識する。このようにホバリングを検出されたオブジェクトが認識されると、制御部160は第1深さ値を算出する。制御部160は、ルックアップテーブルで第1深さ値に対応する第1明度値を確認する。ここで、ルックアップテーブルは格納部130に格納されうる。制御部160は、第1明度値を有する第1アイテム311の地色を表示するよう表示部110を制御する。
図3及び図4を参照すると、人差し指320が第1アイテム311に接近しない場合、第1アイテム311の地色は他のアイテムのものと同一である。
ところで、人差し指320が第1アイテム311に接近した場合、第1アイテム311の地色は他のアイテムのものより濃くなる。
図5を参照すると、第1アイテム311の地色が濃くなった後、ユーザは人差し指320を第1アイテム311にさらに接近させる。すると、第1深さ値より小さな第2深さ値が算出される。このように、深さ値が変更されると、制御部160はルックアップテーブルで第2深さ値に対応する第2明度値を確認する。その後、制御部160は第2明度値を有する第1アイテム311の地色を表示するよう表示部110を制御する。これによって、第1アイテム311の地色はさらに濃くなる。
図3から図7を参照すると、ユーザが人差し指320を第1アイテム311に接近させるほど第1アイテム311の地色は徐々に濃くなる。ユーザが第1アイテム311をタッチすると、第1アイテム311の地色は最も濃くなる。
ユーザが第1アイテム311からタッチを解除すると、これに応答して制御部160は第1アイテム311の詳細内容を表示するよう表示部110を制御する。人差し指320が第1アイテム311から遠ざかるほど第1アイテム311の地色は徐々に薄くなる。ホバリングが第1アイテム311から解除されると、第1メッセージ311の地色は他のアイテムのものと同一になる。
一方、上記の例示において、‘明度’は該当オブジェクトの1つの属性であり、本発明の技術的思想を限定するものではない。即ち、明度の以外に、色相、明るさ、サイズ(例えば、オブジェクトに含まれた字のサイズ)、形態(例えば、オブジェクトに含まれた字の形態)などが変化してもよい。
また、上記の例示において、‘アイテム’はオブジェクトの一例であり、本発明の技術的思想を限定するものではない。即ち、オブジェクトは画面に表示されてユーザに情報を提供するものであって、アイテムの他にも、メッセージ、テキスト、イメージ、アイコン、サムネイル、写真、ツールバー、チェックボックス、ウィジェット、ウェブページ、電子ブックのページ、キー、またはメニューなどになることができる。
また、上記の例示における効果は視覚的な効果以外に、聴覚的な効果や触覚的な効果を含むことができる。例えば、制御部160はホバリングが検出されると、第1効果音が出力されるようオーディオ処理部150を制御することができる。また、制御部160はタッチが検出されると、第2効果音が出力されるようオーディオ処理部150を制御することができる。また、制御部160はタッチが検出されると、振動モータを振動させることができる。
また、上記の例示において、タッチ入力手段はユーザの指として例示したが、他の物体、例えばペン(例、静電式タッチペン、電磁気式タッチペンなど)でもよい。
また、上記の例示で検出されたホバリングがシングルホバリングの場合(例えば、一本の指でオブジェクトをホバリングする場合)と、マルチホバリングの場合(例えば、2本の指で1つのオブジェクトをホバリングする場合、または2本の指で各々異なるオブジェクトをホバリングする場合)で、視覚的な効果を相違させることができる。例えば、同一なオブジェクトがホバリングされる時、シングルの場合よりマルチの時にさらに濃く表示できる。また、現在のホバリング技術は指の形態が検出可能である。したがって、親指がホバリングしたオブジェクトと人差し指がホバリングしたオブジェクトが相違するよう表示できる。
図8は、インタラクティブオブジェクト(interactive object)に対する視覚的なヒント提供方法を説明するためのフローチャートである。ここで、インタラクティブオブジェクトはユーザと相互作用が可能なオブジェクトを意味する。例えば、アプリケーションアイコンが選択されると、これに応答して制御部160は該当アプリケーションを実行する。したがって、アプリケーションアイコンはインタラクティブオブジェクトに該当する。また、写真が選択されると、これに応答して制御部160は写真にタギング(tagging)されたタグ情報、例えば、撮影日付、撮影場所、他の写真情報、連絡先、人物の名前などを表示するよう表示部110を制御する。したがって、タグ情報がタギングされている写真はインタラクティブオブジェクトに該当する。その他にも、インタラクティブオブジェクトは、キーパッド、インジケータ、ウェブページなど、多様である。
図9から図11は、視覚的なヒント提供方法の一例を説明するための画面である。図12から図15は、視覚的なヒント提供方法の他の例を説明するための画面である。図16から図18は、視覚的なヒント提供方法の更に他の例を説明するための画面である。図19は、視覚的なヒント提供方法の更に他の例を説明するための画面である。
図8を参照すると、ステップS410で、制御部160はホバリングが検出されたか否かを判断する。ホバリングが検出された場合、ステップS420で制御部160はホバリングが検出されたオブジェクトに対応する機能があるか否かを判断する。即ち、制御部160はホバリングが検出されたオブジェクトがインタラクティブオブジェクトであるか否かを判断する。ホバリングが検出されたオブジェクトに対応する機能がある場合、ステップS430で制御部160は機能に対応する視覚的なヒントを提供する。視覚的なヒントの提供後、ステップS440で制御部160はホバリングが検出されたオブジェクトに対してタッチジェスチャーを検出する。ステップS450で、制御部160はタッチジェスチャーに応答して上記機能を実行する。インタラクティブオブジェクトに対する視覚的なヒント提供方法の具体的な例示は、次の通りである。
図9を参照すると、表示部110は制御部160の制御下で、画面左側領域にメッセージリスト510を表示し、画面右側領域に1つの詳細内容520を表示する。
図10を参照すると、ユーザは2表示領域を区分する境界線530に人差し指540を接近させる。これに応答して、タッチパネル111はホバリングイベントを発生する。タッチパネル111は、ホバリングイベントを制御部160に伝達し、制御部160はホバリングが検出されたオブジェクトが境界線530であることを認識する。そして、制御部160は境界線530に対応する機能があるか否かを決定する。境界線530に対応する機能がある場合、制御部160はその機能と関連した視覚的なヒントを提供する。例えば、表示部110は制御部160の制御下で、左右矢印550を境界線530の上に表示することができる。また、表示部110は制御部160の制御下で、左右矢印550が左右に揺れるアニメーションを表示することができる。また、表示部110は制御部160の制御下で、境界線530を他のオブジェクト(即ち、メッセージリスト510及び詳細内容520)と区別するよう表示することができる。また、表示部110は制御部160の制御下で、境界線530が左右に揺れるアニメーションを表示することができる。ユーザはこのような視覚的なヒントを通じて境界線530がインタラクティブオブジェクトであることを認知することができる。また、ユーザはこのような視覚的なヒントを通じて境界線530の機能が何かを認知することができる。一方、視覚的なヒントは該当機能が何かを説明している情報、オブジェクトにタギングされたタグ情報を含むことができる。
図11を参照すると、ユーザは境界線530をタッチする。これに応答して制御部160は視覚的な効果を提供することができる。例えば、表示部110は左右矢印550をタッチ前より一層濃く表示することができる。
ユーザが境界線530に人差し指540をタッチし、左または右に移動させれば、これに応答して制御部160は2領域の幅を調節する。
図12を参照すると、表示部110は制御部160の制御下で、通話のためのキーパッド610を画面に表示する。
図13を参照すると、ユーザは“3DEF”が表示されたキー611に人差し指620を接近させる。これに応答して、タッチパネル111はホバリングイベントを発生する。タッチパネル111は、ホバリングイベントを制御部160に伝達し、制御部160はホバリングが検出されたオブジェクトがキー611であることを認識する。そして、制御部160はホバリングが認識された時点からカウントを始める。キー611でホバリングが解除されていない場合(即ち、キー611に対するホバリングが維持されている場合)、制御部160はカウント時間が予め設定された時間値(例、200ms)を超過したか否かを判断する。カウント時間が予め設定された時間値を超過した場合、制御部160はキー611と関連した視覚的なヒントを提供する。例えば、表示部110はキー611にマッピングされている連絡先の名前、「ジェームズ」をキー611の上に表示する。ユーザはこのような視覚的なヒント、「ジェームズ」を通じて「ジェームズ」のスピードダイヤル(speed dial)が番号‘3’に設定されていることを認知することができる。また、ユーザはスピードダイヤルとこれにマッピングされた連絡先が何かを暗記していなくても、このような視覚的なヒントを通じてスピードダイヤルを用いることができる。
図14及び図15を参照すると、ユーザはキー611を人差し指620でタッチする。タッチが一定時間(例えば、1s)維持されれば、制御部160は「ジェームズ」の電話番号に通話を試みるよう無線通信部140を制御する。そして、制御部160は通話実行イメージ630を表示するよう表示部110を制御する。
図16を参照すると、表示部110は制御部160の制御下で、通話のためのキーパッド710を画面に表示する。
図17を参照すると、ユーザはスピードダイヤルが30番帯の連絡先を確認するために、“3DEF”が表示された第1キー711を人差し指720でタップする。これに応答して制御部160は番号‘3’を表示するよう表示部110を制御する。
図18を参照すると、ユーザは“5JKL”が表示された第2キー712に人差し指720を接近させる。これに応答して、タッチパネル111はホバリングイベントを発生する。タッチパネル111はホバリングイベントを制御部160に伝達し、制御部160はホバリングが検出されたオブジェクトが第2キー712であることを認識する。そして、制御部160はホバリングが認識された時点からカウントを始める。キー611でホバリングが解除されていない場合、制御部160はカウント時間が予め設定された時間値(例、200ms)を超過したか否かを判断する。カウント時間が予め設定された時間値を超過した場合、制御部160は第1キー711及び第2キー712、即ちスピードダイヤル、35と関連した視覚的なヒントを提供する。例えば、表示部110はスピードダイヤル、35にマッピングされている連絡先の名前、「サミー」を第1キー712の上に表示する。
ユーザは第2キー712を人差し指720でタッチする。タッチが一定時間(例えば、1s)維持されれば、制御部160は「サミー」の電話番号に通話を試みるよう無線通信部140を制御する。
図19を参照すると、表示部110は制御部160の制御下で、第1ペン字(タッチ入力手段により入力された文字)810と第2ペン字820を画面に表示する。この際、第1ペン字810が第2ペン字820より先に作成されたことと仮定する。ユーザは戻しボタン830にペン840を接近させる。これに応答して、タッチパネル111はホバリングイベントを発生する。タッチパネル111はホバリングイベントを制御部160に伝達し、制御部160はホバリングが検出されたオブジェクトが戻しボタン830であることを認識する。そして、制御部160は戻しボタン830と関連した視覚的なヒントを提供する。例えば、表示部110は制御部160の制御下で、第2ペン字820を第1ペン字より薄く(または、太く)表示する。また、表示部110は制御部160の制御下で、2つのペン字810、820の属性(例、色相、明度、明るさ、または形態など)が相違するよう表示させることができる。これによって、ユーザは戻しのターゲットが第2ペン字820であることを認知することができる。ユーザが戻しボタン830をペン840でタップすると、これに応答して制御部160は第2ペン字820を画面から削除する。
第2ペン字820の削除後、ユーザは再実行ボタンにペンを接近させる。すると、制御部160は再実行ボタンと関連した視覚的なヒントを提供する。例えば、表示部110は制御部160の制御下で、第2ペン字820を第1ペン字より薄くまた表示することができる。ユーザが再実行ボタンをペンでタップすると、これに応答して制御部160は第2ペン字820を第1ペン字810と同一な明度で画面にまた表示する。
一方、上記の例示において、ヒントは視覚的なヒント以外に、聴覚的なヒントや触覚的なヒントを含むことができる。
図20は隠されたインタラクティブオブジェクトと関連した視覚的な情報を提供する方法を説明するためのフローチャートである。図21から図23は、視覚的な情報提供方法の一例を説明するための画面である。
‘隠されたインタラクティブオブジェクト’はその上に積層したイメージにより遮られてユーザが見ることができないオブジェクトを意味する。その上に積層したイメージの表示が終了すれば、‘隠されたインタラクティブオブジェクト’は表示できる。ここで、上に積層したイメージは、ウェブページ、写真、メッセージ、メニュー、テキストなど、多様である。
図20を参照すると、ステップS910で制御部160はイメージをインタラクティブオブジェクトの上に表示するよう表示部110を制御する。図21を参照すると、例えば、イメージは写真と黒い地色の背景を含むイメージ1010でありうる。
ステップS920で、制御部160は隠されたインタラクティブオブジェクトに対する人差し指1030のホバリングが検出されたか否かを判断する。
隠されたインタラクティブオブジェクトに対する人差し指1030のホバリングが検出された場合、ステップS930で制御部160は隠されたインタラクティブオブジェクトをイメージの上に表示するよう表示部110を制御する。図22を参照すると、例えば、隠されたインタラクティブオブジェクトはインジケータ1020でありうる。
隠されたインタラクティブオブジェクトが呼び出(即ち、表示)された後、ステップS940で制御部160は呼び出されたオブジェクトに対するタッチジェスチャーが検出されたか否かを判断する。
呼出されたオブジェクトに対してタッチジェスチャーが検出されない場合、ステップS950で制御部160は呼び出されたオブジェクトに対するホバリングが解除されたか否かを判断する。
呼び出されたオブジェクトに対するホバリングが解除された場合、プロセスはステップS910に戻される。即ち、制御部160は呼び出されたオブジェクトの表示を終了する。
呼び出されたオブジェクトに対してタッチジェスチャーが検出された場合、ステップS960で制御部160はタッチジェスチャーに応答して、呼び出されたオブジェクトに対応する機能を遂行する。
図23を参照すると、ユーザがインジケータ1020を人差し指1030でタッチし、その状態で下にドラッグすると、制御部160はこれに応答してインジケータの領域を拡張する。
前述したような本発明によるフィードバック提供方法は、多様なコンピュータを通じて遂行できるプログラム命令で具現されてコンピュータにより読み出し可能な記録媒体に記録できる。記録媒体は、プログラム命令、データファイル、データ構造などを含むことができる。また、プログラム命令は本発明のために特別に設計され構成されたもの、またはコンピュータソフトウェア当業者に公知されて使用可能なものでありうる。また、記録媒体には、ハードディスク、フロッピー(登録商標)ディスク、及び磁気テープのような磁気媒体(Magnetic Media)、CD−ROM、DVDのような光記録媒体(Optical Media)と、フロプティカルディスク(Floptical Disk)のような磁気−光媒体(Magneto−Optical Media)と、ROMと、RAMと、フラッシュメモリなどのハードウェア装置とが含まれうる。また、プログラム命令にはコンパイラーにより作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータにより実行できる高級言語コードが含まれることができる。 ハードウェア装置は、本発明を遂行するために1つ以上のソフトウェアモジュールとして作動するよう構成できる。
以上、本発明の実施形態について詳細に説明したが、本発明は上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。
100 携帯端末
110 表示部
111 タッチパネル
120 キー入力部
130 格納部
140 無線通信部
150 オーディオ処理部
160 制御部
170 ペン

Claims (22)

  1. 画面に設置されたタッチパネルを有する端末におけるフィードバック提供方法であって、
    オブジェクトを前記画面に表示するステップと、
    前記オブジェクトに対するタッチ入力手段のホバリングを検出するステップと、
    前記ホバリングに応答して前記オブジェクトと前記タッチ入力手段との間の距離である深さ値に対応する視覚的なフィードバックを提供するステップと、
    を有することを特徴とする、フィードバック提供方法。
  2. 前記視覚的なフィードバックを提供するステップは、
    前記タッチ入力手段のホバリングが検出されたオブジェクトを他のオブジェクトと区別して表示するステップを含むことを特徴とする、請求項1に記載のフィードバック提供方法。
  3. 前記視覚的なフィードバックを提供するステップは、
    前記タッチ入力手段のホバリングが検出されたオブジェクトの属性を前記深さ値によって異なるよう表示するステップを含むことを特徴とする、請求項1に記載のフィードバック提供方法。
  4. 前記オブジェクトの属性は、
    明度、色相、明るさ、サイズ、及び形態のうち、少なくとも1つを含むことを特徴とする、請求項3に記載のフィードバック提供方法。
  5. 前記視覚的なフィードバックを提供するステップは、
    前記オブジェクトと前記タッチ入力手段との間の距離が近いほど前記タッチ入力手段のホバリングが検出されたオブジェクトを濃く表示するステップを含むことを特徴とする、請求項1に記載のフィードバック提供方法。
  6. 前記ホバリングに応答して聴覚的なフィードバック及び触覚的なフィードバックのうち、1つ以上を提供するステップをさらに含むことを特徴とする、請求項1に記載のフィードバック提供方法。
  7. 前記タッチ入力手段は
    少なくとも指、静電式タッチペン、及び電磁気式タッチペンのいずれか1つを含むことを特徴とする、請求項1に記載のフィードバック提供方法。
  8. 画面に設置されたタッチパネルを有する端末におけるフィードバック提供方法であって、
    オブジェクトを前記画面に表示するステップと、
    前記オブジェクトに対するタッチ入力手段のホバリングを検出するステップと、
    前記ホバリングに応答して前記オブジェクトに対応する機能と関連した視覚的なフィードバックを提供するステップと、
    を有することを特徴とする、フィードバック提供方法。
  9. 前記視覚的なフィードバックを提供するステップは、
    前記オブジェクトに対応する機能と関連したアニメーションを表示するステップを含むことを特徴とする、請求項8に記載のフィードバック提供方法。
  10. 前記オブジェクトに対応する機能と関連したアニメーションを表示するステップは、
    前記オブジェクトが2表示領域を区分する境界線の場合、前記境界線が揺れるアニメーションを表示するステップを含むことを特徴とする、請求項9に記載のフィードバック提供方法。
  11. 前記視覚的なフィードバックを提供するステップは、
    前記オブジェクトが番号キーの場合、前記番号キーにマッピングされている連絡先を表示するステップを含むことを特徴とする、請求項8に記載のフィードバック提供方法。
  12. 前記視覚的なフィードバックを提供するステップは、
    前記オブジェクトが戻しボタンまたは再実行ボタンの場合、前記タッチ入力手段により前後して入力された文字を区別して表示するステップを含むことを特徴とする、請求項8に記載のフィードバック提供方法。
  13. 画面に設置されたタッチパネルを有する端末におけるフィードバック提供方法であって、
    オブジェクトを前記画面に表示し、イメージを前記オブジェクトの上に表示するステップと、
    前記オブジェクトに対するタッチ入力手段のホバリングを検出するステップと、
    前記ホバリングに応答して前記オブジェクトを前記イメージの上に表示するステップと、
    前記オブジェクトが前記イメージの上に表示されている状態で、前記オブジェクトに対する前記タッチ入力手段のタッチジェスチャーを検出するステップと、
    前記タッチジェスチャーに応答して前記オブジェクトの機能を遂行するステップと、
    を有することを特徴とする、フィードバック提供方法。
  14. 前記オブジェクトの機能を遂行するステップは、
    前記オブジェクトがインジケータの場合、前記インジケータの領域を拡張して表示するステップを含むことを特徴とする、請求項13に記載のフィードバック提供方法。
  15. オブジェクトを画面に表示する表示部と、
    前記表示部の画面に設置されるタッチパネルと、
    前記表示部及び前記タッチパネルを制御する制御部と、を有し、
    前記制御部は、
    前記タッチパネルから前記オブジェクトに対するタッチ入力手段のホバリングを検出し、前記ホバリングに応答して前記オブジェクトと前記タッチ入力手段との間の距離である深さ値に対応する視覚的なフィードバックを提供するよう前記表示部を制御することを特徴とする、端末。
  16. 前記制御部は、
    前記タッチ入力手段のホバリングが検出されたオブジェクトを他のオブジェクトと区別して表示するよう制御することを特徴とする、請求項15に記載の端末。
  17. 前記制御部は、
    前記タッチ入力手段のホバリングが検出されたオブジェクトの属性を前記深さ値によって相違するよう表示するよう制御することを特徴とする、請求項15に記載の端末。
  18. 前記制御部は、
    前記オブジェクトと前記タッチ入力手段との間の距離が近いほど前記タッチ入力手段のホバリングが検出されたオブジェクトを濃く表示するよう制御することを特徴とする、請求項15に記載の端末。
  19. オブジェクトを画面に表示する表示部と、
    前記表示部の画面に設置されるタッチパネルと、
    前記表示部及び前記タッチパネルを制御する制御部と、を有し、
    前記制御部は、
    前記タッチパネルから前記オブジェクトに対するタッチ入力手段のホバリングを検出し、前記ホバリングに応答して前記オブジェクトに対応する機能と関連した視覚的なフィードバックを提供するよう前記表示部を制御することを特徴とする、端末。
  20. オブジェクトを画面に表示しイメージを前記オブジェクトの上に表示する表示部と、
    前記表示部の前記画面に設置されるタッチパネルと、
    前記表示部及び前記タッチパネルを制御する制御部と、を有し、
    前記制御部は、
    前記タッチパネルから前記オブジェクトに対するタッチ入力手段のホバリングを検出し、前記ホバリングに応答して前記オブジェクトを前記イメージの上に表示するよう制御することを特徴とする、端末。
  21. 前記制御部は、
    前記オブジェクトが前記イメージの上に表示されている状態で、前記オブジェクトに対する前記タッチ入力手段のタッチジェスチャーを検出し、前記タッチジェスチャーに応答して前記オブジェクトの機能遂行を制御することを特徴とする、請求項20に記載の端末。
  22. 前記制御部は、
    前記オブジェクトがインジケータの場合、前記インジケータの領域を拡張して表示するよう制御することを特徴とする、請求項21に記載の端末。
JP2014032226A 2013-02-23 2014-02-21 フィードバック提供方法及び端末 Pending JP2014164763A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0019527 2013-02-23
KR1020130019527A KR20140105689A (ko) 2013-02-23 2013-02-23 사용자의 입력에 응답하여 피드백을 제공하는 방법 및 이를 구현하는 단말

Publications (1)

Publication Number Publication Date
JP2014164763A true JP2014164763A (ja) 2014-09-08

Family

ID=50184744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014032226A Pending JP2014164763A (ja) 2013-02-23 2014-02-21 フィードバック提供方法及び端末

Country Status (12)

Country Link
US (2) US20140240255A1 (ja)
EP (1) EP2770422A3 (ja)
JP (1) JP2014164763A (ja)
KR (1) KR20140105689A (ja)
CN (1) CN104007922B (ja)
AU (1) AU2014200930A1 (ja)
BR (1) BR112015020173A2 (ja)
MX (1) MX2015010919A (ja)
RU (1) RU2675153C2 (ja)
TW (1) TWI644248B (ja)
WO (1) WO2014129828A1 (ja)
ZA (1) ZA201506911B (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103907086B (zh) * 2011-10-06 2017-11-03 索尼移动通信株式会社 用于操纵第一用户接口对象或第二用户接口对象的方法和电子装置
GB2509171A (en) * 2012-12-24 2014-06-25 Loqski Internat Ltd Ski locking device
CN105630366A (zh) * 2014-10-31 2016-06-01 阿里巴巴集团控股有限公司 用于在屏幕显示设备上展示客体信息的方法及装置
KR102380228B1 (ko) 2014-11-14 2022-03-30 삼성전자주식회사 디바이스를 제어하는 방법 및 그 디바이스
CN105786473A (zh) * 2014-12-25 2016-07-20 阿里巴巴集团控股有限公司 多任务界面的任务管理方法、装置及终端设备
CN104965585B (zh) * 2015-06-02 2019-01-25 百度在线网络技术(北京)有限公司 一种模拟视觉物理反馈的方法与装置
CN105573582A (zh) * 2015-12-14 2016-05-11 魅族科技(中国)有限公司 一种显示方法以及终端
CN108475135A (zh) * 2015-12-28 2018-08-31 阿尔卑斯电气株式会社 手写输入装置、信息输入方法以及程序
US10061385B2 (en) * 2016-01-22 2018-08-28 Microsoft Technology Licensing, Llc Haptic feedback for a touch input device
US10852913B2 (en) 2016-06-21 2020-12-01 Samsung Electronics Co., Ltd. Remote hover touch system and method
SE541650C2 (en) * 2017-05-30 2019-11-19 Crunchfish Ab Improved activation of a virtual object
US11243657B2 (en) 2017-06-28 2022-02-08 Huawei Technologies Co., Ltd. Icon display method, and apparatus
CN107797730A (zh) * 2017-11-14 2018-03-13 优酷网络技术(北京)有限公司 界面展示方法及装置
US10921975B2 (en) * 2018-06-03 2021-02-16 Apple Inc. Devices, methods, and user interfaces for conveying proximity-based and contact-based input events
CN110895822B (zh) * 2018-09-13 2023-09-01 虹软科技股份有限公司 深度数据处理系统的操作方法
KR102620073B1 (ko) 2019-01-04 2024-01-03 삼성전자주식회사 가전 기기 및 그 제어 방법
CN110069165A (zh) * 2019-04-29 2019-07-30 广州视源电子科技股份有限公司 触摸数据的处理方法、装置、及设备和存储介质
JP2023039494A (ja) * 2021-09-09 2023-03-22 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006049271A (ja) * 2004-07-01 2006-02-16 Matsushita Electric Ind Co Ltd 光透過性タッチパネル及びこれを用いた検出装置
WO2011013514A1 (ja) * 2009-07-31 2011-02-03 本田技研工業株式会社 車両用操作装置
JP2011134111A (ja) * 2009-12-24 2011-07-07 Sony Corp タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体
US20110234491A1 (en) * 2010-03-26 2011-09-29 Nokia Corporation Apparatus and method for proximity based input
JP2012133523A (ja) * 2010-12-21 2012-07-12 Sony Corp 表示制御装置、表示制御方法、及び、プログラム
JP2012226691A (ja) * 2011-04-22 2012-11-15 Ntt Docomo Inc 表示制御装置及び表示制御方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7511703B2 (en) * 2004-06-28 2009-03-31 Microsoft Corporation Using size and shape of a physical object to manipulate output in an interactive display application
US7649524B2 (en) * 2004-07-15 2010-01-19 N-Trig Ltd. Tracking window for a digitizer system
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
JP4845499B2 (ja) * 2005-12-07 2011-12-28 キヤノン株式会社 インクジェット記録装置および記録装置
TW200806215A (en) * 2006-03-30 2008-02-01 Nelwood Corp Shoe stability layer apparatus and method
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7692629B2 (en) * 2006-12-07 2010-04-06 Microsoft Corporation Operating touch screen interfaces
US8074178B2 (en) * 2007-06-12 2011-12-06 Microsoft Corporation Visual feedback display
US20090027346A1 (en) * 2007-07-16 2009-01-29 Srivastava Aditya Narain Methods and systems for personalizing and branding mobile device keypads
US20090102805A1 (en) * 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
US9030418B2 (en) * 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
US20100020022A1 (en) * 2008-07-24 2010-01-28 Dell Products L.P. Visual Feedback System For Touch Input Devices
US8302026B2 (en) * 2008-11-28 2012-10-30 Microsoft Corporation Multi-panel user interface
US9323398B2 (en) * 2009-07-10 2016-04-26 Apple Inc. Touch and hover sensing
US8347221B2 (en) * 2009-10-07 2013-01-01 Research In Motion Limited Touch-sensitive display and method of control
CN102073454A (zh) * 2011-01-13 2011-05-25 宇龙计算机通信科技(深圳)有限公司 一种移动终端及触摸屏的输入控制方法
US8619049B2 (en) * 2011-05-17 2013-12-31 Microsoft Corporation Monitoring interactions between two or more objects within an environment
US20150332107A1 (en) * 2012-12-24 2015-11-19 Nokia Technologies Oy An apparatus and associated methods

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006049271A (ja) * 2004-07-01 2006-02-16 Matsushita Electric Ind Co Ltd 光透過性タッチパネル及びこれを用いた検出装置
WO2011013514A1 (ja) * 2009-07-31 2011-02-03 本田技研工業株式会社 車両用操作装置
JP2011134111A (ja) * 2009-12-24 2011-07-07 Sony Corp タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体
US20110234491A1 (en) * 2010-03-26 2011-09-29 Nokia Corporation Apparatus and method for proximity based input
JP2012133523A (ja) * 2010-12-21 2012-07-12 Sony Corp 表示制御装置、表示制御方法、及び、プログラム
JP2012226691A (ja) * 2011-04-22 2012-11-15 Ntt Docomo Inc 表示制御装置及び表示制御方法

Also Published As

Publication number Publication date
CN104007922B (zh) 2019-09-03
ZA201506911B (en) 2017-01-25
EP2770422A3 (en) 2017-08-02
AU2014200930A1 (en) 2014-09-11
CN104007922A (zh) 2014-08-27
MX2015010919A (es) 2016-01-12
US20170003812A1 (en) 2017-01-05
EP2770422A2 (en) 2014-08-27
RU2015135589A3 (ja) 2018-03-01
RU2675153C2 (ru) 2018-12-17
WO2014129828A1 (en) 2014-08-28
TWI644248B (zh) 2018-12-11
RU2015135589A (ru) 2017-03-03
KR20140105689A (ko) 2014-09-02
US20140240255A1 (en) 2014-08-28
TW201439886A (zh) 2014-10-16
BR112015020173A2 (pt) 2017-07-18

Similar Documents

Publication Publication Date Title
JP2014164763A (ja) フィードバック提供方法及び端末
JP6999513B2 (ja) イメージ表示方法及び携帯端末
US11074117B2 (en) Copying and pasting method, data processing apparatus, and user equipment
KR102056175B1 (ko) 증강현실 콘텐츠 생성 방법 및 이를 구현하는 휴대단말장치
KR101974852B1 (ko) 터치스크린을 가진 단말에서 오브젝트 이동 방법 및 장치
KR102064952B1 (ko) 수신 데이터를 이용하여 어플리케이션을 운영하는 전자 장치
KR102190904B1 (ko) 윈도우 제어 방법 및 이를 지원하는 전자장치
KR102251834B1 (ko) 전자 장치의 디스플레이 방법
US20140184510A1 (en) Mouse function provision method and terminal implementing the same
JP6251555B2 (ja) アプリケーション情報提供方法および携帯端末
JP6313028B2 (ja) タッチ入力方法及び携帯端末
EP2770421A2 (en) Electronic device having touch-sensitive user interface and related operating method
JP2014110056A (ja) 終了効果を表示するモバイル装置及びその制御方法
US9658865B2 (en) Method of editing content and electronic device for implementing the same
US20150346973A1 (en) Seamlessly enabling larger ui
EP2706451B1 (en) Method of processing touch input for mobile device
KR20140105354A (ko) 터치 감응 유저 인터페이스를 포함하는 전자장치
KR101985888B1 (ko) 전자 게시판 제공 방법 및 장치
KR20140032851A (ko) 터치 입력 처리 방법 및 휴대 단말
KR20140029827A (ko) 이미지 처리 방법 및 휴대 단말

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190402