CN107066137A - 提供用户界面的设备和方法 - Google Patents
提供用户界面的设备和方法 Download PDFInfo
- Publication number
- CN107066137A CN107066137A CN201611178513.7A CN201611178513A CN107066137A CN 107066137 A CN107066137 A CN 107066137A CN 201611178513 A CN201611178513 A CN 201611178513A CN 107066137 A CN107066137 A CN 107066137A
- Authority
- CN
- China
- Prior art keywords
- touch
- finger
- area
- user
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000008859 change Effects 0.000 claims description 23
- 230000003287 optical effect Effects 0.000 claims description 17
- 230000003321 amplification Effects 0.000 claims description 5
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 5
- 230000009471 action Effects 0.000 description 36
- 230000006870 function Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 240000002853 Nelumbo nucifera Species 0.000 description 1
- 235000006508 Nelumbo nucifera Nutrition 0.000 description 1
- 235000006510 Nelumbo pentapetala Nutrition 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011038 discontinuous diafiltration by volume reduction Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
提供了一种提供用户界面的设备和方法。所述设备包括显示单元、传感器和控制器。所述显示单元显示至少一个图形用户界面(GUI)。所述传感器根据用户的手指触摸输入产生传感器信号。所述控制器从传感器接收传感器信号,基于接收的传感器信号识别触摸区域和相邻区域,根据识别的触摸区域和识别的相邻区域产生基于触摸手指形状的信息,控制显示单元根据产生的基于触摸手指形状的信息显示GUI。
Description
本申请是申请日为2009年11月25日,申请号为200910225143.1,题为“提供用户界面的设备和方法”的专利申请的分案申请。
技术领域
本发明涉及一种用于提供用户界面的设备和方法,以及记录用于提供所述用户界面的程序的计算机可读记录介质。
背景技术
随着传感器和软件相关技术的发展,各种电子设备(例如,台式计算机、膝上型计算机、掌上型计算机、个人数字助理(PDA)、便携式多媒体播放器(PMP)以及移动电话)中的用户界面更应该在使用和设计上用户友好。基于触摸的用户界面被广泛地使用,该界面能够在用户触摸显示设备的屏幕时执行操作,从而执行相应的功能。
然而,传统的基于触摸的用户界面存在这样的限制,即,由于触摸图标仅能执行与其相应的指令,不允许多个用户触摸输入。
发明内容
本发明的示例性实施例提供了一种能执行各种输入的用户友好界面。
本发明的示例性实施例还提供了一种能在小尺寸显示设备中快速执行输入的智能用户界面。
将在后面的描述中阐述本发明的其它特征,一部分通过描述将是清楚的,或者通过实施本发明来了解。
本发明的示例性实施例公开了一种使用基于触摸手指类型的信息的设备。该设备包括显示单元、传感器和控制器。所述显示单元显示至少一个图形用户界面(GUI)。所述传感器根据用户手指触摸输入产生传感器信号。控制器从传感器接收传感器信号,基于接收到的传感器信号识别触摸区域和相邻区域,根据识别的触摸区域和识别的相邻区域产生基于触摸手指形状的信息,控制显示单元根据产生的基于手指形状的信息显示GUI。
本发明的示例性实施例公开了一种使用基于触摸手指类型的信息提供用户界面的方法。该方法包括:在屏幕上显示至少一个图形用户界面(GUI);如果在屏幕上输入了用户的手指触摸,则基于由显示设备中包含的至少一个传感器产生的传感器信号识别屏幕上的手指触摸区域和相邻区域;根据识别的触摸区域和识别的相邻区域产生基于触摸手指形状的信息;根据基于触摸手指形状的信息改变和显示GUI。
本发明的示例性实施例公开了一种计算机可读记录介质,所述计算机可读记录介质记录有用于提供用户界面的可执行程序。所述程序包括:用于在屏幕上显示至少一个图形用户界面(GUI)的指令、用于在屏幕上输入了用户的手指触摸的情况下基于由传感器产生的传感器信号识别手指触摸区域和相邻区域的指令、用于根据识别的触摸区域和识别的相邻区域产生基于触摸手指形状的信息的指令、用于根据基于触摸手指形状的信息改变和显示GUI的指令。
应该理解的是,前述概括性描述和下面的详细描述都是示例性和解释性的,目的在于提供权利要求请求保护的本发明的进一步解释。
附图说明
包含的附图用于提供对本发明的进一步理解,包含在本说明书中并构成本说明书的一部分,所述附图举例说明本发明的示例性实施例,并与描述一起用于解释本发明的原理。
图1是示出根据本发明的示例性实施例的用户界面提供设备的框图。
图2是描述根据本发明的示例性实施例的用于提供用户界面的方法的流程图。
图3a是示出根据本发明的示例性实施例的图1的设备中的手指触摸动作的立体图。
图3b示出了根据本发明示例性实施例的图3A的手指触摸动作的手指图像。
图4是示出了根据本发明的示例性实施例的使用基于手指类型的信息提供用户界面的方法的流程图。
图5示出了根据本发明的示例性实施例的在图1的设备中指令执行的第一示例。
图6示出了根据本发明的示例性实施例的在图1中的设备中指令执行的第二示例。
图7示出了根据本发明的示例性实施例的在图1中的设备中指令执行的第三示例。
图8示出了根据本发明的示例性实施例的在图1中的设备中指令执行的第四示例。
图9是示出了根据本发明的示例性实施例的利用基于手指类型的信息的用户界面提供设备中的手指触摸动作的立体图。
图10示出了根据本发明的示例性实施例的图9的设备中指令执行的第一示例。
图11示出了根据本发明的示例性实施例的图9的设备中指令执行的第二示例。
图12是示出了根据本发明的示例性实施例的利用基于手指类型的信息的用户界面提供设备的立体图。
图13示出了根据本发明的示例性实施例的图11的设备中的指令执行。
图14示出了根据本发明的示例性实施例的图1的设备的输出屏幕的第一示例。
图15示出了根据本发明的示例性实施例的图1的设备的输出屏幕的第二示例。
图16示出了根据本发明的示例性实施例的图1的设备的输出屏幕的第三示例。
图17示出了根据本发明的示例性实施例的图1的设备的输出屏幕的第四示例。
图18示出了根据本发明的示例性实施例的图1的设备的输出屏幕的第五示例。
图19示出了根据本发明示例性实施例的图1的设备的输出屏幕的示例。
具体实施方式
在本发明的示例性实施例中,术语“图形用户界面(GUI)”是指显示在显示设备的屏幕上的图形的概念。GUI包括可以被显示在屏幕上的图形对象,例如,图标、项、缩略图、全屏图像等。GUI还包括由图形对象构成的屏幕。
下面,将参照附图更全面地描述本发明,在附图中示出了本发明的示例性实施例。然而,本发明可以以各种形式实现,不应该理解为限于这里阐述的示例性实施例。相反,提供这些实施例,以使得彻底公开本发明,并将本发明的范围全部传达给本领域的技术人员。在附图中,为了清晰起见,夸大了层或区域的尺寸和相对尺寸。附图中相同的标号始终表示相同的元件。
在下面的描述中,为了便于描述,用于通过手指触摸动作执行功能的目标被称作图标。然而,为了容易地设计各种程序、指令或数据文件,也可形成与各种程序、指令或数据文件相应的小图片或符号,并显示在屏幕上。当搜索图片或图像时,所述图标可包括通过减少图片或图像的表示尺寸而表示的缩略图。当用户提供触摸动作时,显示在屏幕上的目标(如图片或图像)可执行预定的操作。即,所述图标可用作代替GUI的概念。
下面,参照附图更详细地描述本发明的示例性实施例。
图1是示出根据本发明的示例性实施例的使用基于手指的类型(下面称为“手指类型”)的信息的用户界面提供设备的框图。
用户界面提供设备10可包括显示单元11、光学传感器12和控制器13。
显示单元11可显示与可通过手指的触摸(下面称为“触摸动作”)而执行的至少一个指令相应的图标。传感器12可获得显示单元11中发生的触摸动作的传感器信号,并可将所述传感器信号输出到控制器13。在本发明的实施例中,传感器12可以是光学传感器或触摸传感器。传感器12可以被配置为与显示单元11接触,可以形成为多层。传感器12可以是具有彼此相对以矩阵形式设置的发光二极管(LED)和光电晶体管的光学检测传感器,其中,通过发射和接收红外射线来获得手指图像。当发生触摸动作时,光学传感器估计从手指反射的光量,即,反射光的量。估计的反射光的量可用作识别触摸区域和相邻区域的数据。光学传感器以这样的方式执行检测操作,即,当屏幕上发生触摸动作时,通过光电二极管估计触摸对象的图像,检测触摸对象在屏幕上实际接触处的有效触摸区域。有效触摸区域被转换为数字图像。分析数字图像,用于有效触摸区域的坐标,从而识别被触摸的位置。因此,被触摸的位置使得可以执行与对应到被触摸位置的图标相关联的各种功能。
在本发明的示例性实施例中,用触摸传感器来实现传感器12。在这种情况下,优选地,触摸传感器是电容式触摸传感器。触摸传感器执行如下的检测操作。当屏幕上发生触摸动作时,从屏幕上的被触摸部分丢失电荷,即,电流流过所述触摸部分。触摸传感器检测丢失电荷的位置,以及丢失的电荷量,然后识别触摸区域和相邻区域。
在本发明的实施例中,传感器12可以被配置为光学传感器和触摸传感器的组合。在这种情况下,触摸传感器可以是电容式触摸传感器或电阻式触摸传感器。传感器12可通过感测触摸动作并获得触摸区域的图像来产生传感器信号。传感器信号可用作识别触摸区域和相邻区域的数据。
在本发明的示例性实施例中,传感器12还可包括用于将模拟信号转换为数字信号的A/D转换器。
当用户的手指触摸屏幕时,传感器12(例如,光学传感)估计反射光的量。传感器12产生包含关于反射的光量的信息的传感器信号,并将其输出到控制器13。即,传感器12基于估计的反射光的量获得手指的图像,产生包含获得的手指图像的传感器信号,然后将传感器信号输出到控制器13。如果传感器12用触摸传感器实现,则触摸传感器检测从屏幕丢失的电荷中的改变(丢失的电荷量),产生包含关于丢失的电荷量的信息的传感器信号,然后将传感器信号输出到控制器13。
将参照图2为控制器13提供的描述。
图2是根据本发明示例性实施例的用于提供用户界面的方法的流程图。在本发明的实施例中,假定控制器13控制显示单元11以显示至少一个GUI。
控制器13控制传感器12,并确定屏幕上是否发生了用户的触摸动作(201)。如果在步骤201传感器12检测到屏幕上的用户触摸动作,则传感器12产生传感器信号并将其输出到控制器13(202)。例如,如果传感器12被实现为光学传感器,则传感器信号包含关于反射的光量的信息。如果传感器12被实现为触摸传感器,则传感器信号包含关于屏幕上丢失的电荷的改变(即,丢失的电荷量)的信息。
当在步骤202中控制器13从传感器12接收到传感器信号时,控制器13识别手指触摸区域和相邻区域(203)。
例如,如果传感器12被实现为光学传感器,则光反射主要发生在屏幕上的手指接触的区域(被称作触摸区域),并且光反射还相对少量地发生在与触摸区域相邻的但是不与用户的手指直接接触的区域(被称作相邻区域)中。控制器13识别反射的光量主要分布的区域为手指触摸区域。类似地,控制器13还识别反射的光量比手指触摸区域的反射光量分布少的区域为手指相邻区域。即,控制器13可根据从屏幕上某一区域反射的光量与作为参考值的预设光量的比较来识别触摸区域和相邻区域。如果从某一区域反射的光量等于或大于预设的光量,则控制器13确定该区域为触摸区域。另一方面,如果从某一区域反射的光量少于预设的光量,则控制器13确定该区域为相邻区域。在本发明的实施例中,预设了第一参考光量和第二参考光量,如果某一区域中反射的光量等于或大于第一预设参考光量,则控制器13可识别该区域为触摸区域。如果该区域中反射的光量小于第一参考光量但是等于或大于第二参考光量,则控制器13还可识别该区域为相邻区域。否则,即,如果某一区域中反射的光量小于第二参考光量,则控制器13可识别该区域为开放区域。
可选地,如果传感器12被实现为触摸传感器,则传感器检测屏幕上的丢失的电荷量。在用户的手指触摸屏幕的区域(被称作触摸区域)中丢失的电荷量大。另一方面,在与触摸区域相邻但是没有被用户的手指触摸的区域(被称作相邻区域)中丢失的电荷量相对小。控制器13识别丢失的电荷量大的区域为手指触摸区域。类似地,控制器还识别丢失的电荷量小于手指触摸区域中丢失的电荷量的区域为手指相邻区域。即,控制器13可根据屏幕上某一区域中丢失的电荷量与作为参考值的预设的电荷量的比较来识别触摸区域和相邻区域。如果某一区域中的丢失的电荷量等于或大于预设的电荷量,则控制器可确定该区域为触摸区域。另一方面,如果某一区域中丢失的电荷量小于预设的电荷量,则控制器13确定该区域为相邻区域。在本发明的实施例中,由于预设了第一参考电荷量和第二参考电荷量,如果某一区域中丢失的电荷量等于或大于第一参考电荷量,则控制器13可识别该区域为触摸区域。如果某一区域中丢失的电荷量小于第一参考电荷量但是等于或大于第二参考电荷量,则控制器13可识别该区域为相邻区域。否则,即,如果某一区域中丢失的电荷量小于第二参考电荷量,则控制器13识别该区域为开放区域。
控制器13根据识别的触摸区域和识别的相邻区域产生基于手指类型的信息(204)。在本发明的实施例中,基于手指类型的信息包括用户手指的位置、触摸手指的触摸形式和触摸手指的类型。控制器13基于触摸区域和相邻区域检测触摸手指的方向矢量。控制器13还获得方向矢量的角度,以及基于方向矢量的角度估计并产生用户手指的位置。控制器13可估计触摸区域的水平长度和垂直长度,通过根据水平长度和垂直长度确定触摸区域的尺寸来产生关于触摸区域的信息。可选地,控制器13基于触摸区域和相邻区域检测触摸手指的方向矢量。控制器13还获得方向矢量的角度,通过根据方向矢量的角度确定触摸手指是右手手指还是左手手指来产生触摸手指类型信息。
控制器13基于产生的基于手指类型的信息控制显示单元11改变并显示GUI(205)。在本发明的实施例中,控制器13可在显示单元11上执行GUI的旋转、移动或放大。
图3A是示出图1的设备中的手指触摸动作的立体图,图3B示出了图3A的手指触摸动作的手指图像。
参照图3a和图3b,当在屏幕上由触摸手指20执行手指触摸动作时,传感器12产生传感器信号。如果所述传感器被实现为光学传感器,则传感器12可获得触摸手指20的手指图像。可通过使用不同的对比以区分触摸屏幕的手指部分和未触摸屏幕的手指部分来获得手指图像。
控制器13可基于传感器信号检测手指触摸区域31和相邻区域32,其中,手指触摸区域31是指手指20触摸屏幕的区域,相邻区域32是指位于屏幕上但是手指20未触摸所述屏幕的区域。控制器13还可识别不是手指触摸区域31和相邻区域32的开放区域33。然后,控制器13可产生与用户的位置关联的信息,以及手指20的触摸部分的手指类型。控制器13可基于手指触摸区域31和相邻区域32检测方向矢量34。然后,控制器13可确定是左手还是右手正在被使用。在本发明的实施例中,控制器13还可基于手指触摸区域31检测和确定被触摸的图标。当执行与被确定的图标相应的指令时,控制器13可根据产生的基于手指类型的信息执行指令。
图4是示出根据本发明的示例性实施例的在传感器12被实现为光学传感器的情况下使用基于手指类型的信息提供用户界面的方法的流程图。
参照图4,控制器13可确定光学传感器12在显示单元11中是否检测到手指20的触摸动作(20)。
如果检测到手指20的触摸动作,则光学传感器12可获得触摸显示单元11的整个手指20的图像(30)。
然后,控制器13可基于由光学传感器12获得的整个手指20的图像,来确定手指触摸区域31和相邻区域32(40)。
然后,控制器13可通过分析手指触摸区域31的坐标确定显示单元11中显示的图标为被触摸的图标(50)。
控制器13可确定什么类型的指令与被确定的图标关联(501)。控制器13可根据确定的指令基于确定的手指触摸区域31和相邻区域32产生基于手指类型的信息。
如果与被确定的图标关联的指令是使用用户的位置信息的指令,则控制器13可计算在手指触摸区域31和相邻区域32中手指20的方向矢量34(511)。具体地,控制器13可计算从相邻区域32朝向手指触摸区域31的手指20的方向矢量34(见图3b)。控制器13可确定方向矢量34的角度(512)。方向矢量34的角度范围为0°到360°。0°可以是从显示单元11的左侧到右侧的水平轴。
控制器13可(例如,参照表1)估计用户的位置,并可相应地产生用户的位置信息(513)。可使用任何合适的手段将表1存储在设备10中,或者提供给设备10。
【表1】
方向矢量的角度 | 用户的位置信息 |
45°到135° | 显示单元的下部 |
大于135°到225° | 显示单元的右侧 |
大于225°到315° | 显示单元的上部 |
大于315°到45° | 显示单元的左侧 |
如表1所示,如果手指20的方向矢量33的角度范围为45°到135°,则用户的位置信息可表示显示单元11的下部。如果手指20的方向矢量33的角度范围为大于135°到225°,则用户的位置信息可表示显示单元11的右侧。如果手指20的方向矢量33的角度范围为大于225°到315°,则用户的位置信息可表示显示单元11的上部。如果手指20的方向矢量33的角度范围为大于315°到45°,则用户的位置信息可表示显示单元11的左侧。
控制器13根据在步骤513产生的用户的位置信息执行与确定的图标相应的图像的旋转、移动和放大(61)。例如,如果用户的位置信息是指显示单元11的下部,则在一些情况下,控制器13相对于朝向显示单元11的下部的用户的位置旋转与确定的图标相应的图像。控制器13还可向着显示单元11的下部移动所述图像,和/或在显示单元的下部放大并显示所述图像。
如果与所述确定的图标相应的指令是使用手指的触摸形式的指令,则控制器13可确定手指触摸区域31的水平长度(a)和垂直长度(b)(521)。可使用式1来计算垂直长度(b)与水平长度(a)的比(c)。
【式1】
c=b/a
控制器13可根据计算的值c确定触摸区域31是大还是小。例如,如表2中所示,如果c大于1,则可确定手指触摸区域31大,或者如果c小于1,则可确定手指触摸区域31小。相应地,控制器13可产生与计算的值c相应的手指触摸形式信息(522)。可以使用任何合适的手段将表2存储在设备10中或将其提供给设备10。
【表2】
c | 手指触摸区域 |
b/a≥1 | 大 |
b/a<1 | 小 |
控制器13可根据产生的手指触摸形式执行与确定的图标关联的指令(62)。例如,当图标是菜单条时,如果手指触摸区域31“大”,则显示下一级菜单,如果手指触摸区域31“小”,则显示上一级菜单。
如果与确定的图标相应的指令是使用手指类型信息的指令,则控制器13可确定是否确定了相邻区域32(530)。如果确定了相邻区域32,则控制器13可计算从相邻区域32向着手指触摸区域31的手指20的方向矢量34(531)。
然后,控制器13可确定方向矢量34的角度(532)。
通常,当根据手指类型执行不同的指令时,可在显示单元的尺寸相对小的移动终端中快速执行输入动作。因此,便携式终端的用户通常可被假定为位于显示单元11的下部。方向矢量33的角度范围为0到180°。
控制器13(例如,参照表3)可基于确定的方向矢量33的角度确定触摸手是右手还是左手,并可相应地产生手指类型信息(535)。可使用任何合适的手段将表3存储在设备10中或提供给设备10。
【表3】
矢量角度 | 手指类型信息 |
0°到90° | 左手 |
90°到180° | 右手 |
在表3中,如果方向矢量33的角度范围为0°到90°,则手指20的类型为左手手指。如果方向矢量33的角度范围为90°到180°,则手指20的类型为右手手指。
如果在步骤S530中未确定相邻区域32,则控制器13可确定手指触摸区域31的位置是在显示单元的右侧还是左侧,并且可产生手指类型信息(533)。
例如,如果手指触摸区域31的位置是显示单元的左侧,则手指20可被确定为左手手指。如果手指触摸区域31的位置是右侧,则手指20可被确定为右手手指。
在确定手指20是右手手指还是左手手指((步骤533或步骤535)之后,控制器13可根据产生的手指类型信息执行与确定的图标相关联的指令(63)。例如,当图标是数字键并且手指20的类型为右手手指时,可输入右侧字符。如果手指20的类型是左手手指,则可输入左侧字符。
实施例1
因此,可根据与被触摸的图标相应的指令的类型基于产生的信息执行各种指令。下面,提供指令执行的示例。
图5示出了在图1的设备中指令执行的示例。在图5中,可通过旋转、移动和放大与被触摸图标相应的图片来显示所述图片。然后,可将所述图片置于在显示单元中的与用户的位置相应的位置。
如图5中的(a)中所示,可以以减小的缩略图形式显示图片,并可随机布置图标。当用户35触摸显示单元11中的图标40时,控制器13可计算手指20的手指图像的方向矢量33,测量矢量角度,并估计用户35的位置。在图5中的(a)中,手指20的方向矢量33的范围为45°到135°,因此,可确定用户35的位置相应于显示单元11的下部。当控制器13通过基于手指方向的信息确定用户35的位置时,与被触摸图标40相应的图片可被旋转、移动、放大并被显示,以与用户35的位置相应,如图5中的(b)中所示。
在传统的触摸用户界面中,当执行这种指令时,必须选择图标,并将所述图标拖拽到用户的位置,并且用户旋转所述图标,然而,根据本发明的示例性实施例,通过图标的单一触摸动作来执行这些动作。此外,根据本发明的示例性实施例,由于将用户的位置用作基于手指类型的信息,所以当很多用户在一个显示单元中执行触摸动作时,本发明的示例性实施例是有用的。
图6示出了在图1的设备中指令执行的第二示例。在图6中,图5的第一示例中显示的图标可形成功能选项的菜单。
如图6中的(a)中所示,当用户35从表示功能选项的多个图标中触摸(例如,表示日程表的)图标50时,控制器13可放大并显示用于管理日程表的日历52,以与确定的用户位置相应。
图7示出了图1的设备中指令执行的第三示例。在图7中,通过将与被触摸图标相应的图片旋转为与用户的位置相应来显示所述图片。
如图7中的(a)中所示,当用户35触摸图标60时,控制器13可根据由控制器13确定的用户的位置信息旋转并显示所述图标60,如图7中的(b)中所示。然而,在图7中,可根据被检测的手指20的特定方向矢量由控制器13确定用户的位置,而不管方向矢量是与显示单元11的右侧、左侧、上侧还是下侧相应(如第一示例)。因此,用户的位置可以是手指20的方向矢量的起始点,图标60可被旋转以与用户的位置(即,方向矢量)相应。
图8示出了图1的设备中指令执行的第四示例。在图8中,在显示单元11中以预定方位显示的屏幕图像旋转,以与用户的位置相应。
在图8中的(a)中,屏幕图像70可初始地被显示为与位于显示单元11的左侧的用户相应。如图8的(a)中所示,当通过位于显示单元11的下部的用户的手指20执行触摸动作时,控制器13可产生用户的位置的信息,如图8中的(b)中所示,控制器13可旋转并显示所述屏幕图像70,以与位于显示显示单元11的下部的用户相应。
实施例2
图9是示出了根据本发明的示例性实施例的在使用基于手指类型的信息的用户界面提供设备中手指触摸动作的立体图。
在图9中的(a)示出的示例中,手指20的下部的大部分触摸显示单元11,并且手指触摸区域81会较大。在图9(b)示出的示例中,仅仅手指20的尖部触摸显示单元11,并且手指触摸区域82会较小。相应地,可根据手指触摸动作执行不同的指令。
图10示出了图9的设备中指令执行的第一示例。在图10中,可根据手指触摸形式显示上一级菜单或下一级菜单。
参照图10中,如果手指触摸区域81“大”,则可显示与被触摸图标相应的下一级菜单。尽管在图10中未显示,但是,如果手指触摸区域的“小”,则可显示与被触摸图标相应的上一级菜单。
图11示出了图9的设备中指令执行的第二示例。在图11中,可根据手指触摸形式执行传统鼠标的右键/左键操作相应的输入指令。
参照图11,如果手指触摸区域82“小”,则可以以与鼠标图像位于相应图标上时点击传统鼠标的右键类似的方式显示菜单。尽管在图11中未示出,但是,如果手指触摸区域“大”,则可以与与鼠标图像位于相应图标上时点击传统鼠标的左键类似的方式执行与被触摸图标相应的指令。
图10示出了根据手指的触摸类型,通过以与点击传统鼠标的右键或左键类似的方式执行的指令的上一级菜单或下一级菜单的显示。然而,本发明的示例性实施例不限于此,还可以被应用于字符的输入。例如,当手指触摸区域81“大”时,可输入相应图标的右字符,当手指触摸区域81“小”,则可输入左侧字符。
实施例3
图12是示出根据本发明的示例性实施例的使用基于手指类型的信息的设备的立体图。
参照图12,控制器13可使用被检测手指的方向矢量33确定触摸手指是右手手指111还是左手手指112。此外,在某些情况下,由于在显示单元11的端部(例如,在右侧或左侧)执行所述触摸动作,使得不能确定手指未触摸区域32,因此,不能确定触摸手指20的方向矢量33。如果不能确定方向矢量33,则控制器可基于手指触摸区域31是朝向显示单元11的右侧或左侧来确定触摸手指是右手手指111还是左手手指112。
图13示出了当在显示单元11中显示用于输入字符的字符阵列时图12的设备中的指令执行。
参照图13,例如,如果控制器13确定由右手手指111触摸了图标123,则可输入字符“+”;如果控制器13确定由左手手指112触摸了图标123,则可输入字符“-”。如果控制器13确定由右手手指111触摸图标121,则可输入字符“]”,如果控制器13确定由左手手指112触摸图标121,则可输入字符“[”。
因此,根据本发明的示例性实施例,可通过单一触摸动作确定手指类型,然后可执行不同的指令。因此,当在具有小尺寸显示器的设备(例如,移动设备)中输入字符时,传统输入方法是不必要的,在所述传统输入方法中,通过一个触摸动作输入左侧字符,通过两个触摸动作输入右侧字符。因此,可更快地输入字符。
图13示出了根据手指类型输入相应图标的右字符或左字符的情形。然而,本发明的示例性实施例不限于此,而是可以应用于,例如,显示上一级菜单或下一级菜单,以与点击传统鼠标的右键或左键类似的方式显示执行指令的菜单,如上面所解释的。例如,如果触摸手指类型是右手手指111,则可显示菜单,类似于如果鼠标右键点击图标则出现显示菜单。如果触摸手指类型是左手手指112,则可执行与被触摸图标相应的指令,类似于当鼠标的左键被点击时。
实施例4
将参照图14至图18提供当用户手指触摸显示单元11并在显示单元11输入移动时的关于用户界面设备的操作的描述。在本发明的实施例中,用户手指的移动相应于手指针对手指触摸区域绘出圆圈的二维运动。
图14示出了根据本发明示例性实施例的图1的设备的输出屏幕的第一示例。
图14中的(a)示出在显示单元11上全屏幕显示图片的屏幕,其中,用户的手指触摸显示单元11,并针对手指触摸区域在显示单元11上执行圆圈绘制运动。
传感器12检测用户的手指的运动,产生传感器信号,并将传感器信号输出到控制器13。控制器13识别改变的手指触摸区域31和改变的相邻区域32,并基于识别的手指触摸区域31和识别的相邻区域32检测改变的手指的方向矢量34。然后,控制器13将用户的手指的运动输入到屏幕之前的手指的方向矢量与用户的手指的运动被输入之后的手指的方向矢量进行比较,估计手指的方向矢量的角度的改变,并执行与估计的方向矢量的改变的角度相应的功能。控制器13可确定手指的方向矢量的改变的角度是否等于或大于预设的角度。仅当手指的方向矢量的改变的角度等于或大于预设角度时,控制器可确定事件已经发生,然后执行相应的功能。在本发明的实施例中,控制器13还可估计手指的方向矢量的角度的改变速率。如果用户的手指快速执行圆圈绘制运动,则控制器13可估计手指的方向矢量的角度的改变速率,然后执行相应的功能。
如图14中所示,屏幕(b)放大屏幕(a)上显示的图片。在本发明的实施例中,当用户的手指顺时针绘制圆圈时,显示设备可放大并显示屏幕上的图像,当用户的手指逆时针绘制圆圈时,缩小并显示图像。如果用户的手指在屏幕上快速地绘制圆圈,则显示设备还可快速地放大或缩小图像。另一方面,如果用户的手指在屏幕上绘制圆圈,然后停留在该位置,则显示设备可与预设的周期逐步放大或缩小图像。
图15示出了根据本发明的示例性实施例的设备1的输出屏幕的第二示例。
如图15中所示,屏幕(a)示出了用户的手指触摸可选项然后针对手指触摸点绘制圆圈的状态。
屏幕(a)显示了整个项的一部分,而剩余部分由于屏幕大小而被剪切掉。在这种情况下,控制器13可执行复制该项的剪切部分的功能。当用户激活MMS消息写入窗口,在多重任务操作中加载网页,触摸网页中的可选项,然后执行圆圈绘制运动时,该项被自动复制,然后被注册为MMS消息的附件,或被粘贴到MMS消息中。如图15中所示,屏幕(b)示出了被选项被自动粘贴到MMS消息写入窗口中的状态。
图16示出了根据本发明示例性实施例的图1的设备的输出屏幕的第三示例。
如图16中所示,屏幕(a)示出了手指触摸包含子菜单的菜单中的图标的状态。当用户手指触摸特定图标时,根据基于手指类型的信息,被触摸的图标显示其子菜单,例如,“twit”、“blog”和“facebook”。如屏幕(a)中所示,手指的类型被以这样的方式显示,即,指尖从右下指向左上。如图16中所示,屏幕(b)示出了随着手指在屏幕(a)上顺时针绘制圆圈指尖从左下指向右上的状态。在这种情况下,也从左下向右上排列子菜单图标。用户还可在手指在屏幕上绘制圆圈的同事移动或排列GUI。
图17示出了根据本发明示例性实施例的图1的输出屏幕的第四示例。
如图17中所示,屏幕(a)示出了用户的手指在显示多媒体内容的屏幕上触摸左下处的再现图标并执行圆圈绘制运动的状态。在这种情况下,控制器13执行快进或后退功能,并控制显示单元11以显示再现信息滚动条。例如,如果用户的手指顺时针绘制圆圈,则控制器13执行快进功能,如果用户的手指逆时针绘制圆圈,则控制器13执行后退功能。
如图17中所示,屏幕(b)示出了用户的手指在显示多媒体内容的屏幕上触摸右下处的音量图标并执行圆圈绘制运动的状态。在这种情况下,控制器13执行音量增加或降低功能,并控制显示单元11以显示音量信息滚动条。例如,如果用户手指顺时针绘制圆圈,则控制器13执行音量增加功能,如果用户手指逆时针绘制圆圈,则控制器13执行音量降低功能。
图18示出了根据本发明示例性实施例的图1的设备的输出屏幕的第五示例。
如图18中所示,屏幕(a)示出了用户的手指触摸特定图标的状态。在这种情况下,控制器13控制单元11执行被触摸的图标并输出相应的功能。如果仅输入触摸动作,则控制器13将该动作识别为选择或执行事件,这与鼠标左键的点击动作类似。
如图18中所示,屏幕(b)示出了用户的手指触摸特定图标然后执行圆圈绘制运动的状态。在这种情况下,控制器13控制显示单元11以显示复制/粘贴子菜单的菜单。如果输入了触摸动作和圆圈绘制运动,则控制器13识别所述动作为菜单输出事件,与鼠标右键的点击动作类似。
应该理解的是,本发明不限于这些实施例。例如,屏幕可以显示多个图标。如果用户的手指触摸多个图标中的一个,则控制器执行与其相应的功能。可选地,如果用户的手指触摸多个图标中的一个,然后针对该图标绘制圆圈,则控制器可将当前模式切换到允许对多个图标作出选择的模式。
实施例5
下面参照图19提供当用户的手指触摸显示单元11并在显示单元11上输入移动时关于用户界面的操作的描述。在本发明的实施例中,用户的手指的移动对应手指慢慢弯曲以改变手指触摸区域的三维动作。
图19示出了根据本发明又一示例性实施例的图1的设备的输出屏幕的示例。
如图19中所示,屏幕(a)与图10的屏幕类似。屏幕(a)示出了用户手指的从顶端到第一关节之间的指尖部分全部触摸屏幕的状态。控制器13检测手指触摸区域81的尺寸,然后控制显示单元11输出与其相应的GUI。如屏幕(a)中所示,控制器13控制显示单元11显示子菜单图标。假定仅由弯曲的手指的指尖执行触摸动作。
如图19中所示,屏幕(b)与图11的屏幕类似,示出了用户的手指的指尖部分的一部分触摸屏幕的状态。控制器13检测手指触摸区域82的尺寸,然后控制显示单元11输出相应的GUI。如屏幕(b)中所示,控制器13控制显示单元11显示上一级菜单图标。假定仅由弯曲手指的指尖执行所述触摸动作。即,控制器13可识别手指触摸区域的尺寸的改变,然后控制显示单元改变并显示GUI。
根据基于由光学触摸传感器检测的手指的信息执行指令的方法被记录作为计算机可读记录介质中的程序。用于检测手指并执行指令的程序包括:用于在显示单元11上显示至少一个图形用户界面(GUI)的指令、用于在屏幕上输入用户的手指触摸的情况下基于由传感器12产生的传感器信号识别屏幕上的手指触摸区域和相邻区域、用于根据识别的触摸区域31和识别的相邻区域32产生基于触摸手指形状的信息的指令、用于根据基于触摸手指形状的信息改变并显示GUI的指令。
如果传感器12被实现为光学传感器,则所述程序可包括命令传感器12以检测显示单元11中的手指20的触摸动作并获得手指20的图像的指令、命令控制器13基于由传感器12获得手指的图像确定手指触摸区域31和相邻区域32的指令、以及命令控制器13基于手指触摸区域31确定被触摸图标的指令。所述程序还包括命令控制器13根据与被检测图标相应的指令产生基于根据手指触摸区域31和相邻区域32确定的手指类型信息的指令,以及命令控制器13根据基于手指类型的信息执行与被检测图标相应的指令的指令。基于手指类型的信息可包括用户的位置、手指的触摸形式、手指类型。在这些示例性实施例中,可根据如上所述的信息执行这些指令。
如上所述,根据本发明,用户界面可允许在显示设备上执行各种用户友好输入。
此外,用户可以在安装了小尺寸的显示器的设备的用户界面中快速而准确地提供输入。
本领域的技术人员应该理解的是,在不脱离本发明的精神和范围的情况下,可以对本发明作出各种变型和改变。因此,本发明的覆盖那些落入由权利要求及其等同物的范围内的本发明的变型和改变。
Claims (20)
1.一种便携式设备,包括:
显示单元,被配置为:显示至少一个对象;
输入单元,被配置为:接收与显示单元上的触摸相关联的用户输入,输入单元包括光学传感器和触摸传感器;
控制器,被配置为:
基于接收的用户输入,识别包括触摸区域和相邻区域的用户输入区域,
将在触摸区域的对象识别为触摸对象,
产生与用户输入区域对应的触摸信息,触摸信息包括用户位置信息、手指触摸形式信息和手指类型信息中的至少一个,
从可执行的多个指令选择与触摸对象相关联的指令,
根据选择的指令,使用触摸信息来处理触摸对象。
2.如权利要求1所述便携式设备,其中,触摸区域对应于与所述触摸相关联的用户输入区域的被触摸的部分,相邻区域对应于与所述触摸相关联的用户输入区域的未被触摸的部分。
3.如权利要求1所述的便携式设备,其中,控制器还被配置为:
基于用户输入区域来确定所述触摸的方向矢量,获得与方向矢量相关联的角度,
通过基于所述角度估计用户位置来产生用户位置信息。
4.如权利要求3所述的便携式设备,其中,控制器被配置为:通过基于用户位置信息和选择的指令执行触摸对象的旋转、移动和放大中的至少一个,来处理触摸对象。
5.如权利要求1所述的便携式设备,其中,控制器还被配置为:
确定与触摸区域相关联的水平长度和垂直长度;
通过基于水平长度和垂直长度确定触摸区域的尺寸,来产生与所述触摸相关联的手指触摸形式信息。
6.如权利要求5所述的便携式设备,其中,控制器被配置为:基于手指触摸形式信息通过执行选择的指令来处理触摸对象。
7.如权利要求1所述的便携式设备,其中,控制器还被配置为:
基于用户输入区域确定所述触摸的方向矢量,
获得与方向矢量相关联的角度,
通过基于所述角度确定所述触摸与右手相关联还是与左手相关联,来产生手指类型信息。
8.如权利要求7所述的便携式设备,其中,控制器被配置为:基于手指类型信息通过执行选择的指令来处理触摸对象。
9.如权利要求1所述的便携式设备,其中,光学传感器被配置为基于与所述触摸相关联的反射的光量来检测用户输入,触摸传感器被配置为基于与所述触摸相关联的改变的电荷量来检测用户输入,
其中,为了识别用户输入区域,控制器被配置为将触摸区域转换为数字图像。
10.如权利要求1所述的便携式设备,其中,控制器还被配置为:
从输入单元接收对应于与所述触摸相关联的移动的用户输入;
基于对应于所述移动的用户输入来识别用户输入区域;
基于用户输入区域确定与所述触摸相关联的方向矢量;
估计与方向矢量相关联的角度的改变;
执行与角度的改变对应的功能。
11.如权利要求1所述的便携式设备,其中,控制器还被配置为:
从输入单元接收对应于与所述触摸相关联的移动的用户输入;
基于对应于所述移动的用户输入,估计触摸区域中的改变;
执行与触摸区域中的改变对应的功能。
12.如权利要求1所述的便携式设备,其中,控制器还被配置为:识别与用户输入区域不同的开放区域,所述开放区域对应于非用户输入区域。
13.一种用于处理便携式设备中的用户界面的方法,包括:
在显示单元上显示至少一个对象;
接收与显示单元上的触摸相关联的用户输入,通过光学传感器和触摸传感器中的至少一个来检测用户输入;
基于接收的用户输入,识别包括触摸区域和相邻区域的用户输入区域;
将在触摸区域的对象识别为触摸对象;
产生与用户输入区域对应的触摸信息,触摸信息包括用户位置信息、手指触摸形式信息和手指类型信息中的至少一个;
从可执行的多个指令选择与触摸对象相关联的指令;
根据选择的指令,使用触摸信息来处理触摸对象。
14.如权利要求13所述的方法,其中,产生触摸信息的步骤还包括:
基于用户输入区域来确定所述触摸的方向矢量;
确定方向矢量的角度;
通过基于所述角度估计用户位置来产生用户位置信息。
15.如权利要求13所述的方法,其中,处理触摸对象的步骤包括:
基于用户位置信息和选择的指令,来执行触摸对象的旋转、移动和放大中的至少一个。
16.如权利要求13所述的方法,其中,产生触摸信息的步骤还包括:
确定与触摸区域相关联的水平长度和垂直长度;
基于水平长度和垂直长度来确定与触摸区域相关联的尺寸;
基于确定的尺寸,来产生与所述触摸相关联的手指触摸形式信息。
17.如权利要求13所述的方法,其中,产生触摸信息的步骤包括:
基于用户输入区域确定所述触摸的方向矢量;
确定与方向矢量相关联的角度;
基于确定的角度,来确定所述触摸与右手相关联还是与左手相关联;
基于所述触摸与右手相关联还是与左手相关联的确定,来产生手指类型信息。
18.如权利要求13所述的方法,其中,产生触摸信息的步骤包括:
如果未识别到相邻区域,则确定与触摸区域相关联的位置对应于显示单元的左侧还是右侧;
基于所述确定来产生手指类型信息。
19.如权利要求14所述的方法,还包括:
接收与所述触摸的移动相关联的用户输入;
基于与所述移动相关联的用户输入,识别用户输入区域;
基于用户输入区域来确定与所述触摸相关联的方向矢量;
估计与方向矢量相关联的角度的改变;
执行与估计的角度的改变对应的功能。
20.如权利要求13所述的方法,还包括:
接收与所述触摸的移动相关联的用户输入;
基于与所述移动相关联的用户输入,估计触摸区域中的改变;
执行与估计的改变对应的功能。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20080117358 | 2008-11-25 | ||
KR10-2008-0117358 | 2008-11-25 | ||
KR10-2009-0113076 | 2009-11-23 | ||
KR1020090113076A KR20100059698A (ko) | 2008-11-25 | 2009-11-23 | 유저인터페이스 제공 장치, 제공방법, 및 이를 기록한 컴퓨터 판독 가능한 기록매체 |
CN200910225143A CN101739208A (zh) | 2008-11-25 | 2009-11-25 | 提供用户界面的设备和方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200910225143A Division CN101739208A (zh) | 2008-11-25 | 2009-11-25 | 提供用户界面的设备和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107066137A true CN107066137A (zh) | 2017-08-18 |
CN107066137B CN107066137B (zh) | 2021-04-27 |
Family
ID=42360946
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200910225143A Pending CN101739208A (zh) | 2008-11-25 | 2009-11-25 | 提供用户界面的设备和方法 |
CN201611178513.7A Expired - Fee Related CN107066137B (zh) | 2008-11-25 | 2009-11-25 | 提供用户界面的设备和方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200910225143A Pending CN101739208A (zh) | 2008-11-25 | 2009-11-25 | 提供用户界面的设备和方法 |
Country Status (2)
Country | Link |
---|---|
KR (3) | KR20100059698A (zh) |
CN (2) | CN101739208A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108109581A (zh) * | 2018-01-16 | 2018-06-01 | 深圳鑫亿光科技有限公司 | 交互式led显示装置及其显示方法 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200145B (zh) | 2007-09-24 | 2020-10-27 | 苹果公司 | 电子设备中的嵌入式验证系统 |
KR101694787B1 (ko) * | 2010-06-30 | 2017-01-10 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어 방법 |
US20120096349A1 (en) * | 2010-10-19 | 2012-04-19 | Microsoft Corporation | Scrubbing Touch Infotip |
CN102479035A (zh) * | 2010-11-23 | 2012-05-30 | 汉王科技股份有限公司 | 具有触摸屏的电子设备及显示左右手控制界面的方法 |
TWI456509B (zh) * | 2010-11-26 | 2014-10-11 | Acer Inc | 手指辨識方法及系統,及其電腦程式產品 |
CN102566858B (zh) * | 2010-12-09 | 2014-12-03 | 联想(北京)有限公司 | 触摸控制方法和电子设备 |
CN102810039A (zh) * | 2011-05-31 | 2012-12-05 | 中兴通讯股份有限公司 | 左右手自适应的虚拟键盘显示方法及终端 |
JP2013117890A (ja) * | 2011-12-05 | 2013-06-13 | Sony Corp | 電子機器及び電子機器の操作方法 |
TWI450150B (zh) * | 2011-12-21 | 2014-08-21 | Wistron Corp | 觸控方法及觸控系統 |
CN102707878A (zh) * | 2012-04-06 | 2012-10-03 | 深圳创维数字技术股份有限公司 | 一种用户界面的操作控制方法及装置 |
JP5966557B2 (ja) | 2012-04-19 | 2016-08-10 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び、情報処理システム |
CN106133748B (zh) * | 2012-05-18 | 2020-01-31 | 苹果公司 | 用于基于指纹传感器输入来操纵用户界面的设备、方法和图形用户界面 |
KR102073601B1 (ko) * | 2012-07-25 | 2020-02-06 | 삼성전자주식회사 | 사용자 단말 장치 및 그의 제어 방법 |
CN103576844B (zh) * | 2012-08-01 | 2017-11-03 | 联想(北京)有限公司 | 显示数据的方法以及电子设备 |
WO2014032239A1 (zh) * | 2012-08-29 | 2014-03-06 | 华为终端有限公司 | 一种终端设备获取指令的方法及终端设备 |
CN103679017B (zh) * | 2012-09-05 | 2017-06-16 | 腾讯科技(深圳)有限公司 | 防止用户界面被劫持的装置及方法 |
CN103838500A (zh) * | 2012-11-20 | 2014-06-04 | 联想(北京)有限公司 | 一种操作对象集合显示方法及电子设备 |
CN103902206B (zh) * | 2012-12-25 | 2017-11-28 | 广州三星通信技术研究有限公司 | 操作具有触摸屏的移动终端的方法和设备及移动终端 |
CN103927105A (zh) * | 2013-01-11 | 2014-07-16 | 联想(北京)有限公司 | 一种用户界面显示方法及电子设备 |
CN105446630B (zh) * | 2014-06-16 | 2019-07-26 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
KR102255143B1 (ko) * | 2014-09-02 | 2021-05-25 | 삼성전자주식회사 | 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치 |
KR102344045B1 (ko) * | 2015-04-21 | 2021-12-28 | 삼성전자주식회사 | 화면을 표시하는 전자 장치 및 그 제어 방법 |
KR102461584B1 (ko) | 2015-11-20 | 2022-11-02 | 삼성전자주식회사 | 입력 처리 방법 및 장치 |
KR102334521B1 (ko) * | 2016-05-18 | 2021-12-03 | 삼성전자 주식회사 | 전자 장치 및 이의 입력 처리 방법 |
CN107589881A (zh) * | 2016-07-06 | 2018-01-16 | 中兴通讯股份有限公司 | 一种智能调用桌面布局的方法和装置 |
KR102123145B1 (ko) * | 2018-02-21 | 2020-06-15 | 박종환 | 손가락의 점유 감지를 이용한 입력 방법 및 입력 장치 |
US11409410B2 (en) | 2020-09-14 | 2022-08-09 | Apple Inc. | User input interfaces |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040021643A1 (en) * | 2002-08-02 | 2004-02-05 | Takeshi Hoshino | Display unit with touch panel and information processing method |
US20040150668A1 (en) * | 2003-01-31 | 2004-08-05 | Xerox Corporation | Secondary touch contextual sub-menu navigation for touch screen interface |
CN1685301A (zh) * | 2002-09-30 | 2005-10-19 | 三洋电机株式会社 | 移动数字装置 |
US20060010400A1 (en) * | 2004-06-28 | 2006-01-12 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
CN1867140A (zh) * | 2005-05-16 | 2006-11-22 | Lg电子株式会社 | 具有卷动设备的移动终端和使用其实现功能的方法 |
WO2006126310A1 (ja) * | 2005-05-27 | 2006-11-30 | Sharp Kabushiki Kaisha | 表示装置 |
US20070097096A1 (en) * | 2006-03-25 | 2007-05-03 | Outland Research, Llc | Bimodal user interface paradigm for touch screen devices |
US20070262961A1 (en) * | 2006-05-10 | 2007-11-15 | E-Lead Electronic Co., Ltd. | Method for selecting functional tables through a touch-sensitive button key |
US20070300182A1 (en) * | 2006-06-22 | 2007-12-27 | Microsoft Corporation | Interface orientation using shadows |
CN101097496A (zh) * | 2006-06-29 | 2008-01-02 | 株式会社Aki | 触摸面板的操纵方法和输入方法 |
US20080168403A1 (en) * | 2007-01-06 | 2008-07-10 | Appl Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
US20080189657A1 (en) * | 2007-02-03 | 2008-08-07 | Lg Electronics Inc. | Mobile communication device and method of controlling operation of the mobile communication device |
EP1980935A1 (en) * | 2006-02-03 | 2008-10-15 | Matsushita Electric Industrial Co., Ltd. | Information processing device |
US20080276203A1 (en) * | 2007-05-04 | 2008-11-06 | Whirlpool Corporation | User interface and cooking oven provided with such user interface |
-
2009
- 2009-11-23 KR KR1020090113076A patent/KR20100059698A/ko active Application Filing
- 2009-11-25 CN CN200910225143A patent/CN101739208A/zh active Pending
- 2009-11-25 CN CN201611178513.7A patent/CN107066137B/zh not_active Expired - Fee Related
-
2016
- 2016-06-03 KR KR1020160069196A patent/KR20160073359A/ko active Application Filing
-
2017
- 2017-04-19 KR KR1020170050473A patent/KR20170046624A/ko active Search and Examination
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040021643A1 (en) * | 2002-08-02 | 2004-02-05 | Takeshi Hoshino | Display unit with touch panel and information processing method |
CN1685301A (zh) * | 2002-09-30 | 2005-10-19 | 三洋电机株式会社 | 移动数字装置 |
US20040150668A1 (en) * | 2003-01-31 | 2004-08-05 | Xerox Corporation | Secondary touch contextual sub-menu navigation for touch screen interface |
US20060010400A1 (en) * | 2004-06-28 | 2006-01-12 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
CN1867140A (zh) * | 2005-05-16 | 2006-11-22 | Lg电子株式会社 | 具有卷动设备的移动终端和使用其实现功能的方法 |
WO2006126310A1 (ja) * | 2005-05-27 | 2006-11-30 | Sharp Kabushiki Kaisha | 表示装置 |
EP1980935A1 (en) * | 2006-02-03 | 2008-10-15 | Matsushita Electric Industrial Co., Ltd. | Information processing device |
US20070097096A1 (en) * | 2006-03-25 | 2007-05-03 | Outland Research, Llc | Bimodal user interface paradigm for touch screen devices |
US20070262961A1 (en) * | 2006-05-10 | 2007-11-15 | E-Lead Electronic Co., Ltd. | Method for selecting functional tables through a touch-sensitive button key |
US20070300182A1 (en) * | 2006-06-22 | 2007-12-27 | Microsoft Corporation | Interface orientation using shadows |
CN101097496A (zh) * | 2006-06-29 | 2008-01-02 | 株式会社Aki | 触摸面板的操纵方法和输入方法 |
US20080168403A1 (en) * | 2007-01-06 | 2008-07-10 | Appl Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
US20080189657A1 (en) * | 2007-02-03 | 2008-08-07 | Lg Electronics Inc. | Mobile communication device and method of controlling operation of the mobile communication device |
US20080276203A1 (en) * | 2007-05-04 | 2008-11-06 | Whirlpool Corporation | User interface and cooking oven provided with such user interface |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108109581A (zh) * | 2018-01-16 | 2018-06-01 | 深圳鑫亿光科技有限公司 | 交互式led显示装置及其显示方法 |
CN108109581B (zh) * | 2018-01-16 | 2018-12-25 | 深圳鑫亿光科技有限公司 | 交互式led显示装置及其显示方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107066137B (zh) | 2021-04-27 |
CN101739208A (zh) | 2010-06-16 |
KR20160073359A (ko) | 2016-06-24 |
KR20100059698A (ko) | 2010-06-04 |
KR20170046624A (ko) | 2017-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107066137A (zh) | 提供用户界面的设备和方法 | |
EP3232315B1 (en) | Device and method for providing a user interface | |
TWI358028B (en) | Electronic device capable of transferring object b | |
CN201156246Y (zh) | 多事件输入系统 | |
US8432301B2 (en) | Gesture-enabled keyboard and associated apparatus and computer-readable storage medium | |
CN102362243B (zh) | 多远程指向器、虚拟对象显示装置和虚拟对象控制方法 | |
US8816964B2 (en) | Sensor-augmented, gesture-enabled keyboard and associated apparatus and computer-readable storage medium | |
US9146672B2 (en) | Multidirectional swipe key for virtual keyboard | |
US9104308B2 (en) | Multi-touch finger registration and its applications | |
US9477396B2 (en) | Device and method for providing a user interface | |
TWI474227B (zh) | 在一觸控面板上解譯模糊輸入 | |
US20100302144A1 (en) | Creating a virtual mouse input device | |
US20120105367A1 (en) | Methods of using tactile force sensing for intuitive user interface | |
US20090102809A1 (en) | Coordinate Detecting Device and Operation Method Using a Touch Panel | |
TWI463355B (zh) | 多點觸控介面之訊號處理裝置、訊號處理方法及使用者介面圖像選取方法 | |
US20110216015A1 (en) | Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions | |
TWI380201B (en) | Method for browsing a user interface for an electronic device and the software thereof | |
EP3100151B1 (en) | Virtual mouse for a touch screen device | |
TWI361372B (en) | Touch-sensitive control systems and methods | |
CN102084325A (zh) | 用于电子设备的延展触摸敏感控制区域 | |
EP3008575A1 (en) | Natural quick function gestures | |
TW201003468A (en) | Virtual touchpad | |
TW201331812A (zh) | 電子裝置及控制電子裝置的方法 | |
TWI374374B (en) | Method for operating a user interface for an electronic device and the software thereof | |
TWI460647B (zh) | 電子裝置與其軟體之使用者介面多重選擇方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210427 |
|
CF01 | Termination of patent right due to non-payment of annual fee |